Redação do Site Inovação Tecnológica - 22/08/2022
NeuRRAM
Uma equipe internacional apresentou um novo chip neuromórfico - que imita o cérebro - que roda as computações diretamente na memória e foi projetado e otimizado para aplicações de inteligência artificial.
E essa "inteligência artificial em hardware" faz tudo isso usando uma fração da energia consumida pelas plataformas de computação de IA de uso geral.
Batizado de NeuRRAM, o processador neuromórfico viabiliza o uso da IA em uma ampla variedade de dispositivos de uso final, desconectados da nuvem, rodando tarefas cognitivas sofisticadas em qualquer lugar e a qualquer momento, sem depender de uma conexão de rede com um servidor centralizado.
Atualmente, a computação de IA exige grande poder computacional e consome muita energia. Isso coloca em destaque as deficiências da arquitetura computacional atual, em que os dados precisam viajar constantemente entre a memória e o processador.
"É o equivalente a fazer uma viagem de oito horas para um dia de trabalho de duas horas," comparou Weier Wan, da Universidade da Califórnia de San Diego.
Resolver esse gargalo abre caminho para aplicações de inteligência artificial desplugada que vão de tradutores em tempo real e veículos sem motorista a robôs espaciais.
Computação na memória
Para resolver o problema do tráfego excessivos dos dados, os pesquisadores usaram o que é conhecido como ""memória de acesso aleatório resistiva" (RRAM), um tipo de memória não volátil que permite a computação diretamente na memória, em vez de em unidades de computação separadas - as RRAMs podem ser consideradas como um tipo de memoristor.
A computação com chips RRAMs não é exatamente uma novidade, mas ela geralmente leva a uma diminuição na precisão dos cálculos e à falta de flexibilidade na arquitetura do chip, que precisa ser reprojetado para diferentes aplicações.
"A sabedoria convencional é que a maior eficiência da computação na memória se dá às custas da versatilidade, mas nosso chip NeuRRAM obtém eficiência sem sacrificar a versatilidade," disse Wan.
Segundo a equipe, os ganhos obtidos com o NeuRRAM foram obtidos mediante uma metodologia cuidadosamente elaborada para fazer uma "co-otimização" de vários níveis nas camadas de abstração de hardware e de software, desde o projeto do chip até sua configuração para executar as tarefas de IA. Além disso, a equipe se certificou de considerar várias restrições, que vão desde a física do componente de memória até os circuitos e a arquitetura de rede.
"Este chip agora nos fornece uma plataforma para resolver esses problemas desde o empilhamento dos componentes até os algoritmos," disse Siddharth Joshi, da Universidade de Notre Dame.
Eficiência energética e computacional
A eficiência energética do chip foi avaliada por uma métrica conhecida como "produto de atraso de energia" (PAE) que combina a quantidade de energia consumida para cada operação com a quantidade de vezes que leva para concluir a operação - quanto menor o indicador, melhor. O processador NeuRRAM atinge PAEs de 1,6 a 2,3 vezes menores, e densidade computacional de 7 a 13 vezes maiores, do que os processadores de última geração.
Ao rodar programas típicos de inteligência artificial, ele alcançou 99% de precisão em uma tarefa de reconhecimento de dígitos manuscritos; 85,7% em uma tarefa de classificação de imagens; e 84,7% em uma tarefa de reconhecimento de comando de fala. Além disso, o processador também obteve uma redução de 70% no erro de reconstrução das imagens em uma tarefa de recuperação de imagem. Esses resultados são comparáveis aos processadores digitais atuais que realizam computação com a mesma precisão de bits, mas com economias drásticas de energia.
Os próximos passos incluem otimizar a arquitetura e os circuitos e dimensionar o projeto para nós de tecnologia mais avançada. Os pesquisadores também planejam abordar outras aplicações, como as redes neurais de pico.