Redação do Site Inovação Tecnológica - 18/12/2023
Computador spintrônico e probabilístico
No ano passado, uma equipe das universidades da Califórnia de Santa Bárbara (EUA) e Tohoku (Japão), apresentou uma prova de conceito de uma nova arquitetura computacional compatível com a inteligência artificial atual, mas com um ganho gigantesco em termos de eficiência energética.
Agora eles apresentaram uma versão mais avançada do computador probabilístico, que é construído com componentes spintrônicos - nessa tecnologia explora-se o magnetismo dos elétrons, e não em sua carga, justificando uma parte da economia de energia desses sistemas.
Um computador probabilístico, ou p-computador, usa blocos de construção naturalmente aleatórios, chamados bits probabilísticos, ou p-bits. Ao contrário dos bits dos computadores tradicionais, os p-bits não têm um valor específico, eles oscilam entre os valores.
Esse comportamento aleatório - ou estocástico - dos componentes spintrônicos torna essa arquitetura particularmente adequada para problemas como inferência e amostragem, o que significa uma capacidade inata de resolver com eficiência várias tarefas computacionalmente difíceis em aprendizado de máquina e inteligência artificial.
A computação probabilística é considerada uma ponte para a computação quântica, mas tem uma vantagem imbatível: Tudo já funciona à temperatura ambiente, em circuitos montados com componentes fabricados pela indústria microeletrônica.
Melhorias do p-computador
A nova versão do p-computador conta com dois importantes avanços de última geração.
Primeiro, a equipe desenvolveu junções de túneis magnéticos estocásticos (sMTJs) no nível dos componentes, o que permitiu construir os p-bits mais rápidos já feitos até hoje, com flutuações na casa dos microssegundos. Isto é cerca de três ordens de magnitude (103) mais rápido do que a versão anterior.
Em segundo lugar, ao forçar uma ordem de atualização no nível do hardware de computação e melhorar o paralelismo camada por camada, a equipe conseguiu implementar a operação básica de uma rede bayesiana (um modelo probabilístico que representa as relações entre as variáveis, como os sintomas e as doenças, por exemplo) como um exemplo de redes neurais estocásticas pré-alimentadas (feedforward) - as saídas de uma rede neural estocástica não são completamente determinadas pelas entradas, já que o acaso dos componentes probabilísticos também as influencia.
Em resumo, esse hardware quase futurístico roda os algoritmos de inteligência artificial atuais, só que mais rapidamente e com um gasto de energia muito menor, o que torna a arquitetura muito promissora.
"As demonstrações atuais são em pequena escala, mas esses projetos podem ser ampliados com o uso da tecnologia de RAM magnética (MRAM) compatível com CMOS, permitindo avanços significativos em aplicações de aprendizado de máquina e, ao mesmo tempo, liberando o potencial para a realização eficiente de hardware de redes neurais profundas/convolucionais," disse o professor Shunsuke Fukami, da Universidade de Tohoku.