Redação do Site Inovação Tecnológica - 25/06/2024
Custo energético da computação
Todo sistema de computação, seja biológico ou ou sintético, desde células até cérebros e computadores, tem um custo. O assunto aqui não é o preço, que geralmente vem bem claro em uma etiqueta, mas um custo de energia ligado ao trabalho necessário para executar um programa e ao calor dissipado no processo.
Há décadas os cientistas vêm desenvolvendo uma teoria termodinâmica da computação, tipicamente calculando o custo da energia usando cálculos básicos abstratos - como o apagamento de um único bit. Mas essas situações hipotéticas não são facilmente transferíveis para cenários de computação do mundo real - essa linha de pesquisas se baseia no trabalho de Rolf Landauer, que aplicou as leis da termodinâmica à informação, e no trabalho de Claude Shannon, considerado o inventor do bit digital.
Agora, um grupo de pesquisadores da Espanha, EUA e Itália conseguiu finalmente expandir a moderna teoria da termodinâmica da computação ao combinar abordagens da física estatística e da ciência da computação.
Gonzalo Manzano e seus colegas introduziram equações matemáticas que revelam o custo mínimo e máximo de energia previsto de processos computacionais que dependem da aleatoriedade, criando uma ferramenta poderosa para analisar e comparar os computadores modernos em suas diversas arquiteturas, da computação eletrônica atual à computação quântica, incluindo arquiteturas como computação neuromórfica, computação na memória, computação orientada a eventos, computação analógica etc.
A estrutura oferece informações totalmente novas sobre como calcular os limites de custo de energia em processos computacionais com um final imprevisível. Por exemplo: um algoritmo que procura o nome ou sobrenome de uma pessoa em um banco de dados pode parar de funcionar se encontrar algum deles, mas não sabemos qual deles foi encontrado.
E há outros exemplos: Um simulador de lançamento de moeda pode ser instruído a parar de lançar quando atingir 10 caras; ou, em biologia, uma célula pode parar de produzir uma proteína quando provoca uma determinada reação em outra célula. Os "tempos de parada" desses processos - o tempo necessário para atingir a meta pela primeira vez - podem variar de tentativa para tentativa.
O novo conjunto de equações oferece uma forma simples de calcular os limites inferiores do custo energético dessas situações.
Como computar gastando menos
Em linhas gerais, esta pesquisa criou um novo caminho para encontrar a energia mais baixa necessária para a computação em qualquer sistema, não importando como ele seja implementado. "Isso está expondo um vasto conjunto novo de questões," disse o professor David Wolpert.
E podem ser questões muito práticas, como apontar novas formas de tornar a computação mais eficiente em termos energéticos. A Fundação Nacional de Ciências dos EUA estimou recentemente que os computadores utilizam entre 5% e 9% da energia gerada globalmente; mas, com as atuais taxas de crescimento, isso poderá atingir 20% até 2030.
Trabalhos anteriores indicavam que os computadores modernos são extremamente ineficientes: Sistemas biológicos, em contraste, seriam cerca de 100.000 vezes mais eficientes em termos energéticos. Assim, uma das principais motivações para uma teoria termodinâmica geral da computação é tanto checar esses cálculos com mais precisão, quanto encontrar novas maneiras de reduzir o consumo de energia das máquinas do mundo real.
Por exemplo, uma melhor compreensão de como os algoritmos e os componentes dos computadores utilizam energia para realizar determinadas tarefas pode apontar para arquiteturas de chips de computador mais eficientes. No momento, ainda não sabemos o melhor caminho para chips físicos que possam realizar tarefas computacionais usando menos energia.
"Esse tipo de técnica pode fornecer uma lanterna na escuridão," disse Wolpert.