Redação do Site Inovação Tecnológica - 09/11/2004
O professor Charles Higgins, da Universidade do Arizona, Estados Unidos, está tentando tornar os robôs um pouco mais "fisiológicos". Ele acredita que, se conseguirmos dar-lhes visão e a capacidade de reagir ao que eles virem, poderá tornar os robôs um pouco mais inteligentes do que são hoje.
"Nós não temos robôs que possam competir fisicamente com humanos em nenhuma forma," afirma ele, referindo-se ao fato de que os robôs conseguem ganhar dos humanos no xadrez mas seriam incapazes de jogar futebol com um time de verdade. Na verdade, na maior parte do tempo, os melhores robôs atuais mal conseguiriam identificar a bola, podendo até confundí-la com a cabeça dos adversários.
A visão artificial, e sua aplicação à robótica, não é nenhuma novidade. O problema é que os programas de computador que tornam essa visão uma realidade são pesados demais e tiram qualquer mobilidade do robô. Esses sistemas são sempre conectados a computadores grandes, capazes de processamentos pesados que não estão ao alcance da eletrônica embarcada em robôs autônomos.
Para tentar resolver esse problema, e dar visão e maior autonomia aos robôs, o Dr. Higgins está ajudando a criar um novo campo do conhecimento, a engenharia neuromórfica, uma disciplina que combina a biologia e a eletrônica.
Ele e seus estudantes estão criando um sistema de navegação visual desenvolvendo clones eletrônicos do sistema de processamento visual de insetos. Todo o aparato é baseado na eletrônica analógica.
Ao invés de utilizar os tradicionais microprocessadores, a equipe se baseia em um sistema de processamento paralelo - um conjunto de processadores analógicos simples e lentos, mas trabalhando conjuntamente para resolver o mesmo problema.
Os circuitos criam estimativas de auto-movimento similares ao que os insetos possuem, além de permitir o desvio de obstáculos e o acompanhamento de um alvo, ainda que seja necessário fazer um caminho não direto para atingí-lo.
O Dr. Higgins não acredita que, só porque os computadores ultra-velozes de hoje sejam projetados e construídos com lógica digital, o mesmo enfoque deva ser adotado para qualquer tipo de problema.
O olho humano, por exemplo, processa informação equivalente a cerca de 100 quadros por segundo, muito mais rápido do que uma câmera digital, que normalmente trabalha entre 24 e 30 quadros por segundo.
Cada quadro é processado para luminância, cor e movimento, e as imagens resultantes não são borradas ou manchadas. Fazer isto com um computador convencional é extremamente complicado, exigindo máquinas poderosas e caras.
A equipe do Dr. Higgins está então substituindo as velozes máquinas digitais por lentos processadores analógicos. Mas com a grande vantagem de que cada processador analógico se incumbe de parte diferente da mesma tarefa, todos trabalhando simultaneamente. E tudo a custo muito menor.
O cientista afirma que o primeiro processador visual analógico deverá custar nada menos do que US$30.000,00 para ser construído. Mas, assim que estiver funcionando poderá ser produzido industrialmente por cerca de US$200,00 e, quando produzido em massa, não deverá custar mais do que US$20,00.