Natalio Cosoy - BBC - 11/02/2014
Há mais de duas décadas, Mark Gubrud, pesquisador do Programa sobre Ciência e Segurança Global da Universidade de Princeton, nos Estados Unidos, luta pela criação de regras para o controle de armas robóticas autônomas.
Ele é membro do Comitê Internacional para o Controle de Armas Robóticas (CICAR), um grupo de ativistas, acadêmicos e intelectuais do mundo todo que tenta conseguir a proibição do uso de robôs que podem matar sem a interferência humana - ou robôs autônomos letais.
A última preocupação deste grupo é um lançamento de uma companhia de armamentos britânica BAE Systems: o avião de combate autônomo Taranis.
Nesta semana, a BAE Systems divulgou imagens dos primeiros voos do protótipo do Taranis, realizados em 2013. A aeronave não-tripulada é capaz de realizar missões intercontinentais, é difícil de detectar e pode atacar alvos no ar e em terra.
O drone também pode ser controlado a partir de qualquer lugar do planeta por um piloto em terra. No entanto, o Taranis também pode funcionar sozinho, sem intervenção humana. O Ministério da Defesa britânico, que financiou parte do projeto, disse que não vai usar o Taranis no modo autônomo.
No entanto, esta questão continua preocupando Gubrud, que vê o Taranis como um novo avanço no desenvolvimento de robôs e máquinas autônomas capazes de matar sem a intervenção de humanos.
"Não está clara a razão de o Reino Unido precisar de um avião autônomo de combate furtivo no século 21. Para qual guerra ele é necessário? Que armas terá o inimigo?", questiona.
Robôs assassinos
Gubrud conta que faz campanha contra o uso de armamento autônomos há 25 anos e que vê uma oposição generalizada à produção do que chama de "robôs assassinos".
"Uma pesquisa de março do ano passado (da consultoria YouGov) mostra que o público americano é majoritariamente contra as armas autônomas e apoia os esforços para proibi-las. E o interessante é que esta é a opinião predominante entre membros, ex-membros e familiares de membros das Forças Armadas (dos Estados Unidos)", disse Gubrud em entrevista à BBC.
Gubrud cita como exemplo de armamentos autônomos em uso as minas antipessoais, que seriam um tipo de "robô extremamente simples, que pode estar ativado, o que o faz explodir, ou esperando para ser ativado".
Como exemplos mais avançados, ele cita robôs sentinelas sul-coreanos, capazes de identificar intrusos humanos de forma autônoma dentro de uma área determinada, de "disparar também de forma autônoma, ou de ser instruídos de forma remota para abrir fogo".
Gubrud também cita mísseis, já existentes, que procuram um alvo específico fora do campo visual, mísseis terra-ar ou ar-mar que, segundo ele, têm uma tecnologia que permite distinguir o alvo real de outros falsos, um tipo de navio de outro tipo de navio.
Exterminadores do presente
Para Gubrud, não estamos muito distantes de um cenário em que um robô, como o da série de filmes Exterminador do Futuro, é acionado para realizar missões específicas em situações de conflito.
"O 'Exterminador' era um robô assassino. E veja o que está acontecendo hoje em dia: uma das mais importantes missões das aeronaves controladas de forma remota (drones) é matar".
O pesquisador acreditar que quanto maior for a automatização, maior será o risco de perda de controle: "Se você pensar em um sistema de confronto automático, no qual exércitos de robôs se enfrentam, pode imaginar como seria difícil para uma equipe de engenheiros desenvolver (a tecnologia necessária) e conseguir garantir sua estabilidade no longo prazo?"
Controle humano dos robôs
O pesquisador afirma que é preciso deter o desenvolvimento destes robôs autônomos o mais rapidamente possível - antes que o desenvolvimento deste tipo de armamento avance.
O primeiro passo neste sentido seria divulgar sua existência. O próximo seria lutar pela criação de regras e protocolos que regulamentem o desenvolvimento da tecnologia.
"Acho que os princípios mais fortes para basear uma proibição de armas autônomas são os da humanidade: os humanos sempre devem ter o controle e a responsabilidade do uso de uma força letal.
"É uma ofensa à dignidade humana que existam pessoas submetidas à violência por decisão de uma máquina, ou que estejam sujeitas à ameaça do uso da força por parte de uma máquina, ou que um conflito entre humanos seja iniciado por uma máquina de forma involuntária.
"É um direito humano não ser morto por uma decisão de uma máquina. Este é um princípio moral muito forte, com uma atração universal. E esta deve ser a base para proibir as armas autônomas," defende Gubrud.
Para ele, é preciso definir um regime de controle de armas "que implica que os estados aceitem estes princípios e que os ensinem nas academias militares e que não tenham armas autônomas".
Mas Gubrud também é realista e acredita que as principais potências mundiais resistirão a qualquer tentativa de proibir as armas autônomas.
"Certamente os Estados Unidos são os mais importantes; têm uma política declarada a favor de seu desenvolvimento. A China vê uma oportunidade também e já tem sistemas que seriam preocupantes. O mesmo com a Rússia e o Reino Unido," lamenta ele.