Logotipo do Site Inovação Tecnológica





Informática

Por que os humanos não deveriam confiar na inteligência artificial

Mark Bailey - The Conversation - 18/09/2023

Por que os humanos não podem confiar na inteligência artificial
Você confia na Inteligência Artificial? Neste artigo de opinião, especialista defende que você não deveria.
[Imagem: Criador de imagens do Bing/DALL·E]


Este é um artigo assinado, que não necessariamente reflete a opinião do Site Inovação Tecnológica.


Fantasma na máquina

Existem mentes alienígenas entre nós. Não os homenzinhos verdes da ficção científica, mas as mentes alienígenas que alimentam o reconhecimento facial do seu celular, determinam seu crédito no banco e escrevem poesia e códigos de computador. Essas mentes alienígenas são sistemas de inteligência artificial (IA), o fantasma na máquina que você encontra diariamente.

Mas os sistemas de IA têm uma limitação significativa: A maior parte do seu funcionamento interno é impenetrável, o que os torna fundamentalmente inexplicáveis e imprevisíveis. Além disso, construir sistemas de IA que se comportem da forma que as pessoas esperam é um desafio significativo.

Se você fundamentalmente não entende algo tão imprevisível quanto a IA, como pode confiar nela?

Por que a IA é imprevisível

A confiança é baseada na previsibilidade. Ela depende da sua capacidade de antecipar o comportamento dos outros. Se você confia em alguém e essa pessoa não faz o que você espera, sua percepção da confiabilidade dela diminui.

Muitos sistemas de IA são construídos usando redes neurais de aprendizagem profunda, que de certa forma emulam o cérebro humano. Essas redes contêm "neurônios" interconectados com variáveis, ou "parâmetros", que afetam a força das conexões entre os neurônios. À medida que uma rede ingênua recebe dados de treinamento, ela "aprende" como classificar os dados ajustando esses parâmetros. Desta forma, o sistema de IA aprende a classificar dados que nunca viu antes. Ele não memoriza o que é cada ponto de dados, mas, em vez disso, prevê o que um ponto de dados pode ser.

Muitos dos sistemas de IA mais poderosos contêm trilhões de parâmetros. Por causa disso, as razões pelas quais os sistemas de IA tomam as decisões que tomam são muitas vezes opacas. Este é o problema da explicabilidade da IA - a caixa preta impenetrável da tomada de decisões da IA.

Considere uma variação do "Problema do Bonde": Imagine que você é passageiro de um veículo autônomo, controlado por uma IA; uma criança pequena corre para a estrada e a IA deve agora decidir: Atropelar a criança ou desviar e bater, podendo ferir os passageiros. Esta escolha seria difícil para um ser humano fazer, mas um ser humano tem a vantagem de poder explicar a sua decisão. A sua racionalização - moldada por normas éticas, pelas percepções dos outros e pelo comportamento esperado - dá suporte à confiança.

Em contraste, uma IA não consegue racionalizar a sua tomada de decisões. Você não pode olhar sob o capô do veículo autônomo com seus trilhões de parâmetros para explicar por que ele tomou essa decisão. A IA falha no requisito preditivo de confiança.

Por que os humanos não podem confiar na inteligência artificial
Nas redes neurais, a força das conexões entre os neurônios muda à medida que os dados passam pela camada de entrada e trafegam através de camadas ocultas até a camada de saída, permitindo que a rede aprenda padrões.
[Imagem: Wiso/Wikimedia Commons]

Comportamento da IA e expectativas humanas

A confiança depende não apenas da previsibilidade, mas também de motivações normativas ou éticas. Normalmente, você espera que as pessoas ajam não apenas como você supõe que agirão, mas também como deveriam. Os valores humanos são influenciados pela experiência comum e o raciocínio moral é um processo dinâmico, moldado por padrões éticos e pelas percepções dos outros.

Ao contrário dos humanos, a IA não ajusta o seu comportamento com base na forma como é percebida pelos outros ou aderindo a normas éticas. A representação interna do mundo pela IA é em grande parte estática, definida pelos seus dados de treinamento. O seu processo de tomada de decisões baseia-se num modelo imutável do mundo, imperturbável pelas interações sociais dinâmicas e cheias de nuances que influenciam constantemente o comportamento humano. Os pesquisadores estão trabalhando na programação da IA para incluir a ética, mas isso está se mostrando problemático.

O cenário do carro autônomo ilustra essa questão. Como você pode garantir que a IA do carro tome decisões alinhadas às expectativas humanas? Por exemplo, o carro poderia decidir que bater na criança é o curso de ação ideal, algo que a maioria dos motoristas humanos evitaria instintivamente. Esta questão é conhecida como o problema do alinhamento da IA, e é outra fonte de incerteza que ergue barreiras à confiança.

Sistemas críticos e confiabilidade da IA

Uma forma de reduzir a incerteza e fomentar a confiança é garantir que as pessoas participem nas decisões tomadas pelos sistemas de IA. Esta é a abordagem adotada pelo Departamento de Defesa dos EUA, que exige que, para todas as tomadas de decisão sobre IA, um ser humano esteja no circuito ou acima do circuito. Estar no circuito significa que o sistema de IA faz uma recomendação, mas é necessário que um ser humano inicie uma ação. Estar acima do circuito significa que, embora um sistema de IA possa iniciar uma ação por conta própria, um monitor humano pode interrompê-la ou alterá-la.

Embora manter os seres humanos envolvidos seja um grande primeiro passo, não estou convencido de que isto será sustentável a longo prazo. À medida que as empresas e os governos continuam a adotar a IA, o futuro provavelmente incluirá sistemas de IA aninhados, onde a rápida tomada de decisões limita as oportunidades de intervenção das pessoas. É importante resolver as questões de explicabilidade e alinhamento antes que seja alcançado o ponto crítico onde a intervenção humana se torna impossível. Nesse ponto, não haverá outra opção senão confiar na IA.

Evitar esse limiar é especialmente importante porque a IA está cada vez mais integrada em sistemas críticos, que incluem coisas como redes elétricas, a internet e sistemas militares. Em sistemas críticos, a confiança é fundamental e comportamentos indesejáveis podem ter consequências mortais. À medida que a integração da IA se torna mais complexa, torna-se ainda mais importante resolver problemas que limitam a confiabilidade.

Por que os humanos não podem confiar na inteligência artificial
Nós não sabemos como a inteligência artificial funciona - é a chamada caixa-preta da IA.
[Imagem: Criador de imagens do Bing/DALL·E]

As pessoas podem confiar na IA?

A IA é uma alienígena - um sistema inteligente sobre o qual as pessoas têm pouca percepção. Os humanos são amplamente previsíveis para outros humanos porque partilhamos a mesma experiência humana, mas isto não se estende à inteligência artificial, embora os humanos a tenham criado.

Se a confiabilidade tem elementos inerentemente previsíveis e normativos, a IA carece fundamentalmente das qualidades que a tornariam digna de confiança. Espera-se que mais investigação nesta área possa esclarecer esta questão, garantindo que os sistemas de IA do futuro sejam dignos da nossa confiança.


Este artigo foi republicado da revista The Conversation sob uma licença Creative Commons. Leia o artigo original.

Seguir Site Inovação Tecnológica no Google Notícias





Outras notícias sobre:
  • Inteligência Artificial
  • Robôs
  • Software e Programação
  • Computação Quântica

Mais tópicos