Redação do Site Inovação Tecnológica - 03/09/2019
Inteligência artificial humanizada
Engenheiros e programadores envolvidos com a inteligência artificial devem buscar os conhecimentos e conceitos de uma ampla gama de disciplinas das ciências sociais, incluindo aquelas que adotam métodos qualitativos, para reduzir o dano potencial de suas criações e para melhor servir a sociedade como um todo.
Esta é a mensagem de Mona Sloane (Universidade de Nova Iorque) e Emanuel Moss (Universidade Municipal de Nova Iorque), em um artigo que marca o lançamento de uma revista do grupo Nature dedicada à "inteligência de máquina".
"Há evidências crescentes de que a IA pode exacerbar a desigualdade, perpetuar a discriminação e infligir danos. Para alcançarmos uma tecnologia socialmente justa, precisamos incluir a noção mais ampla possível de ciência social, que inclua disciplinas que desenvolveram métodos para lidar com a vastidão do mundo social e que nos ajude a entender como e por que os males da IA surgem como parte de um sistema tecnossocial grande, complexo e emergente," escreveram eles.
Estudos têm mostrado que os mecanismos de busca de informações na internet, baseados no aprendizado de máquina e na inteligência artificial, podem apresentar discriminações e preconceitos. Ao mesmo tempo, analistas têm listado os perigos que a Inteligência Artificial trará à humanidade e levantado dúvidas sobre como os carros autônomos tomarão decisões socialmente aceitáveis em situações de potenciais acidentes.
Ciências sociais dando suporte à inteligência artificial
Os dois pesquisadores defendem que as abordagens das ciências sociais podem aumentar amplamente o valor da inteligência artificial, ao mesmo tempo evitando as armadilhas já documentadas. Para isso, é necessário ir além da garimpagem de dados e seus métodos quantitativos, incorporando os muitos métodos qualitativos das ciências sociais.
Eles reconhecem que os engenheiros de IA estão procurando incutir "alinhamentos de valor" - a ideia de que as máquinas deveriam agir de acordo com os valores humanos - em suas criações, mas acrescentam que "é excepcionalmente difícil definir e codificar algo tão fluido e contextual quanto 'valores humanos' em uma máquina."
Para resolver essa lacuna, os dois autores oferecem um modelo para a inclusão das ciências sociais na inteligência artificial por meio de uma série de recomendações:
"À medida que avançamos alinhando os elementos sociais, culturais e tecnológicos de nossas vidas, precisamos integrar diferentes tipos de conhecimento ao desenvolvimento tecnológico. Um futuro mais socialmente justo e democrático para a IA na sociedade não pode simplesmente ser calculado ou projetado; ele deve ser vivido, narrado e extraído de um profundo entendimento sobre a sociedade," concluem Sloane e Moss.