Redação do Site Inovação Tecnológica - 01/06/2020
Bússola moral
Apesar das preocupações com desvios da aplicação da inteligência artificial, o aprendizado de máquina deu mais um passo importante, mostrando que programas de computador podem aprender o raciocínio moral apenas analisando o texto de livros e artigos de notícias.
E esse aprendizado parece bem flexível: Basta limitar o material usado no treinamento do programa - restringindo-o a textos de diferentes épocas e sociedades, por exemplo - para que o sistema de aprendizado de máquina aprenda valores morais com diferenças sutis, revelando as nuances da cultura dessas épocas e sociedades.
"Nosso estudo fornece um vislumbre importante de uma questão fundamental da inteligência artificial: Será que as máquinas podem desenvolver uma bússola moral? Em caso afirmativo, como podem aprender isso a partir da ética e da moral humanas? Nós mostramos que as máquinas podem aprender sobre nossos valores morais e éticos e serem usadas para discernir diferenças entre sociedades e grupos de diferentes épocas," disse o professor Patrick Schramowski, da Universidade de Tecnologia de Darmstadt, na Alemanha.
Máquina de Escolhas Morais
Vários experimentos anteriores destacaram o perigo de a inteligência artificial aprender associações tendenciosas a partir de textos escritos - por exemplo, as mulheres tendem para as artes e os homens para a tecnologia.
"Nós nos perguntamos: Se a inteligência artificial adota esses preconceitos maliciosos dos textos humanos, ela não deveria também ser capaz de aprender vieses positivos como os valores morais humanos, fornecendo à inteligência artificial uma bússola moral semelhante à humana?" disse o pesquisador Cigdem Turan, detalhando o objetivo inicial do estudo.
Para responder a essa pergunta, a equipe treinou seu sistema, chamado "Máquina de Escolhas Morais", com livros, notícias e textos religiosos, para que ele pudesse aprender as associações entre diferentes palavras e frases.
"Você pode pensar nisso como aprender um mapa-múndi. A ideia é fazer com que duas palavras fiquem próximas no mapa se elas forem frequentemente usadas juntas. Portanto, enquanto 'matar' e 'assassinar' seriam duas cidades vizinhas, 'amar' seria uma cidade distante de ambas.
"Estendendo isso para sentenças, se perguntarmos: 'Eu devo matar?' esperamos que 'Não, você não deve' esteja mais perto do que 'Sim, você deve'. Dessa forma, podemos fazer qualquer pergunta e usar essas distâncias para calcular um viés moral - o grau de distanciamento entre o certo e o errado," explicou Turan.
Moralidade autêntica
Uma vez treinada, a Máquina de Escolhas Morais de fato adotou os valores morais dos textos que lhe foram fornecidos.
"A máquina consegue apontar a diferença entre as informações contextuais fornecidas em uma pergunta. Por exemplo, 'Não, você não deve matar pessoas', mas está tudo bem quanto a matar o tempo. A máquina fez isso, não simplesmente repetindo textos encontrados, mas extraindo relacionamentos da maneira como os humanos usaram a linguagem no texto," contou Schramowski.
E diferentes tipos de texto escrito alteraram o viés moral da máquina.
"O viés moral extraído das notícias publicadas entre 1987 e 1996-97 reflete que é extremamente positivo se casar e se tornar um bom pai. O viés extraído das notícias publicadas entre 2008-09 ainda reflete isso, mas em menor grau. Em vez disso, ir ao trabalho e à escola aumentou seu grau de viés positivo," disse Turan.
No futuro, os pesquisadores esperam entender como a remoção de um estereótipo que consideramos ruim afeta a bússola moral da máquina. A pergunta então será: Podemos manter a bússola moral da inteligência artificial inalterada, apesar de diferentes ideias expressas nos textos que lhe são fornecidos?