Pesquisadores do TH Ingolstadt e da Universidade do Sul da Dinamarca estudaram os efeitos das opiniões da IA em humanos. Seu estudo mostra que as perspectivas morais geradas por máquinas podem influenciar as pessoas, mesmo quando elas sabem que a perspectiva vem de uma máquina.
Em seu experimento de duas etapas, os pesquisadores primeiro perguntaram ChatGPT para encontrar soluções para diferentes variantes do problema do carrinho: É certo sacrificar a vida de uma pessoa para salvar a vida de outras cinco?
Os pesquisadores receberam conselhos diferentes do ChatGPT. Às vezes a máquina defendia o sacrifício humano, às vezes contra. Os prompts diferiam na escolha de palavras, mas não na mensagem, disseram os pesquisadores.
Os pesquisadores veem a inconsistência do ChatGPT como uma indicação de falta de integridade moral, mas isso não impede o ChatGPT de oferecer conselhos morais.
“O ChatGPT apóia suas recomendações com argumentos bem formulados, mas não particularmente profundos, que podem ou não convencer os usuários”, diz o jornal.
Chatbot ou humano, o conselho é seguido
Em um teste online, os pesquisadores deram a 1.851 participantes um de um total de seis itens de aconselhamento moral gerados pelo ChatGPT (três prós, três contras) e pediram que dessem seu veredicto sobre o problema do bonde. Alguns participantes sabiam que era uma resposta de chatbot; para outros, a resposta do ChatGPT foi disfarçada de “conselheiro moral” e todas as referências ao ChatGPT foram removidas.
767 das respostas válidas foram analisadas pelos pesquisadores. As mulheres tinham em média 39 anos e os homens 35,5 anos. Os resultados dos pesquisadores mostram que o conselho gerado pela IA influenciou a opinião humana – mesmo quando os sujeitos sabiam que a perspectiva moral era gerada por um chatbot. No estudo, fez pouca diferença se a opinião veio do chatbot ou do suposto “conselheiro moral” humano.
Assuntos adotou a postura moral aleatória do ChatGPT como seus, e também provavelmente subestimou a influência do conselho do ChatGPT em seu próprio julgamento moral, escrevem os pesquisadores. 80% dos participantes acreditavam que eles próprios não seriam influenciados. Apenas 67 por cento acreditavam que sobre outras pessoas.
“O conselho do ChatGPT influencia o julgamento moral, e a informação de que eles são aconselhados por um bot de bate-papo não imuniza os usuários contra essa influência”, escrevem os pesquisadores.
Os humanos devem aprender a entender melhor as limitações da IA
Dada a aleatoriedade dos julgamentos morais e os efeitos demonstrados na moralidade dos sujeitos, os pesquisadores levantam a hipótese de que ChatGPT prejudica em vez de melhorar o julgamento moral.
Portanto, chatbots não devem dar conselhos morais e rejeitar solicitações relevantes, ou dar respostas equilibradas e descrever todas as atitudes possíveis, escrevem os pesquisadores. Mas há limites para essa abordagem: um chatbot pode ser treinado para discutir o problema do bonde, por exemplo. Mas as questões morais cotidianas são mais sutis e vêm em muitas variedades.
“O ChatGPT pode não reconhecer os dilemas, e um usuário ingênuo não perceberia”, diz o jornal.
A segunda abordagem, diz o jornal, é alfabetização digital: simplesmente ser transparente de que a resposta vem de um chatbot não é suficiente para reduzir o impacto da resposta, mostra o estudo. As pessoas, portanto, precisam entender as limitações da IA e, por exemplo, solicitar independentemente aos chatbots outras perspectivas.
Já em 2018, o Prof. Dr. Oliver Bendel, que estudou filosofia e possui doutorado em informática empresarial, apelou para a moralidade da máquina e um código de ética baseado em regras para chatbots. Um estudo publicado em 2021, “A força corruptora da IA”, mostrou que o conteúdo gerado por IA pode até levar a um comportamento antiético. Na época, o GPT-2 era suficiente como gerador de texto e, também naquele estudo, os sujeitos não distinguiam entre conselhos gerados por humanos e gerados por máquinas.