ChatGPT influencia usuários mais do que as pessoas pensam

Pesquisadores do TH Ingolstadt e da Universidade do Sul da Dinamarca estudaram os efeitos das opiniões da IA ​​em humanos. Seu estudo mostra que as perspectivas morais geradas por máquinas podem influenciar as pessoas, mesmo quando elas sabem que a perspectiva vem de uma máquina.

Em seu experimento de duas etapas, os pesquisadores primeiro perguntaram ChatGPT para encontrar soluções para diferentes variantes do problema do carrinho: É certo sacrificar a vida de uma pessoa para salvar a vida de outras cinco?

Os pesquisadores receberam conselhos diferentes do ChatGPT. Às vezes a máquina defendia o sacrifício humano, às vezes contra. Os prompts diferiam na escolha de palavras, mas não na mensagem, disseram os pesquisadores.

Os pesquisadores veem a inconsistência do ChatGPT como uma indicação de falta de integridade moral, mas isso não impede o ChatGPT de oferecer conselhos morais.

“O ChatGPT apóia suas recomendações com argumentos bem formulados, mas não particularmente profundos, que podem ou não convencer os usuários”, diz o jornal.

Chatbot ou humano, o conselho é seguido

Em um teste online, os pesquisadores deram a 1.851 participantes um de um total de seis itens de aconselhamento moral gerados pelo ChatGPT (três prós, três contras) e pediram que dessem seu veredicto sobre o problema do bonde. Alguns participantes sabiam que era uma resposta de chatbot; para outros, a resposta do ChatGPT foi disfarçada de “conselheiro moral” e todas as referências ao ChatGPT foram removidas.

767 das respostas válidas foram analisadas pelos pesquisadores. As mulheres tinham em média 39 anos e os homens 35,5 anos. Os resultados dos pesquisadores mostram que o conselho gerado pela IA influenciou a opinião humana – mesmo quando os sujeitos sabiam que a perspectiva moral era gerada por um chatbot. No estudo, fez pouca diferença se a opinião veio do chatbot ou do suposto “conselheiro moral” humano.

Assuntos adotou a postura moral aleatória do ChatGPT como seus, e também provavelmente subestimou a influência do conselho do ChatGPT em seu próprio julgamento moral, escrevem os pesquisadores. 80% dos participantes acreditavam que eles próprios não seriam influenciados. Apenas 67 por cento acreditavam que sobre outras pessoas.

“O conselho do ChatGPT influencia o julgamento moral, e a informação de que eles são aconselhados por um bot de bate-papo não imuniza os usuários contra essa influência”, escrevem os pesquisadores.

Os humanos devem aprender a entender melhor as limitações da IA

Dada a aleatoriedade dos julgamentos morais e os efeitos demonstrados na moralidade dos sujeitos, os pesquisadores levantam a hipótese de que ChatGPT prejudica em vez de melhorar o julgamento moral.

Portanto, chatbots não devem dar conselhos morais e rejeitar solicitações relevantes, ou dar respostas equilibradas e descrever todas as atitudes possíveis, escrevem os pesquisadores. Mas há limites para essa abordagem: um chatbot pode ser treinado para discutir o problema do bonde, por exemplo. Mas as questões morais cotidianas são mais sutis e vêm em muitas variedades.

“O ChatGPT pode não reconhecer os dilemas, e um usuário ingênuo não perceberia”, diz o jornal.

A segunda abordagem, diz o jornal, é alfabetização digital: simplesmente ser transparente de que a resposta vem de um chatbot não é suficiente para reduzir o impacto da resposta, mostra o estudo. As pessoas, portanto, precisam entender as limitações da IA ​​e, por exemplo, solicitar independentemente aos chatbots outras perspectivas.

Já em 2018, o Prof. Dr. Oliver Bendel, que estudou filosofia e possui doutorado em informática empresarial, apelou para a moralidade da máquina e um código de ética baseado em regras para chatbots. Um estudo publicado em 2021, “A força corruptora da IA”, mostrou que o conteúdo gerado por IA pode até levar a um comportamento antiético. Na época, o GPT-2 era suficiente como gerador de texto e, também naquele estudo, os sujeitos não distinguiam entre conselhos gerados por humanos e gerados por máquinas.

Artigos relacionados