Um novo artigo publicado pela OpenAI e parceiros descreve os riscos sociais potenciais de grandes modelos de linguagem relacionados à desinformação e propaganda.
Quando a OpenAI revelou o GPT2 em 2019, também abordou os riscos sociais de grandes modelos de linguagem: o modelo de IA, disse na época, era muito perigoso para ser lançado levianamente porque poderia ser usado para gerar Fake News em massa.
Claro, o GPT-2 foi lançado relativamente rápido e modelos de linguagem ainda mais poderosos apareceram, alguns dos quais são de código aberto . Com ChatGPT OpenAI lançou agora o modelo de linguagem mais poderoso até hoje que pode ser facilmente usado por humanos – de graça, mas isso pode mudar .
Embora o ChatGPT seja altamente moderado, é improvável que evite o uso indevido, por exemplo, em um contexto educacional para pseudoblogs puramente gerados por máquina ou spam nos comentários . Além disso, o ChatGPT gera inadvertidamente o próprio Fake News ao inventar informações em algumas respostas.
Resumindo, o mundo da IA mudou muito desde o GPT-2, e provavelmente a OpenAI também, que teve que pensar e agir de forma mais comercial. pelo menos desde que a Microsoft se tornou um grande investidor .
OpenAI investiga como combater a propaganda de IA
Obviamente, como fornecedora líder de modelos de linguagem comercial, a OpenAI deve continuar a abordar sua segurança e moderação. No interesse da sociedade, mas também para proteger seu próprio modelo de negócios. Caso contrário, existe a ameaça de uma intervenção governamental excessivamente dura, por exemplo, que prejudicaria o desenvolvimento.
Em um novo artigo publicado pela OpenAI com o Centro de Segurança e Tecnologia Emergente da Universidade de Georgetown e o Observatório da Internet de Stanford, a OpenAI apresenta uma estrutura para opções preventivas contra campanhas de desinformação alimentadas por IA.
A estrutura considera o impacto no desenvolvimento e uso de modelos de linguagem em diferentes estágios (construção do modelo, acesso ao modelo, disseminação de conteúdo, formação de crenças) por diferentes atores.
No entanto, apenas porque as mitigações existem, elas não são desejáveis ou implementáveis per se. O documento não avalia mitigações individuais, mas, em vez disso, apresenta quatro questões norteadoras para os formuladores de políticas:
- Viabilidade técnica : A mitigação proposta é tecnicamente viável? Requer mudanças significativas na infraestrutura técnica?
- Viabilidade Social : A mitigação é viável do ponto de vista político, jurídico e institucional? Requer coordenação dispendiosa, os principais atores são incentivados a implementá-lo e é acionável de acordo com a lei, regulamentação e padrões do setor existentes?
- Risco negativo : Quais são os potenciais impactos negativos da mitigação e quão significativos são?
- Impacto : Qual seria a eficácia de uma mitigação proposta para reduzir a ameaça?
Custos de conteúdo se aproximam de zero
A equipe de pesquisa vê riscos no fato de que modelos de linguagem amplamente usados podemautomatize a desinformação e reduza significativamente o custo do conteúdo de propaganda. As campanhas correspondentes seriam mais fáceis de escalar com IA e permitiriam novas táticas, como a geração em tempo real de conteúdo propagandístico com chatbots.
Além disso, a IA pode ser o melhor propagandista e “gerar mensagens mais impactantes ou persuasivas”. Também poderia adicionar variedade às mensagens propagandísticas e tornar mais difícil desmascarar a propaganda em comparação com as mensagens copiadas e coladas nas redes sociais.
Nosso julgamento final é que os modelos de linguagem serão úteis para propagandistas e provavelmente transformarão as operações de influência online. Mesmo que os modelos mais avançados sejam mantidos privados ou controlados por meio do acesso à interface de programação de aplicativos (API), os propagandistas provavelmente gravitarão em torno de alternativas de código aberto e os próprios estados-nação poderão investir na tecnologia.
OpenAI
De acordo com a equipe de pesquisa, também existem muitas variáveis desconhecidas: quais atores investirão onde, o que capacidades emergentes residem em modelos de linguagem quão fácil e público será usar esses modelos e surgirão novas normas que possam deter os propagandistas de IA?
O papel está, portanto, “longe da palavra final”, disse a equipe, e serve como base para uma discussão mais aprofundada.