O conteúdo de IA está atualmente na fase do Velho Oeste – você gera o que funciona. Não há regras de transparência. A China e a OpenAI estão trabalhando em contramedidas.
Em adição a questão de direitos autorais sobre conteúdo de treinamento para modelos de IA outra questão fundamental preocupa a indústria de IA: e todo o conteúdo de IA que mal é reconhecível como tal (imagens) ou não é mais reconhecível (textos)?
Que consequências essa falta de transparência no conteúdo da IA pode ter para a sociedade? Estamos enfrentando obstrução de informações e demissões em massa na indústria da mídia? Os ensaios e trabalhos finais estão mortos? Uma onda de notícias falsas e spam está vindo em nossa direção? Claro, todos esses problemas já existem. Mas a automação de IA pode levar o dimensionamento a um novo nível.
Para que nossa sociedade possa tomar uma decisão consciente e regular essas e outras questões, primeiro precisamos de transparência. Atrás de qual trabalho está um ser humano, atrás de qual está uma máquina? Sem essa transparência, as tentativas de regulamentação terão dificuldades.
China proíbe mídia de IA sem marca d’água
A autoridade chinesa do ciberespaço, que entre outras coisas regula e censura a Internet na China, proíbe a criação de mídia de IA sem marcas d’água. Esta nova regra entrará em vigor a partir de 10 de janeiro de 2023.
A autoridade fala dos perigos representados pela “tecnologia de síntese profunda”, que, embora atenda às necessidades do usuário e melhore a experiência do usuário, também é abusada para espalhar informações ilegais e prejudiciais, prejudicar reputações e falsificar identidades.
Esses golpes colocariam em risco a segurança nacional e a estabilidade social, de acordo com um declaração da autoridade . Novos produtos neste segmento devem primeiro ser avaliados e aprovados pela autoridade.
A autoridade destaca a importância das marcas d’água que identificam o conteúdo de IA como tal, sem restringir a função do software. Essas marcas d’água não devem ser excluídas, manipuladas ou ocultadas. Os usuários do software AI devem registrar contas usando seus nomes reais e suas gerações devem ser rastreáveis, diz a autoridade.
OpenAI explora sistemas de detecção de textos AI
Textos gerados por IA sem rótulos, em particular, podem representar novos desafios para a sociedade. Um exemplo é o sistema educacional, que em parte teme a morte da lição de casa desde a introdução do ChatGPT .
E com razão : grandes modelos de linguagem como ChatGPT são particularmente bons em reproduzir conhecimento frequentemente escrito e claramente documentado em novas palavras de forma compacta, compreensível e amplamente livre de erros. Eles são, portanto, feitos sob medida para tarefas escolares, que geralmente são baseadas em conhecimentos relativamente básicos existentes.
Outros exemplos do uso potencialmente prejudicial de textos de IA incluem spam sofisticado ou distribuição em massa de conteúdo fraudulento e propaganda em sites falsos ou perfis de mídia social. Tudo isso já está acontecendo, mas grandes modelos de linguagem podem aumentar a qualidade e o volume desse conteúdo.
OpenAI, a empresa por trás do ChatGPT e GPT-3 portanto, está trabalhando para tornar o conteúdo gerado por IA detectável por meio de marcação técnica, estatística. A empresa aponta para um futuro em que será muito mais difícil passar um texto gerado por IA como escrito por um humano.
A empresa está experimentando um wrapper criptográfico no nível do servidor para texto AI que pode ser reconhecido como uma marca d’água por meio de uma chave. A mesma chave é usada como marca d’água e para verificação de autenticidade.
“Empiricamente, algumas centenas de tokens parecem ser suficientes para obter um sinal razoável de que sim, esse texto veio (de um sistema de IA). Em princípio, você poderia até pegar um texto longo e isolar quais partes provavelmente vieram (do sistema) e quais partes provavelmente não”, diz Scott Aaronson, professor de ciência da computação da Universidade do Texas, que atualmente é pesquisador visitante da OpenAI trabalhando no sistema.
Os pesquisadores da OpenAI planejam apresentar esse sistema com mais detalhes em um artigo nos próximos meses. Também é apenas uma das técnicas de detecção atualmente sendo pesquisadas, diz a empresa.
Mas mesmo que a OpenAI ou outra empresa consiga implementar um mecanismo de detecção funcional e a indústria chegue a um acordo sobre um padrão, isso provavelmente não resolverá o problema de transparência da IA de uma vez por todas.
Difusão estável mostra que a IA generativa de código aberto pode competir com ofertas comerciais. Isso também pode se aplicar a modelos de linguagem . Além de rotular o conteúdo gerado por IA, um sistema de autenticação para autoria humana também pode ser necessário no futuro.
Este texto foi escrito inteiramente por um humano (Matthias Bastian).