O Dr. Christoph Neuberger é professor do Instituto de Estudos de Jornalismo e Comunicação da Freie Universität Berlin. Ele também é o diretor científico do Weizenbaum Institute for the Networked Society e membro da Learning Systems Platform.
A inteligência artificial (IA) permaneceu por muito tempo uma promessa, uma promessa não cumprida. Isso parece estar mudando: com ChatGPT, a inteligência artificial chegou ao dia a dia. A capacidade do chatbot de responder perguntas abertas de forma espontânea, elaborada e muitas vezes correta – mesmo na forma de textos longos – é surpreendente e supera qualquer coisa vista antes. Isso está causando um grande rebuliço. Está dando ao desenvolvimento da IA um significado totalmente novo na percepção do público. Em muitas áreas, as pessoas estão experimentando o ChatGPT, negócios, ciência e política estão explorando as possibilidades positivas e negativas.
É fácil esquecer que não há mente na máquina. Esse fenômeno já foi apontado pelo pioneiro da computação Joseph Weizenbaum, que nasceu em Berlim há cem anos. Ele programou um dos primeiros chatbots no início dos anos 1960. ELIZA, como era chamada, era capaz de conduzir uma conversa terapêutica. Da perspectiva de hoje, as respostas eram bastante simples. No entanto, Weizenbaum observou como os sujeitos do teste desenvolveram um relacionamento emocional com ELIZA e se sentiram compreendidos. A partir desse e de outros exemplos, ele concluiu que o perigo real não está nas capacidades do computador, que Weizenbaum diz serem bastante limitadas. Em vez disso, é a falsa crença no poder do computador, a subjugação voluntária dos humanos, que se torna o problema. Isso está associado à imagem do ser humano previsível, o que não é verdade: respeito, compreensão, amor, inconsciente e autonomia não podem ser substituídos por máquinas. O computador é uma ferramenta que pode fazer certas tarefas mais rápido e melhor – mas não mais. Portanto, nem todas as tarefas devem ser atribuídas ao computador.
O Weizenbaum Institute for the Networked Society em Berlim – fundado em 2017 e apoiado por um consórcio de sete universidades e instituições de pesquisa – realiza pesquisas interdisciplinares sobre a digitalização da política, mídia, economia e sociedade civil. Os pesquisadores estão comprometidos com o trabalho do homônimo do instituto e focam na questão da autodeterminação. Por exemplo, a esfera pública é o lugar central da autocompreensão coletiva e da autodeterminação na democracia. É aqui que as questões controversas devem ser esclarecidas e as decisões políticas devem ser preparadas num discurso diverso, respeitoso e racional. Para isso, o jornalismo seleciona temas, informa sobre eles, modera o discurso público e se posiciona nele.
Uso Responsável de IA no Jornalismo
Ao lidar com grandes modelos de linguagem, como o ChatGPT, surge a questão de saber até que ponto os aplicativos de IA podem e devem determinar notícias e opiniões. Algoritmos já estão sendo usados de diversas formas nas redações: ajudam a identificar temas emergentes e detectar notícias falsas; eles escrevem relatórios sobre o clima ou o mercado de ações por conta própria e geram legendas para relatórios em vídeo; eles personalizam a página de notícias e filtram os comentários dos leitores.
Todos esses são aplicativos úteis que podem ser usados não apenas para reduzir a carga de trabalho da equipe da redação, mas também para melhorar a qualidade da mídia. Mas: quanto controle as redações realmente têm sobre o resultado, os padrões profissionais estão sendo atendidos? Os conflitos estão sendo provocados ou uma visão distorcida do mundo está sendo criada? E quanto o público aprende sobre como a IA funciona? Todas essas são questões importantes que exigem sensibilidade especial no uso e no design ativo da IA. Os principais fatores para o uso responsável da IA no jornalismo incluem rotulagem transparente de aplicativos de IA, teste de padrões de segurança e qualidade, promoção de desenvolvimento e treinamento adicionais, tratamento crítico da IA e redução de medos por meio de uma melhor educação.
Aqui também surge a questão colocada por Joseph Weizenbaum: que tarefas não devem ser atribuídas aos computadores? Até agora, não há chatbots em público discutindo uns com os outros – mas isso pode mudar em breve. O ChatGPT também desperta a imaginação. Uma simulação de democracia que nos isentasse como cidadãos da tarefa de informar, refletir, discutir, mobilizar e participar seria o fim da autodeterminação e maturidade da democracia. Portanto, moderação no uso de modelos de linguagem em larga escala é o imperativo que deve ser observado aqui e em outras áreas de aplicação.
Sobre as potencialidades e desafios do uso da IA no jornalismo, o Papel branco do Grupo de Trabalho de Segurança, Privacidade, Lei e Ética de TI fornece uma visão geral do potencial e dos desafios do uso de IA no jornalismo.