O detector de texto IA da OpenAI, lançado em janeiro, já ficou para história. A empresa cita a falta de confiabilidade como o motivo – que era conhecido o tempo todo.
Em uma breve atualização do artigo de anúncio original, a OpenAI diz que descontinuou seu classificador de texto IA “devido à sua baixa taxa de precisão”, como escreve a empresa. A empresa diz que está pesquisando métodos mais eficazes para reconhecimento de texto de IA e também está “comprometida” em desenvolver mecanismos de reconhecimento de conteúdo de áudio e imagem.
OpenAI provavelmente está se referindo a um acordo auto-regulatório voluntário assinado pela OpenAI e outras empresas de IA seguir as diretrizes estabelecidas pela Casa Branca. Um dos métodos mencionados é a marca d’água digital. No passado, porém, O fundador da OpenAI, Sam Altman, criticou repetidamente a viabilidade da marca d’água.
Anti-marketing falhou?
A questão é por que a OpenAI lançou o detector em primeiro lugar. Mesmo no momento de sua inauguração, a OpenAI estava ciente de que o sistema tinha uma baixa taxa de detecção confiável e que identificava erroneamente o texto humano como texto de IA nove por cento das vezes nos testes. A empresa foi aberta sobre essas deficiências e afirmou explicitamente que a ferramenta não era adequada para reconhecer redações de alunos, por exemplo.
Então, por que o lançamento – e agora a retração rápida? Talvez a OpenAI quisesse mostrar que seu próprio e outros detectores de IA não funcionam de uma forma correta. Antimarketing contra detectores de IA, por assim dizer.
Os detectores atuais são preocupantes porque sugerem um nível de controle sobre o texto IA que ainda não existe e talvez nunca exista. Isso, por sua vez, dificulta a integração da tecnologia de maneira significativa, por exemplo, na educação, quando instituições de ensino preferem brincar de detetive ao invés de inovar. Na pior das hipóteses, um detector impreciso leva a acusações precipitadas e falsas com sérias consequências educacionais ou profissionais.