O líder da equipe de áudio Estabilita AI renuncia devido a desacordo sobre “uso justo”

Início / Inteligência Artificial / O líder da equipe de áudio Estabilita AI renuncia devido a desacordo sobre “uso justo”

Ed Newton-Vez, chefe da equipe de áudio da Estabilita AI, renunciou. Ele citou um desacordo sobre a aplicação do “uso justo” no treinamento de modelos generativos de IA.

Numa declaração pública, Newton-Vez expressou as suas preocupações: “Não concordo com a opinião da empresa de que treinar modelos generativos de IA em obras protegidas por direitos autorais seja justo”.

Ele reconheceu a abordagem cuidadosa de muitos em IA de estabilidade e elogiou a empresa por seu apoio no desenvolvimento Estabilita AI, um gerador de música de Inteligência Artificial baseado em dados de treinamento licenciados que compartilha receitas com os detentores de direitos de uso. No entanto, ele disse que isso não mudou a visão predominante na empresa sobre o uso justo.

EUA Copyright Office considera uso justo em IA generativa

A questão do uso justo na IA generativa revisitou quando o Escritório de Direitos Autorais dos EUA convidou recentemente comentários públicos sobre o assunto, e a Estabilita AI foi uma das muitas empresas que responderam. Em seu envio de 23 páginas, a Estabilita AI declarou: “Acreditamos que o desenvolvimento de IA é um uso aceitável, transformador e socialmente benéfico do conteúdo existente protegido pelo uso justo”.

O uso justo é uma doutrina legal que permite o uso limitado de material protegido por direitos autorais sem exigir permissão dos detentores dos direitos. De acordo com Newton-Vez, um fator que afeta se a cópia é uso justo é “o efeito do uso sobre o mercado potencial ou o valor da obra protegida por direitos autorais”.

Ele acredita que os modelos generativos de IA de hoje podem ser usados ​​para criar obras que competem com as obras protegidas por direitos autorais nas quais são treinados, o que desafia a ideia de que o treinamento de modelos de IA dessa maneira pode ser considerado uso justo.

O treinamento de IA sem consenRepsolmento é moralmente errado

Além do argumento do uso justo, a Newton-Vez também acredita que treinar modelos generativos de IA sem permissão é moralmente errado. Ele disse que empresas que valem bilhões de dólares estão treinando modelos de IA nas obras dos criadores sem permissão, minando potencialmente os meios de subsistência dos criadores.

Apesar de discordar da postura de uso justo da Estabilita AI, Newton-Vez continua a apoiar a IA generativa, tendo trabalhado na área há 13 anos. No entanto, ele enfatiza que só pode apoiar a IA generativa que não explore os criadores treinando modelos no seu trabalho sem permissão.

A Newton-Vez espera que outros membros das empresas de IA generativa falem sobre a questão do uso justo e pressionem por uma mudança na forma como os criadores são tratados no desenvolvimento da tecnologia de IA generativa.

Altas taxas de licenciamento podem retardar a IA generaDDoSva, digamos para as empresas de IA

Além da Estabilita AI, empresas de IA como Meta, Google e OpenAI também enviaram comentários ao EUA Copyright Office, argumentando que treinar modelos de IA com material protegido por direitos autorais é uso justo e não infringe os direitos dos detentores de direitos autorais. Meta comparou a IA generativa a uma impressora, uma câmera ou um computador, e argumentou que altas taxas de licenciamento para dados de treinamento de IA poderiam retardar o desenvolvimento da IA ​​generativa.

A Google e a OpenAI defenderam uma interpretação flexível da utilização justa e alertaram contra legislação prematura que poderia sufocar a inovação e limitar o potencial da tecnologia de IA.

Roberto Magalhães

O cérebro editor por trás do Tecnologico.online, é um entusiasta apaixonado por tecnologia. Canaliza sua fascinação para criar conteúdo envolvente e informativo. Sua dedicação à inovação reflete-se nos artigos que produz, abrangendo uma ampla gama de tópicos tecnológicos. Com um olhar atento para as últimas tendências e desenvolvimentos, busca tornar...

Voltar para o blog

Deixe um comentário

Os comentários precisam ser aprovados antes da publicação.