O CEO da OpenAI diz que os governos devem estar cientes do treinamento de IA “acima de uma certa escala”

Sam Altman, cofundador da OpenAI, acredita que a inteligência artificial geral (AGI) é possível e que sua empresa é pioneira no campo.

Em uma postagem no blog, Altman descreve sua visão de inteligência artificial geral e como chegar lá. Os três pontos-chave para Altman são

  • maximizar os benefícios e minimizar as desvantagens de um AGI,
  • amplo acesso ao sistema,
  • e abordar “riscos maciços” por meio de um processo contínuo de implantação e aprendizado de sistemas de IA menos capazes.

Altman deixa claro em seu post que vê o progresso atual da OpenAI como um movimento em direção à IA geral (“à medida que nossos sistemas se aproximam da AGI”), mas também reconhece que não se pode prever “exatamente” o futuro e que o progresso atual pode atingir uma parede . Um início lento com muitos ciclos de feedback é, na visão da OpenAI, a maneira mais segura de trazer a IA para a sociedade.

Atualmente, acreditamos que a melhor maneira de navegar com sucesso pelos desafios de implantação de IA é com um ciclo de feedback estreito de aprendizado rápido e iteração cuidadosa. A sociedade enfrentará grandes questões sobre o que os sistemas de IA podem fazer, como combater o preconceito, como lidar com o deslocamento de empregos e muito mais.

As decisões ideais dependerão do caminho que a tecnologia tomar e, como em qualquer novo campo, a maioria das previsões dos especialistas está errada até agora. Isso torna o planejamento no vácuo muito difícil.

Sam Altman / Open AI

Menos aberto, mais seguro

Segundo Altman, a OpenAI continuará no caminho que já percorreu e publicará apenas com moderação sobre seus modelos. Uma escolha que tem sido criticada pela comunidade científica.

A ideia original de “aberto” (nota: mais no sentido de “código aberto”) nos primeiros dias da OpenAI estava errada, escreve Altman. Em vez disso, diz ele, trata-se de tornar o acesso aos sistemas e seus benefícios o mais seguro possível. Ainda assim, a OpenAI planeja continuar lançando modelos de código aberto, como o recente Modelo de áudio para texto sussurrado .

À medida que os sistemas se tornam mais poderosos, a OpenAI planeja ser mais cuidadosa com os lançamentos. Se o nível de risco se deteriorar drasticamente, a atual estratégia de implantação contínua poderá sofrer uma “mudança significativa”, escreve Altman.

Em algum momento, verificações independentes antes do treinamento de IA e limites de crescimento para modelos de IA podem se tornar necessárias. Isso exigiria padrões públicos. Ao treinar modelos acima de um determinado tamanho, “é importante que os principais governos mundiais tenham conhecimento sobre as corridas de treinamento” escreve Altman.

A visão da OpenAI para o futuro é AGI

O objetivo do OpenAI é AGI amigável ao ser humano que avança a humanidade. Modelos de IA de linguagem grande, como GPT-3 e ChatGPT que contém parte do conhecimento mundial aprendendo com milhões de textos, pode ser um passo intermediário em direção a sistemas de IA mais gerais.

Os defensores desta tese acreditam que grandes Os modelos de IA continuarão a desenvolver novos recursos por meio de dados cada vez mais diversificados e maior escalabilidade. No entanto, esta tese é controversa entre os pesquisadores. Isso é os oponentes argumentam que o dimensionamento puro é um beco sem saída no caminho para a IA semelhante à humana e que os modelos devem desenvolver uma compreensão fundamental do mundo que não pode ser alcançada apenas por meio do treinamento de dados.

Altman apóia a tese da escalabilidade e acredita que ela pode levar a algo grande: “Podemos imaginar um mundo em que a humanidade floresça em um grau que provavelmente é impossível para qualquer um de nós visualizar completamente ainda. Esperamos contribuir para o mundo com uma AGI alinhada com tal florescimento.”

Artigos relacionados