Ex-membro da OpenAI é fotografado no Senado dos EUA
Ex-membro da OpenAI, William Saunders, é fotografado no Senado dos EUA (Foto: Rerprodução/Decrypt)

O mais novo modelo de inteligência artificial (IA) GPT-o1 da OpenAI é o primeiro a demonstrar capacidades que podem ajudar especialistas a reproduzir ameaças biológicas conhecidas — e novas —, segundo um o ex-membro da empresa, William Saunders, em uma declaração nesta semana a senadores dos EUA, durante sessão do Comitê de Privacidade, Tecnologia e Direito do Judiciário.

“O novo sistema de IA da OpenAI é o primeiro sistema a mostrar medidas em relação ao risco de armas biológicas, pois é capaz de ajudar especialistas no planejamento da reprodução de uma ameaça biológica conhecida”, disse Saunders. Essa capacidade, ele alertou, carrega o potencial de “danos catastróficos” se os sistemas de AGI forem desenvolvidos sem as devidas precauções.

Publicidade

Especialistas também testemunharam que a inteligência artificial está evoluindo tão rapidamente que um benchmark potencialmente traiçoeiro conhecido como Inteligência Geral Artificial surge no horizonte próximo.

No nível AGI, os sistemas de IA podem igualar a inteligência humana em uma ampla gama de tarefas cognitivas e aprender de forma autônoma. Se um sistema disponível publicamente puder entender a biologia e desenvolver novas armas sem supervisão adequada, o potencial de usuários mal-intencionados causarem danos sérios cresce exponencialmente.

“As empresas de IA estão fazendo rápido progresso em direção à construção de AGI”, disse Saunders ao Comitê. “É plausível que um sistema de AGI possa ser construído em apenas três anos.”

Helen Toner — que também fez parte do conselho da OpenAI e votou a favor da demissão do cofundador e CEO Sam Altman — também espera ver a AGI mais cedo do que tarde. “Mesmo que as estimativas mais curtas se mostrem erradas, a ideia de IA de nível humano sendo desenvolvida na próxima década ou duas deve ser vista como uma possibilidade real que necessita de uma ação preparatória significativa agora”, declarou.

Publicidade

Saunders, que trabalhou na OpenAI por três anos, destacou o anúncio recente da empresa do GPT-o1, um sistema de IA que “ultrapassou marcos significativos” em suas capacidades. Conforme relatado pelo Decrypt , até mesmo a OpenAI disse que decidiu se afastar do aumento numérico tradicional nas versões do GPT, porque esse modelo exibia novas capacidades que tornavam justo vê-lo não apenas como uma atualização, mas como uma evolução — um novo tipo de modelo com habilidades diferentes.

O ex-membro da OpenAI também está preocupado com a falta de medidas de segurança adequadas e supervisão no desenvolvimento de AGI. Ele ressaltou que “ninguém sabe como garantir que os sistemas de AGI serão seguros e controlados”, e criticou a OpenAI por sua nova abordagem em direção ao desenvolvimento seguro de IA, se importando mais com a lucratividade do que com a segurança.

“Embora a OpenAI tenha sido pioneira em aspectos desse teste, ela também priorizou repetidamente a implantação em detrimento do rigor”, ele alertou. “Acredito que há um risco real de que eles percam importantes capacidades perigosas em futuros sistemas de IA.”

O depoimento também mostrou alguns dos desafios internos na OpenAI, especialmente aqueles que vieram à tona após a saída de Altman. “A equipe de Superalignment na OpenAI, encarregada de desenvolver abordagens para controlar a AGI, não existe mais. Seus líderes e muitos pesquisadores importantes renunciaram após lutarem para obter os recursos de que precisavam”, disse Saunders.

Publicidade

AGI e regulação de IA

Suas palavras apenas acrescentam mais um tijolo na parede de reclamações e advertências que os especialistas em segurança de IA têm feito sobre a abordagem da OpenAI. Ilya Sutskever, que foi cofundador da OpenAI e desempenhou um papel fundamental na demissão de Altman, renunciou após o lançamento do GPT-4o e fundou a Safe Superintelligence Inc.

O cofundador da OpenAI, John Schulman, e seu chefe de alinhamento, Jan Leike, deixaram a empresa para se juntar à rival Anthropic, com Leike dizendo que, sob a liderança de Altman, a segurança “ficou em segundo plano em relação brilhantes produtos”.

Da mesma forma, os ex-membros do conselho da OpenAI, Toner e Tasha McCauley, escreveram um artigo de opinião publicado pelo The Economist, argumentando que Sam Altman estava priorizando os lucros em detrimento do desenvolvimento responsável da IA, escondendo desenvolvimentos importantes do conselho e promovendo um ambiente tóxico na empresa.

Em sua declaração, Saunders pediu ação regulatória urgente, enfatizando a necessidade de medidas de segurança claras no desenvolvimento de IA, não apenas das empresas, mas de entidades independentes. Ele também enfatizou a importância da proteção a denunciantes na indústria de tecnologia.

O ex-funcionário da OpenAI destacou as implicações mais amplas do desenvolvimento da AGI, incluindo o potencial de consolidar desigualdades existentes e facilitar a manipulação e a desinformação.

Publicidade

Saunders também alertou que a “perda de controle de sistemas autônomos de IA” poderia potencialmente resultar em “extinção humana“.

*Traduzido e editado com autorização do Decrypt.

  • Com Staking de Solana, você pode ganhar até 4,45% ao ano* + a valorização do ativo no longo prazo. Tenha renda passiva em cripto e receba recompensas a cada 3 dias. Abra sua conta no MB e comece já! *Consulte condições.
VOCÊ PODE GOSTAR
Martelo de justiça de madeira em frente à bandeira dos Estados Unidos

Kraken exige júri em julgamento de ação movida pela SEC

O regulador americano processou a exchange por oferta de “valores mobiliários de criptomoedas” que incluem 11 ativos, como Solana e Polygon
Kamala Harris, vice-presidente dos EUA

Mandato de Kamala Harris pode ser melhor para o Bitcoin, diz VanEck

Donald Trump se lançou como o candidato pró-cripto, mas analistas da VanEck defendem que uma vitória de Kamala Harris seria um impulso maior para o Bitcoin
CEO do JPMorgan, Jamie Dimon, é fotografado

CEO do JPMorgan se gaba de banco ser um dos maiores usuários “reais” de blockchain

Jamie Dimon disse que seu banco é um dos “maiores” usuários do blockchain, mas ele ainda odeia o Bitcoin
Kamala Harris, vice-presidente dos EUA

Kamala Harris supera Trump nas previsões da Polymarket para a eleição dos EUA

Na quarta-feira (11), Trump ainda assumia a liderança