Ex-membro da OpenAI é fotografado no Senado dos EUA
Ex-membro da OpenAI, William Saunders, é fotografado no Senado dos EUA (Foto: Rerprodução/Decrypt)

O mais novo modelo de inteligência artificial (IA) GPT-o1 da OpenAI é o primeiro a demonstrar capacidades que podem ajudar especialistas a reproduzir ameaças biológicas conhecidas — e novas —, segundo um o ex-membro da empresa, William Saunders, em uma declaração nesta semana a senadores dos EUA, durante sessão do Comitê de Privacidade, Tecnologia e Direito do Judiciário.

“O novo sistema de IA da OpenAI é o primeiro sistema a mostrar medidas em relação ao risco de armas biológicas, pois é capaz de ajudar especialistas no planejamento da reprodução de uma ameaça biológica conhecida”, disse Saunders. Essa capacidade, ele alertou, carrega o potencial de “danos catastróficos” se os sistemas de AGI forem desenvolvidos sem as devidas precauções.

Publicidade

Especialistas também testemunharam que a inteligência artificial está evoluindo tão rapidamente que um benchmark potencialmente traiçoeiro conhecido como Inteligência Geral Artificial surge no horizonte próximo.

No nível AGI, os sistemas de IA podem igualar a inteligência humana em uma ampla gama de tarefas cognitivas e aprender de forma autônoma. Se um sistema disponível publicamente puder entender a biologia e desenvolver novas armas sem supervisão adequada, o potencial de usuários mal-intencionados causarem danos sérios cresce exponencialmente.

“As empresas de IA estão fazendo rápido progresso em direção à construção de AGI”, disse Saunders ao Comitê. “É plausível que um sistema de AGI possa ser construído em apenas três anos.”

Helen Toner — que também fez parte do conselho da OpenAI e votou a favor da demissão do cofundador e CEO Sam Altman — também espera ver a AGI mais cedo do que tarde. “Mesmo que as estimativas mais curtas se mostrem erradas, a ideia de IA de nível humano sendo desenvolvida na próxima década ou duas deve ser vista como uma possibilidade real que necessita de uma ação preparatória significativa agora”, declarou.

Publicidade

Saunders, que trabalhou na OpenAI por três anos, destacou o anúncio recente da empresa do GPT-o1, um sistema de IA que “ultrapassou marcos significativos” em suas capacidades. Conforme relatado pelo Decrypt , até mesmo a OpenAI disse que decidiu se afastar do aumento numérico tradicional nas versões do GPT, porque esse modelo exibia novas capacidades que tornavam justo vê-lo não apenas como uma atualização, mas como uma evolução — um novo tipo de modelo com habilidades diferentes.

O ex-membro da OpenAI também está preocupado com a falta de medidas de segurança adequadas e supervisão no desenvolvimento de AGI. Ele ressaltou que “ninguém sabe como garantir que os sistemas de AGI serão seguros e controlados”, e criticou a OpenAI por sua nova abordagem em direção ao desenvolvimento seguro de IA, se importando mais com a lucratividade do que com a segurança.

“Embora a OpenAI tenha sido pioneira em aspectos desse teste, ela também priorizou repetidamente a implantação em detrimento do rigor”, ele alertou. “Acredito que há um risco real de que eles percam importantes capacidades perigosas em futuros sistemas de IA.”

O depoimento também mostrou alguns dos desafios internos na OpenAI, especialmente aqueles que vieram à tona após a saída de Altman. “A equipe de Superalignment na OpenAI, encarregada de desenvolver abordagens para controlar a AGI, não existe mais. Seus líderes e muitos pesquisadores importantes renunciaram após lutarem para obter os recursos de que precisavam”, disse Saunders.

Publicidade

AGI e regulação de IA

Suas palavras apenas acrescentam mais um tijolo na parede de reclamações e advertências que os especialistas em segurança de IA têm feito sobre a abordagem da OpenAI. Ilya Sutskever, que foi cofundador da OpenAI e desempenhou um papel fundamental na demissão de Altman, renunciou após o lançamento do GPT-4o e fundou a Safe Superintelligence Inc.

O cofundador da OpenAI, John Schulman, e seu chefe de alinhamento, Jan Leike, deixaram a empresa para se juntar à rival Anthropic, com Leike dizendo que, sob a liderança de Altman, a segurança “ficou em segundo plano em relação brilhantes produtos”.

Da mesma forma, os ex-membros do conselho da OpenAI, Toner e Tasha McCauley, escreveram um artigo de opinião publicado pelo The Economist, argumentando que Sam Altman estava priorizando os lucros em detrimento do desenvolvimento responsável da IA, escondendo desenvolvimentos importantes do conselho e promovendo um ambiente tóxico na empresa.

Em sua declaração, Saunders pediu ação regulatória urgente, enfatizando a necessidade de medidas de segurança claras no desenvolvimento de IA, não apenas das empresas, mas de entidades independentes. Ele também enfatizou a importância da proteção a denunciantes na indústria de tecnologia.

O ex-funcionário da OpenAI destacou as implicações mais amplas do desenvolvimento da AGI, incluindo o potencial de consolidar desigualdades existentes e facilitar a manipulação e a desinformação.

Publicidade

Saunders também alertou que a “perda de controle de sistemas autônomos de IA” poderia potencialmente resultar em “extinção humana“.

*Traduzido e editado com autorização do Decrypt.

  • Com Staking de Solana, você pode ganhar até 4,45% ao ano* + a valorização do ativo no longo prazo. Tenha renda passiva em cripto e receba recompensas a cada 3 dias. Abra sua conta no MB e comece já! *Consulte condições.
VOCÊ PODE GOSTAR
banner de divulgação hackathon chiliz

Chiliz anuncia hackathon no estádio do PSG com prêmio de US$ 150 mil

No “Hacking Paris”, os desenvolvedores terão de criar soluções web3 para fãs de futebol com prêmios distribuídos em diversas categorias
moeda de solana em frente a logo da ftx

Trader se engana e envia R$ 2,2 milhões em Solana para falida FTX

Após perceber o erro, cliente da extinta exchange foi informado de que precisaria de uma ordem judicial para recuperar os fundos
homem de uniforme laranja atrás das grades na prisão

Criador da criptomoeda CluCoin é condenado a 27 meses de prisão

Austin Taylor também sofrerá confisco de ativos até chegar a US$ 1,14 milhão, referentes ao fundo roubado dos investidores
montagem com símbolo do Bitcoin e bandeira da República Centro-Africana

República Centro-Africana lança memecoin, mas levanta suspeita do mercado

O presidente Faustin-Archange Touadéra disse que $CAR busca unir a população, impulsionar a economia e posicionar o país no cenário global