O mais novo modelo de inteligência artificial (IA) GPT-o1 da OpenAI é o primeiro a demonstrar capacidades que podem ajudar especialistas a reproduzir ameaças biológicas conhecidas — e novas —, segundo um o ex-membro da empresa, William Saunders, em uma declaração nesta semana a senadores dos EUA, durante sessão do Comitê de Privacidade, Tecnologia e Direito do Judiciário.
“O novo sistema de IA da OpenAI é o primeiro sistema a mostrar medidas em relação ao risco de armas biológicas, pois é capaz de ajudar especialistas no planejamento da reprodução de uma ameaça biológica conhecida”, disse Saunders. Essa capacidade, ele alertou, carrega o potencial de “danos catastróficos” se os sistemas de AGI forem desenvolvidos sem as devidas precauções.
Especialistas também testemunharam que a inteligência artificial está evoluindo tão rapidamente que um benchmark potencialmente traiçoeiro conhecido como Inteligência Geral Artificial surge no horizonte próximo.
No nível AGI, os sistemas de IA podem igualar a inteligência humana em uma ampla gama de tarefas cognitivas e aprender de forma autônoma. Se um sistema disponível publicamente puder entender a biologia e desenvolver novas armas sem supervisão adequada, o potencial de usuários mal-intencionados causarem danos sérios cresce exponencialmente.
“As empresas de IA estão fazendo rápido progresso em direção à construção de AGI”, disse Saunders ao Comitê. “É plausível que um sistema de AGI possa ser construído em apenas três anos.”
Helen Toner — que também fez parte do conselho da OpenAI e votou a favor da demissão do cofundador e CEO Sam Altman — também espera ver a AGI mais cedo do que tarde. “Mesmo que as estimativas mais curtas se mostrem erradas, a ideia de IA de nível humano sendo desenvolvida na próxima década ou duas deve ser vista como uma possibilidade real que necessita de uma ação preparatória significativa agora”, declarou.
Saunders, que trabalhou na OpenAI por três anos, destacou o anúncio recente da empresa do GPT-o1, um sistema de IA que “ultrapassou marcos significativos” em suas capacidades. Conforme relatado pelo Decrypt , até mesmo a OpenAI disse que decidiu se afastar do aumento numérico tradicional nas versões do GPT, porque esse modelo exibia novas capacidades que tornavam justo vê-lo não apenas como uma atualização, mas como uma evolução — um novo tipo de modelo com habilidades diferentes.
O ex-membro da OpenAI também está preocupado com a falta de medidas de segurança adequadas e supervisão no desenvolvimento de AGI. Ele ressaltou que “ninguém sabe como garantir que os sistemas de AGI serão seguros e controlados”, e criticou a OpenAI por sua nova abordagem em direção ao desenvolvimento seguro de IA, se importando mais com a lucratividade do que com a segurança.
“Embora a OpenAI tenha sido pioneira em aspectos desse teste, ela também priorizou repetidamente a implantação em detrimento do rigor”, ele alertou. “Acredito que há um risco real de que eles percam importantes capacidades perigosas em futuros sistemas de IA.”
O depoimento também mostrou alguns dos desafios internos na OpenAI, especialmente aqueles que vieram à tona após a saída de Altman. “A equipe de Superalignment na OpenAI, encarregada de desenvolver abordagens para controlar a AGI, não existe mais. Seus líderes e muitos pesquisadores importantes renunciaram após lutarem para obter os recursos de que precisavam”, disse Saunders.
AGI e regulação de IA
Suas palavras apenas acrescentam mais um tijolo na parede de reclamações e advertências que os especialistas em segurança de IA têm feito sobre a abordagem da OpenAI. Ilya Sutskever, que foi cofundador da OpenAI e desempenhou um papel fundamental na demissão de Altman, renunciou após o lançamento do GPT-4o e fundou a Safe Superintelligence Inc.
O cofundador da OpenAI, John Schulman, e seu chefe de alinhamento, Jan Leike, deixaram a empresa para se juntar à rival Anthropic, com Leike dizendo que, sob a liderança de Altman, a segurança “ficou em segundo plano em relação brilhantes produtos”.
Da mesma forma, os ex-membros do conselho da OpenAI, Toner e Tasha McCauley, escreveram um artigo de opinião publicado pelo The Economist, argumentando que Sam Altman estava priorizando os lucros em detrimento do desenvolvimento responsável da IA, escondendo desenvolvimentos importantes do conselho e promovendo um ambiente tóxico na empresa.
Em sua declaração, Saunders pediu ação regulatória urgente, enfatizando a necessidade de medidas de segurança claras no desenvolvimento de IA, não apenas das empresas, mas de entidades independentes. Ele também enfatizou a importância da proteção a denunciantes na indústria de tecnologia.
O ex-funcionário da OpenAI destacou as implicações mais amplas do desenvolvimento da AGI, incluindo o potencial de consolidar desigualdades existentes e facilitar a manipulação e a desinformação.
Saunders também alertou que a “perda de controle de sistemas autônomos de IA” poderia potencialmente resultar em “extinção humana“.
*Traduzido e editado com autorização do Decrypt.
- Com Staking de Solana, você pode ganhar até 4,45% ao ano* + a valorização do ativo no longo prazo. Tenha renda passiva em cripto e receba recompensas a cada 3 dias. Abra sua conta no MB e comece já! *Consulte condições.