Algoritimos formam rosto em tela de computador
Shutterstock

Preparem-se: o advento de uma Inteligência Artificial (AI) superinteligente está próximo.

Um artigo no blog da OpenAI adverte que o desenvolvimento da AI precisa de regulamentação pesada para evitar cenários potencialmente catastróficos. O texto é assinado pelos membros da organização, o CEO Sam Altman, o presidente Greg Brockman, e o cientista-chefe Ilya Sutskever.

Publicidade

“Agora é um bom momento para começar a pensar sobre a governança da superinteligência”, disse Altman, reconhecendo que os futuros sistemas de AI poderiam superar significativamente a AGI (Inteligência Artificial Geral) em termos de capacidade. Ele acrescentou:

“Dada a imagem como a vemos agora, é concebível que, nos próximos dez anos, os sistemas de AI excedam os níveis de habilidade de especialistas na maioria das áreas e realizem tanta atividade produtiva quanto uma das maiores corporações de hoje.”

Ecoando preocupações que Altman levantou em seu recente testemunho perante o Congresso, o trio delineou três pilares que considerou cruciais para o planejamento estratégico futuro.

O “ponto de partida”

Primeiro, a OpenAI acredita que deve haver um equilíbrio entre controle e inovação, e pressionou por um acordo social “que nos permita manter a segurança e ajudar a integrar esses sistemas com a sociedade.”

Em seguida, eles defenderam a ideia de uma “autoridade internacional” encarregada de inspeções de sistemas, aplicação de auditorias, testes de conformidade com padrões de segurança e restrições de implantação e segurança. Traçando paralelos com a Agência Internacional de Energia Atômica, eles sugeriram como seria um órgão regulador mundial de Inteligência Artificial.

Publicidade

Por último, eles enfatizaram a necessidade da “capacidade técnica” para manter o controle sobre a superinteligência e mantê-la “segura”. O que isso implica permanece nebuloso, mesmo para a OpenAI, mas o artigo alertou contra medidas regulatórias onerosas, como licenças e auditorias de tecnologia, que ficam abaixo do nível da superinteligência.

Em essência, a ideia é manter a superinteligência alinhada com as intenções de seus treinadores, evitando um “cenário foom” (foom é o acrônimo “Fast Onset of Overwhelming Mastery”) — uma explosão rápida e incontrolável nas capacidades de AI que supera o controle humano.

A OpenAI também alerta para o impacto potencialmente catastrófico que o desenvolvimento descontrolado de modelos de AI pode ter nas sociedades futuras. Outros especialistas na área já levantaram preocupações semelhantes, desde o padrinho da AI até os fundadores de empresas de AI, como a Stability AI, e até mesmo ex-funcionários da OpenAI envolvidos com a formação do GPT LLM no passado recente.

Este apelo urgente a uma abordagem proativa em relação à regulamentação e governança da AI chamou a atenção dos reguladores em todo o mundo.

Publicidade

O desafio de uma superinteligência “segura” 

A OpenAI acredita que, uma vez que esses pontos sejam abordados, o potencial da AI pode ser explorado mais livremente para o bem: “Essa tecnologia pode melhorar nossas sociedades, e a capacidade criativa de todos para usar essas novas ferramentas certamente nos surpreenderá”, disseram eles.

Os autores também explicaram que essa capacidade da tecnologia está crescendo a um ritmo acelerado, e isso não vai mudar. “Parar esse crescimento exigiria algo como um regime de vigilância global, e mesmo isso não é uma garantia de que irá interromper esse desenvolvimento”, diz o artigo.

Apesar desses desafios, a liderança da OpenAI continua empenhada em explorar a questão: “Como podemos garantir que a capacidade técnica para manter uma superinteligência segura seja alcançada?” O mundo não tem uma resposta agora, mas definitivamente precisa de uma — uma que o ChatGPT não pode fornecer.

*Traduzido por Gustavo Martins com autorização do Decrypt.

VOCÊ PODE GOSTAR
Homem carregando caixa de papelão com seus pertences

Consensys demite 20% dos funcionários em meio à queda do Ethereum

A gigante do software Ethereum vai se concentrar agora em seus principais produtos, como a MetaMask e a rede de segunda camada Linea
michael saylor presidente microstrategy

MicroStrategy quer levantar R$ 242 bilhões para comprar mais Bitcoin

O plano da MicroStrategy é angariar US$ 42 bilhões (R$ 242 bilhões) de capital nos próximos três anos para comprar mais Bitcoin
Imagem da matéria: Vini Jr. e outros atletas enfrentarão processo por promover golpe cripto de R$ 18 bilhões, diz site

Vini Jr. e outros atletas enfrentarão processo por promover golpe cripto de R$ 18 bilhões, diz site

A Omegapro prometia retornos de 300% com investimentos em criptomoedas; Ronaldinho Gaúcho e Roberto Carlos também promoveram o esquema
Pai Rico Pai Pobre Robert Kiyosaki posa para foto

“Compre prata antes que ela chegue a US$ 50”, aconselha Pai Rico

O autor do livro “Pai Rico, Pai Pobre”, Robert Kiyosaki publicou um tuíte exclusivo sobre o metal precioso que atingiu o preço mais alto desde 2011