Inteligência Artificial excederá o nível de expert na maioria das áreas em 10 anos, diz OpenAI

Se você pensou que o ChatGPT era inteligente, espere até ouvir o que a OpenAI prevê para uma AI “superinteligente”.
Algoritimos formam rosto em tela de computador

Shutterstock

Preparem-se: o advento de uma Inteligência Artificial (AI) superinteligente está próximo.

Um artigo no blog da OpenAI adverte que o desenvolvimento da AI precisa de regulamentação pesada para evitar cenários potencialmente catastróficos. O texto é assinado pelos membros da organização, o CEO Sam Altman, o presidente Greg Brockman, e o cientista-chefe Ilya Sutskever.

Publicidade

“Agora é um bom momento para começar a pensar sobre a governança da superinteligência”, disse Altman, reconhecendo que os futuros sistemas de AI poderiam superar significativamente a AGI (Inteligência Artificial Geral) em termos de capacidade. Ele acrescentou:

“Dada a imagem como a vemos agora, é concebível que, nos próximos dez anos, os sistemas de AI excedam os níveis de habilidade de especialistas na maioria das áreas e realizem tanta atividade produtiva quanto uma das maiores corporações de hoje.”

Ecoando preocupações que Altman levantou em seu recente testemunho perante o Congresso, o trio delineou três pilares que considerou cruciais para o planejamento estratégico futuro.

O “ponto de partida”

Primeiro, a OpenAI acredita que deve haver um equilíbrio entre controle e inovação, e pressionou por um acordo social “que nos permita manter a segurança e ajudar a integrar esses sistemas com a sociedade.”

Em seguida, eles defenderam a ideia de uma “autoridade internacional” encarregada de inspeções de sistemas, aplicação de auditorias, testes de conformidade com padrões de segurança e restrições de implantação e segurança. Traçando paralelos com a Agência Internacional de Energia Atômica, eles sugeriram como seria um órgão regulador mundial de Inteligência Artificial.

Publicidade

Por último, eles enfatizaram a necessidade da “capacidade técnica” para manter o controle sobre a superinteligência e mantê-la “segura”. O que isso implica permanece nebuloso, mesmo para a OpenAI, mas o artigo alertou contra medidas regulatórias onerosas, como licenças e auditorias de tecnologia, que ficam abaixo do nível da superinteligência.

Em essência, a ideia é manter a superinteligência alinhada com as intenções de seus treinadores, evitando um “cenário foom” (foom é o acrônimo “Fast Onset of Overwhelming Mastery”) — uma explosão rápida e incontrolável nas capacidades de AI que supera o controle humano.

A OpenAI também alerta para o impacto potencialmente catastrófico que o desenvolvimento descontrolado de modelos de AI pode ter nas sociedades futuras. Outros especialistas na área já levantaram preocupações semelhantes, desde o padrinho da AI até os fundadores de empresas de AI, como a Stability AI, e até mesmo ex-funcionários da OpenAI envolvidos com a formação do GPT LLM no passado recente.

Este apelo urgente a uma abordagem proativa em relação à regulamentação e governança da AI chamou a atenção dos reguladores em todo o mundo.

Publicidade

O desafio de uma superinteligência “segura” 

A OpenAI acredita que, uma vez que esses pontos sejam abordados, o potencial da AI pode ser explorado mais livremente para o bem: “Essa tecnologia pode melhorar nossas sociedades, e a capacidade criativa de todos para usar essas novas ferramentas certamente nos surpreenderá”, disseram eles.

Os autores também explicaram que essa capacidade da tecnologia está crescendo a um ritmo acelerado, e isso não vai mudar. “Parar esse crescimento exigiria algo como um regime de vigilância global, e mesmo isso não é uma garantia de que irá interromper esse desenvolvimento”, diz o artigo.

Apesar desses desafios, a liderança da OpenAI continua empenhada em explorar a questão: “Como podemos garantir que a capacidade técnica para manter uma superinteligência segura seja alcançada?” O mundo não tem uma resposta agora, mas definitivamente precisa de uma — uma que o ChatGPT não pode fornecer.

*Traduzido por Gustavo Martins com autorização do Decrypt.