Algoritimos formam rosto em tela de computador
Shutterstock

Preparem-se: o advento de uma Inteligência Artificial (AI) superinteligente está próximo.

Um artigo no blog da OpenAI adverte que o desenvolvimento da AI precisa de regulamentação pesada para evitar cenários potencialmente catastróficos. O texto é assinado pelos membros da organização, o CEO Sam Altman, o presidente Greg Brockman, e o cientista-chefe Ilya Sutskever.

Publicidade

“Agora é um bom momento para começar a pensar sobre a governança da superinteligência”, disse Altman, reconhecendo que os futuros sistemas de AI poderiam superar significativamente a AGI (Inteligência Artificial Geral) em termos de capacidade. Ele acrescentou:

“Dada a imagem como a vemos agora, é concebível que, nos próximos dez anos, os sistemas de AI excedam os níveis de habilidade de especialistas na maioria das áreas e realizem tanta atividade produtiva quanto uma das maiores corporações de hoje.”

Ecoando preocupações que Altman levantou em seu recente testemunho perante o Congresso, o trio delineou três pilares que considerou cruciais para o planejamento estratégico futuro.

O “ponto de partida”

Primeiro, a OpenAI acredita que deve haver um equilíbrio entre controle e inovação, e pressionou por um acordo social “que nos permita manter a segurança e ajudar a integrar esses sistemas com a sociedade.”

Em seguida, eles defenderam a ideia de uma “autoridade internacional” encarregada de inspeções de sistemas, aplicação de auditorias, testes de conformidade com padrões de segurança e restrições de implantação e segurança. Traçando paralelos com a Agência Internacional de Energia Atômica, eles sugeriram como seria um órgão regulador mundial de Inteligência Artificial.

Publicidade

Por último, eles enfatizaram a necessidade da “capacidade técnica” para manter o controle sobre a superinteligência e mantê-la “segura”. O que isso implica permanece nebuloso, mesmo para a OpenAI, mas o artigo alertou contra medidas regulatórias onerosas, como licenças e auditorias de tecnologia, que ficam abaixo do nível da superinteligência.

Em essência, a ideia é manter a superinteligência alinhada com as intenções de seus treinadores, evitando um “cenário foom” (foom é o acrônimo “Fast Onset of Overwhelming Mastery”) — uma explosão rápida e incontrolável nas capacidades de AI que supera o controle humano.

A OpenAI também alerta para o impacto potencialmente catastrófico que o desenvolvimento descontrolado de modelos de AI pode ter nas sociedades futuras. Outros especialistas na área já levantaram preocupações semelhantes, desde o padrinho da AI até os fundadores de empresas de AI, como a Stability AI, e até mesmo ex-funcionários da OpenAI envolvidos com a formação do GPT LLM no passado recente.

Este apelo urgente a uma abordagem proativa em relação à regulamentação e governança da AI chamou a atenção dos reguladores em todo o mundo.

Publicidade

O desafio de uma superinteligência “segura” 

A OpenAI acredita que, uma vez que esses pontos sejam abordados, o potencial da AI pode ser explorado mais livremente para o bem: “Essa tecnologia pode melhorar nossas sociedades, e a capacidade criativa de todos para usar essas novas ferramentas certamente nos surpreenderá”, disseram eles.

Os autores também explicaram que essa capacidade da tecnologia está crescendo a um ritmo acelerado, e isso não vai mudar. “Parar esse crescimento exigiria algo como um regime de vigilância global, e mesmo isso não é uma garantia de que irá interromper esse desenvolvimento”, diz o artigo.

Apesar desses desafios, a liderança da OpenAI continua empenhada em explorar a questão: “Como podemos garantir que a capacidade técnica para manter uma superinteligência segura seja alcançada?” O mundo não tem uma resposta agora, mas definitivamente precisa de uma — uma que o ChatGPT não pode fornecer.

*Traduzido por Gustavo Martins com autorização do Decrypt.

VOCÊ PODE GOSTAR
Adam Back é fotografado durante entrevista

Adam Back diz que Bitcoin a US$ 1 milhão é possível ainda neste ciclo — caso este fato ocorra

Se a previsão de Back se concretizar, o Bitcoin pode subir pelo menos 11 vezes em relação ao preço atual
Brian Brooks posa para foto

Hedera (HBAR) dispara 29% com rumores de que Brian Brooks é cogitado para assumir SEC

O token HBAR disparou dois dígitos devido aos rumores de que o membro do conselho da Fundação Hedera, Brian Brooks, foi cogitado para suceder Gary Gensler na SEC
Pai Rico Pai Pobre Robert Kiyosaki posa para foto

Pai Rico vai continuar comprando Bitcoin até atingir US$ 100 mil: “Então vou parar”

Robert Kiyosaki alertou sobre ambição e cautela estratégica: “Não é hora de ser ganancioso”
Imagem da matéria: A indústria das criptomoedas se despede de Gary Gensler — exatamente como poderia se esperar

A indústria das criptomoedas se despede de Gary Gensler — exatamente como poderia se esperar

Anúncio da renúncia do presidente da SEC foi recebido com um suspiro de alívio no Crypto Twitter, junto com uma série de memes de zombaria