Algoritimos formam rosto em tela de computador
Shutterstock

Preparem-se: o advento de uma Inteligência Artificial (AI) superinteligente está próximo.

Um artigo no blog da OpenAI adverte que o desenvolvimento da AI precisa de regulamentação pesada para evitar cenários potencialmente catastróficos. O texto é assinado pelos membros da organização, o CEO Sam Altman, o presidente Greg Brockman, e o cientista-chefe Ilya Sutskever.

Publicidade

“Agora é um bom momento para começar a pensar sobre a governança da superinteligência”, disse Altman, reconhecendo que os futuros sistemas de AI poderiam superar significativamente a AGI (Inteligência Artificial Geral) em termos de capacidade. Ele acrescentou:

“Dada a imagem como a vemos agora, é concebível que, nos próximos dez anos, os sistemas de AI excedam os níveis de habilidade de especialistas na maioria das áreas e realizem tanta atividade produtiva quanto uma das maiores corporações de hoje.”

Ecoando preocupações que Altman levantou em seu recente testemunho perante o Congresso, o trio delineou três pilares que considerou cruciais para o planejamento estratégico futuro.

O “ponto de partida”

Primeiro, a OpenAI acredita que deve haver um equilíbrio entre controle e inovação, e pressionou por um acordo social “que nos permita manter a segurança e ajudar a integrar esses sistemas com a sociedade.”

Em seguida, eles defenderam a ideia de uma “autoridade internacional” encarregada de inspeções de sistemas, aplicação de auditorias, testes de conformidade com padrões de segurança e restrições de implantação e segurança. Traçando paralelos com a Agência Internacional de Energia Atômica, eles sugeriram como seria um órgão regulador mundial de Inteligência Artificial.

Publicidade

Por último, eles enfatizaram a necessidade da “capacidade técnica” para manter o controle sobre a superinteligência e mantê-la “segura”. O que isso implica permanece nebuloso, mesmo para a OpenAI, mas o artigo alertou contra medidas regulatórias onerosas, como licenças e auditorias de tecnologia, que ficam abaixo do nível da superinteligência.

Em essência, a ideia é manter a superinteligência alinhada com as intenções de seus treinadores, evitando um “cenário foom” (foom é o acrônimo “Fast Onset of Overwhelming Mastery”) — uma explosão rápida e incontrolável nas capacidades de AI que supera o controle humano.

A OpenAI também alerta para o impacto potencialmente catastrófico que o desenvolvimento descontrolado de modelos de AI pode ter nas sociedades futuras. Outros especialistas na área já levantaram preocupações semelhantes, desde o padrinho da AI até os fundadores de empresas de AI, como a Stability AI, e até mesmo ex-funcionários da OpenAI envolvidos com a formação do GPT LLM no passado recente.

Este apelo urgente a uma abordagem proativa em relação à regulamentação e governança da AI chamou a atenção dos reguladores em todo o mundo.

Publicidade

O desafio de uma superinteligência “segura” 

A OpenAI acredita que, uma vez que esses pontos sejam abordados, o potencial da AI pode ser explorado mais livremente para o bem: “Essa tecnologia pode melhorar nossas sociedades, e a capacidade criativa de todos para usar essas novas ferramentas certamente nos surpreenderá”, disseram eles.

Os autores também explicaram que essa capacidade da tecnologia está crescendo a um ritmo acelerado, e isso não vai mudar. “Parar esse crescimento exigiria algo como um regime de vigilância global, e mesmo isso não é uma garantia de que irá interromper esse desenvolvimento”, diz o artigo.

Apesar desses desafios, a liderança da OpenAI continua empenhada em explorar a questão: “Como podemos garantir que a capacidade técnica para manter uma superinteligência segura seja alcançada?” O mundo não tem uma resposta agora, mas definitivamente precisa de uma — uma que o ChatGPT não pode fornecer.

*Traduzido por Gustavo Martins com autorização do Decrypt.

VOCÊ PODE GOSTAR
moedas ouradas de bitcoin e ethereum

Hashdex entra no último estágio para lançar ETF híbrido de Bitcoin e Ethereum nos EUA

A gestora brasileira protocolou ontem o formulário S-1, que é o último estágio na SEC para que um produto possa ser negociado na bolsa de valores
celular com logo da Coinbase em cima de notas de dinheiro

Coinbase leva multa de R$ 25 milhões por não barrar clientes de “alto risco” no Reino Unido

A operação britânica da Coinbase atendeu mais de 13 mil clientes críticos ao violar um acordo com o regulador
Bandeira do Japão

Gate.io de saída do Japão: empresa vai transferir clientes para corretoras de criptomoedas locais reguladas

A exchange deixará de aceitar novos registros de contas de residentes japoneses e iniciará o encerramento gradual dos serviços
Donald Trump posa para foto em evento político nos EUA

Trump cobrará R$ 5 milhões de quem quiser dividir mesa com ele em evento de Bitcoin

Uma foto com Trump também custará caro aos participantes, indo de R$ 330 mil a R$ 550 mil