Nesta semana, duas das vozes mais influentes da tecnologia ofereceram visões contrastantes sobre o desenvolvimento da inteligência artificial, destacando a crescente tensão entre inovação e segurança.
O CEO da OpenAI, Sam Altman, revelou na noite de domingo (5), em um blog post sobre a trajetória de sua empresa, que a empresa triplicou sua base de usuários para mais de 300 milhões de usuários ativos semanalmente, à medida que corre em direção à inteligência artificial geral (AGI).
“Agora estamos confiantes de que sabemos como criar a AGI da forma como a entendemos tradicionalmente”, disse Altman, afirmando que, em 2025, os agentes de IA poderão “se juntar à força de trabalho” e “mudar substancialmente a produção das empresas”.
Altman afirma que a OpenAI está indo além de agentes de IA e AGI, dizendo que a empresa está começando a trabalhar em “superinteligência no verdadeiro sentido da palavra”.
O prazo para a entrega de AGI ou superinteligência não está claro e a OpenAI ainda não respondeu a pedido de comentários.
No entanto, horas antes, no domingo, o cocriador do Ethereum, Vitalik Buterin, propôs o uso da tecnologia blockchain para criar mecanismos globais à prova de falhas para sistemas avançados de IA, incluindo um recurso de “pausa suave” que poderia restringir temporariamente as operações de IA em escala industrial se surgissem sinais de alerta.
Segurança baseada em criptografia para segurança de IA
Buterin fala aqui sobre “d/acc” ou aceleração descentralizada/defensiva. No sentido mais simples, a d/acc é uma variação da e/acc, ou aceleração efetiva, um movimento filosófico defendido por figuras de destaque do Vale do Silício, como Marc Andreessen, da a16z.
O d/acc de Buterin também apoia o progresso tecnológico, mas prioriza os desenvolvimentos que aumentam a segurança e a agência humana. Ao contrário do aceleracionismo efetivo (e/acc), que adota uma abordagem de “crescimento a qualquer custo”, o d/acc se concentra primeiro na criação de recursos defensivos.
“O d/acc é uma extensão dos valores subjacentes das criptomoedas (descentralização, resistência à censura, economia e sociedade globais abertas) para outras áreas da tecnologia”, escreveu Buterin.
Analisando o progresso do d/acc no último ano, Buterin escreveu sobre como uma abordagem mais cautelosa em relação à AGI e aos sistemas superinteligentes poderia ser implementada usando mecanismos de criptografia existentes, como provas de conhecimento zero.
De acordo com a proposta de Buterin, os principais computadores de IA precisariam da aprovação semanal de três grupos internacionais para continuar funcionando.
“As assinaturas seriam independentes do dispositivo (se desejado, poderíamos até exigir uma prova de conhecimento zero de que elas foram publicadas em uma blockchain), portanto, seria tudo ou nada: não haveria nenhuma maneira prática de autorizar um dispositivo a continuar funcionando sem autorizar todos os outros dispositivos”, explicou Buterin.
O sistema funcionaria como um interruptor principal no qual todos os computadores aprovados são executados ou nenhum é executado, impedindo que alguém faça execuções seletivas.
“Até que um momento crítico como esse aconteça, o simples fato de ter a capacidade de fazer uma pausa suave causaria pouco dano aos desenvolvedores”, observou Buterin, descrevendo o sistema como uma forma de seguro contra cenários catastróficos.
De qualquer forma, o crescimento explosivo da OpenAI a partir de 2023 — de 100 milhões para 300 milhões de usuários semanais em apenas dois anos — mostra como a adoção da IA está progredindo rapidamente.
De um laboratório de pesquisa independente a uma grande empresa de tecnologia, Altman reconheceu os desafios de criar “uma empresa inteira, quase do zero, em torno dessa nova tecnologia”.
As propostas refletem debates mais amplos do setor sobre o gerenciamento do desenvolvimento de IA. Os proponentes argumentaram anteriormente que a implementação de qualquer sistema de controle global exigiria uma cooperação sem precedentes entre os principais desenvolvedores de IA, governos e o setor cripto.
“Um ano de ‘modo de guerra’ pode facilmente valer cem anos de trabalho em condições de complacência”, escreveu Buterin. “Se tivermos que limitar as pessoas, parece melhor limitar todos em pé de igualdade e fazer o trabalho árduo de realmente tentar cooperar para organizar isso, em vez de uma parte tentar dominar todos os outros.”
*Traduzido por Gustavo Martins com autorização do Decrypt.
- Com Staking de Solana, você pode ganhar até 4,45% ao ano* + a valorização do ativo no longo prazo. Tenha renda passiva em cripto e receba recompensas a cada 3 dias. Abra sua conta no MB e comece já! *Consulte condições.