Vitalik Buterin avalia riscos da inteligência artificial se virar contra humanidade: “Nem Marte será seguro”

Para o criador do Ethereum, o desenvolvimento da IA precisa priorizar a intenção humana de obter resultados positivos, e não apenas a maximização dos lucros
Vitalik Buterin

Shutterstock

Na segunda-feira (27), o criador do Ethereum, Vitalik Buterin, publicou um artigo em que compartilha sua própria visão do “tecno-otimismo”, inspirado por Marc Andreessen, que opinou sobre Inteligência Artificial (IA) em seu Manifesto “Tecno-otimista” em outubro.

Embora Buterin tenha concordado com a perspectiva positiva de Andreessen, ele também observou a importância de como a IA é desenvolvida e a direção futura da tecnologia.

Publicidade

Buterin reconheceu o risco existencial da inteligência artificial, inclusive de causar a extinção da raça humana.

“Essa é uma afirmação extrema: por mais danos que o pior cenário de mudança climática, uma pandemia artificial ou uma guerra nuclear possam causar, há muitas ilhas de civilização que permaneceriam intactas para recolher os pedaços”, disse ele.

“Mas se uma IA superinteligente se decidir por uma revolta contra os humanos, pode muito bem não deixar sobreviventes e acabar com a humanidade para sempre”, disse Buterin. “Nem mesmo Marte pode ser seguro”.

Buterin apontou para uma pesquisa realizada em 2022 pela AI Impacts, que disse que entre 5% e 10% dos participantes acreditam que os seres humanos enfrentarão a extinção pela IA ou a falha dos seres humanos em controlar a IA, respectivamente.

Ele disse que um movimento de código aberto focado na segurança é ideal para liderar o desenvolvimento da IA, em vez de corporações fechadas e fundos de capital de risco.

Publicidade

“Se quisermos um futuro que seja ao mesmo tempo superinteligente e “humano” — um futuro em que os seres humanos não sejam apenas animais de estimação, mas que de fato mantenham um controle significativo sobre o mundo — então parece que algo como isso é a opção mais natural”, disse ele.

O que é necessário, continuou Buterin, é a intenção humana ativa de escolher sua direção e seu resultado. “A fórmula de ‘maximizar o lucro’ não chegará a eles automaticamente”, disse ele.

O lado bom da tecnologia

Buterin disse que adora tecnologia porque ela expande o potencial humano, apontando para a história das inovações, desde ferramentas manuais até smartphones.

“Acredito que essas coisas são profundamente boas e que expandir o alcance da humanidade ainda mais para os planetas e estrelas é profundamente bom, porque acredito que a humanidade é profundamente boa”, disse Buterin.

Publicidade

Ele afirmou que, embora acredite que a tecnologia transformadora levará a um futuro mais brilhante para a humanidade, ele rejeita a noção de que o mundo deve permanecer como é hoje, apenas com menos ganância e um sistema de saúde público eficaz.

“Há certos tipos de tecnologia que tornam o mundo melhor de forma muito mais confiável do que outros tipos de tecnologia”, disse Buterin. “Há certos tipos de tecnologia que poderiam, se desenvolvidas, mitigar os impactos negativos de outros tipos de tecnologia.”

O controle da IA

Buterin alertou sobre o crescimento do autoritarismo digital e das tecnologias de vigilância usadas contra aqueles que desafiam ou discordam de governos, e controladas por um seleto grupo de tecnocratas. Ele disse que a maioria das pessoas provavelmente prefere esperar o avanço da IA por uma década do que ver a tecnologia sendo monopolizada por um grupo empresarial.

“Meu receio básico é que os mesmos tipos de tecnologias gerenciais as quais permitem que a OpenAI atenda a mais de 100 milhões de clientes com 500 funcionários também permitirão que uma elite política de 500 pessoas, ou mesmo um conselho de cinco pessoas, mantenha um punho de ferro sobre um país inteiro”, disse ele.

Embora Buterin tenha dito que simpatiza com o movimento de aceleração efetiva (também conhecido como “e/acc”), ele tem sentimentos contraditórios em relação ao seu entusiasmo pela tecnologia militar.

Publicidade

“O entusiasmo com a tecnologia militar moderna como uma força do bem parece exigir a crença de que a potência tecnológica dominante será, de forma confiável, um dos mocinhos na maioria dos conflitos, agora e no futuro”, disse ele, citando a ideia de que a tecnologia militar pode ser boa porque está sendo construída e controlada pelos Estados Unidos e “os Estados Unidos são bons”.

“Ser um e/acc requer ser um maximalista americano, apostando tudo na moral presente e futura do governo e no sucesso futuro do país?”, questionou ele.

Buterin advertiu contra a concessão de “poder extremo e opaco” a um pequeno grupo de pessoas com a esperança de que elas o usem com sabedoria, preferindo, em vez disso, uma filosofia de “d/acc” — ou defesa, descentralização, democracia e diferencial. Essa mentalidade, segundo ele, poderia se adaptar a verdadeiros altruístas, libertários, pluralistas, defensores da blockchain e “punks solares e lunares”.

“Um mundo que favorece a defesa é um mundo melhor, por vários motivos”, disse Buterin. “O primeiro, é claro, é o benefício direto da segurança: menos pessoas morrem, menos valor econômico é destruído, menos tempo é desperdiçado em conflitos.”

“O que é menos apreciado, porém, é que um mundo que favorece a defesa facilita o desenvolvimento de formas de governança mais saudáveis, mais abertas e que respeitem mais a liberdade”, concluiu.

Embora tenha enfatizado a necessidade de construir e acelerar, Buterin disse que a sociedade deve se perguntar regularmente para onde estamos acelerando. Buterin sugeriu que o século XXI pode ser “o século crucial” para a humanidade, o que poderia decidir o destino da humanidade por milênios.

Publicidade

“Esses problemas são desafiadores”, disse Buterin. “Mas estou ansioso para observar e participar do grande esforço coletivo de nossa espécie para encontrar as respostas.”

*Traduzido por Gustavo Martins com autorização do Decrypt.