Preparem-se: a AI pode causar a extinção da humanidade.
Na terça-feira (30), centenas de líderes e pesquisadores da indústria de AI — incluindo executivos da Microsoft, Google e OpenAI — emitiram um aviso preocupante. Eles alegam que a tecnologia de inteligência artificial que estão desenvolvendo poderá um dia representar um perigo real e presente para a existência da humanidade. Juntamente com os horrores das pandemias e das guerras nucleares, consideram a AI um risco social de magnitude semelhante.
Em uma carta publicada pelo Center for AI Safety, os especialistas em AI ofereceram esta declaração marcada por sua dura brevidade: “Mitigar o risco de extinção da AI deve ser uma prioridade global, juntamente com outros riscos de escala social, como pandemias e guerra nuclear.”
E isso é tudo o que dizem.
A declaração pinta a AI como uma ameaça iminente, semelhante a um desastre nuclear ou a uma pandemia global. Mas os signatários, estes feiticeiros da indústria tecnológica, não conseguiram se aprofundar no conteúdo desse sinistro aviso.
Como exatamente é que esse suposto cenário apocalíptico vai acontecer? Quando devemos marcar nossos calendários para a ascensão da revolta das máquinas? Por que a AI, uma invenção da inovação humana, se voltaria contra seus criadores? O silêncio desses arquitetos da inteligência artificial foi retumbante e eles não forneceram respostas.
Na verdade, esses líderes da indústria não eram mais informativos do que um chatbot com uma resposta enlatada. No domínio das ameaças globais, a AI parece ter subitamente saltado na fila, superando as alterações climáticas, os conflitos geopolíticos e até invasões alienígenas em termos de pesquisas por palavras-chave do Google.
Curiosamente, as empresas tendem a defender regulamentações quando elas alinham-se com os seus interesses. Isso poderia ser visto como a maneira de dizer: “Queremos ter uma mão na definição dessas regulamentações.” É semelhante à raposa que pede novas regras no galinheiro.
Vale a pena destacar também como o CEO da OpenAI, Sam Altman, tem pressionado os EUA por regulamentações da tecnologia . Mesmo com essa pressão, ele ameaçou uma saída da Europa se os políticos do continente continuassem a tentar regular a AI. “Vamos tentar obedecer as regras”, Altman disse em um painel na University College London. “Se pudermos cumprir, vamos. E se não pudermos, deixaremos de funcionar.”
Leia Também
É justo dizer que ele voltou atrás alguns dias depois, dizendo que a OpenAI não tinha planos de deixar a Europa. Isso, é claro, aconteceu depois que ele teve a chance de conversar com os reguladores sobre o assunto em uma “semana muito produtiva.”
very productive week of conversations in europe about how to best regulate AI! we are excited to continue to operate here and of course have no plans to leave.
— Sam Altman (@sama) May 26, 2023
A AI é arriscada, mas é tão arriscada assim?
Os potenciais perigos da inteligência artificial não passaram despercebidos entre os especialistas. A carta aberta anterior assinada por 31.810 endossantes, incluindo Elon Musk, Steve Wozniak, Yuval Harari e Andrew Yang, pediu uma pausa no treinamento dos poderosos modelos de AI.
“Esses protocolos devem garantir que os sistemas que aderem a eles sejam seguros além de qualquer dúvida razoável”, diz a carta, esclarecendo que “isso não significa uma pausa no desenvolvimento da AI em geral, apenas um retrocesso da corrida perigosa para modelos de caixa preta (um modelo que entrega resultados, mas não revela seu funcionamento interno) cada vez maiores e imprevisíveis com capacidades emergentes.”
A questão de uma potencial explosão da AI (AI Foom), (um momento em que uma AI se torna capaz de melhorar seus próprios sistemas, aumentando suas capacidades a ponto de superar a inteligência humana), tem sido discutida há anos. No entanto, o ritmo acelerado da mudança hoje, juntamente com uma cobertura midiática substancial, colocou o debate no centro das atenções globais.
Isso gerou visões diversas sobre como a vontade da AI (não apenas poderia) impactar o futuro das interações sociais.
Alguns imaginam uma era utópica em que a AI alinhada e os humanos interagem, e o avanço tecnológico reina supremo. Outros acreditam que a humanidade se adaptará à AI, com a criação de novos postos de trabalho em torno da tecnologia, semelhante ao crescimento do emprego que se seguiu à invenção do automóvel. No entanto, outros afirmam que a AI tem uma chance significativa de amadurecer e se tornar incontrolável, representando uma ameaça real à humanidade.
Até lá, os negócios continuam acontecendo normalmente no setor da AI. Fique de olho no seu ChatGPT, no seu Bard ou na sua Siri — eles podem estar a apenas uma atualização de software de governar o mundo. Mas, por enquanto, parece que a maior ameaça da humanidade não são as nossas próprias invenções, mas sim o nosso talento ilimitado para a hipérbole.
*Traduzido por Gustavo Martins com autorização do Decrypt.