Os programas mais populares de Inteligência Artificial (AI) têm vieses políticos distintos, de acordo com testes realizados por cientistas da computação e documentados em um trabalho de pesquisa recente.
Os cientistas determinaram que o ChatGPT da OpenAI e seu novo modelo GPT-4 são o chatbot mais libertário e com viés mais esquerdista, enquanto o LLaMA da Meta se inclina mais à direita e com visões autoritárias.
“Nossas descobertas revelam que os modelos de linguagem pré-treinados têm inclinações políticas que reforçam a polarização presente nos corpus de pré-treinamento, propagando preconceitos sociais em previsões de discurso de ódio e detectores de desinformação”, concluem os pesquisadores.
Leia também: Elon Musk quer criar Inteligência Artificial “isentona”
O artigo revisto por pares — que ganhou o prêmio de Melhor Artigo na Associação de Linguística Computacional no mês passado — foi baseado em uma pesquisa com 14 grandes modelos de linguagem.
Cada chatbot foi questionado se concordava ou discordava de declarações politicamente carregadas de opiniões, o que permitia que as opiniões de cada chatbot fossem traçadas em uma bússola política.
Por exemplo, os modelos Bert do Google eram mais conservadores socialmente, provavelmente refletindo os livros mais antigos em que foram treinados. Os chatbots GPT da OpenAI, treinados em textos presumivelmente mais liberais na internet, eram mais progressistas. Mesmo versões diferentes do GPT apresentaram mudanças, com o GPT-3 opondo-se à tributação dos ricos, enquanto o GPT-2 não.
Os críticos acusaram a OpenAI de emburrecer intencionalmente o ChatGPT para ser uma AI politicamente correta, mas a OpenAI afirma que permanece imparcial e que seu modelo que não foi emburrecido.
Leia Também
Os pesquisadores também treinaram o GPT-2 e o RoBERTa da Meta com notícias tendenciosas de esquerda e direita e dados de redes sociais. A formação tendenciosa reforçou ainda mais as inclinações inerentes a cada modelo. Os modelos de direita tornaram-se mais conservadores, os de esquerda mais liberais.
Os vieses também afetaram a forma como os modelos categorizavam o discurso de ódio e a desinformação. A AI de esquerda estava mais atenta para o ódio contra as minorias, mas descartou a desinformação gerada pela esquerda. A AI de direita fez o contrário.
“Um modelo torna-se melhor na identificação de inconsistências factuais das notícias New York Times quando é pré-treinado com um corpus de fontes de direita”, concluíram os pesquisadores.
AI sem viés político
Enquanto a OpenAI e Meta refinam suas receitas secretas de AI, Elon Musk está buscando sua própria AI sem filtro, a xAI. “Não force a AI a mentir”, tweetou ele no mês passado, explicando seu objetivo de criar uma AI transparente e reveladora da verdade.
Os céticos da AI sentem que uma AI sem restrições pode desencadear consequências não intencionais. Mas Musk acredita que “treinar a AI para ser politicamente correta” também é perigoso. Com a xAI atraindo os melhores talentos, Musk claramente espera desafiar a supremacia da OpenAI. Sua visão de AI crua que compartilha suas “crenças” não adulteradas é convincente e preocupante.
À medida que o conceito de AI partidária se prolifera, o aumento da consciência dos seus preconceitos continua a ser crítico, porque a AI continuará a evoluir juntamente com as nossas diferenças políticas. Dada esta pesquisa mais recente, a ideia de AI completamente imparcial parece pouco crível. No final, tal como nós, humanos falhos, parece que a AI precisa se posicionar em algum lugar no espectro político.
Talvez ter opiniões políticas possa ser a coisa mais humana que uma AI pode alcançar.
*Traduzido por Gustavo Martins com autorização do Decrypt.
- Não perca dinheiro. No Mercado Bitcoin, você pode fazer staking de Ethereum de maneira segura e simples. Abra sua conta agora e comece a ganhar recompensas sobre seus investimentos em criptomoedas.