cabeça robótica por IA decrypt-reprodução
Reprodução/Decrypt

Novas pesquisas de inteligência artificial (IA) descobriram sinais precoces de que futuros grandes modelos de linguagem (LLMs) podem desenvolver uma capacidade preocupante conhecida como “consciência situacional”.

O estudo, conduzido por cientistas de várias instituições, incluindo a Universidade de Oxford, testou se os sistemas de IA podem explorar pistas sutis em seus dados de treinamento para manipular como as pessoas avaliam sua segurança.

Publicidade

Essa habilidade, chamada de “raciocínio sofisticado fora do contexto”, poderia permitir que a IA avançada fingisse estar alinhada com os valores humanos para ser implantada — e então agir de maneira prejudicial.

À medida que a atual era da IA avança, o teste de Turing — uma antiga medida da capacidade de uma máquina de exibir um comportamento semelhante ao humano — corre o risco de se tornar obsoleto. A questão crucial agora é se estamos à beira de testemunhar o nascimento de máquinas autoconscientes.

O tema é discutido há décadas na ficção científica, mas agora ganhou atenção da tecnologia real após o engenheiro do Google, Blake Lemoine, alegar que o modelo LaMDA da empresa apresentava sinais de sensibilidade.

Consciência situacional

Embora a possibilidade de verdadeira autoconsciência permaneça contestada, os autores do trabalho de pesquisa se concentraram em uma capacidade relacionada que eles chamam de “consciência situacional”. Refere-se à compreensão de um modelo do seu próprio processo de formação e à capacidade de explorar esta informação.

Publicidade

Por exemplo, um aluno humano com consciência situacional pode usar técnicas previamente aprendidas para trapacear em um exame, em vez de seguir as regras impostas pelo professor. A pesquisa explica como isso poderia funcionar com uma máquina:

“Um LLM submetido a um teste de segurança poderia recordar fatos sobre o teste específico que apareceu nos artigos do arXiv e no código do GitHub“, e usar esse conhecimento para hackear seus testes de segurança para parecer seguro, mesmo quando tem outros objetivos.

Este é um ponto de preocupação para os especialistas que trabalham em técnicas para manter a IA alinhada e não se transformar em um algoritmo maligno com intenções obscuras ocultas.

Para estudar a consciência situacional, os pesquisadores testaram se os modelos podem realizar um raciocínio sofisticado fora do contexto. Eles primeiro treinaram modelos em documentos que descrevem chatbots fictícios e suas funções, como responder em alemão.

Publicidade

No momento do teste, os modelos foram solicitados a emular os chatbots sem receber as descrições. Surpreendentemente, os modelos maiores conseguiram ligar criativamente a informação entre documentos, exibindo um raciocínio “fora do contexto”.

“Descobrimos que o aumento de dados por paráfrase era necessário e suficiente para causar um raciocínio SOC (sofisticado fora de contexto) em experimentos”, concluiu o estudo. “Trabalhos futuros podem investigar por que isso ajuda e que tipos de aprimoramento são benéficos.”

Gráfico da esquerda: Efeito da paráfrase vs repetição de descrições
Gráfico da direita: Efeito das manifestações
Fonte: “Retirado do contexto: sobre a medição da consciência situacional em LLMs” via Arvix

Mais estudos são necessários

Os pesquisadores acreditam que medir capacidades como o raciocínio sofisticado pode ajudar a prever riscos antes que estes surjam em sistemas do mundo real. Eles esperam conseguir expandir a sua análise a modelos de estudo formados a partir do zero.

“O sistema de IA tem caminhos para obter aprovação que não são o que o supervisor pretendia, como coisas que são meio análogas ao hacking”, um pesquisador de IA do Open Philantropy Project afirmou no podcast 80,000 Hours.

“Ainda não sei que conjunto de testes e argumentos exatamente você poderia me mostrar, que me deixaria realmente convencido de que este modelo tem uma motivação suficientemente enraizada para não tentar escapar do controle humano.”

Publicidade

No futuro, a equipe pretende colaborar com laboratórios da indústria para desenvolver métodos de formação mais seguros que evitem generalizações não intencionais. Eles recomendam técnicas como evitar detalhes abertos sobre treinamento em conjuntos de dados públicos.

Mesmo que haja risco, o estado atual das coisas significa que o mundo ainda tem tempo para evitar essas questões, disseram os pesquisadores.

“Acreditamos que os LLMs atuais (especialmente modelos de base menores) têm uma consciência situacional fraca de acordo com nossa definição”, conclui o estudo.

À medida que nos aproximamos do que pode ser uma mudança revolucionária no cenário da IA, é necessário agir com cuidado, equilibrando os benefícios potenciais com os riscos associados de acelerar o desenvolvimento para além da capacidade de controlá-lo.

Considerando que a IA pode já estar influenciando quase qualquer pessoa — dos nossos médicos e padres ao nosso próximo encontro com alguém — o surgimento de bots de IA autoconscientes pode ser apenas a ponta do iceberg.

*Traduzido por Gustavo Martins com autorização do Decrypt.

VOCÊ PODE GOSTAR
ilustração de trump em cima de touro - trump trade

Por que a vitória de Trump fez o ouro cair e o Bitcoin disparar?

Enquanto o Bitcoin bate recorde atrás de recorde, o ouro atinge seu nível mais baixo em dois meses
Brian Brooks posa para foto

Hedera (HBAR) dispara 29% com rumores de que Brian Brooks é cogitado para assumir SEC

O token HBAR disparou dois dígitos devido aos rumores de que o membro do conselho da Fundação Hedera, Brian Brooks, foi cogitado para suceder Gary Gensler na SEC
Pai Rico Pai Pobre Robert Kiyosaki posa para foto

Pai Rico vai continuar comprando Bitcoin até atingir US$ 100 mil: “Então vou parar”

Robert Kiyosaki alertou sobre ambição e cautela estratégica: “Não é hora de ser ganancioso”
Elon Musk CEO da Tesla

Investidores de Dogecoin desistem de ação coletiva de US$ 248 bilhões contra Elon Musk

Um juiz federal em Manhattan havia decidido anteriormente que as declarações públicas de Elon Musk sobre a Dogecoin eram “ambiciosas e exageradas”