Imagem da matéria: ChatGPT e Google Bard não cumprem exigências da Europa para Inteligência Artificial, mostra estudo
Shutterstock

Pesquisadores da Universidade de Stanford, nos EUA, concluíram um relatório esta semana mostrando que nenhum modelo de processamento de linguagem natural (LLMs, em inglês) usado em ferramentas de Inteligência Artificial (AI) como o ChatGPT-4 da OpenAI e o Bard do Google está em conformidade com a Lei da Inteligência Artificial da União Europeia (UE).

O Eu AI Act, a primeira lei do gênero a definir padrões de governança da AI a nível nacional e regional, acabou de ser adotado pelo Parlamento Europeu. A lei não apenas regula a AI na UE, abrangendo 450 milhões de pessoas, mas também serve como um modelo pioneiro para as regulamentações mundiais da tecnologia.

Publicidade

Mas, de acordo com o último estudo de Stanford, as empresas de AI têm um longo caminho pela frente se pretendem alcançar a conformidade com essas regras.

Em suas investigações, os pesquisadores avaliaram dez principais fornecedores de modelos e o grau de conformidade de cada fornecedor, com os 12 requisitos descritos na lei da AI, em uma escala de 0 a 4.

O estudo revelou uma grande discrepância nos níveis de conformidade, com alguns fornecedores pontuando menos de 25% dos requisitos da lei, e apenas um fornecedor — Hugging Face/BigScience — alcançando uma pontuação acima de 75%.

É evidente que, mesmo para os fornecedores de alta pontuação, há necessidade demelhorias significativas.

Riscos dos modelos atuais de Inteligência Artificial

O estudo lança luz sobre alguns pontos cruciais da falta de compliance no setor. A pouca transparência na divulgação do status dos dados de treinamento protegidos por direitos autorais, a energia usada, as emissões produzidas e a metodologia para mitigar os riscos potenciais estavam entre as descobertas mais preocupantes, escreveram os pesquisadores.

Publicidade

Além disso, a equipe constatou uma aparente disparidade entre as liberações de modelos abertos e fechados e pagos, com liberações abertas que conduzem a uma divulgação mais robusta dos recursos, mas que envolvem maiores desafios no acompanhamento ou controle da implantação.

Stanford concluiu que todos os fornecedores poderiam melhorar de forma significativa a sua conduta, independentemente das suas estratégias de lançamento.

Nos últimos meses, foi possível perceber uma redução notável da transparência nas principais versões de modelos. A OpenAI, por exemplo, não divulgou dados e computação em seus relatórios para o ChatGPT-4, citando um cenário competitivo e implicações de segurança.

Regulamentos europeus podem mudar a indústria de AI

Embora essas descobertas sejam significativas, elas também se encaixam em uma narrativa mais ampla em desenvolvimento. Recentemente, a OpenAI tem feito lobby para influenciar a posição de vários países em relação à AI.

Publicidade

A gigante da tecnologia até ameaçou deixar a Europa se os regulamentos fossem muito rigorosos — uma ameaça mais tarde corrigida pelo CEO. Tais ações ressaltam a relação complexa e muitas vezes tensa entre provedores de tecnologia AI e órgãos reguladores.

Os pesquisadores propuseram várias recomendações para melhorar a regulamentação das ferramentas de AI. Para os decisores políticos da UE, isso inclui garantir que a lei de AI exija dos fornecedores de modelos iniciais uma transparência e prestação de contas mais evidente.

A necessidade de recursos técnicos e talento para fazer cumprir a lei também é um ponto importante, refletindo a complexidade do ecossistema de AI.

De acordo com os pesquisadores, o principal desafio reside na rapidez com que os provedores de modelos podem adaptar e evoluir suas práticas de negócios para atender aos requisitos regulamentares.

Sem uma forte pressão regulatória, observaram eles, muitos provedores poderiam atingir pontuações totais de 30 a 40 pontos (de 48 pontos possíveis) por meio de mudanças significativas, mas plausíveis.

Publicidade

O trabalho dos pesquisadores oferece uma visão perspicaz do futuro da regulamentação da AI. Eles argumentam que, se promulgada e aplicada, a lei da AI produzirá um impacto positivo e significativo no ecossistema, abrindo caminho para mais transparência e responsabilidade.

A AI está transformando a sociedade com as suas capacidades e riscos sem precedentes. À medida que o mundo está prestes a regulamentar esta tecnologia revolucionária, está ficando cada vez mais claro que a transparência não é apenas um complemento opcional — é um elemento central da implantação responsável da AI.

*Traduzido por Gustavo Martins com autorização do Decrypt.

VOCÊ PODE GOSTAR
Imagem da matéria: Donald Trump quer lançar sua 4ª coleção de NFTs

Donald Trump quer lançar sua 4ª coleção de NFTs

Embora a figura do ex-presidente esteja mais em evidência do que nunca, o desempenho dos NFTs de Trump tem sido historicamente inconsistente
Sob um banco de madeira três criptomoedas ao lado de um celular com logo do Nubank

Nubank Cripto expande funcionalidade de alerta de preços de criptomoedas

É possível ativar o recebimento de alertas a partir de variações de preço de 3%, 6% ou 9% – sempre dentro de um período de 24 horas
Imagem da matéria: Hamster Kombat: Veja o Daily Combo e Puzzle desta sexta-feira (26)

Hamster Kombat: Veja o Daily Combo e Puzzle desta sexta-feira (26)

Procurando o combo diário, o código cifrado e puzzle desta sexta? Aqui está o que você precisa para ganhar moedas no Hamster Kombat
Imagem da matéria: 2º maior cidade de Nova Jersey vai incluir Bitcoin em fundo de pensão

2º maior cidade de Nova Jersey vai incluir Bitcoin em fundo de pensão

O prefeito Steven Fulop disse que a cidade vai destinar cerca de 2% do fundo para Bitcoin