Imagem da matéria: ChatGPT e Google Bard não cumprem exigências da Europa para Inteligência Artificial, mostra estudo
Shutterstock

Pesquisadores da Universidade de Stanford, nos EUA, concluíram um relatório esta semana mostrando que nenhum modelo de processamento de linguagem natural (LLMs, em inglês) usado em ferramentas de Inteligência Artificial (AI) como o ChatGPT-4 da OpenAI e o Bard do Google está em conformidade com a Lei da Inteligência Artificial da União Europeia (UE).

O Eu AI Act, a primeira lei do gênero a definir padrões de governança da AI a nível nacional e regional, acabou de ser adotado pelo Parlamento Europeu. A lei não apenas regula a AI na UE, abrangendo 450 milhões de pessoas, mas também serve como um modelo pioneiro para as regulamentações mundiais da tecnologia.

Publicidade

Mas, de acordo com o último estudo de Stanford, as empresas de AI têm um longo caminho pela frente se pretendem alcançar a conformidade com essas regras.

Em suas investigações, os pesquisadores avaliaram dez principais fornecedores de modelos e o grau de conformidade de cada fornecedor, com os 12 requisitos descritos na lei da AI, em uma escala de 0 a 4.

O estudo revelou uma grande discrepância nos níveis de conformidade, com alguns fornecedores pontuando menos de 25% dos requisitos da lei, e apenas um fornecedor — Hugging Face/BigScience — alcançando uma pontuação acima de 75%.

É evidente que, mesmo para os fornecedores de alta pontuação, há necessidade demelhorias significativas.

Riscos dos modelos atuais de Inteligência Artificial

O estudo lança luz sobre alguns pontos cruciais da falta de compliance no setor. A pouca transparência na divulgação do status dos dados de treinamento protegidos por direitos autorais, a energia usada, as emissões produzidas e a metodologia para mitigar os riscos potenciais estavam entre as descobertas mais preocupantes, escreveram os pesquisadores.

Publicidade

Além disso, a equipe constatou uma aparente disparidade entre as liberações de modelos abertos e fechados e pagos, com liberações abertas que conduzem a uma divulgação mais robusta dos recursos, mas que envolvem maiores desafios no acompanhamento ou controle da implantação.

Stanford concluiu que todos os fornecedores poderiam melhorar de forma significativa a sua conduta, independentemente das suas estratégias de lançamento.

Nos últimos meses, foi possível perceber uma redução notável da transparência nas principais versões de modelos. A OpenAI, por exemplo, não divulgou dados e computação em seus relatórios para o ChatGPT-4, citando um cenário competitivo e implicações de segurança.

Regulamentos europeus podem mudar a indústria de AI

Embora essas descobertas sejam significativas, elas também se encaixam em uma narrativa mais ampla em desenvolvimento. Recentemente, a OpenAI tem feito lobby para influenciar a posição de vários países em relação à AI.

Publicidade

A gigante da tecnologia até ameaçou deixar a Europa se os regulamentos fossem muito rigorosos — uma ameaça mais tarde corrigida pelo CEO. Tais ações ressaltam a relação complexa e muitas vezes tensa entre provedores de tecnologia AI e órgãos reguladores.

Os pesquisadores propuseram várias recomendações para melhorar a regulamentação das ferramentas de AI. Para os decisores políticos da UE, isso inclui garantir que a lei de AI exija dos fornecedores de modelos iniciais uma transparência e prestação de contas mais evidente.

A necessidade de recursos técnicos e talento para fazer cumprir a lei também é um ponto importante, refletindo a complexidade do ecossistema de AI.

De acordo com os pesquisadores, o principal desafio reside na rapidez com que os provedores de modelos podem adaptar e evoluir suas práticas de negócios para atender aos requisitos regulamentares.

Sem uma forte pressão regulatória, observaram eles, muitos provedores poderiam atingir pontuações totais de 30 a 40 pontos (de 48 pontos possíveis) por meio de mudanças significativas, mas plausíveis.

Publicidade

O trabalho dos pesquisadores oferece uma visão perspicaz do futuro da regulamentação da AI. Eles argumentam que, se promulgada e aplicada, a lei da AI produzirá um impacto positivo e significativo no ecossistema, abrindo caminho para mais transparência e responsabilidade.

A AI está transformando a sociedade com as suas capacidades e riscos sem precedentes. À medida que o mundo está prestes a regulamentar esta tecnologia revolucionária, está ficando cada vez mais claro que a transparência não é apenas um complemento opcional — é um elemento central da implantação responsável da AI.

*Traduzido por Gustavo Martins com autorização do Decrypt.

VOCÊ PODE GOSTAR
Imagem da matéria: Icônico papel escrito “Compre Bitcoin” é vendido por R$ 5,1 milhões em leilão

Icônico papel escrito “Compre Bitcoin” é vendido por R$ 5,1 milhões em leilão

A frase “Compre Bitcoin” foi apresentada diante das câmeras durante uma audiência televisionada de Janet Yellen em 2017
Imagem da matéria: Queda do Bitcoin gera onda de liquidação de US$ 255 milhões antes do halving

Queda do Bitcoin gera onda de liquidação de US$ 255 milhões antes do halving

O preço do Bitcoin se estabilizou desde ontem, mas deixou um rastro de liquidações de US$ 255 milhões pelo caminho
Imagem da matéria: Fazer staking de Bitcoin agora é possível com a Core Chain

Fazer staking de Bitcoin agora é possível com a Core Chain

Você não precisa mais embrulhar seu Bitcoin para fazer staking. A Core Chain agora oferece staking de BTC sem custódia
Imagem da matéria: Clientes invadem corretora que suspendeu saques e recebem chocolates ao invés de criptomoedas

Clientes invadem corretora que suspendeu saques e recebem chocolates ao invés de criptomoedas

50 clientes invadiram a sede da Beribit em Moscou para exigir a devolução de R$ 22 milhões em criptomoedas presas na corretora