Imagem da matéria: ChatGPT e Google Bard não cumprem exigências da Europa para Inteligência Artificial, mostra estudo
Shutterstock

Pesquisadores da Universidade de Stanford, nos EUA, concluíram um relatório esta semana mostrando que nenhum modelo de processamento de linguagem natural (LLMs, em inglês) usado em ferramentas de Inteligência Artificial (AI) como o ChatGPT-4 da OpenAI e o Bard do Google está em conformidade com a Lei da Inteligência Artificial da União Europeia (UE).

O Eu AI Act, a primeira lei do gênero a definir padrões de governança da AI a nível nacional e regional, acabou de ser adotado pelo Parlamento Europeu. A lei não apenas regula a AI na UE, abrangendo 450 milhões de pessoas, mas também serve como um modelo pioneiro para as regulamentações mundiais da tecnologia.

Publicidade

Mas, de acordo com o último estudo de Stanford, as empresas de AI têm um longo caminho pela frente se pretendem alcançar a conformidade com essas regras.

Em suas investigações, os pesquisadores avaliaram dez principais fornecedores de modelos e o grau de conformidade de cada fornecedor, com os 12 requisitos descritos na lei da AI, em uma escala de 0 a 4.

O estudo revelou uma grande discrepância nos níveis de conformidade, com alguns fornecedores pontuando menos de 25% dos requisitos da lei, e apenas um fornecedor — Hugging Face/BigScience — alcançando uma pontuação acima de 75%.

É evidente que, mesmo para os fornecedores de alta pontuação, há necessidade demelhorias significativas.

Riscos dos modelos atuais de Inteligência Artificial

O estudo lança luz sobre alguns pontos cruciais da falta de compliance no setor. A pouca transparência na divulgação do status dos dados de treinamento protegidos por direitos autorais, a energia usada, as emissões produzidas e a metodologia para mitigar os riscos potenciais estavam entre as descobertas mais preocupantes, escreveram os pesquisadores.

Publicidade

Além disso, a equipe constatou uma aparente disparidade entre as liberações de modelos abertos e fechados e pagos, com liberações abertas que conduzem a uma divulgação mais robusta dos recursos, mas que envolvem maiores desafios no acompanhamento ou controle da implantação.

Stanford concluiu que todos os fornecedores poderiam melhorar de forma significativa a sua conduta, independentemente das suas estratégias de lançamento.

Nos últimos meses, foi possível perceber uma redução notável da transparência nas principais versões de modelos. A OpenAI, por exemplo, não divulgou dados e computação em seus relatórios para o ChatGPT-4, citando um cenário competitivo e implicações de segurança.

Regulamentos europeus podem mudar a indústria de AI

Embora essas descobertas sejam significativas, elas também se encaixam em uma narrativa mais ampla em desenvolvimento. Recentemente, a OpenAI tem feito lobby para influenciar a posição de vários países em relação à AI.

Publicidade

A gigante da tecnologia até ameaçou deixar a Europa se os regulamentos fossem muito rigorosos — uma ameaça mais tarde corrigida pelo CEO. Tais ações ressaltam a relação complexa e muitas vezes tensa entre provedores de tecnologia AI e órgãos reguladores.

Os pesquisadores propuseram várias recomendações para melhorar a regulamentação das ferramentas de AI. Para os decisores políticos da UE, isso inclui garantir que a lei de AI exija dos fornecedores de modelos iniciais uma transparência e prestação de contas mais evidente.

A necessidade de recursos técnicos e talento para fazer cumprir a lei também é um ponto importante, refletindo a complexidade do ecossistema de AI.

De acordo com os pesquisadores, o principal desafio reside na rapidez com que os provedores de modelos podem adaptar e evoluir suas práticas de negócios para atender aos requisitos regulamentares.

Sem uma forte pressão regulatória, observaram eles, muitos provedores poderiam atingir pontuações totais de 30 a 40 pontos (de 48 pontos possíveis) por meio de mudanças significativas, mas plausíveis.

Publicidade

O trabalho dos pesquisadores oferece uma visão perspicaz do futuro da regulamentação da AI. Eles argumentam que, se promulgada e aplicada, a lei da AI produzirá um impacto positivo e significativo no ecossistema, abrindo caminho para mais transparência e responsabilidade.

A AI está transformando a sociedade com as suas capacidades e riscos sem precedentes. À medida que o mundo está prestes a regulamentar esta tecnologia revolucionária, está ficando cada vez mais claro que a transparência não é apenas um complemento opcional — é um elemento central da implantação responsável da AI.

*Traduzido por Gustavo Martins com autorização do Decrypt.

VOCÊ PODE GOSTAR
Imagem da matéria: Exchange japonesa fecha as portas após perder R$ 1,8 bilhão em Bitcoin em hack

Exchange japonesa fecha as portas após perder R$ 1,8 bilhão em Bitcoin em hack

A exchange japonesa DMM Bitcoin vai transferir as contas e os ativos dos clientes para a SBI VC Trade até março de 2025
Imagem da matéria: TORN salta 410% após Tornado Cash vencer etapa em disputa judicial contra governo dos EUA

TORN salta 410% após Tornado Cash vencer etapa em disputa judicial contra governo dos EUA

As criptomoedas focadas em privacidade dispararam após decisão judicial declarar que contratos inteligentes estão isentos de sanções do Tesouro dos EUA
Imagem da matéria: Dogecoin estreia na bolsa de valores da Suécia

Dogecoin estreia na bolsa de valores da Suécia

A Valour disse que seu produto lançado no Spotlight Stock Market da Suécia é o primeiro do gênero na região
Imagem da matéria: Coinbase fecha com LA Clippers e agora patrocina dois times da NBA

Coinbase fecha com LA Clippers e agora patrocina dois times da NBA

Exchange também é patrocinadora do Golden State Warriors e mantém um acordo de patrocínio com a NBA e a WNBA