Imagem da matéria: ChatGPT e Google Bard não cumprem exigências da Europa para Inteligência Artificial, mostra estudo
Shutterstock

Pesquisadores da Universidade de Stanford, nos EUA, concluíram um relatório esta semana mostrando que nenhum modelo de processamento de linguagem natural (LLMs, em inglês) usado em ferramentas de Inteligência Artificial (AI) como o ChatGPT-4 da OpenAI e o Bard do Google está em conformidade com a Lei da Inteligência Artificial da União Europeia (UE).

O Eu AI Act, a primeira lei do gênero a definir padrões de governança da AI a nível nacional e regional, acabou de ser adotado pelo Parlamento Europeu. A lei não apenas regula a AI na UE, abrangendo 450 milhões de pessoas, mas também serve como um modelo pioneiro para as regulamentações mundiais da tecnologia.

Publicidade

Mas, de acordo com o último estudo de Stanford, as empresas de AI têm um longo caminho pela frente se pretendem alcançar a conformidade com essas regras.

Em suas investigações, os pesquisadores avaliaram dez principais fornecedores de modelos e o grau de conformidade de cada fornecedor, com os 12 requisitos descritos na lei da AI, em uma escala de 0 a 4.

O estudo revelou uma grande discrepância nos níveis de conformidade, com alguns fornecedores pontuando menos de 25% dos requisitos da lei, e apenas um fornecedor — Hugging Face/BigScience — alcançando uma pontuação acima de 75%.

É evidente que, mesmo para os fornecedores de alta pontuação, há necessidade demelhorias significativas.

Riscos dos modelos atuais de Inteligência Artificial

O estudo lança luz sobre alguns pontos cruciais da falta de compliance no setor. A pouca transparência na divulgação do status dos dados de treinamento protegidos por direitos autorais, a energia usada, as emissões produzidas e a metodologia para mitigar os riscos potenciais estavam entre as descobertas mais preocupantes, escreveram os pesquisadores.

Publicidade

Além disso, a equipe constatou uma aparente disparidade entre as liberações de modelos abertos e fechados e pagos, com liberações abertas que conduzem a uma divulgação mais robusta dos recursos, mas que envolvem maiores desafios no acompanhamento ou controle da implantação.

Stanford concluiu que todos os fornecedores poderiam melhorar de forma significativa a sua conduta, independentemente das suas estratégias de lançamento.

Nos últimos meses, foi possível perceber uma redução notável da transparência nas principais versões de modelos. A OpenAI, por exemplo, não divulgou dados e computação em seus relatórios para o ChatGPT-4, citando um cenário competitivo e implicações de segurança.

Regulamentos europeus podem mudar a indústria de AI

Embora essas descobertas sejam significativas, elas também se encaixam em uma narrativa mais ampla em desenvolvimento. Recentemente, a OpenAI tem feito lobby para influenciar a posição de vários países em relação à AI.

Publicidade

A gigante da tecnologia até ameaçou deixar a Europa se os regulamentos fossem muito rigorosos — uma ameaça mais tarde corrigida pelo CEO. Tais ações ressaltam a relação complexa e muitas vezes tensa entre provedores de tecnologia AI e órgãos reguladores.

Os pesquisadores propuseram várias recomendações para melhorar a regulamentação das ferramentas de AI. Para os decisores políticos da UE, isso inclui garantir que a lei de AI exija dos fornecedores de modelos iniciais uma transparência e prestação de contas mais evidente.

A necessidade de recursos técnicos e talento para fazer cumprir a lei também é um ponto importante, refletindo a complexidade do ecossistema de AI.

De acordo com os pesquisadores, o principal desafio reside na rapidez com que os provedores de modelos podem adaptar e evoluir suas práticas de negócios para atender aos requisitos regulamentares.

Sem uma forte pressão regulatória, observaram eles, muitos provedores poderiam atingir pontuações totais de 30 a 40 pontos (de 48 pontos possíveis) por meio de mudanças significativas, mas plausíveis.

Publicidade

O trabalho dos pesquisadores oferece uma visão perspicaz do futuro da regulamentação da AI. Eles argumentam que, se promulgada e aplicada, a lei da AI produzirá um impacto positivo e significativo no ecossistema, abrindo caminho para mais transparência e responsabilidade.

A AI está transformando a sociedade com as suas capacidades e riscos sem precedentes. À medida que o mundo está prestes a regulamentar esta tecnologia revolucionária, está ficando cada vez mais claro que a transparência não é apenas um complemento opcional — é um elemento central da implantação responsável da AI.

*Traduzido por Gustavo Martins com autorização do Decrypt.

VOCÊ PODE GOSTAR
Imagem da matéria: El Salvador já minerou R$ 154 milhões em Bitcoin usando energia de vulcão

El Salvador já minerou R$ 154 milhões em Bitcoin usando energia de vulcão

A mineração de Bitcoin é feita com energia do vulcão Tecapa, usando 300 processadores voltados para essa atividade
Foco em uma moeda dourada de Ethereum (ETH)

Aprovação do ETF de Ethereum pode acontecer antes do esperado, diz Coinbase

Maior exchange de criptomoedas dos EUA, a Coinbase está confiante de que a SEC aprovará ETFs de Ethereum à vista muito em breve, apesar do pessimismo mais amplo
Imagem da matéria: Manhã Cripto: Câmara dos EUA aprova nova lei cripto em dia decisivo para ETFs de Ethereum

Manhã Cripto: Câmara dos EUA aprova nova lei cripto em dia decisivo para ETFs de Ethereum

Nesta quinta-feira termina o prazo para a SEC aprovar ou rejeitar o ETF de Ethereum da VanEck
Imagem da matéria: Coinbase sai do ar durante madrugada após interrupção do sistema

Coinbase sai do ar durante madrugada após interrupção do sistema

Embora a Coinbase tenha informado nesta manhã que o problema estava resolvido, sua página de status ainda indica que o app móvel e site estão com “desempenho prejudicado”