Pesquisadores da Universidade de Stanford, nos EUA, concluíram um relatório esta semana mostrando que nenhum modelo de processamento de linguagem natural (LLMs, em inglês) usado em ferramentas de Inteligência Artificial (AI) como o ChatGPT-4 da OpenAI e o Bard do Google está em conformidade com a Lei da Inteligência Artificial da União Europeia (UE).
O Eu AI Act, a primeira lei do gênero a definir padrões de governança da AI a nível nacional e regional, acabou de ser adotado pelo Parlamento Europeu. A lei não apenas regula a AI na UE, abrangendo 450 milhões de pessoas, mas também serve como um modelo pioneiro para as regulamentações mundiais da tecnologia.
Mas, de acordo com o último estudo de Stanford, as empresas de AI têm um longo caminho pela frente se pretendem alcançar a conformidade com essas regras.
Em suas investigações, os pesquisadores avaliaram dez principais fornecedores de modelos e o grau de conformidade de cada fornecedor, com os 12 requisitos descritos na lei da AI, em uma escala de 0 a 4.
O estudo revelou uma grande discrepância nos níveis de conformidade, com alguns fornecedores pontuando menos de 25% dos requisitos da lei, e apenas um fornecedor — Hugging Face/BigScience — alcançando uma pontuação acima de 75%.
É evidente que, mesmo para os fornecedores de alta pontuação, há necessidade demelhorias significativas.
Riscos dos modelos atuais de Inteligência Artificial
O estudo lança luz sobre alguns pontos cruciais da falta de compliance no setor. A pouca transparência na divulgação do status dos dados de treinamento protegidos por direitos autorais, a energia usada, as emissões produzidas e a metodologia para mitigar os riscos potenciais estavam entre as descobertas mais preocupantes, escreveram os pesquisadores.
Além disso, a equipe constatou uma aparente disparidade entre as liberações de modelos abertos e fechados e pagos, com liberações abertas que conduzem a uma divulgação mais robusta dos recursos, mas que envolvem maiores desafios no acompanhamento ou controle da implantação.
Stanford concluiu que todos os fornecedores poderiam melhorar de forma significativa a sua conduta, independentemente das suas estratégias de lançamento.
Nos últimos meses, foi possível perceber uma redução notável da transparência nas principais versões de modelos. A OpenAI, por exemplo, não divulgou dados e computação em seus relatórios para o ChatGPT-4, citando um cenário competitivo e implicações de segurança.
Regulamentos europeus podem mudar a indústria de AI
Embora essas descobertas sejam significativas, elas também se encaixam em uma narrativa mais ampla em desenvolvimento. Recentemente, a OpenAI tem feito lobby para influenciar a posição de vários países em relação à AI.
A gigante da tecnologia até ameaçou deixar a Europa se os regulamentos fossem muito rigorosos — uma ameaça mais tarde corrigida pelo CEO. Tais ações ressaltam a relação complexa e muitas vezes tensa entre provedores de tecnologia AI e órgãos reguladores.
Os pesquisadores propuseram várias recomendações para melhorar a regulamentação das ferramentas de AI. Para os decisores políticos da UE, isso inclui garantir que a lei de AI exija dos fornecedores de modelos iniciais uma transparência e prestação de contas mais evidente.
A necessidade de recursos técnicos e talento para fazer cumprir a lei também é um ponto importante, refletindo a complexidade do ecossistema de AI.
De acordo com os pesquisadores, o principal desafio reside na rapidez com que os provedores de modelos podem adaptar e evoluir suas práticas de negócios para atender aos requisitos regulamentares.
Sem uma forte pressão regulatória, observaram eles, muitos provedores poderiam atingir pontuações totais de 30 a 40 pontos (de 48 pontos possíveis) por meio de mudanças significativas, mas plausíveis.
O trabalho dos pesquisadores oferece uma visão perspicaz do futuro da regulamentação da AI. Eles argumentam que, se promulgada e aplicada, a lei da AI produzirá um impacto positivo e significativo no ecossistema, abrindo caminho para mais transparência e responsabilidade.
A AI está transformando a sociedade com as suas capacidades e riscos sem precedentes. À medida que o mundo está prestes a regulamentar esta tecnologia revolucionária, está ficando cada vez mais claro que a transparência não é apenas um complemento opcional — é um elemento central da implantação responsável da AI.
*Traduzido por Gustavo Martins com autorização do Decrypt.
- Não perca dinheiro. No Mercado Bitcoin, você pode fazer staking de Ethereum de maneira segura e simples. Abra sua conta agora e comece a ganhar recompensas sobre seus investimentos em criptomoedas.