A praga da criação maliciosa de deepfake se espalhou muito além do meio das celebridades e figuras públicas. Um novo relatório sobre Imagens Íntimas não Consensuais (NCII na sigla em inglês) revela que a prática só cresce à medida que os geradores de imagens evoluem e proliferam.
A “AI undressing” (“Despir-se por IA”) está aumentando, diz um relatório da empresa de análise de mídia social Graphika publicado na sexta-feira (8), descrevendo a prática como o uso de ferramentas generativas de IA ajustadas para remover roupas de imagens enviadas por usuários.
A comunidade de jogos e streaming do Twitch enfrentou o problema no início deste ano, quando o proeminente locutor Brandon ‘Atrioc’ Ewing revelou acidentalmente que estava vendo pornografia deepfake gerada por IA de streamers que ele chamava de amigas, de acordo com um relatório do Kotaku.
Ewing voltou à plataforma em março, arrependido e relatando semanas de trabalho que se dedicou para mitigar os danos que causou. Mas o incidente abriu as comportas para toda uma comunidade online.
O relatório da Graphika mostra que o incidente foi apenas uma gota no oceano.
“Usando dados fornecidos pela Meltwater, medimos o número de comentários e postagens no Reddit e X contendo links de referência para 34 sites e 52 canais do Telegram que fornecem serviços NCII sintéticos”, escreveu o analista de inteligência da Graphika, Santiago Lakatos.
“Estes totalizaram 1.280 em 2022, em comparação com mais de 32.100 até agora neste ano, representando um aumento de 2.408% no volume ano a ano”.
A Graphika, com sede em Nova York, EUA, diz que a explosão do NCII mostra que as ferramentas passaram de fóruns de discussão de nicho para uma indústria caseira.
“Esses modelos permitem que um número maior de fornecedores criem NCII fotorrealistas em escala de maneira fácil e barata”, disse Graphika. “Sem esses provedores, seus clientes precisariam hospedar, manter e executar seus próprios modelos personalizados de difusão de imagens — um processo demorado e às vezes caro”.
Graphika alerta que o aumento da popularidade das ferramentas de IA para despir pode levar não apenas a material pornográfico falso, mas também a assédio direcionado, extorsão sexual e à geração de material de abuso sexual infantil (CSAM na sigla em inglês).
De acordo com o relatório Graphika, os desenvolvedores de ferramentas de IA anunciam nas redes sociais para levar usuários em potencial aos seus sites, bate-papo privado do Telegram ou servidores Discord onde as ferramentas podem ser encontradas.
“Alguns prestadores são abertos nas suas atividades, afirmando que prestam serviços de ‘despir’ e publicando fotografias de pessoas que afirmam terem sido ‘despidas’ como prova”, escreveu Graphika.
“Outros são mais discretos e se apresentam como serviços de arte de IA ou galerias de fotos Web3, ao mesmo tempo que incluem palavras-chave associadas a NCII sintético em seus perfis e postagens”, acrescenta.
Deepfake com celebridadades
Embora as inteligências artificiais de despir normalmente se concentrem em imagens, a IA também tem sido usada para criar vídeos com deepfakes de celebridades, incluindo a personalidade do YouTube, Mr. Beast, e o icônico ator de Hollywood, Tom Hanks.
Artistas como Scarlett Johansson e o ator indiano Anil Kapoor estão recorrendo por meios legais para combater a ameaça contínua de deepfakes de IA. Ainda assim, embora os artistas tradicionais possam receber mais atenção da mídia, artistas de conteúdo adulto dizem que suas vozes raramente são ouvidas.
“É realmente difícil”, disse ao Decrypt a lendária atriz pornô e chefe da Star Factory PR, Tanya Tate. “Se alguém está no mainstream, tenho certeza que é muito mais fácil”.
Mesmo sem a ascensão da IA e da tecnologia deepfake, Tate explicou que as redes sociais já estão cheias de contas falsas usando sua imagem e conteúdo. O que não ajuda é o estigma contínuo que as profissionais do sexo enfrentam, forçando-as e aos seus fãs a permanecerem nas sombras.
Em outubro, a empresa de vigilância da Internet com sede no Reino Unido, Internet Watch Foundation (IWF), num relatório separado, observou que mais de 20.254 imagens de abuso infantil foram encontradas num único fórum da darkweb em apenas um mês. A IWF alertou que a pornografia infantil gerada pela IA poderia “sobrecarregar” a Internet.
Graças aos avanços nas imagens generativas de IA, a IWF alerta que a pornografia deepfake avançou ao ponto em que distinguir entre imagens geradas por IA e imagens autênticas se tornou cada vez mais complexo, deixando as autoridades policiais a perseguir fantasmas online em vez de vítimas reais.
“Portanto, há aquela coisa contínua de que você não pode confiar se as coisas são reais ou não”, disse o CTO da Internet Watch Foundation, Dan Sexton, ao Decrypt. “As coisas que nos dirão se as coisas são ou não reais não são 100% e, portanto, você também não pode confiar nelas”.
Quanto a Ewing, Kotaku relatou que o streamer voltou dizendo que estava trabalhando com repórteres, tecnólogos, pesquisadores e mulheres afetadas pelo incidente desde sua transgressão em janeiro.
Ele também disse que enviou fundos para o Morrison Cooper, escritório de advocacia de Ryan Morrison, com sede em Los Angeles, para fornecer serviços jurídicos a qualquer mulher no Twitch que precisasse de sua ajuda para emitir avisos de remoção para sites que publicam imagens delas.
Ewing acrescentou que recebeu um estudo sobre a profundidade do problema do deepfake da misteriosa pesquisadora do tema, Genevieve Oh.
“Tentei encontrar os ‘pontos positivos’ na luta contra esse tipo de conteúdo”, concluiu.
*Traduzido com autorização do Decrypt.
- Quer desvendar os mistérios do Bitcoin? Adquira “O Livro de Satoshi”, um compilado de escritos e insights de Satoshi Nakamoto