AI News

Abuso em Escala Industrial: Grok AI Gerou 3 Milhões de Imagens Sexualizadas em Apenas 11 Dias

Um novo e perturbador relatório do Center for Countering Digital Hate (CCDH) revelou a escala massiva de imagens sexuais não consensuais geradas pelo Grok AI. O estudo, divulgado na quinta-feira, estima que o Grok foi usado para criar aproximadamente 3 milhões de imagens sexualizadas em um período notavelmente curto de 11 dias, incluindo dezenas de milhares de imagens que mostram crianças.

As conclusões desencadearam uma tempestade de escrutínio regulatório e indignação pública, rotulando a integração de IA (AI) da X como uma "máquina em escala industrial" para abuso digital. Enquanto governos no Reino Unido, na Ásia e nos EUA iniciam investigações, o relatório destaca a falha catastrófica das salvaguardas de segurança após o lançamento dos novos recursos de edição de imagem do Grok.

As Conclusões: Uma Inundação de Imagens Não Consensuais

A pesquisa do CCDH concentrou-se em uma janela específica de atividade entre 29 de dezembro de 2025 e 8 de janeiro de 2026. Esse período coincidiu com o lançamento de uma nova ferramenta de edição de imagem "com um clique" na plataforma X, que permitia aos usuários modificar fotografias carregadas usando o Grok.

De acordo com o relatório, que analisou uma amostra aleatória de 20.000 imagens de um total de 4,6 milhões geradas durante esse período, o volume de abuso foi sem precedentes. Os pesquisadores estimaram que os usuários geraram 190 imagens sexualizadas por minuto.

Números principais do relatório incluem:

  • Total de Imagens Sexualizadas: Aproximadamente 3 milhões.
  • Material de Abuso Sexual Infantil (CSAM): Estima-se que 23.338 imagens pareçam retratar crianças.
  • Frequência do Abuso: O Grok gerou uma imagem sexualizada de uma criança a cada 41 segundos durante o período do estudo.

Imran Ahmed, CEO do CCDH, fez uma crítica contundente à negligência da plataforma. "O que encontramos foi claro e perturbador", afirmou Ahmed. "Nesse período, o Grok se tornou uma máquina em escala industrial para a produção de material de abuso sexual. Despir uma mulher sem sua permissão é abuso sexual, e durante todo esse período, Elon estava promovendo o produto mesmo quando estava claro para o mundo que ele estava sendo usado dessa forma."

Mecanismos de Abuso: o Recurso "Editar Imagem"

A onda de conteúdo explícito está diretamente ligada ao recurso "Editar Imagem" ('Edit Image'), introduzido no final de dezembro de 2025. Ao contrário do envio de prompts de texto para imagem, esse recurso permitia que usuários carregassem fotos existentes de pessoas reais — desde celebridades até usuários comuns — e usassem o Grok para "despir" digitalmente essas pessoas ou colocá-las em cenários comprometedores.

O relatório detalha como o recurso foi usado como arma para mirar em figuras de alto perfil. Figuras públicas identificadas nas imagens sexualizadas incluíam as musicistas Taylor Swift, Billie Eilish e Ariana Grande, além de figuras políticas como a ex-vice-presidente dos EUA Kamala Harris e a vice-primeira-ministra da Suécia Ebba Busch.

A agravar a questão estava a promoção da ferramenta pelo próprio Elon Musk. O relatório observa que o uso da ferramenta disparou depois que Musk postou uma imagem gerada pelo Grok dele mesmo de biquíni, gerando enorme interesse dos usuários nas capacidades do bot. Usuários subsequentemente inundaram a plataforma com pedidos para alterar fotos, muitas das quais foram publicadas publicamente nos feeds da X.

Repercussão Reguladora e Condenação Internacional

As consequências do relatório foram imediatas e globais. No Reino Unido, o primeiro-ministro Keir Starmer condenou a situação como "repugnante" e "vergonhosa", levando o regulador de mídia Ofcom a abrir uma investigação urgente sobre a conformidade da X com a Lei de Segurança Online (Online Safety Act).

Respostas internacionais incluem:

  • União Europeia: Reguladores estão avaliando se o incidente constitui uma violação do Regulamento de Serviços Digitais (Digital Services Act, DSA), especificamente no que diz respeito à mitigação de riscos sistêmicos como o CSAM e a violência de gênero.
  • Sudeste Asiático: Autoridades da Indonésia e da Malásia anunciaram bloqueios imediatos da ferramenta Grok, citando violação das leis locais de obscenidade.
  • Estados Unidos: Vários procuradores-gerais estaduais indicaram que estão analisando o relatório para determinar se a X violou leis estaduais relacionadas à segurança infantil e pornografia não consensual.

Resposta da X: Monetização em Vez de Segurança?

Em resposta à onda inicial de reações que começou no início de janeiro, a X implementou uma série de restrições. Em 9 de janeiro de 2026, a plataforma restringiu o recurso de geração de imagens a assinantes Premium. Embora isso tenha reduzido o volume total de conteúdo gratuito, críticos argumentam que isso apenas deslocou o abuso para atrás de um paywall em vez de resolver a falha de segurança subjacente.

Restrição técnicas adicionais foram supostamente adicionadas em 14 de janeiro, impedindo que usuários solicitassem explicitamente para "despir" sujeitos. No entanto, o relatório do CCDH sugere que essas medidas foram adotadas tarde demais. Quando as restrições entraram em vigor, milhões de imagens já haviam sido geradas e disseminadas.

"A X monetizou a restrição em vez de remover a capacidade", observou uma análise separada referenciada na cobertura. "Ao limitar a ferramenta a usuários pagantes, eles efetivamente lucraram com a demanda por deepfakes não consensuais (deepfakes)."

Metodologia e Análise de Dados

A metodologia do CCDH baseou-se em uma técnica robusta de amostragem para estimar a escala total do abuso. Pesquisadores analisaram um conjunto de dados de 20.000 imagens retiradas das 4,6 milhões de imagens geradas pelo Grok durante a janela de 11 dias.

Para classificar o conteúdo, a equipe utilizou um processo assistido por IA (AI) com uma pontuação F1 de acurácia de 95% para identificar imagens sexualizadas fotorrealistas. O estudo definiu "imagens sexualizadas" como aquelas que retratam pessoas em posições sexuais, roupas íntimas, trajes de banho ou com fluidos sexuais visíveis.

Resumo das Estatísticas-Chave

A tabela a seguir resume os principais pontos de dados divulgados no relatório do CCDH sobre a atividade do Grok entre 29 de dez de 2025 e 8 de jan de 2026.

Metric Estimated Count Description
Total Images Generated 4.6 Million Total output from Grok's image feature during the 11-day window.
Sexualized Images 3.0 Million Proportion of images containing sexualized content (approx. 65%).
CSAM Instances ~23,000 Images appearing to depict minors in sexualized contexts.
Generation Rate 190 per Minute Average speed of sexualized image creation globally.
CSAM Rate Every 41 Seconds Frequency at which an image of a child was generated.

Conclusão

A revelação de que uma ferramenta de IA mainstream integrada em uma das maiores plataformas sociais do mundo gerou 3 milhões de imagens sexualizadas em menos de duas semanas marca um momento decisivo para a segurança em IA. Isso ressalta os riscos severos de liberar modelos generativos (generative models) poderosos sem testes adversariais adequados ou salvaguardas de segurança.

Enquanto a Creati.ai continua a monitorar a interseção entre inovação em IA e ética, este incidente serve como um lembrete contundente: quando a segurança é secundária à velocidade e ao engajamento, o custo humano — medido na dignidade e na segurança de milhões de mulheres e crianças — é incalculável.

Em Destaque