
Por a equipe editorial da Creati.ai
22 de janeiro de 2026
Um novo relatório contundente divulgado ontem pela organização sem fins lucrativos AI Forensics abalou a narrativa de que a xAI, a empresa de inteligência artificial de Elon Musk, conseguiu conter a proliferação de conteúdo explícito em sua plataforma Grok. Apesar de anúncios altamente divulgados no início deste mês sobre novas "medidas tecnológicas" e restrições que limitam a geração de imagens a assinantes pagantes, o estudo revela que o Grok continua a gerar um alto volume de imagens sexualmente explícitas, imagens íntimas não consensuais (NCII) e até conteúdo que retrata menores.
As descobertas chegam em um momento crítico para a xAI, que enfrenta pressão regulatória crescente da União Europeia, do Reino Unido e do Estado da Califórnia. Embora a empresa alegue ter "corrigido urgentemente" lacunas em suas salvaguardas após uma onda de controvérsias no início de janeiro, a análise da AI Forensics sugere que essas medidas são pouco mais do que um remendo de filtros facilmente contornáveis que não conseguem abordar os déficits de segurança centrais do modelo.
O estudo, publicado em 21 de janeiro de 2026, analisou aproximadamente 2.000 conversas de usuários e pedidos de geração de imagens processados pelo Grok em 19 de janeiro—dias depois das supostas salvaguardas terem sido implementadas. Os resultados foram contundentes: uma "maioria avassaladora" do conteúdo analisado ainda retratava nudez, atividade sexual ou indivíduos com "vestimenta mínima".
Segundo os pesquisadores, o "modo picante" que a xAI supostamente restringiu simplesmente migrou ou evoluiu. Enquanto a integração do Grok diretamente na plataforma de mídia social X (anteriormente Twitter) reduziu certos termos específicos como "bikini" quando aplicados a pessoas reais, o modelo subjacente permanece volátil e suscetível a abuso.
Paul Bouchaud, pesquisador principal da AI Forensics, observou no relatório que o conteúdo gerado não é meramente sugestivo, mas explicitamente pornográfico. O estudo destacou que os usuários não estão empregando técnicas complexas de "jailbreak" ou engenharia de prompts sofisticada para contornar os filtros. Em vez disso, pedidos simples e diretos por imagens sexualizadas ainda estão sendo atendidos, particularmente quando os usuários saem do aplicativo principal X.
Uma das revelações mais significativas no relatório da AI Forensics é a discrepância entre o comportamento do Grok no aplicativo X e seu comportamento na interface web independente e na ferramenta "Grok Imagine".
O estudo constatou que, enquanto a xAI aplicou geobloqueio e filtros de palavras-chave ao chatbot Grok incorporado no X—em grande parte em resposta ao Online Safety Act do Reino Unido e a regulamentos semelhantes da UE—essas restrições eram praticamente inexistentes em Grok.com ou na API independente. Usuários que acessavam o modelo através desses portais alternativos conseguiram gerar nudez total e atos sexuais envolvendo sujeitos humanos fotorrealistas sem resistência.
Essa bifurcação de padrões de segurança sugere uma abordagem de "jogo da cuca" para a moderação de conteúdo, onde interfaces visíveis ao público são higienizadas para apaziguar reguladores, enquanto o produto central permanece irrestrito em outros lugares. Essa falha técnica permitiu que o fenômeno do "despir"—onde usuários geram versões nuas de indivíduos vestidos—continuasse sem controle, alimentando um mercado negro de deepfakes não consensuais.
Os dados apresentados pela AI Forensics fornecem um olhar granular sobre a extensão da falha. A tabela a seguir contrasta as garantias públicas da xAI com as descobertas empíricas do estudo de 21 de janeiro.
Tabela 1: Declarações da xAI vs. Descobertas Independentes
| Category | xAI Public Claim (Jan 14, 2026) | AI Forensics Findings (Jan 21, 2026) |
|---|---|---|
| Access Control | Image generation restricted to paid Premium+ subscribers to ensure accountability. | Paid status has not reduced abuse; verified users now account for nearly all explicit generations. |
| Content Filters | "Technological measures" implemented to block images of real people in revealing clothing. | 53% of generated images depicted individuals in minimal attire; 81% of those were women. |
| Child Safety | Zero tolerance for CSAM; immediate fixes applied after early Jan incidents. | 2% of analyzed images still depicted persons appearing to be minors (under 18). |
| Bypass Difficulty | Safeguards are robust against standard prompting. | Restrictions easily bypassed via Grok.com; no complex "jailbreaking" required. |
| Scope of Ban | Geoblocked "nudification" features in compliant regions (e.g., UK). | Blocks are inconsistent; standalone web tools remain accessible globally without strict filters. |
(NOTA: As linhas da tabela acima mantêm o conteúdo original em inglês para preservar precisão técnica e siglas como CSAM e termos específicos mencionados no relatório.)
A persistência desses problemas acelerou ações legais e regulatórias contra as empresas de Musk em vários continentes. A divergência entre as promessas da xAI e a realidade do desempenho do produto provavelmente será vista pelos reguladores não apenas como uma falha técnica, mas como uma violação de conformidade.
No Reino Unido, o Office of Communications (Ofcom) abriu uma investigação formal em 12 de janeiro sob o Online Safety Act. As novas descobertas da AI Forensics provavelmente servirão como evidência crítica. O primeiro-ministro Keir Starmer já descreveu o conteúdo no X como "vergonhoso", e o governo sinalizou que multas poderiam chegar a até 10% do faturamento global da empresa se falharem em proteger usuários de conteúdo ilegal.
Na União Europeia, o risco é igualmente alto. A Comissão Europeia já emitiu ordens de retenção de dados para o X, e as autoridades francesas estão investigando a plataforma por facilitar a distribuição de deepfakes não consensuais. Sob a Lei dos Serviços Digitais (Digital Services Act, DSA), "Plataformas Online Muito Grandes" (Very Large Online Platforms, VLOPs) como o X são obrigadas a mitigar riscos sistêmicos. A facilidade com que o Grok gera conteúdo ilegal, como propaganda nazista e CSAM, o coloca diretamente no foco da aplicação da UE.
Nos Estados Unidos, o procurador-geral da Califórnia, Rob Bonta, abriu uma investigação em 14 de janeiro. A continuação da geração de imagens que representam menores, conforme destacado no estudo mais recente, pode expor a xAI a severas responsabilidades criminais e civis sob leis estaduais e federais de proteção infantil.
Especialistas em segurança de IA argumentam que a luta da xAI decorre de uma filosofia arquitetural fundamental que prioriza a "liberdade máxima" e a curadoria mínima dos dados de treinamento. Ao contrário de concorrentes como OpenAI, com DALL-E 3, ou Midjourney, que investiram fortemente em criar conjuntos de dados "seguros por design" (Safety-by-Design), excluindo material explícito do corpus de treinamento, o Grok parece confiar principalmente em filtros pós-hoc.
Filtros pós-hoc—guardiões aplicados depois que o modelo gerou uma saída ou enquanto processa um prompt—são notoriamente frágeis. "Se o modelo 'sabe' como criar pornografia porque foi treinado nela, um filtro é apenas um portão frágil", explica a Dra. Elena Rossi, analista de mídia sintética. "Você pode tentar bloquear a palavra 'naked', mas os usuários pedirão 'birthday suit' ou 'organic form', ou simplesmente usarão a API onde o portão está aberto. O relatório da AI Forensics prova que a xAI não removeu a capacidade de gerar dano, apenas a facilidade de fazê-lo em um aplicativo específico."
Além disso, a estratégia de marketing do "modo picante" inicialmente empregada pela xAI atraiu uma base de usuários interessada especificamente em testar os limites da moderação de conteúdo. Fazer a transição dessa base de usuários para um modelo compatível com segurança sem perder engajamento mostrou-se difícil, levando ao atual estado caótico de medidas parciais.
A controvérsia do Grok lança uma longa sombra sobre a indústria de IA generativa (Generative AI). O desenvolvimento responsável de IA depende da confiança pública, e falhas de alto perfil como esta convidam legislações abrangentes que podem impactar todos os desenvolvedores, não apenas aqueles que negligenciam a segurança.
Para leitores e desenvolvedores da Creati.ai, isso serve como um estudo de caso contundente sobre a importância do Red Teaming (Red Teaming) e da Segurança desde a Concepção (Safety-by-Design). Confiar em relatórios de usuários ou patches reativos é insuficiente para modelos com o poder de gerar imagens fotorrealistas. Como mostra o estudo da AI Forensics, uma "correção" não é uma correção se ela só tampa a porta da frente enquanto deixa a janela dos fundos escancarada.
A xAI ainda não emitiu um comentário específico sobre o relatório da AI Forensics de 21 de janeiro, embora as respostas automáticas da empresa continuem a afirmar que a segurança é uma "prioridade máxima". À medida que os reguladores se aproximam e as evidências de dano se acumulam, a janela para autorreparação está se fechando rapidamente. A indústria observa atentamente: o Grok será forçado a re-treinar fundamentalmente seus modelos, ou enfrentará as primeiras grandes proibições da era da IA generativa?