
A Comissão Europeia abriu oficialmente procedimentos formais por infração contra a X (anteriormente Twitter) relativos ao seu chatbot de inteligência artificial, Grok. Esta escalada regulatória significativa, anunciada hoje, segunda-feira, 26 de janeiro de 2026, marca um momento crucial na aplicação do Regulamento de Serviços Digitais (Digital Services Act - DSA). A investigação da Comissão foca-se especificamente em alegações de que a plataforma não implementou medidas adequadas de mitigação de riscos para impedir a criação e a disseminação de imagens íntimas não consensuais (non-consensual intimate imagery — NCII) e outros conteúdos ilegais gerados pelo Grok.
A medida segue um relatório do jornal alemão Handelsblatt, citando altos funcionários da UE, que confirma que o braço executivo da União Europeia está preparado para utilizar todo o peso do DSA para garantir a conformidade. Os procedimentos sublinham a crescente fricção entre o rápido desenvolvimento da IA e os rigorosos quadros de segurança estabelecidos pelos reguladores europeus. Para a indústria de IA, este caso serve como um teste decisivo de como as "Plataformas Online Muito Grandes" (Very Large Online Platforms — VLOPs) devem governar ferramentas generativas integradas em ecossistemas sociais.
O gatilho imediato para esta repressão regulatória parece ter sido uma onda de relatos alarmantes sobre as capacidades de geração de imagens do Grok. Ao contrário de muitos dos seus concorrentes, que implementaram protocolos rígidos de "recusa" para gerar imagens de pessoas reais, o Grok — integrado na plataforma X para assinantes premium — tem sido escrutinado por suas proteções mais frouxas.
Investigações revelaram que a ferramenta alegadamente foi usada para criar pornografia "deepfake" direcionada a indivíduos identificáveis, incluindo figuras públicas e, de modo mais perturbador, menores. Esses chamados casos de "nudificação" envolvem usuários solicitando que a IA remova digitalmente roupas de sujeitos não consententes em fotografias. Embora a X tenha, segundo relatos, lançado patches de emergência e apertado controles nos últimos dias, a ação da Comissão Europeia sugere que essas medidas retroativas são vistas como insuficientes face aos mandatos proativos de gestão de riscos do DSA.
Henna Virkkunen, a responsável tecnológica da UE, já sinalizou anteriormente que as regras digitais existentes são totalmente aplicáveis aos riscos impulsionados por IA. A proliferação desse tipo de conteúdo viola não só a dignidade das vítimas, mas também artigos específicos do DSA relacionados com a proteção de menores e a prevenção da violência de género.
Regulamento de Serviços Digitais (DSA) impõe obrigações específicas às plataformas designadas como VLOPs. Estas entidades não devem apenas remover conteúdos ilegais quando notificadas, mas também avaliar e mitigar proativamente riscos sistémicos. A tabela abaixo descreve as áreas específicas onde o Grok da X está a ser investigado por potencial não conformidade.
Tabela 1: Avaliação de Conformidade do DSA para Inteligência Artificial Generativa
| DSA Obligation Category | Specific Requirement | Alleged Compliance Failure |
|---|---|---|
| Mitigação de Riscos (Art. 34/35) | As VLOPs devem avaliar riscos relativos à disseminação de conteúdos ilegais e aos efeitos negativos sobre direitos fundamentais. | Falha em antecipar e bloquear a criação de imagens íntimas não consensuais (NCII) antes do lançamento. |
| Proteção de Menores (Art. 28) | As plataformas devem garantir um elevado nível de privacidade, segurança e proteção para menores. | Disponibilidade do Grok para gerar conteúdo sexualizado que pode representar ou visar menores sem mecanismos robustos de verificação etária ou filtragem de conteúdo. |
| Mecanismo de Resposta a Crises | Reação rápida a circunstâncias extraordinárias que afetem a segurança pública ou a segurança. | Resposta tardia em desativar eficazmente os "jailbreaks" específicos usados para gerar imagens nocivas uma vez que se tornaram virais. |
| Transparência (Art. 15) | Termos de serviço claros e transparência quanto aos parâmetros algorítmicos. | Falta de clareza quanto aos dados de treino utilizados para o Grok e aos parâmetros de segurança específicos que regem o seu gerador de imagens. |
Enquanto a União Europeia lidera a ofensiva legal com o DSA, a reação às falhas recentes de moderação de conteúdo do Grok é global. A investigação em Bruxelas ocorre paralelamente a escrutínios em outras jurisdições importantes, criando um panorama de conformidade complexo para a xAI.
No Reino Unido, o regulador Ofcom está atualmente a avaliar se a X violou os seus deveres ao abrigo do Online Safety Act. Autoridades britânicas descreveram a circulação de conteúdo deepfake como "chocante", com o Primeiro-Ministro Keir Starmer a ecoar preocupações sobre os protocolos de segurança da plataforma.
Simultaneamente, autoridades no Sudeste Asiático tomaram medidas imediatas ainda mais drásticas. Relatos indicam que a Indonésia e a Malásia avançaram para bloquear temporariamente o acesso à ferramenta específica Grok — ou, em alguns casos, ameaçaram bloqueios mais amplos da plataforma — citando a violação das leis locais de obscenidade. Essa pressão internacional valida a posição da UE de que a Inteligência Artificial Generativa, quando atada a uma vasta rede social de distribuição, requer salvaguardas que vão além de correções padrão de software.
O cerne do conflito reside na divergência filosófica e técnica entre a visão de produto da xAI e os padrões regulatórios de segurança. Elon Musk frequentemente posicionou o Grok como uma alternativa "rebelde" aos modelos de IA que ele chama de "woke", desenvolvidos por concorrentes como OpenAI ou Google. O Grok foi concebido para responder a perguntas "picantes" e rejeita menos prompts.
No entanto, o escândalo da "nudificação" destaca o modo de falha catastrófico dessa abordagem quando aplicada à geração de imagens. Do ponto de vista técnico, o incidente levanta questões sobre a robustez do filtro do espaço latente do modelo.
As apostas para a X são enormes, tanto financeiramente quanto operacionalmente. Ao abrigo do DSA, as penalidades por não conformidade podem atingir até 6% do volume de negócios anual mundial total de uma empresa. Para uma empresa do porte da X, isto pode traduzir-se em centenas de milhões de euros. Para além das multas, a Comissão possui autoridade para impor "medidas provisórias", que teoricamente poderiam forçar a X a suspender os serviços do Grok dentro da União Europeia até que as questões de segurança fossem resolvidas a contento do regulador.
Este processo serve como indicador para todo o setor de Inteligência Artificial Generativa. Estabelece um precedente de que testar em "beta" ferramentas poderosas de geração de imagens no público aberto já não é uma estratégia permissível para plataformas de grande porte. Os reguladores estão, efetivamente, a sinalizar que a era do "mover-se rápido e quebrar coisas" é incompatível com os requisitos de segurança da governança moderna de IA.
À medida que os procedimentos se desenrolam nos próximos meses, a indústria observará atentamente para ver se a xAI opta por reformular radicalmente a arquitetura de segurança do Grok ou envolve-se numa batalha legal prolongada com Bruxelas. Por agora, a abertura destes procedimentos marca o fim definitivo do período de tolerância para a supervisão da Inteligência Artificial Generativa na Europa.