
A Comissão Europeia iniciou oficialmente um procedimento de infração contra a X (antiga Twitter), visando a sua ferramenta de IA generativa, Grok. Anunciada na segunda-feira, 26 de janeiro de 2026, esta investigação representa uma escalada significativa na aplicação do Regulamento de Serviços Digitais (Digital Services Act, DSA) pela União Europeia. Os reguladores citam "materialized risks" envolvendo a disseminação de imagens sexuais não consensuais (NCII) e potencial material de abuso sexual infantil (CSAM) gerados pelo chatbot, sinalizando um momento decisivo para a governança de IA na região.
A investigação foi desencadeada por uma série de relatos alarmantes sobre as capacidades de geração de imagens do Grok. Ao contrário de muitos dos seus concorrentes, que implementaram salvaguardas rígidas cedo no seu ciclo de desenvolvimento, o Grok tem sido criticado por uma perceção de falta de moderação. A principal preocupação da Comissão gira em torno da capacidade da IA de gerar "imagens sexualmente explícitas manipuladas" de indivíduos reais, frequentemente referidas como deepfakes.
Segundo a Comissão, esses riscos não são meramente teóricos, mas se "materializaram", expondo cidadãos da EU a danos graves. Os relatos indicam que utilizadores conseguiram usar funcionalidades do Grok para "despir" digitalmente indivíduos e colocá‑los em cenários comprometedores ou sexualmente explícitos sem o seu consentimento. Essa capacidade viola os mandatos centrais de segurança do Regulamento de Serviços Digitais (Digital Services Act, DSA), que exige que as Plataformas Online Muito Grandes (VLOPs) como a X identifiquem e mitiguem proativamente riscos sistémicos.
Henna Virkkunen, Vice‑Presidente Executiva da Comissão para Soberania Tecnológica, Segurança e Democracia, condenou o fenómeno, afirmando que os deepfakes sexuais não consensuais constituem uma "forma violenta e inaceitável de degradação." A investigação procura determinar se a X deixou de implementar medidas de mitigação eficazes para impedir que esse tipo de conteúdo fosse criado e partilhado.
Este procedimento distingue‑se de inquéritos anteriores sobre as políticas de moderação de conteúdos da X relativas a discurso de ódio ou desinformação. Ele foca‑se especificamente na interseção entre IA generativa (Generative AI) e a responsabilidade das plataformas ao abrigo do DSA. A Comissão está a investigar três áreas específicas de não conformidade:
Table 1: Key Areas of the Commission's Investigation
| Investigated Area | Specific Allegation | Relevant DSA Article |
|---|---|---|
| Avaliação de Risco | Falha em submeter um relatório antes de implementar o Grok na EU. | Articles 34(1) and (2) |
| Medidas de Mitigação | Salvaguardas técnicas insuficientes contra a criação de conteúdo ilegal. | Article 35(1) |
| Sistemas de Recomendação | Uso de algoritmos do Grok potencialmente a amplificar riscos sistémicos. | Article 42(2) |
Na sequência do anúncio, a X reiterou o seu compromisso com a segurança. Um porta‑voz da empresa encaminhou consultas para uma declaração anterior afirmando "tolerância zero" para a exploração sexual infantil e nudez não consensual. A empresa afirma estar ativamente a trabalhar para corrigir "falhas" nos seus protocolos de segurança.
No entanto, peritos técnicos argumentam que o problema pode ser fundamental à forma como o Grok foi treinado e lançado. Ao posicionar o Grok como uma alternativa "edgy" ou menos restrita a modelos como ChatGPT ou Claude, a X pode ter involuntariamente baixado o limiar para saídas nocivas. O "spicy mode" e outras funcionalidades sem restrições, embora populares entre uma parcela da base de utilizadores, apresentam um conflito direto com os quadros de responsabilidade estrita da União Europeia.
A empresa terá restringido algumas das capacidades de geração de imagens do Grok em resposta à onda inicial de críticas, mas os reguladores da EU consideram essas medidas reativas insuficientes. A investigação pretende apurar se a arquitetura da própria IA carecia dos princípios necessários de "safety by design" exigidos pela legislação europeia.
Esta investigação estabelece um precedente crítico para todas as empresas de IA que operam na EU. Ela clarifica que o DSA se aplica rigorosamente a ferramentas de IA generativa integradas em plataformas sociais, não apenas a publicações geradas por utilizadores.
Para a indústria de IA em geral, a mensagem é clara: a velocidade da inovação não pode sobrepor‑se à realização de avaliações de segurança. A exigência de submeter avaliações de risco antes da implementação deverá retardar o lançamento de novas funcionalidades de IA no mercado da EU em comparação com os EUA. Empresas que desenvolvem Large Language Models (LLMs) e geradores de imagens devem agora encarar a conformidade com a EU como um requisito de engenharia pré‑lançamento, em vez de um obstáculo legal pós‑lançamento.
Se for considerada não conforme, a X enfrenta sanções substanciais. Ao abrigo do DSA, as multas podem atingir até 6% do volume de negócios anual mundial total de uma empresa. Para além de penalidades financeiras, a Comissão detém o poder de impor medidas intermédias, que teoricamente poderiam obrigar a X a suspender a disponibilidade do Grok na EU até que as questões de segurança sejam resolvidas.
O procedimento formal da Comissão Europeia contra a X representa o primeiro grande caso‑teste regulatório para a IA generativa ao abrigo do Regulamento de Serviços Digitais (Digital Services Act). À medida que a investigação se desenrola, ela definirá os limites da responsabilidade para desenvolvedores de IA e operadores de plataformas. Para a Creati.ai e para o setor mais amplo de tecnologia criativa, isto serve como um lembrete contundente de que, aos olhos dos reguladores europeus, a capacidade de gerar conteúdo comporta o mesmo peso de responsabilidade do ato de o hospedar.