
A Comissão Europeia está prestes a abrir procedimentos formais por infração contra o chatbot de IA generativa (Generative AI) da xAI, Grok, marcando uma escalada significativa no impasse regulatório entre a União Europeia e o império tecnológico de Elon Musk. Segundo relatos inicialmente publicados pelo diário econômico alemão Handelsblatt e corroborados por altos funcionários da UE, a investigação terá início oficialmente na segunda-feira, com alvo em alegadas violações da Lei de Serviços Digitais (Digital Services Act, DSA).
Esta medida decisiva segue semanas de crescente escrutínio sobre Grok e suas capacidades de geração de conteúdo, especificamente relatos de que a ferramenta — integrada diretamente na plataforma de mídia social X — estava a ser utilizada para criar imagens deepfake sexualmente explícitas e não consensuais. Os procedimentos podem potencialmente obrigar xAI a retirar o chatbot do mercado da UE na sua totalidade caso a conformidade não seja rapidamente alcançada.
O catalisador para esta repressão regulatória parece ter sido a recente controvérsia em torno do chamado "Spicy Mode" do Grok. No início de janeiro de 2026, utilizadores reportaram que as funcionalidades de geração de imagem do chatbot podiam ser manipuladas para "despir" indivíduos reais e gerar imagens fotorrealistas e explícitas de mulheres e menores.
Embora a xAI tenha desde então restringido essas capacidades específicas na sequência de uma reação global, a Comissão Europeia alega que a empresa não realizou avaliações de risco obrigatórias antes de lançar essas funcionalidades. Ao abrigo do DSA, as Plataformas Online de Muito Grande Porte designadas (Very Large Online Platforms, VLOPs), como a X, são legalmente obrigadas a identificar, analisar e mitigar riscos sistémicos, particularmente aqueles que afetam o bem-estar físico e mental dos utilizadores e a proteção de menores.
Funcionários da Comissão descreveram a proliferação dessas imagens como "horrível" e "repugnante", sinalizando que a UE já não está disposta a tolerar uma abordagem de "mover-se rápido e quebrar coisas" quando se trata da segurança da IA generativa.
Espera-se que a investigação se foque em vários pilares centrais da conformidade com o DSA. Ao contrário do iminente Artificial Intelligence Act, que é específico ao produto, o DSA concentra-se na governação das plataformas e na moderação de conteúdo. Como o Grok está incorporado na X, as suas falhas são tratadas como falhas sistémicas da plataforma anfitriã.
Áreas-chave da investigação do DSA sobre o Grok
| Investigation Area | Specific Allegations | Potential Regulatory Impact |
|---|---|---|
| Mitigação de risco sistémico | Falha em avaliar os riscos de gerar conteúdo ilegal (CSAM, imagens não consensuais) antes do lançamento da funcionalidade. | Auditorias de risco obrigatórias e implementação de medidas de mitigação. |
| Moderação de conteúdo | Mecanismos inadequados para detectar e remover rapidamente conteúdo ilegal gerado por IA. | Ordens para reformular algoritmos de moderação e a supervisão humana. |
| Proteção de menores | Garantias de idade insuficientes e salvaguardas para impedir que menores acedam ou sejam retratados pela ferramenta. | Controlo de acessos rigoroso e potenciais bloqueios de serviço para menores. |
| Obrigações de transparência | Falta de clareza sobre os dados usados para treinar o Grok e o funcionamento dos seus algoritmos de geração. | Multas de até 6% do volume de negócios global por não conformidade. |
Este novo processo não é um incidente isolado, mas antes o capítulo mais recente numa rutura cada vez maior entre Bruxelas e Elon Musk. Em dezembro de 2025, a Comissão Europeia multou a X em aproximadamente €120 milhões por infrações separadas ao DSA relacionadas com projetos de interface de utilizador enganadores (especificamente no que respeita à verificação "Blue Check") e falta de transparência na publicidade.
A Comissão já utilizou os seus poderes de emergência para ordenar que a X preserve todos os documentos internos e dados relacionados com o Grok até ao final de 2026. Esta "preservation order" sugere que os reguladores estão a construir um caso jurídico abrangente para provar que a xAI negligenciou conscientemente os protocolos de segurança em favor do rápido lançamento de funcionalidades.
Se for considerada culpada das infrações alegadas, a X poderá enfrentar multas de até 6% do seu volume de negócios anual global. No entanto, a ameaça mais imediata e existencial às operações europeias do Grok é o poder da Comissão de impor "medidas provisórias" ("interim measures"), que poderiam efetivamente banir o serviço na UE até que os riscos sejam considerados neutralizados.
Para o setor tecnológico em geral, este caso serve como precedente crítico. Demonstra que a União Europeia pretende usar a Lei de Serviços Digitais como ferramenta principal de aplicação contra riscos da IA generativa (Generative AI) mesmo antes da concreta Lei de Inteligência Artificial (Artificial Intelligence Act) estar totalmente implementada.
As empresas tecnológicas que operam na UE devem agora reconhecer que integrar ferramentas de IA em plataformas sociais existentes coloca essas ferramentas sob o âmbito de leis de responsabilidade de plataforma rigorosas. As defesas de "safe harbor" que antes protegiam as plataformas da responsabilidade por conteúdo gerado por utilizadores tornam-se cada vez mais permeáveis quando as próprias ferramentas da plataforma facilitam a criação desse conteúdo.
A Creati.ai nota que esta investigação destaca o imenso encargo de conformidade que os desenvolvedores de IA enfrentam. A inovação na geração de imagens terá agora de estar associada a robustos processos de red-teaming e barreiras de segurança pré-implantação para sobreviver ao ambiente regulatório da UE. À medida que os procedimentos se iniciam nesta segunda-feira, o mundo tecnológico estará a observar para ver se Musk opta por cumprir as exigências de Bruxelas ou arrisca perder acesso a um mercado de 450 milhões de utilizadores.