AI News

Comissão Europeia Abre Inquérito Formal ao Grok AI da X por Violações de Segurança

A Comissão Europeia iniciou oficialmente um procedimento de infração contra a X (antiga Twitter), visando a sua ferramenta de IA generativa, Grok. Anunciada na segunda-feira, 26 de janeiro de 2026, esta investigação representa uma escalada significativa na aplicação do Regulamento de Serviços Digitais (Digital Services Act, DSA) pela União Europeia. Os reguladores citam "materialized risks" envolvendo a disseminação de imagens sexuais não consensuais (NCII) e potencial material de abuso sexual infantil (CSAM) gerados pelo chatbot, sinalizando um momento decisivo para a governança de IA na região.

O Catalisador: "Materialized Risks" e Dano Público

A investigação foi desencadeada por uma série de relatos alarmantes sobre as capacidades de geração de imagens do Grok. Ao contrário de muitos dos seus concorrentes, que implementaram salvaguardas rígidas cedo no seu ciclo de desenvolvimento, o Grok tem sido criticado por uma perceção de falta de moderação. A principal preocupação da Comissão gira em torno da capacidade da IA de gerar "imagens sexualmente explícitas manipuladas" de indivíduos reais, frequentemente referidas como deepfakes.

Segundo a Comissão, esses riscos não são meramente teóricos, mas se "materializaram", expondo cidadãos da EU a danos graves. Os relatos indicam que utilizadores conseguiram usar funcionalidades do Grok para "despir" digitalmente indivíduos e colocá‑los em cenários comprometedores ou sexualmente explícitos sem o seu consentimento. Essa capacidade viola os mandatos centrais de segurança do Regulamento de Serviços Digitais (Digital Services Act, DSA), que exige que as Plataformas Online Muito Grandes (VLOPs) como a X identifiquem e mitiguem proativamente riscos sistémicos.

Henna Virkkunen, Vice‑Presidente Executiva da Comissão para Soberania Tecnológica, Segurança e Democracia, condenou o fenómeno, afirmando que os deepfakes sexuais não consensuais constituem uma "forma violenta e inaceitável de degradação." A investigação procura determinar se a X deixou de implementar medidas de mitigação eficazes para impedir que esse tipo de conteúdo fosse criado e partilhado.

Foco Regulatório: o Regulamento de Serviços Digitais (DSA)

Este procedimento distingue‑se de inquéritos anteriores sobre as políticas de moderação de conteúdos da X relativas a discurso de ódio ou desinformação. Ele foca‑se especificamente na interseção entre IA generativa (Generative AI) e a responsabilidade das plataformas ao abrigo do DSA. A Comissão está a investigar três áreas específicas de não conformidade:

  1. Falha na Avaliação de Risco: O DSA exige que as plataformas realizem e submetam uma avaliação abrangente de riscos antes de implementar novas funcionalidades que possam impactar criticamente o perfil de risco da plataforma. A Comissão alega que a X não forneceu essa "ad hoc risk assessment" antes de lançar as funcionalidades de geração de imagens do Grok na EU.
  2. Medidas de Mitigação Inadequadas: A investigação examinará se as salvaguardas que a X alegou ter implementado eram tecnicamente suficientes para impedir a geração de conteúdo ilegal, especificamente CSAM e violência baseada no género.
  3. Sistemas de Recomendação: Em movimento paralelo, a Comissão estendeu uma investigação em curso (iniciada originalmente em dezembro de 2023) para cobrir a decisão da X de integrar o Grok nos seus sistemas de recomendação. As autoridades receiam que o uso do Grok para curar feeds de utilizadores possa amplificar conteúdo nocivo em vez de suprimí‑lo.

Table 1: Key Areas of the Commission's Investigation

Investigated Area Specific Allegation Relevant DSA Article
Avaliação de Risco Falha em submeter um relatório antes de implementar o Grok na EU. Articles 34(1) and (2)
Medidas de Mitigação Salvaguardas técnicas insuficientes contra a criação de conteúdo ilegal. Article 35(1)
Sistemas de Recomendação Uso de algoritmos do Grok potencialmente a amplificar riscos sistémicos. Article 42(2)

Resposta da X e Defesas Técnicas

Na sequência do anúncio, a X reiterou o seu compromisso com a segurança. Um porta‑voz da empresa encaminhou consultas para uma declaração anterior afirmando "tolerância zero" para a exploração sexual infantil e nudez não consensual. A empresa afirma estar ativamente a trabalhar para corrigir "falhas" nos seus protocolos de segurança.

No entanto, peritos técnicos argumentam que o problema pode ser fundamental à forma como o Grok foi treinado e lançado. Ao posicionar o Grok como uma alternativa "edgy" ou menos restrita a modelos como ChatGPT ou Claude, a X pode ter involuntariamente baixado o limiar para saídas nocivas. O "spicy mode" e outras funcionalidades sem restrições, embora populares entre uma parcela da base de utilizadores, apresentam um conflito direto com os quadros de responsabilidade estrita da União Europeia.

A empresa terá restringido algumas das capacidades de geração de imagens do Grok em resposta à onda inicial de críticas, mas os reguladores da EU consideram essas medidas reativas insuficientes. A investigação pretende apurar se a arquitetura da própria IA carecia dos princípios necessários de "safety by design" exigidos pela legislação europeia.

Implicações para a Indústria de IA

Esta investigação estabelece um precedente crítico para todas as empresas de IA que operam na EU. Ela clarifica que o DSA se aplica rigorosamente a ferramentas de IA generativa integradas em plataformas sociais, não apenas a publicações geradas por utilizadores.

Para a indústria de IA em geral, a mensagem é clara: a velocidade da inovação não pode sobrepor‑se à realização de avaliações de segurança. A exigência de submeter avaliações de risco antes da implementação deverá retardar o lançamento de novas funcionalidades de IA no mercado da EU em comparação com os EUA. Empresas que desenvolvem Large Language Models (LLMs) e geradores de imagens devem agora encarar a conformidade com a EU como um requisito de engenharia pré‑lançamento, em vez de um obstáculo legal pós‑lançamento.

Se for considerada não conforme, a X enfrenta sanções substanciais. Ao abrigo do DSA, as multas podem atingir até 6% do volume de negócios anual mundial total de uma empresa. Para além de penalidades financeiras, a Comissão detém o poder de impor medidas intermédias, que teoricamente poderiam obrigar a X a suspender a disponibilidade do Grok na EU até que as questões de segurança sejam resolvidas.

Conclusão

O procedimento formal da Comissão Europeia contra a X representa o primeiro grande caso‑teste regulatório para a IA generativa ao abrigo do Regulamento de Serviços Digitais (Digital Services Act). À medida que a investigação se desenrola, ela definirá os limites da responsabilidade para desenvolvedores de IA e operadores de plataformas. Para a Creati.ai e para o setor mais amplo de tecnologia criativa, isto serve como um lembrete contundente de que, aos olhos dos reguladores europeus, a capacidade de gerar conteúdo comporta o mesmo peso de responsabilidade do ato de o hospedar.

Em Destaque