AI News

Autoridades francesas invadem escritórios da X enquanto investigação sobre o Grok AI se intensifica

Paris, France — Em uma escalada significativa da aplicação regulatória europeia, promotores franceses invadiram na terça-feira os escritórios da X (antiga Twitter) em Paris. A operação, liderada pela unidade de crimes cibernéticos do gabinete do promotor de Paris, marca um momento crucial na contínua análise do cumprimento da plataforma às leis locais e aos padrões da União Europeia. As autoridades emitiram simultaneamente convocações para o proprietário Elon Musk e para a ex-CEO Linda Yaccarino para interrogatório, centrando a investigação em sérias preocupações sobre Grok AI e seu suposto papel na geração de conteúdo ilegal.

Esta ação ressalta o aperto da regulação de redes sociais (social media regulation) em todo o continente, sinalizando que a era de supervisão leniente para tecnologias generativas acabou de fato. Para a indústria de IA, este evento serve como um aviso severo sobre a responsabilidade que as plataformas enfrentam ao implantar poderosas ferramentas de geração de imagens (image generation) sem salvaguardas adequadas.

Grok AI no centro da investigação sobre deepfakes

O cerne da investigação reside nas capacidades e nas salvaguardas — ou na falta delas — do modelo de inteligência artificial proprietário da X, Grok AI. Promotores estão investigando acusações de "complicidade" na posse e distribuição de Material de Abuso Sexual Infantil (CSAM) e deepfakes sexualmente explícitos não consensuais (deepfakes).

Segundo o gabinete do promotor de Paris, a investigação, que inicialmente começou em janeiro de 2025 como uma revisão de viés algorítmico, foi significativamente ampliada após surgirem relatos de que o Grok estava sendo usado para "produzir em massa" imagens nusificadas de mulheres e menores. Diferentemente de outros modelos de inteligência artificial generativa (Generative AI) que implementaram garantias rigorosas para evitar a geração de imagens de pessoas reais ou conteúdo explícito, investigadores alegam que o modo "sem amarras" do Grok permitia aos usuários contornar filtros de segurança com relativa facilidade.

A acusação legal: complicidade e negligência

As acusações específicas em investigação são graves. A lei francesa responsabiliza plataformas se for considerado que elas estão "deliberadamente cegas" às atividades ilegais facilitadas por suas ferramentas. A investigação apura se a liderança da X permitiu conscientemente que o Grok AI funcionasse sem as camadas de moderação de conteúdo necessárias exigidas pelo código penal francês e pelo Digital Services Act (DSA) da UE.

A inclusão de "negação de crimes contra a humanidade" no dossiê sugere que a investigação também cobre as saídas de geração de texto da IA, especificamente casos em que o modelo pode ter gerado conteúdo negacionista do Holocausto. Este ataque jurídico multifacetado destaca a natureza abrangente da responsabilidade que a X agora enfrenta.

Convocações à liderança: Musk e Yaccarino

Em uma medida rara para uma investigação preliminar, os promotores convocaram Elon Musk e a ex-CEO Linda Yaccarino para "entrevistas voluntárias". As audiências estão agendadas para 20 de abril de 2026. Yaccarino, que atuou como CEO de maio de 2023 até julho de 2025, foi chamada a depor sobre as decisões operacionais tomadas durante o lançamento dos recursos de geração de imagens do Grok.

Embora as convocações sejam atualmente para entrevistas voluntárias, a recusa em cooperar pode levar a ordens legais vinculativas. Esse desenvolvimento coloca a liderança executiva da X diretamente na mira da responsabilidade penal, indo além de multas corporativas para uma potencial responsabilização pessoal. O gabinete do promotor de Paris afirmou que o objetivo é garantir que a plataforma "cumpria a lei francesa enquanto opera no território nacional", rejeitando alegações de apoiadores da X de que a investigação seja motivada politicamente.

Contexto regulatório: o DSA e além

Essa operação não ocorre no vácuo. É o culminar de meses de atrito entre a X e os reguladores europeus. Em dezembro de 2025, a Comissão Europeia multou a X em €120 milhões por práticas de design enganoso e falhas de transparência. A atual investigação criminal na França corre paralela a essas ações administrativas em nível da UE, mas traz a ameaça de tempo de prisão e danos reputacionais significativamente maiores.

A posição da União Europeia sobre a regulação de redes sociais endureceu, com a narrativa do "velho oeste digital" citada por líderes como o primeiro-ministro espanhol Pedro Sánchez impulsionando um consenso por aplicação rigorosa. O envolvimento da Europol na operação de terça-feira indica que este é um esforço coordenado para estabelecer um precedente sobre como o Digital Services Act e as leis penais nacionais se aplicam ao conteúdo gerado por IA.

Linha do tempo da escalada regulatória

A relação entre a X e as autoridades europeias se deteriorou rapidamente no último ano. A tabela a seguir descreve os eventos-chave que levaram à crise atual.

Date Regulatory Action Impact and Response
janeiro de 2025 Investigação inicial aberta Autoridades francesas investigam o viés algorítmico e os métodos de processamento de dados da X.
dezembro de 2025 Multa de €120M pela Comissão da UE X multada por violações do DSA relativas à transparência de anúncios e acesso de pesquisadores.
janeiro de 2026 Investigação ampliada para o Grok AI Investigação amplia-se para incluir alegações de geração de CSAM e deepfakes.
3 de fevereiro de 2026 Operação no escritório de Paris Unidade de crimes cibernéticos apreende dados; X chama a ação de "motivada politicamente".
20 de abril de 2026 Convocações agendadas à liderança Musk e Yaccarino convocados para interrogatório sobre as salvaguardas do Grok AI.

Implicações para o desenvolvimento de IA generativa

A operação nos escritórios da X é um momento decisivo para o setor de IA generativa. Desafia a filosofia do "modelo aberto" que prioriza a capacidade bruta do modelo em detrimento de restrições de segurança. Se os promotores franceses argumentarem com sucesso que lançar uma ferramenta de IA com salvaguardas facilmente contornáveis constitui complicidade nos crimes cometidos com essa ferramenta, será necessário um redesenho fundamental de como produtos de IA são lançados globalmente.

Para desenvolvedores e plataformas, a mensagem é clara: ferramentas de geração de imagens (image generation) e de síntese de texto não são mais vistas meramente como software, mas como potenciais armas nas mãos de agentes mal-intencionados. A responsabilidade pelo uso indevido está se deslocando do usuário para o provedor. À medida que a X navega por esse campo minado legal, o desfecho dessa investigação provavelmente definirá o manual de conformidade para empresas de IA que operam na Europa na próxima década.

Creati.ai continuará a monitorar essa história em desenvolvimento e suas profundas implicações para o futuro da inteligência artificial.

Em Destaque