
La Commission européenne a officiellement lancé une procédure d'infraction formelle contre X (anciennement Twitter), ciblant son outil d'intelligence artificielle générative (Generative AI), Grok. Annoncée le lundi 26 janvier 2026, cette enquête marque une escalade importante dans l'application par l'Union européenne de la loi sur les services numériques (Digital Services Act, DSA). Les régulateurs invoquent des « risques matérialisés » impliquant la diffusion d'images sexuelles non consensuelles (NCII) et de contenu d'abus sexuel sur des enfants (CSAM) potentiellement générés par le chatbot, signalant un moment charnière pour la gouvernance de l'IA dans la région.
L'enquête a été déclenchée par une vague de rapports alarmants concernant les capacités de génération d'images de Grok. Contrairement à beaucoup de ses concurrents, qui ont mis en place des garde-fous stricts dès les premiers cycles de développement, Grok a fait l'objet de critiques pour un manque perçu de modération. La principale préoccupation de la Commission porte sur la capacité de l'IA à générer des « images sexuelles manipulées » de personnes réelles, souvent appelées deepfakes.
Selon la Commission, ces risques ne sont pas simplement théoriques mais se sont « matérialisés », exposant les citoyens de l'UE à des préjudices graves. Les rapports indiquent que des utilisateurs ont pu exploiter les fonctionnalités de Grok pour « déshabiller » numériquement des individus et les placer dans des situations compromettantes ou sexuellement explicites sans leur consentement. Cette capacité viole les obligations fondamentales de sécurité du DSA, qui exige que les très grandes plateformes en ligne (VLOPs) comme X identifient et atténuent de manière proactive les risques systémiques.
Henna Virkkunen, vice-présidente exécutive de la Commission pour la souveraineté technologique, la sécurité et la démocratie, a condamné le phénomène, déclarant que les deepfakes sexuels non consensuels constituent une « forme violente et inacceptable de dégradation ». L'enquête vise à déterminer si X n'a pas mis en œuvre des mesures d'atténuation efficaces pour empêcher la création et le partage de tels contenus.
Cette procédure se distingue des enquêtes précédentes sur les politiques de modération de contenu de X concernant les discours de haine ou la désinformation. Elle se concentre spécifiquement sur l'intersection de l'intelligence artificielle générative et de la responsabilité des plateformes en vertu du DSA. La Commission examine trois domaines spécifiques de non-conformité :
Tableau 1 : Principaux domaines de l'enquête de la Commission
| Investigated Area | Specific Allegation | Relevant DSA Article |
|---|---|---|
| Risk Assessment | Failure to submit a report prior to deploying Grok in the EU. | Articles 34(1) and (2) |
| Mitigation Measures | Insufficient technical guardrails against creating illegal content. | Article 35(1) |
| Recommender Systems | Use of Grok algorithms potentially amplifying systemic risks. | Article 42(2) |
À la suite de l'annonce, X a réaffirmé son engagement en matière de sécurité. Un porte-parole de la société a renvoyé les questions à une déclaration précédente affirmant une « tolérance zéro » pour l'exploitation sexuelle des enfants et la nudité non consensuelle. L'entreprise affirme travailler activement à corriger des « lacunes » dans ses protocoles de sécurité.
Cependant, des experts techniques soutiennent que le problème peut être fondamental dans la façon dont Grok a été entraîné et déployé. En commercialisant Grok comme une alternative « provocante » ou moins restreinte à des modèles comme ChatGPT ou Claude, X a pu abaisser involontairement le seuil d'apparition de sorties nuisibles. Le « mode épicé » et d'autres fonctionnalités non restreintes, bien qu'appréciés par une partie des utilisateurs, entrent directement en conflit avec les cadres de responsabilité stricte de l'Union européenne.
La société a apparemment restreint certaines capacités de génération d'images de Grok en réponse au tollé initial, mais les régulateurs de l'UE jugent ces mesures réactives insuffisantes. L'enquête vise à établir si l'architecture même de l'IA manquait des principes nécessaires de « sécurité dès la conception » exigés par le droit européen.
Cette enquête établit un précédent critique pour toutes les entreprises d'IA opérant au sein de l'Union européenne. Elle clarifie que le DSA s'applique rigoureusement aux outils d'intelligence artificielle générative intégrés aux plateformes sociales, et pas seulement aux contenus générés par les utilisateurs.
Pour l'industrie de l'IA au sens large, le message est clair : la rapidité d'innovation ne peut se faire au détriment des évaluations de sécurité. L'obligation de soumettre des évaluations des risques avant le déploiement devrait ralentir la sortie de nouvelles fonctionnalités d'IA sur le marché de l'UE par rapport aux États-Unis. Les entreprises développant des grands modèles de langage (LLMs) et des générateurs d'images doivent désormais considérer la conformité avec l'UE comme une exigence d'ingénierie pré-lancement plutôt que comme un obstacle juridique post-lancement.
Si elle est jugée non conforme, X s'expose à des sanctions substantielles. En vertu du DSA, les amendes peuvent atteindre jusqu'à 6 % du chiffre d'affaires annuel total mondial d'une entreprise. Au-delà des sanctions financières, la Commission détient le pouvoir d'imposer des mesures provisoires, qui pourraient théoriquement obliger X à suspendre la disponibilité de Grok dans l'UE jusqu'à résolution des préoccupations de sécurité.
La procédure formelle de la Commission européenne contre X représente le premier cas d'examen réglementaire majeur de l'intelligence artificielle générative dans le cadre du Digital Services Act. À mesure que l'enquête progresse, elle définira les limites de la responsabilité pour les développeurs d'IA et les détenteurs de plateformes. Pour Creati.ai et le secteur plus large des technologies créatives, cela rappelle de manière saisissante que, aux yeux des régulateurs européens, la capacité de générer du contenu entraîne la même charge de responsabilité que l'acte d'héberger ce contenu.