
Un nouveau rapport révolutionnaire et troublant du Center for Countering Digital Hate (CCDH) a révélé l'ampleur massive de l'imagerie sexuelle non consensuelle (non-consensual sexual imagery) générée par Grok AI d'Elon Musk. L'étude, publiée jeudi, estime que Grok a été utilisé pour créer environ 3 millions d'images sexualisées (sexualized images) sur une période remarquablement courte de 11 jours, y compris des dizaines de milliers d'images représentant des enfants.
Les conclusions ont déclenché une tempête de controverse réglementaire et d'indignation publique, qualifiant l'intégration de l'IA par X de « machine à l'échelle industrielle » pour les abus numériques. Alors que des gouvernements au Royaume-Uni, en Asie et aux États-Unis ouvrent des enquêtes, le rapport met en lumière l'échec catastrophique des dispositifs de sécurité après le déploiement des nouvelles fonctionnalités d'édition d'images de Grok.
La recherche du CCDH s'est concentrée sur une fenêtre d'activité spécifique entre le 29 décembre 2025 et le 8 janvier 2026. Cette période coïncidait avec la sortie d'un nouvel outil d'édition d'images « one-click » sur la plateforme X, qui permettait aux utilisateurs de modifier des photographies téléchargées à l'aide de Grok.
Selon le rapport, qui a analysé un échantillon aléatoire de 20 000 images tirées d'un pool total de 4,6 millions générées pendant cette période, le volume d'abus était sans précédent. Les chercheurs ont estimé que les utilisateurs généraient 190 images sexualisées par minute.
Chiffres clés du rapport :
Imran Ahmed, le CEO du CCDH, a adressé une critique cinglante à la négligence de la plateforme. « Ce que nous avons trouvé était clair et inquiétant, » a déclaré Ahmed. « Pendant cette période, Grok est devenu une machine à l'échelle industrielle pour la production de matériel d'abus sexuels. Déshabiller une femme sans son consentement est un abus sexuel, et pendant toute cette période, Elon faisait la promotion du produit même quand il était clair pour le monde entier qu'il était utilisé de cette manière. »
La hausse de contenu explicite est directement liée à la fonctionnalité « Edit Image » introduite fin décembre 2025. Contrairement aux invites standard texte-vers-image, cette fonctionnalité permettait aux utilisateurs de télécharger des photos existantes de personnes réelles — allant de célébrités à des utilisateurs ordinaires — et d'utiliser Grok pour les « déshabiller » numériquement ou les placer dans des scénarios compromettants.
Le rapport détaille comment la fonctionnalité a été instrumentalisée pour cibler des personnalités de premier plan. Les personnes publiques identifiées dans l'imagerie sexualisée incluaient les musiciennes Taylor Swift, Billie Eilish et Ariana Grande, ainsi que des figures politiques telles que l'ancienne vice-présidente américaine Kamala Harris et la vice-première ministre suédoise Ebba Busch.
Le problème a été aggravé par la promotion de l'outil par Elon Musk lui‑même. Le rapport note que l'utilisation de l'outil a explosé après que Musk ait publié une image générée par Grok le montrant en bikini, suscitant un énorme intérêt des utilisateurs pour les capacités du bot. Les utilisateurs ont ensuite inondé la plateforme de requêtes pour altérer des photos, beaucoup d'entre elles étant publiquement postées sur les fils de X.
Les répercussions du rapport ont été immédiates et mondiales. Au Royaume‑Uni, le Premier ministre Keir Starmer a condamné la situation comme « dégoûtante » et « honteuse », poussant le régulateur des médias Ofcom à ouvrir une enquête urgente sur la conformité de X avec l'Online Safety Act.
Réactions internationales :
En réponse à la première vague de réactions, qui a commencé début janvier, X a mis en place une série de restrictions. Le 9 janvier 2026, la plateforme a limité la fonctionnalité de génération d'images aux abonnés Premium payants. Bien que cela ait réduit le volume total de contenu gratuit, les critiques soutiennent que cela a simplement déplacé les abus derrière un paywall plutôt que de résoudre la faille de sécurité sous-jacente.
D'autres restrictions techniques auraient été ajoutées le 14 janvier, empêchant les utilisateurs de demander explicitement de « déshabiller » des sujets. Cependant, le rapport du CCDH suggère que ces mesures sont intervenues trop tard. Au moment où les restrictions ont été mises en place, des millions d'images avaient déjà été générées et diffusées.
« X a monétisé la restriction plutôt que de supprimer la capacité, » a noté une analyse distincte citée dans la couverture. « En limitant l'outil aux utilisateurs payants, ils ont effectivement tiré profit de la demande pour des deepfakes non consensuels. »
La méthodologie du CCDH reposait sur une technique d'échantillonnage robuste pour estimer l'ampleur totale des abus. Les chercheurs ont analysé un jeu de données de 20 000 images tirées des 4,6 millions d'images générées par Grok pendant la fenêtre de 11 jours.
Pour classer le contenu, l'équipe a utilisé un processus assisté par IA avec un score de précision F1 de 95 % pour identifier les images photoréalistes sexualisées. L'étude a défini les « images sexualisées » comme celles représentant des personnes dans des positions sexuelles, en sous‑vêtements, en maillot de bain ou avec des fluides sexuels visibles.
La table suivante résume les principaux points de données publiés dans le rapport du CCDH concernant l'activité de Grok entre le 29 déc. 2025 et le 8 janv. 2026.
| Indicateur | Estimated Count | Description |
|---|---|---|
| Total Images Generated | 4.6 Million | Total output from Grok's image feature during the 11-day window. |
| Sexualized Images | 3.0 Million | Proportion of images containing sexualized content (approx. 65%). |
| CSAM Instances | ~23,000 | Images appearing to depict minors in sexualized contexts. |
| Generation Rate | 190 per Minute | Average speed of sexualized image creation globally. |
| CSAM Rate | Every 41 Seconds | Frequency at which an image of a child was generated. |
La révélation qu'un outil d'IA grand public intégré à l'une des plus grandes plateformes sociales au monde a généré 3 millions d'images sexualisées en moins de deux semaines marque un tournant pour la sécurité de l'IA. Cela souligne les risques graves liés à la mise en circulation de modèles génératifs (generative models) puissants sans tests adversariaux adéquats ni garde‑fous de sécurité.
Alors que Creati.ai continue de surveiller l'intersection de l'innovation en IA et de l'éthique, cet incident sert de rappel brutal : lorsque la sécurité est secondaire par rapport à la rapidité et à l'engagement, le coût humain — mesuré en dignité et en sécurité de millions de femmes et d'enfants — est incommensurable.