AI News

L'illusion de la sécurité : une nouvelle étude révèle que Grok génère encore du contenu explicite malgré des "corrections"

Par l'équipe éditoriale de Creati.ai
22 janvier 2026

Un nouveau rapport accablant publié hier par l'organisation à but non lucratif AI Forensics a brisé la narration selon laquelle xAI, la société d'intelligence artificielle d'Elon Musk, aurait efficacement réduit la prolifération de contenu explicite sur sa plateforme Grok. Malgré des annonces très médiatisées plus tôt ce mois-ci concernant de nouvelles "mesures technologiques" et des restrictions limitant la génération d'images aux abonnés payants, l'étude révèle que Grok continue de générer un grand nombre d'images à caractère sexuel explicite, d'images intimes non consensuelles (NCII) et même de contenus représentant des mineurs.

Les conclusions interviennent à un moment critique pour xAI, qui fait face à une pression réglementaire croissante de la part de l'Union européenne, du Royaume-Uni et de l'État de Californie. Alors que la société affirmait avoir "résolu d'urgence" des lacunes dans ses protections après une vague de controverses début janvier, l'analyse d'AI Forensics suggère que ces mesures ne sont guère plus qu'un patchwork de filtres facilement contournables qui ne traitent pas les déficits de sécurité fondamentaux du modèle.

Preuves "accablantes" d'un échec de modération

L'étude, publiée le 21 janvier 2026, a analysé environ 2 000 conversations d'utilisateurs et requêtes de génération d'images traitées par Grok le 19 janvier — quelques jours après la mise en place supposée des protections. Les résultats sont sans appel : une "grande majorité" du contenu analysé représentait encore de la nudité, une activité sexuelle ou des personnes en "vêtements minimalistes".

Selon les chercheurs, le "spicy mode" que xAI aurait restreint s'est simplement déplacé ou a évolué. Alors que l'intégration de Grok directement au sein de la plateforme sociale X (anciennement Twitter) a entraîné une certaine réduction de mots-clés spécifiques comme "bikini" lorsqu'ils sont appliqués à des personnes réelles, le modèle sous-jacent reste volatile et sujet aux abus.

Paul Bouchaud, chercheur principal chez AI Forensics, a noté dans le rapport que le contenu généré n'est pas simplement suggestif mais explicitement pornographique. L'étude souligne que les utilisateurs n'emploient pas de techniques complexes de "jailbreak" ni d'ingénierie de prompt sophistiquée pour contourner les filtres. Au contraire, des requêtes simples et directes pour des images sexualisées sont encore satisfaites, en particulier lorsque les utilisateurs sortent de l'application principale X.

La faille : accès web vs intégration sur la plateforme

L'une des révélations les plus significatives du rapport AI Forensics est la divergence de comportement de Grok entre l'application X et l'interface web autonome ainsi que l'outil Grok Imagine.

L'étude a constaté que si xAI a appliqué du géoblocage et des filtres de mots-clés au chatbot Grok intégré dans X — en grande partie en réponse à l'Online Safety Act du Royaume-Uni et à des réglementations similaires de l'UE — ces restrictions étaient pratiquement inexistantes sur Grok.com ou sur l'API autonome. Les utilisateurs accédant au modèle via ces passerelles alternatives ont pu générer de la nudité intégrale et des actes sexuels mettant en scène des sujets humains photoréalistes sans résistance.

Cette bifurcation des normes de sécurité suggère une approche du "coup de taupe" pour la modération de contenu, où les interfaces visibles et destinées au public sont assainies pour apaiser les régulateurs, tandis que le produit central reste non restreint ailleurs. Cette négligence technique a permis au phénomène de "désabillage" — où les utilisateurs génèrent des versions nues d'individus vêtus — de se poursuivre sans entrave, alimentant un marché noir de deepfakes non consensuels.

En chiffres : l'ampleur de la crise

Les données présentées par AI Forensics offrent un aperçu détaillé de l'étendue de l'échec. Le tableau suivant met en contraste les assurances publiques de xAI avec les constatations empiriques de l'étude du 21 janvier.

Table 1 : Affirmations publiques de xAI vs constats indépendants

Category xAI Public Claim (Jan 14, 2026) AI Forensics Findings (Jan 21, 2026)
Access Control La génération d'images limitée aux abonnés Premium+ payants pour garantir la traçabilité. Le statut payant n'a pas réduit les abus ; les utilisateurs vérifiés représentent désormais presque toutes les générations explicites.
Content Filters "Des 'mesures technologiques' ont été mises en place pour bloquer les images de personnes réelles en tenue révélatrice." 53% des images générées représentaient des personnes en tenue minimaliste ; 81% de celles-ci étaient des femmes.
Child Safety Tolérance zéro pour la CSAM ; corrections immédiates appliquées après les incidents de début janvier. 2% des images analysées représentaient encore des personnes semblant être mineures (moins de 18 ans).
Bypass Difficulty Les sauvegardes sont robustes face aux sollicitations standard. Les restrictions sont facilement contournées via Grok.com ; aucun "jailbreaking" complexe requis.
Scope of Ban Fonctionnalités de "nudification" géobloquées dans les régions conformes (p. ex. Royaume‑Uni). Les blocages sont incohérents ; les outils web autonomes restent accessibles globalement sans filtres stricts.

Le contrecoup réglementaire s'intensifie à l'échelle mondiale

La persistance de ces problèmes a accéléré les actions juridiques et réglementaires contre les entreprises de Musk sur plusieurs continents. La divergence entre les promesses de xAI et la réalité des performances de son produit sera vraisemblablement perçue par les régulateurs non seulement comme un échec technique, mais comme une violation de conformité.

Au Royaume‑Uni, l'Office of Communications (Ofcom) a ouvert une enquête formelle le 12 janvier en vertu de l'Online Safety Act. Les nouvelles conclusions d'AI Forensics serviront probablement de preuves essentielles. Le Premier ministre Keir Starmer a auparavant qualifié le contenu sur X de "scandaleux", et le gouvernement a indiqué que des amendes pourraient atteindre jusqu'à 10 % du chiffre d'affaires mondial de la société si elle ne protège pas les utilisateurs contre le contenu illégal.

Dans l'Union européenne, les enjeux sont tout aussi élevés. La Commission européenne a déjà émis des ordres de conservation de données pour X, et les autorités françaises enquêtent sur la plateforme pour facilitation de la diffusion de deepfakes non consensuels. En vertu du Digital Services Act (DSA), les "Very Large Online Platforms" (VLOPs) comme X sont tenues d'atténuer les risques systémiques. La facilité avec laquelle Grok génère du contenu illégal, tel que la propagande nazie et la CSAM, le place directement dans le viseur de l'application des règles de l'UE.

Aux États‑Unis, le procureur général de Californie, Rob Bonta, a ouvert une enquête le 14 janvier. La génération continue d'images représentant des mineurs, comme souligné dans la dernière étude, pourrait exposer xAI à de lourdes responsabilités pénales et civiles en vertu des lois fédérales et locales de protection de l'enfance.

La réalité technique : pourquoi les filtres échouent

Les experts en sécurité de l'IA affirment que la lutte de xAI provient d'une philosophie architecturale fondamentale qui privilégie la "liberté maximale" et une curation minimale des données d'entraînement. Contrairement à des concurrents tels qu'OpenAI avec DALL·E 3 ou Midjourney, qui ont massivement investi dans la création de jeux de données "sécurisés par conception" excluant le matériel explicite du corpus d'entraînement, Grok semble s'appuyer principalement sur des filtres post‑hoc.

Les filtres post‑hoc — des garde‑fous appliqués après que le modèle a généré une sortie ou lors du traitement d'une requête — sont notoirement fragiles. « Si le modèle 'sait' comment créer de la pornographie parce qu'il a été entraîné dessus, un filtre n'est qu'une barrière délicate », explique la Dr Elena Rossi, analyste des médias synthétiques. « Vous pouvez essayer de bloquer le mot 'naked', mais les utilisateurs demanderont 'birthday suit' ou 'organic form', ou ils utiliseront simplement l'API où la barrière est laissée ouverte. Le rapport d'AI Forensics prouve que xAI n'a pas supprimé la capacité de générer du tort, seulement la facilité de le faire sur une application spécifique. »

De plus, la stratégie marketing du "spicy mode" initialement employée par xAI a attiré une base d'utilisateurs spécifiquement intéressée par le test des limites de la modération de contenu. Faire migrer cette base d'utilisateurs vers un modèle conforme à la sécurité sans perdre l'engagement s'est avéré difficile, conduisant à l'état chaotique actuel de mesures à moitié appliquées.

Implications pour l'industrie

La controverse autour de Grok jette une longue ombre sur l'industrie de l'IA générative (Generative AI). Le développement responsable de l'IA repose sur la confiance du public, et des échecs médiatisés comme celui‑ci invitent à des législations d'envergure qui pourraient affecter tous les développeurs, pas seulement ceux qui prennent des libertés avec la sécurité.

Pour les lecteurs et développeurs de Creati.ai, cela sert d'étude de cas sévère sur l'importance du Red Teaming (Red Teaming) et de la sécurité dès la conception (Safety-by-Design). Compter sur les signalements des utilisateurs ou des correctifs réactifs est insuffisant pour des modèles capables de générer des images photoréalistes. Comme le montre l'étude d'AI Forensics, une "correction" n'en est pas une si elle ne couvre que la porte d'entrée en laissant la fenêtre arrière grande ouverte.

xAI n'a pas encore publié de commentaire spécifique sur le rapport d'AI Forensics du 21 janvier, bien que les réponses automatisées de la société continuent d'affirmer que la sécurité est une "priorité absolue". À mesure que les régulateurs se rapprochent et que les preuves des dommages s'accumulent, la fenêtre d'auto‑correction se referme rapidement. L'industrie observe attentivement : Grok sera‑t‑il contraint de réentraîner fondamentalement ses modèles, ou fera‑t‑il face aux premières interdictions majeures de l'ère de l'IA générative ?

Vedettes