
Dans une divulgation historique qui souligne la nature à double tranchant de l'intelligence artificielle, le Threat Intelligence Group de Google (GTIG) a publié un rapport complet détaillant comment des acteurs parrainés par l'État en provenance de Chine, d'Iran, de Corée du Nord et de Russie exploitent systématiquement l'IA Gemini. Le rapport, publié cette semaine, fournit les preuves les plus précises à ce jour que l'IA générative (Generative AI) n'est plus seulement un risque théorique en cybersécurité, mais un outil opérationnel actif à chaque étape du cycle de vie de l'attaque.
De l'affinage des leurres de hameçonnage (phishing) à la génération de codes de logiciels malveillants polymorphes, les adversaires exploitent les capacités des grands modèles de langage (Large Language Models - LLMs) pour accélérer leurs campagnes. Plus inquiétant encore, Google a mis en évidence une nouvelle classe sophistiquée de menace : les « attaques par distillation », où les cybercriminels tentent de voler la propriété intellectuelle des modèles d'IA eux-mêmes afin de construire des versions privées et non censurées de la technologie.
Alors que le paysage de l'IA se fracture entre innovation ouverte et contrôle sécurisé, ces révélations surviennent à un moment charnière. Tandis que Google lutte contre l'utilisation non autorisée par des États parias, le Département de la Défense des États-Unis se retrouve dans une impasse publique avec le leader de l'IA Anthropic concernant les contraintes de sécurité, brossant un tableau complexe de l'avenir de l'IA militarisée.
L'une des conclusions les plus significatives sur le plan technique du rapport de Google est la prévalence de l'extraction de modèle, ou attaques par « distillation ». Contrairement au vol de données traditionnel, qui cible les informations ou les identifiants des utilisateurs, les attaques par distillation visent l'architecture cognitive du modèle d'IA.
Google a déclaré avoir neutralisé une campagne massive impliquant plus de 100 000 invites (prompts) générées, conçues pour sonder la logique, le raisonnement et les capacités linguistiques de Gemini. L'objectif des attaquants n'était pas d'interrompre le service mais de le répliquer. En interrogeant systématiquement le modèle et en enregistrant ses sorties, les adversaires peuvent créer un ensemble de données pour entraîner des modèles « étudiants » plus petits qui imitent les performances de Gemini.
Pourquoi la distillation est importante :
Le rapport détaille un « barrage incessant » d'activités, attribuant des tactiques spécifiques améliorées par l'IA à des groupes de menaces persistantes avancées (Advanced Persistent Threat - APT) bien connus. La diversité de ces attaques illustre le fait que l'IA est adoptée non seulement par des unités de piratage d'élite, mais à travers tout le spectre de l'espionnage cybernétique.
Le tableau suivant résume les principaux acteurs identifiés par Google et leur utilisation abusive spécifique de Gemini :
| Nom du groupe | Origine | Objectif principal | Tactique d'IA utilisée |
|---|---|---|---|
| UNC2970 | Corée du Nord | Espionnage du secteur de la défense | Synthèse OSINT, profilage des cibles pour « Operation Dream Job » |
| APT42 | Iran | Hameçonnage et vol d'identifiants | Traduction, développement de personas, rédaction d'e-mails persuasifs |
| UNC4841/UNC3886 | Chine | Exploitation technique | Recherche de vulnérabilités, génération de code, optimisation de scripts |
| APT44 (Sandworm) | Russie | Sabotage d'infrastructures critiques | Surmonter les limitations techniques lors d'opérations en temps de guerre |
| Groupes à motivation financière | Mondial | Profit/Ransomware | Développement du malware « Honestcue », kits de hameçonnage pilotés par l'IA |
Le groupe nord-coréen UNC2970, lié au tristement célèbre Lazarus Group, a intégré Gemini dans sa campagne de longue date « Operation Dream Job ». Cette campagne cible les employés des secteurs de la défense et de l'aérospatiale avec de fausses offres d'emploi pour infiltrer des réseaux sécurisés. L'analyse de Google révèle que UNC2970 utilise Gemini pour extraire et synthétiser du renseignement d'origine source ouverte (Open Source Intelligence - OSINT) à partir de LinkedIn et d'autres plateformes. En injectant des profils dans l'IA, le groupe génère des documents de recrutement hautement personnalisés et crédibles qui contournent le scepticisme des cibles soucieuses de leur sécurité. L'IA leur permet de cartographier les rôles techniques et les structures salariales avec une rapidité sans précédent.
Pour les acteurs iraniens tels que APT42, la barrière à l'entrée pour une ingénierie sociale efficace a historiquement été la langue et les nuances culturelles. Gemini a effectivement abaissé cette barrière. Le groupe utilise le modèle pour rédiger des e-mails de hameçonnage parfaitement corrects sur le plan grammatical et culturellement adaptés à leurs cibles en Israël et aux États-Unis. De plus, APT42 utilise l'IA pour des activités post-compromission, comme l'analyse de données volées pour identifier rapidement des adresses e-mail et des identifiants de haute valeur, accélérant le temps de propagation (breakout time) après une brèche initiale.
Les groupes parrainés par l'État chinois ont montré une préférence pour l'intégration technique. Plutôt que d'utiliser l'IA uniquement pour du texte, ils emploient Gemini pour l'analyse de code. Le rapport souligne comment des groupes comme UNC4841 utilisent le modèle pour suggérer des optimisations de scripts ou identifier des bugs dans des exploits potentiels. Cela suggère un passage vers le « piratage assisté par l'IA », où les opérateurs humains utilisent les LLM comme un multiplicateur de force pour identifier des vulnérabilités zero-day ou écrire du code polymorphe qui échappe aux signatures antivirus.
Au-delà de l'espionnage d'État, le rapport met en lumière l'adoption de l'IA par le secteur de la cybercriminalité commerciale. Une découverte marquante est « Honestcue », un framework de logiciel malveillant explicitement conçu pour exploiter l'API Gemini.
Honestcue fonctionne comme un téléchargeur et un lanceur qui envoie des invites en langage naturel à l'API Gemini et reçoit en réponse du code source C# malveillant. Parce que le code est généré dynamiquement et exécuté en mémoire, il crée une empreinte d'attaque « sans fichier » (fileless) qui est incroyablement difficile à signaler pour les systèmes de détection de points de terminaison traditionnels. Cela représente une évolution significative : le malware n'est plus un fichier statique mais un ensemble dynamique d'instructions générées à la volée par une IA basée sur le cloud.
De même, Google a identifié des campagnes « ClickFix » — des attaques d'ingénierie sociale qui utilisent l'IA pour générer des instructions de support technique convaincantes. Ces instructions incitent les utilisateurs à copier et coller des scripts malveillants dans leurs propres terminaux, exploitant la confiance de la victime dans les guides de dépannage.
Alors que Google se bat pour garder les criminels hors de son écosystème d'IA, une autre bataille se prépare à Washington concernant qui est autorisé à y entrer. Comme l'ont confirmé des rapports d'Axios et du Wall Street Journal cette semaine, le Département de la Défense des États-Unis (DoD) est en conflit avec le fournisseur d'IA Anthropic au sujet des politiques d'utilisation strictes de ce dernier.
Le secrétaire à la Défense Pete Hegseth a menacé de qualifier Anthropic de « risque pour la chaîne d'approvisionnement » et de rompre les liens avec l'entreprise. Le cœur du litige réside dans l'approche d'« IA constitutionnelle » d'Anthropic, qui inclut des refus d'aider au développement d'armes ou à des opérations létales. Alors que ces garde-fous sont conçus pour prévenir exactement le type d'abus que Google observe de la part de l'Iran et de la Corée du Nord, le Pentagone les considère comme un handicap.
« Nos combattants doivent avoir accès aux modèles qui offrent une supériorité décisionnelle sur le champ de bataille », a déclaré un responsable du DoD, critiquant les modèles qui « ne vous permettront pas de faire la guerre ». Cette tension a été exacerbée par la révélation que le modèle Claude d'Anthropic aurait été utilisé via Palantir lors du raid de janvier qui a capturé le président vénézuélien Nicolás Maduro. L'incident met en lumière le « dilemme de l'usage duel » : les garde-fous mêmes destinés à empêcher l'IA de devenir un outil de terreur sont désormais présentés comme des obstacles à la sécurité nationale.
La convergence de ces deux histoires — le rapport de Google sur les abus criminels et la querelle du Pentagone avec Anthropic — brosse un tableau saisissant du paysage de la sécurité de l'IA en 2026.
Pour les professionnels de la cybersécurité, le rapport de Google confirme que la « barrière à l'entrée » pour des attaques sophistiquées s'est effondrée. Des « script kiddies » peuvent désormais générer des malwares complexes, et des locuteurs non natifs peuvent concevoir des leurres de hameçonnage parfaits. Les attaques par « distillation » servent d'avertissement à tous les adoptants d'IA en entreprise : votre modèle est votre propriété intellectuelle, et il est activement assiégé.
Pour les décideurs politiques, la contradiction est flagrante. On demande simultanément à l'industrie de verrouiller les modèles pour empêcher les abus parrainés par des États (le défi de Google) et d'ouvrir les modèles pour permettre des opérations militaires sanctionnées par l'État (le défi d'Anthropic). Alors que des acteurs de menaces comme UNC2970 et APT42 continuent d'innover, la capacité de l'Occident à équilibrer innovation, sécurité et capacités de défense définira la prochaine ère de la cyber-guerre.
La réponse de Google a été de renforcer son « écosystème robuste » de défenses, en neutralisant les comptes et l'infrastructure associés à ces acteurs. Cependant, comme le démontre le malware « Honestcue », tant que les API sont ouvertes aux affaires, elles restent ouvertes à l'exploitation.