
Pour la deuxième fois en huit mois, Microsoft Copilot, l'assistant IA phare de Microsoft, a été surpris en train de contourner les protocoles de sécurité mêmes conçus pour sécuriser son adoption en entreprise. Un bug critique actif tout au long du début de l'année 2026 a permis à l'IA de lire, de résumer et de faire remonter des e-mails explicitement marqués comme « Confidentiels », contournant les politiques de prévention des fuites de données (Data Loss Prevention, DLP) et exposant des données sensibles au sein d'organisations majeures, notamment le Service National de Santé (NHS) du Royaume-Uni.
Ce dernier incident, qui a laissé des dossiers sensibles vulnérables pendant près de quatre semaines, n'est pas un dysfonctionnement isolé. Il fait suite à une grave vulnérabilité découverte en juin 2025, dépeignant l'image préoccupante d'un « angle mort systémique » dans la pile de sécurité de l'IA moderne. Alors que les entreprises se précipitent pour déployer l'Intelligence Artificielle générative(Generative AI), ces échecs répétés soulèvent des questions urgentes : les cadres de sécurité hérités comme le DLP et les étiquettes de sensibilité(sensitivity labels) peuvent-ils réellement contenir les modèles de langage étendus (Large Language Models, LLMs) lors de l'exécution ?
Fin janvier 2026, un défaut au niveau du code dans Microsoft 365 Copilot a effectivement désactivé la « frontière de confiance » sur laquelle les organisations s'appuient pour protéger leurs communications les plus sensibles. Le bug, suivi par Microsoft sous la référence CW1226324, a permis à l'assistant IA d'accéder, de traiter et de résumer les e-mails stockés dans les dossiers « Éléments envoyés » et « Brouillons » des utilisateurs, même lorsque ces e-mails portaient des étiquettes de sensibilité restrictives telles que « Hautement confidentiel » ou étaient couverts par des politiques DLP actives.
En fonctionnement normal, les étiquettes de sensibilité agissent comme des panneaux numériques « entrée interdite » pour l'IA. Si un document est étiqueté « Confidentiel », Copilot est contractuellement et techniquement obligé de l'ignorer lors de son processus de génération augmentée par récupération (Retrieval-Augmented Generation, RAG). Cependant, pendant environ 28 jours — du 21 janvier au 19 février 2026 — ce mécanisme a échoué pour des dossiers Outlook spécifiques.
L'impact a été ressenti de manière aiguë dans les secteurs réglementés. Le NHS, qui gère de vastes quantités de données privées sur les patients, a signalé l'incident en interne sous la référence INC46740412. Pendant près d'un mois, le personnel utilisant Copilot pour des tâches administratives de routine aurait pu, par inadvertance, faire remonter des informations de santé protégées (Protected Health Information, PHI) ou des documents de stratégie interne qui étaient censés être invisibles pour le modèle d'IA.
Bien que Microsoft ait depuis déployé un correctif et déclaré que le bug « n'a permis à personne d'accéder à des informations auxquelles ils n'étaient pas déjà autorisés », cet échec mine la promesse centrale de la gouvernance de l'IA(AI governance) : à savoir que l'IA ne traitera pas les données qu'on lui a dit d'ignorer. Dans un contexte juridique ou de conformité, le simple traitement de données restreintes par un modèle d'IA — résumer un projet juridique privilégié ou un dossier de patient — peut constituer une violation de politique.
L'échec de février 2026 est le deuxième coup dur porté à l'architecture de sécurité de Copilot en moins d'un an. Huit mois plus tôt, en juin 2025, des chercheurs ont dévoilé une vulnérabilité critique baptisée « EchoLeak » (CVE-2025-32711).
Contrairement au bug de février, qui était une défaillance fonctionnelle des étiquettes, EchoLeak était un exploit sophistiqué « zéro clic ». Il permettait à des attaquants d'intégrer des instructions cachées dans des e-mails d'apparence anodine. Lorsque Copilot traitait ces e-mails, les invites cachées « détournaient » la fenêtre de contexte de l'IA, la forçant à récupérer et à exfiltrer des données sensibles vers l'attaquant sans que l'utilisateur ne se rende compte d'une violation.
Ces deux incidents révèlent une réalité dangereuse : les contrôles de sécurité de Microsoft peinent à suivre le rythme de la nature complexe et non déterministe des LLMs.
Comparaison des récents échecs de sécurité de Copilot
| Nom de l'incident | Date d'activité | Cause racine | Mécanisme de défaillance |
|---|---|---|---|
| EchoLeak (CVE-2025-32711) | Juin 2025 | Violation de portée du LLM | L'injection d'invite malveillante a permis aux attaquants de détourner la récupération RAG et d'exfiltrer des données. |
| Contournement du DLP (CW1226324) | Jan - Fév 2026 | Défaut de code fonctionnel | Copilot a ignoré les étiquettes de sensibilité dans des dossiers Outlook spécifiques (Brouillons/Envoyés), résumant des données confidentielles. |
La récurrence de ces problèmes met en évidence un décalage fondamental entre la sécurité des données traditionnelle et le fonctionnement de l'IA générative.
Les outils hérités comme le DLP et les étiquettes de sensibilité sont conçus pour une protection statique ou transactionnelle. Ils posent des questions binaires : L'utilisateur A a-t-il la permission d'ouvrir le fichier B ? Cet e-mail contient-il un numéro de carte de crédit ?
Cependant, les Copilots d'IA fonctionnent de manière dynamique au moment de l'exécution (runtime). Ils utilisent le RAG pour analyser, récupérer et synthétiser des fragments d'informations provenant de milliers de documents en quelques millisecondes.
Les experts en sécurité avertissent de plus en plus que « l'application de permissions » n'est plus suffisante. La couche d'IA elle-même nécessite un pare-feu dédié — un pare-feu qui valide non seulement qui accède aux données, mais aussi ce que l'IA en fait en temps réel.
Pour les DSI (CIOs) et les RSSI (CISOs), les implications de cette chronologie de « deux fois en huit mois » sont graves. L'exposition du NHS sert d'étude de cas puissante sur les risques liés à la dépendance aux contrôles de sécurité natifs du fournisseur pour les environnements à enjeux élevés.
Points clés à retenir pour les dirigeants d'entreprise :
Microsoft a pris des mesures pour corriger ces vulnérabilités, mais la fréquence de ces échecs de haut profil suggère que l'architecture de l'IA d'entreprise cherche encore ses marques. Tant que « l'angle mort » entre les permissions statiques et le traitement dynamique de l'IA ne sera pas comblé, les entreprises resteront à une mise à jour de leur prochaine exposition de données.