
Une faille de sécurité importante dans Microsoft 365 Copilot a été découverte, révélant que l'assistant IA résume des e-mails confidentiels depuis fin janvier 2026. Ce dysfonctionnement, qui a contourné les politiques de prévention contre la perte de données (Data Loss Prevention - DLP) établies et les étiquettes de confidentialité, a permis à l'IA d'accéder à et de traiter des informations restreintes stockées dans les dossiers « Éléments envoyés » et « Brouillons » des utilisateurs.
Pour les entreprises comptant sur l'écosystème de Microsoft pour maintenir une gouvernance stricte des données, cet incident souligne les complexités croissantes de l'intégration de l'IA générative (Generative AI) dans des environnements d'entreprise sécurisés. Microsoft a reconnu le problème, attribué à une erreur de code, et a commencé à déployer un correctif, bien que l'ampleur totale de l'impact soit toujours en cours d'investigation.
La vulnérabilité, suivie sous l'identifiant d'avis CW1226324, affecte spécifiquement la fonctionnalité de chat de l'« onglet travail » de Copilot. En fonctionnement normal, Microsoft 365 Copilot est conçu pour respecter les limites de conformité organisationnelle, ce qui signifie qu'il ne devrait pas récupérer ou résumer du contenu marqué comme confidentiel ou restreint par les politiques DLP.
Cependant, une « erreur de code non spécifiée » a neutralisé efficacement ces protections pour des catégories d'e-mails spécifiques. Lorsqu'un utilisateur interagissait avec Copilot, l'IA était capable d'extraire des données d'e-mails qui avaient été explicitement étiquetés comme sensibles, à condition que ces e-mails se trouvent dans les dossiers d'envoi ou de brouillons de l'utilisateur.
Le tableau suivant présente l'écart entre les protocoles de sécurité prévus et le comportement observé lors de cet incident :
Tableau : Analyse des défaillances du protocole de sécurité
| Fonctionnalité | Comportement de sécurité prévu | Comportement pendant le dysfonctionnement |
|---|---|---|
| Étiquettes de confidentialité | L'IA bloque l'accès aux documents/e-mails marqués « Confidentiel » ou « Interne uniquement ». |
L'IA a accédé aux e-mails étiquetés et les a résumés dans les dossiers Éléments envoyés/Brouillons. |
| Politiques DLP | Empêche l'extraction de données à partir de sources protégées vers des outils non autorisés. |
Les politiques ont été contournées, permettant aux données de circuler dans la fenêtre de contexte de Copilot. |
| Portée des dossiers | Analyse limitée aux éléments de la boîte de réception autorisés par l'utilisateur et aux répertoires sûrs. |
Extension erronée de l'analyse active pour inclure les Éléments envoyés et les Brouillons. |
Cette défaillance est particulièrement préoccupante car les « Éléments envoyés » et les « Brouillons » contiennent souvent les versions les plus sensibles des communications internes — documents stratégiques non finalisés, discussions financières internes ou questions de personnel — qui ne sont pas encore prêtes pour une diffusion plus large ou qui ont été archivées pour la tenue de registres.
Le problème a été détecté pour la première fois le 21 janvier 2026, mais il a persisté pendant plusieurs semaines avant qu'un plan de remédiation complet ne soit mis en œuvre. Microsoft a publiquement confirmé le bogue à la mi-février, déclarant que l'erreur permettait à l'IA d'ignorer les étiquettes de confidentialité sur lesquelles les administrateurs informatiques comptent pour sécuriser leurs périmètres numériques.
Selon les rapports, le déploiement du correctif a commencé début février. Microsoft contacte actuellement un sous-ensemble d'utilisateurs concernés pour vérifier l'efficacité du correctif, mais n'a pas fourni de calendrier définitif pour la résolution complète du problème à l'échelle mondiale. L'incident est actuellement signalé comme un avis, une classification souvent réservée aux problèmes de portée limitée, bien que le potentiel de fuite de données dans les industries à forte conformité suggère que l'impact pourrait être qualitatif plutôt que purement quantitatif.
Cet incident rappelle brutalement la nature de « boîte noire » de l'intégration de l'IA dans les infrastructures informatiques existantes. Alors que les organisations s'empressent d'adopter des outils comme Microsoft 365 Copilot pour augmenter la productivité, l'architecture de sécurité régissant ces outils doit évoluer pour gérer les comportements non déterministes.
Principales préoccupations en matière de sécurité :
À la lumière de cet avis, Creati.ai recommande aux administrateurs informatiques et aux centres d'opérations de sécurité (SOC) de prendre immédiatement des mesures proactives. Bien que Microsoft déploie un correctif, compter uniquement sur les correctifs du fournisseur est insuffisant pour les environnements de haute sécurité.
À mesure que l'industrie progresse, on s'attend à ce que des fournisseurs comme Microsoft mettent en œuvre des mécanismes de « fermeture par défaut » (fail-closed) plus rigoureux — où une IA refuse par défaut l'accès si une politique de sécurité ne peut pas être vérifiée — plutôt que des erreurs d'« ouverture par défaut » (fail-open) qui exposent des données sensibles. Ce bogue est susceptible d'entraîner une nouvelle norme de validation des permissions d'IA au sein des suites d'entreprise.