AI News

Une vulnérabilité critique dans Microsoft 365 Copilot expose des données confidentielles à la synthèse par IA (AI Summarization)

Une faille de sécurité importante dans Microsoft 365 Copilot a été découverte, révélant que l'assistant IA résume des e-mails confidentiels depuis fin janvier 2026. Ce dysfonctionnement, qui a contourné les politiques de prévention contre la perte de données (Data Loss Prevention - DLP) établies et les étiquettes de confidentialité, a permis à l'IA d'accéder à et de traiter des informations restreintes stockées dans les dossiers « Éléments envoyés » et « Brouillons » des utilisateurs.

Pour les entreprises comptant sur l'écosystème de Microsoft pour maintenir une gouvernance stricte des données, cet incident souligne les complexités croissantes de l'intégration de l'IA générative (Generative AI) dans des environnements d'entreprise sécurisés. Microsoft a reconnu le problème, attribué à une erreur de code, et a commencé à déployer un correctif, bien que l'ampleur totale de l'impact soit toujours en cours d'investigation.

Les mécanismes de la brèche

La vulnérabilité, suivie sous l'identifiant d'avis CW1226324, affecte spécifiquement la fonctionnalité de chat de l'« onglet travail » de Copilot. En fonctionnement normal, Microsoft 365 Copilot est conçu pour respecter les limites de conformité organisationnelle, ce qui signifie qu'il ne devrait pas récupérer ou résumer du contenu marqué comme confidentiel ou restreint par les politiques DLP.

Cependant, une « erreur de code non spécifiée » a neutralisé efficacement ces protections pour des catégories d'e-mails spécifiques. Lorsqu'un utilisateur interagissait avec Copilot, l'IA était capable d'extraire des données d'e-mails qui avaient été explicitement étiquetés comme sensibles, à condition que ces e-mails se trouvent dans les dossiers d'envoi ou de brouillons de l'utilisateur.

Le tableau suivant présente l'écart entre les protocoles de sécurité prévus et le comportement observé lors de cet incident :

Tableau : Analyse des défaillances du protocole de sécurité

Fonctionnalité Comportement de sécurité prévu Comportement pendant le dysfonctionnement
Étiquettes de confidentialité L'IA bloque l'accès aux documents/e-mails
marqués « Confidentiel » ou « Interne uniquement ».
L'IA a accédé aux e-mails étiquetés et les a résumés
dans les dossiers Éléments envoyés/Brouillons.
Politiques DLP Empêche l'extraction de données à partir de
sources protégées vers des outils non autorisés.
Les politiques ont été contournées, permettant aux
données de circuler dans la fenêtre de contexte de Copilot.
Portée des dossiers Analyse limitée aux éléments de la boîte de réception
autorisés par l'utilisateur et aux répertoires sûrs.
Extension erronée de l'analyse active
pour inclure les Éléments envoyés et les Brouillons.

Cette défaillance est particulièrement préoccupante car les « Éléments envoyés » et les « Brouillons » contiennent souvent les versions les plus sensibles des communications internes — documents stratégiques non finalisés, discussions financières internes ou questions de personnel — qui ne sont pas encore prêtes pour une diffusion plus large ou qui ont été archivées pour la tenue de registres.

Chronologie de la détection et de la réponse

Le problème a été détecté pour la première fois le 21 janvier 2026, mais il a persisté pendant plusieurs semaines avant qu'un plan de remédiation complet ne soit mis en œuvre. Microsoft a publiquement confirmé le bogue à la mi-février, déclarant que l'erreur permettait à l'IA d'ignorer les étiquettes de confidentialité sur lesquelles les administrateurs informatiques comptent pour sécuriser leurs périmètres numériques.

Selon les rapports, le déploiement du correctif a commencé début février. Microsoft contacte actuellement un sous-ensemble d'utilisateurs concernés pour vérifier l'efficacité du correctif, mais n'a pas fourni de calendrier définitif pour la résolution complète du problème à l'échelle mondiale. L'incident est actuellement signalé comme un avis, une classification souvent réservée aux problèmes de portée limitée, bien que le potentiel de fuite de données dans les industries à forte conformité suggère que l'impact pourrait être qualitatif plutôt que purement quantitatif.

Implications pour l'adoption de l'IA en entreprise

Cet incident rappelle brutalement la nature de « boîte noire » de l'intégration de l'IA dans les infrastructures informatiques existantes. Alors que les organisations s'empressent d'adopter des outils comme Microsoft 365 Copilot pour augmenter la productivité, l'architecture de sécurité régissant ces outils doit évoluer pour gérer les comportements non déterministes.

Principales préoccupations en matière de sécurité :

  • Érosion de la confiance : Lorsque les étiquettes de sécurité sont ignorées par l'infrastructure sous-jacente, la confiance dans les outils de conformité automatisés diminue. Les responsables informatiques peuvent hésiter à déployer d'autres capacités d'IA sans garanties plus solides.
  • Accès fantôme (Shadow Access) : Le bogue illustre le fait que les agents d'IA opèrent souvent avec des permissions ou des voies d'accès différentes de celles des utilisateurs standard ou des outils de recherche traditionnels, créant des points d'« accès fantôme » que les audits traditionnels pourraient manquer.
  • Violations de conformité : Pour des secteurs comme la santé et la finance, même une exposition temporaire de brouillons confidentiels à un synthétiseur d'IA pourrait constituer une violation de données notifiable en vertu de réglementations telles que le RGPD (GDPR) ou l'HIPAA.

Recommandations pour les administrateurs informatiques

À la lumière de cet avis, Creati.ai recommande aux administrateurs informatiques et aux centres d'opérations de sécurité (SOC) de prendre immédiatement des mesures proactives. Bien que Microsoft déploie un correctif, compter uniquement sur les correctifs du fournisseur est insuffisant pour les environnements de haute sécurité.

  • Examiner l'avis CW1226324 : Les administrateurs doivent surveiller en permanence l'état de cet avis spécifique dans le centre d'administration Microsoft 365 pour confirmer quand leur locataire reçoit le correctif.
  • Auditer les interactions de l'IA : Dans la mesure du possible, examinez les journaux d'audit pour les interactions Copilot qui ont eu lieu entre fin janvier et mi-février, en recherchant spécifiquement des requêtes liées à des mots-clés sensibles.
  • Renforcer la formation des employés : Rappelez au personnel que si les outils d'IA sont puissants, ils doivent éviter de saisir ou de référencer des informations hautement classifiées dans les interfaces de chat de l'IA jusqu'à ce que la stabilité de ces outils soit garantie.

À mesure que l'industrie progresse, on s'attend à ce que des fournisseurs comme Microsoft mettent en œuvre des mécanismes de « fermeture par défaut » (fail-closed) plus rigoureux — où une IA refuse par défaut l'accès si une politique de sécurité ne peut pas être vérifiée — plutôt que des erreurs d'« ouverture par défaut » (fail-open) qui exposent des données sensibles. Ce bogue est susceptible d'entraîner une nouvelle norme de validation des permissions d'IA au sein des suites d'entreprise.

Vedettes