
Se ha descubierto un importante descuido de seguridad en Microsoft 365 Copilot, revelando que el asistente de IA ha estado resumiendo correos electrónicos confidenciales desde finales de enero de 2026. Este fallo, que eludió las políticas de Prevención de Pérdida de Datos (Data Loss Prevention, DLP) establecidas y las etiquetas de sensibilidad, permitió que la IA accediera y procesara información restringida almacenada en las carpetas de "Elementos enviados" y "Borradores" de los usuarios.
Para las empresas que confían en el ecosistema de Microsoft para mantener una gobernanza de datos estricta, este incidente resalta las crecientes complejidades de integrar la IA generativa (Generative AI) en entornos corporativos seguros. Microsoft ha reconocido el problema, atribuido a un error de código, y ha comenzado a implementar una corrección, aunque el alcance total del impacto sigue bajo investigación.
La vulnerabilidad, rastreada bajo el ID de aviso CW1226324, afecta específicamente a la función de chat de la "pestaña de trabajo" de Copilot. En condiciones normales de funcionamiento, Microsoft 365 Copilot está diseñado para respetar los límites de cumplimiento organizacional, lo que significa que no debería recuperar ni resumir contenido marcado como confidencial o restringido por las políticas de DLP.
Sin embargo, un "error de código no especificado" neutralizó efectivamente estas salvaguardas para categorías específicas de correo electrónico. Cuando un usuario interactuaba con Copilot, la IA podía extraer datos de correos electrónicos que habían sido etiquetados explícitamente como sensibles, siempre que esos correos electrónicos estuvieran ubicados en las carpetas de elementos enviados o borradores del usuario.
La siguiente tabla resume la discrepancia entre los protocolos de seguridad previstos y el comportamiento exhibido durante este incidente:
Tabla: Análisis de fallos del protocolo de seguridad
| Característica | Comportamiento de seguridad previsto | Comportamiento durante el fallo |
|---|---|---|
| Etiquetas de sensibilidad | La IA bloquea el acceso a documentos/correos marcados como "Confidencial" o "Solo interno". |
La IA accedió y resumió correos electrónicos etiquetados en las carpetas de Enviados/Borradores. |
| Políticas de DLP | Evita la extracción de datos de fuentes protegidas hacia herramientas no autorizadas. |
Las políticas fueron eludidas, permitiendo que los datos fluyeran hacia la ventana de contexto de Copilot. |
| Alcance de la carpeta | Escaneo limitado a elementos de la bandeja de entrada autorizados por el usuario y directorios seguros. |
Amplió erróneamente el escaneo activo para incluir Elementos enviados y Borradores. |
Este fallo es particularmente preocupante porque los "Elementos enviados" y "Borradores" a menudo contienen las versiones más sensibles de las comunicaciones internas (documentos estratégicos sin pulir, discusiones financieras internas o asuntos de personal) que aún no están listos para una distribución más amplia o que han sido archivados para el mantenimiento de registros.
El problema se detectó por primera vez el 21 de enero de 2026; sin embargo, persistió durante varias semanas antes de que se promulgara un plan de remediación integral. Microsoft confirmó públicamente el error a mediados de febrero, afirmando que el error permitió a la IA ignorar las etiquetas de sensibilidad en las que confían los administradores de TI para asegurar sus perímetros digitales.
Según los informes, el despliegue de la corrección comenzó a principios de febrero. Microsoft se está comunicando actualmente con un subconjunto de usuarios afectados para verificar la eficacia del parche, pero no han proporcionado un cronograma definitivo sobre cuándo se resolverá por completo el problema a nivel mundial. El incidente está marcado actualmente como un aviso, una clasificación que a menudo se reserva para problemas con un alcance limitado, aunque el potencial de fuga de datos en industrias de alto cumplimiento sugiere que el impacto podría ser cualitativo en lugar de meramente cuantitativo.
Este incidente sirve como un recordatorio contundente de la naturaleza de "caja negra" de la integración de la IA en las infraestructuras de TI heredadas. Mientras que las organizaciones se apresuran a adoptar herramientas como Microsoft 365 Copilot para aumentar la productividad, la arquitectura de seguridad que rige estas herramientas debe evolucionar para manejar comportamientos no deterministas.
Principales preocupaciones de seguridad:
A la luz de este aviso, Creati.ai recomienda que los administradores de TI y los centros de operaciones de seguridad (SOC) tomen medidas proactivas inmediatas. Si bien Microsoft está implementando una corrección, confiar únicamente en los parches del proveedor es insuficiente para entornos de alta seguridad.
A medida que la industria avanza, la expectativa es que los proveedores como Microsoft implementen mecanismos más rigurosos de "cierre por fallo" (fail-closed), donde una IA niegue el acceso de forma predeterminada si no se puede verificar una política de seguridad, en lugar de errores de "apertura por fallo" (fail-open) que exponen datos sensibles. Es probable que este error impulse un nuevo estándar de validación para los permisos de IA dentro de las suites empresariales.