AI News

Una vulnerabilidad crítica en Microsoft 365 Copilot expone datos confidenciales al resumen por IA

Se ha descubierto un importante descuido de seguridad en Microsoft 365 Copilot, revelando que el asistente de IA ha estado resumiendo correos electrónicos confidenciales desde finales de enero de 2026. Este fallo, que eludió las políticas de Prevención de Pérdida de Datos (Data Loss Prevention, DLP) establecidas y las etiquetas de sensibilidad, permitió que la IA accediera y procesara información restringida almacenada en las carpetas de "Elementos enviados" y "Borradores" de los usuarios.

Para las empresas que confían en el ecosistema de Microsoft para mantener una gobernanza de datos estricta, este incidente resalta las crecientes complejidades de integrar la IA generativa (Generative AI) en entornos corporativos seguros. Microsoft ha reconocido el problema, atribuido a un error de código, y ha comenzado a implementar una corrección, aunque el alcance total del impacto sigue bajo investigación.

La mecánica de la brecha

La vulnerabilidad, rastreada bajo el ID de aviso CW1226324, afecta específicamente a la función de chat de la "pestaña de trabajo" de Copilot. En condiciones normales de funcionamiento, Microsoft 365 Copilot está diseñado para respetar los límites de cumplimiento organizacional, lo que significa que no debería recuperar ni resumir contenido marcado como confidencial o restringido por las políticas de DLP.

Sin embargo, un "error de código no especificado" neutralizó efectivamente estas salvaguardas para categorías específicas de correo electrónico. Cuando un usuario interactuaba con Copilot, la IA podía extraer datos de correos electrónicos que habían sido etiquetados explícitamente como sensibles, siempre que esos correos electrónicos estuvieran ubicados en las carpetas de elementos enviados o borradores del usuario.

La siguiente tabla resume la discrepancia entre los protocolos de seguridad previstos y el comportamiento exhibido durante este incidente:

Tabla: Análisis de fallos del protocolo de seguridad

Característica Comportamiento de seguridad previsto Comportamiento durante el fallo
Etiquetas de sensibilidad La IA bloquea el acceso a documentos/correos
marcados como "Confidencial" o "Solo interno".
La IA accedió y resumió correos electrónicos
etiquetados en las carpetas de Enviados/Borradores.
Políticas de DLP Evita la extracción de datos de fuentes
protegidas hacia herramientas no autorizadas.
Las políticas fueron eludidas, permitiendo que
los datos fluyeran hacia la ventana de contexto de Copilot.
Alcance de la carpeta Escaneo limitado a elementos de la bandeja de entrada
autorizados por el usuario y directorios seguros.
Amplió erróneamente el escaneo activo para
incluir Elementos enviados y Borradores.

Este fallo es particularmente preocupante porque los "Elementos enviados" y "Borradores" a menudo contienen las versiones más sensibles de las comunicaciones internas (documentos estratégicos sin pulir, discusiones financieras internas o asuntos de personal) que aún no están listos para una distribución más amplia o que han sido archivados para el mantenimiento de registros.

Cronología de detección y respuesta

El problema se detectó por primera vez el 21 de enero de 2026; sin embargo, persistió durante varias semanas antes de que se promulgara un plan de remediación integral. Microsoft confirmó públicamente el error a mediados de febrero, afirmando que el error permitió a la IA ignorar las etiquetas de sensibilidad en las que confían los administradores de TI para asegurar sus perímetros digitales.

Según los informes, el despliegue de la corrección comenzó a principios de febrero. Microsoft se está comunicando actualmente con un subconjunto de usuarios afectados para verificar la eficacia del parche, pero no han proporcionado un cronograma definitivo sobre cuándo se resolverá por completo el problema a nivel mundial. El incidente está marcado actualmente como un aviso, una clasificación que a menudo se reserva para problemas con un alcance limitado, aunque el potencial de fuga de datos en industrias de alto cumplimiento sugiere que el impacto podría ser cualitativo en lugar de meramente cuantitativo.

Implicaciones para la adopción de la IA en las empresas

Este incidente sirve como un recordatorio contundente de la naturaleza de "caja negra" de la integración de la IA en las infraestructuras de TI heredadas. Mientras que las organizaciones se apresuran a adoptar herramientas como Microsoft 365 Copilot para aumentar la productividad, la arquitectura de seguridad que rige estas herramientas debe evolucionar para manejar comportamientos no deterministas.

Principales preocupaciones de seguridad:

  • Erosión de la confianza: Cuando la infraestructura subyacente ignora las etiquetas de seguridad, la confianza en las herramientas de cumplimiento automatizadas disminuye. Los líderes de TI pueden dudar en desplegar más capacidades de IA sin garantías más sólidas.
  • Acceso en la sombra: El error ilustra que los agentes de IA a menudo operan con permisos o rutas de acceso diferentes a los de los usuarios estándar o las herramientas de búsqueda heredadas, creando puntos de "acceso en la sombra" que las auditorías tradicionales podrían pasar por alto.
  • Violaciones de cumplimiento: Para sectores como la salud y las finanzas, incluso una exposición temporal de borradores confidenciales a un resumidor de IA podría constituir una brecha de datos reportable bajo regulaciones como GDPR o HIPAA.

Recomendaciones para administradores de TI

A la luz de este aviso, Creati.ai recomienda que los administradores de TI y los centros de operaciones de seguridad (SOC) tomen medidas proactivas inmediatas. Si bien Microsoft está implementando una corrección, confiar únicamente en los parches del proveedor es insuficiente para entornos de alta seguridad.

  • Revisar el aviso CW1226324: Los administradores deben monitorear continuamente el estado de este aviso específico en el Centro de administración de Microsoft 365 para confirmar cuándo recibe el parche su inquilino (tenant).
  • Auditar las interacciones de la IA: Siempre que sea posible, revise los registros de auditoría de las interacciones de Copilot que ocurrieron entre finales de enero y mediados de febrero, buscando específicamente consultas relacionadas con palabras clave sensibles.
  • Reforzar la capacitación de los empleados: Recuerde al personal que, aunque las herramientas de IA son potentes, deben evitar ingresar o hacer referencia a información altamente clasificada en las interfaces de chat de IA hasta que se garantice la estabilidad de estas herramientas.

A medida que la industria avanza, la expectativa es que los proveedores como Microsoft implementen mecanismos más rigurosos de "cierre por fallo" (fail-closed), donde una IA niegue el acceso de forma predeterminada si no se puede verificar una política de seguridad, en lugar de errores de "apertura por fallo" (fail-open) que exponen datos sensibles. Es probable que este error impulse un nuevo estándar de validación para los permisos de IA dentro de las suites empresariales.

Destacados