
Pela segunda vez em oito meses, descobriu-se que o principal assistente de IA (AI - Inteligência Artificial) da Microsoft, o Copilot, contornou os próprios protocolos de segurança projetados para tornar sua adoção empresarial segura. Um bug crítico ativo durante o início de 2026 permitiu que a IA lesse, resumisse e trouxesse à tona e-mails explicitamente marcados como "Confidenciais", ignorando as políticas de Prevenção de Perda de Dados (DLP - Data Loss Prevention) e expondo dados sensíveis em grandes organizações, incluindo o Serviço Nacional de Saúde (NHS) do Reino Unido.
Este último incidente, que deixou registros sensíveis vulneráveis por quase quatro semanas, não é uma falha isolada. Ele segue uma vulnerabilidade grave descoberta em junho de 2025, traçando um quadro preocupante de um "ponto cego sistêmico" na pilha de segurança de IA moderna. À medida que as empresas correm para implantar a IA generativa (Generative AI), essas falhas repetidas levantam questões urgentes: Podem estruturas de segurança legadas como DLP e rótulos de sensibilidade realmente conter Modelos de Linguagem Grande (LLMs - Large Language Models) em tempo de execução?
No final de janeiro de 2026, um defeito no nível do código no Microsoft 365 Copilot desabilitou efetivamente a "fronteira de confiança" na qual as organizações confiam para proteger suas comunicações mais sensíveis. O bug, rastreado pela Microsoft como CW1226324, permitiu que o assistente de IA acessasse, processasse e resumisse e-mails armazenados nas pastas "Itens Enviados" e "Rascunhos" dos usuários, mesmo quando esses e-mails continham rótulos de sensibilidade restritivos, como "Altamente Confidencial", ou estavam cobertos por políticas de DLP ativas.
Sob operações normais, os rótulos de sensibilidade atuam como sinais digitais de "não entre" para a IA. Se um documento for rotulado como "Confidencial", o Copilot é contratual e tecnicamente obrigado a ignorá-lo durante seu processo de Geração Aumentada de Recuperação (RAG - Retrieval-Augmented Generation). No entanto, por aproximadamente 28 dias — de 21 de janeiro a 19 de fevereiro de 2026 — esse mecanismo falhou para pastas específicas do Outlook.
O impacto foi sentido agudamente em setores regulamentados. O NHS, que gerencia vastas quantidades de dados privados de pacientes, sinalizou o incidente internamente como INC46740412. Por quase um mês, funcionários que utilizavam o Copilot para tarefas administrativas rotineiras poderiam ter trazido à tona, inadvertidamente, informações de saúde protegidas (PHI) ou documentos de estratégia interna que deveriam ser invisíveis para o modelo de IA.
Embora a Microsoft tenha desde então implantado uma correção e declarado que o bug "não forneceu a ninguém acesso a informações que já não estivessem autorizados a ver", a falha mina a promessa central da governança de IA: de que a IA não processará dados que lhe foi dito para ignorar. Em um contexto jurídico ou de conformidade, o mero processamento de dados restritos por um modelo de IA — resumindo um rascunho jurídico privilegiado ou um prontuário de paciente — pode constituir uma violação de política.
A falha de fevereiro de 2026 é o segundo grande golpe contra a arquitetura de segurança do Copilot em menos de um ano. Oito meses antes, em junho de 2025, pesquisadores revelaram uma vulnerabilidade crítica apelidada de "EchoLeak" (CVE-2025-32711).
Ao contrário do bug de fevereiro, que foi uma falha funcional de rótulos, o EchoLeak foi um exploit sofisticado de "zero clique". Ele permitia que atacantes incorporassem instruções ocultas em e-mails que pareciam inofensivos. Quando o Copilot processava esses e-mails, os comandos ocultos "sequestravam" a janela de contexto da IA, forçando-a a recuperar e exfiltrar dados sensíveis para o atacante sem que o usuário percebesse que uma violação havia ocorrido.
Ambos os incidentes revelam uma realidade perigosa: os controles de segurança da Microsoft estão lutando para acompanhar o ritmo da natureza complexa e não determinística dos LLMs.
Comparação de Falhas de Segurança Recentes do Copilot
| Nome do Incidente | Data Ativa | Causa Raiz | Mecanismo de Falha |
|---|---|---|---|
| EchoLeak (CVE-2025-32711) | Junho de 2025 | Violação de Escopo de LLM | A injeção de prompt malicioso permitiu que atacantes sequestrassem a recuperação de RAG e exfiltrassem dados. |
| Ignorando DLP (CW1226324) | Jan - Fev 2026 | Defeito Funcional de Código | O Copilot ignorou rótulos de sensibilidade em pastas específicas do Outlook (Rascunhos/Enviados), resumindo dados confidenciais. |
A recorrência desses problemas destaca uma desconexão fundamental entre a segurança de dados tradicional e a maneira como a IA generativa opera.
Ferramentas legadas como DLP e rótulos de sensibilidade são projetadas para proteção estática ou transacional. Elas fazem perguntas binárias: O Usuário A tem permissão para abrir o Arquivo B? Este e-mail contém um número de cartão de crédito?
No entanto, os Copilots de IA operam dinamicamente em tempo de execução. Eles usam RAG para escanear, recuperar e sintetizar fragmentos de informações de milhares de documentos em milissegundos.
Especialistas em segurança estão alertando cada vez mais que "aplicar permissões" não é mais suficiente. A própria camada de IA requer um firewall dedicado — um que valide não apenas quem está acessando os dados, mas o que a IA está fazendo com eles em tempo real.
Para os CIOs e CISOs, as implicações da linha do tempo de "duas vezes em oito meses" são graves. A exposição do NHS serve como um estudo de caso potente sobre os riscos de confiar em controles de segurança nativos do provedor para ambientes de alto risco.
Principais Conclusões para Líderes Empresariais:
A Microsoft agiu para corrigir essas vulnerabilidades, mas a frequência dessas falhas de alto perfil sugere que a arquitetura de IA empresarial (Enterprise AI) ainda está encontrando seu equilíbrio. Até que o "ponto cego" entre permissões estáticas e processamento dinâmico de IA seja fechado, as empresas permanecem a uma atualização de distância de sua próxima exposição de dados.