
Uma falha de segurança significativa no Microsoft 365 Copilot foi descoberta, revelando que o assistente de IA tem resumido e-mails confidenciais desde o final de janeiro de 2026. Esta falha, que contornou as políticas de Prevenção de Perda de Dados (Data Loss Prevention - DLP) estabelecidas e os rótulos de sensibilidade, permitiu que a IA acessasse e processasse informações restritas armazenadas nas pastas "Itens Enviados" (Sent Items) e "Rascunhos" (Drafts) dos usuários.
Para empresas que dependem do ecossistema da Microsoft para manter uma governança de dados rigorosa, este incidente destaca as crescentes complexidades de integrar a IA generativa (Generative AI) em ambientes corporativos seguros. A Microsoft reconheceu o problema, atribuído a um erro de código, e começou a implementar uma correção, embora o escopo total do impacto ainda esteja sob investigação.
A vulnerabilidade, rastreada sob o ID de consultoria CW1226324, afeta especificamente o recurso de chat "work tab" do Copilot. Sob operações normais, o Microsoft 365 Copilot é projetado para respeitar os limites de conformidade organizacional, o que significa que não deve recuperar ou resumir conteúdo sinalizado como confidencial ou restrito por políticas de DLP.
No entanto, um "erro de código não especificado" neutralizou efetivamente essas proteções para categorias específicas de e-mail. Quando um usuário interagia com o Copilot, a IA era capaz de extrair dados de e-mails que haviam sido explicitamente rotulados como sensíveis, desde que esses e-mails estivessem localizados nas pastas de itens enviados ou rascunhos do usuário.
A tabela a seguir descreve a discrepância entre os protocolos de segurança pretendidos e o comportamento exibido durante este incidente:
Tabela: Análise de Falha do Protocolo de Segurança
| Recurso | Comportamento de Segurança Pretendido | Comportamento Durante a Falha |
|---|---|---|
| Rótulos de Sensibilidade | A IA bloqueia o acesso a documentos/e-mails marcados como "Confidencial" ou "Apenas Interno". |
A IA acessou e resumiu e-mails rotulados nas pastas Itens Enviados/Rascunhos. |
| Políticas de DLP | Impede a extração de dados de fontes protegidas para ferramentas não autorizadas. |
As políticas foram contornadas, permitindo que os dados fluíssem para a janela de contexto do Copilot. |
| Escopo da Pasta | Varredura limitada a itens da caixa de entrada autorizados pelo usuário e diretórios seguros. |
Expandiu erroneamente a varredura ativa para incluir Itens Enviados e Rascunhos. |
Esta falha é particularmente preocupante porque "Itens Enviados" e "Rascunhos" frequentemente contêm as versões mais sensíveis de comunicações internas — documentos estratégicos não finalizados, discussões financeiras internas ou assuntos de pessoal — que ainda não estão prontos para distribuição ampla ou foram arquivados para manutenção de registros.
O problema foi detectado pela primeira vez em 21 de janeiro de 2026, mas persistiu por várias semanas antes que um plano de remediação abrangente fosse promulgado. A Microsoft confirmou publicamente o erro em meados de fevereiro, afirmando que o erro permitiu que a IA ignorasse os rótulos de sensibilidade nos quais os administradores de TI confiam para proteger seus perímetros digitais.
De acordo com relatos, a implementação da correção começou no início de fevereiro. A Microsoft está atualmente entrando em contato com um subconjunto de usuários afetados para verificar a eficácia do patch, mas não forneceu um cronograma definitivo de quando o problema será totalmente resolvido globalmente. O incidente está atualmente sinalizado como uma consultoria, uma classificação frequentemente reservada para problemas com um escopo limitado, embora o potencial de vazamento de dados em setores de alta conformidade sugira que o impacto possa ser qualitativo, e não meramente quantitativo.
Este incidente serve como um lembrete contundente da natureza de "caixa preta" da integração de IA em infraestruturas de TI legadas. Enquanto as organizações correm para adotar ferramentas como o Microsoft 365 Copilot para aumentar a produtividade, a arquitetura de segurança que governa essas ferramentas deve evoluir para lidar com comportamentos não determinísticos.
Principais Preocupações de Segurança:
À luz desta consultoria, a Creati.ai recomenda que os administradores de TI e centros de operações de segurança (SOCs) tomem medidas proativas imediatas. Embora a Microsoft esteja implementando uma correção, depender apenas de patches de fornecedores é insuficiente para ambientes de alta segurança.
À medida que a indústria avança, a expectativa é que fornecedores como a Microsoft implementem mecanismos de "falha fechada" (fail-closed) mais rigorosos — onde uma IA nega o acesso por padrão se uma política de segurança não puder ser verificada — em vez de erros de "falha aberta" (fail-open) que expõem dados sensíveis. Este erro provavelmente impulsionará um novo padrão de validação para permissões de IA dentro de suítes empresariais.