AI News

Vulnerabilidade Crítica no Microsoft 365 Copilot Expõe Dados Confidenciais ao Resumo por IA

Uma falha de segurança significativa no Microsoft 365 Copilot foi descoberta, revelando que o assistente de IA tem resumido e-mails confidenciais desde o final de janeiro de 2026. Esta falha, que contornou as políticas de Prevenção de Perda de Dados (Data Loss Prevention - DLP) estabelecidas e os rótulos de sensibilidade, permitiu que a IA acessasse e processasse informações restritas armazenadas nas pastas "Itens Enviados" (Sent Items) e "Rascunhos" (Drafts) dos usuários.

Para empresas que dependem do ecossistema da Microsoft para manter uma governança de dados rigorosa, este incidente destaca as crescentes complexidades de integrar a IA generativa (Generative AI) em ambientes corporativos seguros. A Microsoft reconheceu o problema, atribuído a um erro de código, e começou a implementar uma correção, embora o escopo total do impacto ainda esteja sob investigação.

A Mecânica da Violação

A vulnerabilidade, rastreada sob o ID de consultoria CW1226324, afeta especificamente o recurso de chat "work tab" do Copilot. Sob operações normais, o Microsoft 365 Copilot é projetado para respeitar os limites de conformidade organizacional, o que significa que não deve recuperar ou resumir conteúdo sinalizado como confidencial ou restrito por políticas de DLP.

No entanto, um "erro de código não especificado" neutralizou efetivamente essas proteções para categorias específicas de e-mail. Quando um usuário interagia com o Copilot, a IA era capaz de extrair dados de e-mails que haviam sido explicitamente rotulados como sensíveis, desde que esses e-mails estivessem localizados nas pastas de itens enviados ou rascunhos do usuário.

A tabela a seguir descreve a discrepância entre os protocolos de segurança pretendidos e o comportamento exibido durante este incidente:

Tabela: Análise de Falha do Protocolo de Segurança

Recurso Comportamento de Segurança Pretendido Comportamento Durante a Falha
Rótulos de Sensibilidade A IA bloqueia o acesso a documentos/e-mails
marcados como "Confidencial" ou "Apenas Interno".
A IA acessou e resumiu e-mails rotulados
nas pastas Itens Enviados/Rascunhos.
Políticas de DLP Impede a extração de dados de fontes
protegidas para ferramentas não autorizadas.
As políticas foram contornadas, permitindo que
os dados fluíssem para a janela de contexto do Copilot.
Escopo da Pasta Varredura limitada a itens da caixa de entrada
autorizados pelo usuário e diretórios seguros.
Expandiu erroneamente a varredura ativa
para incluir Itens Enviados e Rascunhos.

Esta falha é particularmente preocupante porque "Itens Enviados" e "Rascunhos" frequentemente contêm as versões mais sensíveis de comunicações internas — documentos estratégicos não finalizados, discussões financeiras internas ou assuntos de pessoal — que ainda não estão prontos para distribuição ampla ou foram arquivados para manutenção de registros.

Linha do Tempo de Detecção e Resposta

O problema foi detectado pela primeira vez em 21 de janeiro de 2026, mas persistiu por várias semanas antes que um plano de remediação abrangente fosse promulgado. A Microsoft confirmou publicamente o erro em meados de fevereiro, afirmando que o erro permitiu que a IA ignorasse os rótulos de sensibilidade nos quais os administradores de TI confiam para proteger seus perímetros digitais.

De acordo com relatos, a implementação da correção começou no início de fevereiro. A Microsoft está atualmente entrando em contato com um subconjunto de usuários afetados para verificar a eficácia do patch, mas não forneceu um cronograma definitivo de quando o problema será totalmente resolvido globalmente. O incidente está atualmente sinalizado como uma consultoria, uma classificação frequentemente reservada para problemas com um escopo limitado, embora o potencial de vazamento de dados em setores de alta conformidade sugira que o impacto possa ser qualitativo, e não meramente quantitativo.

Implicações para a Adoção de IA nas Empresas

Este incidente serve como um lembrete contundente da natureza de "caixa preta" da integração de IA em infraestruturas de TI legadas. Enquanto as organizações correm para adotar ferramentas como o Microsoft 365 Copilot para aumentar a produtividade, a arquitetura de segurança que governa essas ferramentas deve evoluir para lidar com comportamentos não determinísticos.

Principais Preocupações de Segurança:

  • Erosão da Confiança: Quando os rótulos de segurança são ignorados pela infraestrutura subjacente, a confiança nas ferramentas de conformidade automatizadas diminui. Os líderes de TI podem hesitar em implantar novas capacidades de IA sem garantias mais fortes.
  • Acesso Sombra: O erro ilustra que os agentes de IA frequentemente operam com permissões ou caminhos de acesso diferentes dos usuários padrão ou ferramentas de busca legadas, criando pontos de "acesso sombra" que as auditorias tradicionais podem perder.
  • Violações de Conformidade: Para setores como saúde e finanças, mesmo uma exposição temporária de rascunhos confidenciais a um resumidor de IA pode constituir uma violação de dados reportável sob regulamentações como GDPR ou HIPAA.

Recomendações para Administradores de TI

À luz desta consultoria, a Creati.ai recomenda que os administradores de TI e centros de operações de segurança (SOCs) tomem medidas proativas imediatas. Embora a Microsoft esteja implementando uma correção, depender apenas de patches de fornecedores é insuficiente para ambientes de alta segurança.

  • Revisar a Consultoria CW1226324: Os administradores devem monitorar continuamente o status desta consultoria específica no Centro de Administração do Microsoft 365 para confirmar quando seu locatário receberá o patch.
  • Auditar Interações de IA: Sempre que possível, revise os logs de auditoria para interações do Copilot que ocorreram entre o final de janeiro e meados de fevereiro, procurando especificamente por consultas relacionadas a palavras-chave sensíveis.
  • Reforçar o Treinamento de Funcionários: Lembre a equipe de que, embora as ferramentas de IA sejam poderosas, eles devem evitar inserir ou referenciar informações altamente classificadas em interfaces de chat de IA até que a estabilidade dessas ferramentas seja garantida.

À medida que a indústria avança, a expectativa é que fornecedores como a Microsoft implementem mecanismos de "falha fechada" (fail-closed) mais rigorosos — onde uma IA nega o acesso por padrão se uma política de segurança não puder ser verificada — em vez de erros de "falha aberta" (fail-open) que expõem dados sensíveis. Este erro provavelmente impulsionará um novo padrão de validação para permissões de IA dentro de suítes empresariais.

Em Destaque