
Microsoft 365 Copilot에서 중대한 보안 허점이 발견되었으며, 이 AI 비서가 2026년 1월 말부터 기밀 이메일을 요약해 온 사실이 드러났습니다. 데이터 손실 방지(Data Loss Prevention, DLP) 정책과 민감도 레이블을 우회한 이 오류로 인해 AI는 사용자의 "보낸 편지함" 및 "임시 보관함" 폴더에 저장된 제한된 정보에 액세스하고 이를 처리할 수 있었습니다.
엄격한 데이터 거버넌스를 유지하기 위해 Microsoft의 생태계에 의존하는 기업들에게 이번 사건은 생성형 AI(Generative AI)를 보안이 철저한 기업 환경에 통합하는 작업의 복잡성이 커지고 있음을 시사합니다. Microsoft는 코드 오류로 인한 문제임을 인정하고 수정 패치 배포를 시작했으나, 전체 영향 범위는 여전히 조사 중입니다.
권고 ID **CW1226324**로 추적되는 이 취약점은 특히 Copilot "워크 탭" 채팅 기능에 영향을 미칩니다. 정상적인 운영 환경에서 Microsoft 365 Copilot은 조직의 준수 경계를 준수하도록 설계되었으며, 이는 DLP 정책에 의해 기밀 또는 제한으로 표시된 콘텐츠를 가져오거나 요약해서는 안 됨을 의미합니다.
그러나 "지정되지 않은 코드 오류"로 인해 특정 이메일 카테고리에 대한 이러한 보호 조치가 사실상 무력화되었습니다. 사용자가 Copilot과 상호 작용할 때, 해당 이메일이 사용자의 보낸 편지함이나 임시 보관함 폴더에 있는 경우 AI는 기밀로 명시적으로 레이블이 지정된 이메일에서 데이터를 추출할 수 있었습니다.
다음 표는 의도된 보안 프로토콜과 이번 사건 중에 나타난 동작 간의 불일치를 보여줍니다.
Table: 보안 프로토콜 실패 분석
| 기능 | 의도된 보안 동작 | 오류 중 동작 |
|---|---|---|
| 민감도 레이블 | AI가 "기밀" 또는 "내부 전용"으로 표시된 문서/이메일에 대한 액세스를 차단함. |
AI가 보낸 편지함/임시 보관함에 있는 레이블 지정된 이메일에 액세스하고 요약함. |
| DLP 정책 | 보호된 소스에서 승인되지 않은 도구로의 데이터 추출을 방지함. |
정책이 우회되어 데이터가 Copilot의 컨텍스트 창으로 유입됨. |
| 폴더 범위 | 스캔 범위가 사용자 승인 편지함 항목 및 안전한 디렉터리로 제한됨. |
활성 스캔 범위가 보낸 편지함 및 임시 보관함을 포함하도록 잘못 확장됨. |
"보낸 편지함"과 "임시 보관함"은 종종 다듬어지지 않은 전략 문서, 내부 재무 논의 또는 인사 문제와 같이 아직 광범위하게 배포할 준비가 되지 않았거나 기록 보관을 위해 저장된 가장 민감한 버전의 내부 커뮤니케이션을 포함하고 있기 때문에 이번 실패는 특히 우려스럽습니다.
이 문제는 2026년 1월 21일에 처음 탐지되었으나, 포괄적인 구제 계획이 시행되기 전까지 몇 주 동안 지속되었습니다. Microsoft는 2월 중순에 이 버그를 공식 확인하며, IT 관리자가 디지털 경계를 보호하기 위해 의존하는 민감도 레이블을 AI가 무시할 수 있게 한 오류였다고 밝혔습니다.
보고에 따르면 수정 패치 배포는 2월 초에 시작되었습니다. Microsoft는 현재 일부 영향받은 사용자에게 연락하여 패치의 효과를 확인하고 있지만, 이 문제가 전 세계적으로 완전히 해결될 시기에 대한 확정된 일정은 제공하지 않았습니다. 이 사건은 현재 권고(Advisory)로 표시되어 있는데, 이는 종종 범위가 제한된 문제에 예약되는 분류이지만, 규제 준수 요구가 높은 산업에서의 데이터 유출 가능성은 그 영향이 단순한 양적 문제를 넘어 질적인 문제일 수 있음을 시사합니다.
이번 사건은 기존 IT 인프라에 AI를 통합하는 과정에서의 "블랙박스" 특성을 일깨워주는 강력한 경고입니다. 기업들이 생산성을 높이기 위해 Microsoft 365 Copilot과 같은 도구를 앞다투어 도입하고 있지만, 이러한 도구를 제어하는 보안 아키텍처는 비결정적 동작을 처리할 수 있도록 진화해야 합니다.
주요 보안 우려 사항:
이번 권고에 비추어 볼 때, Creati.ai는 IT 관리자와 보안 운영 센터(SOC)가 즉각적이고 선제적인 조치를 취할 것을 권장합니다. Microsoft가 수정 패치를 배포하고 있지만, 높은 수준의 보안 환경에서는 벤더의 패치에만 의존하는 것으로는 부족합니다.
업계가 발전함에 따라 Microsoft와 같은 벤더들이 보안 정책을 확인할 수 없는 경우 AI가 기본적으로 액세스를 거부하는 "실패 시 차단(fail-closed)" 메커니즘을 구현할 것으로 기대됩니다. 이는 민감한 데이터를 노출하는 "실패 시 허용(fail-open)" 오류와 대조됩니다. 이 버그는 기업용 제품군 내에서 AI 권한 검증에 대한 새로운 표준을 이끌어낼 가능성이 높습니다.