AI News

Microsoft 365 Copilot의 심각한 취약점으로 인해 기밀 데이터가 AI 요약에 노출됨

Microsoft 365 Copilot에서 중대한 보안 허점이 발견되었으며, 이 AI 비서가 2026년 1월 말부터 기밀 이메일을 요약해 온 사실이 드러났습니다. 데이터 손실 방지(Data Loss Prevention, DLP) 정책과 민감도 레이블을 우회한 이 오류로 인해 AI는 사용자의 "보낸 편지함" 및 "임시 보관함" 폴더에 저장된 제한된 정보에 액세스하고 이를 처리할 수 있었습니다.

엄격한 데이터 거버넌스를 유지하기 위해 Microsoft의 생태계에 의존하는 기업들에게 이번 사건은 생성형 AI(Generative AI)를 보안이 철저한 기업 환경에 통합하는 작업의 복잡성이 커지고 있음을 시사합니다. Microsoft는 코드 오류로 인한 문제임을 인정하고 수정 패치 배포를 시작했으나, 전체 영향 범위는 여전히 조사 중입니다.

침해 메커니즘

권고 ID **CW1226324**로 추적되는 이 취약점은 특히 Copilot "워크 탭" 채팅 기능에 영향을 미칩니다. 정상적인 운영 환경에서 Microsoft 365 Copilot은 조직의 준수 경계를 준수하도록 설계되었으며, 이는 DLP 정책에 의해 기밀 또는 제한으로 표시된 콘텐츠를 가져오거나 요약해서는 안 됨을 의미합니다.

그러나 "지정되지 않은 코드 오류"로 인해 특정 이메일 카테고리에 대한 이러한 보호 조치가 사실상 무력화되었습니다. 사용자가 Copilot과 상호 작용할 때, 해당 이메일이 사용자의 보낸 편지함이나 임시 보관함 폴더에 있는 경우 AI는 기밀로 명시적으로 레이블이 지정된 이메일에서 데이터를 추출할 수 있었습니다.

다음 표는 의도된 보안 프로토콜과 이번 사건 중에 나타난 동작 간의 불일치를 보여줍니다.

Table: 보안 프로토콜 실패 분석

기능 의도된 보안 동작 오류 중 동작
민감도 레이블 AI가 "기밀" 또는 "내부 전용"으로 표시된
문서/이메일에 대한 액세스를 차단함.
AI가 보낸 편지함/임시 보관함에 있는
레이블 지정된 이메일에 액세스하고 요약함.
DLP 정책 보호된 소스에서 승인되지 않은 도구로의
데이터 추출을 방지함.
정책이 우회되어 데이터가 Copilot의
컨텍스트 창으로 유입됨.
폴더 범위 스캔 범위가 사용자 승인 편지함 항목 및
안전한 디렉터리로 제한됨.
활성 스캔 범위가 보낸 편지함 및 임시
보관함을 포함하도록 잘못 확장됨.

"보낸 편지함"과 "임시 보관함"은 종종 다듬어지지 않은 전략 문서, 내부 재무 논의 또는 인사 문제와 같이 아직 광범위하게 배포할 준비가 되지 않았거나 기록 보관을 위해 저장된 가장 민감한 버전의 내부 커뮤니케이션을 포함하고 있기 때문에 이번 실패는 특히 우려스럽습니다.

탐지 및 대응 일정

이 문제는 2026년 1월 21일에 처음 탐지되었으나, 포괄적인 구제 계획이 시행되기 전까지 몇 주 동안 지속되었습니다. Microsoft는 2월 중순에 이 버그를 공식 확인하며, IT 관리자가 디지털 경계를 보호하기 위해 의존하는 민감도 레이블을 AI가 무시할 수 있게 한 오류였다고 밝혔습니다.

보고에 따르면 수정 패치 배포는 2월 초에 시작되었습니다. Microsoft는 현재 일부 영향받은 사용자에게 연락하여 패치의 효과를 확인하고 있지만, 이 문제가 전 세계적으로 완전히 해결될 시기에 대한 확정된 일정은 제공하지 않았습니다. 이 사건은 현재 권고(Advisory)로 표시되어 있는데, 이는 종종 범위가 제한된 문제에 예약되는 분류이지만, 규제 준수 요구가 높은 산업에서의 데이터 유출 가능성은 그 영향이 단순한 양적 문제를 넘어 질적인 문제일 수 있음을 시사합니다.

기업 AI 도입에 미치는 영향

이번 사건은 기존 IT 인프라에 AI를 통합하는 과정에서의 "블랙박스" 특성을 일깨워주는 강력한 경고입니다. 기업들이 생산성을 높이기 위해 Microsoft 365 Copilot과 같은 도구를 앞다투어 도입하고 있지만, 이러한 도구를 제어하는 보안 아키텍처는 비결정적 동작을 처리할 수 있도록 진화해야 합니다.

주요 보안 우려 사항:

  • 신뢰 저하: 기본 인프라에서 보안 레이블이 무시되면 자동화된 컴플라이언스 도구에 대한 신뢰가 줄어듭니다. IT 리더들은 더 강력한 보장 없이는 추가적인 AI 기능 배포를 주저할 수 있습니다.
  • 섀도우 액세스 (Shadow Access): 이 버그는 AI 에이전트가 일반 사용자나 기존 검색 도구와는 다른 권한 또는 액세스 경로로 작동하는 경우가 많아, 전통적인 감사에서 놓칠 수 있는 "섀도우 액세스" 지점을 생성함을 보여줍니다.
  • 규정 준수 위반: 의료 및 금융과 같은 분야의 경우, 기밀 임시 보관함이 AI 요약기에 일시적으로라도 노출되는 것은 GDPR이나 HIPAA와 같은 규정에 따라 보고해야 하는 데이터 침해에 해당할 수 있습니다.

IT 관리자를 위한 권장 사항

이번 권고에 비추어 볼 때, Creati.ai는 IT 관리자와 보안 운영 센터(SOC)가 즉각적이고 선제적인 조치를 취할 것을 권장합니다. Microsoft가 수정 패치를 배포하고 있지만, 높은 수준의 보안 환경에서는 벤더의 패치에만 의존하는 것으로는 부족합니다.

  • 권고 CW1226324 검토: 관리자는 Microsoft 365 관리 센터에서 이 특정 권고의 상태를 지속적으로 모니터링하여 해당 테넌트에 패치가 적용되는 시점을 확인해야 합니다.
  • AI 상호 작용 감사: 가능한 경우, 1월 말에서 2월 중순 사이에 발생한 Copilot 상호 작용에 대한 감사 로그를 검토하고, 특히 민감한 키워드와 관련된 쿼리를 확인하십시오.
  • 직원 교육 강화: AI 도구는 강력하지만, 이러한 도구의 안정성이 보장될 때까지 AI 채팅 인터페이스에 기밀 정보를 입력하거나 참조하지 않도록 직원들에게 주의를 환기하십시오.

업계가 발전함에 따라 Microsoft와 같은 벤더들이 보안 정책을 확인할 수 없는 경우 AI가 기본적으로 액세스를 거부하는 "실패 시 차단(fail-closed)" 메커니즘을 구현할 것으로 기대됩니다. 이는 민감한 데이터를 노출하는 "실패 시 허용(fail-open)" 오류와 대조됩니다. 이 버그는 기업용 제품군 내에서 AI 권한 검증에 대한 새로운 표준을 이끌어낼 가능성이 높습니다.

추천