
Microsoft 365 Copilotにおいて重大なセキュリティ上の見落としが発見され、2026年1月下旬以降、AIアシスタントが機密メールを要約していたことが明らかになりました。この不具合は、確立されたデータ損失防止(DLP:Data Loss Prevention)ポリシーや秘密度ラベル(Sensitivity Labels)をバイパスし、ユーザーの「送信済みアイテム」や「下書き」フォルダに保存されている制限された情報へのAIのアクセスと処理を可能にしていました。
厳格なデータガバナンスを維持するためにMicrosoftのエコシステムに依存している企業にとって、この事案は、生成AI(Generative AI)を安全な企業環境に統合することの複雑さが増していることを浮き彫りにしています。Microsoftはこの問題をコードのエラーによるものと認め、修正プログラムの配布を開始しましたが、影響の全容については現在も調査中です。
アドバイザリID CW1226324 として追跡されているこの脆弱性は、特にCopilotの「ワーク」タブのチャット機能に影響を及ぼします。通常の運用では、Microsoft 365 Copilotは組織のコンプライアンス境界を尊重するように設計されており、DLPポリシーによって機密または制限付きとしてフラグが立てられたコンテンツを取得または要約することはありません。
しかし、「特定されていないコードエラー」によって、特定のメールカテゴリに対するこれらの保護策が事実上無効化されました。ユーザーがCopilotとやり取りした際、AIは、それらのメールがユーザーの送信済みまたは下書きフォルダにある場合に限り、機密として明示的にラベル付けされたメールからデータを取得することができました。
以下の表は、意図されたセキュリティプロトコルと、この事案中に示された動作との不一致をまとめたものです。
表:セキュリティプロトコル障害分析
| 機能 | 意図されたセキュリティ動作 | 不具合発生時の動作 |
|---|---|---|
| 秘密度ラベル | AIが「機密」または「内部限定」と マークされたドキュメント/メールへのアクセスをブロックする。 |
AIが送信済み/下書きフォルダ内の ラベル付きメールにアクセスし、要約した。 |
| DLPポリシー | 保護されたソースから承認されていないツールへの データ抽出を防止する。 |
ポリシーがバイパスされ、Copilotのコンテキストウィンドウへの データの流入を許容した。 |
| フォルダの範囲 | スキャンは、ユーザーが承認した受信トレイのアイテムと 安全なディレクトリに限定される。 |
アクティブスキャンの範囲が誤って拡張され、 送信済みアイテムと下書きが含まれた。 |
この障害は特に懸念されます。なぜなら、「送信済みアイテム」と「下書き」には、洗練されていない戦略文書、内部の財務に関する議論、人事案件など、まだ広範囲に配布する準備が整っていない、あるいは記録保持のためにアーカイブされた、内部コミュニケーションの中でも最も機密性の高い内容が含まれていることが多いためです。
この問題は2026年1月21日に最初に検出されましたが、包括的な是正計画が制定されるまで数週間持続しました。Microsoftは2月中旬にこのバグを公に認め、IT管理者がデジタル境界を保護するために信頼している秘密度ラベルをAIが無視することを許容するエラーがあったと述べました。
報告によると、修正プログラムの展開は2月初旬に始まりました。Microsoftは現在、パッチの効果を検証するために影響を受けた一部のユーザーに連絡を取っていますが、問題が世界的に完全に解決される明確なタイムラインは提供していません。この事案は現在、アドバイザリとしてフラグが立てられており、これは通常、範囲が限定された問題に対して予約される分類ですが、コンプライアンス要件の高い業界におけるデータ漏洩の可能性は、単なる定量的ではなく、定性的な影響を及ぼす可能性を示唆しています。
この事案は、レガシーなITインフラストラクチャにおけるAI統合の「ブラックボックス」的な性質を再認識させるものです。組織が生産性向上のために Microsoft 365 Copilot のようなツールの導入を急ぐ一方で、これらのツールを管理するセキュリティアーキテクチャは、非決定的(non-deterministic)な動作を処理できるように進化しなければなりません。
主要なセキュリティ上の懸念事項:
このアドバイザリを受け、Creati.aiはIT管理者およびセキュリティオペレーションセンター(SOC)が直ちに積極的な措置を講じることを推奨します。Microsoftは修正プログラムを展開していますが、高度なセキュリティ環境においてベンダーのパッチのみに依存することは不十分です。
業界が進展するにつれ、Microsoftのようなベンダーには、セキュリティポリシーが検証できない場合にAIがデフォルトでアクセスを拒否する「フェイルクローズ(fail-closed)」メカニズムを実装することが期待されます。これは、機密データをさらしてしまう「フェイルオープン(fail-open)」エラーとは対照的です。このバグは、エンタープライズスイート内でのAI権限の検証に関する新しい基準を推進することになるでしょう。