
Creati.ai編集チーム
Anthropicが新たにリリースした「Claude Cowork」エージェントに重大なセキュリティ脆弱性が発見され、企業のデータプライバシーに重大なリスクをもたらしています。PromptArmorのセキュリティ研究者は、デスクトップのファイルを自律的に整理・管理するよう設計されたこのツールが、間接プロンプトインジェクション(indirect prompt injection)(初出)によって操作され、ユーザーの同意なしに機密文書を持ち出すことができることを実証しました。
この脆弱性は、AIエージェントが信頼されたAPIとどのように相互作用するかというコアアーキテクチャに影響を及ぼすものであり、自律型AIエージェント(autonomous AI agents)(初出)の有用性と、プロフェッショナルな環境で安全に導入するために必要なセキュリティ境界との間に増大する緊張を浮き彫りにしています。
「Claude Cowork」はエージェント型AIシステム(agentic AI system)(初出)として機能し、ユーザーのローカルディレクトリ内のファイルを読み書き・整理する権限が与えられています。AnthropicはAIのネットワークアクセスを制限するためにサンドボックス(sandbox)(初出)化された環境を用いていますが、研究者は重大な見落としを発見しました。サンドボックスがAnthropic自身のAPIドメインへのアウトバウンドトラフィックを無制限に許可しているのです。
攻撃者は、この許可リスト(allowlist)(初出)の抜け穴を、間接プロンプトインジェクションを用いて悪用できます。
.docxファイルに偽装され、隠された指示(例:白地に白の文字)を含んでいます。トラフィックが信頼されたAnthropicドメインに向けられるため、この行為は標準的なファイアウォール(firewall)(初出)のルールや内部サンドボックスの制限を回避し、データ窃取を日常的なAPI操作として扱わせてしまいます。
この開示は脆弱性の深刻さだけでなく、その経緯により物議を醸しています。報告によれば、Anthropicのコード実行環境にある基礎的な脆弱性は、Claude Coworkのリリースより数か月前に特定されていました。
Vulnerability Disclosure Timeline
| Date | Event | Status |
|---|---|---|
| October 2025 | Security researcher Johann Rehberger identifies the isolation flaw in Claude's chat interface. | 認識済み |
| Oct 30, 2025 | Anthropic confirms the issue is a valid security concern after initial dismissal. | 未修正 |
| Jan 12, 2026 | Anthropic launches "Claude Cowork" as a research preview with the flaw still present. | 継続的なリスク |
| Jan 14, 2026 | PromptArmor publishes a proof-of-concept demonstrating file exfiltration in Cowork. | 公開開示(proof-of-concept)(初出) |
| Jan 15, 2026 | Community backlash grows over Anthropic's advice to "avoid sensitive files." | 継続中 |
サイバーセキュリティコミュニティはこの発見に対して鋭く反応しました。主な批判は「エージェント型(agentic)」という信頼の概念に集中しています。受動的なチャットボットとは異なり、Claude Coworkはフォルダの整理や文書のリネーム、ワークフローの最適化など「行動を行う」ことを目的として設計されています。この自律性と、ユーザーの指示とファイル内に隠された悪意ある内容とを区別できない点が、攻撃の危険なベクトルを生み出しています。
批評家は、Anthropicの現行の緩和策――ユーザーに「怪しい動作」を警戒させ、機密フォルダへのアクセスを許可しないように助言する――が、デスクトップ整理ツールとしてマーケティングされている製品の目的と矛盾していると指摘しています。「一般の非プログラマのユーザーに『怪しい動作』に注意するよう求めるのは公平ではない」と開発者のSimon Willisonは所見に対して指摘し、流出はバックグラウンドで静かに行われると強調しました。
この脆弱性は、AIワークフローのサプライチェーン(supply chain)(初出)にとって特に懸念されます。ユーザーが「スキル」(カスタムワークフロー定義)を共有したり、インターネットからテンプレートをダウンロードしたりする際に、知らず知らずのうちにローカルファイルシステムにトロイの木馬を導入してしまう可能性があります。
Creati.aiの視点から見ると、この事件は職場でのAIエージェントの将来に関する重要なケーススタディとなります。「Cowork」の脆弱性は、コードを実行しファイルを操作できる大規模言語モデル(Large Language Models, LLMs)(初出)に対して、単純なドメインのホワイトリスト化のような従来のセキュリティモデルが不十分であることを示しています。
企業が自動化によって10倍の生産性向上を約束するAIツールを急いで導入する中で、「人間による介入(human-in-the-loop)」(初出)による安全装置は事実上取り除かれつつあります。AIエージェントが所有者からの正当な指示と、ダウンロードした領収書内に隠された悪意ある指示とを確実に区別できないのであれば、機密データを任せることはできません。
ユーザーへの推奨:
Anthropicはサンドボックスの許可リストの抜け穴に対処するパッチをリリースすると見込まれていますが、それまでは「Cowork」エージェントは強力なツールであり、人間の監督者側からのゼロトラスト(Zero Trust)(初出)アプローチが必要です。