AI News

Google DeepMindが「エージェンティック・ウェブ(Agentic Web)」のプロトコルを発表

自律システムの進化における決定的な瞬間として、Google DeepMindの研究者たちは、人工知能エージェントがタスクを割り当て、実行し、検証する方法を変革するために設計されたプロトコルである**知的AI委譲(Intelligent AI Delegation)**の包括的なフレームワークを公開した。2026年2月12日に発表されたこの研究は、新興の「エージェンティック・ウェブ(agentic web)」における重大なボトルネック、つまり現在のマルチエージェントシステムが、脆弱なハードコードされたヒューリスティックに屈することなく、複雑でオープンエンドなコラボレーションを処理できないという課題に対処している。

Nenad Tomašev、Matija Franklin、およびSimon Osinderoによって執筆されたこの提案は、AIが単純なチャットボットから機能的な経済層へとスケールするためには、エージェントが人間の階層構造を反映した組織原則、具体的には権限、責任、および説明責任の移転を採用しなければならないと論じている。

単純なタスク分割を超えて

DeepMindの研究の核心となるテーゼは、現在の委譲方法は不十分であるという点だ。従来のソフトウェアアーキテクチャでは、委譲はしばしばサブルーチンの「アウトソーシング」と同義であり、硬直的で予測可能なプロセスであった。しかし、自律エージェントのオープンなネットワーク(エージェンティック・ウェブ(agentic web))では、環境条件が変化したり、サブエージェントが予期しない変数に遭遇したりすると、このアプローチは失敗する。

DeepMindのフレームワークは、委譲を単なる作業の分配としてではなく、「権限の移転を組み込んだタスク割り当てに関する一連の意思決定」として再定義している。この区別は極めて重要である。これは、委譲する側のエージェントが、割り当てのリスク、委譲される側の能力、および信頼を確立するためのメカニズムを動的に評価しなければならないことを意味している。

研究者たちは、既存のシステムには**推移的な説明責任(transitive accountability)**が欠けていると指摘している。エージェントAがエージェントBに委譲し、エージェントBがさらにエージェントCに委譲するシナリオでは、現在のフレームワークではエラーの責任が誰にあるのかという「証拠の連鎖」が見失われがちである。新しいフレームワークは、エージェントBがエージェントCの仕事に対してエージェントAへの完全な説明責任を負い続けるプロトコルを強制し、暗号技術による証明と厳格な検証チェーンを必要とする。

知的委譲の5つの柱

これらの概念を運用可能にするために、DeepMindチームはフレームワークを5つのコア要件を中心に構成した。これらの柱は、高レベルの組織目標を具体的な技術実装にマッピングし、敵対的な環境やリソースが制限された環境でもエージェントが堅牢に動作できるようにする。

以下の表は、フレームワークの要件とそれらの技術的な実行との間のアーキテクチャ上の対応を示している。

表1:知的委譲フレームワークのアーキテクチャ

コア要件 技術プロトコル 運用の機能
動的な評価 タスクの分解と割り当て 割り当て前にエージェントの状態と能力をきめ細かく推論する
適応的な実行 適応的な調整 システムの崩壊を招くことなく、コンテキストのシフトやランタイムのエラーを処理する
構造的な透明性 モニタリングと検証可能な完了 暗号ログを介してプロセスと最終結果の両方を監査する
スケーラブルな市場調整 信頼、評判、および最適化 オープンなエージェント市場において、効率的で信頼できる調整を促進する
システム的な回復力 セキュリティと権限の処理 連鎖的な障害やチェーン全体にわたる悪意のある悪用を防ぐ

信頼のエンジニアリング:「コントラクト・ファースト」の分解

この論文におけるおそらく技術的に最も重要な貢献は、**コントラクト・ファーストの分解(Contract-First Decomposition)**の導入である。このエンジニアリング戦略は、従来の委譲モデルを根本から覆すものである。

AutoGenやCrewAIのような初期のフレームワークに見られる現在の多くのマルチエージェントワークフローでは、プライマリエージェントが「調査論文を書く」といった広範なタスクを割り当て、サブエージェントがそれを正しく解釈することを期待する。DeepMindの提案はこの曖昧さを拒絶する。コントラクト・ファーストの原則の下では、結果を正確に検証できない限り、委譲側がタスクを割り当てることは禁止される。

タスクが主観的すぎたり、即座に検証するには複雑すぎたりする場合、システムはそれを再帰的に分解しなければならない。この「分解ループ」は、サブタスクがユニットテストへの合格、形式的な数学的証明の充足、または厳格なデータスキーマへの適合といった、特定の自動化された検証能力と一致するまで継続される。これにより、エージェント・ウェブがチェックされていないハルシネーション(幻覚)による混沌としたノイズになるのではなく、検証可能な作業単位の構造化されたネットワークになることが保証される。

適応的な再割り当てと自己修正

2024年時代のエージェントフレームワークにおける主要な失敗モードは、エージェントがタスクに失敗し、ワークフロー全体が停止してしまう「スタック状態」であった。知的AI委譲(Intelligent AI Delegation)フレームワークは、**適応的なタスク再割り当て(Adaptive Task Reassignment)**を導入している。

「動的な評価」の柱で述べられているように、委譲側は委譲された側の「状態と能力」を継続的に監視するため、リアルタイムでパフォーマンスの低下を検知できる。サブエージェントの動作が遅すぎたり、コンプライアンスに違反した出力を生成し始めたりした場合、親エージェントは実行中に権限を剥奪し、ネットワーク内の別のノードにタスクを再割り当てすることができる。この能力は「システム的な回復力」にとって不可欠であり、1つの欠陥のあるエージェントがエンタープライズワークフロー全体を停止させるのを防ぐ。

未来の経済への影響

このフレームワークの発表は、これらの理論を実装した実用的なツール、例えば暗号トークンを使用してこれらの委譲制限を強制するTypeScriptライブラリである**DelegateOS**の立ち上げと時を同じくしている。これは、この研究が単なる理論にとどまらず、すでにインターネットの「配管」に影響を与え始めていることを示唆している。

信頼と説明責任の層を解決することで、Google DeepMindは事実上、マシン・ツー・マシン(M2M)経済の基本ルールを策定している。エージェントが信頼を必要とせずに作業を委譲し、スマートコントラクトを介して完了を確認し、暗号チェーンを通じて互いに説明責任を負うことができるようになれば、AIが自律的に達成できる範囲は、単純なアシスタンスから複雑なマルチステークホルダーのプロジェクト管理へと拡大する。

エコシステムがこれらの標準を採用するにつれて、開発者は「プロンプトエンジニアリング」によるオーケストレーターから、タスクへの指示そのものよりも成功の定義が厳密にコード化される「コントラクトエンジニアリング」システムへの移行を期待できるだろう。

フィーチャー