AI News

業界のリーダーたちが自律型AIの未来を定義するために結集

人工知能(AI)の急速な断片化を安定させるための決定的な動きとして、OpenAIとCiscoは、エージェンティックAI(Agentic AI)のガバナンス標準を確立するための大規模な業界全体のイニシアチブを強力に支援しました。Linux Foundationの下で運営される**エージェンティックAI財団(Agentic AI Foundation:AAIF)**の設立は、業界が対話を行うチャットボットから、複雑なタスクを実行する自律型エージェントへと移行する重要な転換点となります。

創設メンバーであるOpenAI、Anthropic、Blockに加え、Cisco、Microsoft、Googleなどの主要なエンタープライズ支援者を含むこの連合は、企業の導入を停滞させる恐れのある「相互運用性の危機」の解決を目指しています。この発表は、**ガートナー(Gartner)が驚くべき予測を公開したタイミングで行われました。それによると、2026年末までにエンタープライズソフトウェアの40%**にタスク固有のAIエージェントが含まれるようになり、2025年の5%未満から急増するとされています。

「チャット」から「アクション」への移行

業界は現在、変曲点にあります。生成AI(Generative AI:GenAI)はテキストや画像を生成する能力で世界を驚かせましたが、エージェンティックAIは、そのテクノロジーの機能的な進化を象徴しています。これらのエージェントは単にコンテンツを生成するだけでなく、ソフトウェアと対話し、ワークフローを実行し、最小限の人間の監視で意思決定を行います。

しかし、この能力は重大なリスクも伴います。共有された標準がなければ、異なるベンダーのエージェント同士が通信できず、企業は「ブラックボックス」化したセキュリティの懸念に直面します。AAIFの使命は、プロプライエタリ(独自の)境界を越えてエージェントが安全に相互作用できる、中立的でオープンなエコシステムを構築することです。

表1:生成AIからエージェンティックAIへの進化

機能 生成AI(2023-2024年) エージェンティックAI(2025-2026年)
コア機能 コンテンツ生成(テキスト、画像) タスク実行および意思決定
相互作用 人間がプロンプトを出し、AIが応答する AIが自律的に観察、計画、行動する
主な用途 知識の検索、下書き作成 ワークフローの自動化、IT運用、取引処理
主なリスク ハルシネーション(誤情報) 意図しないアクション(データの破損、不正アクセス)
相互運用性 低い(サイロ化されたチャットインターフェース) 高い(MCPのようなAPI/プロトコル標準が必要)
ガートナーの予測 広範なパイロットプログラム 2026年までにエンタープライズアプリの40%に組み込まれる

Ciscoの戦略的展開:AgenticOps

OpenAIとAnthropicがソフトウェアのプロトコルを推進する一方で、Ciscoはこの新しい時代のインフラストラクチャの基盤としての地位を確立しようとしています。アムステルダムで開催された最近のCisco Live EMEAイベントにおいて、このネットワークの巨人は、自律型エージェントの膨大なコンピューティングおよびネットワーク需要をサポートするために設計された運用モデルであるAgenticOpsの拡張を発表しました。

Ciscoのプレジデント兼最高製品責任者(CPO)であるJeetu Patel氏は、このイニシアチブを国家的および経済的な競争力の問題として位置づけました。「AgenticOpsは、複雑さからの深く根本的な転換を象徴しています。私たちは、単に観察するだけのAIから、推論し、決定し、行動するAIへと移行しつつあります」とPatel氏は述べました。

Ciscoは、エージェンティックAIが単なる「科学プロジェクト」に終わらないために、連合が取り組むべき3つの重要な障壁を特定しています:

  1. インフラストラクチャ: マルチエージェントシステムには、低遅延のネットワークと膨大な計算能力が必要です。Ciscoの新しいSilicon One G300スイッチは、これらのAIクラスターを処理するために特別に構築されています。
  2. 信頼: 組織は、システムの構成変更についてハルシネーション(Hallucination)を起こす可能性のあるエージェントを導入することはできません。AgenticOpsは、実行前にエージェントのアクションを検証する「信頼された検証(trusted validation)」を導入します。
  3. データ: 公開データソースが枯渇する中、企業は独自の機密情報をさらすことなくこれらのエージェントをトレーニングするために、合成データと安全なパイプラインを必要としています。

AIのための「USB-C」:技術標準

この財団は単なる話し合いの場ではありません。AIエージェントのための共通言語を作成するために設計された3つの具体的な技術的貢献とともに立ち上げられました。

  • モデルコンテキストプロトコル(Model Context Protocol:MCP): Anthropicによって寄贈されたこの標準は、AIアプリケーションにとっての「USB-Cポート」のように機能します。これにより、AIモデルが標準化された方法でデータリポジトリ(Slack、Google Drive、GitHubなど)に接続できるようになり、開発者がツールごとにカスタム統合を構築する必要がなくなります。
  • AGENTS.md: OpenAIから寄贈されたこれは、エージェントのための「README」として機能するMarkdownベースの標準です。これにより、開発者はコーディングエージェントに対して明確で人間が読める指示とコンテキストを定義でき、エージェントがコードを書き始める前に特定のプロジェクトのルールを確実に理解できるようにします。
  • Goose: Block(旧Square)から寄贈されたGooseは、ローカルで動作するオープンソースのエージェントフレームワークです。これは、クラウドのインテリジェンスとローカルの実行の間のギャップを埋め、ユーザーのマシン上でエージェントが安全に動作する方法のブループリントを提供します。

これらの標準は、業界アナリストが指摘する「断片化」への懸念に対処するものです。すべてのベンダーが独自のクローズドな環境(クローズドガーデン)を構築してしまうと、複雑でクロスプラットフォームなエンタープライズワークフローにおいてエージェントは役に立たなくなります。

金融サービスにおける信頼のギャップ

これらの標準の緊急性は、金融のような規制の厳しい業界で特に深刻です。F5のChad Davis氏は、信用組合や銀行にとって、エージェンティックAIの約束(自動化された融資決定、不正検知、パーソナライズされた財務アドバイス)は、ひとえに口座保有者の信頼にかかっていると指摘しています。

「透明性があり、説明可能で、コンプライアンスを遵守したエージェンティックAIは、単なる規制上の必要性ではなく、将来の持続可能性のために不可欠です」とDavis氏は主張します。金融機関は現在、自律型エージェントが欠陥のある論理に基づいて融資を拒否しないことをまだ保証できないため、エージェントを低リスクの内部機能に限定しています。AAIFが提案するガバナンス枠組みは、監査人や規制当局を満足させるために必要な「追跡可能性(トレーサビリティ)」と「観測可能性(オブザーバビリティ)」を提供することを目指しています。

今後の展望:4,500億ドルの機会

経済的な利害は膨大です。ガートナーは、2035年までにエージェンティックAIが4,500億ドルのエンタープライズソフトウェア収益を牽引する可能性があると予測しています。しかし、その数字に至る道は「信頼のギャップ」によって阻まれています。

2,000社を対象としたマッキンゼー(McKinsey)の調査では、62%がAIエージェントを実験中である一方、ガバナンスへの懸念から3分の2が有意義な展開に移行できていないことが明らかになりました。同様に、Collibraの調査では、**データリーダーの60%**がガバナンスのトレーニングを優先しているものの、正式なプロセスが欠如していることが分かりました。

エージェンティックAI財団を設立することで、OpenAIやCiscoのようなリーダーたちは、企業がハンドルから手を離すことを可能にする「ガードレール」を構築しようとしています。これが成功すれば、2026年は単にAIエージェントの年になるだけでなく、企業が最終的にAIに仕事を任せられるようになる年になるでしょう。

フィーチャー