AI News

Metaは「Meta Compute」を開始:主権的AIインフラ(Sovereign AI Infrastructure)への数千億ドル規模の賭け

人工知能(artificial intelligence)業界にとって決定的な瞬間として、Meta Platformsは公式に「Meta Compute」という新しいトップレベルのイニシアチブを発表しました。これはAIインフラを抜本的に再構築し、攻めの拡大を図るためのものです。CEOのMark Zuckerbergが発表したこの部門は、ソーシャルメディア大手にとって戦略的な転換点を示しており、次の技術パラダイムの物理的な「レール(rails)」を自社で保有することに焦点を移します。今後10年以内に数十ギガワットの計算能力(compute capacity)を展開する計画と、数千億ドル規模に達する投資見込みにより、MetaはZuckerbergが「パーソナル超知能(personal superintelligence)」と呼ぶものの基盤を構築しようとしています。

Meta Computeの始まり

Meta Computeの立ち上げは、Metaの社内運営の大幅な再編を示します。これまでMetaのインフラはFacebook、Instagram、WhatsAppといったアプリ群のニーズに応えてきました。しかし、噂のLlama 4「Behemoth」のような高度なAIモデルのトレーニングと稼働に対する指数関的な需要は、計算スケールに専念する専用の組織を必要としました。

Mark ZuckerbergはThreadsへの投稿でこのイニシアチブを発表し、「我々がこのインフラをどのように設計し、投資し、パートナーシップを結んで構築するかが戦略的優位性になる」と述べました。目標は単にGoogleやMicrosoftのような競合に追随することではなく、エネルギーとハードウェアの独立性を確保することで彼らを上回ることです。

Meta Computeのリーダーシップ体制は、この大きな意志を反映しています。この部門は、長年にわたりGlobal Infrastructureの責任者を務めるSantosh Janardhanと、2025年夏にMetaに参加したSafe Superintelligenceの元CEOであるDaniel Grossが共同で率います。このデュアルリーダーシップモデルは、技術的実行と長期的な容量戦略の計画に焦点を分割します。

Meta Computeのリーダーシップ構成

Executive Role Primary Responsibilities
Santosh Janardhan Co-Head, Meta Compute 技術アーキテクチャ、カスタムシリコン(MTIA)、ソフトウェアスタック、および日々のデータセンターフリート運用。
Daniel Gross Co-Head, Meta Compute 長期的容量戦略、サプライヤーパートナーシップ、業界分析、およびビジネスモデリング。
Dina Powell McCormick President & Vice Chairman 主権および政府とのパートナーシップ、世界的インフラ展開における資金調達と規制整合に注力。

ギガワット規模:インフラの再定義

発表で示された技術仕様は驚異的です。現在の最先端データセンターはメガワット級で稼働していますが、Meta Computeは2030年までに「数十ギガワット」を目指し、長期的には数百ギガワットに到達するビジョンを持っています。比較すると、1ギガワットはおおよそ数十万世帯、あるいはサンフランシスコ市ほどの規模の都市に電力を供給できる程度のエネルギーに相当します。

この拡大はデータセンター設計の根本的な再考を必要とします。Metaは「Prometheus」や「Hyperion」とコードネームが付けられた複数の巨大施設の着工を進めていると報じられています。これらの「タイタンクラスター」は数百万のGPUとMetaの独自MTIA(Meta Training and Inference Accelerator)チップを収容するよう設計されています。

カスタムシリコン(custom silicon)の採用はMeta Computeの戦略の中心です。NVIDIAのようなサードパーティのハードウェアプロバイダへの依存を減らすことで、Metaはサプライチェーンを制御し、ギガワット規模で運用する際に重要な指標であるワット当たり性能を最適化することを目指します。

ビーストに電力を供給する:原子力オプション

おそらくMeta Computeにとって最も重要な課題はエネルギーです。現在の電力網はギガワット級のAIクラスターが要求する局所的な密度を支えることができません。そのため、Metaは独立したエネルギーソリューションを積極的に追求しています。

業界の報告によると、MetaはVistra、TerraPower、Okloを含む原子力エネルギー提供者と予備的な合意を確保しているとされます。これらのパートナーシップは、データセンターサイトの隣接地に小型モジュール炉(Small Modular Reactors, SMRs)を配備し、公的電力網のボトルネックを回避する「ビハインド・ザ・メーター(behind-the-meter)」の発電を実現することを目的としています。

主要インフラ目標

Metric Current Status (Est.) 2030 Target Long-Term Goal
Compute Capacity マルチメガワットクラスター 数十ギガワット 数百ギガワット
Primary Energy Source グリッドミックス(再生可能/化石) グリッド+現地原子力/SMRs(Small Modular Reactors) 主権的エネルギー独立
Hardware Focus 主にNVIDIA H100/Blackwell NVIDIA+カスタムMTIAのハイブリッド カスタムシリコンの優勢
Investment Scale 年間約$35〜40 Billion(資本的支出、CapEx) 年間>$72 Billion 2035年までに合計>$600 Billion

戦略的含意:「コンピュートの堀(Compute Moat)」

Creati.aiの視点から見ると、Metaの動きはAIにおける価値の獲得方法のシフトを意味します。過去10年間、価値はソフトウェアプラットフォームやアグリゲータに蓄積されてきました。しかしAGI(Artificial General Intelligence、汎用人工知能)の時代においては、価値はインフラ層、つまり知能を生み出すために必要な物理資産へと移行しつつあります。

MetaはMeta Computeを作ることで、Zuckerbergが計算力をAWSやAzureのようなクラウドプロバイダーから借りるコモディティではなく、主権的資産と見なしていることを示しています。こうした「主権的コンピュート(sovereign compute)」アプローチにより、Metaは次のことを可能にします:

  1. コスト変動への耐性を確保:AI需要が増大するにつれ、クラウド価格は急騰する可能性があります。スタックを所有することで固定費の優位性を得られます。
  2. オープンソース優位性の実現:Llamaのようなオープンウェイトを公開するMetaの戦略は、閉鎖的な競合を上回るモデルを社内でトレーニングおよびファインチューニングするために巨大な計算力を必要とします。
  3. 「パーソナル超知能(personal superintelligence)」の展開:究極の製品ビジョンは地球上のすべての人にAIエージェントを提供することです。これは現在存在しない規模での推論(inference)実行を必要とします。

財務リスクと市場の懐疑

この投資規模—今後数年で$600 Billionを超えると見込まれる—は、一部の投資家を動揺させています。発表後、Metaの株価は変動しており、資本的支出(CapEx)が短期的にはマージンを圧迫し、即時の収益創出がないままになることへの懸念を反映しています。

MicrosoftやGoogleのようにインフラコストを企業向けクラウド顧客にレンタルして即座に相殺できる企業とは異なり、Metaはその計算力を内部で消費します。これにより、AI駆動の収益ストリーム(ビジネスエージェントや高度なクリエイティブツールなど)が成熟するまで、構築費用を広告事業が支えるという巨大なプレッシャーがかかります。

しかしながら、Dina Powell McCormickの任命は潜在的な二次的収益源を示唆しています:主権的AIです。インフラを持たないが自国のAIモデルを構築したい政府と提携することで、Metaは自社の「Meta Compute」能力をリースし、企業ではなく国を対象とした特化したクラウドプロバイダーになる可能性があります。

結論

Meta Computeは単なる再編ではなく、意図の宣言です。AIの軍拡競争が激化する中で、ボトルネックはデータやアルゴリズムから電力とシリコンへと移行しています。この物理的制約を解決するために数千億を投じることで、Metaは「発電機を持つ者」に未来が属すると賭けているのです。より広いAIエコシステムにとって、これはモデルのスケーリング速度が鈍化しないことを保証します—実際、ギガワット級クラスターが見えてきた今、始まったばかりにすぎません。

フィーチャー