
人工知能(artificial intelligence)業界にとって決定的な瞬間として、Meta Platformsは公式に「Meta Compute」という新しいトップレベルのイニシアチブを発表しました。これはAIインフラを抜本的に再構築し、攻めの拡大を図るためのものです。CEOのMark Zuckerbergが発表したこの部門は、ソーシャルメディア大手にとって戦略的な転換点を示しており、次の技術パラダイムの物理的な「レール(rails)」を自社で保有することに焦点を移します。今後10年以内に数十ギガワットの計算能力(compute capacity)を展開する計画と、数千億ドル規模に達する投資見込みにより、MetaはZuckerbergが「パーソナル超知能(personal superintelligence)」と呼ぶものの基盤を構築しようとしています。
Meta Computeの立ち上げは、Metaの社内運営の大幅な再編を示します。これまでMetaのインフラはFacebook、Instagram、WhatsAppといったアプリ群のニーズに応えてきました。しかし、噂のLlama 4「Behemoth」のような高度なAIモデルのトレーニングと稼働に対する指数関的な需要は、計算スケールに専念する専用の組織を必要としました。
Mark ZuckerbergはThreadsへの投稿でこのイニシアチブを発表し、「我々がこのインフラをどのように設計し、投資し、パートナーシップを結んで構築するかが戦略的優位性になる」と述べました。目標は単にGoogleやMicrosoftのような競合に追随することではなく、エネルギーとハードウェアの独立性を確保することで彼らを上回ることです。
Meta Computeのリーダーシップ体制は、この大きな意志を反映しています。この部門は、長年にわたりGlobal Infrastructureの責任者を務めるSantosh Janardhanと、2025年夏にMetaに参加したSafe Superintelligenceの元CEOであるDaniel Grossが共同で率います。このデュアルリーダーシップモデルは、技術的実行と長期的な容量戦略の計画に焦点を分割します。
Meta Computeのリーダーシップ構成
| Executive | Role | Primary Responsibilities |
|---|---|---|
| Santosh Janardhan | Co-Head, Meta Compute | 技術アーキテクチャ、カスタムシリコン(MTIA)、ソフトウェアスタック、および日々のデータセンターフリート運用。 |
| Daniel Gross | Co-Head, Meta Compute | 長期的容量戦略、サプライヤーパートナーシップ、業界分析、およびビジネスモデリング。 |
| Dina Powell McCormick | President & Vice Chairman | 主権および政府とのパートナーシップ、世界的インフラ展開における資金調達と規制整合に注力。 |
発表で示された技術仕様は驚異的です。現在の最先端データセンターはメガワット級で稼働していますが、Meta Computeは2030年までに「数十ギガワット」を目指し、長期的には数百ギガワットに到達するビジョンを持っています。比較すると、1ギガワットはおおよそ数十万世帯、あるいはサンフランシスコ市ほどの規模の都市に電力を供給できる程度のエネルギーに相当します。
この拡大はデータセンター設計の根本的な再考を必要とします。Metaは「Prometheus」や「Hyperion」とコードネームが付けられた複数の巨大施設の着工を進めていると報じられています。これらの「タイタンクラスター」は数百万のGPUとMetaの独自MTIA(Meta Training and Inference Accelerator)チップを収容するよう設計されています。
カスタムシリコン(custom silicon)の採用はMeta Computeの戦略の中心です。NVIDIAのようなサードパーティのハードウェアプロバイダへの依存を減らすことで、Metaはサプライチェーンを制御し、ギガワット規模で運用する際に重要な指標であるワット当たり性能を最適化することを目指します。
おそらくMeta Computeにとって最も重要な課題はエネルギーです。現在の電力網はギガワット級のAIクラスターが要求する局所的な密度を支えることができません。そのため、Metaは独立したエネルギーソリューションを積極的に追求しています。
業界の報告によると、MetaはVistra、TerraPower、Okloを含む原子力エネルギー提供者と予備的な合意を確保しているとされます。これらのパートナーシップは、データセンターサイトの隣接地に小型モジュール炉(Small Modular Reactors, SMRs)を配備し、公的電力網のボトルネックを回避する「ビハインド・ザ・メーター(behind-the-meter)」の発電を実現することを目的としています。
主要インフラ目標
| Metric | Current Status (Est.) | 2030 Target | Long-Term Goal |
|---|---|---|---|
| Compute Capacity | マルチメガワットクラスター | 数十ギガワット | 数百ギガワット |
| Primary Energy Source | グリッドミックス(再生可能/化石) | グリッド+現地原子力/SMRs(Small Modular Reactors) | 主権的エネルギー独立 |
| Hardware Focus | 主にNVIDIA H100/Blackwell | NVIDIA+カスタムMTIAのハイブリッド | カスタムシリコンの優勢 |
| Investment Scale | 年間約$35〜40 Billion(資本的支出、CapEx) | 年間>$72 Billion | 2035年までに合計>$600 Billion |
Creati.aiの視点から見ると、Metaの動きはAIにおける価値の獲得方法のシフトを意味します。過去10年間、価値はソフトウェアプラットフォームやアグリゲータに蓄積されてきました。しかしAGI(Artificial General Intelligence、汎用人工知能)の時代においては、価値はインフラ層、つまり知能を生み出すために必要な物理資産へと移行しつつあります。
MetaはMeta Computeを作ることで、Zuckerbergが計算力をAWSやAzureのようなクラウドプロバイダーから借りるコモディティではなく、主権的資産と見なしていることを示しています。こうした「主権的コンピュート(sovereign compute)」アプローチにより、Metaは次のことを可能にします:
この投資規模—今後数年で$600 Billionを超えると見込まれる—は、一部の投資家を動揺させています。発表後、Metaの株価は変動しており、資本的支出(CapEx)が短期的にはマージンを圧迫し、即時の収益創出がないままになることへの懸念を反映しています。
MicrosoftやGoogleのようにインフラコストを企業向けクラウド顧客にレンタルして即座に相殺できる企業とは異なり、Metaはその計算力を内部で消費します。これにより、AI駆動の収益ストリーム(ビジネスエージェントや高度なクリエイティブツールなど)が成熟するまで、構築費用を広告事業が支えるという巨大なプレッシャーがかかります。
しかしながら、Dina Powell McCormickの任命は潜在的な二次的収益源を示唆しています:主権的AIです。インフラを持たないが自国のAIモデルを構築したい政府と提携することで、Metaは自社の「Meta Compute」能力をリースし、企業ではなく国を対象とした特化したクラウドプロバイダーになる可能性があります。
Meta Computeは単なる再編ではなく、意図の宣言です。AIの軍拡競争が激化する中で、ボトルネックはデータやアルゴリズムから電力とシリコンへと移行しています。この物理的制約を解決するために数千億を投じることで、Metaは「発電機を持つ者」に未来が属すると賭けているのです。より広いAIエコシステムにとって、これはモデルのスケーリング速度が鈍化しないことを保証します—実際、ギガワット級クラスターが見えてきた今、始まったばかりにすぎません。