
人工知能(Artificial Intelligence:AI)が実験的なソフトウェアから重工業的なインフラへと移行することを象徴する決定的な動きとして、Meta Platformsは、今年度の設備投資計画を600億ドルから650億ドルという驚異的な規模にすることを発表しました。CEOのマーク・ザッカーバーグ(Mark Zuckerberg)が主導するこの発表は、次世代モデル「Llama 4」のトレーニングと展開をサポートするために、マンハッタンに匹敵する敷地面積を持つ単一のデータセンター・キャンパスを含む、世界最大級のコンピューティング施設の建設戦略を概説しています。
この投資は、シリコンバレーを席巻している「コンピューティング軍拡競争」の劇的な激化を象徴しています。Metaは、前年度の年間設備投資額をほぼ倍増させることで、単なるソーシャルメディアの巨大企業としてではなく、未来の汎用人工知能(Artificial General Intelligence)(AGI)を支える基盤インフラ・プロバイダーとしての地位を明確に確立しようとしています。この支出規模は、事実上の宣戦布告であり、Google、Microsoft、OpenAIなどの競合他社に対し、主権国家の国防予算に匹敵するレベルの投資に追随するよう突きつけています。
ザッカーバーグの発表の目玉は、2ギガワット(GW)以上の電力容量を処理できるように設計されたハイパースケール・データセンターの建設です。この数値を比較すると、1 GWは概ね750,000世帯に電力を供給するのに必要なエネルギーに相当します。2 GW規模の施設は商業技術部門では前例がなく、地域の電力網を不安定にすることなく稼働させるために、原子力や大規模な再生可能エネルギー・アレイを含む専用のエネルギー契約が必要になる可能性があります。
ザッカーバーグはこの施設を「マンハッタン・サイズ」と表現しました。この比較は物理的な面積だけでなく、重要なインフラの密度も指しています。この施設には、Metaが年内に稼働を予定している130万個のGPUの大部分が収容される見込みです。
このインフラの転換は、AGI開発が直面している主要なボトルネックであるエネルギーと熱密度に対処するものです。Llama 4のようなモデルのパラメータ数が指数関数的に増加するにつれて、冷却と電力供給によって制約される現在のデータセンター設計の物理的な限界が明らかになっています。Metaの新しい施設は、汎用的なクラウドコンピューティングではなく、ハイパフォーマンスAIワークロードに完全に最適化されたカスタムスタックを構築することで、この問題を解決することを目指しています。
この大規模な資金投入は、Metaの次期フロンティアモデルであるLlama 4のトレーニングと推論のニーズに直結しています。Llama 3はオープンウェイトモデルの新しい基準を打ち立てましたが、Llama 4は、これまでにない深さでマルチモーダル(Multimodal)な理解が可能な推論エンジンとして位置付けられています。
業界アナリストは、Llama 4が数兆規模のパラメータにスケールされた混合専門家(Mixture-of-Experts:MoE)アーキテクチャを採用する可能性が高く、Metaが現在構築している大規模なGPUクラスターが必要になると示唆しています。戦略的な目標は依然として明確です。最も強力なAIモデルをオープン(またはセミオープン)にすることで、Metaはコア技術をコモディティ化し、OpenAIやAnthropicのようなクローズドソースの競合他社の独自ビジネスモデルを切り崩そうとしています。
Llama 4と前世代モデルの予測能力比較
| 機能/指標 | Llama 3(前世代) | Llama 4(予測/目標) | 戦略的インパクト |
|---|---|---|---|
| パラメータ規模 | 70B / 405B Dense | >1兆 (MoE) | 複雑な推論や長期的な計画タスクを可能にする。 |
| コンテキストウィンドウ | 128k トークン | 100万トークン以上 | 1つのプロンプトでコードベース全体や法律アーカイブの処理を可能にする。 |
| マルチモーダル性 | テキスト/画像が別個 | ネイティブ・オムニモーダル | ビデオ、オーディオ、テキストを同時にシームレスに理解。 |
| 推論コスト | 標準的なH100価格 | スケールに合わせて最適化 | Metaエコシステム内での採用を促進するため、トークンあたりのコストを低減。 |
Metaが蓄積しているハードウェアの純粋なボリュームは、いくら強調してもしすぎることはありません。NVIDIA H100や最新のBlackwell B200シリーズを中心とした130万個のGPU在庫を目標とすることで、Metaは「コンピューティングの堀(Compute Moat)」を確保しています。現在の半導体サプライチェーンにおいて、GPUは最も希少な資源です。このキャパシティを独占することで、Metaは、数千個のチップを数週間にわたって並列稼働させる必要がある実験に対して、研究者がコンピューティングリソースに制限なくアクセスできる体制を整えています。
この備蓄は防御的な目的も果たします。たとえ競合他社が優れたアルゴリズム・アーキテクチャを開発したとしても、妥当な期間内にそれをトレーニングするために必要な生の浮動小数点演算(FLOPS)が不足する可能性があります。Metaの戦略は、コンピューティングの総力と、Facebook、Instagram、WhatsAppから得られる膨大なデータセットの組み合わせに依存しています。
この650億ドルの支出に対する投資利益率(Return on Investment:ROI)は、消費者の採用を前提としています。ザッカーバーグは、Meta AIを通じて10億人以上のユーザーにサービスを提供するという目標を再確認しました。MicrosoftがCopilotを企業向けの生産性向上ツールとして販売し、OpenAIがChatGPTのサブスクリプションに依存しているのに対し、Metaの戦略は「ユビキタス(遍在性)」にあります。
Llama 4をWhatsApp、Messenger、Instagramの検索バーやチャットインターフェースに直接統合することで、Metaは世界中のインターネット接続人口の半分に自社のAIアシスタントを提供します。「マンハッタン」データセンターは、これら数十億件の日常的なクエリの推論負荷を処理することになります。これは、低レイテンシと膨大なスループットを必要とする偉業です。
消費者戦略の主な柱は以下の通りです:
金融市場は、驚嘆と不安が入り混じった反応を示しています。野心は否定できませんが、短期的な利益率を重視する投資家にとって、その価格は懸念材料です。650億ドルの設備投資(Capital Expenditure:CaPex)はフリーキャッシュフローを大幅に抑制し、AI部門がコストセンター(費用部門)ではなく、いつ独立した収益源になるのかという疑問を投げかけています。
しかし、技術的な観点から、Creati.aiのアナリストはこれを必要な進化であると見ています。フロンティアモデルを「余剰」能力でトレーニングする時代は終わりました。私たちは、特殊化されたギガワット規模のAI鋳造所(ファウンドリ)の段階に入ったのです。Metaが今、資本を投じる姿勢を見せていることは、かつてMicrosoftがPC時代を支配し、Googleがウェブを支配したように、AI時代のオペレーティングシステムとしての地位を確保することに繋がるかもしれません。
2026年に向けて、米国での建設状況とLlama 4のリリースは、シリコンと鉄鋼へのこの大規模な賭けが、ザッカーバーグの約束するデジタル知能を生み出すかどうかの真の試金石として、業界から注目されることになるでしょう。