
OpenAIは正式にAIチップメーカーCerebras Systemsと画期的な合意を締結し、2028年までに合計約100億ドルを投じて750メガワットの計算能力を展開することをコミットしました。この戦略的な動きは、ほぼNvidia一辺倒だった従来の方針からの大きな転換を示しており、次世代の人工知能(artificial intelligence)に必要なハードウェアを確保するためのより広範な多様化戦略を示しています。
この契約は2026年1月中旬に最終化され、非GPU系AIアクセラレータとしてはこれまでで最大級の調達契約の一つを表します。Cerebrasのウェハースケール技術(wafer-scale technology)を統合することで、OpenAIは高度な「推論(reasoning)モデル」の展開における重要なボトルネック、すなわち推論(inference)レイテンシを解消することを目指しています。NvidiaのGPUは巨大な基盤モデルのトレーニングにおいて業界標準であり続けていますが、Cerebrasのアーキテクチャは、ますます複雑化するAIエージェント(AI agents)に要求されるリアルタイム処理に独自の利点を提供します。
長年にわたり、AI業界は「Nvidia-first」パラダイムの下で運営されてきました。H100やBlackwellシリーズのチップはモデル訓練の生命線となっています。しかし、計算需要の爆発的増加、サプライチェーンの制約、急騰するコストにより、OpenAIはマルチベンダーのエコシステムを育成せざるを得なくなりました。
Cerebrasとのこの合意は単発の出来事ではなく、慎重に計算された三本柱のハードウェア戦略の一部です。これは、Nvidiaによる大規模な10ギガワットのインフラコミットメントや、AMDとの6ギガワット展開パートナーシップと相補的に機能します。ハードウェア依存を分散することで、OpenAIは供給不足に対するヘッジを行いつつ、ベンダーごとの特定ワークロードに対するアーキテクチャ上の強みを活用できます。
100億ドルのコミットメントは「キャパシティ対株式(capacity-for-equity)」およびサービスモデルを中心に構成されています。単純にハードウェアを購入するのではなく、OpenAIはCerebrasと長期契約を結び、Cerebrasが専用データセンターでシステムの展開を管理します。展開は段階的に行われ、最初の大規模なキャパシティは2026年末に稼働を始め、2028年までに750メガワットに拡大する予定です。
重要なのは、このパートナーシップがトレーニングではなく推論に大きく焦点を当てている点です。OpenAIがGPT-5のトレーニングから「推論(reasoning)」モデル(たとえばo-series)の展開へ移行するにつれ、推論のコストと速度が最重要事項になりました。個別のチップ間で発生する遅いデータ移動を排除するCerebrasのアーキテクチャは、理論上これらの「思考」モデルが求める超低レイテンシを実現できる態勢にあります。
OpenAIが挑戦的なブランドに100億ドルを賭ける理由を理解するには、アーキテクチャ上の根本的な違いを見る必要があります。従来のGPUクラスタは、ケーブルやスイッチで相互接続された何千もの小さなチップに依存します。データはこれらのチップ間を絶えず移動しなければならず、モデルの応答時間を遅らせるレイテンシの要因となります。
CerebrasはWafer-Scale Engine(WSE-3)という抜本的なアプローチを取ります。シリコンウエハーを数百の個別チップに切り分ける代わりに、Cerebrasはウエハーを一体のまま維持し、皿のような大きさの単一プロセッサを作り上げます。
WSE-3はモノリシックな巨人です。メモリと演算を同一シリコン基板上に統合し、従来のGPU構成をはるかに上回る帯域を提供します。これにより、モデル全体(またはその巨大なレイヤー群)をオンチップ上に保持でき、「脳スケール」のAIモデルをこれまでにない速度で動かすことが可能になります。
主要な技術的差別化要因:
OpenAIのハードウェアポートフォリオは現在、異なる戦略的目的を持つ三大プレイヤーを含んでいます。以下の比較は、CerebrasがNvidiaやAMDと並ぶ広範なエコシステムの中でどのように位置づけられるかを示しています。
OpenAIのハードウェア提携の比較分析
| Vendor | Commitment Scale | Primary Workload Focus | Strategic Value Proposition |
|---|---|---|---|
| Nvidia | 10ギガワット(GW) ~$100Bの投資 |
トレーニングと汎用推論 GPT-5とStargateのバックボーン。 |
実績あるエコシステム: CUDAソフトウェアスタックの支配と大規模トレーニングの確立された信頼性。 |
| AMD | 6ギガワット(GW) | コスト効率の高い推論 ミドルレンジモデルの展開。 |
交渉上のレバレッジとコスト: 価格交渉での有利さを提供し、高ボリュームの標準ワークロードの代替供給源となる。 |
| Cerebras | 750メガワット(MW) ~$10Bの契約 |
低レイテンシ推論 推論(reasoning)モデルとエージェント。 |
速度: 応答時間がユーザーにとって決定的な「思考」モデルにおいて比類なき低レイテンシを提供。 |
この契約は半導体市場に衝撃を与え、将来のAIハードウェアはヘテロジニアスになるという仮説を裏付けます。Cerebrasにとって、これは会社の将来を決定づける勝利です。2024年のIPO撤回や、中東の単一顧客(G42)への依存を巡る懐疑的見方を受けた後、OpenAIからの支持は同社をトップティアのプレイヤーとして事実上確立します。アナリストはこの契約が2026年中頃のCerebrasの成功したIPOへの道を開くと予想しています。
Nvidiaにとって、750MWの契約は10GWのパイプラインの一部に過ぎませんが、高性能AI計算における独占の最初の亀裂を示しています。これはハイパースケーラーが推論分野で特定の性能向上のためにCUDAの堀を迂回する意欲を示しており、推論市場は価値面で最終的にトレーニングを凌駕することが予想されます。
AIモデルが研究室から消費者向け製品へと移行するにつれ、経済的焦点は「訓練コスト」から「トークン(token)あたりのコスト」や「トークン生成までの時間(time to token)」へとシフトします。数秒あるいは数分「考えて」から回答する可能性のある推論(reasoning)モデルは、インタラクションの瞬間に膨大な計算資源を必要とします。CerebrasがGPUクラスタよりも速くこれらのトークンを提供できる能力は、OpenAIが最先端の製品階層でユーザー体験を向上させることを可能にし、即時の複雑解析を必要とするエンタープライズユーザー向けに高いサブスクリプション階層を正当化する可能性があります。
OpenAIのロードマップは「Stargate」と呼ばれる仮説上の1,000億ドル規模のスーパーコンピュータプロジェクトの構築を示唆しています。Stargateのコア訓練クラスタはNvidiaが担うと予想されますが、Cerebrasの採用は施設がハイブリッド環境になることを示唆しています。
将来的には、AIリクエストが動的にルーティングされる光景が予想されます。広く創造的なクエリはNvidiaのH200クラスタへ、標準的な処理はAMD MI450へ、複雑で論理重視の推論タスクはCerebras WSE-3ノードへ、といった具合です。この「専門化されたコンピュート」アプローチは、異なるコアが異なるタスクを処理するCPU市場の進化を反映しており、OpenAIがワットあたりやドルあたりの効率を最大化することを可能にします。
今、750MWの専門的推論能力を確保することで、OpenAIは次世代の推論エージェントが世界に出る準備が整ったときに、それらがリアルタイムで「考える」ためのインフラを確実に備えることになります。