AI News

OpenAI 與 Cerebras 簽署 $10 Billion 合作,開創新局

OpenAI 已正式與 AI 晶片製造商 Cerebras Systems 簽署一項具有里程碑意義的協議,承諾投入約 $10 billion 以在 2028 年前部署 750 兆瓦的計算能力。此一策略性舉措標誌著 OpenAI 擺脫對 Nvidia 幾近獨家的依賴,並顯示出更廣泛的多元化策略,旨在確保下一代人工智慧(AI)所需的硬體。

該交易於 2026 年 1 月中旬定案,代表迄今為止非 GPU AI 加速器領域中最大型的採購合約之一。透過整合 Cerebras 的 晶圓級技術(wafer-scale technology),OpenAI 旨在解決先進「推理」模型(reasoning models)部署中的關鍵瓶頸:推論(inference)延遲。儘管 Nvidia 的 GPU 仍然是訓練(training)大型基礎模型(foundation models)的業界標準,Cerebras 的架構在即時處理方面,對於日益複雜的 AI 代理(agents)有其獨特優勢。

The Strategic Pivot: Diversifying the Supply Chain

多年來,AI 產業一直以「Nvidia 優先」的範式運作,H100 與 Blackwell 系列晶片成為模型訓練的命脈。然而,計算需求呈指數成長,再加上供應鏈限制與成本飆升,已迫使 OpenAI 培養多供應商的生態系統。

與 Cerebras 的這項協議不是孤立事件,而是精心規劃的三方硬體策略的一部分。它補足了 OpenAI 現有的路線圖,其中包括來自 Nvidia 的大規模 10 吉瓦(Gigawatts, GW)基礎設施承諾,以及與 AMD 的 6 吉瓦部署合作。透過分散硬體依賴,OpenAI 有效對沖供應短缺風險,同時利用不同供應商在特定工作負載上的架構優勢。

Unpacking the Deal Structure

這筆價值 $10 billion 的承諾採取「產能換股權(capacity-for-equity)」與服務模式構成。OpenAI 並非單純購買硬體,而是簽訂長期合約,由 Cerebras 負責在專屬資料中心部署其系統。部署將分階段進行,首批實質產能預計在 2026 年底上線,並在 2028 年前擴增至完整的 750 兆瓦。

關鍵在於,這項夥伴關係高度聚焦於 推論(inference)——即執行線上模型以生成回應的過程,而非訓練。隨著 OpenAI 從訓練 GPT-5 轉向部署「推理」模型(例如 o-series),推論的成本與速度已成為關鍵。Cerebras 的架構透過消除晶片間緩慢的資料移動,理論上能提供這些「思考」模型所需的超低延遲。

Technical Deep Dive: The Wafer-Scale Advantage

要理解為何 OpenAI 會在一個挑戰者品牌上押注 $10 billion,必須看出架構上的根本差異。傳統 GPU 叢集依賴數千顆小型晶片,透過纜線與交換器互連。資料必須在這些晶片間不斷移動,導致延遲懲罰,進而拖慢模型回應時間。

Cerebras 採取激進的方式,其 Wafer-Scale Engine(WSE-3)便是例證。Cerebras 並非將矽晶圓切割成數百顆個別晶片,而是保留晶圓完整,打造一顆如同餐盤般大小的單一處理器。

WSE-3 vs. Traditional Architectures

WSE-3 是一顆整塊的強力處理器。它在同一矽晶片基底上整合記憶與運算,提供遠超傳統 GPU 的頻寬。這使得整個模型(或其龐大層級)可以駐留於晶片上,讓「腦規模」AI 模型以過去難以企及的速度運行。

關鍵技術差異:

  • 零複製記憶(Zero-Copy Memory): 資料不需在外部記憶體與處理器之間移動,顯著降低延遲。
  • SRAM 優勢(SRAM Dominance): 該晶片使用 44GB 的片上 SRAM,速度比 GPU 使用的 HBM(High Bandwidth Memory)快數個量級。
  • 高度互連密度(Interconnect Density): 由於核心位於同一晶圓上,核心間的通訊幾乎是即時的,繞過了 PCIe 或 Ethernet 纜線的瓶頸。

The Hardware Wars: A Comparative Analysis

OpenAI 的硬體組合如今包含三大主要供應商,各自扮演明確的策略角色。以下比較說明了 Cerebras 在與 Nvidia 及 AMD 並存的更廣生態系中的定位。

Comparative Analysis of OpenAI's Hardware Partnerships

Vendor Commitment Scale Primary Workload Focus Strategic Value Proposition
Nvidia 10 Gigawatts (GW)
~$100B Investment
Training & General Inference
The backbone of GPT-5 and Stargate.
Proven Ecosystem: CUDA software stack dominance and established reliability for massive training runs.
AMD 6 Gigawatts (GW) Cost-Effective Inference
Mid-tier model deployment.
Leverage & Cost: Provides leverage in pricing negotiations and a secondary supply for high-volume, standard workloads.
Cerebras 750 Megawatts (MW)
~$10B Deal
Low-Latency Inference
Reasoning models & Agents.
Speed: Unmatched latency for "thinking" models where response time is the critical user metric.

Market Implications

此項交易向半導體市場投下震撼彈,驗證了未來 AI 硬體將走向異構化(heterogeneous)的論點。對 Cerebras 而言,這是一場定義公司地位的勝利。繼 2024 年撤回的 IPO 嘗試以及外界對其對單一中東客戶(G42)依賴的質疑後,OpenAI 的背書實質上鞏固了其頂級廠商的地位。分析師預期此交易將為 Cerebras 在 2026 年中順利上市鋪路。

對 Nvidia 而言,雖然 750MW 的交易只是其 10GW 管線的一小部分,但這代表其在高端 AI 運算上的壟斷出現首個裂縫。此舉表明超大規模雲端服務商願意為了在推論方面獲得特定性能優勢而繞過 CUDA 的護城河——而推論市場預計最終在價值上會超越訓練。

The Shift to Inference Economics

當 AI 模型從研究實驗室走向消費產品時,經濟重心將從「訓練成本」轉向「每 token 成本」與「每 token 時間」。推理模型可能在回答前「思考」數秒或數分鐘,這要求在互動瞬間投入巨量算力。Cerebras 能比 GPU 叢集更快地交付這些 token,使 OpenAI 能改善其最高階產品的使用者體驗,並可能為需要即時複雜分析的企業用戶合理化更高的訂閱價格。

Future Outlook: The Road to Stargate

OpenAI 的路線圖指向名為「Stargate」的假設性 1000 億美元超級電腦計畫。雖然預期 Nvidia 將為 Stargate 的核心訓練叢集提供動力,但引入 Cerebras 表明該設施很可能會是混合型環境。

我們可以預見未來一個 AI 請求將被動態路由的情境:廣泛且具創意的查詢可能導向 Nvidia H200 叢集;標準處理分配給 AMD MI450s;而複雜、重邏輯的推理任務則交由 Cerebras WSE-3 節點處理。這種「專用運算」的做法類似 CPU 市場的演進,不同核心各司其職,確保 OpenAI 在每瓦與每美元的效率上達到最大化。

透過現在就確保 750MW 的專用推論算力,OpenAI 正在確保當下一代推理代理準備好面向世界時,基礎設施也已到位,能讓它們以即時的速度進行思考。

精選