AI News

AI 硬體市場(AI hardware market) 的敘事長期以來一直是由 Nvidia 一個人主導的獨白。多年來,故事很簡單:如果你想要訓練或執行先進的 AI 模型,你就買 H100 或 Blackwell GPU,付更高的價格,然後排隊等候。然而,隨著我們進入 2026 年 2 月,情節出現了轉折。Broadcom,傳統上被視為網路巨頭,實際上已經確立了自己為人工智慧產業的「沉默造王者」,並策動了一場威脅 Nvidia 絕對主導地位的反叛。

透過讓科技巨頭自行打造它們的「大腦」,而不是從貨架上購買,Broadcom 已經開啟了一個「客製化矽晶片(Custom Silicon)」的新時代。重大勝利包括 Google、Meta、ByteDance,以及現在已確認與 OpenAI 的大規模合作案,Broadcom 不僅在與 Nvidia 競爭,還在從根本上改變人工智慧(artificial intelligence)的經濟學。

抗 Nvidia 聯盟的崛起

推動 Broadcom 崛起的主要動力是「超大規模雲端業者轉向(hyperscaler pivot)」。像 Google、Microsoft 與 Meta 這類科技巨頭已經意識到,完全依賴通用 GPU 在大規模部署時在經濟上無法持續。儘管 Nvidia 的晶片極具通用性——能處理從天氣模擬到大型語言模型(LLM)訓練的一切——但這種通用性伴隨著功耗與成本的懲罰。

此時 Broadcom 的 ASICs(Application-Specific Integrated Circuits)登場。與 Nvidia 的一體適用方法不同,Broadcom 與客戶共同設計晶片,並為客戶的特定工作負載進行無情的最佳化。在 2026 年,這一策略已從小眾實驗成熟為定義市場的趨勢。Broadcom 現在掌握了大約 75% 的客製化人工智慧 ASIC 市場,實際上成為產業最強玩家的代工夥伴。

對該模式最重大的驗證來自最近對 OpenAI 合作的確認。透過取得一筆數十億美元的合約來製造 OpenAI 的客製加速器,Broadcom 已經刺入了 Nvidia 最忠實客戶群的核心。此舉表明,即使是 ChatGPT 的創造者也在尋求多樣化供應鏈,並降低對 Nvidia 硬體利潤的依賴。

深入「XPU」生態系

Broadcom 的策略依賴於與一小群大量需求的客戶進行深度整合,這些客戶通常被稱為「XPU」客戶。這份名單讀起來像是全球互聯網界的人物錄:

  • Google (Alphabet):最長期的合作夥伴。Broadcom 已與 Google 共同設計超過七代的 Tensor Processing Units (TPUs)。這些晶片是 Google 的人工智慧基礎設施骨幹,驅動從 Search 到 Gemini 模型的一切。
  • Meta Platforms:Broadcom 打造 Meta Training and Inference Accelerator (MTIA)。隨著 Meta 擴展其 Llama 模型與推薦引擎,這些客製晶片讓 Mark Zuckerberg 的帝國能夠降低資本支出,同時提升吞吐量。
  • ByteDance:TikTok 的母公司使用 Broadcom 設計的矽晶片來處理龐大的推薦演算法,讓數十億用戶持續滑動,同時透過合規的客製設計規避出口限制。

這些關係具有高度黏性。與一次性的 GPU 採購不同,ASIC 設計是一段多年工程上的「婚姻」。一旦超大規模雲端業者圍繞 Broadcom 設計的晶片建構起軟體堆疊,要取代該基礎設施就變得極為困難。

客製化矽晶片與通用 GPU 的經濟學對比

要理解為何產業正在轉變,就必須檢視總擁有成本(TCO)。對於較小的企業,購買 Nvidia GPU 仍然是最合理的路徑,因為它提供彈性。然而,對於部署千兆瓦級計算能力的超大規模雲端業者來說,數學計算會劇烈改變。

下表分解了主導 2026 年市場的兩種方法之間的策略差異:

Feature Nvidia General Purpose GPUs Broadcom Custom ASICs
Primary Focus Versatility and broad software support(CUDA) Efficiency and specific workload optimization
Power Efficiency High power consumption(supports unused features) Maximum efficiency(circuitry only for required tasks)
Cost Structure High upfront margin,lower development effort High NRE(development)cost,low unit cost at scale
Software Ecosystem Proprietary CUDA lock-in Open/Custom software stacks(e.g., PyTorch/JAX)
Supply Chain Control Controlled by Nvidia Controlled by the Hyperscaler(Client)

網路護城河

雖然客製化晶片搶佔了頭條新聞,Broadcom 在網路領域的牢固據點仍是其不為人知的超能力。2026 年的 AI 叢集不只是晶片堆疊;它們是需要在數千個節點之間進行閃電般資料傳輸的大型分散式超級電腦。

Broadcom 的以太網交換解決方案,特別是 Tomahawk 與 Jericho 系列,已成為連接這些 AI 叢集的標準。儘管 Nvidia 推廣其專有的 InfiniBand 技術,產業更廣泛的標準已大致圍繞 Broadcom 所倡導的 Ultra Ethernet 標準建立。

這創造了一個「雙重獲利」的收入來源。即便資料中心使用部分 Nvidia GPU,它們也很可能依賴 Broadcom 的網路設備來運作。如果它們轉向 客製化矽晶片,Broadcom 同時提供運算與連接性。這種多角化保護了 Broadcom 免於經常困擾純半導體公司股票的波動性。

展望:分化的市場

隨著我們更深入 2026 年,AI 硬體市場正朝向二分化發展。Nvidia 仍然是較廣泛市場、企業客戶以及在彈性至關重要的前沿模型初期訓練方面無可爭議的領導者。然而,Broadcom 已鎖定「大規模推理」市場——也就是 AI 模型實際被消費者使用的階段。

對 Creati.ai 的讀者來說,結論很明確:AI 晶片之戰不再是單馬競賽。當 Nvidia 打造產業中的「Ferraris」——高性能、昂貴且令人渴望——Broadcom 正在打造實際承載全球 AI 流量的大眾運輸系統。隨著 OpenAI 合約公開且超大規模雲端業者加倍投注自有矽晶片,Broadcom 的客製化晶片業務有望與 Nvidia 的 GPU 帝國相抗衡,證明有時最危險的競爭者是那個為你的對手打造武器的人。

精選