AI News

4700 億美元的賭注:超大規模雲端業者(hyperscalers)在推論(inference)上加碼

隨著 2026 年首個重要的財報季展開,全球最大的科技公司正發出前所未有的訊號,指出在人工智慧(artificial intelligence,AI)上的支出正加速。市場共識現預估,由 Microsoft、Meta、Alphabet 與 Amazon 領頭的 Big Tech「超大規模雲端業者(hyperscalers)」,今年將合計把資本支出(capital expenditures,Capex)推升至超過 $470 billion,較 2025 年估計的 $350 billion 大幅增加。這波激增已不再僅是為了訓練龐大模型;它標誌著一個策略性的轉向,朝向部署運行這些模型所需的規模化基礎設施。

2026 年的敘事已從「打造大腦」轉為「讓大腦發揮作用」。隨著 Apple、Meta、Microsoft 與 Tesla 本週相繼發布財報,投資人正準備面對反映這場龐大基礎設施擴建的最新指引。雖然華爾街對投資報酬率(ROI)仍持謹慎態度,但科技巨頭提供了明確的反駁:對推論(推論)——即 AI 模型實際使用的需求——已超過供給,這需要新一代高效、為目的而生的矽晶片。

Microsoft 以 Maia 200 領先衝鋒

就在財報電話會議前數小時,Microsoft 透過公布 Maia 200 表示其積極立場,這是一款專為推論工作負載設計的第二代 AI 加速器。時機刻意安排,意在安撫投資人,表明公司正處理困擾商用 AI 部署的每 token 成本問題。

Maia 200 採用 TSMC 的先進 3nm 製程(3nm process),相較前代有顯著躍進。雖然 Maia 100 是一款通用的訓練與推論晶片,但 200 系列專注於有效率地執行模型。它具備 140 billion transistors,並配備 216GB of HBM3e memory,提供為大型語言模型(LLMs)低延遲服務所需的龐大頻寬。

新矽晶的關鍵規格揭示了 Microsoft 減少對第三方 GPU 廠商在例行工作負載上依賴的策略:

Microsoft Maia 200 Specifications vs. Industry Standard

Feature Maia 200(2026) Improvement / Metric
Process Technology TSMC 3nm 高密度與高效率
Transistor Count 140 Billion 處理複雜邏輯
Memory Configuration 216GB HBM3e 為大型語言模型提供高頻寬
Primary Use Case Inference 針對執行時最佳化
Performance Claim 30% better Perf/$ 相對於現有機群硬體
Deployment Locations US Central (Iowa), US West 3 策略性低延遲樞紐

Microsoft 宣稱該晶片比 Azure 部署的現有商用矽晶片世代能提供 每美元效能提高 30%(30% better performance-per-dollar)。透過優化 4-bit(FP4)與 8-bit(FP8)精度——這些資料格式對推論已足夠,但比訓練所需的運算力少——Microsoft 目標是大幅降低為 Copilot 與 OpenAI 的 GPT-5.2 模型服務查詢的成本。

推論的大轉移

資本支出的爆發由 AI 生命週期的根本變化所驅動。過去三年,支出以訓練叢集為主導——設計用來教模型「如何思考」的大型超級電腦。到了 2026 年,重點正轉向推論叢集,這些叢集需要回答使用者查詢、生成影像並處理即時資料。

產業分析師指出,訓練通常發生一次(或週期性進行),但每次使用者與 AI 產品互動時都會發生推論。隨著 ChatGPT、Meta AI 與 Apple Intelligence 這類產品的用戶基數成長到數十億人,運算成本呈線性擴張。

Goldman Sachs 已上調其估計,指出 $470 billion 的數字可能偏保守;若企業部門採用生成式 AI(Generative AI)加速,升級情境下支出可望達到 $527 billion。這些支出不僅限於晶片;它涵蓋資料中心架構的全面改造,包括液冷系統、核能電力協議以及為處理密集的推論工作負載而設計的客製化網路設備。

財報週:觀察重點

隨著財報陸續公布,每家超大規模雲端業者都面臨為這些支出合理化的獨特壓力。

  • Meta Platforms: 執行長 Mark Zuckerberg 預料將向投資人更新 Llama 4 與後續版本的基礎設施路線圖。Meta 的策略大量仰賴開放權重模型(open-weights models),這需要龐大的運算能力以維持普及性。分析師將關注 Meta 計畫如何將這龐大佈局貨幣化,可能透過進階廣告工具或企業授權實現。
  • Apple: 隨著 Apple Intelligence 功能在 iPhone 17 系列的全面推出,Apple 正進入伺服端 AI 的角力。與同業不同,Apple 歷來倚重裝置端處理(on-device processing),但新代理人的複雜性要求私有雲端運算(Private Cloud Compute)。隨著 Apple 在全球部署自有晶片伺服器,相關支出預期將激增。
  • Tesla: 集團中的變數,Tesla 的支出分為訓練其全自駕(FSD)模型與建造 Dojo 超級電腦兩部分。市場正密切觀察 Tesla 在 AI 基礎設施 的投資是否終能為其汽車與機器人部門解鎖更高利潤。

投資人情緒:ROI 的最後通牒

儘管技術成就卓越,華爾街的情緒仍是敬畏與焦慮並存。為了在 AI 軍備競賽中競爭,所需的 資本支出 規模正在壓縮自由現金流的利潤率。投資人不再滿足於模糊的「未來能力」承諾;他們要求明確證據,證明這些數十億投入今天就能帶來額外的營收。

像 Maia 200 這類以效率為核心的晶片出現,正是對此焦慮的直接回應。透過降低 AI 的營運成本,超大規模雲端業者希望改善其產品的單位經濟,將高營收的 AI 服務轉變為高利潤的服務。

隨著 2026 年展開,「擁有 AI 資源者」與「缺乏 AI 資源者」之間的差距將擴大。有能力支持半兆美元級基礎設施建置的資產負債表,將定義未來十年的運算版圖;而較小的參與者可能會被完全擠出硬體競賽。眼下,支票簿已開,矽晶片正炙手可熱。

精選