AI News

效率的新時代:微軟轉向推理(Inference)的戰略重心

在重塑人工智慧(AI)經濟格局的果斷舉措中,微軟(Microsoft)正式推出了 Maia 200,這是一款專為大規模推理工作負載設計的客製化 AI 加速器。這款於本週發佈的晶片代表了微軟垂直整合戰略的重大飛躍,超越了過去三年主導行業的以訓練為中心的焦點。Maia 200 擁有 1,400 億個電晶體(Transistors) 並採用台積電(TSMC)3 奈米製程構建的專門架構,其定位不僅僅是硬體升級,更是降低提供生成式 AI(Generative AI)服務飆升成本的關鍵槓桿。

此次發佈凸顯了更廣泛的行業轉型。隨著像 GPT-5.2 這樣的基礎模型變得無處不在,計算負擔正從訓練這些龐大模型轉向「服務」它們——每天為數百萬用戶生成 Token。 Maia 200 正面應對這一挑戰,提供針對現代推理所需的低精度數學優化的 10 PetaFLOPS 計算性能。通過將晶片設計內部化, Microsoft 旨在將其長期營業利潤率與第三方矽供應商的定價權脫鉤,這標誌著公司 AI 基礎設施路線圖進入成熟階段。

矽片內部:架構與規格

Maia 200 是半導體工程的巨獸。該晶片採用尖端的 台積電 3 奈米製程節點 製造,封裝了約 1,400 億個電晶體,這種密度允許在晶粒上實現前所未有的計算和記憶體邏輯整合。與必須平衡訓練和推理能力的通用 GPU 不同,Maia 200 針對後者進行了極致優化。

記憶體層級與頻寬

AI 推理中最關鍵的瓶頸之一是記憶體頻寬(Memory Bandwidth)——數據移動到計算核心的速度。微軟為 Maia 200 配備了 216 GB 的 HBM3e(高頻寬記憶體),提供令人震驚的 7 TB/s 記憶體頻寬。這種海量的影格緩衝區允許即使是最大的大型語言模型(LLMs)也能完全駐留在小型晶片叢集的高速記憶體中,顯著降低延遲。

為了進一步減少數據移動,該架構包含了 272 MB 的片上 SRAM。這充當了巨大的快取,使頻繁訪問的權重和激活數據靠近處理核心。記憶體子系統旨在處理 Transformer 模型的獨特流量模式,確保計算單元在等待數據時很少處於閒置狀態。

計算性能

Maia 200 的頭條數據是其在 FP4(4 位元浮點數)精度下提供超過 10 PetaFLOPS 性能的能力。這種對低精度(特別是 FP4 和 FP8)的關注是一項戰略性設計選擇。研究表明,推理任務可以在不降低模型輸出質量的情況下以較低精度執行。通過在 FP4 上加倍投入,微軟實現了令傳統 FP16 實作相形見絀的吞吐量。

對於稍高精度的需求,該晶片在 FP8 下提供約 5 PetaFLOPS 的性能,使其足以靈活處理從文本生成到複雜推理鏈的廣泛生成任務。

競爭基準測試

在競爭激烈的客製化雲端晶片領域,微軟將 Maia 200 定位為原始吞吐量和效率的領導者。雖然由於軟體生態系統不同,與 NVIDIA 的商業晶片進行直接比較較為複雜,但微軟提供了與其超大規模雲端同行亞馬遜(Amazon)和 Google 的基準測試對比。

根據微軟的技術披露,Maia 200 的表現顯著優於其主要雲端對手推出的最新產品。該晶片的設計理念優先考慮「每美元性能」,這一指標直接影響 Azure AI 服務的盈利能力。

表格:超大規模雲端業者 AI 加速器規格比較

特徵 Microsoft Maia 200 Amazon Trainium3 Google TPU v7
製程技術 TSMC 3nm N/A N/A
FP4 峰值性能 10 PetaFLOPS ~2.5 PetaFLOPS N/A
FP8 峰值性能 ~5 PetaFLOPS ~2.5 PetaFLOPS ~4.6 PetaFLOPS
HBM 容量 216 GB HBM3e 144 GB 192 GB
記憶體頻寬 7 TB/s 4.9 TB/s 7.4 TB/s
電晶體數量 1,400 億 N/A N/A

數據表明,Maia 200 在 4 位元精度性能方面具有決定性優勢,提供的 FP4 吞吐量幾乎是 Amazon Trainium3 的 3 倍。這一優勢對於服務像 GPT-5.2 這樣模型的「Token 經濟學」至關重要,因為生成每個單詞的成本直接影響到利潤。

雲端運算(Cloud Computing)的戰略意義

Maia 200 的推出不僅僅是一項硬體發佈;它是對困擾 AI 行業的供應鏈限制的獨立宣言。通過部署自己的晶片,微軟減少了對 NVIDIA 的依賴,後者的 GPU 一直佔據著高昂的價格和漫長的等待名單。

推理成本

對於 雲端運算 平台的客戶而言,向客製化晶片的轉變承諾了更穩定且可能更低的定價。微軟聲稱,與上一代 Maia 100 相比,Maia 200 提供了 30% 的每美元性能提升。這種效率提升源於晶片的專門化性質;它不帶有通用 GPU 中存在的、訓練或圖形渲染所需功能的「矽稅」。

基礎設施整合

Maia 200 旨在無縫融入微軟現有的 Azure 基礎設施。它採用客製化的基於乙太網路的網路協定,並整合了具備 2.8 TB/s 雙向頻寬 的網路介面卡(NIC)。這允許數千顆 Maia 晶片以低延遲進行通訊,這是運行大到無法放入單台設備的模型的要求。

這些晶片安置在由微軟「Sidekick」系統進行液冷的客製化伺服器機架中,該系統隨 Maia 100 一同推出。這種散熱解決方案允許晶片在 750W 的熱設計功耗(TDP)下運行——僅為某些競爭對手商業晶片的一半——進一步減少了 Azure 資料中心的能源足跡。

部署與生態系統支援

微軟已開始在愛荷華州狄蒙(Des Moines)的美國中部資料中心區域部署 Maia 200 叢集,並計劃擴展到亞利桑那州鳳凰城的美國西部 3 區。這一推廣的直接受益者是微軟的內部工作負載和關鍵合作夥伴。

關鍵部署領域:

  • OpenAI 整合: 該晶片顯著針對 OpenAI 的最新模型進行了優化,包括新提到的 GPT-5.2。這確保了 ChatGPT 和 API 用戶能以更低的運營成本獲得更快的響應。
  • Microsoft 365 Copilot: 由數百萬 Office 用戶查詢 Copilot 產生的海量推理負載將遷移到 Maia 200,從而緩解公司 GPU 隊列的壓力。
  • 合成數據生成: Microsoft Superintelligence 團隊正利用該晶片的高吞吐量生成大量的合成數據,這些數據隨後被用於訓練下一代模型,創造出 AI 開發的良性循環。

為了支援開發者,微軟正在預覽 Maia SDK,其中包含完整的 PyTorch 整合和 Triton 編譯器。該軟體棧旨在降低進入門檻,允許客戶以最小的代碼更改將其模型遷移到 Maia 晶片。

未來展望

Maia 200 的發佈標誌著 AI 行業進入成熟期。「不惜一切代價進行訓練」的時代正在讓位給「大規模推理」的時代,效率、功耗和總體擁有成本是成功的主要指標。

通過成功交付一款在特定推理基準測試中領先同類的 3 奈米、1,400 億個電晶體的晶片,微軟驗證了其對垂直整合的賭注。隨著 AI 晶片(AI Chips) 繼續專業化,為學習設計的硬體與為執行設計的硬體之間的區別只會變得更加鮮明。對於 Azure 客戶和微軟股東而言,Maia 200 代表了將在未來幾年推動人工智慧獲利應用的引擎。

精選