AI News

Intel 在 AI 野心上的策略性轉向

為了在快速演進的人工智慧領域重新校準其地位,Intel 執行長 Lip‑Bu Tan 宣布任命一位新的首席架構師,來領導公司 GPU 開發部門。此項高調的聘任代表了 Intel 策略上的重大轉變,旨在從像 Nvidia 與 AMD 這類主導者中奪回市佔。該公告於週二的產業簡報會中提出,並伴隨著 Tan 對全球供應鏈的嚴峻警告:記憶體晶片短缺,特別是對 AI 工作負載至關重要的高頻寬模組,預計至少會持續到 2028 年。

對產業觀察者與利害關係人而言,此一發展象徵 Intel 強烈承諾要修正過去的架構失誤,並在 AI 加速器市場建立可行的第三支柱。隨著生成式AI(Generative AI)模型的需求持續擴大,先進邏輯矽晶片與記憶體可得性之間的相互作用,已成為本世代決定性的瓶頸。

追逐 GPU 主導地位

新任首席架構師的任命——其身分凸顯出對統一記憶體架構與可擴展運算結構的關注——不僅僅是人事變動;這是一項意向聲明。多年間,Intel 一直難以統一其分散的圖形 IP,在整合式顯示核心的傳承與追求高效能運算(HPC)主導地位之間擺盪。在 Lip‑Bu Tan 的領導下,公司正在簡化其路線圖,將重心集中於資料中心 AI 市場。

彌補與 Nvidia 與 AMD 的差距

Intel 新的 GPU 領導面臨的挑戰極為龐大。Nvidia 目前憑藉其 CUDA 軟體生態系統與深植的硬體安裝基底,在 AI 訓練市場握有一大把優勢。與此同時,AMD 透過其 Instinct 系列成功切出一塊市場,以每美元原始效能的競爭力聞名。

Intel 的策略似乎倚重兩個關鍵因素:

  1. 軟體互通性: 超越 OneAPI,確保能與像 PyTorch 與 TensorFlow 等主流機器學習框架無縫整合,降低開發者從 CUDA 遷移的摩擦。
  2. 架構效率: 著重於推論工作負載,因為每個 token 的成本與能源效率為關鍵,而非僅追逐極限訓練效能。

透過將 GPU 工作整合到一位具有遠見的架構師之下,Intel 旨在消除先前延誤「Falcon Shores」及後續架構發布的內部摩擦。目標是交付一個一致的矽基平台,能滿足兆級參數模型(trillion‑parameter models)所需的大規模平行運算需求。

迫在眉睫的記憶體瓶頸:2028 年預測

雖然領導階層重組帶來一線樂觀,但執行長 Lip‑Bu Tan 對記憶體市場的評論,為產業的短期成長投下了長長陰影。Tan 明確警告,先進記憶體晶片——特別是高頻寬記憶體(High Bandwidth Memory,HBM)與次世代 DRAM——的短缺,將在 2028 年之前持續成為 AI 產業的關鍵制約。

為何高頻寬記憶體(HBM)如此重要

在生成式AI(Generative AI)時代,記憶體頻寬常常比原始運算能力更為重要。大型語言模型(Large Language Models,LLMs)需要以極快速度將大量資料餵入處理核心。若記憶體無法跟上,GPU 將閒置,浪費能源與時間。這種現象被稱為「記憶體牆(memory wall)」,也驅動了對 HBM3e 與 HBM4 模組的龐大需求。

Tan 的預測暗示,儘管像 SK Hynix、Samsung 與 Micron 這類記憶體製造商投入了大量資本支出,供應鏈仍難以快速擴張以滿足超大規模雲端業者的指數型需求。HBM 的製造複雜度在於要垂直堆疊多片 DRAM die,並以穿矽通孔(Through‑Silicon Vias,TSVs)互連,這導致了漫長的交付期與良率挑戰。

短缺的主要驅動因素:

  • 封裝產能: 全球先進封裝產能(如 CoWoS(Chip‑on‑Wafer‑on‑Substrate))稀缺,而這類產能是將 GPU 與 HBM 堆疊融合所必需的。
  • 良率率: 堆疊 12 層或 16 層 DRAM 的複雜性,導致比標準記憶體更低的生產良率。
  • 超大規模業者囤貨: 主要科技公司提前多年預訂產能,留下的供應給更廣泛市場的份額有限。

比較分析:AI 加速器格局

為了理解 Intel 所面臨挑戰的深度及 記憶體短缺 的背景,截至 2026 年初,將主要半導體業者的現況做比較是必要的。下表概述了這三大晶片製造商的策略重點與所面臨的限制。

市場地位與策略限制(2026)

Feature Intel Nvidia AMD
Primary AI Strategy 成本導向的推論與開放生態系統 頂級訓練效能與專有 CUDA 壕溝 價值導向的訓練/推論與 ROCm 開放原始碼
Memory Architecture 著重提升 HBM 每瓦效能 積極採用最快可得的 HBM(HBM4) 透過 Infinity Fabric 連結提供具競爭力的 HBM 容量
Supply Chain Status 預計至 2028 年將持續嚴重受限 優先取得供應,但仍受累於積壓訂單 供應相對平衡,採用雙源製造以分散風險
Software Approach 透過 UXL Foundation 採取開放原始碼策略 封閉生態系(CUDA)主導 開放原始碼(ROCm),且開發者支持逐漸增加
Key Challenge 恢復對路線圖執行的信任 應對反壟斷審查與主權 AI 限制 將軟體生態系擴展至匹配硬體規格

對 AI 基礎建設生態系的影響

Lip‑Bu Tan 的雙重公告為資料中心營運者與 AI 開發者勾勒出一幅複雜圖景。一方面,Intel 對 GPU 架構的重新聚焦有望為市場引入更多競爭,長期可能降低硬體成本;另一方面,預測中的記憶體短缺表示未來兩年可用運算總量仍將受到上限限制。

對資料中心擴建的影響

對於規劃建立 AI 資料中心的公司來說,「2028」時間線已成為一個重要的規劃指標。基礎設施擴張計畫現在必須考量延長的交期。我們很可能會看到架構設計的轉變,開發者優化較小模型(SLMs)以在記憶體需求較低的硬體上運行,盡可能繞過 HBM 瓶頸。

此外,Intel 的警告也印證了近來「主權矽晶片(sovereign silicon)」的趨勢,例如 Amazon(Trainium/Inferentia)、Google(TPU)與 Microsoft(Maia)等雲端供應商自主開發自有晶片。透過掌握自家設計,這些公司可以為其特定工作負載量身打造記憶體配置,雖然它們仍然依賴相同的全球記憶體供應鏈。

半導體在經濟安全上的角色

記憶體短缺的持續突顯了全球半導體供應鏈的脆弱性。隨著 AI 晶片 成為數位經濟的新「石油」,無法取得足夠的記憶體將對國家經濟競爭力構成風險。Tan 關於 2028 年時間表的透明度,或可被視為向各國政府示警,呼籲加速補助並支持國內記憶體製造與先進封裝設施的建設。

結論:Intel 的艱鉅挑戰

Intel 任命新的 GPU 首席架構師,是穩定其矽路線圖所需的必要且正向一步。在 Lip‑Bu Tan 的領導下,公司正擺脫傳統包袱,並針對 AI 時代的特定需求下手。然而,策略無法在一夕之間克服物理法則或供應鏈現實。

記憶體短缺可能持續到 2028 年的警示,為整個產業敲響了現實警鐘。雖然 Intel 正定位自己以與 Nvidia 與 AMD 競爭,但這三大巨頭最終都受制於驅動其處理器的記憶體模組可得性。對 Creati.ai 的讀者與更廣泛的科技社群而言,訊息很清楚:硬體革命仍在進行,但部署速度將不僅由矽創新決定,還取決於業界是否能突破記憶體牆。在展望本世代後半段時,勝出者將是能在資源受限的環境中設計出高效解決方案者。

精選