AI News

達沃斯 2026:分散式智慧(Distributed Intelligence)的不可避免轉向

當全球科技菁英齊聚雪峰之上的達沃斯,參加 2026 年世界經濟論壇時,討論已從「人工智慧的可能性」轉向其「可持續性」。在有關經濟分化與地緣政治韌性的高層對話中,有一個聲音以明確的技術與策略主張脫穎而出:Arm 執行長 Rene Haas。

在一系列高調露面中,包括關於 AI 可持續性的座談,以及與 Financial Times 的專訪,Haas 闡明了產業的一個關鍵轉變。以集中式、僅在雲端進行訓練與推論的人工智慧(Artificial Intelligence,AI)時代正接近一個實際的物理極限——由能源消耗、用水量與記憶體頻寬定義。Haas 認為,下一個前沿在於「分散式智慧」,一種運算能力從龐大資料中心往網路邊緣遷移的範式,驅動新一代的「實體化人工智慧(Physical AI)」。

這個轉向不僅僅是偏好,而是必要。正如 Haas 對與會者直言,當前集中式 AI 運算的軌跡「長期來看無法持續」。對 Creati.ai 而言,這對我們長期觀察到的半導體領域以邊緣為中心的未來,是一個重要的驗證。

可持續性的瓶頸:為何雲端無法負荷

過去十年,AI 的敘事由規模主導——更大的模型、更大的資料集,以及雲端超大規模資料中心中指數成長的 GPU 叢集。然而,達沃斯 2026 的討論披露了這種方式在環境與物流上的代價。

Haas 強調,幾乎所有有意義的 AI 處理今天都發生在雲端。這種集中造成了巨大的能源足跡。資料中心現在在電力上與城市競爭,其為冷卻所需的用水已成為關鍵的環境議題。

「達沃斯 2026 的對話突顯出,AI 的未來不僅由規模定義,更取決於那個規模如何被智慧地提供,」Haas 評論道。他主張,繼續把每一個來自智慧手錶或監視器的請求都回傳到伺服器農場是低效率且愈來愈不可行。解方是將推論任務推到裝置端,讓 AI 的成長與線性能源成長脫鉤——包括智慧型手機、車輛、工業感測器,以及新興的具身人工智慧(embodied AI)類別。

邊緣人工智慧(Edge AI)之曙光:「遊戲尚未開始」

儘管「AI 啟用」的裝置在消費者行銷中無所不在,Haas 認為產業距離真正的邊緣智慧仍在起跑線上。「相較於在邊緣裝置上執行人工智慧而言,遊戲尚未開始,」他在一場座談中指出。

Haas 所畫的區別在於執行簡單、預先訓練模型與在本地執行複雜且具情境感知的推論之間。真正的邊緣人工智慧需要裝置能在不依賴穩定網路連線的情況下,實時處理多模態資料——視覺、音訊與感測輸入。

此一轉變有望釋放三項關鍵優勢:

  1. 延遲(Latency): 對於自動駕駛或工業機器人等安全關鍵應用,能立即處理。
  2. 隱私(Privacy): 敏感的個人或生物識別資料保留在裝置上,而非傳輸到雲端。
  3. 頻寬(Bandwidth): 在資料來源端過濾,減輕全球網路基礎設施的壓力。

然而,要實現此願景,需要從硬體設計進行根本性 rethink。Haas 用一個鮮明的類比描述當前硬體週期的落後:產業常常「用 2022 年的設計在 2025 年射擊冰球」。AI 演算法的快速演進意味著,當一顆晶片到市場時,它原本為之設計的工作負載可能已經改變。

克服記憶體牆

Haas 在達沃斯的一再交流中提到一個重複出現的主題——「記憶體牆」——即處理器速度超越記憶體供給資料能力的瓶頸。隨著 AI 模型擴大,記憶體頻寬往往比原始運算 FLOPS(浮點運算次數)更常成為效能與效率的限制因素。

與達沃斯討論同步,Haas 稱讚 Micron 本週於紐約動工的新型大型晶圓廠。他指出該設施是半導體生態系統的一大進展,並明確將其與 AI 挑戰聯繫起來。「隨著 AI 擴展,記憶體頻寬與系統層級的創新正成為從雲端到邊緣下一代運算的基礎,」Haas 表示。

此一夥伴關係凸顯 Arm 與記憶體供應商密切合作的策略,以確保未來的系統單晶片(System-on-Chips,SoCs)擁有在電池供電裝置上本地執行大型語言模型(Large Language Models,LLMs)所需的吞吐量。

架構演進:從雲端到實體化人工智慧

Arm 在生態系中的獨特位置——從驅動世界最強大的超級電腦 Fugaku 到最小的智慧恆溫器微控制器——讓它能以整體觀察這個分散未來。Haas 引介了「實體化人工智慧(Physical AI)」的概念,作為物聯網(IoT)下一階段的演進。

實體化人工智慧指的是直接與物理世界互動、根據即時環境資料做出複雜決策的系統。這包括:

  • 物流領域的自主行動機器人(Autonomous Mobile Robots,AMRs)
  • 動態管理車流的智慧城市基礎設施
  • 作為主動健康監測器的次世代穿戴裝置

為支持這些應用,Arm 倡議採用異質運算架構。這涉及專門的神經處理單元(Neural Processing Units,NPUs)與 CPU、GPU 協同作業,並共享統一記憶體架構以最小化能源浪費。

比較分析:集中式 vs. 分散式 AI

為了理解 Haas 所提出轉變的規模,比較目前以雲端為中心的模型與 2030 年願景中的分散式模型是有幫助的。

Table 1: The Shift from Cloud to Edge Architecture

Metric Centralized Cloud AI Distributed Edge AI
Primary Compute Location Hyperscale Data Centers On-Device (NPU/CPU/GPU)
Energy Profile High (Transmission + Cooling + Compute) Low (Optimized Silicon, Minimal Transmission)
Data Privacy Data leaves user control (Third-party storage) Data remains on-device (Local processing)
Latency Variable (Network dependent, >50ms) Real-time (<5ms)
Cost Model Recurring (API calls, subscription) Upfront (Device hardware cost)
Sustainability High water/carbon intensity Distributed energy load

(註:表格標題與欄位標示保留英文原文以維持技術用語精準性。)

產業行動呼籲

Arm 在達沃斯傳遞的總體訊息是急迫感。「靠丟更多 GPU 解決問題」的「簡單」AI 成長時代已結束。下一階段需要深度的架構創新。

Haas 呼籲採取協作方式,強調沒有任何單一公司能獨自解決能源與記憶體的挑戰。這需要:

  • 代工廠(Foundries) 提供更具效率的製程節點。
  • 記憶體製造商(如 Micron)提供更高頻寬且更低功耗的產品。
  • 軟體開發者 為受限環境優化模型(量化、剪枝)。
  • 政府 支持基礎建設投資,例如與紐約晶圓廠相關的美國 CHIPS Act 構想。

對於閱讀 Creati.ai 的開發者與工程師來說,啟示很明確:AI 開發的未來不僅是學會如何在雲端提示大型模型。更重要的是理解如何部署高效率、能在邊緣上生活並與現實世界即時互動的智慧代理。

結語:更聰明,而不僅只是更大

隨著世界經濟論壇落幕,Rene Haas 的見解為 AI 的炒作周期提供了現實檢驗。AI 的指數成長無法在當前這條高耗能路徑上持續。分散式智慧模式提供了可行的前進之路,一方面在尊重地球界限下,另一方面也民主化了 AI 能力的可及性。

透過重新思考 AI 在何處運行、資料如何移動,以及系統如何「從矽開始」設計,Arm 正將自己定位為這次轉型的基礎平台。對科技業而言,競賽不再只是誰擁有最大模型,而是誰能在手掌或機器人機體中最有效率地運行它。邊緣不再是次要議題;它是主要舞台。

精選