
在人工智慧產業的一個決定性時刻,Google DeepMind 執行長 Demis Hassabis 公開質疑大型語言模型(Large Language Models,LLMs)所主導的現行路徑,認為像 OpenAI 這類競爭者偏好的方法不足以達到真正的通用人工智能(Artificial General Intelligence,AGI)。在 2026 年 1 月 19 日接受 CNBC 節目 "The Tech Download" 訪談時,Hassabis 闡述了向「世界模型(World Models)」的策略轉向——這類系統能夠模擬物理現實並理解因果關係,而不僅僅是基於統計關聯來預測文字。
這項批評標誌著世界主要 AI 實驗室在哲學與技術路線上的重大分歧。雖然由 Sam Altman 領導的 OpenAI 歷來堅持擴展法則(scale laws)——即增加運算與資料量必然帶來更高智慧的想法——Hassabis 則表示,這種做法在科學發明與從第一原理推理方面已經碰到「基本的瓶頸」。
Hassabis 的論點核心在於資訊處理與物理理解之間的區別。大型語言模型(LLMs)擅長解析大量人類生成的文字以發現模式。然而,Hassabis 主張這些模型「並不真正理解因果」。它們可以根據訓練資料中的描述來描寫一顆掉落的蘋果,但卻無法在一個新穎環境中模擬重力物理以預測之前未見過的結果。
「當今的大型語言模型在模式辨識方面非常出色,」Hassabis 在訪談中表示。「但它們其實不真的知道為什麼 A 會導致 B。它們只是預測下一個詞元。」
對於 Creati.ai 的讀者來說,這個區別至關重要。這意味著雖然大型語言模型會繼續在對話介面與程式輔助方面改進,但它們可能仍無法達成像 AlphaGo 等級的那種解決複雜科學問題的突破,例如發現新材料或治療疾病。Hassabis 估計 AGI 還需要 5 到 10 年才可能實現,而且會需要超越當前基於 Transformer 的範式(transformer-based paradigm)的架構。
DeepMind 的替代願景專注於建立能夠構築物理世界內部表示的 AI。這些「世界模型」不像圖書館,反而更像遊戲引擎。它們可以進行「思考實驗」、在 3D 空間中模擬結果,並以一套一致的物理定律來檢驗假說。
DeepMind 已經開始展示這種方法的可行性。Hassabis 指出 Genie 3(於 2025 年 8 月發表),該系統可從文字提示生成互動式 3D 環境,以及 SIMA 2,用以訓練 AI 代理在這些模擬世界中導航並執行任務。早期研究顯示,這類結合語言理解與空間推理的混合系統,在複雜推理任務上比純粹的大型語言模型好 20–30%,並且在基本物理相關的幻覺(hallucinations)方面顯著減少。
這番言論的時機並非巧合。AI 產業目前正處於高度波動期。在 2025 年底 Google 推出 Gemini 3 之後,有報導指出 OpenAI 內部出現所謂的「紅色代碼(Code Red)」,原因是擔憂其擴展策略出現邊際報酬遞減。透過公開闡述僅靠大型語言模型的路徑之限制,Hassabis 將 Google 定位為不僅僅是競爭者,而是下一代 AI 架構飛躍的先驅。
這種轉變既是操作上的也是哲學上的。Hassabis 揭露他現在每日與 Alphabet 執行長 Sundar Pichai 保持聯繫,這個改變突顯了 DeepMind 作為 Google AI 工作室唯一「引擎室」的提升地位。這個精簡的組織架構旨在加速將研究突破轉化為消費產品,直接回應外界對 Google 過去行動過慢的批評。
除了技術辯論之外,Hassabis 對全球 AI 版圖也做出冷靜的評估。當被問及國際競爭時,他指出中國的 AI 模型正在迅速縮小與西方同業的性能差距。
「這是幾個月的差距,而不是幾年,」Hassabis 就美國與中國前沿模型之間的落差評論道。他引用像 Alibaba 這樣的公司以及像 Moonshot AI 這類新創的快速進展。然而,他也做出細膩的區分:中國的實驗室善於快速跟進與工程實作,但 Hassabis 對於中國現有生態是否培養出從零到一科學突破所需的特定「思維模式」持保留意見,例如最初由 Google 研究人員發明 Transformer 架構的案例。
為了理解此一架構辯論的利害,對比目前爭奪資源的兩種主要方法的能力與限制會很有幫助。
Comparison of Large Language Models and World Models
| Feature | Large Language Models (LLMs) | World Models |
|---|---|---|
| Core Mechanism | Statistical pattern recognition and token prediction | Simulation of physical reality and causality |
| Primary Data Source | Text, code, and static images from the internet | 3D environments, physics engines, and video data |
| Reasoning Capability | Correlative (associative logic) | Causal (first-principles reasoning) |
| Key Limitation | Hallucinations and lack of spatial awareness | High computational cost for real-time simulation |
| Ideal Use Case | Creative writing, coding, summarization | Robotics, scientific discovery, autonomous agents |
| Example Systems | GPT-4, Claude 3, Llama 3 | Genie 3, SIMA 2, AlphaFold |
(註:表格標題與內容維持原英文表述以保留專有系統名稱與技術細節。)
Hassabis 對世界模型的倡議預示著產業朝向「神經符號(neuro-symbolic)」或混合型 AI 系統的一般性趨勢。對於開發者與企業領導者來說,這意味著單靠文字模型的提示工程(prompt engineering)時代可能正逐步過渡到空間運算(spatial computing)與模擬成為 AI 堆疊關鍵組件的階段。
如果 DeepMind 的假設被證明正確,下一代 AI 將不僅能談論世界——它將能夠在世界中導航。這種能力對於釋放物理經濟的潛力至關重要,包括先進的機器人技術與自主科學實驗。當 OpenAI 繼續透過語言精進 AI 的「大腦」時,DeepMind 似乎專注於賦予那個大腦一具身體與一個可以居住的世界。
隨著 2026 年展開,產業很可能看到模型開發的分岔:一條路優化語言流暢性,另一條路則優化物理智慧。對於 Creati.ai,我們將密切關注這些世界模型如何與現有的生成式工具整合,可能會催生一類新的應用,將創意生成與科學準確性結合起來。