
達沃斯,瑞士 — 達沃斯雪白的山巔長期作為世界上最具影響力經濟討論的背景,但在 2026 年世界經濟論壇(World Economic Forum)上,大會中心內的氣氛遠比外頭的冰冷空氣更為炙熱。在人工智慧產業的一個決定性時刻,三位最具代表性的人物——DeepMind 的 Demis Hassabis、Anthropic 的 Dario Amodei 與 Meta 的 Yann LeCun——提出了截然不同的通用人工智慧(AGI)未來路線圖,揭示出 AI 研究最高層次的意識形態與技術分歧正在加深。
與會者口語稱之為「AGI 之後的一天」的這場論壇,已超越過去幾年理論層面的空談。相反地,它赤裸裸地展現出一場尖銳衝突:一邊相信 AGI 是由規模定律推動、即將到來的必然性;另一邊則主張當前主導架構——大型語言模型(LLMs)——在通往真實智慧的道路上是根本的死胡同。
Anthropic 的執行長 Dario Amodei 以最激進的時程開場,實質上宣告以人為主導的軟體工程時代正在走向終點。Amodei 的公司一直站在 AI 安全與可控性的前沿,他讓許多人驚訝地提出「AI 自我演化的閉環已經啟動」的說法。
「我們不再處於一個人類手動反覆修改模型架構的理論框架中,」Amodei 對滿座的會場表示。「我們已進入模型自行撰寫程式碼的階段。我在 Anthropic 有工程師坦言他們不再寫程式碼;他們監督模型寫程式碼。一旦你閉合那個迴路——AI 建造更好的 AI——時間線會被極大地壓縮。」
Amodei 預測,通用人工智慧(AGI)——Anthropic 將其定義為能在大多數相關任務上超越諾貝爾獎得主的系統——可能在 2027 或 2028 年就會出現。他的論點以這樣的觀察為支點:雖然物理限制(例如晶片製造與能源基礎設施)仍在,但演算法設計的智力瓶頸正在消失。
Amodei 對社會經濟面向的預測令人警醒。他再度強調警告:高達 50% 的入門級白領工作,特別是在資料分析與程式編寫領域,可能在接下來 12 到 24 個月內被替代。「初級職位的失位不是未來風險;它是我們今天在矽谷已經看到的運作現實,」他指出,並敦促政策制定者為一場比立法周期還要快速的勞動市場衝擊做準備。
Google DeepMind 的執行長 Sir Demis Hassabis 提出了一個兼具樂觀與重大保留的對立敘事,對智慧的定義提出了重要的檢視。Hassabis 承認在編碼與數學等「數位領域」的迅速進展,但他認為跳躍到科學發現的「物理領域」仍然是一道艱鉅的障礙,僅靠 LLMs 無法跨越。
「在規則為公理的數學題上求解,與在規則混沌、不完整且涉及物理性的生物學中發明新假說,之間有深刻的差異,」Hassabis 主張。他採取較為保守的時間判斷,估計在五到十年內達成 AGI 的機率為 50%——把到達時間點更貼近 2030 年,而非 Amodei 所言的 2027 年。
Hassabis 強調 DeepMind 的策略是以「科學優先(Science First)」的 AI 為重。他指出近期的突破,AlphaFold 的後繼系統已開始模擬不僅是蛋白質結構,還有導向藥物發現的複雜生物交互作用。然而,他警告不要將語言能力與科學創造力混為一談。「首先提出問題——那才是通用智慧的火花。我們看到能以出色方式執行答案的機器,但我們尚未見過能提出新科學範式的機器。」
對 Hassabis 而言,通往 AGI 的道路需要把大型語言模型(LLMs)的推理能力與基於模擬與搜尋的系統整合——一種超越下一詞元預測(next-token prediction),真正能在物理空間中進行規劃與解題的混合方法。
如果 Amodei 代表加速器、Hassabis 代表方向盤,那 Meta 的首席 AI 科學家 Yann LeCun 則自居為炒作列車上的煞車。LeCun 對業界對大型語言模型(LLMs)的依賴提出犀利批評,重申他具爭議性的立場:「LLMs 不會導致 AGI。」
LeCun 的論點集中在資料效率與世界模型(World Models)。他提出一份比較人類學習與機器訓練的分析,拆解了「更多文本資料=更多智慧」的觀念。「一個四歲小孩大概看過 16,000 小時的視覺資料,對物理、因果與物體恆存的理解,比我們最大型的模型還要好,」LeCun 表示。「對照一個被餵食相當於 400,000 年人類閱讀材料的 LLM,卻仍會出現基本事實的幻覺,因為它在現實中沒有紮根。」
LeCun 提倡他的「Joint Embedding Predictive Architecture(JEPA)」作為必要的替代方案。他主張,為了讓 AI 達到人類水準,必須從自回歸(auto-regressive)文字生成(預測下一個詞)轉向能以抽象表示預測世界狀態的「世界模型(World Models)」。
「文字是對高頻寬世界的低頻寬投影,」LeCun 斷言。「透過主要以文字訓練模型,我們試圖從影子看到大象來重建大象。你無法僅靠預測句子中的下一個詞就建構出能在物理世界中規劃或推理的機器。這在數學上是不可能的。」
要理解達沃斯分歧的規模,就必須檢視這三位領袖所提出的具體預測與技術賭注。下表總結了他們彼此矛盾的立場。
Table: The Davos 2026 AI Leadership Divide
| Leader | Organization | Projected AGI Timeline | Primary Technical Bottleneck | Key Quote/Stance |
|---|---|---|---|---|
| Dario Amodei | Anthropic(執行長) | 2027-2028(1-2 年) | 運算能力與能源基礎設施;軟體瓶頸已在瓦解。 | 「AI 自我演化的『閉環』已經開始。工程師不再寫程式碼;他們管理會寫程式碼的模型。」 |
| Demis Hassabis | Google DeepMind(執行長) | 2030-2032(5-10 年) | 將推理從數位公理(數學/程式碼)轉移到混亂的物理科學上。 | 「數位領域在迅速瓦解,但科學創造力與假說生成仍然難以捉摸。」 |
| Yann LeCun | Meta(首席 AI 科學家) | >2035(對當前路徑持懷疑) | LLMs 的根本架構問題;缺乏世界模型與紮根。 | 「LLMs 是個岔道。小孩從視覺學習物理;僅靠文字,模型無法學會它。」 |
達沃斯的辯論遠超學術分歧;它決定了數兆美元資本目前的部署方向。如果 Amodei 是正確的,全球經濟只差幾個月就會迎來「軟體奇點」,智慧成本降到接近零,這將迫使立刻展開全民基本收入(UBI)討論與激進的企業重組。Anthropic 對企業採用的重點顯示他們正把全部賭注押在這一立即性的破壞性能力上。
反之,如果 LeCun 正確,當前由於假設參數擴大等於智慧擴大的 AI 泡沫,將有爆破風險。那些投入數十億美元購置 GPU 叢集以訓練 LLM 的公司,可能會發現報酬遞減,迫使其轉向 Meta 正在探索的截然不同架構。這將驗證開源社群較為分散、實驗性的路徑,相較於 OpenAI 與 Anthropic 的單一巨型模型擴展策略。
Hassabis 則提供了一條或許對達沃斯菁英最能接受的中間路徑:一個穩健且高風險的演化,AI 在完全替代人類認知之前,先在能源(如核融合)與生物學(如延壽)領域解鎖「後稀缺(post-scarcity)」的突破。他的願景與 Google 對於將 AI 深度整合進基礎設施的方向一致,暗示未來 AI 更像是帶來科學豐裕的工具,而不僅僅是白領勞動力的替代品。
當與會代表離開國際會議中心時,曾經團結 AI 社群的共識——「規模就是一切」——顯然已經出現明顯裂縫。達沃斯 2026 的辯論凸顯了,雖然目的地(AGI)仍是共同目標,但所乘的工具與繪製的地圖正受到激烈爭論。
對 Creati.ai 的讀者來說,結論很明確:未來 12 個月將是實驗場。如果 Anthropic 的模型開始自主撰寫出更優秀的軟體,Amodei 的時程將得到證明;若進展停滯、幻覺問題仍在,LeCun 呼籲建立新架構的聲音將越來越大。我們不再只是等待 AI 的未來被書寫;我們正在即時觀看這場辯論,其結果可能牽動全球經濟的命運。