
在一個通常以瘋狂加速和對計算資源永無止境的渴求為特徵的環境中,來自人工智慧產業最高層的一個反直覺敘事正在浮現。Demis Hassabis,Google DeepMind 的執行長,也是現代 AI 革命中的關鍵人物,指出當前那些放緩產業動能的後勤與技術障礙,實際上可能對人類有利。Hassabis 在 2026 年 1 月於 Davos 舉行的 World Economic Forum 之前發言時,闡述了可稱為「AI 進展的悖論」的觀點——即自然的成長阻力充當了必要但非刻意的護欄,阻止這項技術朝向人工通用智慧(Artificial General Intelligence,AGI)急速衝刺。
這一觀點對於過去幾年陷於軍備競賽心態的產業來說,是語氣上的重要轉變。隨著生成式AI(Generative AI)商業化逐漸成熟,摩擦點——從硬體短缺到社會反彈——正變得愈加明顯。對於 Creati.ai 而言,解構這個悖論提供了一扇觀察 AI 發展未來的關鍵窗口,暗示通往 AGI 的道路可能比先前預測的更長、更迂迴,或許也更安全。
Hassabis 的論點核心在於,AI 產業正觸及物理與結構性的極限。早期 2020 年代所見的指數成長曲線,正遇到供應鏈現實的強烈阻力。根據這位 DeepMind 行政人員的說法,這些限制阻止技術以潛在危險的速度擴展,為社會爭取了寶貴的時間來處理 AI 帶來的深刻倫理、商業及哲學問題。
這些限制不只是理論上的;它們是影響該領域每個主要參與者的實際瓶頸。從高頻寬記憶體晶片的稀缺,到下一代資料中心巨大的能源需求,現有基礎設施目前無法跟上研究者的理想步伐。
Table: AI 發展限制的雙重影響
| Constraint Factor | Direct Impact on Industry | Potential Societal Benefit |
|---|---|---|
| Hardware Shortages | Limits the speed of model training and deployment due to scarcity of chips and memory. Increases costs significantly. |
Prevents a runaway capabilities race, allowing safety research to catch up with development. |
| Energy Limitations | Data center construction faces delays due to power grid capacity. Sparking geopolitical competition for energy resources. |
Forces a focus on energy-efficient architecture. Highlighting the need for sustainable power solutions before massive scaling. |
| Research Secrecy | A reduction in open-source sharing and "cross-pollination" of ideas among labs. Slower diffusion of breakthroughs. |
Centralizes control of dangerous capabilities. Reduces the likelihood of bad actors easily accessing frontier models. |
| Commercialization Focus | Resources diverted from pure R&D to serving existing user bases. Shift from exploration to exploitation of current tech. |
Stabilizes the market. Allows regulators and the public to adapt to current generation tools before the next leap. |
Hassabis 最有感的一項觀察,關乎 AI 研究社群內部的文化轉變。十多年來,該領域以激進開放的精神為特徵,突破性成果公開發表,人才在學術與企業實驗室之間自由流動。這段「黃金時代」促成了深度學習(deep learning)的迅速崛起,並最終引發了生成式AI(Generative AI)的熱潮。
然而,隨著 AI 從研究的偏僻領域轉變為全球經濟的核心引擎,門開始關上。將這些系統貨幣化的商業壓力,迫使 Google、OpenAI 與其他公司將其研究視為專有商業機密。Hassabis 指出,鑒於利害關係,這種公開程度的降低是「可以理解的」,但對科學社群而言無疑是一大損失。
這種孤島化效應對創新起到制動作用。缺乏塑造早期深度學習革命的意見交互,突破的複合速率自然而然地放緩。雖然純藝術家或學術理想主義者可能會哀悼學術情誼的流失,但從安全角度看,這種減速防止了強大演算法的不受控擴散,實際上拉長了通往 AGI 的時間線。
除了技術與文化上的限制外,AI 產業還面臨一個新的且強大的障礙:公眾。Hassabis 強調,對 AI 技術日增的「民粹式輕視」正在以政治光譜各面向呈現。到了 2026 年,這已不再只是對工作流失的抽象恐懼;而是有著具體地方影響的議題。
基層運動越來越多地組織反對大規模資料中心的興建,理由包括用水量、噪音污染以及對當地電網的負擔。同時,氣候活動家也在審視產業的碳足跡,質疑 AI 的承諾是否能合理化其巨大的環境成本。
Hassabis 主張,產業對這些反對聲浪的回應必須展現超越聊天機器人與影像生成器的具體價值。他建議,前進的道路在於把 AI 應用到「硬科學」——利用這些系統在醫療、材料科學與潔淨能源等領域啟動突破。
DeepMind 長期倡導以 AI 推動科學發現,AlphaFold 在生物學領域的革命即是證明。Hassabis 認為,若要贏得懷疑公眾的「心與思想」,AI 必須成為解決氣候危機的工具,而不是讓情況惡化的推手。
「在今日分裂的政治世界中,解決氣候問題的少數方式之一就是想出一些新技術,」Hassabis 表示,並強調產業在道德上有責任轉向這些關乎存在的解方。
隨著 DeepMind 與 Google 的核心產品整合愈深,Hassabis 面臨「在服務與訓練之間取得平衡」的挑戰。早期,一個實驗室可以把 100% 的計算資源投入訓練下一個巨大模型。如今,同樣的資源必須回應數百萬對 Gemini 與其他整合 AI 工具的使用者查詢。
這種分裂的焦點是 2026 年 AI 景觀的一個決定性特徵。龐大的基礎建設投資潮,已不再僅僅為追求下一個智能飛躍;它也僅僅是為了維持現有一代產品的運作。這種營運負擔成為另一個自然的演化制動器。用於大規模「運行」AI 的資源,正與用於「發明」下一版本 AI 的資源直接競爭。
「AI 進展的悖論」為理解產業現狀提供了一個引人注目的框架。多年來,普遍的恐懼在於 AI 發展會不受控制地加速,導致所謂的「硬著陸」情景——AGI 一夕之間到來,而人類毫無準備。
然而,2026 年的現實顯示出不同的軌跡。硬體稀缺、能源瓶頸、開放研究的終結與商業化的營運需求的組合,共同充當了剎車機制。對 Demis Hassabis 而言,這種放緩不是失敗,而是一種喘息。
「在我們抵達[人工通用智慧]之前,我們沒有太多時間可以磨合,」Hassabis 警告道。如果天然的摩擦能為世界爭取幾年時間,以便辯論倫理、建立安全協議並準備勞動力,那麼當前時刻的「不足」很可能會被記住為 AI 時代的救贖。對於 Creati.ai,我們持續關注這些發展,並認識到在通往 AGI 的競賽中,有時最重要的特性就是能夠放慢腳步。