AI News

DeepMind 負責人將通用人工智慧(AGI)時鐘設定為「5-10 年」,同時對安全風險發出警報

在本週於新德里舉行的印度 AI 影響力峰會(India AI Impact Summit)上,Google DeepMind 執行長戴米斯·哈薩比斯(Demis Hassabis)發表了一場具有定義意義的主旨演講,在技術樂觀主義與緊迫的地緣政治警示之間取得了平衡。哈薩比斯對來自全球的政策制定者、產業領袖和研究人員發表講話,為通用人工智慧(Artificial General Intelligence,AGI)的到來提供了迄今為止最明確的時間表之一,預測其將在未來「5 到 10 年」內出現。然而,這項預測伴隨著一個嚴峻的警告:隨著 AI 系統從被動工具轉變為自主代理,建立強大的國際安全框架的窗口正在關閉。

此次峰會發生在生成式 AI(Generative AI)能力快速加速的時期,為哈薩比斯描繪產業目前面臨的「門檻時刻」提供了背景。在慶祝新的「科學發現黃金時代」潛力的同時,他強調先進 AI 的雙重用途性質——既能產生巨大效益,也可能造成重大損害——使得全球合作的必要性日益增加,而目前的合作進度落後於技術進步。

AGI 地平線:超越「參差不齊的智慧」

哈薩比斯的演講對當前最先進模型的局限性進行了罕見且坦率的評估。儘管近期生成式 AI 的突破備受矚目,他仍將當前的系統描述為「參差不齊的智慧(Jagged intelligences)」。這個術語描述了那些在特定領域(如程式碼編寫或創意寫作)展現出超越人類才華,卻同時在人類兒童都能輕易應對的基本推理任務上失敗的模型。

「我們開始看到這些系統能做什麼,但它們仍然很脆弱,」哈薩比斯在會議期間指出。他指出,雖然一個模型可能會在國際數學奧林匹亞(International Math Olympiad)中獲得金牌,但如果問題的措辭不合常規,它可能會在簡單的算術上出錯。他認為,這種不一致性是區分當前窄域 AI 與真正 AGI 的主要障礙。

為了說明實現 AGI 所需的飛躍,哈薩比斯提出了一個涉及科學創新的大膽思想實驗。他建議,真正的 AGI 應該能夠在知識截止日期為 1911 年的情況下接受訓練,並獨立推導出廣義相對論,複製阿爾伯特·愛因斯坦(Albert Einstein)1915 年的突破。他解釋道:「提出正確的問題和正確的假設,比解決猜想難得多。」目前的系統擅長在現有數據中進行內插,但仍缺乏實現此類原始概念飛躍所需的世界模型(World models)和長期規劃能力。

然而,這名 DeepMind 共同創辦人仍然充滿信心,認為這些差距正在迅速縮小。他提到「代理式(Agentic)」系統的出現——即能夠採取自主行動以實現高層級目標的 AI——是下一個主要階段。這種從聊天機器人式互動到基於代理的工作流程的轉變,預計將在未來一年加速,推動產業邁向 5-10 年的 AGI 目標。

雙重用途困境:生物安全與網路風險

隨著 AGI 的時間表縮短,濫用的潛力也隨之增加。哈薩比斯將演講的很大一部分致力於前沿 AI 系統的「雙重用途」性質。那些讓 AI 加速藥物發現或優化能源網的能力,同樣可以被「惡意行為者」(從個人流氓到敵對國家)重新利用以造成傷害。

他強調了兩個特別引起立即關注的領域:生物安全(Biosecurity)和網路風險(Cyber risk)。

在生物安全領域,令人擔憂的是 AI 可能會降低創建有害生物製劑的門檻。雖然像 AlphaFold 這樣的 AI 工具透過預測蛋白質結構徹底改變了生物學,但如果沒有適當的防護措施,類似的技術理論上可以用於設計毒素或病原體。

網路安全則呈現出更為緊迫的波動性。哈薩比斯警告說:「目前的系統在網路方面正變得相當出色,」他強調產業必須確保「防禦力強於攻擊力」。隨著 AI 代理變得能夠編寫和執行複雜的程式碼,自動化網路攻擊規模超出人類防禦團隊能力的風險已成為現實。這需要一種主動的方法,利用 AI 修補漏洞的速度快於利用漏洞的速度。

比較分析:當前 AI vs. 預測的 AGI

下表概述了哈薩比斯在當前部署的 AI 模型與預計在未來十年內出現的 AGI 系統之間劃分的關鍵區別。

指標 當前「參差不齊」的智慧 未來的 通用人工智慧(AGI)
表現一致性 高變異性;在某些任務上表現出色,在基礎任務上失敗 在所有認知領域具有一致的高能力
學習方法論 靜態訓練集;部署後「凍結」 持續線上學習;從即時經驗中更新
推理能力 模式匹配和統計預測 因果推理、假設生成和世界建模
自主程度 需要人類提示的被動工具 代理式;具備長期規劃和獨立行動能力
主要風險因素 幻覺和偏見 對齊失誤、失去控制和雙重用途擴散

呼籲全球合作

數位智慧的無國界性質使其成為一項獨特的監管挑戰。哈薩比斯主張,沒有任何一個國家能有效遏制 AI 的風險,因為數據和模型會在各司法管轄區之間瞬時流動。他呼籲建立一個類似於為核能或氣候變遷建立的國際框架,儘管他承認在當前破碎的地緣政治氣候下實現這一點具有難度。

「它正成為國際對話中極其重要的召集點,」哈薩比斯在談到峰會時表示,並稱讚印度在促進這些關鍵對話方面的角色。他明確將印度定位為未來的「 AI 強國」,理由是該國深厚的工程人才儲備及其對數位基礎設施的快速採用。

然而,通往全球合作的道路充滿了緊張局勢。不同國家目前正優先考慮 AI 政策的不同方面——有些專注於創新主導地位,有些則專注於嚴格的安全合規。哈薩比斯的訊息很明確:如果沒有一套最低限度的全球標準,特別是關於自主代理的部署和生物安全保障措施,世界將面臨安全方面的「逐底競爭」。

科學發現的時代

儘管重點放在風險上,哈薩比斯訊息的核心仍紮根於 AI 對科學的轉型潛力。他將未來的十年描述為「新文藝復興」,AI 工具將解開物理學、生物學和材料科學中困擾研究人員數十年的謎團。

這種樂觀情緒得到了 DeepMind 自身紀錄的支持。從精通圍棋(Go)到解決蛋白質折疊問題,該公司一致證明了 AI 可以解決複雜、未定義的問題。在哈薩比斯看來,向 AGI 的過渡不僅僅是為了建造更聰明的聊天機器人,而是為了創造知識擴張的終極工具。他反思道:「我一直相信 AI 將成為有史以來發明的最重要且最有益的技術之一,」並指出他職業生涯長期的追求一直是由加速科學發現的渴望所驅動的。

Creati.ai 分析:為代理式轉變做準備

從 Creati.ai 的角度來看,哈薩比斯在印度 AI 影響力峰會上的評論標誌著產業敘事的關鍵轉變。我們正從最初對生成式文本和圖像的敬畏,轉向構建可靠、自主代理的嚴肅而艱鉅的工作。

對於企業和開發者來說,當前模型「參差不齊」的性質是一個已知的摩擦點。AGI 的承諾意味著一個 AI 可靠性不再是隨機撞大運,而是保障的未來。然而,5 到 10 年的時間表表明,企業必須保持敏捷——在投資當前工具的同時,為其基礎設施迎接能力的激進跳躍做好準備。

對安全的強調也預示著下一波 AI 產品可能會面臨關於其「雙重用途」潛力更嚴格的審查。我們預計對 AI 安全平台的需求將激增——這些工具專為監控、審核和防火牆代理式 AI 系統而設計。隨著產業消化哈薩比斯的警告,焦點可能會轉向「防禦優先」的 AI 開發,確保我們今天構建的系統不會成為明天的漏洞。

精選