
由超過 100 位頂尖人工智慧專家組成的全球聯盟發佈了**《第二次國際 AI 安全報告》(Second International AI Safety Report),對通用 AI 系統(general-purpose AI systems)不可預測的演進發出了嚴厲警告。該報告在於新德里舉行的備受矚目的印度 AI 影響力峰會(India AI Impact Summit)**召開前夕發佈,強調了 AI 能力的快速進步與目前用於管理這些能力的「不足」安全保障措施之間存在關鍵脫節。
該報告由圖靈獎(Turing Award)得獎科學家 Yoshua Bengio 主持,作為一份科學共識文件,旨在為即將舉行的峰會決策者提供指引。在承認 AI 推動經濟增長和科學發現的巨大潛力的同時,研究結果描繪了一項技術以驚人速度進步的複雜圖景,且往往超出了人類理解或控制它的能力。
報告中最重要的發現之一是尖端 AI 模型中的**「參差不齊」性能("jagged" performance)**現象。雖然這些系統在國際數學奧林匹亞競賽(International Mathematical Olympiad)題目上獲得了「金牌表現」,並在特定的科學基準測試中超過了博士級別的專業水平,但它們在對於人類來說微不足道的任務上仍會出現慘痛的失敗。
這種不一致性造成了一種能力的危險錯覺。用戶可能會根據系統在其他高層次領域的表現,在關鍵場景(如醫療診斷或法律分析)中過度信任系統。報告指出,隨著**代理系統(agentic systems)**的出現,這種不可預測性變得更加複雜,這些系統可以自主行動以完成多步驟任務。
「通用人工智慧模型如何以及為何獲得新能力並以特定方式運作,即使對於開發者來說也往往難以預測,」報告指出。
專家警告說,隨著這些代理系統進一步融入經濟,直接人為控制的喪失可能會讓「危險能力」在部署之後才被察覺。
2026 年的報告顯著擴展了 2025 年首屆報告中確定的風險類別。它提出了新的實證證據,表明惡意行為者的進入門檻正在降低。
關鍵關注領域包括:
表格:2026 年報告中確定的關鍵風險類別
| 風險類別 | 主要關注點 | 目前狀態 |
|---|---|---|
| 惡意使用 | 降低網絡攻擊和生物武器的門檻 | 高度緊急;觀察到活躍的開發利用 |
| 系統性風險 | 勞動力流失和全球不平等加劇 | 長期威脅;需要政策干預 |
| 技術故障 | 對自主代理系統失去控制 | 深度不確定;安全保障是「會出錯的」 |
| 虛假訊息 | AI 生成的影響力行動規模 | 快速增長;影響民主進程 |
隨著世界為 印度 AI 影響力峰會 做準備,該報告揭示了 AI 效益分配不均的情況。雖然採用速度「迅猛」,每週至少有 7 億人使用領先的 AI 系統,但這種使用高度集中在「全球北方」(Global North)。
相比之下,在非洲、亞洲和拉丁美洲的大部分地區,採用率仍低於 10%。這種「數位鴻溝」構成了嚴峻風險:如果先進 AI 成為未來經濟增長的主要引擎,那麼無法獲得該技術或支持該技術的基礎設施的國家可能會永久落後。
這種差異與即將在新德里舉行的峰會核心主題一致。峰會以「經(Sutras)」為品牌,涵蓋了人民、地球與進步,旨在將全球對話從理論上的安全辯論轉向惠及全球南方(Global South)的實際、包容性成果。
在一項引人注目的地緣政治發展中,美國拒絕簽署報告的最終版本,儘管在起草過程中提供了回饋。這標誌著與去年的全體一致有所偏離。雖然一些觀察家稱此舉「在很大程度上具有象徵意義」,但它突顯了快速創新與國際監管框架之間日益緊張的關係。
美國的立場與包括歐盟和中國在內的其他大國的立場形成對比,後者支持報告的發現。隨著各國在「AI 霸權競爭」與協調全球治理的需求之間苦苦掙扎,這種分歧可能為新德里峰會上的激烈辯論埋下伏筆。
該報告的發佈為定於 2026 年 2 月 16 日至 20 日舉行的印度 AI 影響力峰會設定了議程。包括部長 Ashwini Vaishnaw 在內的印度官員強調,會議將聚焦於算力資源的「負責任開放」和「公平獲取」。
對於聚集在一起的政策制定者來說,挑戰將在於將報告的科學警告轉化為可操作的政策。正如文件總結的那樣,目前的風險管理技術正在「改進但仍不足」。世界現在正看向新德里,以彌合識別這些生存風險與實際減輕風險之間的差距。