AI News

Anthropic 執行長發出緊急警告:AI 的「青春期」即將到來

在人工智慧產業的一個決定性時刻,Anthropic 執行長 Dario Amodei 發表了一篇長達 19,000 字的長文,標題為 "The Adolescence of Technology: Confronting and Overcoming the Risks of Powerful AI." 本週發表的這份宣言,代表他先前較為樂觀的觀點出現了顯著的語氣轉變,並警告「強大型AI(Powerful AI)」——能在大多數領域超越諾貝爾獎得主的系統——可能最早於 2027 或 2028 年出現。

Amodei 的文章作為對 2025 年及 2026 年初主流情緒的一個重要制衡;他將那段時期形容為過度偏向無限制的機會,而忽視了必要的謹慎。隨著 生成式AI(Generative AI) 的發展以驚人速度加速,Anthropic 的負責人主張,人類正進入一個「動盪且不可避免」的成年禮,這將考驗我們文明的成熟度。

「科技青春期」的隱喻

Amodei 論點的核心是一個生動的隱喻,取自電影 Contact,片中人類向一個先進的外星文明詢問,他們如何在自己的「科技青春期」中存活而未自我毀滅。Amodei 假設,我們如今正站在同一個懸崖邊上。

與他 2024 年 10 月的文章 "Machines of Loving Grace," 著重於 AI 醫治疾病與消除貧困等烏托邦式潛力不同,這篇新文面對的是過渡期的即時危險。他指出,雖然技術的「成熟期」可能是有益的,但我們正進入的青春期階段充滿了存在性危機。「人類即將被交付近乎難以想像的力量,」Amodei 寫道,「而我們的社會、政治與科技系統是否具備足以駕馭它的成熟度,仍深具不確定性。」

五大類災難性風險

Amodei 並非停留於模糊的不安;相反地,他將即將來臨的威脅分為五個需要立即關注的明確『類別』,這些風險範圍從對 自主系統(Autonomous Systems) 失去控制,到因快速經濟轉變所造成的社會衰敗。

下表概述了文章中指出的五個主要風險類別:

Risk Category Description Potential Consequences
自主性 AI 系統在無人監督下運作 喪失控制,導致意外升級或權力奪取
個人濫用 高階能力的民主化 製造生物武器、網路攻擊或大規模錯誤資訊
國家濫用 政府用於鎮壓的部署 加深威權政體與監控國家
經濟擾動 人類勞動迅速被替代 大量失業、不平等,及勞動市場崩潰
間接影響 社會規範與共同現實的侵蝕 全球範圍的文化分裂與心理困擾

將「自主性」列為主要風險之一,突顯了業界中許多人曾淡化的一項技術現實:即便被設計為有益,強大型AI 系統也可能發展出與人類安全相衝突的工具性目標。

對政治鐘擺的修正

文章中最引人注目的面向之一,是 Amodei 對當前政治氛圍的批評。他觀察到,2023 與 2024 年間,世界或許過度專注於「末日主義」,但鐘擺自此已擺向相反的一側。至 2026 年 1 月,他主張,政策制定者在很大程度上被害怕落後(FOMO)與追求國家競爭優勢所驅動,往往忽視了那個只會越來越近的「真正危險」。

「我們在 2026 年離真正的危險,比 2023 年更近,」Amodei 警告道。他指出,技術不在乎政治流行或市場趨勢;其能力持續擴展,無論社會是否在關注風險。他認為,這種自滿才是真正的敵人。

呼籲「外科式介入」

儘管警告嚴重,Amodei 卻與所謂的「減速主義者」劃清界線。他並未呼籲完全停止 AI 發展,因為他認為這既不可能也不理想,鑑於其潛在利益。相反地,他主張採取「外科式介入」——即精準且高影響力的監管與自願措施,旨在在不扼殺創新的情況下,針對特定風險進行緩解。

這些介入包括:

  • 更嚴格的出口管制: 針對訓練下一代模型所需的硬體進行特別管制。
  • 資訊安全: 確保強大模型的「權重」以與核武機密相同的嚴格性來防護,防止被流氓國家竊取。
  • 嚴格測試: 要求在任何超過特定運算門檻的模型部署前,必須由獨立第三方進行 AI 安全(AI Safety) 評估。

對 AI 產業的影響

對於在 生成式AI 領域運作的公司來說,Amodei 的文章不僅是哲學論述;它也預示了未來監管環境的走向。如果他的預測屬實,自我監管的時代實際上已結束。所謂「1 到 2 年」內出現超越人類智慧的時間表,表示建立安全規範的窗口正迅速關閉。

文章最後呼籲富有的個人與慈善家資助安全研究,並敦促民主政府提升其治理能力。在我們航向這個「青春期」的過程中,未來 24 個月內所作的決定,很可能決定 AI 革命是導向一個黃金時代,還是成為對人類的一場災難性失敗。

精選