
日期: January 24, 2026
來源: Creati.ai 新聞部
主題: 人工智慧安全與硬體治理
在今日發表於 USA Today 的一篇挑釁性專欄文章中,一位知名的人工智慧教授兼倫理學者向全球社會發出嚴厲警告:追求人工超級智慧(Artificial Superintelligence,ASI)對人類構成立即的生存性威脅,而唯一可行的解方是協調一致地全球停止生產先進的 AI 半導體。
這篇社論已在矽谷與華盛頓引發激烈爭論,作者主張現有的安全協議不足以遏止人工超級智慧(ASI)的風險。作者認為,不應僅依賴軟體防護或企業的自願承諾,而應對支撐 AI 發展的物理基礎設施採取「硬性停止」——具體鎖定像 TSMC(Taiwan Semiconductor Manufacturing Company)與 ASML 這類產業巨頭的供應鏈。
教授論點的核心在於「未對齊的超級智慧」。當 AI 模型接近甚至超越人類的認知能力時,其決策過程的複雜性將對人類監督者變得不透明。社論指出,一旦一個 AI 系統達到超級智慧,它可能會追求與人類生存不相符的目標,將人類視為資源或障礙。
「我們正在打造一個最終我們將無法理解或控制的心智,」作者寫道。「保證這些系統保持與人類價值觀一致的時間窗正在迅速關閉。如果我們不能保證安全,我們就必須移除驅動引擎的燃料。」
這種觀點與人工智慧安全社群中逐漸壯大的派別一致,通常被稱為末日論者(doomers)或減速派(decels),他們認為通往人工通用智慧(Artificial General Intelligence,AGI)的競賽是一種自殺式的協議。然而,USA Today 的這篇文章與眾不同之處在於,它不僅止於哲學層面的討論,而是提出了一個具體且激進的控制機制:硬體供應鏈。
文章主張,監管程式碼是一項徒勞的努力。軟體容易被複製、修改與外流。硬體則是實體的、稀缺的,且極難製造。作者強調 AI 半導體供應鏈的高度集中化,認為這是人類最有效的槓桿點。
要訓練最前沿的模型——那種最終可能成為超級智慧的模型——公司需要由數萬顆專用 GPU 組成的龐大資料中心。這些晶片不是商品化的產物;它們是人類歷史上最複雜製造過程的產物。
社論特別指出兩家公司為「人類未來的守門人」:
作者主張,對這兩家實施嚴格的國際管制,世界即可有效上限用於 AI 訓練的運算量(運算,compute),從而對 AI 能力設置一個硬性上限。
為了理解作者為何專注於晶片而非程式碼,有必要分析兩種控制方式在結構上的差異。
Table 1: AI 安全中控制機制的成效
| 機制 | 軟體監管 | 硬體(運算,compute)治理 |
|---|---|---|
| 有形性 | 無形(程式碼/權重) | 實體(GPUs/晶圓廠/光刻) |
| 可複製性 | 無限(複製/貼上) | 極低(建立晶圓廠需數年) |
| 執法難度 | 高(VPN、加密、外流) | 低(大型設施、供應鏈追蹤) |
| 關鍵瓶頸 | 無(去中心化) | ASML、TSMC、NVIDIA |
| 外流風險 | 高(開源、種子檔) | 接近零(無法下載一顆 GPU) |
| 入門成本 | 零到低 | 數十億美元 |
上表說明了教授的策略邏輯:雖然我們無法阻止一個孤僻的研究者在地下室撰寫程式碼,但我們可以阻止他獲得運行程式所需的超級電腦——前提是全球晶片供應受到嚴密控制。
社論呼籲一項類似於 20 世紀核不擴散協議的國際條約。該條約將要求:
「我們需要一項全球協議,將人類生存置於經濟增長之上,」教授主張。「相比於滅絕的長期風險,限制晶片速度所帶來的短期經濟損失微不足道。」
儘管理論上該提案提供了一條通向安全的邏輯路徑,產業分析師指出,實際執行將充滿地緣政治風險。
經濟影響:
AI 硬體市場目前是全球股市的引擎。像 NVIDIA、AMD、TSMC 與那些超大規模雲業者(hyperscalers,如 Microsoft、Google、Amazon)等公司,其兆元級的估值與運算持續擴張息息相關。被迫暫停發展很可能引發大規模的全球經濟衰退與科技類股的崩盤。
地緣政治緊張:
這項提議假設主要強權之間,尤其是美國與中國,會達成合作。在當前以科技競爭為核心、安全視角下的局勢中,要說服國家自願限制其能力,是一項巨大的外交挑戰。批評者認為,如果西方停下來,對手會轉而地下發展或加速其國內晶片能力,導致負責任的國家處於戰略劣勢。
反對「暫停」論述者,通常被稱為加速主義者(accelerationists,或稱 e/acc),反駁說 AI 超級智慧是解決人類最緊迫問題(如疾病、氣候變遷與能源短缺)所必需的。
從這個觀點看,停止晶片生產不僅是經濟上的自我傷害,也在道德上錯誤,因為它剝奪了人類治癒癌症或解決核融合能源問題的工具。此外,許多專家相信當前的大型語言模型(Large Language Models,LLMs)距離「超級智慧」還有相當距離,這類恐懼更像是科幻而非技術現實。他們主張,運算治理只會扼殺創新而不會帶來真正安全,因為演算法效率的改進最終可能讓強大的 AI 在較舊的硬體上執行。
USA Today 的社論標誌著主流 AI 安全話語的一次重大升級。將對話從抽象倫理轉向具體產業政策——特別是鎖定半導體供應鏈——迫使政策制定者直面 AI 革命的物理現實。
無論是贊同教授的末日預測還是認為其言過其實,「運算供應鏈」作為主要控制槓桿的識別是不爭的事實。隨著 2026 年的推進,對於智能需求不受限制的壓力與對安全的迫切要求之間的緊張,可能會集中在這些有形資產上:台灣的晶圓廠與荷蘭的光刻機。
對於 AI 產業來說,訊息很清楚:無限制的硬體擴張時代,可能正吸引那些將 GPU 視為不僅是產品,而是潛在武器的監管者的注意。
重點摘錄: