AI News

一項激進的提案:人工智慧(AI)教授呼籲全球停止先進晶片製造

日期: January 24, 2026
來源: Creati.ai 新聞部
主題: 人工智慧安全與硬體治理

在今日發表於 USA Today 的一篇挑釁性專欄文章中,一位知名的人工智慧教授兼倫理學者向全球社會發出嚴厲警告:追求人工超級智慧(Artificial Superintelligence,ASI)對人類構成立即的生存性威脅,而唯一可行的解方是協調一致地全球停止生產先進的 AI 半導體。

這篇社論已在矽谷與華盛頓引發激烈爭論,作者主張現有的安全協議不足以遏止人工超級智慧(ASI)的風險。作者認為,不應僅依賴軟體防護或企業的自願承諾,而應對支撐 AI 發展的物理基礎設施採取「硬性停止」——具體鎖定像 TSMC(Taiwan Semiconductor Manufacturing Company)與 ASML 這類產業巨頭的供應鏈。

存在性風險論點

教授論點的核心在於「未對齊的超級智慧」。當 AI 模型接近甚至超越人類的認知能力時,其決策過程的複雜性將對人類監督者變得不透明。社論指出,一旦一個 AI 系統達到超級智慧,它可能會追求與人類生存不相符的目標,將人類視為資源或障礙。

「我們正在打造一個最終我們將無法理解或控制的心智,」作者寫道。「保證這些系統保持與人類價值觀一致的時間窗正在迅速關閉。如果我們不能保證安全,我們就必須移除驅動引擎的燃料。」

這種觀點與人工智慧安全社群中逐漸壯大的派別一致,通常被稱為末日論者(doomers)或減速派(decels),他們認為通往人工通用智慧(Artificial General Intelligence,AGI)的競賽是一種自殺式的協議。然而,USA Today 的這篇文章與眾不同之處在於,它不僅止於哲學層面的討論,而是提出了一個具體且激進的控制機制:硬體供應鏈。

將硬體視為最終瓶頸

文章主張,監管程式碼是一項徒勞的努力。軟體容易被複製、修改與外流。硬體則是實體的、稀缺的,且極難製造。作者強調 AI 半導體供應鏈的高度集中化,認為這是人類最有效的槓桿點。

要訓練最前沿的模型——那種最終可能成為超級智慧的模型——公司需要由數萬顆專用 GPU 組成的龐大資料中心。這些晶片不是商品化的產物;它們是人類歷史上最複雜製造過程的產物。

社論特別指出兩家公司為「人類未來的守門人」:

  1. ASML(荷蘭): 唯一提供極紫外光(Extreme Ultraviolet,EUV)光刻機的廠商,沒有它就無法印製最先進的晶片。
  2. TSMC(Taiwan): 負責製造全球絕大多數最尖端 AI 邏輯晶片的晶圓代工廠,其中包括 NVIDIA 設計的晶片。

作者主張,對這兩家實施嚴格的國際管制,世界即可有效上限用於 AI 訓練的運算量(運算,compute),從而對 AI 能力設置一個硬性上限。

比較分析:軟體 vs. 硬體控制

為了理解作者為何專注於晶片而非程式碼,有必要分析兩種控制方式在結構上的差異。

Table 1: AI 安全中控制機制的成效

機制 軟體監管 硬體(運算,compute)治理
有形性 無形(程式碼/權重) 實體(GPUs/晶圓廠/光刻)
可複製性 無限(複製/貼上) 極低(建立晶圓廠需數年)
執法難度 高(VPN、加密、外流) 低(大型設施、供應鏈追蹤)
關鍵瓶頸 無(去中心化) ASML、TSMC、NVIDIA
外流風險 高(開源、種子檔) 接近零(無法下載一顆 GPU)
入門成本 零到低 數十億美元

上表說明了教授的策略邏輯:雖然我們無法阻止一個孤僻的研究者在地下室撰寫程式碼,但我們可以阻止他獲得運行程式所需的超級電腦——前提是全球晶片供應受到嚴密控制。

提案:一項國際條約

社論呼籲一項類似於 20 世紀核不擴散協議的國際條約。該條約將要求:

  • 對次世代光刻技術實施暫停: 停止開發未來的晶片製造節點(例如超越 2nm 或 1.4nm 製程),這些節點將允許呈指數級成長的 AI 能力。
  • 嚴格的「了解你的客戶」(Know Your Customer,KYC)法規: 要求雲端服務提供者和晶片製造商追蹤並驗證所有購買或租賃大量運算資源實體的身分與意圖。
  • 全球檢查機制: 建立具有權限檢查資料中心與晶圓廠以確保遵從的國際組織。

「我們需要一項全球協議,將人類生存置於經濟增長之上,」教授主張。「相比於滅絕的長期風險,限制晶片速度所帶來的短期經濟損失微不足道。」

產業與地緣政治現實

儘管理論上該提案提供了一條通向安全的邏輯路徑,產業分析師指出,實際執行將充滿地緣政治風險。

經濟影響:
AI 硬體市場目前是全球股市的引擎。像 NVIDIA、AMD、TSMC 與那些超大規模雲業者(hyperscalers,如 Microsoft、Google、Amazon)等公司,其兆元級的估值與運算持續擴張息息相關。被迫暫停發展很可能引發大規模的全球經濟衰退與科技類股的崩盤。

地緣政治緊張:
這項提議假設主要強權之間,尤其是美國與中國,會達成合作。在當前以科技競爭為核心、安全視角下的局勢中,要說服國家自願限制其能力,是一項巨大的外交挑戰。批評者認為,如果西方停下來,對手會轉而地下發展或加速其國內晶片能力,導致負責任的國家處於戰略劣勢。

反方觀點

反對「暫停」論述者,通常被稱為加速主義者(accelerationists,或稱 e/acc),反駁說 AI 超級智慧是解決人類最緊迫問題(如疾病、氣候變遷與能源短缺)所必需的。

從這個觀點看,停止晶片生產不僅是經濟上的自我傷害,也在道德上錯誤,因為它剝奪了人類治癒癌症或解決核融合能源問題的工具。此外,許多專家相信當前的大型語言模型(Large Language Models,LLMs)距離「超級智慧」還有相當距離,這類恐懼更像是科幻而非技術現實。他們主張,運算治理只會扼殺創新而不會帶來真正安全,因為演算法效率的改進最終可能讓強大的 AI 在較舊的硬體上執行。

結論:一個關鍵的分岔點

USA Today 的社論標誌著主流 AI 安全話語的一次重大升級。將對話從抽象倫理轉向具體產業政策——特別是鎖定半導體供應鏈——迫使政策制定者直面 AI 革命的物理現實。

無論是贊同教授的末日預測還是認為其言過其實,「運算供應鏈」作為主要控制槓桿的識別是不爭的事實。隨著 2026 年的推進,對於智能需求不受限制的壓力與對安全的迫切要求之間的緊張,可能會集中在這些有形資產上:台灣的晶圓廠與荷蘭的光刻機。

對於 AI 產業來說,訊息很清楚:無限制的硬體擴張時代,可能正吸引那些將 GPU 視為不僅是產品,而是潛在武器的監管者的注意。

重點摘錄:

  • 論點: 一位教授在 USA Today 主張,超級智慧是需要立即干預的存在性風險。
  • 解方: 全球暫停先進 AI 晶片的製造。
  • 目標: 產業的「瓶頸」:TSMC 的晶圓廠與 ASML 的光刻機。
  • 含意: 將 AI 安全從程式碼審計轉向對物理供應鏈的控制與國際條約。
精選