AI News

五角大廈的最後通牒:Anthropic 面臨合規或解約的抉擇

國防與人工智慧(Artificial Intelligence)的交集在本週達到了一個關鍵的燃點。繼一系列操作磨合問題後,據報導美國國防部(Department of Defense,簡稱 DoD)正準備切斷與 Anthropic 的聯繫。Anthropic 是一家總部位於舊金山的人工智慧安全(AI safety)研究實驗室,也是 Claude 語言模型系列的開發者。知情人士指出,五角大廈已發出嚴厲的最後通牒:移除限制 AI 在戰鬥場景中應用的倫理護欄,否則將面臨政府合約的立即終止。

這一進展標誌著矽谷倫理原則與華盛頓戰略需求之間持續緊張關係的重大升級。正如包括《衛報》(The Guardian)和《新德里電視台》(NDTV)在內的主流媒體報導,此次破裂的催化劑似乎是最近在 委內瑞拉 的一次軍事行動中發生的特定操作失敗,據稱嵌入在 Anthropic 模型中的安全協議阻礙了即時決策。

對於 Creati.ai 而言,這場對峙不僅僅是一場商業糾紛;它是「軍民兩用」技術未來的定義時刻。其結果可能會為 AI 公司如何在嘗試維持對 AI 安全的承諾的同時,應對國防承包的模糊地帶樹立先例。

催化劑:委內瑞拉事件

雖然緊張局勢已闖釀數月,但突破點發生在 2026 年 2 月初於委內瑞拉的一場機密行動之後。根據調查報告,美國特種部隊試圖利用 Anthropic 的先進模型 Claude 的客製化實例,在一場高風險突襲中分析即時監控數據並協調無人機物流。

然而,據報導該系統拒絕處理特定的目標請求,將指令標記為違反其「憲法 AI(Constitutional AI)」框架——這是一套旨在防止模型協助造成傷害或暴力的原則。該拒絕迫使指揮官改回手動處理,導致了關鍵的延遲。雖然國防部尚未正式解密任務細節,但內部人士暗示,延遲導致了戰術優勢的喪失。

這一事件激勵了 五角大廈(Pentagon) 內部的鷹派人士,他們認為「覺醒派 AI」(woke AI)是現代戰爭中的一項弱點。論點很直接:在演算法戰爭時代,一個因為倫理子程序而猶豫不決的工具,是一個在戰場上無法被信任的工具。

核心衝突:憲法 AI 對決 JADC2

這場爭端的核心是 Anthropic 的產品理念與軍方的**全域聯合指揮與控制(Joint All-Domain Command and Control,簡稱 JADC2)**學說之間的根本不匹配。

Anthropic 在擁擠的 AI 市場中脫穎而出,其優先考慮的是安全性。他們的「憲法 AI(Constitutional AI)」方法涉及根據源自《聯合國人權宣言》和其他框架的一系列倫理規則來訓練模型。這些規則明確禁止生成鼓勵暴力或協助武器部署的內容。

相反,五角大廈需要的是作為不可知力量倍增器的 AI 系統。他們要求模型能夠:

  • 優化殺傷鏈(Kill chains)。
  • 分析戰場致死率。
  • 為攻擊性網路行動生成代碼。

國防部將 Anthropic 施加的限制視為「能力降級因素」,而非安全功能。下表概述了導致摩擦的具體分歧。

表:Anthropic 與五角大廈之間的意識形態鴻溝

功能/需求 Anthropic 的「憲法 AI」立場 五角大廈的操作需求
致命應用 嚴格禁止;模型拒絕協助暴力。 必不可少;模型必須支援武器系統和目標定位。
指揮覆蓋 設計上無法實現;安全性是硬編碼的。 強制性;人類指揮官必須擁有完全控制權。
數據隱私 高;對監控處理有嚴格限制。 可變;需要處理侵入性的情報數據。
部署速度 因安全評估和紅隊演練而減慢。 立即;在衝突中需要「相關速度」(speed of relevance)。
倫理基礎 普世人權 / 減少傷害。 國家安全(National Security) / 任務成功。

最後通牒詳情

五角大廈的威脅不僅僅是修辭上的。據報導,國防官員已起草了一份指令,將取消那些終端用戶許可協議(EULA)限制其技術「合法軍事應用」的供應商資格。

如果執行,該政策將:

  1. 凍結現有合約: Anthropic 將失去目前與國防創新單位(DIU)的試點計畫。
  2. 黑名單未來招標: 該公司將失去參加即將到來的 100 億美元「梅文計畫 II」(Project Maven II)倡議的資格。
  3. 將資金轉向競爭對手: 資金將重新分配給像 Palantir、Anduril 或 Shield AI 這樣不施加類似限制的國防本土 AI 公司。

一位要求匿名的國防部高級官員表示:「我們不能擁有一種在交火中表現得像個拒服兵役者的軟體。我們需要的是合規,而不是哲學。」

行業連鎖反應:OpenAI 與 Google

Anthropic 面臨的壓力正在加劇,因為其競爭對手已經在轉向以適應軍方。曾一度猶豫不決的 OpenAI 在 2024 年初悄悄從其使用政策中移除了對「軍事和戰爭」的禁令。到 2026 年,OpenAI 已積極尋求與國防部的合作,將其模型定位為「任務就緒型」。

儘管 Google 過去曾遭遇內部抵制(如 2018 年員工對梅文計畫的抗議),但其 Google 公共部門(Google Public Sector)部門也一直在積極爭取國防合約。

Anthropic 是最後幾家對致命用途保持強硬立場的主要 AI 實驗室之一。如果他們屈服,這標誌著矽谷「AI 和平主義」時代的終結。如果他們堅持立場,則冒著失去全球最大客戶之一並在政府部門被邊緣化的風險。

倫理困境:安全還是主權?

對於 AI 社群而言,這條新聞引發了關於「軍民兩用」技術概念的深刻問題。如果一個模型可以被武器化,它還能是真正安全的嗎?反之,如果一個國家的最先進技術被禁止用於保衛國家,該國還能保持安全嗎?

支持五角大廈立場的論點:

  • 地緣政治競爭: 中國和俄羅斯等對手正將 AI 整合到其軍隊中,且沒有倫理限制。如果美國限制自己的系統,則面臨「威懾差距」的風險。
  • 操作必要性: 在高速戰爭中,倫理過濾器引入的延遲可能會付出生命代價。

支持 Anthropic 立場的論點:

  • 擴散風險: 允許 AI 優化戰爭降低了衝突的門檻,並可能導致不可控的升級。
  • 道德責任: 技術創造者有義務確保其發明不會促進大規模傷害。
  • 品牌誠信: Anthropic 的品牌價值建立在信任和安全之上。放棄這些原則可能會疏遠企業客戶和頂尖研究人才。

專家分析

美國新安全中心(CNAS)高級研究員 Elena Corves 博士告訴 Creati.ai:

「這是不可避免的。你不能建造歷史上最強大的認知引擎,卻期望軍方忽視它們。Anthropic 正在與世界上最強大的機構進行一場膽小鬼博弈(game of chicken)。雖然他們的倫理立場令人欽佩,但五角大廈通常是這類對峙中的贏家。最可能的結果是分叉:Anthropic 可能必須建立一個去除了安全過濾器的 Claude 『政府雲』版本,或者完全退出國防部門。」

然而,其他人認為 Anthropic 擁有籌碼。據報導,Claude 5 系列的認知推理能力在處理複雜、細微的邏輯方面優於競爭對手——這正是情報分析師所需要的。如果五角大廈切斷聯繫,他們將失去獲得頂尖能力的管道。

接下來會發生什麼?

隨著華盛頓閉門談判的繼續,結果仍不確定。Anthropic 回應國防部新合規要求的截止日期定在 2026 年 2 月底。

如果 Anthropic 拒絕,我們可能會看到一個分化的 AI 版圖:

  1. 商業 AI: 安全、對齊且受限(由 Anthropic 主導)。
  2. 主權 AI: 不受限、致命且由國家控制(由國防承包商和合規的科技巨頭主導)。

目前,「委內瑞拉事件」是一個嚴酷的警告:理論性的 人工智慧倫理(AI ethics) 時代已經結束。技術現在正處於前線,交戰規則正在被即時書寫。

Creati.ai 將繼續關注這一事態發展,並在 Anthropic 和國防部發布官方聲明時提供更新。

精選