
國防與人工智慧(Artificial Intelligence)的交集在本週達到了一個關鍵的燃點。繼一系列操作磨合問題後,據報導美國國防部(Department of Defense,簡稱 DoD)正準備切斷與 Anthropic 的聯繫。Anthropic 是一家總部位於舊金山的人工智慧安全(AI safety)研究實驗室,也是 Claude 語言模型系列的開發者。知情人士指出,五角大廈已發出嚴厲的最後通牒:移除限制 AI 在戰鬥場景中應用的倫理護欄,否則將面臨政府合約的立即終止。
這一進展標誌著矽谷倫理原則與華盛頓戰略需求之間持續緊張關係的重大升級。正如包括《衛報》(The Guardian)和《新德里電視台》(NDTV)在內的主流媒體報導,此次破裂的催化劑似乎是最近在 委內瑞拉 的一次軍事行動中發生的特定操作失敗,據稱嵌入在 Anthropic 模型中的安全協議阻礙了即時決策。
對於 Creati.ai 而言,這場對峙不僅僅是一場商業糾紛;它是「軍民兩用」技術未來的定義時刻。其結果可能會為 AI 公司如何在嘗試維持對 AI 安全的承諾的同時,應對國防承包的模糊地帶樹立先例。
雖然緊張局勢已闖釀數月,但突破點發生在 2026 年 2 月初於委內瑞拉的一場機密行動之後。根據調查報告,美國特種部隊試圖利用 Anthropic 的先進模型 Claude 的客製化實例,在一場高風險突襲中分析即時監控數據並協調無人機物流。
然而,據報導該系統拒絕處理特定的目標請求,將指令標記為違反其「憲法 AI(Constitutional AI)」框架——這是一套旨在防止模型協助造成傷害或暴力的原則。該拒絕迫使指揮官改回手動處理,導致了關鍵的延遲。雖然國防部尚未正式解密任務細節,但內部人士暗示,延遲導致了戰術優勢的喪失。
這一事件激勵了 五角大廈(Pentagon) 內部的鷹派人士,他們認為「覺醒派 AI」(woke AI)是現代戰爭中的一項弱點。論點很直接:在演算法戰爭時代,一個因為倫理子程序而猶豫不決的工具,是一個在戰場上無法被信任的工具。
這場爭端的核心是 Anthropic 的產品理念與軍方的**全域聯合指揮與控制(Joint All-Domain Command and Control,簡稱 JADC2)**學說之間的根本不匹配。
Anthropic 在擁擠的 AI 市場中脫穎而出,其優先考慮的是安全性。他們的「憲法 AI(Constitutional AI)」方法涉及根據源自《聯合國人權宣言》和其他框架的一系列倫理規則來訓練模型。這些規則明確禁止生成鼓勵暴力或協助武器部署的內容。
相反,五角大廈需要的是作為不可知力量倍增器的 AI 系統。他們要求模型能夠:
國防部將 Anthropic 施加的限制視為「能力降級因素」,而非安全功能。下表概述了導致摩擦的具體分歧。
表:Anthropic 與五角大廈之間的意識形態鴻溝
| 功能/需求 | Anthropic 的「憲法 AI」立場 | 五角大廈的操作需求 |
|---|---|---|
| 致命應用 | 嚴格禁止;模型拒絕協助暴力。 | 必不可少;模型必須支援武器系統和目標定位。 |
| 指揮覆蓋 | 設計上無法實現;安全性是硬編碼的。 | 強制性;人類指揮官必須擁有完全控制權。 |
| 數據隱私 | 高;對監控處理有嚴格限制。 | 可變;需要處理侵入性的情報數據。 |
| 部署速度 | 因安全評估和紅隊演練而減慢。 | 立即;在衝突中需要「相關速度」(speed of relevance)。 |
| 倫理基礎 | 普世人權 / 減少傷害。 | 國家安全(National Security) / 任務成功。 |
五角大廈的威脅不僅僅是修辭上的。據報導,國防官員已起草了一份指令,將取消那些終端用戶許可協議(EULA)限制其技術「合法軍事應用」的供應商資格。
如果執行,該政策將:
一位要求匿名的國防部高級官員表示:「我們不能擁有一種在交火中表現得像個拒服兵役者的軟體。我們需要的是合規,而不是哲學。」
Anthropic 面臨的壓力正在加劇,因為其競爭對手已經在轉向以適應軍方。曾一度猶豫不決的 OpenAI 在 2024 年初悄悄從其使用政策中移除了對「軍事和戰爭」的禁令。到 2026 年,OpenAI 已積極尋求與國防部的合作,將其模型定位為「任務就緒型」。
儘管 Google 過去曾遭遇內部抵制(如 2018 年員工對梅文計畫的抗議),但其 Google 公共部門(Google Public Sector)部門也一直在積極爭取國防合約。
Anthropic 是最後幾家對致命用途保持強硬立場的主要 AI 實驗室之一。如果他們屈服,這標誌著矽谷「AI 和平主義」時代的終結。如果他們堅持立場,則冒著失去全球最大客戶之一並在政府部門被邊緣化的風險。
對於 AI 社群而言,這條新聞引發了關於「軍民兩用」技術概念的深刻問題。如果一個模型可以被武器化,它還能是真正安全的嗎?反之,如果一個國家的最先進技術被禁止用於保衛國家,該國還能保持安全嗎?
支持五角大廈立場的論點:
支持 Anthropic 立場的論點:
美國新安全中心(CNAS)高級研究員 Elena Corves 博士告訴 Creati.ai:
「這是不可避免的。你不能建造歷史上最強大的認知引擎,卻期望軍方忽視它們。Anthropic 正在與世界上最強大的機構進行一場膽小鬼博弈(game of chicken)。雖然他們的倫理立場令人欽佩,但五角大廈通常是這類對峙中的贏家。最可能的結果是分叉:Anthropic 可能必須建立一個去除了安全過濾器的 Claude 『政府雲』版本,或者完全退出國防部門。」
然而,其他人認為 Anthropic 擁有籌碼。據報導,Claude 5 系列的認知推理能力在處理複雜、細微的邏輯方面優於競爭對手——這正是情報分析師所需要的。如果五角大廈切斷聯繫,他們將失去獲得頂尖能力的管道。
隨著華盛頓閉門談判的繼續,結果仍不確定。Anthropic 回應國防部新合規要求的截止日期定在 2026 年 2 月底。
如果 Anthropic 拒絕,我們可能會看到一個分化的 AI 版圖:
目前,「委內瑞拉事件」是一個嚴酷的警告:理論性的 人工智慧倫理(AI ethics) 時代已經結束。技術現在正處於前線,交戰規則正在被即時書寫。
Creati.ai 將繼續關注這一事態發展,並在 Anthropic 和國防部發布官方聲明時提供更新。