AI News

矽谷與特種作戰的交匯點

本週傳出的消息震驚了技術領域與地緣政治景觀,報告證實美國國防部(U.S. Department of Defense,DoD)在逮捕委內瑞拉總統馬杜洛(Nicolás Maduro)的高風險行動中,使用了 Anthropic 的大型語言模型 Claude。這次由美國特種部隊執行的突襲行動,標誌著生成式人工智慧(Generative AI)整合進活躍軍事戰區的決定性轉折點。

然而,儘管五角大廈(Pentagon)稱讚這次行動是現代戰爭與情報合成的勝利,但該事件已在 Anthropic 內部引發了嚴重的危機。這家總部位於舊金山的 AI 實驗室建立在安全與「憲法人工智慧(Constitutional AI)」的原則之上,如今正面臨深刻的身分認同鬥爭。其旗艦模型被用於導致政權更迭的動能行動(kinetic operation),挑戰了其倫理對齊的核心,引發了關於高級人工智慧系統雙重用途性質的激烈辯論。

Creati.ai 分析了事態的發展、Claude 在行動中扮演的具體角色,以及對 AI 產業與國防關係的更廣泛影響。

戰術情報:Claude 如何被部署

根據《Axios》和《福斯新聞》(Fox News)的報導,美國軍方並未直接使用 Claude 來控制武器或自主無人機。相反地,該 AI 被部署為高級情報分析師與戰略合成器。在監視米拉弗洛雷斯宮(Miraflores Palace)期間產生的大量數據,需要超出人類能力的處理速度。

國防官員指出,Claude 的大上下文窗口(large context window)——這是 Anthropic 一直積極倡導的功能——是其被選中執行任務的決定性因素。該模型被賦予的任務是分析碎片化的通訊、衛星圖像元數據,以及與馬杜洛安全細節相關的數十年行為模式。

AI 在行動中的關鍵功能

  • 模式識別: Claude 處理了加密的通訊日誌,以識別委內瑞拉總統衛隊安全輪班中的異常情況。
  • 預測性物流: 該 AI 根據即時交通和天氣數據,模擬了委內瑞拉軍事單位的潛在逃生路線和反應時間。
  • 虛假訊息過濾: 在突襲前的混亂階段,Claude 被用來篩選國家贊助的宣傳,以識別真實的部隊調動。

行動的成功表明,大型語言模型(Large Language Models,LLMs)已從實驗性試點晉升為特種作戰司令部(Special Operations Command,SOCOM)中的關鍵任務資產。

Anthropic 的內部紛爭

雖然 五角大廈 正在慶祝,但據報導 Anthropic 內部的氣氛異常緊張。接近該公司的消息人士透露,很大一部分研究人員和安全工程師正在抗議公司與美國國防部的合作。這種內部摩擦凸顯了在向政府機構銷售企業級訪問權限時,維持嚴格「AI 安全」協議的難度。

Anthropic 在歷史上一直透過強調安全第一的方法,將自己與 OpenAI 和 Google 等競爭對手區分開來。他們的「憲法人工智慧」框架旨在使模型與人類價值觀保持一致,從理論上防止它們協助造成傷害。

價值觀的衝突

爭議的核心在於對 Anthropic 可接受使用政策(Acceptable Use Policy,AUP)的解讀。雖然其政策的最新更新放寬了關於「軍事用途」的措辭,以允許情報分析和物流,但許多員工認為,直接支持逮捕外國元首的突襲行動違反了其使命的精神,即便沒有違反字面規定。

下表概述了軍事緊急需求與安全對齊之間的衝突:

因素 軍事行動需求 Anthropic 的「憲法人工智慧」特質
決策速度 需要即時處理致命場景 優先考慮審慎並拒絕有害請求
透明度 行動是機密且「黑箱」的 強調可解釋性與說明性
結果 任務成功(逮捕/中和) 減少傷害與非暴力
數據隱私 攝取敏感、機密的監視數據 嚴格的訓練數據清理與隱私邊界

據報導,員工們傳閱了一封內部信函,要求澄清「殺傷鏈(kill chain)」。擔憂之處不一定在於 Claude 扣動了扳機,而是在於它提供了直接促成動能軍事結果的可行動情報。

AI 可接受使用政策的演變

這一事件成為整個 AI 產業對軍事合約立場演變的試金石。2024 年初,Anthropic 與 OpenAI 一起悄悄更新了服務條款,刪除了對「軍事和戰爭」用途的全面禁令,轉而禁止「武器開發」和「財產破壞」。

這種語義上的轉變為五角大廈在 委內瑞拉 行動中使用 Claude 鋪平了道路。透過將模型的作用歸類為「情報合成」而非「武器」,國防部與 Anthropic 的領導層繞過了一個目前正受到嚴厲審查的漏洞。

對產業的影響:

  1. 軍事 AI 的常態化: 這一成功的高知名度案例使商業 LLM 在戰情室中的存在變得常態化。
  2. 「不造成傷害」原則的侵蝕: 「傷害」的定義正被重新校準,以適應國家安全利益。
  3. 合約審查: 企業客戶可能會要求更嚴格的保證,確保其數據或模型不會被用於雙重用途場景。

全球反應與地緣政治後果

逮捕 馬杜洛 是一項重大的地緣政治事件,但所使用的方法同樣引起了關注。國際法律專家開始質疑 AI 開發者在國家贊助行動中的責任。

如果 AI 模型產生幻覺(hallucinates)或提供導致平民傷亡的錯誤情報,問責權歸誰?在委內瑞拉突襲案中,從美國軍方的角度來看,結果是「乾淨」的,但先例已經開啟。對手國家可能會加速將其國內 AI 模型整合進 軍事行動,將美國對 Claude 的依賴視為對 AI 輔助戰爭的認可。

「軍備競賽」敘事

批評者認為,透過允許 Claude 以這種身分被使用,Anthropic 在無意中推動了 AI 軍備競賽。技術主權現在已等同於軍事優勢。

「我們正跨越盧比孔河(Rubicon),舊金山編寫的軟體正直接影響著南美洲政府的命運。編寫代碼的開發人員可能從未打算讓它被用於突襲指揮官的戰術平板電腦上,」一位數位權利分析師在相關的《今日印度》(India Today)報導中指出。

未來展望:監管與現實

隨著委內瑞拉行動的塵埃落定,技術領域正面臨一場清算。Anthropic 的「紛爭」可能是所有主要 AI 實驗室將會發生情況的一個縮影。國防合約的財務誘惑正與 AI 安全運動的理想主義根源發生碰撞。

對於 Creati.ai 的讀者和產業觀察者來說,未來幾個月值得關注的關鍵指標將是:

  • 政策修訂: Anthropic 會因員工的反彈而收緊其 AUP,還是會加倍投入「防禦性」軍事應用?
  • 人才遷移: 我們可能會看到專注於安全的研究人員流向非營利組織或學術界,而現實主義者則留下建立「國家安全 AI」。
  • 政府依賴: 五角大廈對私營部門黑箱模型的依賴構成了長期安全風險。

馬杜洛的被捕將因其地緣政治影響而被載入史冊,但在技術領域,它將被記住為通用 AI 被徵召入伍服役的時刻。「憲法」護欄已經受測試,而軍方找到了突破之路。

精選