Anthropic在法庭文件中駁斥五角大廈的主張,否認同意破壞軍用AI工具
Anthropic已提交法庭回應,否認曾同意允許五角大廈破壞或停用其Claude人工智慧工具,這與美國國防部的說法相牴觸,並使這場關於美軍應用中AI安全防護措施的高調爭議升級。
Anthropic已提交法庭回應,否認曾同意允許五角大廈破壞或停用其Claude人工智慧工具,這與美國國防部的說法相牴觸,並使這場關於美軍應用中AI安全防護措施的高調爭議升級。
Anthropic 公布了 2025 年 12 月針對來自 159 個國家、超過 80,000 名 Claude 使用者的調查結果,顯示有 67% 對 AI 持正面看法;同時,用戶最重視的功能——生產力與情感支持——也使他們對依賴、失業和認知能力衰退產生最深的恐懼。
AI 程式碼新創公司 Cursor 發布了 Composer 2,這是一個專為軟體開發設計、僅以程式碼資料訓練的模型,在 CursorBench 上得分 61.3,表現可比 Claude Opus 4.6 與 GPT-5.4,且代幣價格顯著更低,該公司同時展開談判,目標估值達 500 億美元。
美國戰爭部在一份法庭文件中對Anthropic提出新的國家安全疑慮,指出該人工智慧公司僱用了大量外國籍員工,包括來自中國的員工,並主張這根據中國的國家情報法增加了對抗性風險。
五角大廈的首席技術官表示,國防部有信心能在六個月的期限內逐步淘汰Anthropic的Claude,並部署OpenAI和Gemini作為替代方案,儘管軍方使用者和產業專家警告此過渡將非常複雜。
Oasis Security 的研究人員發現 Anthropic 的 Claude 中有三個串聯漏洞 — 包括提示注入(prompt injection)、Files API 的外洩路徑及開放重導向 — 可透過 Google 搜尋廣告進行無聲資料竊取。
川普政府提交了法庭簡報,主張Anthropic的AI安全限制使其成為不可接受的國家安全風險,為五角大樓的供應鏈風險指定辯護。
美國國防部在將該公司列為供應鏈風險後,已開始進行工程工作以在其系統中替換Anthropic的Claude AI;同時Anthropic在聯邦法院起訴五角大樓,挑戰這一前所未有的黑名單。
Anthropic宣佈在離峰時段將Claude AI訂閱者的使用上限加倍,這是一項重要的容量擴充,恰逢自2026年1月以來Claude的日活躍用戶激增超過140%。
Anthropic 就五角大廈對其作出的「供應鏈風險」認定提起的訴訟,在 ACLU 與 CDT 提交法庭之友意見書,主張該認定非法懲罰公司受第一修正案保護的 AI 安全倡議後,獲得新一波動能。
在五角大廈將其指定為「對國家安全的供應鏈風險」後,Anthropic 向聯邦法院提起訴訟,指控政府因該公司拒絕允許其 Claude 模型用於自主武器和大規模國內監控而對其進行報復。
Anthropic 向其新的 Claude 夥伴網絡投入 $100M,招募 Accenture、Deloitte 和 Cognizant,旨在讓 Claude 成為全球企業的預設 AI 平台。
Palantir 執行長 Alex Karp 公開批評 Anthropic 不願與美國國防部合作,主張拒絕接受政府防務合約的 AI 公司正在削弱國家安全,並表示從未認為此類限制是合理的。
在五角大廈負責 AI 的主管稱該公司立場為「bananas」之後,Anthropic 與美國國防部之間的法律與公開爭議加劇。衝突核心在於供應鏈風險的指定,Anthropic 主張此舉威脅到其獨立運作的能力。
Anthropic 推出了測試版功能,讓 Claude 能在對話中內嵌生成互動式圖表、圖示和資料視覺化,對所有方案等級免費開放,並直接與 OpenAI 和 Google 的類似工具競爭。
據報導,Anthropic 正與私募股權巨頭 Blackstone 與 Hellman & Friedman 進行深入討論,計劃成立一間新的 AI 合資公司,同時該公司也在法庭上對五角大廈的供應鏈指定提出抗辯。
微軟在聯邦法院提交了一份法庭之友意見書,支持Anthropic對五角大廈的訴訟,敦促法官發布臨時禁制令以阻止國防部(DOD)將其列為供應鏈風險,並警告該禁令可能會透過干擾已在使用的人工智慧系統而『妨礙美國作戰人員』。
來自 Google DeepMind 和 OpenAI 的 30 多名員工,包括 Google 的首席科學家 Jeff Dean,提交了一份法庭之友意見書,警告五角大廈將 Anthropic 列入黑名單會威脅整個美國人工智慧產業的全球競爭力,並可能引發更廣泛的科技工作者抗議。
Anthropic 推出 Code Review for Claude Code,一款多代理的 AI 工具,能自動分析 GitHub 的 pull request 是否存在邏輯錯誤,依嚴重性優先排序檢出結果,每次審查收費 $15–$25——以應對企業環境中因 AI 生成程式碼激增而帶來的日益嚴重的瓶頸問題。
Anthropic 已推出適用於 Claude Code 的全新多智能體程式碼審查工具,旨在自動偵測軟體開發流程中日益增長的 AI 生成程式碼中的錯誤與安全漏洞。