上院議員スロトキン、国防総省による自律型AI兵器と大規模監視を禁止する法案を提出
エリッサ・スロトキン上院議員は、AIが自律的に標的を殺害することを決定できないこと、AIが米国民の大規模監視に使用されないこと、AIが核兵器を発射できないことを法律として定めるための立法を提案しました — これはペンタゴンとAnthropicの対立に直接対応するものです。
エリッサ・スロトキン上院議員は、AIが自律的に標的を殺害することを決定できないこと、AIが米国民の大規模監視に使用されないこと、AIが核兵器を発射できないことを法律として定めるための立法を提案しました — これはペンタゴンとAnthropicの対立に直接対応するものです。
米国防総省は同社をサプライチェーンのリスクに指定した後、AnthropicのClaude AIを自社システムから置き換えるためのエンジニアリング作業を開始しました。一方でAnthropicは、前例のないブラックリストに異議を唱え、連邦裁判所に対してペンタゴンを訴えています。
Anthropicが国防総省に対して行った『サプライチェーンリスク』指定をめぐる訴訟は、ACLUとCDTがアミカスブリーフを提出し、この指定が同社の第一修正条項で保護されたAI安全性の擁護を不法に罰していると主張したことで新たな勢いを得た。
ペンタゴンが同社を「サプライチェーン上の国家安全保障リスク」と指定した後、Anthropic はトランプ政権を相手取って連邦訴訟を起こし、Claude モデルを自律兵器や大規模な国内監視に使用させることを拒んだことに対する政府の報復だと非難しています。
PentagonのAI責任者が同社の立場を「bananas」と呼んだ後、Anthropicと米国防総省との法的・公開の争いは激化した。争点はサプライチェーンのリスク指定で、Anthropicはこれが独立して事業を行う能力を脅かすと主張している。
Microsoftは連邦裁判所にアミカスブリーフを提出し、Anthropicのペンタゴンを相手取った訴訟を支持、裁判官にDODのサプライチェーンリスク指定を差し止める一時差し止め命令を出すよう求め、禁止が既に使用されているAIシステムを妨げることで「米国の戦闘員を妨げる」可能性があると警告しました。
OpenAI、Google DeepMind、その他のAI企業の従業員が、AI安全性に関する規制をめぐるAnthropicの国防総省に対する訴訟を支援するため、アミカスブリーフを提出してAnthropicの弁護に駆けつけた。
OpenAIのロボティクスチーム責任者であるCaitlin Kalinowskiは、OpenAIと米国防総省との合意が国内監視や致死的な自律兵器に対する十分な安全策を欠いていると懸念して辞任した。彼女はこれをガバナンスの失敗だと述べた。
AnthropicのCEOダリオ・アモデイは、ペンタゴンが同社を国家安全保障に関わるサプライチェーン上のリスクと指定した前例のない決定を法廷で争うと誓った。米国企業がこのような指定を受けるのは今回が初めてだ。
報道によれば、AnthropicのCEOダリオ・アモデイはペンタゴン職員エミール・マイケルと再び交渉の席につき、国防総省(DoD)が同社をブラックリストに入し、OpenAIと競合する契約を結んだ後も、妥協案となるAI契約を模索しているという。
米国戦争省は、Anthropicが自律兵器と大規模監視に関する安全制限を解除することを拒否したため、2億ドルの契約を終了し、同社を国家安全保障に対する前例のないサプライチェーンのリスクと指定した。
OpenAIのCEOサム・アルトマンは、強い世論の反発を受け、同社が国防総省との契約を修正し、大量の国内監視や完全自律兵器に対するAIの使用に明確な制限を加えることを確認した。
OpenAIは国防総省との合意内容を概説するブログ投稿を公開し、大規模な国内監視や自律兵器に対するレッドラインは維持すると述べた一方で、CEOのサム・アルトマンは取引が急いで行われ、多大な反発を招いたことを認めた — その中にはAnthropicのClaudeがApp StoreでChatGPTを上回ったことも含まれる。
国防長官ピート・ヘグセスは、Anthropicを「国家安全保障に対するサプライチェーンのリスク」と正式に指定し、同社が自社技術を自治型致死兵器や大規模監視に無制限に軍事利用することを許可しなかったため、ペンタゴンの契約業者によるClaudeの使用を禁止した。
ペンタゴンとの大きな論争を受け、AnthropicのAIチャットボットClaudeの人気が急上昇し、Appleの米国App Storeで2位に上昇しました。
ペンタゴンの禁止措置を受けて、AnthropicのCEOダリオ・アモデイは「私たちは愛国的なアメリカ人です」と述べ、AIの安全性に関する同社の「レッドライン」を守りつつ米国を守るという会社の姿勢を改めて強調しました。
OpenAIは自社のAIモデルに関してペンタゴンとの契約を獲得した。一方、トランプ政権は競合のAnthropicを「サプライチェーンのリスク」と指定し、政府契約から排除した。
トランプ大統領は、すべての連邦機関にAnthropicのClaude AIを段階的に排除するよう指示し、同社が軍事利用のための安全対策の撤去を求める国防総省の要求を拒否した後、同社を国家安全保障上の脅威と位置づけました。
AnthropicのCEOダリオ・アモデイは、ペンタゴンの最終的な契約案を公に拒否し、ブラックリスト化や国防生産法の適用の脅しにもかかわらず、Claude AIを自律兵器や大規模な国内監視に使用することを許可しないと表明しました。
国防長官ピート・ヘグセス(Pete Hegseth)は、Anthropicが金曜までに自社のAIモデルClaudeへの米軍の無制限アクセスを許可しない場合、Defense Production Actを発動しAnthropicをサプライチェーン上のリスクと指定すると脅した。