트럼프 행정부, 국방부의 Anthropic 금지 조치를 막은 법원 판결에 항소
법무부는 Claude의 군사적 사용 가드레일을 이유로 Anthropic에 대한 국방부의 공급망 위험 지정 조치를 막은 연방 판사의 명령에 항소하고 있다.
법무부는 Claude의 군사적 사용 가드레일을 이유로 Anthropic에 대한 국방부의 공급망 위험 지정 조치를 막은 연방 판사의 명령에 항소하고 있다.
미 연방지방법원 판사 리타 린은 펜타곤의 Anthropic을 국가 안보 공급망 위험으로 지정한 조치를 중단시키는 예비 금지명령을 내렸으며, 이 조치는 회사가 군사적 사용을 위해 AI 안전 장치를 제거하라는 요구를 거부한 것에 대한 불법적인 보복일 가능성이 높다고 판결했다.
Anthropic는 펜타곤이 자사의 Claude AI 도구를 파괴하거나 비활성화하도록 허용한 적이 없다고 부인하는 법원 답변서를 제출했다. 이는 미 국방부(DoD)의 주장과 상충하며 미군 적용 분야의 AI 안전 장치에 대한 주목받는 분쟁을 격화시키고 있다.
부국방장관 스티브 파인버그의 메모는 펜타곤이 Palantir의 Maven AI를 공식 기록 프로그램으로 지정하고 해당 무기 표적화 기술을 2026년 9월까지 미군의 모든 군종에 도입할 것임을 확인했습니다.
미국 전쟁부는 법원 제출 문서에서 Anthropic에 대한 새로운 국가안보 우려를 제기하며, 해당 인공지능 회사가 중국 출신 근로자를 포함한 다수의 외국인을 고용하고 있음을 언급하면서 이는 중국의 국가정보법에 따라 적대적 위험을 증가시킨다고 주장했다.
펜타곤의 최고기술책임자는 국방부가 6개월 기한 내에 Anthropic의 Claude를 단계적으로 폐기하고 대안으로 OpenAI와 Gemini를 배치할 수 있다고 자신하며, 군 사용자들과 업계 전문가들은 전환이 복잡할 것이라고 경고하고 있다고 말했다.
Google DeepMind 타운홀에서 부사장 톰 루와 CEO 데미스 하사비스는 회사가 무기 관련 AI 사용을 반대하겠다는 이전 약속을 철회하고 펜타곤과의 국가 안보 AI 계약을 적극적으로 확장하고 있다고 직원들에게 밝혔다.
트럼프 행정부는 Anthropic의 AI 안전 제한이 받아들일 수 없는 국가 안보 위험을 초래한다고 주장하는 법원 제출 문서를 제출하며 펜타곤의 공급망 위험 지정에 대해 옹호했다.
엘리사 슬로트킨 상원 의원은 AI가 자율적으로 표적을 살해하기로 결정할 수 없고, 미국인에 대한 대규모 감시에 사용될 수 없으며, 핵무기를 발사할 수 없도록 법으로 명문화하는 법안을 발의했습니다 — 이는 펜타곤과 Anthropic 간의 갈등에 직접적으로 대응한 것입니다.
미 국방부는 회사를 공급망 위험으로 지정한 뒤 Anthropic의 Claude AI를 자사 시스템 전반에서 대체하기 위한 엔지니어링 작업을 시작했으며, Anthropic은 전례 없는 블랙리스트에 이의를 제기하며 연방 법원에 펜타곤을 고소했습니다.
Anthropic가 국방부의 '공급망 위험' 지정에 대해 제기한 소송은 ACLU와 CDT가 amicus brief를 제출하며 이 지정이 회사의 수정헌법 제1조가 보호하는 AI 안전 옹호 활동을 불법적으로 처벌한다고 주장함에 따라 새로운 동력을 얻었다.
펜타곤이 이를 '공급망 상 국가 안보 위험'으로 지정한 뒤 Anthropic은 트럼프 행정부를 상대로 연방 소송을 제기했으며, Claude 모델을 자율무기와 대규모 국내 감시에 사용하도록 허용하지 않은 것에 대해 정부가 보복했다고 비난하고 있습니다.
펜타곤의 AI 책임자가 해당 회사의 입장을 'bananas'라고 표현한 이후 Anthropic과 미 국방부 간의 법적·공개적 분쟁이 심화되었다. 갈등은 공급망 위험 지정에 초점을 맞추고 있으며, Anthropic은 이것이 독립적으로 운영할 능력을 위협한다고 주장한다.
마이크로소프트는 연방 법원에 Amicus 서면을 제출해 펜타곤을 상대로 한 Anthropic의 소송을 지지하며, 판사에게 국방부(DOD)의 공급망 위험 지정 결정을 막는 임시 금지명령을 내려달라고 촉구하고, 해당 금지가 이미 사용 중인 AI 시스템을 방해해 '미군 전투원들을 저해할 수 있다'고 경고했습니다.
OpenAI, Google DeepMind 및 기타 AI 기업의 직원들이 AI 안전성 규제와 관련된 Anthropic의 국방부 소송을 지원하기 위해 아미커스 브리프를 제출하며 Anthropic을 적극 옹호했다.
OpenAI의 로보틱스 팀 책임자인 Caitlin Kalinowski는 OpenAI와 미 국방부 간의 합의가 국내 감시와 치명적 자율 무기에 대한 충분한 안전장치를 갖추지 못했다고 우려하며 사임했다. 그녀는 이를 거버넌스 실패라고 규정했다.
Anthropic의 CEO 다리오 아모데이는 펜타곤이 이 AI 회사를 국가 안보 공급망 위험으로 지정한 전례 없는 결정에 대해 법원에서 다투겠다고 다짐했다. 이는 미국 기업이 이러한 지정을 받은 최초의 사례다.
보도에 따르면 Anthropic의 CEO 다리오 아모데이는 펜타곤 관리인 에밀 마이클과 다시 협상 테이블에 앉아 타협 가능한 AI 계약을 모색하고 있다. 이는 미 국방부(DoD)가 회사를 블랙리스트에 올리고 OpenAI와 경쟁 계약을 체결한 이후의 일이다.
미국 전쟁부는 인공지능 회사가 자율 무기와 대규모 감시에 대한 안전 규제를 해제하기를 거부하자 Anthropic과의 2억 달러 계약을 해지하고, 이를 국가 안보에 대한 전례 없는 공급망 위험으로 지정했다.
OpenAI의 CEO 샘 올트먼은 강한 여론의 반발 이후 회사가 국방부와의 계약을 수정하여 대규모 국내 감시 및 완전 자율 무기에 대한 AI 사용에 명시적 제한을 추가하고 있음을 확인했다.