Anthropic, 법원 제출 문서에서 펜타곤 주장 반박…군용 AI 도구 파괴 동의 부인
Anthropic는 펜타곤이 자사의 Claude AI 도구를 파괴하거나 비활성화하도록 허용한 적이 없다고 부인하는 법원 답변서를 제출했다. 이는 미 국방부(DoD)의 주장과 상충하며 미군 적용 분야의 AI 안전 장치에 대한 주목받는 분쟁을 격화시키고 있다.
Anthropic는 펜타곤이 자사의 Claude AI 도구를 파괴하거나 비활성화하도록 허용한 적이 없다고 부인하는 법원 답변서를 제출했다. 이는 미 국방부(DoD)의 주장과 상충하며 미군 적용 분야의 AI 안전 장치에 대한 주목받는 분쟁을 격화시키고 있다.
Anthropic은 2025년 12월에 실시한 159개국의 80,000명 이상 Claude 사용자 대상 설문조사 결과를 발표했으며, 그 결과 67%가 AI에 대해 긍정적인 견해를 가지고 있는 반면 사용자가 가장 가치 있게 여기는 기능인 생산성 및 정서적 지원이 의존성, 실직, 인지 능력 저하에 대한 가장 깊은 두려움을 촉발한다는 것을 보여주었습니다.
AI 코딩 스타트업 Cursor가 Composer 2를 공개했습니다. 이 모델은 소프트웨어 개발 전용으로 코드 데이터만으로 학습되었으며 CursorBench에서 61.3점을 기록해 Claude Opus 4.6 및 GPT-5.4와 대등한 성능을 보이면서도 토큰당 요금은 훨씬 저렴합니다. 회사는 500억 달러 가치 평가를 위한 협상을 시작했습니다.
미국 전쟁부는 법원 제출 문서에서 Anthropic에 대한 새로운 국가안보 우려를 제기하며, 해당 인공지능 회사가 중국 출신 근로자를 포함한 다수의 외국인을 고용하고 있음을 언급하면서 이는 중국의 국가정보법에 따라 적대적 위험을 증가시킨다고 주장했다.
펜타곤의 최고기술책임자는 국방부가 6개월 기한 내에 Anthropic의 Claude를 단계적으로 폐기하고 대안으로 OpenAI와 Gemini를 배치할 수 있다고 자신하며, 군 사용자들과 업계 전문가들은 전환이 복잡할 것이라고 경고하고 있다고 말했다.
Oasis Security 연구원들은 Anthropic의 Claude에서 세 개의 연쇄적인 결함을 발견했습니다 — 프롬프트 인젝션, Files API를 통한 유출 경로, 오픈 리디렉트 등을 포함 — 이를 통해 Google 검색 광고를 통해 은밀하게 데이터를 탈취할 수 있습니다.
트럼프 행정부는 Anthropic의 AI 안전 제한이 받아들일 수 없는 국가 안보 위험을 초래한다고 주장하는 법원 제출 문서를 제출하며 펜타곤의 공급망 위험 지정에 대해 옹호했다.
미 국방부는 회사를 공급망 위험으로 지정한 뒤 Anthropic의 Claude AI를 자사 시스템 전반에서 대체하기 위한 엔지니어링 작업을 시작했으며, Anthropic은 전례 없는 블랙리스트에 이의를 제기하며 연방 법원에 펜타곤을 고소했습니다.
Anthropic는 Claude의 일일 활성 사용자가 2026년 1월 이후 140% 이상 급증함에 따라 비혼잡 시간대에 Claude AI 가입자의 사용 한도를 2배로 늘린다고 발표했다. 이는 중요한 용량 확장이다.
Anthropic가 국방부의 '공급망 위험' 지정에 대해 제기한 소송은 ACLU와 CDT가 amicus brief를 제출하며 이 지정이 회사의 수정헌법 제1조가 보호하는 AI 안전 옹호 활동을 불법적으로 처벌한다고 주장함에 따라 새로운 동력을 얻었다.
펜타곤이 이를 '공급망 상 국가 안보 위험'으로 지정한 뒤 Anthropic은 트럼프 행정부를 상대로 연방 소송을 제기했으며, Claude 모델을 자율무기와 대규모 국내 감시에 사용하도록 허용하지 않은 것에 대해 정부가 보복했다고 비난하고 있습니다.
Anthropic은 새로운 Claude 파트너 네트워크에 $100M을 약정하고 Accenture, Deloitte, Cognizant를 참여시켜 Claude를 글로벌 기업의 기본 AI 플랫폼으로 만들고자 합니다.
Palantir의 CEO 알렉스 카프는 Anthropic이 미국 국방부와 협력하기를 꺼리는 것을 공개적으로 비판하며, 정부의 방위 계약을 거부하는 AI 기업들이 국가 안보를 약화시키고 있으며 이런 제한이 정당하다고 느껴진 적은 '단 한 번도 없다'고 주장했다.
펜타곤의 AI 책임자가 해당 회사의 입장을 'bananas'라고 표현한 이후 Anthropic과 미 국방부 간의 법적·공개적 분쟁이 심화되었다. 갈등은 공급망 위험 지정에 초점을 맞추고 있으며, Anthropic은 이것이 독립적으로 운영할 능력을 위협한다고 주장한다.
Anthropic이 베타 기능을 출시해 Claude가 대화 중에 인라인으로 대화형 차트, 다이어그램 및 데이터 시각화를 생성할 수 있게 되었으며, 모든 요금제에 무료로 제공되어 OpenAI와 Google의 유사한 도구와 직접 경쟁합니다.
보도에 따르면 Anthropic은 사모펀드 대기업인 Blackstone 및 Hellman & Friedman과 새로운 AI 합작법인 설립을 위한 고급 논의를 진행 중이며, 동시에 회사는 법원에서 펜타곤의 공급망 지정에 대해 다투고 있다.
마이크로소프트는 연방 법원에 Amicus 서면을 제출해 펜타곤을 상대로 한 Anthropic의 소송을 지지하며, 판사에게 국방부(DOD)의 공급망 위험 지정 결정을 막는 임시 금지명령을 내려달라고 촉구하고, 해당 금지가 이미 사용 중인 AI 시스템을 방해해 '미군 전투원들을 저해할 수 있다'고 경고했습니다.
Google DeepMind와 OpenAI의 30명 이상의 직원들(구글 수석 과학자 제프 딘 포함)이 아미커스 브리프를 제출해, 펜타곤의 Anthropic 블랙리스트 조치가 미국 AI 산업 전체의 글로벌 경쟁력을 위협하며 기술 노동자들의 보다 광범위한 반발을 촉발할 수 있다고 경고했습니다.
Anthropic은 Code Review for Claude Code를 출시했습니다. 이 다중 에이전트 AI 도구는 GitHub 풀 리퀘스트를 자동으로 분석해 논리적 오류를 찾아내고, 발견 내용을 심각도에 따라 우선순위를 매기며, 리뷰당 $15–$25의 비용이 듭니다 — 기업 환경에서 AI 생성 코드의 급증으로 생긴 심화되는 병목 문제를 해결하기 위한 것입니다.
Anthropic은 Claude Code용 새로운 다중 에이전트 코드 검토 도구를 출시했으며, 이는 소프트웨어 개발 파이프라인 전반에 걸쳐 증가하는 AI 생성 코드의 버그와 보안 취약점을 자동으로 탐지하도록 설계되었습니다.