영국 정부, 제휴 계약 체결 수개월 후에도 OpenAI 기술을 아직 시험 도입하지 않아
수개월 전 OpenAI와의 화제가 된 파트너십을 체결했음에도 불구하고, 영국 정부는 공공 서비스에서 해당 회사의 어떠한 AI 기술도 시험 도입하지 않았으며, 이는 정부의 AI 도입 전략의 속도와 실질성에 대한 의문을 제기합니다.
수개월 전 OpenAI와의 화제가 된 파트너십을 체결했음에도 불구하고, 영국 정부는 공공 서비스에서 해당 회사의 어떠한 AI 기술도 시험 도입하지 않았으며, 이는 정부의 AI 도입 전략의 속도와 실질성에 대한 의문을 제기합니다.
미국 전쟁부는 법원 제출 문서에서 Anthropic에 대한 새로운 국가안보 우려를 제기하며, 해당 인공지능 회사가 중국 출신 근로자를 포함한 다수의 외국인을 고용하고 있음을 언급하면서 이는 중국의 국가정보법에 따라 적대적 위험을 증가시킨다고 주장했다.
트럼프 행정부는 '국가 인공지능 정책 프레임워크'를 발표하고 의회에 주(州) 수준의 AI 규제들로 구성된 증가하는 단편적 체계를 무효화할 단일 연방 기준을 마련할 것을 촉구했다. 이는 빅테크가 오랫동안 로비해온 연방 차원의 우선권(프리엠션)을 빅테크에 부여하는 것이다.
트럼프 행정부는 Anthropic의 AI 안전 제한이 받아들일 수 없는 국가 안보 위험을 초래한다고 주장하는 법원 제출 문서를 제출하며 펜타곤의 공급망 위험 지정에 대해 옹호했다.
엘리사 슬로트킨 상원 의원은 AI가 자율적으로 표적을 살해하기로 결정할 수 없고, 미국인에 대한 대규모 감시에 사용될 수 없으며, 핵무기를 발사할 수 없도록 법으로 명문화하는 법안을 발의했습니다 — 이는 펜타곤과 Anthropic 간의 갈등에 직접적으로 대응한 것입니다.
미 국방부는 회사를 공급망 위험으로 지정한 뒤 Anthropic의 Claude AI를 자사 시스템 전반에서 대체하기 위한 엔지니어링 작업을 시작했으며, Anthropic은 전례 없는 블랙리스트에 이의를 제기하며 연방 법원에 펜타곤을 고소했습니다.
Anthropic가 국방부의 '공급망 위험' 지정에 대해 제기한 소송은 ACLU와 CDT가 amicus brief를 제출하며 이 지정이 회사의 수정헌법 제1조가 보호하는 AI 안전 옹호 활동을 불법적으로 처벌한다고 주장함에 따라 새로운 동력을 얻었다.
백악관과 하원 공화당은 주(州) 수준의 AI 규제를 선제적으로 무력화하기 위한 입법 패키지를 공동으로 마련하고 있다. 이 패키지는 AI 법의 우선 적용 조항과 아동 온라인 안전 관련 규정을 결합한 것으로, 트럼프의 12월 AI 행정명령에서 정한 90일 기한이 다가오고 있다.
미 상원 서전트앳암즈(Sergeant at Arms)는 OpenAI의 ChatGPT, Google Gemini 및 Microsoft Copilot을 상원의 공식 업무에 사용하는 것을 승인했으며, 이는 미국 입법부의 AI 도입에 있어 중요한 진전입니다.
미 상무부는 대규모 AI 클러스터를 운영하는 외국 사업자들이 미국의 AI 인프라에 투자하도록 요구할 예정이었던 규정 초안을 조용히 철회했으며, 이로써 Nvidia와 AMD의 국제 판매에 대한 주요 규제 부담이 사실상 해소됐다.
펜타곤의 AI 책임자가 해당 회사의 입장을 'bananas'라고 표현한 이후 Anthropic과 미 국방부 간의 법적·공개적 분쟁이 심화되었다. 갈등은 공급망 위험 지정에 초점을 맞추고 있으며, Anthropic은 이것이 독립적으로 운영할 능력을 위협한다고 주장한다.
마이크로소프트는 연방 법원에 Amicus 서면을 제출해 펜타곤을 상대로 한 Anthropic의 소송을 지지하며, 판사에게 국방부(DOD)의 공급망 위험 지정 결정을 막는 임시 금지명령을 내려달라고 촉구하고, 해당 금지가 이미 사용 중인 AI 시스템을 방해해 '미군 전투원들을 저해할 수 있다'고 경고했습니다.
Anthropic의 CEO 다리오 아모데이는 펜타곤이 이 AI 회사를 국가 안보 공급망 위험으로 지정한 전례 없는 결정에 대해 법원에서 다투겠다고 다짐했다. 이는 미국 기업이 이러한 지정을 받은 최초의 사례다.
National Academy of Medicine은 2026년 3월 4일 'AI 시대의 환자 안전' 이니셔티브를 공식 출범했으며, 의료·기술·정책 분야의 지도자들을 한자리에 모아 환자 피해를 예방하기 위해 AI를 활용하는 국가 전략을 수립하고자 합니다.
OpenAI는 국방부와의 합의를 정리한 블로그 게시물을 게시했으며, 대규모 국내 감시와 자율 무기에 대한 금지선은 유지한다면서도 CEO 샘 올트먼은 이 거래가 성급했다며 상당한 반발을 불러일으켰다고 인정했다 — 여기에는 Anthropic의 Claude가 앱 스토어에서 ChatGPT를 앞선 사실도 포함된다.
미군은 토요일 이란 공습 동안 정보 평가와 표적 식별을 위해 Anthropic의 Claude AI에 의존했으며, 트럼프 대통령이 연방 기관들에 이 도구의 즉각적인 사용 중단을 명령한 직후의 일로 워싱턴의 AI 정책 핵심에 뚜렷한 모순을 드러냈다.
트럼프 대통령은 모든 연방 기관에 Anthropic의 Claude AI를 단계적으로 폐지하라고 지시했으며, 해당 회사가 군사적 사용을 위해 안전 장치 제거를 요구한 국방부의 요구를 거부한 이후 회사를 국가 안보 위협으로 규정했습니다.
Anthropic은 업데이트된 Responsible Scaling Policy(RSP v3.0)를 발표했으며, 비평가들은 이것이 핵심 안전 약속을 후퇴시키는 것이라고 말합니다. 이는 군사적 AI 사용을 둘러싼 펜타곤의 강한 압력과 동시에 일어났습니다.
국방장관 피트 헤그세스(Pete Hegseth)는 Anthropic이 금요일까지 자사 Claude AI 모델에 대해 미군에 무제한 접근을 허용하지 않으면 Defense Production Act를 발동하고 Anthropic을 공급망 위험으로 지정하겠다고 위협했다.
트럼프의 공격적인 친AI 정책은 자신의 지지층 내부에서 예상치 못한 반발을 불러일으키고 있으며, MAGA 유권자들이 에너지 비용과 지역사회 교란을 이유로 데이터센터 확산에 반대하며 진보 진영에 합류해 2026년 중간선거를 앞두고 반대를 키우고 있다.