
국방과 인공지능(AI)의 교차점이 이번 주 임계점에 도달했습니다. 일련의 운영상 마찰 이후, 미 국방부(DoD)는 샌프란시스코에 본사를 둔 AI 안전 연구소이자 클로드(Claude) 언어 모델 시리즈의 제작사인 앤스로픽(Anthropic)과의 관계를 단절하려는 움직임을 보이고 있는 것으로 알려졌습니다. 협상에 정통한 소식통에 따르면 펜타곤은 엄격한 최후통첩을 내렸습니다. 전투 상황에서 AI의 적용을 제한하는 윤리적 가드레일을 제거하지 않으면, 정부 계약을 즉시 해지하겠다는 것입니다.
이러한 전개는 실리콘밸리의 윤리 원칙과 워싱턴의 전략적 필요성 사이에서 지속되어 온 긴장이 크게 고조되었음을 의미합니다. 가디언(The Guardian) 및 NDTV를 포함한 주요 언론의 보도에 따르면, 이번 균열의 촉매제는 최근 베네수엘라(Venezuela)에서의 군사 교전 중 발생한 특정 운영 실패인 것으로 보입니다. 당시 앤스로픽 모델에 내장된 안전 프로토콜이 실시간 의사결정을 방해했다는 주장이 제기되었습니다.
Creati.ai에게 이번 대치는 단순한 비즈니스 분쟁 그 이상을 의미합니다. 이는 "이중 용도(Dual-use)" 기술의 미래를 위한 결정적인 순간입니다. 그 결과는 AI 기업들이 AI 안전에 대한 약속을 유지하면서 동시에 국방 계약의 모호한 영역을 어떻게 헤쳐 나갈지에 대한 선례가 될 것입니다.
수개월 동안 긴장이 고조되어 왔으나, 한계점은 2026년 2월 초 베네수엘라에서의 기밀 작전 이후에 찾아왔습니다. 조사 보고서에 따르면, 미국 특수부대는 고도의 위험이 따르는 급습 작전 중 실시간 감시 데이터를 분석하고 드론 군수 지원을 조율하기 위해 앤스로픽(Anthropic)의 고급 모델인 **클로드(Claude)**의 맞춤형 인스턴스를 활용하려 시도했습니다.
하지만 시스템이 특정 표적 요청 처리를 거부하며, 해당 명령을 모델이 위해나 폭력을 돕지 못하도록 설계된 원칙 세트인 "헌법적 AI(Constitutional AI)" 프레임워크 위반으로 표시했다고 합니다. 이 거부로 인해 지휘관들은 수동 처리 방식으로 돌아가야 했고, 이는 치명적인 지연을 초래했습니다. 미 국방부는 임무 세부 사항을 공식적으로 기밀 해제하지 않았으나, 내부 관계자들은 이러한 지연이 전술적 우위 상실의 원인이 되었다고 시사합니다.
이 사건은 "정치적으로 올바른(Woke) AI"가 현대전에서 골칫거리라고 주장하는 펜타곤(Pentagon) 내 매파들을 대담하게 만들었습니다. 이들의 논리는 명확합니다. 알고리즘 전쟁 시대에 윤리적 서브루틴 때문에 주저하는 도구는 전장에서 신뢰할 수 없는 도구라는 것입니다.
이 분쟁의 핵심에는 앤스로픽의 제품 철학과 군의 합동 전 영역 지휘 통제(Joint All-Domain Command and Control, JADC2) 교리 사이의 근본적인 불일치가 자리 잡고 있습니다.
앤스로픽은 안전을 최우선으로 하여 혼잡한 AI 시장에서 차별화를 꾀해 왔습니다. 그들의 "헌법적 AI" 접근 방식은 UN 세계 인권 선언 및 기타 프레임워크에서 파생된 윤리 규칙 세트에 따라 모델을 훈련하는 것을 포함합니다. 이러한 규칙은 폭력을 조장하거나 무기 배치에 도움을 주는 콘텐츠의 생성을 명시적으로 금지합니다.
반대로, 펜타곤은 가치 중립적인 전력 증강 도구로서 작동하는 AI 시스템을 필요로 합니다. 그들은 다음과 같은 능력을 갖춘 모델을 요구합니다:
미 국방부는 앤스로픽이 부과한 제한 사항을 안전 기능이 아닌 "능력 저하 요소"로 간주합니다. 아래 표는 마찰을 일으키는 구체적인 의견 차이를 보여줍니다.
표: 앤스로픽과 펜타곤 사이의 이념적 격차
| 기능/요구사항 | 앤스로픽의 "헌법적 AI" 입장 | 펜타곤의 작전 요구사항 |
|---|---|---|
| 살상용 애플리케이션 | 엄격히 금지됨; 모델이 폭력을 돕는 것을 거부함. | 필수적임; 모델은 무기 체계 및 표적 설정을 지원해야 함. |
| 지휘권 우선순위 | 설계상 불가능함; 안전이 하드코딩되어 있음. | 의무 사항임; 인간 지휘관이 완전한 통제권을 가져야 함. |
| 데이터 프라이버시 | 높음; 감시 데이터 처리에 대한 엄격한 제한. | 가변적임; 침해적인 정보 데이터 처리가 필요함. |
| 배치 속도 | 안전 평가 및 레드팀 활동으로 인해 지연됨. | 즉각적임; 분쟁 발생 시 "적시성(Speed of relevance)"이 필요함. |
| 윤리적 근거 | 보편적 인권 / 피해 감소. | 국가 안보(National Security) / 임무 성공. |
펜타곤의 위협은 단순히 수사적인 표현이 아닙니다. 국방 관료들은 최종 사용자 라이선스 계약(EULAs)이 기술의 "적법한 군사적 적용"을 제한하는 공급업체의 자격을 박탈하는 지침을 초안한 것으로 알려졌습니다.
이 정책이 실행될 경우 다음과 같은 결과가 초래됩니다:
익명을 요구한 한 고위 국방 관료는 "교전 중에 양심적 병역 거부자처럼 행동하는 소프트웨어를 가질 수는 없습니다. 우리에게 필요한 것은 철학이 아니라 준수입니다"라고 말했습니다.
경쟁사들이 이미 군의 요구에 맞춰 방향을 틀고 있기 때문에 앤스로픽에 대한 압박은 더욱 거세지고 있습니다. 한때 주저했던 OpenAI는 2024년 초 사용 정책에서 "군사 및 전쟁" 금지 조항을 조용히 삭제했습니다. 2026년까지 OpenAI는 자사 모델을 "임무 투입 가능" 상태로 포지셔닝하며 미 국방부와의 파트너십을 적극적으로 추진해 왔습니다.
구글(Google) 또한 과거 내부 반발(2018년 프로젝트 메이븐에 대한 직원들의 시위 등)에도 불구하고 구글 공공 부문(Google Public Sector) 부서를 통해 국방 계약을 공격적으로 유치해 왔습니다.
앤스로픽은 살상용 사용에 대해 강경한 입장을 고수하는 마지막 주요 AI 연구소 중 하나로 남아 있습니다. 만약 그들이 굴복한다면, 이는 실리콘밸리에서 "AI 평화주의" 시대의 종말을 알리는 신호가 될 것입니다. 반대로 입장을 고수한다면, 세계 최대 고객 중 하나를 잃고 정부 부문에서 소외될 위험을 감수해야 합니다.
AI 커뮤니티에 이 소식은 "이중 용도" 기술 개념에 대한 심오한 질문을 던집니다. 무기화될 수 있는 모델이 진정으로 안전할 수 있을까요? 반대로, 가장 진보된 기술이 국가 방어에 사용되는 것이 차단된다면 그 국가가 계속 안전할 수 있을까요?
펜타곤 입장에 대한 논거:
앤스로픽 입장에 대한 논거:
신미국안보센터(CNAS)의 선임 연구원인 엘레나 코베스(Elena Corves) 박사는 Creati.ai에 다음과 같이 전했습니다.
"이것은 피할 수 없는 일이었습니다. 역사상 가장 강력한 인지 엔진을 구축하면서 군이 이를 무시할 것이라고 기대할 수는 없습니다. 앤스로픽은 세계에서 가장 강력한 기관과 치킨 게임을 벌이고 있습니다. 그들의 윤리적 입장은 존경할 만하지만, 보통 이러한 눈싸움에서 승리하는 쪽은 펜타곤입니다. 가장 가능성 있는 결과는 포크(Fork)입니다. 앤스로픽은 안전 필터를 제거한 클로드(Claude)의 '정부 클라우드(gov-cloud)' 버전을 만들거나, 국방 부문에서 완전히 철수해야 할 수도 있습니다."
그러나 앤스로픽이 협상력을 쥐고 있다는 주장도 있습니다. 클로드 5 시리즈의 인지 추론 능력은 복잡하고 미묘한 논리를 처리하는 데 있어 경쟁사보다 우수하다고 알려져 있으며, 이는 정보 분석가들에게 정확히 필요한 기능입니다. 펜타곤이 관계를 끊는다면, 그들은 최고 수준의 역량에 대한 접근 권한을 잃게 됩니다.
워싱턴의 닫힌 문 뒤에서 협상이 계속됨에 따라 결과는 여전히 불투명합니다. 앤스로픽이 미 국방부의 새로운 준수 요구 사항에 응답해야 하는 마감 시한은 2026년 2월 말로 정해졌습니다.
앤스로픽이 거부할 경우, 우리는 이분화된 AI 환경을 보게 될 수도 있습니다:
현재로서는 "베네수엘라 사건"이 극명한 경고 역할을 하고 있습니다. 이론적인 AI 윤리(AI ethics)의 시대는 끝났습니다. 기술은 이제 최전선에 서 있으며, 교전 규칙은 실시간으로 작성되고 있습니다.
Creati.ai는 앤스로픽과 국방부 양측의 공식 성명이 발표됨에 따라 이 발전하는 이야기를 계속 모니터링하여 업데이트를 제공할 예정입니다.