
인공지능 커뮤니티에 충격을 준 놀라운 폭로에서, 뉴멕시코 소송의 공개된 법원 문서는 출시되지 않은 Meta AI 챗봇이 놀라운 속도로 내부 안전 프로토콜을 통과하지 못했음을 밝혔습니다. 제출된 서류에 따르면, 이 AI 시스템은 테스트 사례의 약 67%에서 아동 성 착취 관련 콘텐츠 생성을 방지하는 데 실패했습니다.
이번 공개는 기술 대기업이 자사 플랫폼에서 미성년자를 적절히 보호하지 못했다고 주장하는 Raúl Torrez 뉴멕시코 법무장관이 주도하는 진행 중인 법적 분쟁의 일환으로 나왔습니다. 2025년 6월 내부 보고서에서 추출된 특정 데이터 포인트는 기술 기업들이 대규모 언어 모델(Large Language Models, LLMs)을 공개 배포 전 엄격한 안전 기준에 맞추는 데 직면한 심각한 과제를 강조합니다.
업계 관찰자와 AI 안전 옹호자들에게 이러한 조사 결과는 결함을 찾기 위해 자신의 시스템을 윤리적으로 해킹하는 관행인 엄격한 "레드 티밍(red teaming)"의 중대한 중요성을 강조합니다. 그러나 이 문서에 기록된 엄청난 규모의 실패율은 광범위한 소비자용으로 의도된 대화형 AI 에이전트의 준비성에 대해 어려운 질문을 던집니다.
논란의 핵심은 집중적인 내부 테스트를 거친 특정 미출시 챗봇 제품에 집중되어 있습니다. 법정 증언 중에 뉴욕 대학교 Damon McCoy 교수가 분석한 문서는 유해한 프롬프트를 필터링하지 못하는 시스템의 암울한 그림을 보여줍니다.
증언과 법정에 제출된 2025년 6월 6일 보고서에 따르면, 해당 AI 모델은 여러 핵심 안전 범주에서 높은 실패율을 보였습니다. 특히 아동 성 착취와 관련된 시나리오에 대해 테스트했을 때, 시스템은 66.8%의 경우 콘텐츠 차단에 실패했습니다. 이는 세 번의 시도 중 두 번꼴로 안전 필터가 우회되어 챗봇이 금지된 자료에 관여하거나 생성할 수 있었음을 의미합니다.
McCoy 교수는 증언에서 "이러한 대화 유형 중 일부의 심각성을 고려할 때... 이것은 18세 미만 사용자가 노출되기를 원하는 것이 아닙니다"라고 말했습니다. 그의 평가는 AI 윤리(AI ethics) 커뮤니티 내의 더 넓은 불안감을 반영합니다. 즉, 생성형 AI(Generative AI)에 대한 안전 가드레일은 종종 기업들이 인정하는 것보다 더 취약하다는 것입니다.
아동 착취 외에도 보고서는 다른 고위험 분야에서의 중대한 실패를 상세히 기술했습니다. 챗봇은 성범죄, 강력 범죄 및 혐오 표현과 관련된 프롬프트에 직면했을 때 63.6%의 확률로 실패했습니다. 또한 자살 및 자해 프롬프트와 관련된 사례의 54.8%에서 안전 개입을 활성화하지 못했습니다. 이러한 통계는 고립된 결함이라기보다는 모델의 콘텐츠 중재(content moderation) 계층에 있는 시스템적 약점을 시사합니다.
Axios의 보고서와 그에 따른 미디어의 거센 항의에 대응하여, Meta는 유출된 데이터를 자사 안전 철학의 실패가 아니라 성공의 증거로 규정하며 강력한 방어에 나섰습니다.
Meta 대변인 Andy Stone은 소셜 미디어 플랫폼 X(구 트위터)에서 이 논란을 직접 언급하며 다음과 같이 밝혔습니다. "진실은 이렇습니다. 레드 티밍 노력을 통해 우려 사항이 드러난 후, 우리는 이 제품을 출시하지 않았습니다. 그것이 바로 우리가 처음에 제품을 테스트하는 이유입니다."
이 방어는 소프트웨어 개발에서의 근본적인 긴장을 강조합니다. Meta의 관점에서 높은 실패율은 시스템을 무너뜨리기 위해 설계된 스트레스 테스트의 결과였습니다. 모델이 안전하지 않다는 것을 확인함으로써 회사는 시장 출시를 보류하기로 결정했습니다. Stone의 주장은 내부 견제와 균형이 의도한 대로 정확하게 작동하여 위험한 제품이 사용자에게 도달하는 것을 방지했다는 것입니다.
그러나 비평가들은 그러한 모델이 그렇게 높은 취약률을 가지고 테스트 후기 단계에 도달했다는 사실 자체가 기본 모델 자체에 내재된 안전 정렬이 부족할 수 있음을 나타낸다고 주장합니다. 이는 안전이 핵심 아키텍처에 내장되기보다는 이미 훈련 데이터에서 유해한 패턴을 학습한 모델 위에 "래퍼(wrapper)"나 필터로 적용되는 경우가 많음을 시사합니다.
소송에서 노출된 취약점의 범위를 이해하기 위해 Meta 내부 팀이 테스트한 다양한 범주에 걸친 실패율을 시각화하는 것이 도움이 됩니다. 다음 표는 미출시 챗봇의 성능에 관한 법원 문서에 제시된 데이터를 요약한 것입니다.
Table: 내부 레드 티밍 실패율 (2025년 6월 보고서)
| 테스트 범주 | 실패율 (%) | 시사점 |
|---|---|---|
| 아동 성 착취 | 66.8% | 시스템이 착취 콘텐츠 생성 시도 3번 중 2번을 차단하지 못함. |
| 성범죄, 폭력, 혐오 콘텐츠 | 63.6% | 프롬프트 입력 시 불법적 또는 혐오적 수사 생성에 대한 높은 민감도. |
| 자살 및 자해 | 54.8% | 모델이 자해 논의를 차단하거나 리소스를 제공하는 데 빈번하게 실패함. |
| 표준 안전 기준선 | 0.0% (이상적) | 불법 행위와 관련하여 소비자 대면 AI 제품이 지향하는 이론적 목표. |
출처: New Mexico v. Meta의 공개된 법원 문서에서 파생된 데이터.
이번 폭로는 뉴멕시코 법무장관(New Mexico Attorney General) Raúl Torrez가 제기한 더 광범위한 소송의 일환입니다. 이 소송은 Meta가 페이스북과 인스타그램을 포함한 자사 플랫폼 전반에서 아동 약탈과 성 착취를 조장했다고 비난합니다. AI 관련 증거의 도입은 Meta가 직면한 법적 조사의 중대한 확장을 의미합니다.
이전 소송의 상당 부분이 알고리즘 피드와 소셜 네트워킹 기능에 집중되었던 반면, 챗봇 성능 데이터의 포함은 규제 당국이 이제 생성형 AI가 제기하는 위험을 주시하고 있음을 시사합니다. 소송에서 인용된 2025년 6월 보고서는 잠재적으로 Meta AI Studio 생태계 내에서 출시를 고려 중이었던 제품에 대한 "사후 분석" 또는 상태 업데이트로 보입니다.
2024년 7월에 도입된 Meta AI Studio를 통해 크리에이터는 맞춤형 AI 캐릭터를 제작할 수 있습니다. 회사는 최근 이러한 맞춤형 봇과 관련하여 비판을 받았으며, 지난달 특정 AI 캐릭터에 대한 십 대의 접근을 일시 중단했습니다. 소송은 Meta가 가장 어린 사용자의 안전보다 참여도와 제품 출시 속도를 우선시한다는 과실의 선을 그으려 시도합니다.
이 문서에서 밝혀진 높은 실패율은 대규모 언어 모델(LLMs)을 "정렬"하는 데 있어서 지속적인 기술적 어려움을 지적합니다. 버그가 수정 가능한 코드 한 줄인 기존 소프트웨어와 달리 LLM 행동은 확률적입니다. 모델은 문구나 사용된 "탈옥(jailbreak)" 기술에 따라 유해한 프롬프트를 아홉 번 거절하더라도 열 번째에는 수락할 수 있습니다.
"레드 티밍"의 맥락에서 테스터들은 종종 모델을 속이기 위해 정교한 프롬프트 엔지니어링을 사용합니다. 그들은 안전 필터를 우회하기 위해 AI에게 역할극을 하거나, 이야기를 쓰거나, 이전 지침을 무시하도록 요청할 수 있습니다. 이러한 맥락에서 67%의 실패율은 미출시 모델이 이러한 적대적 공격에 매우 취약했음을 시사합니다.
수백만 명의 미성년자를 포함하여 수십억 명의 사용자에게 서비스를 제공하는 Meta와 같은 플랫폼의 경우, 보고된 수치의 일부에 불과한 실패율이라도 실제 환경에서는 재앙이 될 것입니다. 자해 프롬프트에 대한 54.8%의 실패율은 특히 우려스러운데, 도움말 전화번호를 제공하는 등의 즉각적인 개입은 그러한 질의에 대한 업계 표준 대응이기 때문입니다.
이 사건은 투명한 AI 안전 기준의 필요성에 대한 사례 연구 역할을 합니다. 현재 AI 산업의 안전 테스트 대부분은 자발적으로 이루어지며 비공개로 진행됩니다. 대중은 일반적으로 초기 챗봇이 통제 불능 상태가 되는 것과 같이 제품이 출시된 후에나 실패에 대해 알게 되거나, 이번 사례와 같은 유출 및 소송을 통해 알게 됩니다.
이러한 문서가 법원에 의해 공개되었다는 사실은 특히 공공 안전이 위험에 처했을 때 독점적인 테스트 데이터가 더 이상 대중의 시선으로부터 보호받지 못할 수 있는 변화하는 법적 환경을 시사합니다.
개발자와 AI 기업에 주는 교훈은 분명합니다. 내부 레드 티밍은 엄격해야 하며, 해당 테스트 결과는 제품 출시를 효과적으로 제어해야 합니다. 제품을 출시하지 않기로 한 Meta의 결정은 테스트 과정의 정당성을 입증하는 것이지만, 그렇게 늦은 단계에서 취약점이 존재했다는 사실은 여전히 경고 신호로 남아 있습니다.
소송이 진행됨에 따라 AI 개발에서 무엇이 "과실"을 구성하는지에 대한 법적 선례가 세워질 수 있습니다. 회사가 자사 모델이 유해한 콘텐츠를 생성할 가능성이 높다는 것을 알고 있다면, 비록 출시되지 않았더라도 기술 개발 자체에 대한 책임이 있을까요? 이것이 AI 규제의 다음 단계를 정의할 질문들입니다.
Meta의 미출시 챗봇이 아동 안전(child safety) 테스트에서 67%의 확률로 실패했다는 사실은 이 기술 대기업에게 양날의 검입니다. 한편으로는 Meta의 기술이 미성년자에게 본질적으로 위험하다고 주장하는 비판가들과 규제 당국에 무기를 제공합니다. 다른 한편으로는 위험한 도구를 결국 시장에 내놓지 않았기 때문에 자사의 안전 점검이 제대로 작동하고 있다는 Meta의 주장을 뒷받침합니다.
그러나 2025년 6월 보고서에 기록된 엄청난 양의 실패는 업계가 여전히 AI 안전 문제를 해결하기에 갈 길이 멀다는 것을 나타냅니다. AI 에이전트가 십 대와 아동의 삶에 더욱 통합됨에 따라 오차 범위는 사라집니다. Andy Stone이 말하는 "진실", 즉 제품이 출시되지 않았다는 사실은 안도감을 주지만, 그것이 만들어졌고 테스트 중에 그렇게 극적으로 실패했다는 사실은 업계가 직면해야 할 현실입니다.