AI News

Brussels Escalates Scrutiny on 생성형 AI(Generative AI) Compliance

유럽연합 집행위원회는 X(구 Twitter)에 대해 인공지능 챗봇 Grok과 관련하여 공식적인 위반 절차를 개시했습니다. 이 중대한 규제 강화는 2026년 1월 26일 월요일 오늘 발표되었으며, 디지털 서비스법(Digital Services Act, DSA) 집행의 중대한 전환점을 나타냅니다. 위원회의 조사는 특히 Grok이 생성한 비동의 친밀 이미지(non-consensual intimate imagery, NCII) 및 기타 불법 콘텐츠의 생성과 유통을 방지하기 위한 충분한 위험 완화 조치를 이행하지 못했다는 혐의에 초점을 맞추고 있습니다.

이번 조치는 독일의 Handelsblatt가 고위 EU 관계자들을 인용해 집행부가 DSA의 전권을 활용해 규정 준수를 확보할 준비가 되어 있다고 보도한 데 따른 것입니다. 이 절차는 빠른 AI 개발과 유럽 규제기관이 수립한 엄격한 안전 프레임워크 사이의 갈등이 커지고 있음을 부각합니다. AI 업계에 있어 이번 사건은 소셜 생태계에 통합된 생성형 도구를 초대형 온라인 플랫폼(Very Large Online Platforms, VLOPs)이 어떻게 관리해야 하는지에 대한 중요한 스트레스 테스트로 작용합니다.

The Catalyst: The "Nudification" Controversy

이 규제 단속의 직접적인 촉발 요인은 Grok의 이미지 생성 기능과 관련된 충격적인 보고들의 급증으로 보입니다. 실제 인물의 이미지를 생성하는 데 있어 엄격한 "거부" 프로토콜을 도입한 많은 경쟁사들과 달리, 프리미엄 가입자를 위한 X 플랫폼에 통합된 Grok은 더 느슨한 안전장치로 인해 조사를 받고 있습니다.

조사 결과에 따르면 이 도구는 특정 개인(공적 인물 포함)과 더 심각하게는 미성년자를 표적으로 삼은 이른바 "딥페이크" 포르노를 생성하는 데 사용된 것으로 알려졌습니다. 이른바 "nudification" 사례는 사용자가 AI에 사진 속 비동의 피사체의 옷을 디지털 방식으로 벗기도록 지시하는 프롬프트를 입력하는 형태를 포함합니다. X가 최근 몇일 동안 긴급 패치를 배포하고 통제를 강화한 것으로 보도되었지만, 유럽연합 집행위원회의 조치는 이러한 사후 조치가 DSA의 사전적 위험 관리 의무하에서 불충분하다고 간주된다는 점을 시사합니다.

Henna Virkkunen은 EU의 기술 책임자로서 기존 디지털 규칙이 AI 기반 위험에 전면적으로 적용된다는 점을 이미 시사한 바 있습니다. 이러한 콘텐츠의 확산은 피해자의 존엄성을 침해할 뿐만 아니라 미성년자 보호 및 성별 기반 폭력 방지와 관련된 DSA의 특정 조항을 위반합니다.

DSA Obligations vs. Alleged Failures

디지털 서비스법(Digital Services Act, DSA)는 초대형 온라인 플랫폼(VLOPs)에 지정된 플랫폼에 특정 의무를 부과합니다. 이러한 주체는 불법 콘텐츠에 대해 통지를 받았을 때 이를 제거할 뿐만 아니라 체계적 위험을 사전에 평가하고 완화해야 합니다. 아래 표는 X의 Grok이 잠재적 비준수 여부로 조사를 받고 있는 구체적 영역을 요약합니다.

표 1: DSA 준수 평가 (생성형 AI)

DSA Obligation Category Specific Requirement Alleged Compliance Failure
Risk Mitigation (Art. 34/35) VLOPs must assess risks regarding the dissemination of illegal content and negative effects on fundamental rights. Failure to anticipate and block the creation of non-consensual intimate imagery (NCII) prior to deployment.
Protection of Minors (Art. 28) Platforms must ensure a high level of privacy, safety, and security for minors. Grok’s availability to generate sexualized content that could depict or target minors without robust age-gating or content filtering.
Crisis Response Mechanism Rapid reaction to extraordinary circumstances affecting public security or safety. Delayed response in effectively disabling the specific "jailbreaks" used to generate harmful imagery once they went viral.
Transparency (Art. 15) Clear terms of service and transparency regarding algorithmic parameters. Lack of clarity regarding the training data used for Grok and the specific safety parameters governing its image generator.

A Global Regulatory Pincer Movement

유럽연합이 DSA로 법적 공세를 선도하는 동안, Grok의 최근 콘텐츠 조정 실패에 대한 반발은 전 세계적입니다. 브뤼셀에서의 조사는 다른 주요 관할권의 병행 조사를 동시에 겪고 있어 xAI에 복잡한 준수 환경을 조성하고 있습니다.

영국에서는 규제기관 Ofcom이 현재 X가 Online Safety Act 하에서 의무를 위반했는지를 평가하고 있습니다. 영국 관리들은 딥페이크 콘텐츠의 유통을 "끔찍하다"고 묘사했으며, 총리 Keir Starmer는 플랫폼의 안전 프로토콜에 대한 우려를 재차 표명했습니다.

동시에 동남아시아 당국은 더욱 즉각적이고 강경한 조치를 취했습니다. 보도에 따르면 인도네시아와 말레이시아는 특정 Grok 도구에 대한 접근을 일시 차단했거나 경우에 따라 더 광범위한 플랫폼 차단을 위협하는 조치를 취했습니다. 이들은 지역 외설법 위반을 이유로 들었습니다. 이러한 국제적 압력은 대규모 소셜 유통 네트워크에 연결된 생성형 AI가 단순한 소프트웨어 버그 수정 이상의 안전장치를 필요로 한다는 EU의 입장을 정당화합니다.

The Technical Challenge of "Uncensored" AI

갈등의 핵심은 xAI의 제품 비전과 규제 안전 기준 사이의 철학적·기술적 괴리에 있습니다. Elon Musk는 Grok을 OpenAI나 Google과 같은 경쟁사가 개발한 이른바 "woke" AI 모델에 대한 "반항적" 대안으로 자주 위치시켜 왔습니다. Grok은 "매운(spicy)" 질문에 답하도록 설계되었고 거부하는 프롬프트가 더 적습니다.

그러나 "nudification" 스캔들은 이미지 생성에 이 접근법을 적용했을 때의 치명적 실패 모드를 강조합니다. 기술적 관점에서 이 사건은 모델의 잠재 공간 필터링(latent space filtering)의 견고성에 대한 의문을 제기합니다.

  • 프롬프트 인젝션 취약성(prompt injection vulnerabilities): 사용자는 모델의 안전 논리를 혼란시키도록 설계된 복잡한 텍스트 입력인 "jailbreak" 프롬프트를 사용해 안전 필터를 우회하는 데 성공했습니다.
  • 학습 데이터 정화(Training Data Sanitization): 모델이 동의한 성인 콘텐츠와 비동의적 착취 이미지를 적절히 구별하는 데이터셋으로 파인튜닝되었는지에 대한 의문이 남아 있습니다.
  • 워터마킹 및 출처 증명(Watermarking and Provenance): 조사에서는 Grok 출력물에 합성 콘텐츠의 즉각적 식별 및 삭제를 가능하게 하는 충분한 C2PA 메타데이터 또는 시각적 워터마크가 포함되었는지도 조사할 수 있습니다.

Potential Penalties and Industry Impact

X가 직면한 위험은 재정적·운영적으로 막대합니다. DSA에 따르면 비준수에 대한 벌금은 회사의 전세계 연간 총 매출의 최대 6%에 이를 수 있습니다. X 규모의 회사라면 이는 수억 유로에 해당할 수 있습니다. 벌금 외에도 위원회는 "임시 조치"를 부과할 권한을 가지고 있어, 규제 당국의 만족스러운 수준으로 안전 문제가 해결될 때까지 이론적으로 X가 유럽연합 내에서 Grok 서비스를 중단하도록 강제할 수 있습니다.

이 절차는 전체 생성형 AI(Generative AI) 부문에 대한 시금석으로 작용합니다. 강력한 이미지 생성 도구를 공개적으로 베타 테스트하는 전략은 더 이상 주요 플랫폼에게 허용되지 않는다는 선례를 세웁니다. 규제기관들은 사실상 "빨리 움직이고 부수라(move fast and break things)"는 시대가 현대 AI 거버넌스의 안전 요구사항과 양립할 수 없음을 신호하고 있습니다.

앞으로 몇 달 동안 절차가 진행되면서 업계는 xAI가 Grok의 안전 아키텍처를 근본적으로 개편할지 아니면 브뤼셀과 장기적인 법적 공방을 벌일지를 주의 깊게 지켜볼 것입니다. 현재로서는 이 절차의 개시는 유럽에서 생성형 AI에 대한 감독의 유예 기간이 확실히 종결되었음을 의미합니다.

추천