AI News

Grok의 생성 기능에 대한 영국 감시 기관의 X 조사 강화

영국 내 인공지능 규제 환경이 정보권위원회(Information Commissioner's Office, ICO)가 X(구 트위터)와 그 AI 자회사인 xAI에 대한 공식 조사를 시작함에 따라 크게 긴박해졌습니다. 이번 조사는 Grok AI 모델의 기능, 특히 해당 도구가 미성년자를 묘사한 콘텐츠를 포함하여 비동의 성적 딥페이크(non-consensual sexual deepfakes)를 생성하는 데 활용되었다는 보고에 초점을 맞추고 있습니다. 생성형 AI(Generative AI)의 경계가 계속 확장됨에 따라, 이번 조사는 소셜 미디어 및 자동화된 콘텐츠 생성 영역 내에서 데이터 보호 표준을 집행하는 데 있어 중대한 전환점이 되었습니다.

ICO의 조사는 고립된 규제 조치가 아니라 다른 주요 영국 감시 기관들이 참여하는 공동 노력의 일환입니다. 이는 급격한 AI 발전과 강력한 안전 가드레일의 필요성 사이의 고조되는 긴장을 강조합니다. 이번 조사의 핵심은 X와 xAI가 자사 기술이 개인을 공격하는 무기로 사용되는 것을 막기 위해 충분한 예방 조치를 시행했는지, 그리하여 확립된 데이터 보호법을 위반했는지 여부입니다.

ICO 조사: 데이터 보호가 최우선

정보 권리를 옹호하기 위해 설립된 영국의 독립 기구인 정보권위원회(Information Commissioner's Office)는 이번 조사가 Grok 플랫폼에서 개인 데이터가 처리되는 방식을 정밀 조사할 것이라고 명시적으로 밝혔습니다. 핵심적인 우려는 AI 모델이 새로운 이미지를 생성하기 위해 개인 데이터를 활용하는 메커니즘을 둘러싸고 있습니다. AI 도구가 당사자의 동의 없이, 특히 성적인 맥락에서 개인의 실사적인 모습을 생성할 때, 이는 해당 개인 데이터를 처리하는 법적 근거에 대한 심각한 의문을 제기합니다.

ICO의 규제 위험 및 혁신 담당 이사인 윌리엄 말콤(William Malcolm)은 혐의의 심각성을 강조했습니다. 그는 당사자 모르게 사람의 친밀하거나 성적인 이미지를 생성하는 능력은 개인 데이터에 대한 통제권의 중대한 상실을 의미한다고 언급했습니다. 이러한 통제권 상실은 피해자에게 즉각적이고 지속적인 피해를 줄 수 있으며, 대상이 아동일 경우 그 위험은 기하급수적으로 높아집니다.

ICO의 권한에 따라 X Internet Unlimited Company와 xAI가 영국 일반 데이터 보호 규정(UK GDPR)을 포함한 영국의 엄격한 데이터 보호 체계를 준수했는지 평가할 수 있습니다. 주요 중점 분야는 다음과 같습니다:

  • 데이터 보호 영향 평가(DPIAs): 기업들이 Grok을 공개적으로 배포하기 전에 관련 위험을 적절히 평가했는지 여부.
  • 설계에 의한 안전(Safety by Design): 유해한 콘텐츠 생성을 방지하기 위한 기술적 안전장치가 개발 단계에 통합되었는지 여부.
  • 동의 및 적법성: 모델을 훈련하거나 특정 인물의 형상을 생성하도록 유도하는 데 개인 데이터가 사용되는 법적 근거.

만약 ICO가 X가 의무를 이행하지 못했다고 판단할 경우, 해당 감시 기관은 집행 통지서를 발행하고 상당한 벌금을 부과할 권한이 있으며, 이는 생성형 AI 분야의 다른 기업들에 엄중한 경고를 보내는 신호가 될 것입니다.

딥페이크 우려: 커지는 기술적 및 윤리적 위기

이번 규제 개입의 촉매제는 Grok 사용자가 안전 필터를 우회하여 실제 개인의 노골적인 딥페이크를 생성할 수 있다는 일련의 보고였습니다. 전통적인 이미지 편집과 달리, 생성형 AI는 텍스트 프롬프트를 기반으로 초현실적인 합성 미디어를 신속하게 생성할 수 있습니다. Grok에 대한 구체적인 혐의는 해당 도구가 비동의 성적 이미지를 생성하는 데 사용되었다는 점을 시사하며, 이는 영국 정부가 적극적으로 범죄화하려는 관행입니다.

딥페이크는 사생활 침해, 괴롭힘, 허위 정보의 교차점에 있기 때문에 규제 기관에 독특한 과제를 제시합니다. ICO 조사의 맥락에서 초점은 개인 데이터(실제 인물의 이미지와 이름)가 어떻게 수집되고 처리되는지에 대한 "입력" 측면과, 해당 데이터가 유해한 콘텐츠로 재조립되는 "출력" 측면에 모두 맞춰져 있습니다.

이 문제는 이러한 도구의 접근성으로 인해 더욱 악화됩니다. AI 모델이 더욱 효율적으로 변함에 따라 악의적인 콘텐츠를 생성하기 위한 진입 장벽이 낮아집니다. ICO의 개입은 사후 관리(콘텐츠 게시 후 삭제)에서 사전 예방(도구가 애초에 해당 콘텐츠를 생성할 수 없도록 보장)으로의 규제 변화를 시사합니다.

Ofcom의 병행 규제 조치

ICO가 데이터 프라이버시(data privacy)에 집중하는 동안, 영국의 통신 규제 기관인 Ofcom은 자체 권한 하에 병행 조사를 진행하고 있습니다. 지난 1월에 처음 시작된 Ofcom의 조사는 X 플랫폼의 광범위한 안전 프로토콜에 초점을 맞추고 있습니다. Ofcom은 더 이상 xAI를 직접 조사하지 않는다고 밝혔지만, X가 정보 요청과 관련된 조건을 위반했는지 여부는 계속해서 조사하고 있습니다.

Ofcom의 역할은 영국을 온라인에서 가장 안전한 곳으로 만들기 위해 설계된 법안인 온라인 안전법(Online Safety Act)을 집행하는 것이므로 매우 중요합니다. 규제 기관은 플랫폼이 법적으로 구속력이 있는 정보 요청에 대해 정확하고 완전하며 시기적절하게 응답할 것을 요구합니다. ICO와 Ofcom 사이의 시너지는 다각적인 규제 접근 방식을 보여줍니다:

  • ICO: 개인 데이터 오용 및 개인정보 보호 권리에 집중.
  • Ofcom: 플랫폼 안전 의무 및 정보 표준 준수에 집중.

이러한 이중 조사는 X를 복잡한 준수 환경에 놓이게 하며, 여러 법정 기관의 뚜렷하면서도 중첩되는 요구 사항을 충족해야 합니다.

규제 책임 분석

다음 표는 X와 Grok 조사에 참여한 영국 규제 기관의 각기 다른 역할과 현재 초점을 요약한 것입니다.

**규제 기관 주요 초점 조사 범위**
정보권위원회(ICO) 데이터 보호 및 프라이버시 권리 개인 데이터가 비동의 친밀 이미지를 생성하는 데 사용되는 것을 방지하기 위한 안전장치가 마련되어 있는지 조사.
Ofcom 온라인 안전 및 방송 표준 X의 정보 요청 준수 여부 및 광범위한 안전 의무 조사, 플랫폼 대응력 모니터링.
영국 정부 입법 체계 AI를 사용한 비동의 성적 친밀 이미지의 생성 및 요청을 범죄화하는 방향으로 추진.

X의 대응 및 완화 전략

가중되는 압박에 대응하여 X는 안전과 준수에 대한 약속을 공개적으로 표명했습니다. 회사는 Grok의 오용을 억제하기 위한 여러 조치를 도입했습니다. 플랫폼 측이 발표한 성명에 따르면, 비키니와 같이 노출이 있는 옷을 입은 실제 인물의 이미지를 AI가 편집하지 못하도록 하는 글로벌 조치가 시행되었습니다.

또한 X는 아동 성착취 및 비동의 누드물에 대해 "무관용" 원칙을 강조했습니다. 책임성을 강화하기 위해 회사는 Grok 계정을 통한 이미지 생성 및 편집 기능이 유료 구독자에게만 제한된다는 점을 강조했습니다. 이러한 "보호 수단으로서의 페이월(paywall)" 전략 뒤에 숨겨진 논리는 사용을 결제 수단과 연결함으로써 신원 추적을 가능하게 하여, 악의적인 행위자가 불법 활동에 대해 책임을 지도록 하기 더 쉽게 만드는 것입니다.

하지만 비판론자들과 규제 기관들은 금융적 장벽이 주요 안전 메커니즘으로서 불충분하다고 주장할 수 있습니다. ICO 조사의 핵심은 이러한 사후 정책 집행과 접근 제한이 법에서 요구하는 "설계에 의한 프라이버시(privacy by design)"와 동등한지 여부를 테스트하는 것이 될 것입니다. X의 콘텐츠 중재 알고리즘의 효과와 Grok의 근본적인 안전 훈련(예: 인간 피드백 기반 강화 학습(RLHF))의 견고함이 면밀히 조사될 것입니다.

AI 거버넌스에 대한 광범위한 시사점

이번 조사는 글로벌 AI 산업의 풍향계 역할을 합니다. 플랫폼이 더욱 강력한 생성형 AI 도구를 소셜 미디어 피드에 직접 통합함에 따라, 콘텐츠 호스트와 콘텐츠 생성자 사이의 경계가 모호해지고 있습니다. 영국의 규제 조치는 국가들이 새로운 AI 기술에 대해 기존 데이터 보호법을 어떻게 집행할 수 있는지에 대한 선례를 남기고 있습니다.

AI를 개발하는 기업들에게 보내는 메시지는 명확합니다. 혁신이 안전 준수를 앞지를 수는 없다는 것입니다. "빠르게 움직이고 파괴하라(move fast and break things)"는 시대는 사용자 권리를 우선시하는 성숙한 규제 환경과 충돌하고 있습니다. ICO와 Ofcom의 조사 결과는 다음과 같은 새로운 산업 표준을 규정할 수 있습니다:

  1. 더 엄격한 연령 확인: 미성년자가 생성 도구에 접근하거나 도구에 의해 묘사되는 것을 방지.
  2. 강화된 데이터 거버넌스: 공개 데이터가 생성 모델을 훈련하는 데 사용되는 방식에 대한 더 명확한 프로토콜.
  3. 책임 체계: AI가 불법 콘텐츠를 생성했을 때 사용자, 플랫폼, 모델 개발자 중 누가 책임을 질 것인지 확립.

정보권위원회가 국제적인 파트너들과 계속 협력함에 따라, Grok에 관한 조사 결과는 EU 정책과 잠재적으로 미국의 규제 접근 방식에도 영향을 미칠 것으로 보입니다. 현재로서는 X가 자신의 기술적 야망이 사용자의 프라이버시와 안전을 희생시키지 않는다는 것을 입증해야 하는 상황에 놓여 있습니다.

추천