
2026년 1월 공개된 광범위한 조사 결과는 메시징 플랫폼 Telegram의 암호화된 회랑 속에 숨어 있는 충격적인 현실을 드러냈습니다. 수백만 명의 사용자가 불법 AI 기반 봇을 적극적으로 이용해 비동의 친밀 이미지(non-consensual intimate imagery, NCII), 일반적으로 일명 "딥페이크 누드(Deepfake nudes)"를 생성하고 있습니다. 이 폭로는 생성형 AI(Generative AI) 안전성 논의에 있어 중대한 전환점을 의미하며, 플랫폼 검열의 대대적 실패와 증가하는 디지털 성폭력의 전염병을 부각시킵니다.
Creati.ai에서는 이미지 합성 기술의 진화를 지속적으로 추적해 왔습니다. 합법적인 도구들은 창작 산업을 혁신했지만, 오픈소스 확산 모델이 민주화되면서 악용 수단으로 전락했습니다. 최신 보고서는 설득력 있는 가짜 포르노를 만드는 진입 장벽이 완전히 무너졌음을 보여줍니다. 스마트폰만 있으면 누구나 익명으로, 사실상 무료로 다른 사람을 희생시킬 수 있게 되었습니다.
최근 조사에서 분석된 데이터에 따르면 이러한 활동의 규모는 단순한 소수 하위문화가 아니라 주류 현상에 가깝습니다. Telegram은 느슨한 검열 정책과 사용자 프라이버시 강조로 알려져 있으며, 수천 개의 "nudify" 봇을 호스팅하는 장소가 되었습니다.
이들 봇은 단순하지만 무서운 전제를 기반으로 작동합니다. 사용자가 대상의 옷을 입은 사진을 업로드하면—종종 Instagram이나 Facebook 같은 소셜 미디어 프로필에서 가져온 사진이 많습니다—AI가 이미지를 처리해 옷을 제거하고 사진처럼 현실적인 누드 근사치를 생성합니다. 전체 과정은 몇 초 만에 완료됩니다.
조사에서 도출된 주요 발견 사항은 다음과 같습니다:
이들 봇의 기반 기술은 종종 수정된 Stable Diffusion 모델이나 유사한 생성 아키텍처에 기반합니다. 이러한 모델은 대량의 누드 이미지 데이터셋으로 미세조정되어 사람의 해부학과 피부 질감을 높은 충실도로 이해할 수 있게 됩니다.
Midjourney나 DALL-E와 같은 상업 플랫폼은 NSFW(동작 불가, Not Safe For Work) 및 실존 인물 초상 생성 방지를 위해 엄격한 안전 필터와 레드팀(red-teaming) 프로토콜을 구현했지만, 이 Telegram 봇들은 어떤 안전장치도 없이 운영됩니다.