
Всеобъемлющее расследование, опубликованное в январе 2026 года, выявило тревожную реальность, скрывающуюся в зашифрованных коридорах мессенджера Telegram. Миллионы пользователей активно используют нелегальные боты на базе ИИ для создания интимных изображений без согласия (интимные изображения без согласия (NCII)), широко известных как дипфейк-обнажённые изображения (deepfake nudes). Это открытие знаменует собой критический перелом в дискуссии о безопасности генеративного ИИ (Generative AI), подчёркивая массовый провал модерации платформ и растущую эпидемию цифрового сексуального насилия.
В Creati.ai мы постоянно отслеживаем эволюцию технологий синтеза изображений. В то время как легитимные инструменты произвели революцию в креативных индустриях, демократизация open-source diffusion-моделей была использована во зло. Последние отчёты показывают, что порог входа для создания правдоподобной фальшивой порнографии полностью рухнул, позволив любому, у кого есть смартфон, анонимно и эффективно становиться жертвоискатели бесплатно.
Согласно данным, проанализированным в ходе недавних расследований, масштабы этой активности — это не просто нишевая субкультура, а массовое явление. Telegram, известный своей мягкой политикой модерации и акцентом на приватность пользователей, превратился в площадку для тысяч «nudify»-ботов.
Эти боты работают по простой и пугающей схеме: пользователь загружает фотографию цели в одежде — часто взятую из социальных сетей вроде Instagram или Facebook — и ИИ обрабатывает изображение, удаляя одежду и создавая фотореалистичную имитацию обнажённого тела. Весь процесс занимает секунды.
Ключевые выводы расследования включают:
Базовая технология, лежащая в основе этих ботов, часто основана на модифицированных версиях open-source моделей Stable Diffusion или подобных генеративных архитектур. Эти модели дообучаются на огромных наборах данных с обнажёнными изображениями, что позволяет им с высокой точностью воспроизводить анатомию человека и текстуру кожи.
В отличие от коммерческих платформ, таких как Midjourney или DALL-E, которые ввели строгие фильтры безопасности и процедуры «red-teaming» для предотвращения генерации NSFW (Not Safe For Work) контента или изображения реальных людей, эти боты в Telegram работают без ограничений.
Этот упрощённый пользовательский опыт устраняет необходимость в технической экспертизе. В 2023 году создание дипфейка требовало мощного GPU и навыков программирования. В 2026 году достаточно аккаунта в Telegram.
Чтобы понять серьёзность регуляторного разрыва, важно сравнить, как действуют легитимные ИИ-структуры, и экосистему нелегальных ботов в Telegram.
Сравнение протоколов безопасности ИИ
| Feature | Regulated Commercial AI | Illicit Telegram Bots |
|---|---|---|
| Content Filters | Строгий запрет NSFW и NCII контента | Нет фильтров; явно предназначены для генерации NCII |
| User Verification | Привязка аккаунта, отслеживание платежей, часто KYB/KYC | Полная анонимность; допускаются «burner»-аккаунты |
| Data Privacy | Данные пользователей защищены; злоупотребления приводят к банам | Данные часто собираются; изображения могут перепубликовываться публично |
| Legal Compliance | Соответствие AI Act ЕС и исполнительным указам США | Работает в правовой серой зоне; серверы часто расположены за границей |
| Cost Model | Подписка на легитимные креативные инструменты | Модель freemium, эксплуатирующая возможности злоупотребления |
Термин «виртуальное» насилие — это ошибка; психологическое воздействие — острое и осязаемое. Жертвы домогательств с использованием дипфейков сообщают о симптомах, соответствующих ПТСР, тревоге и депрессии. Нарушение приватности глубоко: осознание того, что изображение твоего лица манипулируют и распространяют без согласия, создаёт постоянное состояние насторожённости и страха.
Кроме того, «гидра»-характер каналов в Telegram усложняет возможность реакции. Как только один бот блокируется по жалобе, в течение нескольких часов под другими названиями появляются два новых. Расследование подчеркивает, что женщины составляют подавляющее большинство целей — более 95% жертв в анализируемых наборах данных. Это усиливает критику о том, что неконтролируемое развитие ИИ усугубляет насилие, основанное на гендерной принадлежности.
"Технология опередила закон, и платформы вроде Telegram предоставляют убежище для того, чтобы это зло умножалось", — отмечает аналитик по кибербезопасности (cybersecurity), цитируемый в недавних публикациях.
Суть кризиса заключается на стыке передовых технологий и недостаточного управления платформами. Эксперты по кибербезопасности (cybersecurity) утверждают, что отказ Telegram внедрять клиентское сканирование или надёжное сопоставление хешей для известных инструментов злоупотребления делает платформу соучастницей.
Хотя AI Act Европейского Союза и различные законы штатов США пытались криминализировать создание несогласованных дипфейков, основная проблема — это исполнение. Анонимность в Telegram означает, что даже при наличии незаконности найти виновного почти невозможно для местных правоохранительных органов, которые уже испытывают нехватку ресурсов.
Проблемы регулирования:
Как издание, сосредоточенное на ИИ, Creati.ai выступает за многоаспектный подход к решению этого кризиса. Запретить технологию нельзя, но необходимо ужесточить инфраструктуру вокруг неё.
Технологические решения:
Открытие, что миллионы используют Telegram для создания дипфейк-обнажённых изображений, — это тревожный сигнал цифровой эпохи. Это тёмная сторона революции в области генеративного ИИ, которая требует немедленного и агрессивного вмешательства со стороны технологических лидеров, законодателей и операторов платформ.
Инновации не должны стоить человеческого достоинства. Пока мы продолжаем продвигать возможности искусственного интеллекта, мы обязаны столь же громко осуждать его милитаризацию. Эпоха «двигайся быстро и ломай всё» привела к разрушению жизней реальных людей, и индустрии теперь необходимо действовать быстро, чтобы это исправить.