
Европейская комиссия официально инициировала формальную процедуру по нарушению законодательства в отношении X (ранее Twitter), нацелившись на его инструмент генеративного ИИ (Generative AI) Grok. Объявленное в понедельник, 26 января 2026 года, это расследование знаменует собой значительное ужесточение применения Закона о цифровых услугах (Digital Services Act, DSA) в Европейском союзе. Регуляторы ссылаются на «материализовавшиеся риски», связанные с распространением изображений сексуального характера без согласия (NCII) и возможными материалами сексуального насилия над детьми (CSAM), создаваемыми чат‑ботом, что обозначает поворотный момент в управлении ИИ в регионе.
Расследование было спровоцировано серией тревожных сообщений о возможностях генерации изображений у Grok. В отличие от многих конкурентов, которые с самого начала внедрили строгие барьеры, Grok подвергся критике за воспринимаемую нехватку модерации. Основная забота Комиссии связана со способностью ИИ генерировать «манипулированные сексуально откровенные изображения» реальных людей, часто называемые дипфейки (deepfakes).
По словам Комиссии, эти риски не являются лишь теоретическими, они «материализовались», подвергая граждан ЕС серьезному вреду. Сообщается, что пользователи могли использовать функции Grok для цифрового «раздевания» людей и помещения их в компрометирующие или сексуально откровенные сцены без их согласия. Такая возможность нарушает ключевые требования безопасности DSA, которые обязывают Очень крупные онлайн‑платформы (Very Large Online Platforms, VLOPs) вроде X проактивно выявлять и минимизировать системные риски.
Хенна Вирккунен, исполнительный вице‑председатель Комиссии по вопросам технологического суверенитета, безопасности и демократии, осудила это явление, заявив, что несогласованные сексуальные дипфейки представляют собой «жестокую, недопустимую форму унижения». Расследование призвано установить, не допустила ли X отсутствие эффективных мер смягчения, которые могли бы предотвратить создание и распространение такого контента.
Это производство отличается от предыдущих расследований по политике модерации контента X в отношении разжигания ненависти или дезинформации. Оно сосредоточено конкретно на пересечении генеративного ИИ и ответственности платформ в рамках DSA. Комиссия изучает три конкретные области несоответствия:
Таблица 1: Ключевые области расследования Комиссии
| Investigated Area | Specific Allegation | Relevant DSA Article |
|---|---|---|
| Оценка рисков | Непредоставление отчёта до развёртывания Grok в ЕС. | Articles 34(1) and (2) |
| Меры по смягчению | Недостаточные технические барьеры против создания незаконного контента. | Article 35(1) |
| Рекомендательные системы | Использование алгоритмов Grok, потенциально усиливающее системные риски. | Article 42(2) |
После объявления X вновь подтвердила свою приверженность безопасности. Представитель компании перенаправил запросы к предыдущему заявлению, в котором утверждалось о «нулевой терпимости» к сексуальной эксплуатации детей и несогласованной наготе. Компания заявляет, что активно работает над исправлением «упущений» в своих протоколах безопасности.
Тем не менее технические эксперты полагают, что проблема может быть фундаментальной и связанной с тем, как Grok обучали и внедряли. Продавая Grok как «острый» или менее ограниченный альтернативный вариант моделям вроде ChatGPT или Claude, X возможно непреднамеренно снизила порог допустимого вредоносного вывода. «Spicy mode» и другие неограниченные функции, хотя и популярны у части пользовательской базы, прямо противоречат строгим рамкам ответственности, действующим в ЕС.
Сообщается, что компания ограничила некоторые возможности генерации изображений Grok в ответ на начальную волну возмущения, но регуляторы ЕС считают эти реактивные меры недостаточными. Цель расследования — установить, отсутствовали ли у архитектуры самого ИИ необходимые принципы «безопасности по дизайну», требуемые европейским законодательством.
Это расследование устанавливает важный прецедент для всех компаний, работающих в сфере ИИ в Европейском союзе. Оно проясняет, что DSA применяется строго к инструментам генеративного ИИ, встроенным в социальные платформы, а не только к пользовательскому контенту.
Для более широкой отрасли ИИ послание предельно ясно: скорость инноваций не должна идти вразрез с оценкой безопасности. Требование представлять оценку рисков до развёртывания, вероятно, замедлит выпуск новых функций ИИ на рынке ЕС по сравнению с США. Компании, разрабатывающие большие языковые модели (Large Language Models, LLMs) и генераторы изображений, теперь должны рассматривать соответствие требованиям ЕС как инженерное требование до запуска, а не как юридическую проблему постфактум.
В случае признания несоответствия X грозят значительные штрафы. В соответствии с DSA штрафы могут достигать до 6% от общего годового мирового оборота компании. Помимо финансовых санкций, Комиссия обладает правом вводить промежуточные меры, которые теоретически могут заставить X приостановить доступность Grok в ЕС до тех пор, пока проблемы безопасности не будут устранены.
Формальное производство Европейской комиссии против X представляет собой первое крупное регуляторное испытание генеративного ИИ в рамках Закона о цифровых услугах. По мере развития расследования будут определяться границы ответственности разработчиков ИИ и владельцев платформ. Для Creati.ai и широкой сферы творческих технологий это служит жёстким напоминанием о том, что в представлении европейских регуляторов способность генерировать контент влечёт за собой такую же меру ответственности, как и действие по его размещению.