AI News

Европейская комиссия открыла официальное расследование в отношении Grok AI компании X из‑за нарушений безопасности

Европейская комиссия официально инициировала формальную процедуру по нарушению законодательства в отношении X (ранее Twitter), нацелившись на его инструмент генеративного ИИ (Generative AI) Grok. Объявленное в понедельник, 26 января 2026 года, это расследование знаменует собой значительное ужесточение применения Закона о цифровых услугах (Digital Services Act, DSA) в Европейском союзе. Регуляторы ссылаются на «материализовавшиеся риски», связанные с распространением изображений сексуального характера без согласия (NCII) и возможными материалами сексуального насилия над детьми (CSAM), создаваемыми чат‑ботом, что обозначает поворотный момент в управлении ИИ в регионе.

Катализатор: «материализовавшиеся риски» и общественный вред

Расследование было спровоцировано серией тревожных сообщений о возможностях генерации изображений у Grok. В отличие от многих конкурентов, которые с самого начала внедрили строгие барьеры, Grok подвергся критике за воспринимаемую нехватку модерации. Основная забота Комиссии связана со способностью ИИ генерировать «манипулированные сексуально откровенные изображения» реальных людей, часто называемые дипфейки (deepfakes).

По словам Комиссии, эти риски не являются лишь теоретическими, они «материализовались», подвергая граждан ЕС серьезному вреду. Сообщается, что пользователи могли использовать функции Grok для цифрового «раздевания» людей и помещения их в компрометирующие или сексуально откровенные сцены без их согласия. Такая возможность нарушает ключевые требования безопасности DSA, которые обязывают Очень крупные онлайн‑платформы (Very Large Online Platforms, VLOPs) вроде X проактивно выявлять и минимизировать системные риски.

Хенна Вирккунен, исполнительный вице‑председатель Комиссии по вопросам технологического суверенитета, безопасности и демократии, осудила это явление, заявив, что несогласованные сексуальные дипфейки представляют собой «жестокую, недопустимую форму унижения». Расследование призвано установить, не допустила ли X отсутствие эффективных мер смягчения, которые могли бы предотвратить создание и распространение такого контента.

Регуляторный фокус: Закон о цифровых услугах (DSA)

Это производство отличается от предыдущих расследований по политике модерации контента X в отношении разжигания ненависти или дезинформации. Оно сосредоточено конкретно на пересечении генеративного ИИ и ответственности платформ в рамках DSA. Комиссия изучает три конкретные области несоответствия:

  1. Ненадлежащее проведение оценки рисков: DSA обязывает платформы проводить и представлять всестороннюю оценку рисков до развёртывания новых функций, которые могут критически повлиять на профиль рисков платформы. Комиссия утверждает, что X не предоставила эту «ad hoc оценку рисков» перед запуском функций генерации изображений Grok в ЕС.
  2. Недостаточные меры по смягчению: В ходе расследования будет проверено, были ли заявленные X меры предосторожности технически достаточны для предотвращения генерации незаконного контента, в частности CSAM и гендерно‑обусловленного насилия.
  3. Рекомендательные системы: Параллельно Комиссия расширила существующее расследование (открытое первоначально в декабре 2023 года), чтобы охватить решение X интегрировать Grok в свои рекомендательные системы. Власти обеспокоены тем, что использование Grok для формирования пользовательских лент может усиливать вредоносный контент, а не подавлять его.

Таблица 1: Ключевые области расследования Комиссии

Investigated Area Specific Allegation Relevant DSA Article
Оценка рисков Непредоставление отчёта до развёртывания Grok в ЕС. Articles 34(1) and (2)
Меры по смягчению Недостаточные технические барьеры против создания незаконного контента. Article 35(1)
Рекомендательные системы Использование алгоритмов Grok, потенциально усиливающее системные риски. Article 42(2)

Ответ X и техническая защита

После объявления X вновь подтвердила свою приверженность безопасности. Представитель компании перенаправил запросы к предыдущему заявлению, в котором утверждалось о «нулевой терпимости» к сексуальной эксплуатации детей и несогласованной наготе. Компания заявляет, что активно работает над исправлением «упущений» в своих протоколах безопасности.

Тем не менее технические эксперты полагают, что проблема может быть фундаментальной и связанной с тем, как Grok обучали и внедряли. Продавая Grok как «острый» или менее ограниченный альтернативный вариант моделям вроде ChatGPT или Claude, X возможно непреднамеренно снизила порог допустимого вредоносного вывода. «Spicy mode» и другие неограниченные функции, хотя и популярны у части пользовательской базы, прямо противоречат строгим рамкам ответственности, действующим в ЕС.

Сообщается, что компания ограничила некоторые возможности генерации изображений Grok в ответ на начальную волну возмущения, но регуляторы ЕС считают эти реактивные меры недостаточными. Цель расследования — установить, отсутствовали ли у архитектуры самого ИИ необходимые принципы «безопасности по дизайну», требуемые европейским законодательством.

Последствия для индустрии ИИ

Это расследование устанавливает важный прецедент для всех компаний, работающих в сфере ИИ в Европейском союзе. Оно проясняет, что DSA применяется строго к инструментам генеративного ИИ, встроенным в социальные платформы, а не только к пользовательскому контенту.

Для более широкой отрасли ИИ послание предельно ясно: скорость инноваций не должна идти вразрез с оценкой безопасности. Требование представлять оценку рисков до развёртывания, вероятно, замедлит выпуск новых функций ИИ на рынке ЕС по сравнению с США. Компании, разрабатывающие большие языковые модели (Large Language Models, LLMs) и генераторы изображений, теперь должны рассматривать соответствие требованиям ЕС как инженерное требование до запуска, а не как юридическую проблему постфактум.

В случае признания несоответствия X грозят значительные штрафы. В соответствии с DSA штрафы могут достигать до 6% от общего годового мирового оборота компании. Помимо финансовых санкций, Комиссия обладает правом вводить промежуточные меры, которые теоретически могут заставить X приостановить доступность Grok в ЕС до тех пор, пока проблемы безопасности не будут устранены.

Заключение

Формальное производство Европейской комиссии против X представляет собой первое крупное регуляторное испытание генеративного ИИ в рамках Закона о цифровых услугах. По мере развития расследования будут определяться границы ответственности разработчиков ИИ и владельцев платформ. Для Creati.ai и широкой сферы творческих технологий это служит жёстким напоминанием о том, что в представлении европейских регуляторов способность генерировать контент влечёт за собой такую же меру ответственности, как и действие по его размещению.

Рекомендуемые