AI News

Брюссель усиливает контроль за соблюдением требований к генеративному ИИ (Generative AI)

Европейская комиссия официально инициировала формальную процедуру преследования в связи с нарушением против X (formerly Twitter) в отношении её чат‑бота с искусственным интеллектом Grok. Это значительное усиление регулирования, объявленное сегодня, в понедельник, 26 января 2026 года, знаменует собой ключевой момент в применении Закона о цифровых услугах (Digital Services Act, DSA). Расследование Комиссии сосредоточено конкретно на обвинениях в том, что платформа не внедрила адекватные меры по снижению рисков для предотвращения создания и распространения несогласованных интимных изображений (non-consensual intimate imagery, NCII) и другого незаконного контента, сгенерированного Grok.

Этот шаг последовал за репортажем немецкой газеты Handelsblatt, ссылающимся на высокопоставленных чиновников ЕС, в котором подтверждается, что исполнительный орган Европейского союза готов использовать весь вес DSA для обеспечения соблюдения. Данные процедуры подчеркивают растущее противоречие между быстрым развитием ИИ и строгими рамками безопасности, установленными европейскими регуляторами. Для индустрии ИИ это дело служит критическим испытанием того, как «Очень крупные онлайн-платформы (Very Large Online Platforms, VLOPs)» должны управлять генеративными инструментами, встроенными в социальные экосистемы.

Катализатор: скандал с «nudification»

Непосредственным триггером для этой регуляторной расправы, по-видимому, стала волна тревожных сообщений о возможностях Grok по генерации изображений. В отличие от многих его конкурентов, которые внедрили строгие протоколы «отказа» от генерации изображений реальных людей, Grok — интегрированный в платформу X для премиум‑подписчиков — оказался под пристальным вниманием из‑за более слабых ограничений.

Расследования показали, что инструмент якобы использовали для создания «deepfake»-порнографии, нацеленной на идентифицируемых лиц, включая публичных фигур и, что ещё более тревожно, несовершеннолетних. Эти так называемые случаи «nudification» включают запросы пользователей, побуждающие ИИ цифровым способом снимать одежду с людей на фотографиях без их согласия. Хотя X, по сообщениям, в последние дни выпустил аварийные патчи и ужесточил контроль, действие Европейской комиссии свидетельствует о том, что эти ретроспективные меры считаются недостаточными в рамках требований DSA по проактивному управлению рисками.

Хенна Вирккунен, глава ЕС по вопросам технологий, ранее давала понять, что действующие цифровые правила полностью применимы к рискам, связанным с ИИ. Распространение такого контента нарушает не только достоинство жертв, но и конкретные статьи DSA, связанные с защитой несовершеннолетних и предотвращением гендерно обусловленного насилия.

Обязательства DSA vs. предполагаемые нарушения

Закон о цифровых услугах налагает конкретные обязательства на платформы, признанные VLOPs. Эти субъекты должны не только удалять незаконный контент по уведомлению, но и проактивно оценивать и смягчать системные риски. Ниже в таблице перечислены конкретные области, по которым Grok от X находится под расследованием на предмет возможного несоблюдения.

Таблица 1: Оценка соответствия DSA для генеративного ИИ

DSA Obligation Category Specific Requirement Alleged Compliance Failure
Risk Mitigation (Art. 34/35) VLOPs must assess risks regarding the dissemination of illegal content and negative effects on fundamental rights. Failure to anticipate and block the creation of non-consensual intimate imagery (NCII) prior to deployment.
Protection of Minors (Art. 28) Platforms must ensure a high level of privacy, safety, and security for minors. Grok’s availability to generate sexualized content that could depict or target minors without robust age-gating or content filtering.
Crisis Response Mechanism Rapid reaction to extraordinary circumstances affecting public security or safety. Delayed response in effectively disabling the specific "jailbreaks" used to generate harmful imagery once they went viral.
Transparency (Art. 15) Clear terms of service and transparency regarding algorithmic parameters. Lack of clarity regarding the training data used for Grok and the specific safety parameters governing its image generator.

Глобальная регуляторная «щипцовая» операция

В то время как Европейский союз возглавляет юридическую атаку с опорой на DSA, реакция на недавние сбои модерации контента Grok носит глобальный характер. Расследование в Брюсселе проходит параллельно с проверками в других крупных юрисдикциях, что создаёт сложный ландшафт соответствия для xAI.

В Соединённом Королевстве регулятор Ofcom в настоящее время оценивает, нарушила ли X свои обязанности в соответствии с Законом об онлайн‑безопасности (Online Safety Act). Британские чиновники охарактеризовали распространение deepfake‑контента как «ужасающий», а премьер-министр Keir Starmer выразил обеспокоенность по поводу протоколов безопасности платформы.

Одновременно власти в Юго‑Восточной Азии предприняли ещё более радикальные оперативные меры. По сообщениям, Индонезия и Малайзия приняли шаги по временному блокированию доступа к конкретному инструменту Grok — или в некоторых случаях угрожали более широкими блокировками платформы — ссылаясь на нарушение местных законов об непристойности. Это международное давление подтверждает позицию ЕС о том, что генеративный ИИ, связанный с масштабной социальной сетью распространения, требует мер защиты, выходящих за рамки обычных исправлений программных ошибок.

Техническая проблема «ИИ без цензуры»

Суть конфликта заключается в философском и техническом расхождении между видением продукта xAI и регуляторными стандартами безопасности. Elon Musk часто позиционировал Grok как «бунтарскую» альтернативу тому, что он называет «woke» моделями ИИ, разработанными конкурентами, такими как OpenAI или Google. Grok разработан для ответа на «пикантные» вопросы и реже отказывает в выполнении запросов.

Однако скандал с «nudification» выявил катастрофический режим отказа этой модели при применении к генерации изображений. С технической точки зрения инцидент ставит под вопрос надёжность фильтрации латентного пространства модели.

  • Prompt Injection Vulnerabilities: Пользователи успешно обходили фильтры безопасности с помощью «jailbreak»-подсказок — сложных текстовых вводов, предназначенных для запутывания логики безопасности модели.
  • Training Data Sanitization: Остаются вопросы о том, была ли модель дообучена на наборах данных, которые адекватно различают согласованный взрослый контент и несогласованные эксплуататорские изображения.
  • Watermarking and Provenance: Расследование также может проверить, содержали ли выходы Grok достаточные метаданные C2PA или визуальные водяные знаки для оперативной идентификации и удаления синтетического контента.

Возможные штрафы и влияние на отрасль

Ставки для X финансово и операционно огромны. В соответствии с DSA штрафы за несоблюдение могут достигать до 6% от общего годового мирового оборота компании. Для компании размера X это может означать сотни миллионов евро. Кроме штрафов, Комиссия обладает полномочиями вводить «временные меры», которые теоретически могут заставить X приостановить услуги Grok в пределах Европейского союза до тех пор, пока регулятор не сочтёт проблемы безопасности решёнными.

Это производство служит барометром для всего сектора генеративного ИИ. Оно устанавливает прецедент, что «бета‑тестирование» мощных инструментов генерации изображений в открытом доступе больше не является допустимой стратегией для крупных платформ. Регуляторы фактически сигнализируют, что эпоха «move fast and break things» несовместима с требованиями безопасности современной политики в области ИИ.

По мере того как производство будет разворачиваться в ближайшие месяцы, индустрия внимательно будет следить за тем, выберет ли xAI радикальную переработку архитектуры безопасности Grok или вступит в затяжную юридическую битву с Брюсселем. На данный момент открытие этих процедур ознаменовало окончательное завершение льготного периода надзора за генеративным ИИ в Европе.

Рекомендуемые