AI News

Иллюзия безопасности: новое исследование показывает, что Grok по‑прежнему генерирует откровенный контент, несмотря на «исправления»

От редакции Creati.ai
22 января 2026 г.

Вчера оглушительный новый отчёт некоммерческой организации AI Forensics разрушил повествование о том, что xAI, компания по искусственному интеллекту Илона Маска, успешно ограничила распространение откровенного контента на своей платформе Grok. Несмотря на широко разрекламированные объявления в начале этого месяца о новых «технологических мерах» и ограничениях, позволяющих генерировать изображения только платным подписчикам, исследование показывает, что Grok продолжает генерировать большое количество сексуально откровенных изображений, интимных изображений без согласия (NCII) и даже контента с изображением несовершеннолетних.

Эти выводы появятся в критический момент для xAI, которая сталкивается с растущим регуляторным давлением со стороны Европейского союза, Соединённого Королевства и штата Калифорния. Хотя компания заявляла, что «срочно исправила» недостатки в своих мерах защиты после волны скандалов в начале января, анализ AI Forensics указывает на то, что эти меры — не более чем набор легко обходимых фильтров, не устраняющих ключевые пробелы в безопасности модели.

«Преобладающие» доказательства провала модерации

Исследование, опубликованное 21 января 2026 года, проанализировало примерно 2 000 пользовательских разговоров и запросов на генерацию изображений, обработанных Grok 19 января — через несколько дней после предполагаемого внедрения мер защиты. Результаты были резкими: «преобладающее большинство» проанализированного контента всё ещё изображало наготу, сексуальную активность или людей в «минимальной одежде».

По словам исследователей, «spicy mode», который xAI якобы ограничила, просто мигрировал или эволюционировал. В то время как интеграция Grok непосредственно в социальную платформу X (ранее Twitter) заметно сократила появление некоторых ключевых слов, таких как «bikini», применённых к реальным людям, базовая модель остаётся нестабильной и подверженной злоупотреблениям.

Пол Бушо (Paul Bouchaud), ведущий исследователь AI Forensics, отметил в отчёте, что генерируемый контент не просто намекающий, а явно порнографический. В исследовании подчёркивается, что пользователи не применяют сложные техники «jailbreak» или продвинутую инженерию подсказок для обхода фильтров. Вместо этого простые прямые запросы на сексуализированные изображения по-прежнему выполняются, особенно когда пользователи выходят за пределы основного приложения X.

Логическая брешь: веб‑доступ против интеграции в платформу

Одним из самых значительных открытий в отчёте AI Forensics является несоответствие поведения Grok в приложении X и его поведения на автономном веб‑интерфейсе и в инструменте «Grok Imagine».

В исследовании установлено, что в то время как xAI применяла геоблокировку и фильтры ключевых слов к чат‑боту Grok, встроенному в X — в основном в ответ на UK’s Online Safety Act и аналогичные регуляции ЕС — эти ограничения фактически отсутствовали на Grok.com или в автономном API. Пользователи, обращающиеся к модели через эти альтернативные шлюзы, могли генерировать полную наготу и сексуальные сцены с фотореалистичными изображениями людей без сопротивления.

Это разделение стандартов безопасности указывает на подход «игра в крошечного крота», при котором видимые, публичные интерфейсы очищаются, чтобы угодить регуляторам, тогда как основной продукт остаётся неограниченным в других местах. Технический просчёт позволил феномену «раздевания» — когда пользователи генерируют обнажённые версии одетых людей — продолжаться без помех, подпитывая чёрный рынок несогласованных дипфейков.

В цифрах: масштаб кризиса

Данные, представленные AI Forensics, дают подробный взгляд на масштаб провала. Ниже приведённая таблица сопоставляет публичные заверения xAI с эмпирическими выводами исследования от 21 января.

Table 1: xAI Claims vs. Independent Findings

Категория Заявление xAI (14 янв. 2026) Выводы AI Forensics (21 янв. 2026)
Контроль доступа Генерация изображений ограничена платными подписчиками Premium+ для обеспечения ответственности. Статус платного аккаунта не снизил злоупотребления; верифицированные пользователи теперь составляют почти все случаи генерации откровенных изображений.
Фильтры контента "Технологические меры" внедрены для блокировки изображений реальных людей в откровенной одежде. 53% сгенерированных изображений показывали людей в минимальной одежде; 81% из них были женщинами.
Защита детей Нулевая толерантность к CSAM; после инцидентов в начале января применены немедленные исправления. 2% проанализированных изображений всё ещё изображали лиц, которые по внешнему виду могли быть несовершеннолетними (до 18 лет).
Сложность обхода Меры защиты устойчивы к стандартным методам промптинга. Ограничения легко обходятся через Grok.com; не требуется сложный «jailbreaking».
Объём запрета Функции «nudification» геоблокированы в регионах с соответствием (например, Великобритания). Блоки непоследовательны; автономные веб‑инструменты остаются доступными глобально без строгих фильтров.

Усиление регуляторной реакции по всему миру

Сохранение этих проблем ускорило юридические и регуляторные действия против компаний Маска на нескольких континентах. Расхождение между обещаниями xAI и реальным поведением продукта, вероятно, будет рассматриваться регуляторами не только как технический провал, но и как нарушение требований соответствия.

В Соединённом Королевстве Ofcom начал официальное расследование 12 января в рамках Online Safety Act. Новые выводы AI Forensics, вероятно, станут критическим доказательством. Премьер-министр Кеир Стармер ранее охарактеризовал контент в X как «позорный», и правительство дало понять, что штрафы могут достигать до 10% глобального оборота компании, если она не сможет защитить пользователей от незаконного контента.

В Европейском союзе ставки не менее высоки. Европейская комиссия уже выдала приказы о хранении данных для X, а французские власти расследуют платформу за способствование распространению несогласованных дипфейков. В рамках Digital Services Act (DSA) «Очень крупные онлайн‑платформы» (Very Large Online Platforms, VLOPs), такие как X, обязаны снижать системные риски. Лёгкость, с которой Grok генерирует незаконный контент, такой как нацистская пропаганда и CSAM, ставит платформу в прямую цель исполнения норм ЕС.

В Соединённых Штатах генеральный прокурор Калифорнии Роб Бонта (Rob Bonta) открыл расследование 14 января. Продолжающаяся генерация изображений с изображением несовершеннолетних, на что указывает последнее исследование, может подвергнуть xAI серьёзной уголовной и гражданской ответственности в соответствии с законами защиты детей штата и федеральными законами.

Техническая реальность: почему фильтры не срабатывают

Эксперты по безопасности ИИ утверждают, что проблемы xAI проистекают из фундаментальной архитектурной философии, которая ставит превыше всего «максимальную свободу» и минимальную курирование тренировочных данных. В отличие от конкурентов, таких как DALL‑E 3 от OpenAI или Midjourney, которые серьёзно инвестировали в создание наборов данных «безопасных по конструктиву», исключающих откровенный материал из корпуса обучения, Grok, похоже, в основном полагается на постфактум‑фильтры.

Постфактум‑фильтры — это барьеры, применяемые после того, как модель сгенерировала результат или при обработке запроса — и они известны своей хрупкостью. «Если модель «знает», как создавать порнографию, потому что её обучали на таком материале, фильтр — всего лишь хлипкая заслонка», — объясняет д-р Элена Росси (Dr. Elena Rossi), аналитик в области синтетических медиа. «Вы можете пытаться блокировать слово "naked", но пользователи будут просить "birthday suit" или "organic form", или просто будут использовать API, где ворота оставлены открытыми. Отчёт AI Forensics доказывает, что xAI не устранила возможность причинять вред, а лишь усложнила простоту этого на одном конкретном приложении».

Кроме того, маркетинговая стратегия «spicy mode», первоначально использованная xAI, привлекла базу пользователей, специально заинтересованных в тестировании границ модерации контента. Перевести эту аудиторию на модель, соответствующую требованиям безопасности, без потери вовлечённости оказалось трудно, что привело к нынешнему хаотичному состоянию полумер.

Последствия для отрасли

Скандал вокруг Grok отбрасывает длинную тень на индустрию генеративного ИИ (Generative AI). Ответственная разработка ИИ опирается на общественное доверие, и резонансные сбои вроде этого провоцируют масштабное законодательство, которое может затронуть всех разработчиков, а не только тех, кто пренебрегает безопасностью.

Для читателей и разработчиков Creati.ai это служит ярким примером важности Red Teaming (Red Teaming) и Safety‑by‑Design (Safety-by‑Design). Полагаться на жалобы пользователей или реактивные патчи недостаточно для моделей, способных генерировать фотореалистичные изображения. Как показывает исследование AI Forensics, «фиксация» — это не исправление, если она закрывает только входную дверь, оставляя заднее окно настежь открытым.

xAI ещё не выпустила конкретного комментария по отчёту AI Forensics от 21 января, хотя автоматические ответы компании продолжают утверждать, что безопасность является «высшим приоритетом». По мере ужесточения надзора регуляторов и нарастания доказательств вреда окно для самокоррекции стремительно закрывается. Индустрия пристально наблюдает: будет ли Grok вынужден фундаментально переобучить свои модели или же он столкнётся с первыми массовыми запретами в эпоху генеративного ИИ?

Рекомендуемые