
В открытии, которое вызвало волну шока в сообществе по безопасности в области искусственного интеллекта (AI), коалиция исследователей из OpenAI, Anthropic и Google DeepMind выявила критические уязвимости в наиболее доверенных системах защиты отрасли. Революционное исследование, опубликованное на этой неделе, демонстрирует, что 12 широко известных механизмов защиты AI — ранее позиционировавшихся как имеющие почти нулевой уровень отказов — можно обойти с успехом, превышающим 90%, при применении «адаптивных атак».
Это открытие разрушает распространённое предположение о том, что текущие ограждения для больших языковых моделей (LLM) достаточно надежны, чтобы противостоять целеустремлённым злоумышленникам. По мере того как агенты AI всё глубже интегрируются в корпоративную инфраструктуру и критические рабочие процессы принятия решений, выявление таких системных слабых мест подчёркивает опасный разрыв между воспринимаемой безопасностью и реальной устойчивостью.
Суть критики исследователей заключается в фундаментальной ошибке в том, как исторически оценивались средства защиты AI. Традиционные бенчмарки безопасности обычно работают в статическом режиме: предлагается защита, и её тестируют против заранее существующей библиотеки известных атак. Если защита блокирует эти известные угрозы, её считают безопасной.
Однако новое исследование утверждает, что эта методология опасно наивна. Она предполагает, что «нападающий ходит первым» и остаётся статичным. В реальных сценариях изощрённые противники действуют по парадигме «нападающий ходит вторым». Они анализируют конкретный механизм защиты и оптимизируют свою стратегию атаки, чтобы его обойти.
Применяя эту адаптивную методологию — используя техники от оптимизации на основе градиента до обучения с подкреплением, управляемого человеком — исследователи смогли демонтировать защиты, которые ранее демонстрировали почти безупречную производительность. Исследование показывает, что то, что когда-то считалось «устойчивостью», было лишь «непрозрачностью», эффективной только до тех пор, пока нападающий не рассмотрел систему внимательно.
Команда исследователей применила многоаспектный подход для изучения 12 целевых механизмов защиты, который включал разнообразные техники, такие как фильтрация на основе перплексии (perplexity filtering), преобразование входных данных (input transformation) и вспомогательный мониторинг больших языковых моделей (auxiliary LLM monitoring).
Фреймворк адаптивных атак использовал четыре основных вектора:
Результаты были единообразны и поразительны. Защиты, опиравшиеся на «секретные» механизмы или статические ключевые слова, обходились почти мгновенно. Более сложные механизмы защиты, хотя и устойчивые к наивным атакам, разрушались, когда оптимизация атаки была настроена на их специфическую логику обнаружения.
Разрыв между заявленной эффективностью этих защит и их реальной производительностью при адаптивном давлении поразителен. В следующей таблице суммируется разрыв в производительности, выявленный исследователями по разным категориям механизмов защиты.
| **Категория защиты | Изначально заявляемый уровень отказов | Успешность адаптивной атаки** |
|---|---|---|
| Фильтрация на основе перплексии (Perplexity-Based Filtering) | < 2% | > 94% |
| Преобразование/очистка входных данных (Input Transformation/Sanitization) | < 5% | > 91% |
| Супервизорные модели на базе больших языковых моделей (LLM-based Supervisor Models) | < 1% | > 88% |
| Обнаружение атак на уровне токенов (Token-Level Adversarial Detection) | < 1% | > 96% |
| Анализ структуры подсказки (Prompt Structure Analysis) | < 3% | > 92% |
Примечание: «Изначально заявляемый уровень отказов» представляет процент атак, которые защита якобы не смогла остановить в исходных публикациях. «Успешность адаптивной атаки» представляет процент атак, которые успешно обошли защиту в этом новом исследовании.
Это исследование заставляет переосмыслить подход к безопасности AI. Оно указывает на то, что текущее поколение защит страдает от «переобучения» на конкретные, известные наборы данных бенчмарков. Когда защита настроена на блокировку конкретного набора «jailbreak» подсказок, это создаёт ложное чувство безопасности.
Исследователи утверждают, что настоящую устойчивость нельзя доказать посредством статического тестирования. Вместо этого заявления о безопасности должны проверяться посредством строгого, противодействующего стресс-тестирования, где «Red Team» получает полное знание реализации защиты (white-box testing). Это отражает устоявшиеся практики в традиционной кибербезопасности, где «безопасность за счёт сокрытия (security by obscurity)» широко отвергается.
Одна из наиболее тревожных сторон результатов — провал «супервизоров на базе больших языковых моделей» — вторичных моделей AI, задачей которых является полицейская функция по отношению к основной модели. Исследование показало, что эти супервизоры подвержены тем же враждебным манипуляциям, что и модели, которые они должны защищать, создавая рекурсивную петлю уязвимости.
Для принимающих решения в корпоративной среде и разработчиков AI этот отчёт служит срочным призывом к действию. Полагаться на готовые обёртки защиты или опубликованные академические техники без внутренних стресс-тестов больше невозможно считать жизнеспособной стратегией безопасности.
Ключевые выводы для отрасли включают:
Участие исследователей из OpenAI, Anthropic и Google DeepMind в этом разоблачении сигнализирует о зрелости сектора. Признавая хрупкость собственных защит экосистемы, эти лаборатории движутся в сторону более прозрачного и укреплённого подхода к безопасности AI.
Открытие того, что 12 первоклассных защит AI можно демонтировать с успехом 90%, — это унизительный момент для индустрии AI. Оно подчёркивает младенчество стандартов безопасности в этой области и изощрённость потенциальных угроз. По мере продвижения в 2026 году фокус должен сместиться от развёртывания «идеальных» щитов к созданию устойчивых систем, способных выдержать неизбежную реальность адаптивных, интеллектуальных атак. Эра статической безопасности AI закончена; началась эра адаптивной защиты.