AI News

Иллюзия неуязвимости: основные средства защиты искусственного интеллекта (AI) рушатся под адаптивным давлением

В открытии, которое вызвало волну шока в сообществе по безопасности в области искусственного интеллекта (AI), коалиция исследователей из OpenAI, Anthropic и Google DeepMind выявила критические уязвимости в наиболее доверенных системах защиты отрасли. Революционное исследование, опубликованное на этой неделе, демонстрирует, что 12 широко известных механизмов защиты AI — ранее позиционировавшихся как имеющие почти нулевой уровень отказов — можно обойти с успехом, превышающим 90%, при применении «адаптивных атак».

Это открытие разрушает распространённое предположение о том, что текущие ограждения для больших языковых моделей (LLM) достаточно надежны, чтобы противостоять целеустремлённым злоумышленникам. По мере того как агенты AI всё глубже интегрируются в корпоративную инфраструктуру и критические рабочие процессы принятия решений, выявление таких системных слабых мест подчёркивает опасный разрыв между воспринимаемой безопасностью и реальной устойчивостью.

Принцип «Нападающий ходит вторым»

Суть критики исследователей заключается в фундаментальной ошибке в том, как исторически оценивались средства защиты AI. Традиционные бенчмарки безопасности обычно работают в статическом режиме: предлагается защита, и её тестируют против заранее существующей библиотеки известных атак. Если защита блокирует эти известные угрозы, её считают безопасной.

Однако новое исследование утверждает, что эта методология опасно наивна. Она предполагает, что «нападающий ходит первым» и остаётся статичным. В реальных сценариях изощрённые противники действуют по парадигме «нападающий ходит вторым». Они анализируют конкретный механизм защиты и оптимизируют свою стратегию атаки, чтобы его обойти.

Применяя эту адаптивную методологию — используя техники от оптимизации на основе градиента до обучения с подкреплением, управляемого человеком — исследователи смогли демонтировать защиты, которые ранее демонстрировали почти безупречную производительность. Исследование показывает, что то, что когда-то считалось «устойчивостью», было лишь «непрозрачностью», эффективной только до тех пор, пока нападающий не рассмотрел систему внимательно.

Методология: как защиты рухнули

Команда исследователей применила многоаспектный подход для изучения 12 целевых механизмов защиты, который включал разнообразные техники, такие как фильтрация на основе перплексии (perplexity filtering), преобразование входных данных (input transformation) и вспомогательный мониторинг больших языковых моделей (auxiliary LLM monitoring).

Фреймворк адаптивных атак использовал четыре основных вектора:

  1. Gradient-Based Optimization (оптимизация на основе градиента): использование доступа к весам модели (где доступно) для математического вычисления точного входа, необходимого для вызова ограниченного вывода.
  2. Reinforcement Learning (обучение с подкреплением, Reinforcement Learning, RL): обучение враждебных моделей для автоматического обнаружения структур подсказок, обходящих фильтры.
  3. Random Search & Fuzzing (случайный поиск и фуззинг): массовая автоматизированная мутация входов для поиска «слепых зон» в логике защиты.
  4. Human Red-Teaming (ручное Red-Teaming): эксперты по безопасности вручную создавали подсказки на основе понимания архитектурных ограничений защиты.

Результаты были единообразны и поразительны. Защиты, опиравшиеся на «секретные» механизмы или статические ключевые слова, обходились почти мгновенно. Более сложные механизмы защиты, хотя и устойчивые к наивным атакам, разрушались, когда оптимизация атаки была настроена на их специфическую логику обнаружения.

Разбор уязвимостей

Разрыв между заявленной эффективностью этих защит и их реальной производительностью при адаптивном давлении поразителен. В следующей таблице суммируется разрыв в производительности, выявленный исследователями по разным категориям механизмов защиты.

**Категория защиты Изначально заявляемый уровень отказов Успешность адаптивной атаки**
Фильтрация на основе перплексии (Perplexity-Based Filtering) < 2%
> 94%
Преобразование/очистка входных данных (Input Transformation/Sanitization) < 5%
> 91%
Супервизорные модели на базе больших языковых моделей (LLM-based Supervisor Models) < 1%
> 88%
Обнаружение атак на уровне токенов (Token-Level Adversarial Detection) < 1%
> 96%
Анализ структуры подсказки (Prompt Structure Analysis) < 3%
> 92%

Примечание: «Изначально заявляемый уровень отказов» представляет процент атак, которые защита якобы не смогла остановить в исходных публикациях. «Успешность адаптивной атаки» представляет процент атак, которые успешно обошли защиту в этом новом исследовании.

Парадигмальный сдвиг в сторону «адаптивности»

Это исследование заставляет переосмыслить подход к безопасности AI. Оно указывает на то, что текущее поколение защит страдает от «переобучения» на конкретные, известные наборы данных бенчмарков. Когда защита настроена на блокировку конкретного набора «jailbreak» подсказок, это создаёт ложное чувство безопасности.

Исследователи утверждают, что настоящую устойчивость нельзя доказать посредством статического тестирования. Вместо этого заявления о безопасности должны проверяться посредством строгого, противодействующего стресс-тестирования, где «Red Team» получает полное знание реализации защиты (white-box testing). Это отражает устоявшиеся практики в традиционной кибербезопасности, где «безопасность за счёт сокрытия (security by obscurity)» широко отвергается.

Одна из наиболее тревожных сторон результатов — провал «супервизоров на базе больших языковых моделей» — вторичных моделей AI, задачей которых является полицейская функция по отношению к основной модели. Исследование показало, что эти супервизоры подвержены тем же враждебным манипуляциям, что и модели, которые они должны защищать, создавая рекурсивную петлю уязвимости.

Последствия для отрасли: призыв к строгому Red Teaming

Для принимающих решения в корпоративной среде и разработчиков AI этот отчёт служит срочным призывом к действию. Полагаться на готовые обёртки защиты или опубликованные академические техники без внутренних стресс-тестов больше невозможно считать жизнеспособной стратегией безопасности.

Ключевые выводы для отрасли включают:

  • Откажитесь от статических бенчмарков: Оценки безопасности должны эволюционировать дальше «пройдено/не пройдено» на статических наборах данных. Непрерывный адаптивный Red Teaming необходим.
  • Инвестируйте в тестирование с участием человека: Автоматизированные защиты неизменно уступали атакам, управляемым человеком, что говорит о том, что человеческая интуиция остаётся критическим компонентом валидации безопасности.
  • Защита в глубину: Ни один слой защиты не является непроницаемым. Системы должны проектироваться с предположением, что внешние ограждения будут нарушены, что требует внутреннего мониторинга и протоколов локализации.

Участие исследователей из OpenAI, Anthropic и Google DeepMind в этом разоблачении сигнализирует о зрелости сектора. Признавая хрупкость собственных защит экосистемы, эти лаборатории движутся в сторону более прозрачного и укреплённого подхода к безопасности AI.

Заключение

Открытие того, что 12 первоклассных защит AI можно демонтировать с успехом 90%, — это унизительный момент для индустрии AI. Оно подчёркивает младенчество стандартов безопасности в этой области и изощрённость потенциальных угроз. По мере продвижения в 2026 году фокус должен сместиться от развёртывания «идеальных» щитов к созданию устойчивых систем, способных выдержать неизбежную реальность адаптивных, интеллектуальных атак. Эра статической безопасности AI закончена; началась эра адаптивной защиты.

Рекомендуемые