
По мере того как ИИ-агенты переходят от теоретических демонстраций к готовым к промышленной эксплуатации инструментам разработки, границы их механизмов безопасности проходят серьезную проверку. Недавние исследования в области безопасности выявили критическую логическую уязвимость в Claude Code от компании Anthropic — мощном ИИ-агенте для написания кода. Открытие показывает, что протоколы безопасности — в частности те, что предназначены для запрета несанкционированных или опасных подкоманд — могут быть обойдены, если агенту предоставляется достаточно длинная и сложная цепочка подкоманд.
Для пользователей Creati.ai это событие служит отрезвляющим напоминанием о том, что хотя Большие языковые модели (Large Language Models, LLMs) становятся все более способными, «агентный» слой, надстроенный над ними, создает совершенно новую поверхность атаки. В этой статье исследуется природа этой уязвимости, ее последствия для более широкого ландшафта кибербезопасности и то, что должны делать разработчики для защиты своих рабочих процессов.
В основе проблемы лежит фундаментальный разрыв между тем, как Claude Code обрабатывает правила безопасности, и тем, как он интерпретирует расширенные последовательности команд. Claude Code разработан для работы в качестве автономного разработчика, выполняющего команды оболочки (shell) для изменения файлов, запуска тестов и управления инфраструктурой. Чтобы предотвратить злонамеренный или случайный ущерб, Anthropic внедрила надежный список запретов (deny-list) для подкоманд, выполнение которых агенту ограничено.
Однако исследователи безопасности обнаружили, что эти фильтры безопасности работают по линейному логическому пути. Когда пользователь отправляет стандартный или короткий запрос, агент анализирует команду, сверяет ее с политикой безопасности и выполняет ее. Уязвимость проявляется тогда, когда этот запрос обернут в непропорционально длинную цепочку подкоманд.
Исследование предполагает, что парсер, отвечающий за соблюдение правил безопасности, обладает ограниченным буфером предварительного просмотра (Look-ahead Buffer) или лимитом времени ожидания операции. Когда цепочка подкоманд превышает определенную длину, агент, по-видимому, приоритизирует завершение задачи над соблюдением правил. Уровень безопасности фактически становится «перегруженным» или усеченным, позволяя несанкционированным командам, встроенным в конец длинной, безобидно выглядящей цепочки, проскользнуть на исполнение.
Это не традиционная программная ошибка, такая как переполнение буфера в коде на C, а скорее логический сбой в процессе принятия решений ИИ. Модель по сути «забывает» или деприоритизирует свои основополагающие ограничения безопасности в пользу сохранения связности в длинном наборе инструкций.
Последствия этого открытия значительны для корпоративных команд разработчиков программного обеспечения, которые в настоящее время интегрируют агентный ИИ в свои конвейеры CI/CD. ИИ-агент с возможностью выполнения несанкционированных команд оболочки — таких как удаление файлов репозитория, изменение переменных окружения или эксфильтрация данных — представляет серьезную угрозу для интеллектуальной собственности и целостности системы.
Чтобы лучше понять серьезность этой проблемы, мы составили следующую оценку векторов риска, связанных с этим типом уязвимости агентов:
| Фактор риска | Уровень воздействия | Описание |
|---|---|---|
| Кража данных (Data Exfiltration) | Высокий | Злоумышленник может заставить агента прочитать секретные ключи или конфиденциальные файлы конфигурации и раскрыть их |
| Целостность системы | Критический | Несанкционированные подкоманды могут изменить рабочий код или удалить критически важные файловые структуры |
| Манипуляция средой | Средний | Агента можно обманом заставить изменить переменные окружения, которые меняют поведение приложения |
| Нарушение CI/CD | Высокий | Вредоносная инъекция может остановить конвейеры развертывания или внедрить бэкдоры в цепочку поставок ПО |
Эта таблица подчеркивает, что хотя уязвимость требует специфической намеренной настройки пользователем (или злоумышленником, выдающим себя за пользователя), последствия успешной эксплуатации являются крайне тяжелыми.
Данная уязвимость является ярким примером эволюции «промпт-инъекций» (Prompt Injection). В то время как ранние итерации промпт-инъекций были сосредоточены на том, чтобы запутать чат-ботов и заставить их раскрыть свои системные инструкции или сказать что-то оскорбительное, появление агентного ИИ полностью изменило модель угроз.
В контексте Claude Code мы переходим в область промпт-инъекций на основе исполнения. Здесь злоумышленник не пытается заставить чат-бота сказать что-то неправильное; он пытается заставить агента сделать что-то неправильное. Когда агент имеет полномочия взаимодействовать с оболочкой или локальной файловой системой, промпт-инъекция становится вектором удаленного выполнения кода (Remote Code Execution, RCE).
Частью проблемы является огромный размер современных окон контекста (Context Windows). Поскольку разработчикам нужны агенты, способные анализировать целые кодовые базы, моделям скармливаются огромные объемы данных. Управление протоколами безопасности на протяжении 200 000 или 500 000 токенов требует сложной архитектуры. Если фильтр безопасности не интегрирован глубоко в основной цикл исполнения, а рассматривается как «предполетная проверка», которую можно перегрузить, вся система фактически является небезопасной по своей архитектуре.
До тех пор пока Anthropic и другие поставщики ИИ не выпустят исправления, укрепляющие базовую архитектуру этих агентов, разработчикам следует принять подход «нулевого доверия» (Zero-trust) при использовании Claude Code или аналогичных инструментов. Безопасность — это не та функция, которую можно полностью переложить на ИИ-агента; она должна обеспечиваться средой, в которой работает агент.
rm -rf, он должен иметь доступ только к одноразовому контейнеру, а не к хост-машине или критически важным производственным серверам.Обнаружение этого обхода в Claude Code служит напоминанием об игре в «кошки-мышки», которая неизбежна в кибербезопасности. Создавая более мощные ИИ-инструменты, мы, по сути, создаем сложные автономные системы, поведение которых трудно предсказать. Сейчас отрасль находится в поворотном моменте, когда функции безопасности больше не могут быть эвристическими или основанными на простых правилах; они должны стать фундаментальной частью обучения модели.
В будущем мы ожидаем, что Anthropic и ее конкуренты будут вкладывать значительные средства в архитектуры «безопасности по проектированию» (Safety-by-Design). Это включает в себя обучение моделей распознавать и отклонять рекурсивные или чрезмерно сложные цепочки команд, имитирующие вредоносные шаблоны. Более того, разработка специализированных «агентов безопасности» — ИИ-систем, задача которых заключается исключительно в мониторинге деятельности других ИИ-агентов — может стать стандартным компонентом корпоративного стека ИИ.
Для сообщества разработчиков урок очевиден: инновации движутся быстрее, чем исправления безопасности. Хотя Claude Code предлагает невероятные преимущества для продуктивности, к нему нужно относиться как к мощному инструменту с присущими ему рисками. Сохраняя контроль над средой и осуществляя строгий надзор, разработчики могут использовать мощь ИИ, сводя к минимуму свою уязвимость перед этими новыми угрозами, ориентированными на агентов. Мы продолжим следить за ситуацией и сообщать о любых официальных патчах или архитектурных обновлениях от команды Anthropic.