
В знаковом раскрытии данных, которое знаменует собой поворотный сдвиг в ландшафте цифровой войны, Google официально подтвердила, что APT31, печально известная китайская хакерская группировка, спонсируемая государством, успешно использовала Gemini AI для организации сложных кибератак против организаций в Соединенных Штатах. Это разоблачение, подробно изложенное в отчете, опубликованном Группой анализа угроз (Threat Analysis Group, TAG) Google 12 февраля 2026 года, служит первым убедительным доказательством того, что крупный государственный субъект интегрирует коммерческие большие языковые модели (Large Language Models, LLMs) в свои наступательные операционные процессы.
Для сообщества специалистов по кибербезопасности и заинтересованных сторон в области ИИ это событие является не просто нарушением условий обслуживания; оно представляет собой индустриализацию кибершпионажа. Используя генеративный ИИ (Generative AI), APT31 продемонстрировала способность ускорять исследование уязвимостей и генерацию скриптов, эффективно сокращая время между идентификацией цели и эксплуатацией. Этот инцидент подчеркивает двойную природу передовых технологий ИИ и поднимает насущные вопросы относительно эффективности текущих защитных барьеров перед лицом настойчивых противников на государственном уровне.
Отчет TAG от Google предоставляет детальный анализ того, как APT31, также отслеживаемая более широким сообществом безопасности как Zirconium, использовала возможности Gemini. В отличие от типичных попыток «джейлбрейка» (jailbreaking), наблюдаемых в сети — когда пользователи пытаются обойти фильтры безопасности для прямой генерации хейтспича или вредоносного ПО — подход APT31 был методичным и операционным.
Согласно расследованию, группа не использовала Gemini для прямого запуска атак. Вместо этого они использовали ИИ как множитель силы для логистики и подготовки инструментов перед атакой.
Наиболее тревожным аспектом деятельности группы стала автоматизация обнаружения уязвимостей. APT31 вводила общедоступные данные об уязвимостях (CVE) и техническую документацию в экземпляры Gemini для синтеза быстрых стратегий эксплуатации.
Результаты исследования Google показывают, что ИИ действовал как «второй пилот» для хакеров, позволяя им устранять ошибки в коде своего вредоносного ПО и оптимизировать цепочки атак в режиме реального времени.
Основными целями этой кампании, усиленной ИИ, были определены высокозначимые организации в Соединенных Штатах. Хотя Google сохраняет конфиденциальность в отношении личностей конкретных жертв для защиты текущих усилий по восстановлению, анализ секторов указывает на стратегическую направленность на критическую инфраструктуру, политические организации и технологические фирмы.
Использование Gemini позволило APT31 значительно масштабировать свои операции. Традиционные кампании целевого фишинга (spear-phishing) и разведки ресурсоемки; однако интеграция генеративного ИИ позволила группе охватить более широкую сеть с более высокой точностью.
Ключевые целевые секторы:
Чтобы понять серьезность этого развития, необходимо сравнить традиционную цепочку киберпоражения (cyber kill chain) с ускоренным графиком, наблюдаемым в кампании APT31. Интеграция LLM значительно сжимает фазы «Создания средств нападения» и «Разведки».
Таблица: Влияние ИИ на фазы киберопераций
| Фаза атаки | Традиционный метод | Метод с использованием ИИ (APT31) |
|---|---|---|
| Разведка | Ручной сбор общедоступных данных; человеческий анализ топологии сети. | Автоматизированный синтез данных; обобщение документации целевой инфраструктуры с помощью ИИ. |
| Создание средств нападения | Ручное кодирование эксплойтов; отладка методом проб и ошибок. | Быстрая генерация скриптов через LLM; автоматизированная оптимизация кода и исправление ошибок. |
| Доставка | Фишинг на основе шаблонов; часто содержит грамматические ошибки или культурные несоответствия. | Мгновенно создаваемые контекстно-зависимые черновики фишинга с безупречной лингвистикой. |
| Эксплуатация | Исполнение готовых инструментов; требует ручной настройки, если среда отличается. | Динамическая настройка скриптов на основе анализа обратной связи об ошибках в реальном времени с помощью ИИ. |
Обнаружив аномальные паттерны активности, связанные с APT31, Google предприняла немедленные действия по пресечению операции. Это включало блокировку конкретных учетных записей, связанных со злоумышленниками, и передачу соответствующих индикаторов компрометации (IOC) правоохранительным органам и федеральным агентствам США.
Однако обнаружение этой активности высвечивает сложную проблему для поставщиков ИИ: Атрибуция.
В отчете Google отметила, что запросы, отправляемые APT31, часто носили характер «двойного назначения». Например, просьба к ИИ «написать скрипт для тестирования сетевых портов на наличие открытых уязвимостей» является законным запросом для системного администратора, но вредоносным — для государственного субъекта. Отличить защитника кибербезопасности от иностранного противника исключительно на основе синтаксиса промпта становится все труднее.
Google заявила, что внедряет более строгие протоколы «Знай своего клиента» (Know Your Customer, KYC) для доступа к API и совершенствует состязательное тестирование для лучшего обнаружения паттернов, указывающих на методы работы, спонсируемые государством.
Подтверждение того, что китайский государственный субъект успешно превратил американскую модель ИИ в оружие против интересов США, вероятно, вызовет быструю регуляторную реакцию. Этот инцидент подтверждает опасения, которые давно высказывали политики в отношении экспорта и контроля передовых моделей ИИ.
Мы ожидаем, что этот инцидент ускорит исполнение Исполнительного указа о безопасном, защищенном и заслуживающем доверия искусственном интеллекте (Executive Order on Safe, Secure, and Trustworthy Artificial Intelligence). Кроме того, это оказывает давление на «Институт безопасности ИИ» (AI Safety Institute) с целью разработки более строгих стандартов для предотвращения неправомерного использования моделей.
Эксперты по безопасности прогнозируют несколько общеотраслевых сдвигов:
Разоблачение использования Gemini группировкой APT31 является переломным моментом. Это сигнализирует о том, что теоретические риски ИИ в кибервойне перешли в разряд практических реальностей. Для индустрии кибербезопасности сигнал ясен: противник теперь усилен технологиями.
Защитники теперь должны действовать исходя из предположения, что злоумышленники обладают способностью повторять атаки быстрее, чем это возможно для человека. В дальнейшем битва будет идти не просто между людьми, а между обороной с помощью ИИ и нападением с помощью ИИ. Creati.ai продолжит следить за развитием этой истории и последующими изменениями в глобальной политике в области ИИ.