AI News

Государственные хакеры используют Google Gemini как оружие: новая эра киберугроз на базе ИИ

12 февраля 2026 г. — В важном разоблачении, подчеркивающем обоюдоострую природу искусственного интеллекта, группа анализа угроз Google (Google’s Threat Intelligence Group, GTIG) и Google DeepMind опубликовали подробный отчет, в котором описывается, как государственные противники систематически интегрируют Google Gemini в жизненные циклы своих кибератак.

В отчете, представленном сегодня в преддверии Мюнхенской конференции по безопасности, отмечается тревожная тенденция: группы продвинутых устойчивых угроз (Advanced Persistent Threat, APT) из Китая, Ирана и Северной Кореи вышли за рамки простых экспериментов. Эти субъекты в настоящее время активно используют генеративный ИИ (Generative AI) для ускорения разведки, совершенствования кампаний социальной инженерии и даже динамической генерации вредоносного кода во время активных операций.

Операционный сдвиг: от экспериментов к интеграции

В течение последнего года сообщество кибербезопасности предупреждало о возможности того, что большие языковые модели (Large Language Models, LLM) снизят порог входа для киберпреступников. Однако последние результаты исследования Google подтверждают, что искушенные группы, спонсируемые государством, используют эти инструменты для повышения эффективности и возможностей уклонения от обнаружения.

Согласно отчету, использование Gemini этими группами не является единообразным. Различные субъекты адаптировали технологию под свои конкретные стратегические цели: от глубокого сбора разведданных на основе открытых источников (Open-source intelligence, OSINT) до перевода фишинговых приманок в режиме реального времени.

Джон Халтквист, главный аналитик GTIG, отметил, что если северокорейские и иранские группы были первыми, кто начал использовать ИИ для социальной инженерии, то китайские субъекты сейчас разрабатывают более сложные, агентные сценарии использования для оптимизации поиска уязвимостей и устранения неполадок в коде.

Профиль субъектов угроз: как страны эксплуатируют ИИ

Отчет представляет детальный взгляд на то, как конкретные группы APT используют Gemini. В следующей таблице обобщены ключевые субъекты и наблюдаемые методы их работы:

Сводка эксплуатации ИИ государственными субъектами

Группа угроз Происхождение Основные цели Ключевые способы злоупотребления Gemini
APT42 (Charming Kitten) Иран Образование, правительство, НПО Перевод фишинговых приманок, совершенствование образов для социальной инженерии и составление убедительных электронных писем.
UNC2970 Северная Корея Оборонная и аэрокосмическая промышленность Синтез данных OSINT для профилирования ценных целей; выдача себя за корпоративных рекрутеров.
TEMP.Hex (Mustang Panda) Китай Правительство и НПО (Пакистан/Европа) Сбор структурных данных о сепаратистских организациях и конкретных лицах.
APT31 (Zirconium) Китай Промышленный и политический секторы США Использование «экспертных образов по кибербезопасности» для автоматизации анализа уязвимостей и планов тестирования.

Иран: совершенствование искусства обмана

APT42, группа, исторически связанная с иранским Корпусом стражей исламской революции (КСИР), глубоко интегрировала Gemini в свои операции по социальной инженерии. Известная тем, что ее целями становятся исследователи, журналисты и активисты, APT42 использует модель для перевода контента и улучшения грамматики фишинговых писем, делая их неотличимыми от легитимной корреспонденции.

Предоставляя Gemini биографии целей, группа генерирует индивидуальные предлоги — сценарии, предназначенные для установления немедленного доверия. Эта возможность позволяет им преодолевать языковые барьеры и культурные нюансы, которые ранее служили тревожными сигналами для потенциальных жертв.

Северная Корея: разведка в промышленных масштабах

Для северокорейской группы UNC2970 ИИ служит множителем силы для шпионажа. Группа атакует оборонный и аэрокосмический секторы, часто выдавая себя за легитимных рекрутеров для доставки вредоносного ПО.

Анализ Google показывает, что UNC2970 использует Gemini для сбора и синтеза огромных объемов данных из профессиональных социальных сетей (таких как LinkedIn). ИИ помогает им составлять карты организационных иерархий, выявлять ключевой технический персонал и составлять гиперреалистичные описания вакансий, используемые в кампаниях целевого фишинга.

Китай: автоматизированное исследование уязвимостей

Китайские государственные субъекты, включая TEMP.Hex и APT31, продемонстрировали одни из самых технических применений технологии. Было замечено, что эти группы используют Gemini для устранения ошибок в коде собственного вредоносного ПО и исследования общеизвестных уязвимостей.

В одном тревожном случае китайская группа использовала Gemini для имитации «экспертных образов по кибербезопасности». Этим агентам ИИ было поручено автоматизировать анализ уязвимостей программного обеспечения и генерировать планы тестирования для обхода средств контроля безопасности на объектах в США. Это указывает на переход к автоматизированным наступательным операциям, где агенты ИИ помогают на этапе планирования вторжения.

Появление ИИ-ориентированного вредоносного ПО: «Honestcue»

Возможно, самым техническим откровением в отчете стало обнаружение Honestcue, штамма вредоносного ПО, идентифицированного в сентябре 2025 года. В отличие от традиционного вредоносного ПО, которое несет в себе вредоносную полезную нагрузку, Honestcue функционирует как пустая оболочка, полагающаяся на облако.

Honestcue использует Google Gemini API для динамической генерации и выполнения вредоносного кода C# в памяти. Перенося вредоносную логику на ответ ИИ, злоумышленники достигают двух целей:

  1. Обфускация: Традиционные антивирусные инструменты, полагающиеся на статический анализ файлов, с трудом обнаруживают угрозу, поскольку вредоносный код не существует до тех пор, пока ИИ его не сгенерирует.
  2. Полиморфизм: Код, генерируемый ИИ, может незначительно меняться при каждом выполнении, что затрудняет обнаружение на основе сигнатур.

Этот подход «использования штатных средств» (living off the land), где «средством» теперь является облачный сервис ИИ, представляет собой значительную эволюцию в разработке вредоносного ПО.

Экосистема «джейлбрейка» и кража моделей

Помимо государственного шпионажа, отчет проливает свет на растущую теневую экономику «джейлбрейка как услуги» (Jailbreak-as-a-Service). Киберпреступники продвигают инструменты, которые претендуют на роль пользовательских, нецензурируемых моделей ИИ, но часто являются лишь оболочками вокруг коммерческих API, таких как Gemini или OpenAI.

Один из таких инструментов, Xanthorox, позиционирует себя как частный автономный ИИ для создания программ-вымогателей и вредоносного ПО. Расследование Google, однако, показало, что Xanthorox просто направляет запросы через взломанные экземпляры легитимных моделей, удаляя фильтры безопасности для доставки вредоносного контента.

Кроме того, финансово мотивированные группы все чаще проводят атаки по извлечению моделей (Model Extraction Attacks, MEA). Эти «дистилляционные атаки» включают систематическое зондирование зрелой модели, такой как Gemini, для извлечения шаблонов ее обучения, фактически крадя интеллектуальную собственность для обучения более дешевых и компактных моделей-клонов. Хотя это не ставит под угрозу данные пользователей, это создает серьезную угрозу конкурентному преимуществу разработчиков ИИ.

Оборона Google и путь вперед

В ответ на эти результаты Google предприняла решительные действия, отключив все выявленные учетные записи и активы, связанные с группами APT, упомянутыми в отчете. Компания подчеркнула, что хотя противники используют Gemini для генерации контента и помощи в написании кода, нет никаких доказательств того, что безопасность самой модели Gemini была скомпрометирована.

«Для государственных субъектов угроз LLM стали важными инструментами для технических исследований, таргетинга и быстрого создания нюансированных фишинговых приманок», — говорится в отчете.

Creati.ai отмечает, что это событие сигнализирует о необратимом сдвиге в ландшафте угроз. По мере того как модели ИИ становятся более мультимодальными и агентными, окно между обнаружением уязвимости и ее эксплуатацией будет продолжать сокращаться. Интеграция ИИ в наступательные кибероперации больше не является теоретическим риском — это новый стандарт противостояния.

Для корпоративных групп безопасности это требует перехода к системам обнаружения на основе поведения, способным выявлять аномалии, созданные ИИ, вместо того чтобы полагаться исключительно на статические индикаторы компрометации. По мере ускорения гонки вооружений между атакующими с поддержкой ИИ и защитниками на базе ИИ, целостность самой цепочки поставок ИИ, вероятно, станет следующим важным полем битвы.

Рекомендуемые