
В ходе важного разоблачения, которое подчеркивает растущие ставки в гонке вооружений в области искусственного интеллекта (AI), компания Google раскрыла масштабную скоординированную попытку клонирования своей флагманской модели ИИ, Gemini. Согласно отчету, опубликованному вчера группой анализа угроз Google (Google Threat Intelligence Group, GTIG), коммерчески мотивированные злоумышленники атаковали систему, отправив более 100 000 промптов в ходе сложной «атаки методом дистилляции» (distillation attack), предназначенной для извлечения проприетарных возможностей рассуждения модели.
Этот инцидент знаменует собой поворотный момент в безопасности ИИ, смещая акцент с традиционных утечек данных на кражу «когнитивной» интеллектуальной собственности. Пока Creati.ai анализирует это событие, становится ясно, что битва за доминирование в сфере ИИ теперь ведется не только в исследовательских лабораториях, но и через те самые API, которые обеспечивают работу индустрии.
Атака на Gemini не была обычным взломом. Не было ни проникновения на серверы Google, ни украденных паролей, ни скомпрометированных ключей шифрования. Вместо этого злоумышленники использовали методику, известную как извлечение модели (model extraction) или дистилляция знаний (knowledge distillation).
В этом сценарии атакующие рассматривали Gemini как модель-«учителя». Систематически подавая ей тщательно проработанные запросы, они стремились составить карту ее процессов принятия решений и шаблонов рассуждений. Ответы, сгенерированные Gemini, затем использовались для обучения меньшей модели-«ученика». Конечная цель — создать производный ИИ, который имитирует производительность дорогой проприетарной модели при лишь малой части затрат на разработку.
В отчете Google подчеркивается, что злоумышленники нацелились именно на алгоритмы рассуждения (reasoning algorithms) Gemini — внутренние логические цепочки, которые модель использует для получения сложных ответов. Анализируя то, как Gemini «думает» по тысячам переменных, атакующие стремились провести обратный инжиниринг того самого «секретного ингредиента», который обеспечивает модели конкурентное преимущество.
Чтобы понять нюансы этой угрозы, важно отличить ее от стандартных кибератак.
| Характеристика | Традиционная кибератака | Извлечение модели (дистилляция) |
|---|---|---|
| Объект | Пользовательские данные, пароли, финансовые записи | Веса модели, логика рассуждения, интеллектуальная собственность (IP) |
| Метод | Эксплуатация уязвимостей ПО, фишинг | Легитимные API-запросы в больших масштабах |
| Цель | Выкуп, кража данных, дестабилизация | Создание модели-клона ИИ |
| Обнаружение | Системы обнаружения вторжений, брандмауэры | Поведенческая аналитика, обнаружение аномалий |
| Юридический статус | Явно незаконно (нарушения CFAA) | «Серая» зона (нарушение Условий обслуживания / кража IP) |
Возможно, самым тревожным аспектом отчета GTIG является профиль атакующих. В отличие от спонсируемых государством групп, часто ассоциируемых с кибершпионажем — таких как группы из Северной Кореи или России, которые также были упомянуты в отчете за использование Gemini для генерации вредоносного ПО — кампания по извлечению модели, судя по всему, была коммерчески мотивированной.
Расследование Google указывает на структуры частного сектора и исследователей, ищущих быстрый путь к значимости в сфере ИИ. Разработка большой языковой модели (Large Language Model, LLM) передового уровня требует миллиардов долларов, вложенных в вычислительные мощности и курирование данных. Для небольших конкурентов или неэтичных стартапов дистилляция предлагает «короткий путь»: кражу интеллекта превосходящей модели для запуска собственных продуктов.
Огромный объем атаки — более 100 000 запросов — указывает на методичный, автоматизированный подход. Один конкретный вектор атаки, выявленный Google, заключался в том, что Gemini давали указание: «язык, используемый в содержании рассуждений, должен строго соответствовать основному языку ввода пользователя». Этот промпт был разработан, чтобы заставить модель раскрыть свою внутреннюю цепочку рассуждений (chain-of-thought).
Защитные системы Google смогли идентифицировать и нейтрализовать атаку в режиме реального времени. Компания использует передовую поведенческую аналитику для мониторинга использования API на предмет «аномальных паттернов запросов».
Когда система зафиксировала массовый всплеск скоординированных запросов, она пометила эту активность как попытку дистилляции. Впоследствии Google заблокировала связанные учетные записи и внедрила более строгие меры защиты, чтобы скрыть следы внутреннего рассуждения модели в будущих ответах.
Джон Халтквист (John Hultquist), главный аналитик Google Threat Intelligence Group, описал этот инцидент как «канарейку в угольной шахте» для всей отрасли. В то время как у Google есть ресурсы для обнаружения и отражения таких атак, более мелкие разработчики ИИ с менее надежной инфраструктурой мониторинга могут уже быть жертвами подобной кражи интеллектуальной собственности (intellectual property theft), даже не осознавая этого.
Этот инцидент ставит критические вопросы о жизнеспособности бизнес-модели «ИИ как услуга» (AI-as-a-Service). Компании, такие как Google, OpenAI и Anthropic, монетизируют свои технологии, предоставляя публичный доступ через API. Однако именно этот доступ делает их уязвимыми для извлечения.
Если конкурент может клонировать возможности GPT-4 или Gemini Ultra, просто задав достаточное количество вопросов, «ров» с водой, защищающий этих технологических гигантов, становится значительно мельче.
Google явно классифицировала эту деятельность как кражу интеллектуальной собственности (IP theft). Однако правовые рамки, регулирующие извлечение моделей, все еще формируются. Хотя такая деятельность нарушает Условия обслуживания Google, обеспечение соблюдения этих условий в отношении анонимных децентрализованных субъектов, действующих в разных юрисдикциях, представляет собой серьезную проблему.
Отрасль, вероятно, увидит переход к более агрессивным защитным мерам, включая:
Попытка клонирования Gemini — это не единичный случай, а сигнал новой реальности в секторе ИИ. По мере того как модели становятся более мощными и ценными, они неизбежно становятся главными целями для корпоративного шпионажа.
Для читателей Creati.ai и разработчиков ИИ урок ясен: безопасность больше не сводится только к защите пользовательских данных; речь идет о защите самого «разума» ИИ. По мере продвижения в 2026 год мы ожидаем, что «антидистилляция» (Anti-Distillation) станет стандартной функцией в описании обновлений каждой крупной базовой модели.