
En una revelación histórica que subraya la naturaleza de doble filo de la inteligencia artificial, el Grupo de Inteligencia de Amenazas de Google (Google’s Threat Intelligence Group, GTIG) ha publicado un informe exhaustivo que detalla cómo actores patrocinados por estados de China, Irán, Corea del Norte y Rusia están explotando sistemáticamente la IA Gemini. El informe, publicado esta semana, proporciona la evidencia más detallada hasta la fecha de que la IA generativa (Generative AI) ya no es solo un riesgo teórico en la ciberseguridad, sino una herramienta operativa activa en cada etapa del ciclo de vida del ataque.
Desde el perfeccionamiento de los señuelos de phishing hasta la generación de código de malware polimórfico, los adversarios están aprovechando las capacidades de los modelos de lenguaje de gran tamaño (Large Language Models, LLMs) para acelerar sus campañas. Quizás lo más alarmante es que Google ha destacado una nueva y sofisticada clase de amenaza: los "ataques de destilación" (distillation attacks), donde los cibercriminales intentan robar la propiedad intelectual de los propios modelos de IA para construir versiones privadas y sin censura de la tecnología.
A medida que el panorama de la IA se fractura entre la innovación abierta y el control securitizado, estas revelaciones llegan en un momento crucial. Mientras Google lucha contra el uso no autorizado por parte de estados rebeldes, el Departamento de Defensa de los EE. UU. se encuentra en un enfrentamiento público con el líder en IA Anthropic sobre las restricciones de seguridad, dibujando un panorama complejo del futuro de la IA militarizada.
uno de los hallazgos técnicamente más significativos del informe de Google es la prevalencia de la extracción de modelos o ataques de "destilación". A diferencia del robo de datos tradicional, que se dirige a la información o credenciales de los usuarios, los ataques de destilación tienen como objetivo la arquitectura cognitiva del modelo de IA.
Google informó haber interrumpido una campaña masiva que involucraba más de 100,000 prompts generados, diseñados para sondear la lógica, el razonamiento y las capacidades lingüísticas de Gemini. El objetivo de los atacantes no era interrumpir el servicio, sino replicarlo. Al consultar sistemáticamente al modelo y registrar sus respuestas, los adversarios pueden crear un conjunto de datos para entrenar modelos "estudiantes" más pequeños que imiten el rendimiento de Gemini.
Por qué importa la destilación:
El informe detalla un "aluvión incesante" de actividad, atribuyendo tácticas específicas mejoradas por IA a grupos conocidos de Amenaza persistente avanzada (Advanced Persistent Threat, APT). La diversidad de estos ataques ilustra que la IA está siendo adoptada no solo por unidades de hacking de élite, sino en todo el espectro del ciberespionaje.
La siguiente tabla resume los actores clave identificados por Google y su uso indebido específico de Gemini:
| Nombre del grupo | Origen | Objetivo principal | Táctica de IA utilizada |
|---|---|---|---|
| UNC2970 | Corea del Norte | Espionaje del sector de defensa | Síntesis de OSINT, perfilado de objetivos para "Operation Dream Job" |
| APT42 | Irán | Phishing y robo de credenciales | Traducción, desarrollo de personajes, redacción de correos persuasivos |
| UNC4841/UNC3886 | China | Explotación técnica | Investigación de vulnerabilidades, generación de código, optimización de scripts |
| APT44 (Sandworm) | Rusia | Sabotaje de infraestructuras críticas | Superación de limitaciones técnicas en operaciones de guerra |
| Grupos con motivación financiera | Global | Lucro/Ransomware | Desarrollo del malware "Honestcue", kits de phishing impulsados por IA |
El grupo norcoreano UNC2970, vinculado al infame Lazarus Group, ha integrado a Gemini en su prolongada campaña "Operation Dream Job". Esta campaña se dirige a empleados de los sectores de defensa y aeroespacial con ofertas de trabajo falsas para infiltrarse en redes seguras. El análisis de Google revela que UNC2970 utiliza Gemini para extraer y sintetizar inteligencia de fuentes abiertas (Open Source Intelligence, OSINT) de LinkedIn y otras plataformas. Al introducir perfiles en la IA, el grupo genera materiales de reclutamiento altamente personalizados y creíbles que eluden el escepticismo de los objetivos conscientes de la seguridad. La IA les permite mapear roles técnicos y estructuras salariales con una velocidad sin precedentes.
Para los actores iraníes como APT42, la barrera de entrada para una ingeniería social efectiva ha sido históricamente el idioma y los matices culturales. Gemini ha reducido efectivamente esta barrera. El grupo utiliza el modelo para redactar correos electrónicos de phishing que son gramaticalmente perfectos y culturalmente adaptados a sus objetivos en Israel y los EE. UU. Además, APT42 utiliza la IA para actividades posteriores al compromiso, como el análisis de datos robados para identificar rápidamente direcciones de correo electrónico y credenciales de alto valor, acelerando el tiempo de "ruptura" (breakout) tras una brecha inicial.
Los grupos patrocinados por el estado chino han mostrado una preferencia por la integración técnica. En lugar de usar la IA solo para texto, están empleando a Gemini para el análisis de código. El informe destaca cómo grupos como UNC4841 utilizan el modelo para sugerir optimizaciones para scripts o identificar errores en exploits potenciales. Esto sugiere un cambio hacia el "hacking asistido por IA", donde los operadores humanos utilizan LLMs como multiplicadores de fuerza para identificar vulnerabilidades de día cero (zero-day vulnerabilities) o escribir código polimórfico que evade las firmas de los antivirus.
Más allá del espionaje estatal, el informe arroja luz sobre la adopción de la IA por parte del sector del cibercrimen comercial. Un descubrimiento destacado es "Honestcue", un framework de malware diseñado explícitamente para aprovechar la API de Gemini.
Honestcue funciona como un descargador y lanzador que envía prompts en lenguaje natural a la API de Gemini y recibe código fuente malicioso en C# como respuesta. Debido a que el código se genera dinámicamente y se ejecuta en la memoria, crea una huella de ataque "sin archivos" (fileless) que es increíblemente difícil de marcar para los sistemas tradicionales de detección de endpoints. Esto representa una evolución significativa: el malware ya no es un archivo estático, sino un conjunto dinámico de instrucciones generadas sobre la marcha por una IA basada en la nube.
De manera similar, Google identificó campañas de "ClickFix", ataques de ingeniería social que utilizan IA para generar instrucciones de soporte técnico convincentes. Estas instrucciones engañan a los usuarios para que copien y peguen scripts maliciosos en sus propias terminales, explotando la confianza de la víctima en las guías de "reparación".
Mientras Google lucha por mantener a los criminales fuera de su ecosistema de IA, se está gestando una batalla diferente en Washington sobre a quién se le permite entrar. Según confirmaron informes de Axios y The Wall Street Journal esta semana, el Departamento de Defensa (DoD) de los EE. UU. está chocando con el proveedor de IA Anthropic debido a las estrictas políticas de uso de este último.
El Secretario de Defensa Pete Hegseth ha amenazado con etiquetar a Anthropic como un "riesgo para la cadena de suministro" y cortar los lazos con la empresa. El núcleo de la disputa reside en el enfoque de "IA constitucional" (Constitutional AI) de Anthropic, que incluye negativas a asistir en el desarrollo de armas u operaciones letales. Si bien estas salvaguardas están diseñadas para prevenir exactamente el tipo de uso indebido que Google está viendo por parte de Irán y Corea del Norte, el Pentágono las ve como un lastre.
"Nuestros combatientes necesitan tener acceso a los modelos que proporcionan superioridad en la toma de decisiones en el campo de batalla", afirmó un funcionario del DoD, criticando los modelos que "no te permiten librar guerras". Esta tensión se vio exacerbada por la revelación de que el modelo Claude de Anthropic fue presuntamente utilizado a través de Palantir durante la redada de enero que capturó al presidente venezolano Nicolás Maduro. El incidente resalta el "Dilema de doble uso" (Dual-Use Dilemma): las mismas salvaguardas destinadas a evitar que la IA se convierta en una herramienta de terror ahora se presentan como obstáculos para la seguridad nacional.
La convergencia de estas dos historias —el informe de Google sobre el abuso criminal y la disputa del Pentágono con Anthropic— dibuja un panorama sombrío del ecosistema de seguridad de la IA en 2026.
Para los profesionales de la ciberseguridad, el informe de Google confirma que la "barrera de entrada" para ataques sofisticados se ha derrumbado. Los script kiddies ahora pueden generar malware complejo y los hablantes no nativos pueden diseñar señuelos de phishing perfectos. Los ataques de "destilación" sirven como advertencia para todos los adoptantes de IA empresarial: su modelo es su propiedad intelectual (IP) y está bajo asedio activo.
Para los responsables políticos, la contradicción es flagrante. Simultáneamente se le pide a la industria que bloquee los modelos para prevenir el abuso patrocinado por estados (el desafío de Google) y que abra los modelos para permitir operaciones militares autorizadas por el estado (el desafío de Anthropic). Mientras actores de amenazas como UNC2970 y APT42 continúen innovando, la capacidad de Occidente para equilibrar la innovación, la seguridad y las capacidades de defensa definirá la próxima era de la ciberguerra.
La respuesta de Google ha sido fortalecer su "ecosistema robusto" de defensas, interrumpiendo las cuentas e infraestructuras asociadas con estos actores. Sin embargo, como demuestra el malware "Honestcue", mientras las API estén abiertas para los negocios, seguirán abiertas para la explotación.