
12 de febrero de 2026 – En una revelación significativa que subraya la naturaleza de doble filo de la inteligencia artificial (IA), el Grupo de Inteligencia de Amenazas de Google (GTIG) y Google DeepMind han publicado un informe exhaustivo que detalla cómo los adversarios de los estados-nación están integrando sistemáticamente Google Gemini en sus ciclos de vida de ciberataques.
El informe, publicado hoy antes de la Conferencia de Seguridad de Múnich, destaca una tendencia preocupante: los grupos de Amenaza Persistente Avanzada (Advanced Persistent Threat, APT) de China, Irán y Corea del Norte han ido más allá de la mera experimentación. Estos actores están empleando activamente la IA generativa (Generative AI) para acelerar el reconocimiento, refinar las campañas de ingeniería social e incluso generar dinámicamente código malicioso durante las operaciones activas.
Durante el último año, la comunidad de ciberseguridad ha advertido sobre el potencial de los modelos de lenguaje extensos (Large Language Models, LLMs) para reducir la barrera de entrada para los ciberdelincuentes. Sin embargo, los últimos hallazgos de Google confirman que grupos sofisticados patrocinados por el estado están aprovechando estas herramientas para mejorar la eficiencia y las capacidades de evasión.
Según el informe, el uso de Gemini por parte de estos grupos no es monolítico. Diferentes actores han adoptado la tecnología para adaptarse a sus objetivos estratégicos específicos, que van desde la recopilación profunda de inteligencia de fuentes abiertas (Open-Source Intelligence, OSINT) hasta la traducción en tiempo real de señuelos de phishing.
John Hultquist, analista principal de GTIG, señaló que mientras que los grupos norcoreanos e iraníes fueron de los primeros en adoptar la IA para la ingeniería social, los actores chinos ahora están desarrollando casos de uso de agentes más complejos para agilizar la investigación de vulnerabilidades y la resolución de problemas de código.
El informe proporciona una mirada detallada a cómo grupos APT específicos están utilizando Gemini. La siguiente tabla resume los actores clave y sus metodologías observadas:
Resumen de la explotación de IA por estados-nación
| Grupo de Amenaza | Origen | Objetivos Principales | Mal uso clave de Gemini |
|---|---|---|---|
| APT42 (Charming Kitten) | Irán | Educación, Gob., ONG | Traducir señuelos de phishing, refinar personajes de ingeniería social y redactar correos electrónicos persuasivos. |
| UNC2970 | Corea del Norte | Defensa y Aeroespacial | Sintetizar OSINT para perfilar objetivos de alto valor; suplantar a reclutadores corporativos. |
| TEMP.Hex (Mustang Panda) | China | Gob. y ONG (Pakistán/Europa) | Compilar datos estructurales sobre organizaciones separatistas e individuos específicos. |
| APT31 (Zirconium) | China | Sectores industriales/políticos de EE. UU. | Usar "perfiles de ciberseguridad expertos" para automatizar el análisis de vulnerabilidades y los planes de pruebas. |
APT42, un grupo históricamente asociado con el Cuerpo de la Guardia Revolucionaria Islámica de Irán (IRGC), ha integrado fuertemente a Gemini en sus operaciones de ingeniería social. Conocido por apuntar a investigadores, periodistas y activistas, APT42 utiliza el modelo para traducir contenido y pulir la gramática de los correos electrónicos de phishing, haciéndolos indistinguibles de la correspondencia legítima.
Al alimentar a Gemini con biografías de los objetivos, el grupo genera pretextos personalizados: escenarios diseñados para generar confianza inmediata. Esta capacidad les permite cerrar las brechas lingüísticas y los matices culturales que anteriormente servían como señales de alerta para las víctimas potenciales.
Para el grupo norcoreano UNC2970, la IA sirve como un multiplicador de fuerzas para el espionaje. El grupo apunta a los sectores de defensa y aeroespacial, a menudo haciéndose pasar por reclutadores legítimos para entregar malware.
El análisis de Google revela que UNC2970 utiliza Gemini para extraer y sintetizar grandes cantidades de datos de sitios de redes profesionales (como LinkedIn). La IA los ayuda a mapear jerarquías organizacionales, identificar personal técnico clave y redactar descripciones de trabajo hiperrealistas utilizadas en campañas de spear-phishing.
Los actores patrocinados por el estado chino, incluidos TEMP.Hex y APT31, han demostrado algunas de las aplicaciones más técnicas de la tecnología. Se ha observado que estos grupos utilizan Gemini para solucionar problemas en su propio código de malware e investigar vulnerabilidades conocidas públicamente.
En una instancia alarmante, un grupo chino utilizó Gemini para simular "perfiles de ciberseguridad expertos". Estos agentes de IA tenían la tarea de automatizar el análisis de vulnerabilidades de software y generar planes de pruebas para eludir los controles de seguridad en objetivos con sede en EE. UU. Esto sugiere un movimiento hacia operaciones ofensivas automatizadas, donde los agentes de IA ayudan en la fase de planificación de una intrusión.
Quizás la revelación más técnica del informe es el descubrimiento de Honestcue, una cepa de malware identificada en septiembre de 2025. A diferencia del malware tradicional que lleva su carga útil maliciosa, Honestcue funciona como un cascarón vacío que depende de la nube.
Honestcue aprovecha la API de Google Gemini para generar y ejecutar dinámicamente código C# malicioso en la memoria. Al descargar la lógica maliciosa a una respuesta de IA, los atacantes logran dos objetivos:
Este enfoque de "vivir de la tierra" (living off the land), donde la "tierra" es ahora un servicio de IA basado en la nube, representa una evolución significativa en el desarrollo de malware.
Más allá del espionaje de los estados-nación, el informe arroja luz sobre la creciente economía clandestina del "Jailbreak-as-a-Service". Los ciberdelincuentes están comercializando herramientas que pretenden ser modelos de IA personalizados y sin censura, pero que a menudo son simplemente envoltorios (wrappers) de APIs comerciales como Gemini u OpenAI.
Una de estas herramientas, Xanthorox, se publicita como una IA privada y autohospedada para generar ransomware y malware. La investigación de Google, sin embargo, reveló que Xanthorox simplemente enruta las instrucciones a través de instancias con jailbreak de modelos legítimos, eliminando los filtros de seguridad para entregar contenido malicioso.
Además, los grupos motivados financieramente están llevando a cabo cada vez más Ataques de extracción de modelos (Model Extraction Attacks, MEAs). Estos "ataques de destilación" implican sondear sistemáticamente un modelo maduro como Gemini para extraer sus patrones de entrenamiento, robando efectivamente la propiedad intelectual para entrenar modelos clonados más baratos y pequeños. Si bien esto no compromete los datos del usuario, representa una grave amenaza para la ventaja competitiva de los desarrolladores de IA.
En respuesta a estos hallazgos, Google ha tomado medidas agresivas, desactivando todas las cuentas y activos identificados asociados con los grupos APT mencionados en el informe. La compañía enfatizó que si bien los adversarios están utilizando Gemini para la generación de contenido y la asistencia de codificación, no hay evidencia de que la seguridad del modelo Gemini en sí haya sido comprometida.
"Para los actores de amenazas respaldados por gobiernos, los LLMs se han convertido en herramientas esenciales para la investigación técnica, la focalización y la generación rápida de señuelos de phishing matizados", afirma el informe.
Creati.ai señala que este desarrollo indica un cambio permanente en el panorama de las amenazas. A medida que los modelos de IA se vuelven más multimodales y con mayor capacidad de agencia, la ventana entre el descubrimiento de una vulnerabilidad y su explotación seguirá reduciéndose. La integración de la IA en las operaciones ciberofensivas ya no es un riesgo teórico: es el nuevo estándar de enfrentamiento.
Para los equipos de seguridad empresarial, esto requiere un giro hacia sistemas de detección basados en el comportamiento capaces de identificar anomalías generadas por IA, en lugar de depender únicamente de indicadores estáticos de compromiso. A medida que se acelera la carrera armamentista entre los atacantes habilitados por IA y los defensores impulsados por IA, la integridad de la propia cadena de suministro de IA probablemente se convertirá en el próximo gran campo de batalla.