
12. Februar 2026 – In einer bedeutsamen Enthüllung, die die Ambivalenz künstlicher Intelligenz unterstreicht, haben Googles Threat Intelligence Group (GTIG) und Google DeepMind einen umfassenden Bericht veröffentlicht. Dieser legt detailliert dar, wie nationalstaatliche Widersacher Google Gemini systematisch in ihre Cyberangriffs-Lebenszyklen integrieren.
Der Bericht, der heute im Vorfeld der Münchner Sicherheitskonferenz veröffentlicht wurde, hebt einen besorgniserregenden Trend hervor: Advanced Persistent Threat (APT)-Gruppen aus China, dem Iran und Nordkorea sind über das reine Experimentieren hinausgegangen. Diese Akteure setzen Generative KI (Generative AI) nun aktiv ein, um die Aufklärung zu beschleunigen, Social-Engineering-Kampagnen zu verfeinern und sogar dynamisch bösartigen Code während laufender Operationen zu generieren.
Im vergangenen Jahr hat die Cybersicherheits-Community vor dem Potenzial von Großen Sprachmodellen (Large Language Models, LLMs) gewarnt, die Einstiegshürden für Cyberkriminelle zu senken. Googles neueste Erkenntnisse bestätigen jedoch, dass hochentwickelte, staatlich gesponserte Gruppen diese Werkzeuge nutzen, um ihre Effizienz und ihre Fähigkeiten zur Verschleierung zu verbessern.
Dem Bericht zufolge ist die Nutzung von Gemini durch diese Gruppen nicht einheitlich. Verschiedene Akteure haben die Technologie angepasst, um ihre spezifischen strategischen Ziele zu erreichen – von der tiefgehenden Informationsbeschaffung aus offenen Quellen (Open-Source Intelligence, OSINT) bis hin zur Echtzeit-Übersetzung von Phishing-Ködern.
John Hultquist, Chefanalyst bei GTIG, merkte an, dass nordkoreanische und iranische Gruppen zwar frühzeitig KI für Social Engineering einsetzten, chinesische Akteure nun jedoch komplexere, agentenbasierte Anwendungsfälle entwickeln, um die Schwachstellenforschung und die Fehlerbehebung im Code zu rationalisieren.
Der Bericht bietet einen detaillierten Einblick, wie spezifische APT-Gruppen Gemini nutzen. Die folgende Tabelle fasst die wichtigsten Akteure und ihre beobachteten Methoden zusammen:
Zusammenfassung der nationalstaatlichen KI-Ausnutzung
| Bedrohungsgruppe | Herkunft | Hauptziele | Wichtigster Missbrauch von Gemini |
|---|---|---|---|
| APT42 (Charming Kitten) | Iran | Bildung, Regierung, NGOs | Übersetzen von Phishing-Ködern, Verfeinern von Social-Engineering-Personas und Entwerfen überzeugender E-Mails. |
| UNC2970 | Nordkorea | Verteidigung & Luftfahrt | Synthetisieren von OSINT zur Profilierung hochwertiger Ziele; Identitätsdiebstahl von Unternehmensrekrutierern. |
| TEMP.Hex (Mustang Panda) | China | Regierung & NGOs (Pakistan/Europa) | Zusammenstellen von Strukturdaten über separatistische Organisationen und bestimmte Personen. |
| APT31 (Zirconium) | China | US-Industrie/Politik-Sektoren | Nutzung von „Experten-Cybersecurity-Personas“ zur Automatisierung von Schwachstellenanalysen und Testplänen. |
APT42, eine Gruppe, die historisch mit dem iranischen Korps der Islamischen Revolutionsgarde (IRGC) in Verbindung gebracht wird, hat Gemini stark in ihre Social-Engineering-Operationen integriert. Bekannt für das Visieren von Forschern, Journalisten und Aktivisten, nutzt APT42 das Modell, um Inhalte zu übersetzen und die Grammatik von Phishing-E-Mails zu polieren, sodass diese von legitimer Korrespondenz nicht mehr zu unterscheiden sind.
Indem sie Gemini mit Biografien von Zielpersonen füttern, generiert die Gruppe maßgeschneiderte Vorwände – Szenarien, die darauf ausgelegt sind, sofortiges Vertrauen aufzubauen. Diese Fähigkeit ermöglicht es ihnen, Sprachbarrieren und kulturelle Nuancen zu überbrücken, die zuvor als Warnsignale für potenzielle Opfer dienten.
Für die nordkoreanische Gruppe UNC2970 dient KI als Kraftmultiplikator für Spionage. Die Gruppe visiert den Verteidigungs- und Luftfahrtsektor an und gibt sich oft als legitime Personalvermittler aus, um Malware zu verbreiten.
Googles Analyse zeigt, dass UNC2970 Gemini nutzt, um riesige Datenmengen aus beruflichen Netzwerken (wie LinkedIn) zu extrahieren und zu synthetisieren. Die KI hilft ihnen dabei, Organisationshierarchien abzubilden, wichtiges technisches Personal zu identifizieren und hyperrealistische Stellenbeschreibungen zu entwerfen, die in Spear-Phishing-Kampagnen verwendet werden.
Chinesische, staatlich gesponserte Akteure, darunter TEMP.Hex und APT31, haben einige der technisch anspruchsvollsten Anwendungen der Technologie demonstriert. Diese Gruppen wurden dabei beobachtet, wie sie Gemini zur Fehlerbehebung in ihrem eigenen Malware-Code und zur Erforschung öffentlich bekannter Schwachstellen einsetzen.
In einem alarmierenden Fall nutzte eine chinesische Gruppe Gemini, um „Experten-Cybersecurity-Personas“ zu simulieren. Diese KI-Agenten wurden damit beauftragt, die Analyse von Software-Schwachstellen zu automatisieren und Testpläne zu erstellen, um Sicherheitskontrollen bei Zielen in den USA zu umgehen. Dies deutet auf eine Entwicklung hin zu automatisierten Offensivoperationen hin, bei denen KI-Agenten in der Planungsphase eines Eindringens assistieren.
Die vielleicht technischste Enthüllung im Bericht ist die Entdeckung von Honestcue, einem Malware-Stamm, der im September 2025 identifiziert wurde. Im Gegensatz zu traditioneller Malware, die ihre schädliche Nutzlast mit sich führt, fungiert Honestcue als leere Hülle, die auf die Cloud angewiesen ist.
Honestcue nutzt die Google Gemini API, um dynamisch bösartigen C#-Code im Arbeitsspeicher zu generieren und auszuführen. Durch das Auslagern der bösartigen Logik in eine KI-Antwort erreichen die Angreifer zwei Ziele:
Dieser „Living-off-the-Land“-Ansatz – wobei das „Land“ nun ein cloudbasierter KI-Dienst ist – stellt eine bedeutende Entwicklung in der Malware-Entwicklung dar.
Über die nationalstaatliche Spionage hinaus wirft der Bericht ein Licht auf die wachsende Untergrundwirtschaft von „Jailbreak-as-a-Service“. Cyberkriminelle vermarkten Werkzeuge, die behaupten, maßgeschneiderte, unzensierte KI-Modelle zu sein, oft aber lediglich Wrapper um kommerzielle APIs wie Gemini oder OpenAI darstellen.
Ein solches Werkzeug, Xanthorox, bewirbt sich selbst als private, selbstgehostete KI zur Generierung von Ransomware und Malware. Googles Untersuchung ergab jedoch, dass Xanthorox Prompts einfach durch „jailbroken“ Instanzen legitimer Modelle leitet und Sicherheitsfilter entfernt, um bösartige Inhalte zu liefern.
Darüber hinaus führen finanziell motivierte Gruppen zunehmend Modell-Extraktions-Angriffe (Model Extraction Attacks, MEAs) durch. Diese „Distillations-Angriffe“ beinhalten das systematische Abfragen eines ausgereiften Modells wie Gemini, um dessen Trainingsmuster zu extrahieren und so effektiv das geistige Eigentum zu stehlen, um günstigere, kleinere Klon-Modelle zu trainieren. Dies gefährdet zwar keine Nutzerdaten, stellt jedoch eine ernsthafte Bedrohung für den Wettbewerbsvorteil von KI-Entwicklern dar.
Als Reaktion auf diese Erkenntnisse hat Google aggressive Maßnahmen ergriffen und alle identifizierten Konten und Assets deaktiviert, die mit den im Bericht genannten APT-Gruppen in Verbindung stehen. Das Unternehmen betonte, dass Gegner Gemini zwar zur Inhaltserstellung und Programmierunterstützung nutzen, es jedoch keine Beweise dafür gibt, dass die Sicherheit des Gemini-Modells selbst kompromittiert wurde.
„Für staatlich unterstützte Bedrohungsakteure sind LLMs zu unverzichtbaren Werkzeugen für die technische Forschung, das Targeting und die schnelle Erstellung nuancierter Phishing-Köder geworden“, heißt es im Bericht.
Creati.ai stellt fest, dass diese Entwicklung einen dauerhaften Wandel in der Bedrohungslandschaft signalisiert. Da KI-Modelle multimodaler und agentenbasierter werden, wird sich das Zeitfenster zwischen der Entdeckung und der Ausnutzung einer Schwachstelle weiter verkürzen. Die Integration von KI in offensive Cyberoperationen ist kein theoretisches Risiko mehr – sie ist der neue Standard der Auseinandersetzung.
Für Sicherheits-Teams in Unternehmen macht dies einen Schwenk hin zu verhaltensbasierten Erkennungssystemen erforderlich, die in der Lage sind, KI-generierte Anomalien zu identifizieren, anstatt sich ausschließlich auf statische Kompromittierungsindikatoren (Indicators of Compromise) zu verlassen. Während sich das Wettrüsten zwischen KI-gestützten Angreifern und KI-gesteuerten Verteidigern beschleunigt, wird die Integrität der KI-Lieferkette selbst wahrscheinlich zum nächsten großen Schlachtfeld werden.