AI News

Nationalstaatliche Hacker instrumentalisieren Google Gemini: Eine neue Ära KI-gesteuerter Cyberbedrohungen

12. Februar 2026 – In einer bedeutsamen Enthüllung, die die Ambivalenz künstlicher Intelligenz unterstreicht, haben Googles Threat Intelligence Group (GTIG) und Google DeepMind einen umfassenden Bericht veröffentlicht. Dieser legt detailliert dar, wie nationalstaatliche Widersacher Google Gemini systematisch in ihre Cyberangriffs-Lebenszyklen integrieren.

Der Bericht, der heute im Vorfeld der Münchner Sicherheitskonferenz veröffentlicht wurde, hebt einen besorgniserregenden Trend hervor: Advanced Persistent Threat (APT)-Gruppen aus China, dem Iran und Nordkorea sind über das reine Experimentieren hinausgegangen. Diese Akteure setzen Generative KI (Generative AI) nun aktiv ein, um die Aufklärung zu beschleunigen, Social-Engineering-Kampagnen zu verfeinern und sogar dynamisch bösartigen Code während laufender Operationen zu generieren.

Der operative Wandel: Vom Experimentieren zur Integration

Im vergangenen Jahr hat die Cybersicherheits-Community vor dem Potenzial von Großen Sprachmodellen (Large Language Models, LLMs) gewarnt, die Einstiegshürden für Cyberkriminelle zu senken. Googles neueste Erkenntnisse bestätigen jedoch, dass hochentwickelte, staatlich gesponserte Gruppen diese Werkzeuge nutzen, um ihre Effizienz und ihre Fähigkeiten zur Verschleierung zu verbessern.

Dem Bericht zufolge ist die Nutzung von Gemini durch diese Gruppen nicht einheitlich. Verschiedene Akteure haben die Technologie angepasst, um ihre spezifischen strategischen Ziele zu erreichen – von der tiefgehenden Informationsbeschaffung aus offenen Quellen (Open-Source Intelligence, OSINT) bis hin zur Echtzeit-Übersetzung von Phishing-Ködern.

John Hultquist, Chefanalyst bei GTIG, merkte an, dass nordkoreanische und iranische Gruppen zwar frühzeitig KI für Social Engineering einsetzten, chinesische Akteure nun jedoch komplexere, agentenbasierte Anwendungsfälle entwickeln, um die Schwachstellenforschung und die Fehlerbehebung im Code zu rationalisieren.

Bedrohungsakteur-Profil: Wie Nationen KI ausnutzen

Der Bericht bietet einen detaillierten Einblick, wie spezifische APT-Gruppen Gemini nutzen. Die folgende Tabelle fasst die wichtigsten Akteure und ihre beobachteten Methoden zusammen:

Zusammenfassung der nationalstaatlichen KI-Ausnutzung

Bedrohungsgruppe Herkunft Hauptziele Wichtigster Missbrauch von Gemini
APT42 (Charming Kitten) Iran Bildung, Regierung, NGOs Übersetzen von Phishing-Ködern, Verfeinern von Social-Engineering-Personas und Entwerfen überzeugender E-Mails.
UNC2970 Nordkorea Verteidigung & Luftfahrt Synthetisieren von OSINT zur Profilierung hochwertiger Ziele; Identitätsdiebstahl von Unternehmensrekrutierern.
TEMP.Hex (Mustang Panda) China Regierung & NGOs (Pakistan/Europa) Zusammenstellen von Strukturdaten über separatistische Organisationen und bestimmte Personen.
APT31 (Zirconium) China US-Industrie/Politik-Sektoren Nutzung von „Experten-Cybersecurity-Personas“ zur Automatisierung von Schwachstellenanalysen und Testplänen.

Iran: Die Kunst der Täuschung verfeinern

APT42, eine Gruppe, die historisch mit dem iranischen Korps der Islamischen Revolutionsgarde (IRGC) in Verbindung gebracht wird, hat Gemini stark in ihre Social-Engineering-Operationen integriert. Bekannt für das Visieren von Forschern, Journalisten und Aktivisten, nutzt APT42 das Modell, um Inhalte zu übersetzen und die Grammatik von Phishing-E-Mails zu polieren, sodass diese von legitimer Korrespondenz nicht mehr zu unterscheiden sind.

Indem sie Gemini mit Biografien von Zielpersonen füttern, generiert die Gruppe maßgeschneiderte Vorwände – Szenarien, die darauf ausgelegt sind, sofortiges Vertrauen aufzubauen. Diese Fähigkeit ermöglicht es ihnen, Sprachbarrieren und kulturelle Nuancen zu überbrücken, die zuvor als Warnsignale für potenzielle Opfer dienten.

Nordkorea: Aufklärung im industriellen Maßstab

Für die nordkoreanische Gruppe UNC2970 dient KI als Kraftmultiplikator für Spionage. Die Gruppe visiert den Verteidigungs- und Luftfahrtsektor an und gibt sich oft als legitime Personalvermittler aus, um Malware zu verbreiten.

Googles Analyse zeigt, dass UNC2970 Gemini nutzt, um riesige Datenmengen aus beruflichen Netzwerken (wie LinkedIn) zu extrahieren und zu synthetisieren. Die KI hilft ihnen dabei, Organisationshierarchien abzubilden, wichtiges technisches Personal zu identifizieren und hyperrealistische Stellenbeschreibungen zu entwerfen, die in Spear-Phishing-Kampagnen verwendet werden.

China: Automatisierte Schwachstellenforschung

Chinesische, staatlich gesponserte Akteure, darunter TEMP.Hex und APT31, haben einige der technisch anspruchsvollsten Anwendungen der Technologie demonstriert. Diese Gruppen wurden dabei beobachtet, wie sie Gemini zur Fehlerbehebung in ihrem eigenen Malware-Code und zur Erforschung öffentlich bekannter Schwachstellen einsetzen.

In einem alarmierenden Fall nutzte eine chinesische Gruppe Gemini, um „Experten-Cybersecurity-Personas“ zu simulieren. Diese KI-Agenten wurden damit beauftragt, die Analyse von Software-Schwachstellen zu automatisieren und Testpläne zu erstellen, um Sicherheitskontrollen bei Zielen in den USA zu umgehen. Dies deutet auf eine Entwicklung hin zu automatisierten Offensivoperationen hin, bei denen KI-Agenten in der Planungsphase eines Eindringens assistieren.

Der Aufstieg KI-nativer Malware: „Honestcue“

Die vielleicht technischste Enthüllung im Bericht ist die Entdeckung von Honestcue, einem Malware-Stamm, der im September 2025 identifiziert wurde. Im Gegensatz zu traditioneller Malware, die ihre schädliche Nutzlast mit sich führt, fungiert Honestcue als leere Hülle, die auf die Cloud angewiesen ist.

Honestcue nutzt die Google Gemini API, um dynamisch bösartigen C#-Code im Arbeitsspeicher zu generieren und auszuführen. Durch das Auslagern der bösartigen Logik in eine KI-Antwort erreichen die Angreifer zwei Ziele:

  1. Verschleierung: Herkömmliche Antiviren-Tools, die auf statischer Dateianalyse basieren, haben Schwierigkeiten, die Bedrohung zu erkennen, da der bösartige Code erst existiert, wenn die KI ihn generiert.
  2. Polymorphismus: Der von der KI generierte Code kann bei jeder Ausführung leicht variieren, was die signaturbasierte Erkennung erschwert.

Dieser „Living-off-the-Land“-Ansatz – wobei das „Land“ nun ein cloudbasierter KI-Dienst ist – stellt eine bedeutende Entwicklung in der Malware-Entwicklung dar.

Das „Jailbreak“-Ökosystem und Modelldiebstahl

Über die nationalstaatliche Spionage hinaus wirft der Bericht ein Licht auf die wachsende Untergrundwirtschaft von „Jailbreak-as-a-Service“. Cyberkriminelle vermarkten Werkzeuge, die behaupten, maßgeschneiderte, unzensierte KI-Modelle zu sein, oft aber lediglich Wrapper um kommerzielle APIs wie Gemini oder OpenAI darstellen.

Ein solches Werkzeug, Xanthorox, bewirbt sich selbst als private, selbstgehostete KI zur Generierung von Ransomware und Malware. Googles Untersuchung ergab jedoch, dass Xanthorox Prompts einfach durch „jailbroken“ Instanzen legitimer Modelle leitet und Sicherheitsfilter entfernt, um bösartige Inhalte zu liefern.

Darüber hinaus führen finanziell motivierte Gruppen zunehmend Modell-Extraktions-Angriffe (Model Extraction Attacks, MEAs) durch. Diese „Distillations-Angriffe“ beinhalten das systematische Abfragen eines ausgereiften Modells wie Gemini, um dessen Trainingsmuster zu extrahieren und so effektiv das geistige Eigentum zu stehlen, um günstigere, kleinere Klon-Modelle zu trainieren. Dies gefährdet zwar keine Nutzerdaten, stellt jedoch eine ernsthafte Bedrohung für den Wettbewerbsvorteil von KI-Entwicklern dar.

Googles Verteidigung und der Weg nach vorne

Als Reaktion auf diese Erkenntnisse hat Google aggressive Maßnahmen ergriffen und alle identifizierten Konten und Assets deaktiviert, die mit den im Bericht genannten APT-Gruppen in Verbindung stehen. Das Unternehmen betonte, dass Gegner Gemini zwar zur Inhaltserstellung und Programmierunterstützung nutzen, es jedoch keine Beweise dafür gibt, dass die Sicherheit des Gemini-Modells selbst kompromittiert wurde.

„Für staatlich unterstützte Bedrohungsakteure sind LLMs zu unverzichtbaren Werkzeugen für die technische Forschung, das Targeting und die schnelle Erstellung nuancierter Phishing-Köder geworden“, heißt es im Bericht.

Creati.ai stellt fest, dass diese Entwicklung einen dauerhaften Wandel in der Bedrohungslandschaft signalisiert. Da KI-Modelle multimodaler und agentenbasierter werden, wird sich das Zeitfenster zwischen der Entdeckung und der Ausnutzung einer Schwachstelle weiter verkürzen. Die Integration von KI in offensive Cyberoperationen ist kein theoretisches Risiko mehr – sie ist der neue Standard der Auseinandersetzung.

Für Sicherheits-Teams in Unternehmen macht dies einen Schwenk hin zu verhaltensbasierten Erkennungssystemen erforderlich, die in der Lage sind, KI-generierte Anomalien zu identifizieren, anstatt sich ausschließlich auf statische Kompromittierungsindikatoren (Indicators of Compromise) zu verlassen. Während sich das Wettrüsten zwischen KI-gestützten Angreifern und KI-gesteuerten Verteidigern beschleunigt, wird die Integrität der KI-Lieferkette selbst wahrscheinlich zum nächsten großen Schlachtfeld werden.

Ausgewählt