
In einer bahnbrechenden Enthüllung, die einen entscheidenden Wendepunkt in der digitalen Kriegsführung markiert, hat Google offiziell bestätigt, dass APT31, eine berüchtigte chinesische staatlich gesponserte Hacking-Gruppe, Gemini AI erfolgreich eingesetzt hat, um hochentwickelte Cyberangriffe gegen US-Organisationen zu orchestrieren. Diese Enthüllung, die in einem am 12. Februar 2026 von Googles Threat Analysis Group (TAG) veröffentlichten Bericht detailliert beschrieben wird, dient als erster definitiver Beweis dafür, dass ein bedeutender staatlicher Akteur kommerzielle große Sprachmodelle (Large Language Models, LLMs) in seinen offensiven operativen Workflow integriert.
Für die Cybersicherheit (Cybersecurity)-Community und KI-Interessengruppen stellt diese Entwicklung nicht nur einen Verstoß gegen die Nutzungsbedingungen dar; sie repräsentiert die Industrialisierung der Cyberspionage. Durch die Nutzung generativer KI (Generative AI) hat APT31 die Fähigkeit demonstriert, die Schwachstellenforschung und Skriptgenerierung zu beschleunigen und so die Zeit zwischen der Identifizierung des Ziels und dessen Ausnutzung effektiv zu verkürzen. Dieser Vorfall unterstreicht den Dual-Use-Charakter fortschrittlicher KI-Technologien und wirft dringende Fragen zur Wirksamkeit aktueller Sicherheitsvorkehrungen gegenüber beharrlichen Gegnern auf staatlicher Ebene auf.
Der Bericht von Googles TAG liefert eine detaillierte Analyse darüber, wie APT31, von der breiteren Sicherheitsgemeinschaft auch als Zirconium verfolgt, die Fähigkeiten von Gemini nutzte. Im Gegensatz zu typischen „Jailbreaking“-Versuchen, die in freier Wildbahn zu beobachten sind – bei denen Benutzer versuchen, Sicherheitsfilter zu umgehen, um direkt Hassreden oder Malware zu generieren –, war der Ansatz von APT31 methodisch und operativ.
Der Untersuchung zufolge nutzte die Gruppe Gemini nicht, um Angriffe direkt zu starten. Stattdessen setzten sie die KI als Kraftmultiplikator für die Logistik und Werkzeugentwicklung vor dem Angriff ein.
Der alarmierendste Aspekt der Aktivitäten der Gruppe war die Automatisierung der Entdeckung von Schwachstellen. APT31 speiste öffentliche Schwachstellendaten (CVEs) und technische Dokumentationen in Gemini-Instanzen ein, um schnelle Ausnutzungsstrategien zu synthetisieren.
Googles Ergebnisse legen nahe, dass die KI als „Copilot“ für die Hacker fungierte und es ihnen ermöglichte, Codefehler in ihrer Malware zu beheben und ihre Angriffsketten in Echtzeit zu optimieren.
Die primären Ziele dieser KI-gestützten Kampagne wurden als hochrangige Organisationen in den USA identifiziert. Während Google die Vertraulichkeit bezüglich spezifischer Opferidentitäten gewahrt hat, um laufende Sanierungsbemühungen zu schützen, deutet die Sektoranalyse auf einen strategischen Fokus auf kritische Infrastrukturen, politische Organisationen und Technologieunternehmen hin.
Der Einsatz von Gemini ermöglichte es APT31, ihre Operationen erheblich zu skalieren. Traditionelle Spear-Phishing- und Aufklärungskampagnen sind ressourcenintensiv; die Integration von generativer KI erlaubte es der Gruppe jedoch, ein größeres Netz mit höherer Präzision auszuwerfen.
Gezielte Schlüsselsektoren:
Um die Schwere dieser Entwicklung zu verstehen, ist es wichtig, die traditionelle Cyber-Kill-Chain mit dem beschleunigten Zeitplan zu vergleichen, der in der APT31-Kampagne beobachtet wurde. Die Integration von LLMs komprimiert die Phasen der „Bewaffnung“ und „Aufklärung“ erheblich.
Tabelle: Auswirkungen von KI auf die Phasen von Cyberoperationen
| Angriffsphase | Traditionelle Methode | KI-gestützte Methode (APT31) |
|---|---|---|
| Aufklärung (Reconnaissance) | Manuelles Scraping öffentlicher Daten; menschliche Analyse der Netzwerktopologie. | Automatisierte Datensynthese; KI-gestützte Zusammenfassung der Dokumentation der Zielinfrastruktur. |
| Bewaffnung (Weaponization) | Manuelle Kodierung von Exploits; Fehlersuche durch Ausprobieren. | Schnelle Skriptgenerierung via LLM; automatisierte Code-Optimierung und Fehlerkorrektur. |
| Auslieferung (Delivery) | Vorlagenbasiertes Phishing; enthält oft grammatikalische Fehler oder kulturelle Unstimmigkeiten. | Kontextbezogene, sprachlich perfekte Phishing-Entwürfe, die sofort generiert werden. |
| Ausnutzung (Exploitation) | Ausführung vorgefertigter Tools; erfordert manuelle Anpassung, wenn die Umgebung abweicht. | Dynamische Skriptanpassung basierend auf Echtzeit-Fehlerrückmeldungen, die von der KI analysiert werden. |
Nach der Entdeckung der anomalen Aktivitätsmuster im Zusammenhang mit APT31 ergriff Google sofortige Maßnahmen, um die Operation zu unterbinden. Dies beinhaltete die Kündigung der spezifischen Konten, die mit den Bedrohungsakteuren in Verbindung standen, und den Austausch relevanter Kompromittierungsindikatoren (Indicators of Compromise, IOCs) mit US-Strafverfolgungsbehörden und Bundesämtern.
Die Entdeckung dieser Aktivität verdeutlicht jedoch eine komplexe Herausforderung für KI-Anbieter: die Zuweisung (Attribution).
In dem Bericht stellte Google fest, dass die von APT31 eingereichten Abfragen oft „Dual-Use“-Charakter hatten. Beispielsweise ist die Aufforderung an eine KI, „ein Skript zu schreiben, um Netzwerkports auf offene Schwachstellen zu testen“, eine legitime Anfrage für einen Systemadministrator, aber eine bösartige für einen staatlichen Akteur. Die Unterscheidung zwischen einem Cybersicherheits-Verteidiger und einem ausländischen Gegner allein auf Basis der Prompt-Syntax wird zunehmend schwieriger.
Google hat erklärt, dass es strengere Protokolle zur Identitätsprüfung (Know Your Customer, KYC) für den API-Zugriff implementiert und seine Tests unter Angriffsbedingungen verbessert, um Muster besser zu erkennen, die auf staatlich gesponserte Techniken hindeuten.
Die Bestätigung, dass ein chinesischer staatlicher Akteur ein in den USA hergestelltes KI-Modell erfolgreich gegen US-Interessen als Waffe eingesetzt hat, wird wahrscheinlich eine schnelle regulatorische Reaktion auslösen. Dieser Vorfall bestätigt Befürchtungen, die politische Entscheidungsträger seit langem hinsichtlich des Exports und der Kontrolle fortschrittlicher KI-Modelle hegen.
Wir erwarten, dass dieser Vorfall die Durchsetzung der Exekutivverordnung über sichere und vertrauenswürdige künstliche Intelligenz (Executive Order on Safe, Secure, and Trustworthy Artificial Intelligence) beschleunigen wird. Darüber hinaus erhöht er den Druck auf das „KI-Sicherheitsinstitut (AI Safety Institute)“, strengere Standards zur Verhinderung von Modellmissbrauch zu entwickeln.
Sicherheitsexperten erwarten mehrere branchenweite Verschündungen:
Die Enthüllung der Nutzung von Gemini durch APT31 ist ein Wendepunkt. Sie signalisiert, dass die theoretischen Risiken von KI in der Cyberabwehr in die praktische Realität übergegangen sind. Für die Cybersicherheitsbranche ist die Botschaft klar: Der Gegner ist nun KI-verstärkt.
Verteidiger müssen nun unter der Annahme agieren, dass Bedrohungsakteure die Fähigkeit besitzen, Angriffe schneller zu iterieren, als es menschlich möglich ist. In Zukunft wird der Kampf nicht mehr nur Mensch gegen Mensch sein, sondern KI-gestützte Verteidigung gegen KI-gestützten Angriff. Creati.ai wird diese sich entwickelnde Geschichte und die daraus resultierenden Verschiebungen in der globalen KI-Politik weiterhin beobachten.