
Eine globale Koalition von über 100 führenden Experten für künstliche Intelligenz (Artificial Intelligence, AI) hat den Zweiten Internationalen Bericht zur KI-Sicherheit (Second International AI Safety Report) veröffentlicht und warnt eindringlich vor der unvorhersehbaren Entwicklung von Allzweck-KI-Systemen (General-purpose AI). Der Bericht, der nur wenige Tage vor dem hochkarätigen India AI Impact Summit in Neu-Delhi veröffentlicht wurde, hebt eine kritische Kluft zwischen dem rasanten Fortschritt der KI-Fähigkeiten und den „unzureichenden“ Sicherheitsvorkehrungen hervor, die derzeit zu deren Steuerung vorhanden sind.
Unter dem Vorsitz des mit dem Turing-Preis ausgezeichneten Wissenschaftlers Yoshua Bengio dient der Bericht als wissenschaftliches Konsensdokument, das den politischen Entscheidungsträgern auf dem bevorstehenden Gipfel als Orientierungshilfe dienen soll. Während die Ergebnisse das immense Potenzial der KI für das Wirtschaftswachstum und wissenschaftliche Entdeckungen anerkennen, zeichnen sie das komplexe Bild einer Technologie, die in einem rasanten Tempo voranschreitet und oft die menschliche Fähigkeit übersteigt, sie zu verstehen oder zu kontrollieren.
Eines der bedeutendsten Ergebnisse des Berichts ist das Phänomen der „zerklüfteten“ Leistung (Jagged Performance) bei hochmodernen KI-Modellen. Während diese Systeme bei Fragen der Internationalen Mathematik-Olympiade „Goldmedaillen-Leistungen“ erbracht und bei spezifischen wissenschaftlichen Benchmarks das Expertenniveau von Promovierten (PhD-level) übertroffen haben, scheitern sie weiterhin spektakulär an Aufgaben, die für einen Menschen trivial wären.
Diese Inkonsistenz erzeugt eine gefährliche Illusion von Kompetenz. Nutzer könnten Systemen in kritischen Szenarien – wie medizinischen Diagnosen oder juristischen Analysen – aufgrund ihrer Leistung in anderen High-Level-Bereichen übermäßig vertrauen. Der Bericht stellt fest, dass diese Unvorhersehbarkeit durch das Aufkommen von agentischen Systemen (Agentic Systems) verstärkt wird, die autonom handeln können, um mehrstufige Aufgaben zu erledigen.
„Wie und warum Allzweck-KI-Modelle (General-purpose AI) neue Fähigkeiten erwerben und sich auf bestimmte Weise verhalten, ist oft schwer vorherzusagen, selbst für die Entwickler“, heißt es in dem Bericht.
Die Experten warnen, dass mit der zunehmenden Integration dieser agentischen Systeme in die Wirtschaft der Verlust der direkten menschlichen Kontrolle dazu führen könnte, dass „gefährliche Fähigkeiten“ bis nach dem Einsatz unentdeckt bleiben.
Der Bericht von 2026 erweitert die in der Erstausgabe von 2025 identifizierten Risikokategorien erheblich. Er präsentiert neue empirische Belege, die darauf hindeuten, dass die Eintrittsbarriere für böswillige Akteure sinkt.
Zu den wichtigsten Problembereichen gehören:
Tabelle: Im Bericht 2026 identifizierte kritische Risikokategorien
| Risikokategorie | Hauptbedenken | Aktueller Status |
|---|---|---|
| Böswillige Nutzung | Senkung der Barrieren für Cyberangriffe und Biowaffen | Hohe Dringlichkeit; aktive Ausnutzung beobachtet |
| Systemische Risiken | Arbeitsplatzverdrängung und zunehmende globale Ungleichheit | Langfristige Bedrohung; erfordert politische Intervention |
| Technische Fehler | Kontrollverlust über autonome agentische Systeme | Zutiefst ungewiss; Sicherheitsvorkehrungen sind „fehlbar“ |
| Desinformation | Ausmaß von KI-generierten Einflussoperationen | Schnell wachsend; beeinträchtigt demokratische Prozesse |
Während sich die Welt auf den India AI Impact Summit vorbereitet, wirft der Bericht ein Schlaglicht auf die ungleichmäßige Verteilung der Vorteile der KI. Während die Einführung „rasch“ verlief und mindestens 700 Millionen Menschen wöchentlich führende KI-Systeme nutzen, konzentriert sich diese Nutzung stark auf den Globalen Norden (Global North).
Im Gegensatz dazu bleiben die Adoptionsraten in weiten Teilen von Afrika, Asien und Lateinamerika unter 10 %. Diese „digitale Kluft“ stellt ein ernstes Risiko dar: Wenn fortschrittliche KI zum primären Motor künftigen Wirtschaftswachstums wird, könnten Nationen ohne Zugang zur Technologie – oder zur Infrastruktur, um sie zu unterstützen – dauerhaft zurückbleiben.
Diese Disparität deckt sich mit den Kernthemen des bevorstehenden Gipfels in Neu-Delhi. Unter den „Sutras“ von Mensch, Planet und Fortschritt (People, Planet, Progress) zielt der Gipfel darauf ab, die globale Diskussion von theoretischen Sicherheitsdebatten hin zu praktischen, inklusiven Ergebnissen zu verschieben, die dem Globalen Süden (Global South) zugutekommen.
In einer bemerkenswerten geopolitischen Entwicklung lehnten es die Vereinigten Staaten ab, die endgültige Fassung des Berichts zu unterzeichnen, obwohl sie während des Entwurfsprozesses Feedback gegeben hatten. Dies markiert eine Abkehr von der Einstimmigkeit des Vorjahres. Während der Schritt von einigen Beobachtern als „weitgehend symbolisch“ bezeichnet wird, unterstreicht er die wachsenden Spannungen zwischen schneller Innovation und internationalen Regulierungsrahmen.
Die Haltung der USA steht im Gegensatz zur Position anderer Großmächte, einschließlich der Europäischen Union und Chinas, die die Ergebnisse des Berichts unterstützt haben. Diese Divergenz könnte die Bühne für kontroverse Debatten auf dem Gipfel in Neu-Delhi bereiten, da die Nationen Schwierigkeiten haben, den „Wettlauf um die KI-Vorherrschaft“ mit der Notwendigkeit einer koordinierten globalen Governance in Einklang zu bringen.
Die Veröffentlichung dieses Berichts legt die Agenda für den India AI Impact Summit fest, der für den 16. bis 20. Februar 2026 geplant ist. Indische Beamte, darunter Minister Ashwini Vaishnaw, haben betont, dass sich das Treffen auf „verantwortungsvolle Offenheit“ und „fairen Zugang“ zu Rechenressourcen konzentrieren wird.
Für die versammelten politischen Entscheidungsträger wird die Herausforderung darin bestehen, die wissenschaftlichen Warnungen des Berichts in handlungsfähige Politik umzusetzen. Wie das Dokument abschließend feststellt, verbessern sich die aktuellen Risikomanagement-Techniken zwar, sind aber weiterhin „unzureichend“. Die Welt blickt nun auf Neu-Delhi, um die Lücke zwischen der Identifizierung dieser existenziellen Risiken und ihrer tatsächlichen Entschärfung zu schließen.