AI News

Globale Experten warnen vor „tiefer Unsicherheit“ in der KI-Trajektorie vor dem Gipfel in Indien

Eine globale Koalition von über 100 führenden Experten für künstliche Intelligenz (Artificial Intelligence, AI) hat den Zweiten Internationalen Bericht zur KI-Sicherheit (Second International AI Safety Report) veröffentlicht und warnt eindringlich vor der unvorhersehbaren Entwicklung von Allzweck-KI-Systemen (General-purpose AI). Der Bericht, der nur wenige Tage vor dem hochkarätigen India AI Impact Summit in Neu-Delhi veröffentlicht wurde, hebt eine kritische Kluft zwischen dem rasanten Fortschritt der KI-Fähigkeiten und den „unzureichenden“ Sicherheitsvorkehrungen hervor, die derzeit zu deren Steuerung vorhanden sind.

Unter dem Vorsitz des mit dem Turing-Preis ausgezeichneten Wissenschaftlers Yoshua Bengio dient der Bericht als wissenschaftliches Konsensdokument, das den politischen Entscheidungsträgern auf dem bevorstehenden Gipfel als Orientierungshilfe dienen soll. Während die Ergebnisse das immense Potenzial der KI für das Wirtschaftswachstum und wissenschaftliche Entdeckungen anerkennen, zeichnen sie das komplexe Bild einer Technologie, die in einem rasanten Tempo voranschreitet und oft die menschliche Fähigkeit übersteigt, sie zu verstehen oder zu kontrollieren.

Das Paradoxon der „zerklüfteten“ Intelligenz (Jagged Intelligence)

Eines der bedeutendsten Ergebnisse des Berichts ist das Phänomen der „zerklüfteten“ Leistung (Jagged Performance) bei hochmodernen KI-Modellen. Während diese Systeme bei Fragen der Internationalen Mathematik-Olympiade „Goldmedaillen-Leistungen“ erbracht und bei spezifischen wissenschaftlichen Benchmarks das Expertenniveau von Promovierten (PhD-level) übertroffen haben, scheitern sie weiterhin spektakulär an Aufgaben, die für einen Menschen trivial wären.

Diese Inkonsistenz erzeugt eine gefährliche Illusion von Kompetenz. Nutzer könnten Systemen in kritischen Szenarien – wie medizinischen Diagnosen oder juristischen Analysen – aufgrund ihrer Leistung in anderen High-Level-Bereichen übermäßig vertrauen. Der Bericht stellt fest, dass diese Unvorhersehbarkeit durch das Aufkommen von agentischen Systemen (Agentic Systems) verstärkt wird, die autonom handeln können, um mehrstufige Aufgaben zu erledigen.

„Wie und warum Allzweck-KI-Modelle (General-purpose AI) neue Fähigkeiten erwerben und sich auf bestimmte Weise verhalten, ist oft schwer vorherzusagen, selbst für die Entwickler“, heißt es in dem Bericht.

Die Experten warnen, dass mit der zunehmenden Integration dieser agentischen Systeme in die Wirtschaft der Verlust der direkten menschlichen Kontrolle dazu führen könnte, dass „gefährliche Fähigkeiten“ bis nach dem Einsatz unentdeckt bleiben.

Eskalierende Risiken: Von biologischen Bedrohungen bis hin zu systemischer Ungleichheit

Der Bericht von 2026 erweitert die in der Erstausgabe von 2025 identifizierten Risikokategorien erheblich. Er präsentiert neue empirische Belege, die darauf hindeuten, dass die Eintrittsbarriere für böswillige Akteure sinkt.

Zu den wichtigsten Problembereichen gehören:

  • Biologische und Cyber-Risiken: KI-Systeme erreichen oder übertreffen mittlerweile Expertenleistungen bei Aufgaben, die für die Entwicklung biologischer Waffen relevant sind, wie etwa die Fehlersuche in virologischen Laborprotokollen. Ebenso werden diese Werkzeuge eingesetzt, um die Qualifikationsschwelle für das Starten komplexer Cyberangriffe zu senken.
  • Deepfakes und nicht einvernehmliches Bildmaterial: Die Verbreitung von KI-generierten Inhalten befeuert den Anstieg von Betrug und nicht einvernehmlichen intimen Bildern (Non-consensual Intimate Imagery, NCII), was unverhältnismäßig oft Frauen und Mädchen trifft. Der Bericht zitiert eine Studie, wonach 19 von 20 populären „Nudify“-Apps auf diese Form des Missbrauchs spezialisiert sind.
  • Systemische Störungen des Arbeitsmarktes: Über unmittelbare Sicherheitsgefahren hinaus identifiziert der Bericht breitere strukturelle Risiken. Die Integration von KI in die Arbeitsmärkte droht die Ungleichheit zu verschärfen, mit dem Potenzial für massive Verdrängungen in Sektoren, die bisher als sicher vor Automatisierung galten.

Tabelle: Im Bericht 2026 identifizierte kritische Risikokategorien

Risikokategorie Hauptbedenken Aktueller Status
Böswillige Nutzung Senkung der Barrieren für Cyberangriffe und Biowaffen Hohe Dringlichkeit; aktive Ausnutzung beobachtet
Systemische Risiken Arbeitsplatzverdrängung und zunehmende globale Ungleichheit Langfristige Bedrohung; erfordert politische Intervention
Technische Fehler Kontrollverlust über autonome agentische Systeme Zutiefst ungewiss; Sicherheitsvorkehrungen sind „fehlbar“
Desinformation Ausmaß von KI-generierten Einflussoperationen Schnell wachsend; beeinträchtigt demokratische Prozesse

Die globale Kluft: Eine Geschichte von zwei Welten

Während sich die Welt auf den India AI Impact Summit vorbereitet, wirft der Bericht ein Schlaglicht auf die ungleichmäßige Verteilung der Vorteile der KI. Während die Einführung „rasch“ verlief und mindestens 700 Millionen Menschen wöchentlich führende KI-Systeme nutzen, konzentriert sich diese Nutzung stark auf den Globalen Norden (Global North).

Im Gegensatz dazu bleiben die Adoptionsraten in weiten Teilen von Afrika, Asien und Lateinamerika unter 10 %. Diese „digitale Kluft“ stellt ein ernstes Risiko dar: Wenn fortschrittliche KI zum primären Motor künftigen Wirtschaftswachstums wird, könnten Nationen ohne Zugang zur Technologie – oder zur Infrastruktur, um sie zu unterstützen – dauerhaft zurückbleiben.

Diese Disparität deckt sich mit den Kernthemen des bevorstehenden Gipfels in Neu-Delhi. Unter den „Sutras“ von Mensch, Planet und Fortschritt (People, Planet, Progress) zielt der Gipfel darauf ab, die globale Diskussion von theoretischen Sicherheitsdebatten hin zu praktischen, inklusiven Ergebnissen zu verschieben, die dem Globalen Süden (Global South) zugutekommen.

Ein Bruch im globalen Konsens?

In einer bemerkenswerten geopolitischen Entwicklung lehnten es die Vereinigten Staaten ab, die endgültige Fassung des Berichts zu unterzeichnen, obwohl sie während des Entwurfsprozesses Feedback gegeben hatten. Dies markiert eine Abkehr von der Einstimmigkeit des Vorjahres. Während der Schritt von einigen Beobachtern als „weitgehend symbolisch“ bezeichnet wird, unterstreicht er die wachsenden Spannungen zwischen schneller Innovation und internationalen Regulierungsrahmen.

Die Haltung der USA steht im Gegensatz zur Position anderer Großmächte, einschließlich der Europäischen Union und Chinas, die die Ergebnisse des Berichts unterstützt haben. Diese Divergenz könnte die Bühne für kontroverse Debatten auf dem Gipfel in Neu-Delhi bereiten, da die Nationen Schwierigkeiten haben, den „Wettlauf um die KI-Vorherrschaft“ mit der Notwendigkeit einer koordinierten globalen Governance in Einklang zu bringen.

Ausblick auf Neu-Delhi

Die Veröffentlichung dieses Berichts legt die Agenda für den India AI Impact Summit fest, der für den 16. bis 20. Februar 2026 geplant ist. Indische Beamte, darunter Minister Ashwini Vaishnaw, haben betont, dass sich das Treffen auf „verantwortungsvolle Offenheit“ und „fairen Zugang“ zu Rechenressourcen konzentrieren wird.

Für die versammelten politischen Entscheidungsträger wird die Herausforderung darin bestehen, die wissenschaftlichen Warnungen des Berichts in handlungsfähige Politik umzusetzen. Wie das Dokument abschließend feststellt, verbessern sich die aktuellen Risikomanagement-Techniken zwar, sind aber weiterhin „unzureichend“. Die Welt blickt nun auf Neu-Delhi, um die Lücke zwischen der Identifizierung dieser existenziellen Risiken und ihrer tatsächlichen Entschärfung zu schließen.

Ausgewählt