
Auf dem India AI Impact Summit in Neu-Delhi in dieser Woche hielt der CEO von Google DeepMind, Demis Hassabis, eine wegweisende Keynote, die technologischen Optimismus mit dringender geopolitischer Vorsicht verband. Vor einer globalen Versammlung von politischen Entscheidungsträgern, Branchenführern und Forschern nannte Hassabis einen seiner bisher konkretesten Zeitpläne für die Einführung der Künstlichen Allgemeinen Intelligenz (Artificial General Intelligence, AGI) und prognostizierte deren Entstehung innerhalb der nächsten „5 bis 10 Jahre“. Diese Prognose war jedoch von einer deutlichen Warnung begleitet: Das Zeitfenster für die Etablierung robuster internationaler Sicherheitsrahmen schließt sich, da KI-Systeme von passiven Werkzeugen zu autonomen Agenten übergehen.
Der Gipfel, der in einer Phase rasanter Beschleunigung der Fähigkeiten generativer KI stattfand, diente Hassabis als Kulisse, um den „Schwellenmoment“ zu beschreiben, vor dem die Branche nun steht. Während er das Potenzial für eine neue „goldene Ära der wissenschaftlichen Entdeckungen“ feierte, betonte er, dass die Dual-Use-Natur (Dual-Use) fortgeschrittener KI – die sowohl zu immensem Nutzen als auch zu erheblichem Schaden fähig ist – ein Maß an globaler Zusammenarbeit erfordert, das derzeit hinter dem technologischen Fortschritt zurückbleibt.
Hassabis’ Rede bot eine seltene, offene Einschätzung der Grenzen aktueller hochmoderner Modelle. Trotz des Hypes um die jüngsten Durchbrüche in der generativen KI charakterisierte er die heutigen Systeme als „zerklüftete Intelligenzen“ (jagged intelligences). Dieser Begriff beschreibt Modelle, die in bestimmten Bereichen – wie Programmierung oder kreativem Schreiben – übermenschliche Brillanz demonstrieren, während sie gleichzeitig bei einfachen logischen Aufgaben scheitern, die ein menschliches Kind mit Leichtigkeit bewältigen könnte.
„Wir fangen an zu sehen, was diese Systeme leisten können, aber sie bleiben fragil“, bemerkte Hassabis während seiner Sitzung. Er wies darauf hin, dass ein Modell zwar eine Goldmedaille bei der Internationalen Mathematik-Olympiade gewinnen könne, aber an einfacher Arithmetik scheitern könne, wenn die Frage unkonventionell formuliert sei. Diese Inkonsistenz sei, so argumentierte er, die primäre Barriere, die die heutige spezialisierte KI von einer echten AGI trenne.
Um den für das Erreichen der AGI erforderlichen Sprung zu veranschaulichen, schlug Hassabis ein ehrgeiziges Gedankenexperiment zur wissenschaftlichen Innovation vor. Er schlug vor, dass eine echte AGI in der Lage sein sollte, ein Training mit einem Wissensstopp im Jahr 1911 zu absolvieren und unabhängig die allgemeine Relativitätstheorie abzuleiten, um Albert Einsteins Durchbruch von 1915 zu replizieren. „Es ist viel schwieriger, die richtige Frage und die richtige Hypothese zu finden, als die Vermutung zu lösen“, erklärte er. Aktuelle Systeme, die sich durch Interpolation innerhalb vorhandener Daten auszeichnen, lassen noch immer die „Weltmodelle“ und langfristigen Planungsfähigkeiten vermissen, die für solche originellen konzeptionellen Sprünge erforderlich sind.
Der Mitbegründer von DeepMind bleibt jedoch zuversichtlich, dass diese Lücken rasch geschlossen werden. Er nannte die Entstehung „agentischer“ Systeme – KI, die autonome Aktionen unternehmen kann, um übergeordnete Ziele zu erreichen – als die nächste große Phase. Dieser Übergang von Chatbot-ähnlichen Interaktionen zu agentenbasierten Arbeitsabläufen wird sich im kommenden Jahr voraussichtlich beschleunigen und die Branche in Richtung des AGI-Ziels von 5 bis 10 Jahren treiben.
Da sich der Zeitplan bis zur AGI verkürzt, wächst das Potenzial für Missbrauch. Hassabis widmete einen erheblichen Teil seiner Rede der „Dual-Use“-Natur von Grenz-KI-Systemen (Frontier AI). Dieselben Fähigkeiten, die es der KI ermöglichen, die Wirkstoffforschung zu beschleunigen oder Energienetze zu optimieren, können von „bösartigen Akteuren“ – von abtrünnigen Einzelpersonen bis hin zu feindseligen Nationalstaaten – zweckentfremdet werden, um Schaden zuzufügen.
Er hob zwei spezifische Bereiche von unmittelbarer Sorge hervor: Biosicherheit (Biosecurity) und Cyber-Risiken.
Im Bereich der Biosicherheit besteht die Sorge, dass KI die Eintrittsbarriere für die Erstellung schädlicher biologischer Stoffe senken könnte. Während KI-Werkzeuge wie AlphaFold die Biologie durch die Vorhersage von Proteinstrukturen revolutioniert haben, könnten ähnliche Technologien theoretisch zur Entwicklung von Toxinen oder Pathogenen verwendet werden, wenn sie nicht ordnungsgemäß abgesichert werden.
Die Cybersicherheit stellt eine noch unmittelbarere Volatilität dar. „Die aktuellen Systeme werden ziemlich gut im Cyberbereich“, warnte Hassabis und betonte, dass die Branche sicherstellen müsse, dass die „Verteidigung stärker ist als der Angriff“. Da KI-Agenten in der Lage sind, komplexen Code zu schreiben und auszuführen, wird das Risiko automatisierter Cyberangriffe, die über die Kapazität menschlicher Verteidigungsteams hinausgehen, zu einer greifbaren Realität. Dies erfordert einen proaktiven Ansatz, bei dem KI eingesetzt wird, um Schwachstellen schneller zu beheben, als sie ausgenutzt werden können.
Die folgende Tabelle skizziert die entscheidenden Unterschiede, die Hassabis zwischen den heute eingesetzten KI-Modellen und den für das nächste Jahrzehnt erwarteten AGI-Systemen gezogen hat.
| Metrik | Aktuelle „zerklüftete“ Intelligenz | Zukünftige Künstliche Allgemeine Intelligenz (AGI) |
|---|---|---|
| Leistungskonsistenz | Hohe Varianz; brillant bei einigen Aufgaben, Versagen bei Grundlagen | Einheitlich hohe Kompetenz in allen kognitiven Bereichen |
| Lernmethodik | Statische Trainingsdatensätze; „eingefroren“ nach der Bereitstellung | Kontinuierliches Online-Lernen; Updates aus Echtzeiterfahrung |
| Schlussfolgerungsfähigkeit | Mustererkennung und statistische Vorhersage | Kausales Denken, Hypothesengenerierung und Weltmodellierung |
| Autonomiegrad | Passives Werkzeug, das menschliche Eingaben erfordert | Agentisch; fähig zu langfristiger Planung und unabhängigem Handeln |
| Primärer Risikofaktor | Halluzination und Bias | Fehlausrichtung (Misalignment), Kontrollverlust und Dual-Use-Proliferation |
Die grenzenlose Natur digitaler Intelligenz macht sie zu einer einzigartigen regulatorischen Herausforderung. Hassabis argumentierte, dass kein einzelnes Land die Risiken der KI effektiv eindämmen könne, da Daten und Modelle augenblicklich über Gerichtsbarkeiten hinweg fließen. Er forderte einen internationalen Rahmen, ähnlich denen, die für Kernenergie oder den Klimawandel geschaffen wurden, räumte jedoch die Schwierigkeit ein, dies im derzeitigen fragmentierten geopolitischen Klima zu erreichen.
„Es wird zu einem unglaublich wichtigen Sammelpunkt für den internationalen Dialog“, sagte Hassabis über den Gipfel und lobte Indiens Rolle bei der Erleichterung dieser kritischen Gespräche. Er positionierte Indien ausdrücklich als künftiges „Kraftzentrum für KI“ und verwies auf das enorme Potenzial an Ingenieurtalenten des Landes und seine rasche Einführung digitaler Infrastruktur.
Der Weg zur globale Zusammenarbeit ist jedoch voller Spannungen. Verschiedene Nationen priorisieren derzeit unterschiedliche Aspekte der KI-Politik – einige konzentrieren sich auf Innovationsdominanz, andere auf strenge Sicherheitsvorschriften. Die Botschaft von Hassabis war klar: Ohne einen Mindestsatz an globalen Standards, insbesondere im Hinblick auf den Einsatz autonomer Agenten und Biosicherheitsvorkehrungen, riskieren die Länder der Welt einen Unterbietungswettbewerb bei der Sicherheit.
Trotz des starken Fokus auf Risiken blieb der Kern von Hassabis’ Botschaft im transformativen Potenzial der KI für die Wissenschaft verwurzelt. Er beschrieb das kommende Jahrzehnt als eine „neue Renaissance“, in der KI-Werkzeuge Geheimnisse in Physik, Biologie und Materialwissenschaften entschlüsseln werden, die Forscher seit Jahrzehnten vor Rätsel stellen.
Dieser Optimismus wird durch die eigene Erfolgsbilanz von DeepMind gestützt. Von der Beherrschung des Spiels Go bis zur Lösung des Proteinfaltungsproblems hat das Unternehmen konsequent gezeigt, dass KI komplexe, undefinierte Probleme lösen kann. Der Übergang zur AGI geht es nach Ansicht von Hassabis nicht nur um den Bau intelligenterer Chatbots, sondern um die Schaffung des ultimativen Werkzeugs zur Wissenserweiterung. „Ich habe immer geglaubt, dass KI eine der wichtigsten und vorteilhaftesten Technologien sein würde, die jemals erfunden wurden“, reflektierte er und merkte an, dass sein lebenslanges Streben von dem Wunsch getrieben wurde, wissenschaftliche Entdeckungen zu beschleunigen.
Aus der Sicht von Creati.ai signalisieren die Kommentare von Hassabis auf dem India AI Impact Summit einen entscheidenden Wandel im Narrativ der Branche. Wir bewegen uns weg von der anfänglichen Ehrfurcht vor generativem Text und Bildern hin zu der ernsthaften, mühsamen Arbeit des Aufbaus zuverlässiger, autonomer Agenten.
Für Unternehmen und Entwickler ist die „zerklüftete“ Natur aktueller Modelle ein bekannter Reibungspunkt. Das Versprechen der AGI impliziert eine Zukunft, in der die Zuverlässigkeit der KI kein Glücksspiel mehr ist, sondern eine Garantie. Der Zeitplan von 5 bis 10 Jahren deutet jedoch darauf hin, dass Unternehmen agil bleiben müssen – sie sollten in aktuelle Werkzeuge investieren und gleichzeitig ihre Infrastruktur auf einen radikalen Fähigkeitssprung vorbereiten.
Die Betonung der Sicherheit deutet auch darauf hin, dass die nächste Welle von KI-Produkten wahrscheinlich einer strengeren Prüfung hinsichtlich ihres „Dual-Use“-Potenzials unterzogen wird. Wir erwarten einen Anstieg der Nachfrage nach KI-Sicherheitsplattformen – Werkzeugen, die speziell für die Überwachung, Prüfung und Absicherung agentischer KI-Systeme entwickelt wurden. Während die Branche die Warnung von Hassabis verarbeitet, wird sich der Fokus wahrscheinlich auf eine „Defense-First“-KI-Entwicklung verlagern, um sicherzustellen, dass die Systeme, die wir heute bauen, nicht zu den Schwachstellen von morgen werden.