
In einem entscheidenden Moment auf dem AI Impact Summit 2026 in Neu-Delhi gab OpenAI-CEO Sam Altman eine überraschende Prognose ab, die Wellen durch die globale Technologiegemeinschaft geschlagen hat. Vor einem Publikum aus politischen Entscheidungsträgern, Branchenführern und Forschern deutete Altman an, dass frühe Formen von Superintelligenz (Superintelligence) innerhalb der nächsten Jahre entstehen könnten, wobei er speziell 2028 als potenziellen Meilenstein nannte, an dem die aggregierte computergestützte Intelligenz der Welt die menschliche Kapazität übertreffen könnte.
Der Gipfel im Bharat Mandapam hat sich zu einer zentralen Plattform für den globalen KI-Diskurs entwickelt und markiert das erste Mal, dass ein solch hochrangiges Treffen zur KI-Governance im Globalen Süden (Global South) stattgefunden hat. Altmans Kommentare unterstreichen eine rasante Beschleunigung der KI-Entwicklung, die selbst aggressive historische Prognosen übertrifft.
Eine der tiefgreifendsten Kennzahlen, die Altman einführte, war die sich verändernde Geografie der Intelligenz. „Bis Ende 2028 könnte mehr von der intellektuellen Kapazität der Welt innerhalb von Rechenzentren liegen als außerhalb“, erklärte Altman. Diese Visualisierung rahmt die unmittelbar bevorstehende Zukunft nicht nur als technologisches Upgrade ein, sondern als eine grundlegende Verschiebung des Ortes, an dem sich die kognitive Verarbeitungsleistung des Planeten befindet.
Er betonte, dass dieser Übergang durch die exponentielle Skalierung der Recheninfrastruktur vorangetrieben wird. Die Entwicklung von Systemen, die mit Mathematik auf High-School-Niveau zu kämpfen hatten, hin zu solchen, die in der Lage sind, neue theoretische Physikergebnisse abzuleiten, ist in weniger als einem Jahrzehnt erfolgt. Altman bezeichnete dies als eine „Generationenherausforderung“ und verglich den schnellen Aufbau der KI-Infrastruktur mit dem Gerüst früherer industrieller Revolutionen, jedoch mit einer viel steileren vertikalen Flugbahn.
Während der Gipfel einen breiten Konsens über die transformative Kraft der KI aufwies, gab es nuancierte Unterschiede in den Zeitplänen und Risikobewertungen der führenden Köpfe. Google DeepMind-CEO Demis Hassabis, der ebenfalls auf dem Gipfel sprach, bot einen etwas konservativeren, aber ebenso dringlichen Zeitplan an.
Vergleich der wichtigsten Prognosen auf dem AI Impact Summit 2026
| Führungspersönlichkeit | Prognostizierter Zeitplan | Hauptfokusbereich |
|---|---|---|
| Sam Altman (OpenAI) | Superintelligenz bis 2028 | Rechenzentrumskapazität übertrifft menschliche Intelligenz |
| Demis Hassabis (DeepMind) | AGI innerhalb von 5-8 Jahren | Wissenschaftliche Entdeckungen und „Schwellenmomente“ |
| Konsens | Vor 2030 | Dringender Bedarf an Sicherheitsvorkehrungen und Governance |
Hassabis warnte, dass wir uns zwar an einem „Schwellenmoment“ befinden, den aktuellen Systemen jedoch noch die Konsistenz und die langfristigen Planungsfähigkeiten der menschlichen Kognition fehlen. Er gab jedoch zu bedenken, dass die Ankunft der künstlichen allgemeinen Intelligenz (Artificial General Intelligence, AGI) „am Horizont“ stehe, wahrscheinlich bis zum Ende des Jahrzehnts.
Der Optimismus in Bezug auf wissenschaftliche Durchbrüche – wie das Potenzial der KI, Krankheiten zu heilen oder Probleme der Fusionsphysik zu lösen – wurde durch deutliche Warnungen hinsichtlich der Sicherheit ausgeglichen. Demis Hassabis äußerte sich besonders besorgt über die Dual-Use-Natur fortschrittlicher KI-Systeme.
Hassabis hob zwei unmittelbare Problembereiche hervor, die dringende Aufmerksamkeit erfordern:
„Wir müssen uns sehr bald um Dinge wie Bio- und Cyber-Risiken in der KI sorgen“, mahnte Hassabis und stellte fest, dass „böse Akteure“ (Bad Actors) – von einzelnen Schurken bis hin zu Nationalstaaten – diese mächtigen Werkzeuge für schädliche Zwecke umfunktionieren könnten. Er plädierte für einen strengen Ansatz der „wissenschaftlichen Methode“ zur KI-Sicherheit, bei dem Sicherheitsvorkehrungen (Guardrails) mit der gleichen Präzision wie die Modelle selbst entwickelt und getestet werden.
In seiner Rede skizzierte Altman einen dreiteiligen Rahmen, der die verantwortungsvolle Entwicklung von Superintelligenz leiten soll. Er argumentierte, dass ohne diese Säulen die Vorteile der KI nicht gerecht verteilt würden.
Ein wiederkehrendes Thema während des Gipfels war Indiens einzigartige Position, die Flugbahn der globalen KI zu beeinflussen. Da bereits einer von 100 Millionen Menschen in Indien wöchentlich ChatGPT nutzt und ein Drittel davon Studenten sind, wird das Land schnell zu einem Testgelände für die massenhafte KI-Adoption.
Schlüsselfaktoren, die Indien als KI-Macht positionieren:
„Indien ist gut positioniert, um im Bereich KI führend zu sein – nicht nur, um sie zu bauen, sondern um sie zu gestalten und zu entscheiden, wie unsere Zukunft aussehen wird“, bemerkte Altman. Diese Stimmung wurde von Premierminister Narendra Modi aufgegriffen, der eine Vision von „In Indien entwickeln, für die Welt entwickeln“ präsentierte und dabei ethische und inklusive KI betonte.
In Bezug auf die wirtschaftlichen Ängste, die KI-Fortschritte oft begleiten, äußerte sich Altman offen über die bevorstehenden Disruptionen. Er stellte fest, dass es bei vielen spezifischen Aufgaben „sehr schwer sein wird, eine GPU zu übertreffen“, was eine grundlegende Veränderung auf dem Arbeitsmarkt signalisiert. Er behielt jedoch einen optimistischen Ausblick auf die menschliche Anpassungsfähigkeit bei und deutete an, dass Technologie zwar immer Arbeitsplätze verdrängt, gleichzeitig aber „neue und bessere Dinge zu tun“ schafft.
Der Konsens des Gipfels ist klar: Die Ära der theoretischen Diskussionen über Superintelligenz geht zu Ende. Die Technologie geht in eine greifbare Realität mit hohem Einsatz über. Da führende Köpfe wie Altman und Hassabis entscheidende Durchbrüche noch vor Ende des Jahrzehnts vorhersagen, hat sich der Fokus vollständig auf Bereitschaft, Governance und die Sicherstellung verlagert, dass die in Rechenzentren residierende Intelligenz der Menschheit außerhalb dieser Zentren dient.