AI News

OpenAI-CEO prognostiziert Superintelligenz bis 2028 auf dem AI Impact Summit

In einem entscheidenden Moment auf dem AI Impact Summit 2026 in Neu-Delhi gab OpenAI-CEO Sam Altman eine überraschende Prognose ab, die Wellen durch die globale Technologiegemeinschaft geschlagen hat. Vor einem Publikum aus politischen Entscheidungsträgern, Branchenführern und Forschern deutete Altman an, dass frühe Formen von Superintelligenz (Superintelligence) innerhalb der nächsten Jahre entstehen könnten, wobei er speziell 2028 als potenziellen Meilenstein nannte, an dem die aggregierte computergestützte Intelligenz der Welt die menschliche Kapazität übertreffen könnte.

Der Gipfel im Bharat Mandapam hat sich zu einer zentralen Plattform für den globalen KI-Diskurs entwickelt und markiert das erste Mal, dass ein solch hochrangiges Treffen zur KI-Governance im Globalen Süden (Global South) stattgefunden hat. Altmans Kommentare unterstreichen eine rasante Beschleunigung der KI-Entwicklung, die selbst aggressive historische Prognosen übertrifft.

Die Verlagerung von intellektuellem Kapital in Rechenzentren

Eine der tiefgreifendsten Kennzahlen, die Altman einführte, war die sich verändernde Geografie der Intelligenz. „Bis Ende 2028 könnte mehr von der intellektuellen Kapazität der Welt innerhalb von Rechenzentren liegen als außerhalb“, erklärte Altman. Diese Visualisierung rahmt die unmittelbar bevorstehende Zukunft nicht nur als technologisches Upgrade ein, sondern als eine grundlegende Verschiebung des Ortes, an dem sich die kognitive Verarbeitungsleistung des Planeten befindet.

Er betonte, dass dieser Übergang durch die exponentielle Skalierung der Recheninfrastruktur vorangetrieben wird. Die Entwicklung von Systemen, die mit Mathematik auf High-School-Niveau zu kämpfen hatten, hin zu solchen, die in der Lage sind, neue theoretische Physikergebnisse abzuleiten, ist in weniger als einem Jahrzehnt erfolgt. Altman bezeichnete dies als eine „Generationenherausforderung“ und verglich den schnellen Aufbau der KI-Infrastruktur mit dem Gerüst früherer industrieller Revolutionen, jedoch mit einer viel steileren vertikalen Flugbahn.

Unterschiedliche Zeitpläne: Altman vs. Hassabis

Während der Gipfel einen breiten Konsens über die transformative Kraft der KI aufwies, gab es nuancierte Unterschiede in den Zeitplänen und Risikobewertungen der führenden Köpfe. Google DeepMind-CEO Demis Hassabis, der ebenfalls auf dem Gipfel sprach, bot einen etwas konservativeren, aber ebenso dringlichen Zeitplan an.

Vergleich der wichtigsten Prognosen auf dem AI Impact Summit 2026

Führungspersönlichkeit Prognostizierter Zeitplan Hauptfokusbereich
Sam Altman (OpenAI) Superintelligenz bis 2028 Rechenzentrumskapazität übertrifft menschliche Intelligenz
Demis Hassabis (DeepMind) AGI innerhalb von 5-8 Jahren Wissenschaftliche Entdeckungen und „Schwellenmomente“
Konsens Vor 2030 Dringender Bedarf an Sicherheitsvorkehrungen und Governance

Hassabis warnte, dass wir uns zwar an einem „Schwellenmoment“ befinden, den aktuellen Systemen jedoch noch die Konsistenz und die langfristigen Planungsfähigkeiten der menschlichen Kognition fehlen. Er gab jedoch zu bedenken, dass die Ankunft der künstlichen allgemeinen Intelligenz (Artificial General Intelligence, AGI) „am Horizont“ stehe, wahrscheinlich bis zum Ende des Jahrzehnts.

Kritische Risikowarnungen: Biosicherheit und „Böse Akteure“

Der Optimismus in Bezug auf wissenschaftliche Durchbrüche – wie das Potenzial der KI, Krankheiten zu heilen oder Probleme der Fusionsphysik zu lösen – wurde durch deutliche Warnungen hinsichtlich der Sicherheit ausgeglichen. Demis Hassabis äußerte sich besonders besorgt über die Dual-Use-Natur fortschrittlicher KI-Systeme.

Hassabis hob zwei unmittelbare Problembereiche hervor, die dringende Aufmerksamkeit erfordern:

  • Biosicherheit: Das Potenzial für KI-Modelle, bei der Erstellung neuartiger Krankheitserreger oder biologischer Waffen zu helfen.
  • Cybersicherheit: Das Risiko, dass KI-Systeme genutzt werden, um digitale Schwachstellen in einem Ausmaß und einer Geschwindigkeit auszunutzen, die Menschen nicht verteidigen können.

„Wir müssen uns sehr bald um Dinge wie Bio- und Cyber-Risiken in der KI sorgen“, mahnte Hassabis und stellte fest, dass „böse Akteure“ (Bad Actors) – von einzelnen Schurken bis hin zu Nationalstaaten – diese mächtigen Werkzeuge für schädliche Zwecke umfunktionieren könnten. Er plädierte für einen strengen Ansatz der „wissenschaftlichen Methode“ zur KI-Sicherheit, bei dem Sicherheitsvorkehrungen (Guardrails) mit der gleichen Präzision wie die Modelle selbst entwickelt und getestet werden.

Drei Säulen für eine demokratische KI-Zukunft

In seiner Rede skizzierte Altman einen dreiteiligen Rahmen, der die verantwortungsvolle Entwicklung von Superintelligenz leiten soll. Er argumentierte, dass ohne diese Säulen die Vorteile der KI nicht gerecht verteilt würden.

  1. Demokratisierung der KI: Altman lehnte die Vorstellung eines „effektiven Totalitarismus“ als Kompromiss für die Sicherheit ab. Er bestand darauf, dass der einzige Weg nach vorne darin besteht, die menschliche Handlungsfähigkeit und Freiheit zu erhöhen und einen breiten Zugang zu KI-Tools zu gewährleisten, anstatt die Macht in den Händen einiger weniger Labore oder Regierungen zu konzentrieren.
  2. Resilienz durch gesellschaftsweite Verteidigung: Altman räumte ein, dass kein einzelnes Labor die Zukunft sichern kann, und forderte einen „gesellschaftsweiten Ansatz“ zur Verteidigung. Dies beinhaltet die Schaffung von Systemen, die Missbrauch standhalten können, um sicherzustellen, dass defensive KI-Fähigkeiten offensive stets übertreffen.
  3. Ko-Evolution mit der Gesellschaft: Er betonte, dass die KI-Entwicklung nicht in einem Vakuum stattfinden kann. „Die meisten wichtigen Entdeckungen passieren, wenn Technologie und Gesellschaft aufeinandertreffen“, bemerkte Altman. Er setzte sich für eine iterative Bereitstellungsstrategie ein, die es der Gesellschaft ermöglicht, sich in Echtzeit an die Technologie anzupassen und diese zu gestalten, anstatt mit einem fertigen, überwältigenden Produkt konfrontiert zu werden.

Indiens strategische Rolle in der KI-Landschaft

Ein wiederkehrendes Thema während des Gipfels war Indiens einzigartige Position, die Flugbahn der globalen KI zu beeinflussen. Da bereits einer von 100 Millionen Menschen in Indien wöchentlich ChatGPT nutzt und ein Drittel davon Studenten sind, wird das Land schnell zu einem Testgelände für die massenhafte KI-Adoption.

Schlüsselfaktoren, die Indien als KI-Macht positionieren:

  • Demografische Skala: Eine riesige, junge Bevölkerung, die digital nativ ist.
  • Adoptionsraten: Indien ist derzeit der am schnellsten wachsende Markt für Codex, das Codierungstool von OpenAI.
  • Führungsrolle in der Governance: Als größte Demokratie der Welt wird Indien als kritisches Gegengewicht zu autoritären Modellen der KI-Governance gesehen.

„Indien ist gut positioniert, um im Bereich KI führend zu sein – nicht nur, um sie zu bauen, sondern um sie zu gestalten und zu entscheiden, wie unsere Zukunft aussehen wird“, bemerkte Altman. Diese Stimmung wurde von Premierminister Narendra Modi aufgegriffen, der eine Vision von „In Indien entwickeln, für die Welt entwickeln“ präsentierte und dabei ethische und inklusive KI betonte.

Wirtschaftliche Disruption und der „GPU-Standard“

In Bezug auf die wirtschaftlichen Ängste, die KI-Fortschritte oft begleiten, äußerte sich Altman offen über die bevorstehenden Disruptionen. Er stellte fest, dass es bei vielen spezifischen Aufgaben „sehr schwer sein wird, eine GPU zu übertreffen“, was eine grundlegende Veränderung auf dem Arbeitsmarkt signalisiert. Er behielt jedoch einen optimistischen Ausblick auf die menschliche Anpassungsfähigkeit bei und deutete an, dass Technologie zwar immer Arbeitsplätze verdrängt, gleichzeitig aber „neue und bessere Dinge zu tun“ schafft.

Der Konsens des Gipfels ist klar: Die Ära der theoretischen Diskussionen über Superintelligenz geht zu Ende. Die Technologie geht in eine greifbare Realität mit hohem Einsatz über. Da führende Köpfe wie Altman und Hassabis entscheidende Durchbrüche noch vor Ende des Jahrzehnts vorhersagen, hat sich der Fokus vollständig auf Bereitschaft, Governance und die Sicherstellung verlagert, dass die in Rechenzentren residierende Intelligenz der Menschheit außerhalb dieser Zentren dient.

Ausgewählt