AI News

Davos 2026: Die große Kluft der Allgemeinen Künstlichen Intelligenz (Artificial General Intelligence, AGI) — Amodeis „geschlossener Kreislauf“ ("Closed Loop") vs. LeCuns Weltmodelle (World Models)

Davos, Schweiz — Die schneebedeckten Gipfel von Davos dienen seit langem als Kulisse für die wichtigsten wirtschaftlichen Debatten der Welt, doch beim Weltwirtschaftsforum 2026 war die Temperatur im Kongresszentrum deutlich höher als die eiskalte Luft draußen. In einem prägnanten Moment für die Branche der künstlichen Intelligenz präsentierten drei ihrer prominentesten Akteure — Demis Hassabis von DeepMind, Dario Amodei von Anthropic und Yann LeCun von Meta — radikal unterschiedliche Fahrpläne für die Zukunft der Allgemeinen Künstlichen Intelligenz. Diese offenbarten eine sich vertiefende ideologische und technische Spaltung auf den höchsten Ebenen der KI‑Forschung.

Die Sitzung, von Teilnehmern im Volksmund „The Day After AGI“ genannt, ging über die theoretischen Plattitüden der vergangenen Jahre hinaus. Stattdessen legte sie einen deutlichen Konflikt offen zwischen jenen, die glauben, dass die Allgemeine Künstliche Intelligenz durch Skalierungsgesetze unmittelbar bevorstehe, und jenen, die argumentieren, dass die derzeit dominierende Architektur — Große Sprachmodelle (Large Language Models, LLMs) — ein grundlegendes Ende auf dem Weg zur wahren Intelligenz darstellt.

Der Beschleuniger-Fall: Amodei und der "Closed Loop"

Dario Amodei, CEO von Anthropic, eröffnete die Debatte mit dem aggressivsten Zeitplan und erklärte effektiv, dass die Ära der menschlich gesteuerten Softwareentwicklung ihrem Ende entgegengeht. Amodei, dessen Unternehmen an der Spitze von KI‑Sicherheit und Steuerbarkeit steht, überraschte viele mit der Behauptung, der „geschlossene Kreislauf“ der AI‑Selbstentwicklung sei bereits aktiviert worden.

„Wir arbeiten nicht mehr in einem theoretischen Rahmen, in dem Menschen manuell an der Modellarchitektur iterieren“, sagte Amodei dem vollbesetzten Auditorium. „Wir sind in eine Phase eingetreten, in der Modelle ihren eigenen Code schreiben. Ich habe Ingenieure bei Anthropic, die offen sagen, sie schreiben keinen Code mehr; sie beaufsichtigen das Modell, während es den Code schreibt. Sobald man diesen Kreislauf schließt — wo KI bessere KI baut — komprimiert sich der Zeitplan drastisch.“

Amodei sagte voraus, dass Allgemeine Künstliche Intelligenz — von Anthropic definiert als ein System, das einen Nobelpreisträger in den meisten relevanten Aufgaben übertreffen kann — bereits 2027 oder 2028 eintreffen könnte. Sein Argument stützt sich auf die Beobachtung, dass zwar physische Einschränkungen (wie Chipfertigung und Energieinfrastruktur) bestehen bleiben, aber der intellektuelle Engpass im Algorithmus‑Design sich auflöst.

Die sozioökonomischen Implikationen von Amodeis Prognose waren ernüchternd. Er bekräftigte seine Warnung, dass bis zu 50 % der Einstiegsstellen im weißen Kragen‑Bereich, insbesondere in Datenanalyse und Programmierung, innerhalb der nächsten 12 bis 24 Monate verdrängt werden könnten. „Die Verdrängung von Junior‑Positionen ist kein zukünftiges Risiko; sie ist eine operative Realität, die wir heute im Silicon Valley sehen“, so seine Mahnung an die Entscheidungsträger, sich auf einen Arbeitsmarkt‑Schock vorzubereiten, der schneller voranschreitet als gesetzgeberische Zyklen.

Der wissenschaftliche Realist: Hassabis zur Kluft zwischen Physischem und Digitalem

Sir Demis Hassabis, CEO von Google DeepMind, bot eine Gegen-Narrative, die zwar optimistisch war, aber erhebliche Vorbehalte hinsichtlich der Definition von Intelligenz einbrachte. Während er den schnellen Fortschritt im „digitalen Bereich“ des Codierens und der Mathematik anerkannt, argumentierte Hassabis, dass der Sprung in den „physischen Bereich“ wissenschaftlicher Entdeckungen eine gewaltige Hürde bleibt, die Große Sprachmodelle allein nicht überwinden können.

„Es gibt einen tiefgreifenden Unterschied zwischen dem Lösen eines Mathematikproblems, bei dem die Regeln axiomatisch sind, und dem Erfinden einer neuen Hypothese in der Biologie, bei der die Regeln unordentlich, unvollständig und physisch sind“, erklärte Hassabis. Er hielt an einem konservativeren Zeitrahmen fest und schätzte eine 50‑%ige Chance, Allgemeine Künstliche Intelligenz innerhalb von fünf bis zehn Jahren zu erreichen — womit das Eintreffen näher an 2030 als an Amodeis 2027 läge.

Hassabis betonte, dass DeepMinds Strategie auf „Science First“-KI (Science First AI) ausgerichtet sei. Er wies auf jüngste Durchbrüche hin, bei denen Nachfolger von AlphaFold begonnen hätten, nicht nur Proteinstrukturen, sondern komplexe biologische Interaktionen zu modellieren, die zur Arzneimittelentdeckung führen. Er warnte jedoch davor, sprachliche Kompetenz mit wissenschaftlicher Kreativität zu verwechseln. „Die Frage überhaupt erst zu stellen — das ist der Funke allgemeiner Intelligenz. Wir sehen Maschinen, die Antworten brillant ausführen können, aber wir haben noch keine Maschine gesehen, die ein neuartiges wissenschaftliches Paradigma formuliert.“

Für Hassabis erfordert der Weg zur Allgemeine Künstliche Intelligenz die Integration der Schlussfähigkeiten von Großen Sprachmodellen mit Systemen, die in Simulation und Suche verankert sind — ein hybrider Ansatz, der über die nächste‑Token‑Vorhersage hinaus zu tatsächlicher Planung und Problemlösung im physischen Raum führt.

Die Herausforderung des Skeptikers: LeCuns Krieg gegen autoregressive Modelle

Wenn Amodei den Beschleuniger und Hassabis das Steuer repräsentierten, positionierte sich Yann LeCun, Chief AI Scientist bei Meta, als Bremse des Hype‑Zugs. LeCun hielt eine scharfe Kritik an der Branchenabhängigkeit von Großen Sprachmodellen und wiederholte seine kontroverse Haltung, dass „LLMs nicht zur AGI führen werden“.

LeCuns Argument konzentriert sich auf Dateneffizienz und Weltmodellierung. Er präsentierte eine vergleichende Analyse von menschlichem Lernen versus maschinellem Training, die die Vorstellung zerpflückte, mehr Textdaten gleichbedeutend mit mehr Intelligenz seien. „Ein vierjähriges Kind hat vielleicht 16.000 Stunden visuelle Daten gesehen und versteht Physik, Kausalität und Objektbeständigkeit besser als unsere größten Modelle“, sagte LeCun. „Vergleichen Sie das mit einem LLM, dem das Äquivalent von 400.000 Jahren menschlichen Lesestoffs gefüttert wurde und das dennoch grundlegende Fakten halluziniert, weil es keine Verankerung in der Realität hat.“

LeCun befürwortete seine „Gemeinsame Einbettungs‑Vorhersagearchitektur (Joint Embedding Predictive Architecture, JEPA)“ als notwendige Alternative. Er argumentierte, dass die KI, um menschliche Niveaus zu erreichen, sich von autoregressiver Textgenerierung (Vorhersage des nächsten Wortes) entfernen und hin zu Weltmodellen (World Models) bewegen müsse, die den Zustand der Welt in abstrakten Repräsentationen vorhersagen können.

„Text ist eine niederbandbreitige Projektion einer hochbandbreitigen Welt“, behauptete LeCun. „Wenn wir Modelle hauptsächlich auf Text trainieren, versuchen wir, einen Elefanten zu rekonstruieren, indem wir seinen Schatten betrachten. Man kann keine Maschine bauen, die im physischen Raum plant oder schlussfolgert, allein indem sie das nächste Token in einem Satz vorhersagt. Das ist eine mathematische Unmöglichkeit.“

Vergleichende Analyse der Führungs‑Perspektiven

Um das Ausmaß der Divergenz in Davos zu verstehen, ist es wichtig, die spezifischen Vorhersagen und technischen Wetten dieser drei Führungspersönlichkeiten zu betrachten. Die folgende Tabelle fasst ihre widersprüchlichen Standpunkte zusammen.

Table: The Davos 2026 AI Leadership Divide

Leader Organization Projected AGI Timeline Primary Technical Bottleneck Key Quote/Stance
Dario Amodei Anthropic (CEO) 2027-2028 (1-2 Years) Computing power and energy infrastructure; the software bottleneck is already breaking. "The 'closed loop' of AI self-evolution has begun. Engineers don't write code; they manage models that do."
Demis Hassabis Google DeepMind (CEO) 2030-2032 (5-10 Years) Transferring reasoning from digital axioms (math/code) to messy physical sciences. "Digital realms are crumbling fast, but scientific creativity and hypothesis generation remain elusive."
Yann LeCun Meta (Chief AI Scientist) >2035 (Skeptical of current path) The fundamental architecture of LLMs; lack of World Models and grounding. "LLMs are an off-ramp. A child learns physics from vision; models cannot learn it from text alone."

Die wirtschaftlichen und industriellen Folgen

Die Debatte in Davos geht weit über akademische Meinungsverschiedenheiten hinaus; sie bestimmt, wie Billionen Dollar Kapital derzeit eingesetzt werden. Wenn Amodei recht hat, steht die Weltwirtschaft nur Monate von einer „Software‑Singularität“ entfernt, in der die Kosten für Intelligenz gegen Null sinken — was sofortige Diskussionen über ein universelles Grundeinkommen (UBI) und radikale Unternehmensumstrukturierungen erfordern würde. Anthropics Fokus auf Unternehmenseinführung legt nahe, dass sie alles auf diese unmittelbar disruptive Fähigkeit setzen.

Wenn hingegen LeCun Recht behält, droht die derzeitige KI‑Blase — genährt von der Annahme, dass das Skalieren von Parametern gleichbedeutend mit dem Skalieren von Intelligenz ist — zu platzen. Unternehmen, die Milliarden in GPU‑Cluster für das Training von Großen Sprachmodellen investieren, könnten abnehmende Erträge feststellen und gezwungen sein, auf die radikal anderen Architekturen umzusteuern, die Meta erforscht. Dies würde den experimentelleren, fragmentierteren Ansatz der Open‑Source‑Gemeinschaft gegenüber dem monolithischen Modell‑Scaling von OpenAI und Anthropic bestätigen.

Hassabis bietet einen Mittelweg, der für die Davos‑Elite vielleicht am tragbarsten ist: eine stetige, hochriskante Evolution, bei der KI „Post‑Knappheits“‑Durchbrüche in Energie (Fusion) und Biologie (Langlebigkeit) freisetzt, bevor sie die menschliche Kognition vollständig ersetzt. Seine Vision stimmt mit Googles tiefer Integration von KI in Infrastruktur überein und deutet auf eine Zukunft hin, in der KI ein Werkzeug für wissenschaftlichen Wohlstand ist, anstatt nur ein Ersatz für weiße‑Kragen‑Arbeit.

Fazit: Der zerbrochene Konsens

Als die Delegierten das Kongresszentrum verließen, war der einst vereinigende Konsens der KI‑Gemeinschaft — dass „Skalierung alles ist, was man braucht“ — sichtbar zerbrochen. Die Davos‑Debatte von 2026 zeigte, dass das Ziel (Allgemeine Künstliche Intelligenz) zwar weiterhin geteilt wird, Fahrzeug und Karte jedoch heftig umstritten sind.

Für das Creati.ai‑Publikum ist die Schlussfolgerung klar: Die nächsten 12 Monate werden das Prüfgelände sein. Wenn Anthropics Modelle beginnen, autonom überlegene Software zu schreiben, wird Amodeis Zeitplan bestätigt sein. Wenn der Fortschritt ins Stocken gerät und Halluzinationen anhalten, wird LeCuns Ruf nach einer neuen Architektur lauter werden. Wir warten nicht länger darauf, dass die Zukunft der KI geschrieben wird; wir beobachten, wie sie in Echtzeit debattiert wird — mit dem Schicksal der Weltwirtschaft in der Waagschale.

Ausgewählt