AI News

KI-Pionier Yann LeCun verlässt Meta und nennt Große Sprachmodelle (Large Language Models, LLMs) eine „Sackgasse“

In einem seismischen Wandel für die Landschaft der künstlichen Intelligenz hat Yann LeCun, Turing-Preis‑Preisträger und einer der „Godfathers of AI“, seine Verbindungen zu Meta gekappt. Der Abgang markiert das Ende einer zehnjährigen Ära, in der LeCun das Fundamental AI Research (FAIR)‑Lab leitete und die wissenschaftlichen Ambitionen des Social‑Media‑Konzerns steuerte. Sein Ausstieg ist nicht nur ein Personalwechsel, sondern ein lauter ideologischer Protest gegen die einseitige Besessenheit der Branche von Großen Sprachmodellen, einer Technologie, die er nun berühmt als „Abzweig“ auf der Autobahn zur wahren Maschinenintelligenz bezeichnet.

LeCuns Rücktritt erfolgt vor dem Hintergrund von Berichten über interne Turbulenzen bei Meta nach der kontroversen Veröffentlichung von Llama 4 und der aggressiven Ausrichtung des Unternehmens auf produktorientierte generative KI (Generative AI). Er hat die Gründung eines neuen Unternehmens angekündigt, Advanced Machine Intelligence (AMI) Labs, das generative Textmodelle vollständig umgehen und stattdessen auf „Weltmodelle“ setzen wird—Systeme, die aus der physischen Umgebung und nicht aus Internettexten lernen sollen.

Die große Divergenz: Physik vs. Syntax

Seit Jahren ist LeCun ein scharfer Kritiker der Auffassung, dass schlichtes Hochskalieren autoregressiver LLMs (wie GPT-4 oder Llama) zur Allgemeinen Künstlichen Intelligenz (Artificial General Intelligence, AGI) führen würde. Sein Weggang kristallisiert diese Debatte. LeCun argumentiert, dass Große Sprachmodelle grundsätzliche Beschränkungen haben, weil sie Sprache manipulieren, ohne die zugrunde liegende Realität zu verstehen, die sie beschreibt.

„Ein LLM erzeugt ein Token nach dem anderen, aber es versteht die Welt nicht“, sagte LeCun in einem jüngsten Interview, in dem er seine Entscheidung erläuterte. „Ihnen fehlt gesunder Menschenverstand und kausale Zusammenhänge. Sie sind nur ein Stapel statistischer Korrelationen.“

Er verwendet häufig das „Katzen-Argument“, um diese Einschränkung zu veranschaulichen: Eine Hauskatze besitzt ein weitaus überlegeneres Verständnis der physischen Welt—Schwerkraft, Objektpermanenz, Momentum—als das größte LLM, obwohl sie nur einen Bruchteil der neuronalen Verbindungen hat. Während ein LLM ein Gedicht über eine fallende Tasse schreiben kann, kann es nicht instinktiv die physischen Folgen vorhersagen, wenn man diese Tasse vom Tisch stößt, ohne diese spezifische textuelle Beschreibung tausendfach gesehen zu haben.

Die folgende Tabelle skizziert die grundlegenden architektonischen Unterschiede, die LeCuns Bruch mit dem aktuellen Branchenstandard antreiben:

Feature Große Sprachmodelle (Large Language Models, LLMs) Weltmodelle (World Models) (JEPA/AMI)
Kernmechanismus Autoregressive Vorhersage des nächsten Tokens Joint Embedding Predictive Architecture
Trainingsdaten Text und 2D‑Bilder (Internetdaten) Video, räumliche Daten, Sensoreingaben
Art des Schlussfolgerns Wahrscheinlichkeits-/statistische Korrelation Kausale Inferenz und physikalische Simulation
Speicher Kontextfenster (begrenzte Token‑Anzahl) Persistenter Zustandspeicher
Ziel Plausiblen Text/Bild generieren Zukünftige Zustände der Realität vorhersagen

Interner Konflikt: Die Llama‑4‑Kontroverse und neue Führung

Die Spannungen, die zu LeCuns Abgang führten, waren nicht rein akademischer Natur. Quellen nahe bei Meta geben an, dass das Verhältnis zwischen LeCun und CEO Mark Zuckerberg zunehmend angespannt wurde, als das Unternehmen die „LLM‑Kriege“ weiter eskalierte.

Der Wendepunkt soll offenbar bei der Entwicklung und Veröffentlichung von Llama 4 erreicht worden sein. Ende 2025 tauchten Berichte auf, wonach die Benchmark‑Ergebnisse des Modells „geschönt“ wurden, um wettbewerbsfähig mit Rivalen wie OpenAI und Google zu bleiben. LeCun, ein entschiedener Verfechter wissenschaftlicher Strenge und offener Forschung, empfand diesem Berichten zufolge diesen kommerziellen Druck als unvereinbar mit der Mission von FAIR.

Darüber hinaus stellte die Umstrukturierung bei Meta den 65‑jährigen Wissenschaftler unter die Leitung von Alexandr Wang, dem jungen Gründer von Scale AI, der eingestellt wurde, um Metas neue produktzentrierte „Superintelligence“‑Division zu leiten. Wangs Ernennung, gekoppelt mit einem Mandat, kommerzielle generative Produkte über langfristige explorative Forschung zu priorisieren, signalisierte für LeCun, dass seine Vision für KI nicht länger die Priorität des Unternehmens sei.

„Mark war wirklich sauer und hat im Grunde die gesamte GenAI‑Organisation an den Rand gedrängt“, bemerkte LeCun im Hinblick auf die internen Konsequenzen und fügte hinzu, dass das Unternehmen „vollständig auf LLMs gepolt“ geworden sei.

(Note: The previous paragraph contained "GenAI" in the original; according to the translation rules, it has been rendered as "GenAI‑Organisation" to reflect the original term while fitting German syntax.)

AMI Labs: Eine neue Wette auf „Weltmodelle“

LeCun geht nicht in den Ruhestand. Er hat sofort Advanced Machine Intelligence (AMI) Labs gegründet, ein Startup, das in frühen Gesprächen mit etwa 3,5 Milliarden Dollar bewertet wurde. Das Unternehmen wirbt aggressiv Forscher an, die die Vision teilen, dass der Weg zur AGI in Gemeinsamen Einbettungs‑Vorhersagearchitekturen (Joint Embedding Predictive Architectures, JEPA) liegt.

Im Gegensatz zur Generativen KI, die versucht, jedes Pixel oder Wort zu rekonstruieren (ein rechenintensiver und zu Halluzinationen neigender Prozess), sagen JEPA‑Modelle abstrakte Repräsentationen der Welt voraus. Sie filtern unvorhersehbares Rauschen heraus (wie die Bewegung von Blättern an einem Baum), um sich auf folgenreiche Ereignisse zu konzentrieren (wie ein Auto, das auf einen Fußgänger zufährt).

AMI Labs hat Alex LeBrun, Mitgründer des Health‑Tech‑Startups Nabla, als CEO verpflichtet. Die Wahl signalisiert einen praktischen Fokus für das neue Labor, wobei das Gesundheitswesen als ein primärer Sektor identifiziert wurde, in dem die hohe Zuverlässigkeit und das kausale Denken von Weltmodellen kritisch sind.

Reaktionen der Branche und der Weg nach vorn

Die Reaktion in der KI‑Branche fiel polarisiert aus. Befürworter der Skalierungsgesetze argumentieren, dass LeCun gegen ein siegreiches Pferd wettet, und verweisen auf den immensen wirtschaftlichen Wert, den LLMs bereits geschaffen haben. Viele in der Robotik‑ und Wissenschaftsgemeinde jedoch haben sich hinter ihn gestellt und bestätigen die Ansicht, dass die Textvorhersage einen Punkt abnehmender Erträge erreicht hat.

Wenn LeCun Recht hat, könnte die derzeitige Billionen-Dollar‑Investition in die Infrastruktur der generativen KI eine massive Fehlinvestition sein—eine „Sackgasse“, die flüssige Chatbots produziert, aber keine Systeme liefert, die planen, schlussfolgern oder sich in der physischen Welt orientieren können.

Während Creati.ai diese Spaltung weiter beobachtet, ist eines klar: Der Konsens darüber, wie man eine denkende Maschine baut, ist zerbrochen. Die Branche marschiert nicht mehr geschlossen; sie hat sich in zwei unterschiedliche Lager geteilt, wobei der „Godfather of AI“ die Rebellion gegen die Technologie anführt, die er einst berühmt gemacht hat.

Ausgewählt