AI News

Metas Superintelligence Labs stellt 'Avocado' und 'Mango' vor: Eine Wende zu autonomen Weltmodellen (World Models)

DAVOS — In einem entschiedenen Schritt, um seine Position an der Spitze der künstlichen Intelligenz (artificial intelligence) zurückzuerobern, hat Meta Platforms das Schweigen über die ersten größeren Ergebnisse seines geheimen Superintelligence Labs (MSL) gebrochen. Auf dem Weltwirtschaftsforum in Davos diese Woche erklärte CTO Andrew Bosworth, dass das Unternehmen intern bedeutende Durchbrüche mit zwei verschiedenen KI-Modellen erzielt hat: Project Avocado, ein Textmodell der nächsten Generation, optimiert für anspruchsvolles Schlussfolgern, und Project Mango, ein System für visuelle Intelligenz, das auf einer Weltmodell-Architektur basiert.

Diese Ankündigung markiert einen kritischen Wendepunkt für Meta. Nach der gemischten Resonanz auf Llama 4 Mitte 2025 führte CEO Mark Zuckerberg eine umfassende Reorganisation durch und gründete das Superintelligence Labs unter der Leitung von Alexandr Wang. Das Debüt von Avocado und Mango signalisiert, dass Metas aggressive Talentakquise und Infrastrukturinvestitionen endlich Früchte tragen, mit einer öffentlichen Veröffentlichung, die für Q1 2026 anvisiert ist.

Das Superintelligence-Mandat: Ein strategischer Richtungswechsel

Die Bildung der Meta Superintelligence Labs stellte einen grundlegenden Wandel in der KI-Philosophie des Unternehmens dar. Weg von der rein produktorientierten Integration früherer Llama-Iteration, erhielt MSL die einzige Aufgabe: Autonomie und tiefes Schlussfolgern zu erreichen.

Der in Davos vorgestellte Fahrplan deutet darauf hin, dass Meta sich nicht mehr damit zufriedengibt, lediglich Chatbots auf Instagram und WhatsApp anzutreiben. Stattdessen vollzieht das Unternehmen eine Hinwendung zu agentischen Systemen (agentic systems) — KI, die planen, schlussfolgern und komplexe Aufgaben über lange Zeiträume ausführen kann.

„Die Branche ist bei inkrementellem Skalieren an eine Wand gestoßen“, bemerkte Bosworth in seiner Rede. „Mit Avocado und Mango sagen wir nicht nur das nächste Token voraus; wir modellieren die zugrunde liegende Logik der physischen und digitalen Welten.“

Project Avocado: Beherrschung von Code und Logik

Project Avocado ist Metas direkte Antwort auf die wachsende Nachfrage nach KI-Fähigkeiten in der Softwareentwicklung und bei komplexen logischen Schlussfolgerungen. Anders als seine Vorgänger, die allgemeine Allzweck-Omni-Modelle waren, wurde Avocado speziell feinabgestimmt, um die „Reasoning-Lücke“ (reasoning gap) zu schließen, die frühere Open-Source-Modelle beeinträchtigte.

Über Musterabgleich hinaus

Interne Berichte legen nahe, dass Avocado eine neuartige Architektur nutzt, die die Chain-of-Thought-Verarbeitung (Chain of Thought, CoT) bereits auf der Ebene des Pre-Trainings priorisiert, statt sie nur während der Inferenz zu verwenden. Das ermöglicht dem Modell:

  • Code selbst korrigieren: Schwachstellen in Software-Schleifen erkennen und beheben, ohne menschliches Eingreifen.
  • Mehrstufige Planung: Komplexe logische Anfragen in ausführbare Unteraufgaben zerlegen, mit höherer Genauigkeit als Modelle der GPT-5-Klasse.
  • Kontextuelle Persistenz: Kohärente Logikströme über deutlich längere Kontextfenster aufrechterhalten, was für Enterprise-Anwendungen unerlässlich ist.

Indem Meta einen starken Fokus auf Programmierung und Logik legt, zielt das Unternehmen darauf ab, den Entwicklermarkt zu erobern, der sich zunehmend um Closed-Source-Proprietärmodelle konsolidiert hat.

Project Mango: Die Physik der visuellen Intelligenz

Während Avocado das Abstrakte behandelt, kümmert sich Project Mango um das Konkrete. Beschrieben als ein Weltmodell (World Model) statt eines einfachen Bildgenerators, ist Mango darauf ausgelegt, die Physik, Kausalität und zeitliche Kontinuität der physischen Welt zu verstehen.

Der Vorteil des 'Weltmodells'

Aktuelle generative Videomodelle kämpfen oft mit „Halluzinationen“, bei denen Objekte unrealistisch morphieren oder der Schwerkraft trotzen. Project Mango versucht, dies zu lösen, indem es die physikalischen Gesetzmäßigkeiten parallel zur Pixelgenerierung erlernt.

  • Zeitliche Konsistenz: Objekte in Mango-generierten Videos behalten über die Zeit ihre Form, Masse und Geschwindigkeit.
  • Interaktivität: Frühe Demos deuten auf die Fähigkeit hin, dass Benutzer mit generierten Szenen „interagieren“ können, Variablen (wie Beleuchtung oder Objektplatzierung) ändern, während das Modell das physikalische Ergebnis in Echtzeit neu berechnet.
  • Nativ multimodal: Mango ist nicht nur Text-zu-Video; es akzeptiert Videoeingaben, um zukünftige Frames zu analysieren und vorherzusagen und fungiert so effektiv als Simulator für reale Szenarien.

Vergleichende Analyse: Die neue Landschaft

Die Einführung dieser Modelle stellt Meta in direkte Konfrontation mit den aktuellen Branchenführern. Der folgende Vergleich hebt hervor, wie sich Avocado und Mango vom bestehenden Ökosystem unterscheiden.

Table 1: Competitive Landscape Analysis (Projected Specs)

Model / Project Primary Focus Key Differentiator Target Architecture
Meta Project Avocado Logik & Programmierung Tiefes Schlussfolgern & Selbstkorrektur CoT-integrierter Transformer
Meta Project Mango Visuelle Simulation Physikbasiertes "Weltmodell" Latente Diffusion + Physik-Engine
OpenAI o-Series Allgemeines Schlussfolgern Breite Wissensbasis Verstärkendes Lernen (Reinforcement Learning)
Google Gemini Ultra Multimodale Integration Native multimodale Verarbeitung Mixture-of-Experts (MoE)

Strategische Implikationen für die KI (AI)-Branche

Die Veröffentlichung von Avocado und Mango ist mehr als ein Produktlaunch; sie ist eine Bestätigung von Metas umstrittener „Jahr der Intensität“. Die Entscheidung, externe Führungspersönlichkeiten wie Alexandr Wang hinzuzuholen, und die massiven Kapitalaufwendungen für H200-Cluster scheinen nach dem Llama-4-Fehlschlag den Kurs korrigiert zu haben.

Die Open-Source-Frage

Eine kritische Frage bleibt unbeantwortet: Wird Meta Avocado und Mango als Open Source freigeben?
Historisch hat Meta offene Gewichte befürwortet. Allerdings könnten die fortgeschrittenen Fähigkeiten dieser Modelle — insbesondere Mangos Potenzial für realistische Simulationen und Avocados Fähigkeiten mit Blick auf cyber-offensive Anwendungen — eine Änderung der Strategie erzwingen. Bosworth deutete eine gestaffelte Veröffentlichung (tiered release) an, bei der die leistungsfähigsten Versionen dieser Modelle möglicherweise enterprise-Partnern vorbehalten oder unter strengeren Sicherheitslizenzen veröffentlicht werden.

Weg zur Veröffentlichung: Q1 2026 und darüber hinaus

Im Vorfeld der geplanten Veröffentlichung in Q1 2026 bereitet sich die Branche auf eine neue Wettbewerbswelle vor. Metas Wendung zu Weltmodellen und Reasoning-Agents deutet darauf hin, dass die nächste Schlacht um KI nicht nur darin bestehen wird, wer den besten Text oder das beste Bild generieren kann, sondern wer die genaueste Simulation der Realität bauen kann.

Development Timeline & Milestones

Phase Meilenstein Status Wichtige Ergebnisse
Phase 1 Internes Training Abgeschlossen Kernmodellarchitektur validiert; Nutzung eines >100k GPU-Clusters.
Phase 2 Red Teaming In Arbeit Sicherheitsabstimmung; adversarielle Tests auf Code-Schwachstellen.
Phase 3 Partner-Beta Q1 2026 (Geplant) API-Zugang für ausgewählte Unternehmenskunden; Integration in Ray-Ban Meta Smartglasses.
Phase 4 Öffentliche Veröffentlichung H1 2026 Open-Weights-Veröffentlichung (TBD) oder allgemeine API-Verfügbarkeit.

Für Entwickler und Unternehmen ist die Botschaft aus Davos klar: Meta ist zurück im Rennen, und diesmal bauen sie für eine Welt, in der KI nicht nur chattet — sie handelt.

Ausgewählt