AI News

Meta's Superintelligence Labs Unveils 'Avocado' and 'Mango' : A Pivot to Autonomous World Models

DAVOS — Dans une démarche décisive pour retrouver sa place à la pointe de l'intelligence artificielle, Meta Platforms a rompu son silence au sujet des premiers résultats majeurs issus de son secret Superintelligence Labs (MSL). Lors du Forum économique mondial de Davos cette semaine, le CTO Andrew Bosworth a révélé que la société a réalisé des percées internes significatives avec deux modèles d'IA distincts : Project Avocado, un modèle de texte de nouvelle génération optimisé pour le raisonnement de haut niveau, et Project Mango, un système d'intelligence visuelle construit sur une architecture de « modèle du monde (world model) » (world model).

Cette annonce marque un tournant critique pour Meta. Après l'accueil mitigé de Llama 4 à la mi-2025, le PDG Mark Zuckerberg a procédé à une vaste réorganisation, créant les Superintelligence Labs sous la direction d'Alexandr Wang. Le lancement d'Avocado et Mango indique que l'acquisition agressive de talents et les investissements d'infrastructure de Meta commencent enfin à porter leurs fruits, avec une sortie publique prévue pour le premier trimestre 2026.

The Superintelligence Mandate : A Strategic Pivot

La formation de Meta Superintelligence Labs a représenté un changement fondamental dans la philosophie IA de l'entreprise. S'éloignant de l'intégration purement axée produit des itérations précédentes de Llama, MSL s'est vu confier un objectif unique : atteindre l'autonomie et le raisonnement profond.

La feuille de route dévoilée à Davos suggère que Meta ne se contente plus d'alimenter des chatbots sur Instagram et WhatsApp. Au lieu de cela, l'entreprise opère un virage vers des systèmes « agentic » (agentic systems) — des IA capables de planifier, raisonner et exécuter des tâches complexes sur de longs horizons.

« L'industrie a heurté un mur avec l'augmentation incrémentale des capacités », a noté Bosworth lors de son intervention. « Avec Avocado et Mango, nous ne nous contentons pas de prédire le token suivant ; nous modélisons la logique sous-jacente des mondes physique et numérique. »

Project Avocado : Mastering Code and Logic

Project Avocado représente la réponse directe de Meta à la demande croissante de capacités d'IA pour le développement logiciel et la déduction logique complexe. Contrairement à ses prédécesseurs, qui étaient des modèles omni-usage, Avocado a été affiné spécifiquement pour combler le « fossé du raisonnement » qui affectait les modèles open-source antérieurs.

Beyond Pattern Matching

Les rapports internes suggèrent qu'Avocado utilise une architecture novatrice qui privilégie le traitement en chaîne de raisonnement (Chain of Thought, CoT) (chaîne de raisonnement) au niveau du pré-entraînement, plutôt que seulement lors de l'inférence. Cela permet au modèle de :

  • Auto-corriger le code : Identifier et corriger des vulnérabilités dans des boucles logicielles sans intervention humaine.
  • Planification en plusieurs étapes : Décomposer des requêtes logiques complexes en sous-tâches exécutables avec une fidélité supérieure aux modèles de la classe GPT-5.
  • Persistance contextuelle : Maintenir des flux logiques cohérents sur des fenêtres de contexte significativement plus longues, essentiel pour des applications de niveau entreprise.

En se concentrant fortement sur le codage et la logique, Meta vise à capter le marché des développeurs qui s'est de plus en plus consolidé autour de modèles propriétaires à code fermé.

Project Mango : The Physics of Visual Intelligence

Tandis qu'Avocado traite de l'abstrait, Project Mango gère le concret. Décrit comme un « modèle du monde (world model) » (world model) plutôt qu'un simple générateur d'images, Mango est conçu pour comprendre la physique, la causalité et la continuité temporelle du monde physique.

The 'World Model' Advantage

Les modèles génératifs vidéo actuels peinent souvent avec des « hallucinations » où des objets se transforment de manière irréaliste ou défient la gravité. Project Mango tente de résoudre cela en apprenant les lois de la physique parallèlement à la génération de pixels.

  • Cohérence temporelle : Les objets dans les vidéos générées par Mango conservent leur forme, leur masse et leur vitesse au fil du temps.
  • Interactivité : Les premières démonstrations laissent entrevoir la possibilité pour les utilisateurs « d'interagir » avec des scènes générées, en changeant des variables (comme l'éclairage ou le placement d'objets) pendant que le modèle recalcule en temps réel l'issue physique.
  • Multimodal natif : Mango n'est pas seulement texte→vidéo ; il accepte des entrées vidéo pour analyser et prédire les images futures, agissant efficacement comme un simulateur pour des scénarios du monde réel.

Comparative Analysis : The New Landscape

L'introduction de ces modèles place Meta en confrontation directe avec les leaders actuels de l'industrie. La comparaison suivante met en évidence comment Avocado et Mango se distinguent de l'écosystème existant.

Table 1: Competitive Landscape Analysis (Projected Specs)

Model / Project Primary Focus Key Differentiator Target Architecture
Meta Project Avocado Logic & Coding Deep reasoning & self-correction CoT-Integrated Transformer
Meta Project Mango Visual Simulation Physics-based "World Model" Latent Diffusion + Physics Engine
OpenAI o-Series General Reasoning Broad knowledge base Reinforcement Learning
Google Gemini Ultra Multimodal Integration Native multimodal processing Mixture-of-Experts (MoE)

Strategic Implications for the AI Industry

La sortie d'Avocado et Mango est plus qu'un lancement de produit ; c'est une validation de l'« année d'intensité » controversée de Meta. La décision d'amener une direction externe comme Alexandr Wang et les dépenses massives pour des clusters H200 semblent avoir corrigé la trajectoire après le faux pas de Llama 4.

The Open Source Question

Une question critique reste sans réponse : Meta ouvrira-t-elle Avocado et Mango en open source ?
Historiquement, Meta a défendu les poids ouverts. Cependant, les capacités avancées de ces modèles — en particulier le potentiel de Mango pour la simulation réaliste et les capacités cyber-offensives d'Avocado — pourraient forcer un changement de stratégie. Bosworth a évoqué une « publication par niveaux », réservant potentiellement les versions les plus performantes de ces modèles pour des partenaires d'entreprise ou les publiant sous des licences de sécurité plus strictes.

Road to Release : Q1 2026 and Beyond

À l'approche de la sortie prévue au premier trimestre 2026, l'industrie se prépare à une nouvelle vague de concurrence. Le virage de Meta vers les « World Models » (modèles du monde) et les « Reasoning Agents » (agents de raisonnement) suggère que le prochain champ de bataille de l'IA ne concernera pas seulement qui peut générer le meilleur texte ou la meilleure image, mais qui peut construire la simulation de la réalité la plus précise.

Development Timeline & Milestones

Phase Milestone Status Key Deliverables
Phase 1 Internal Training Completed Core model architecture validated; 100k+ GPU cluster utilization.
Phase 2 Red Teaming In Progress Safety alignment; Adversarial testing for coding vulnerabilities.
Phase 3 Partner Beta Q1 2026 (Planned) API access for select enterprise partners; Integration into Ray-Ban Meta smart glasses.
Phase 4 Public Release H1 2026 Open weight release (TBD) or general API availability.

Pour les développeurs et les entreprises, le message venu de Davos est clair : Meta est de retour dans la course, et cette fois, ils construisent pour un monde où l'IA ne se contente pas de converser — elle agit.

Vedettes