
Dans un bouleversement sismique pour le paysage de l'intelligence artificielle, Yann LeCun, lauréat du prix Turing et l'un des « parrains de l'IA », a rompu ses liens avec Meta. Ce départ marque la fin d'une décennie durant laquelle LeCun dirigeait le laboratoire Fundamental AI Research (FAIR), guidant les ambitions scientifiques du géant des réseaux sociaux. Sa sortie n'est pas simplement un changement de personnel, mais une protestation idéologique forte contre l'obsession singulière de l'industrie pour les grands modèles de langage, une technologie qu'il qualifie désormais famousement d'« impasse » sur l'autoroute menant à la vraie intelligence machine.
La démission de LeCun intervient au milieu de rapports faisant état de turbulences internes chez Meta après la sortie controversée de Llama 4 et le virage agressif de l'entreprise vers des produits centrés sur IA générative (generative AI). Il a annoncé la création d'une nouvelle entreprise, Advanced Machine Intelligence (AMI) Labs, qui contournera entièrement les modèles de texte génératifs au profit des « modèles du monde »—systèmes conçus pour apprendre à partir de l'environnement physique plutôt qu'à partir du texte Internet.
Pendant des années, LeCun a été un critique virulent de la croyance selon laquelle le simple fait d'augmenter l'échelle des grands modèles de langage autoregressifs (comme GPT-4 ou Llama) conduirait à une intelligence générale artificielle (AGI). Son départ cristallise ce débat. LeCun soutient que les grands modèles de langage sont fondamentalement limités parce qu'ils manipulent le langage sans comprendre la réalité sous-jacente qu'il décrit.
« Un grand modèle de langage produit un jeton après l'autre, mais il ne comprend pas le monde, » a déclaré LeCun dans une récente interview détaillant sa décision. « Ils manquent de bon sens et de relations causales. Ce ne sont qu'une pile de corrélations statistiques. »
Il utilise fréquemment « l'argument du chat » pour illustrer cette limitation : un chat domestique possède une compréhension du monde physique—la gravité, la permanence des objets, la quantité de mouvement—bien supérieure à celle du plus grand modèle de langage, malgré un nombre de connexions neuronales infinitésimal en comparaison. Tandis qu'un grand modèle de langage peut écrire un poème sur une tasse qui tombe, il ne peut pas instinctivement prédire les conséquences physiques de pousser cette tasse d'une table sans avoir vu cette description textuelle spécifique des milliers de fois.
Le tableau suivant expose les différences architecturales fondamentales qui ont motivé la rupture de LeCun avec la norme industrielle actuelle :
| Feature | Grands modèles de langage | Modèles du monde (JEPA/AMI) |
|---|---|---|
| Core Mechanism | Prédiction autoregressive du jeton suivant | Architecture prédictive à embeddings conjoints |
| Training Data | Texte et images 2D (données Internet) | Vidéo, données spatiales, entrées capteurs |
| Reasoning Type | Corrélation probabiliste/statistique | Inférence causale et simulation physique |
| Memory | Fenêtre de contexte (nombre de jetons limité) | Mémoire d'état persistante |
| Goal | Générer du texte/image plausible | Prédire les états futurs de la réalité |
Les frictions ayant conduit au départ de LeCun n'étaient pas purement académiques. Des sources proches de Meta indiquent que la relation entre LeCun et le PDG Mark Zuckerberg s'est détériorée au fur et à mesure que l'entreprise s'engageait davantage dans les « guerres des grands modèles de langage ».
Le point de rupture serait survenu avec le développement et la sortie de Llama 4. Des rapports apparus fin 2025 suggéraient que les résultats de référence du modèle avaient été « bidonnés » pour rester compétitifs face à des rivaux comme OpenAI et Google. LeCun, défenseur intransigeant de la rigueur scientifique et de la recherche ouverte, aurait trouvé cette pression commerciale incompatible avec la mission de FAIR.
De plus, la restructuration de Meta a placé le scientifique de 65 ans sous la direction d'Alexandr Wang, le jeune fondateur de Scale AI, qui a été engagé pour diriger la nouvelle division « Superintelligence » axée sur les produits. La nomination de Wang, couplée à un mandat visant à prioriser des produits génératifs commerciaux au détriment de la recherche exploratoire à long terme, a signalé à LeCun que sa vision de l'IA n'était plus la priorité de l'entreprise.
« Mark était vraiment furieux et a en gros marginalisé toute l'organisation dédiée à l'IA générative, » a remarqué LeCun, ajoutant que l'entreprise était devenue « complètement accro aux grands modèles de langage. »
LeCun ne prend pas sa retraite. Il a immédiatement lancé Advanced Machine Intelligence (AMI) Labs, une startup valorisée à environ 3,5 milliards de dollars lors de premiers échanges. L'entreprise recrute agressivement des chercheurs partageant la conviction que la voie vers l'AGI passe par les Architectures prédictives à embeddings conjoints (Joint Embedding Predictive Architectures, JEPA).
À la différence de l'IA générative, qui tente de reconstruire chaque pixel ou chaque mot (un processus coûteux en calcul et sujet aux hallucinations), les modèles JEPA prédisent des représentations abstraites du monde. Ils filtrent le bruit imprévisible (comme le mouvement des feuilles d'un arbre) pour se concentrer sur les événements conséquents (comme une voiture se dirigeant vers un piéton).
AMI Labs a choisi Alex LeBrun, cofondateur de la startup de santé Nabla, comme PDG. Ce choix indique une orientation pratique pour le nouveau laboratoire, le secteur de la santé étant identifié comme un domaine prioritaire où la haute fiabilité et le raisonnement causal des modèles du monde sont cruciaux.
La réaction dans le secteur de l'IA a été polarisée. Les partisans des lois d'échelle soutiennent que LeCun mise contre un cheval gagnant, en pointant la valeur économique immense déjà générée par les grands modèles de langage. Cependant, de nombreux chercheurs en robotique et dans les communautés scientifiques se sont ralliés à lui, validant l'idée que la prédiction de texte a atteint un point de rendement décroissant.
Si LeCun a raison, l'investissement actuel de plusieurs milliers de milliards de dollars dans l'infrastructure de l'IA générative pourrait être une énorme mauvaise allocation de ressources—une « impasse » qui produit des chatbots fluides mais échoue à livrer des systèmes capables de planifier, raisonner ou naviguer dans le monde physique.
Alors que Creati.ai continue de suivre cette scission, une chose est claire : le consensus sur la manière de construire une machine pensante s'est fissuré. L'industrie ne marche plus en rangs serrés ; elle s'est scindée en deux camps distincts, avec le « parrain de l'IA » à la tête de la rébellion contre la technologie qu'il a contribué à populariser.