AI News

Le PDG de DeepMind remet en question la stratégie d'OpenAI et plaide pour « Modèles du monde » (World Models)

Dans un moment déterminant pour l'industrie de l'intelligence artificielle, le PDG de Google DeepMind, Demis Hassabis, a publiquement remis en cause la domination actuelle des grands modèles de langage (Large Language Models, LLMs), soutenant que la voie privilégiée par des concurrents comme OpenAI est insuffisante pour atteindre une véritable Intelligence Artificielle Générale (AGI, Artificial General Intelligence). S'exprimant dans le podcast "The Tech Download" de CNBC le 19 janvier 2026, Hassabis a défini un pivot stratégique vers les « Modèles du monde » (World Models), des systèmes capables de simuler la réalité physique et de comprendre la causalité, plutôt que de se contenter de prédire du texte sur la base de corrélations statistiques.

Cette critique marque une divergence significative dans les feuilles de route philosophiques et techniques des principaux laboratoires d'IA mondiaux. Alors qu'OpenAI, dirigé par Sam Altman, a historiquement misé sur les lois d'échelle — l'idée que l'augmentation du calcul et du volume de données mène inévitablement à une intelligence supérieure — Hassabis suggère que cette approche a heurté un « mur fondamental » en matière d'invention scientifique et de raisonnement à partir des premiers principes.

La limitation de la mise à l'échelle basée sur le texte

Le cœur de l'argument de Hassabis repose sur la distinction entre traitement de l'information et compréhension physique. Les grands modèles de langage (LLMs) excellent à analyser d'immenses quantités de texte généré par des humains pour en extraire des motifs. Cependant, Hassabis affirme que ces modèles « ne comprennent pas vraiment la causalité ». Ils peuvent décrire une pomme qui tombe à partir de descriptions présentes dans leurs données d'entraînement, mais ils ne peuvent pas simuler la physique de la gravité dans un environnement inédit pour prédire un résultat qu'ils n'ont jamais vu auparavant.

« Les grands modèles de langage d'aujourd'hui sont phénoménaux pour la reconnaissance de motifs, » a déclaré Hassabis lors de l'interview. « Mais ils ne savent pas vraiment pourquoi A mène à B. Ils prédisent juste le token suivant. »

Pour les lecteurs de Creati.ai, cette distinction est cruciale. Elle implique que, bien que les grands modèles de langage continueront de s'améliorer comme interfaces conversationnelles et assistants de codage, ils pourraient rester incapables des percées de l'échelle AlphaGo nécessaires pour résoudre des problèmes scientifiques complexes, comme la découverte de nouveaux matériaux ou la guérison de maladies. Hassabis estime que l'AGI est encore à 5 à 10 ans et nécessitera des architectures dépassant le paradigme basé sur les Transformers.

Définir le « Modèle du monde »

La vision alternative de DeepMind se concentre sur la création d'une IA qui construit une représentation interne du monde physique. Ces « Modèles du monde » fonctionnent moins comme une bibliothèque et davantage comme un moteur de jeu. Ils peuvent mener des « expériences de pensée », simuler des résultats en espace 3D et tester des hypothèses contre un ensemble cohérent de lois physiques.

DeepMind a déjà commencé à démontrer la viabilité de cette approche. Hassabis a cité Genie 3, un système publié en août 2025, qui génère des environnements 3D interactifs à partir d'invites textuelles, et SIMA 2, qui entraîne des agents d'IA à naviguer et effectuer des tâches dans ces mondes simulés. Les premières recherches suggèrent que ces systèmes hybrides — combinant compréhension du langage et raisonnement spatial — surpassent les seuls grands modèles de langage de 20 à 30 % sur des tâches de raisonnement complexes et réduisent significativement les hallucinations concernant la physique de base.

Divergence stratégique : Google vs. OpenAI

Le calendrier de ces commentaires n'est pas fortuit. L'industrie de l'IA traverse actuellement une période de forte volatilité. À la suite du lancement de Gemini 3 par Google fin 2025, des rapports ont fait état d'un « Code Red » interne chez OpenAI, motivé par des inquiétudes selon lesquelles leur stratégie d'échelle produisait des rendements décroissants. En articulant publiquement les limites de la voie centrée sur les seuls LLMs, Hassabis positionne Google non seulement comme un concurrent, mais comme le pionnier du prochain saut architectural en IA.

Ce changement est à la fois opérationnel et philosophique. Hassabis a révélé qu'il est désormais en contact quotidien avec le PDG d'Alphabet, Sundar Pichai, un changement qui souligne le statut élevé de DeepMind comme unique « salle des machines » (engine room) des efforts en IA de Google. Cette structure rationalisée vise à accélérer la traduction des percées de recherche en produits grand public, en réponse directe aux critiques selon lesquelles Google avait précédemment évolué trop lentement.

Le contexte géopolitique : la Chine comble l'écart

Au-delà du débat technique, Hassabis a offert une évaluation sobre du paysage mondial de l'IA. Interrogé sur la concurrence internationale, il a noté que les modèles d'IA chinois réduisent rapidement l'écart de performance avec leurs homologues occidentaux.

« C'est une question de mois, pas d'années, » a déclaré Hassabis à propos du retard entre les modèles de pointe américains et chinois. Il a cité les progrès rapides d'entreprises comme Alibaba et de startups telles que Moonshot AI. Cependant, il a introduit une nuance : alors que les laboratoires chinois excellent dans le suivi rapide et l'excellence en ingénierie, Hassabis s'interroge sur le fait que l'écosystème actuel en Chine favorise l'état d'esprit spécifique nécessaire aux percées scientifiques de zéro à un (zero-to-one), comme l'invention originale de l'architecture Transformer par des chercheurs de Google.

Analyse comparative : LLMs vs. Modèles du monde

Pour comprendre les enjeux de ce débat architectural, il est utile de contraster les capacités et les limites des deux approches dominantes en lice pour les ressources.

Comparison of Large Language Models and World Models

Feature Grands modèles de langage (Large Language Models, LLMs) Modèles du monde (World Models)
Core Mechanism Reconnaissance de motifs statistiques et prédiction de tokens Simulation de la réalité physique et causalité
Primary Data Source Texte, code et images statiques provenant d'internet Environnements 3D, moteurs physiques et données vidéo
Reasoning Capability Corrélatif (logique associative) Causal (raisonnement à partir des premiers principes)
Key Limitation Hallucinations et manque de conscience spatiale Coût computationnel élevé pour la simulation en temps réel
Ideal Use Case Écriture créative, codage, résumé Robotique, découverte scientifique, agents autonomes
Example Systems GPT-4, Claude 3, Llama 3 Genie 3, SIMA 2, AlphaFold

Implications pour l'industrie de l'IA

La défense par Hassabis des Modèles du monde signale une tendance industrielle plus large vers des systèmes d'IA « neuro-symboliques » (neuro-symbolic) ou hybrides. Pour les développeurs et les responsables d'entreprise, cela suggère que l'ère de la simple dépendance à l'ingénierie de prompts (prompt engineering) pour des modèles textuels pourrait céder la place à une phase où l'informatique spatiale (spatial computing) et la simulation deviennent des composantes critiques de la pile d'IA.

Si l'hypothèse de DeepMind s'avère correcte, la prochaine génération d'IA ne se contentera pas d'en parler — elle pourra la parcourir. Cette capacité est essentielle pour débloquer l'économie physique, notamment la robotique avancée et l'expérimentation scientifique autonome. Alors qu'OpenAI continue d'affiner le « cerveau » de l'IA via le langage, DeepMind semble concentré sur le fait de donner un corps et un monde à ce cerveau.

Au fil de 2026, l'industrie devrait probablement assister à une bifurcation du développement des modèles : une voie optimisée pour la fluidité linguistique et une autre pour l'intelligence physique. Pour Creati.ai, nous suivrons de près la manière dont ces Modèles du monde s'intègrent aux outils génératifs existants, potentiellement en créant une nouvelle classe d'applications qui fusionnent génération créative et précision scientifique.

Vedettes