
Davos, Suisse — Les sommets enneigés de Davos servent depuis longtemps de décor aux discussions économiques les plus décisives du monde, mais au Forum économique mondial 2026, la température à l'intérieur du Centre des congrès était nettement plus élevée que l'air glacial extérieur. Lors d'un moment déterminant pour l'industrie de l'intelligence artificielle, trois de ses figures les plus en vue — Demis Hassabis de DeepMind, Dario Amodei d'Anthropic et Yann LeCun de Meta — ont présenté des feuilles de route radicalement divergentes pour l'avenir de l'intelligence artificielle générale (Artificial General Intelligence, AGI), révélant une fracture idéologique et technique qui se creuse aux plus hauts niveaux de la recherche en IA.
La session, surnommée par les participants « The Day After AGI », est sortie des platitudes théoriques des années précédentes. Elle a mis au grand jour un conflit net entre ceux qui croient que l'AGI est une fatalité imminente portée par les lois d'échelle et ceux qui soutiennent que l'architecture dominante actuelle — les grands modèles de langage (Large Language Models, LLMs) — constitue une impasse fondamentale sur le chemin de la véritable intelligence.
Dario Amodei, CEO d'Anthropic, a ouvert le débat avec le calendrier le plus agressif, déclarant effectivement que l'ère de l'ingénierie logicielle conduite par les humains touche à sa fin. Amodei, dont la société est à la pointe de la sécurité et de la contrôlabilité de l'IA, en a surpris plus d'un en suggérant que le « closed loop » d'auto-évolution de l'IA avait déjà été activé.
« Nous n'opérons plus dans un cadre théorique où les humains itèrent manuellement sur l'architecture des modèles, » a déclaré Amodei à l'auditorium comble. « Nous sommes entrés dans une phase où les modèles écrivent leur propre code. J'ai des ingénieurs chez Anthropic qui, franchement, disent qu'ils n'écrivent plus de code ; ils supervisent le modèle pendant qu'il écrit le code. Une fois que vous refermez cette boucle — où l'IA construit une meilleure IA — le calendrier se compresse drastiquement. »
Amodei a prédit que l'AGI — définie par Anthropic comme un système capable de surpasser un lauréat du Nobel sur la plupart des tâches pertinentes — pourrait arriver dès 2027 ou 2028. Son argument repose sur l'observation que, bien que des contraintes physiques (comme la fabrication de puces et l'infrastructure énergétique) subsistent, le goulot d'étranglement intellectuel de la conception d'algorithmes se dissout.
Les implications socio-économiques des prévisions d'Amodei étaient glaçantes. Il a réitéré son avertissement selon lequel jusqu'à 50 % des tâches de bureau d'entrée de gamme, en particulier en analyse de données et en codage, pourraient être déplacées dans les 12 à 24 prochains mois. « Le remplacement des postes juniors n'est pas un risque futur ; c'est une réalité opérationnelle que nous observons aujourd'hui dans la Silicon Valley, » a-t-il noté, appelant les responsables politiques à se préparer à un choc du marché du travail qui se déplace plus vite que les cycles législatifs.
Sir Demis Hassabis, CEO de Google DeepMind, a offert une contre-narration qui, tout en étant optimiste, a introduit des réserves significatives concernant la définition de l'intelligence. Tout en reconnaissant les progrès rapides dans le « domaine numérique » du codage et des mathématiques, Hassabis a soutenu que le saut vers le « domaine physique » de la découverte scientifique reste un obstacle redoutable que les LLMs seuls ne peuvent franchir.
« Il y a une différence profonde entre résoudre un problème de mathématiques où les règles sont axiomatiques et inventer une nouvelle hypothèse en biologie où les règles sont désordonnées, incomplètes et physiques, » a argumenté Hassabis. Il a maintenu un calendrier plus conservateur, estimant une probabilité de 50 % d'atteindre l'AGI dans cinq à dix ans — plaçant l'arrivée plutôt vers 2030 que vers 2027 avancé par Amodei.
Hassabis a souligné que la stratégie de DeepMind se concentre sur une IA « Science d'abord ». Il a évoqué des percées récentes où les successeurs d'AlphaFold ont commencé à modéliser non seulement les structures protéiques mais aussi des interactions biologiques complexes conduisant à la découverte de médicaments. Cependant, il a mis en garde contre la confusion entre compétence linguistique et créativité scientifique. « Trouver la question en premier lieu — voilà l'étincelle de l'intelligence générale. Nous voyons des machines capables d'exécuter des réponses avec brio, mais nous n'avons pas encore vu une machine capable de formuler un paradigme scientifique nouveau. »
Pour Hassabis, la voie vers l'AGI exige d'intégrer les capacités de raisonnement des LLMs avec des systèmes ancrés dans la simulation et la recherche — une approche hybride qui dépasse la simple prédiction du prochain jeton pour atteindre une véritable planification et résolution de problèmes dans l'espace physique.
Si Amodei représentait l'accélérateur et Hassabis le volant, Yann LeCun, Chief AI Scientist de Meta, s'est positionné comme le frein du train médiatique. LeCun a livré une critique cinglante de la dépendance de l'industrie aux grands modèles de langage, réitérant sa position controversée selon laquelle « les LLMs ne conduiront pas à l'AGI. »
L'argument de LeCun se concentre sur l'efficience des données et la modélisation du monde. Il a présenté une analyse comparative de l'apprentissage humain versus l'entraînement machine qui démolit l'idée que plus de données textuelles équivaut à plus d'intelligence. « Un enfant de quatre ans a peut-être vu 16 000 heures de données visuelles et comprend la physique, la causalité et la permanence des objets mieux que nos plus grands modèles, » a affirmé LeCun. « À comparer avec un LLM qui a ingéré l'équivalent de 400 000 ans de lecture humaine et qui continue pourtant à hallucinuer des faits basiques parce qu'il n'a aucun ancrage dans la réalité. »
LeCun a porté haut sa « Joint Embedding Predictive Architecture (JEPA) » comme l'alternative nécessaire. Il a soutenu que pour que l'IA atteigne le niveau humain, elle doit s'éloigner de la génération de texte auto-régressive (auto-regressive) et évoluer vers des « modèles du monde » (World Models) capables de prédire l'état du monde sous des représentations abstraites.
« Le texte est une projection à faible bande passante d'un monde à haute bande passante, » a affirmé LeCun. « En entraînant principalement sur du texte, nous essayons de reconstruire l'éléphant en regardant son ombre. On ne peut pas construire une machine qui planifie ou raisonne dans le monde physique uniquement en prédisant le prochain jeton d'une phrase. C'est une impossibilité mathématique. »
Pour comprendre l'ampleur de la divergence à Davos, il est essentiel d'examiner les prédictions spécifiques et les paris techniques faits par ces trois dirigeants. Le tableau suivant résume leurs positions conflictuelles.
Tableau : Le fossé du leadership IA à Davos 2026
| Leader | Organisation | Calendrier projeté pour l'AGI | Goulot d'étranglement technique principal | Citation/Position clé |
|---|---|---|---|---|
| Dario Amodei | Anthropic (CEO) | 2027-2028 (1-2 ans) | Puissance de calcul et infrastructure énergétique ; le goulot logiciel est déjà en train de se briser. | « Le 'closed loop' de l'auto-évolution de l'IA a commencé. Les ingénieurs n'écrivent pas le code ; ils gèrent des modèles qui le font. » |
| Demis Hassabis | Google DeepMind (CEO) | 2030-2032 (5-10 ans) | Transférer le raisonnement des axiomes numériques (maths/code) vers les sciences physiques désordonnées. | « Les domaines numériques s'effondrent rapidement, mais la créativité scientifique et la génération d'hypothèses restent insaisissables. » |
| Yann LeCun | Meta (Chief AI Scientist) | >2035 (sceptique quant à la voie actuelle) | L'architecture fondamentale des LLMs ; absence de World Models et d'ancrage. | « Les LLMs sont une voie de sortie. Un enfant apprend la physique par la vision ; les modèles ne peuvent l'apprendre rien qu'avec du texte. » |
Le débat à Davos dépasse largement le simple désaccord académique ; il dicte la manière dont des billions de dollars de capitaux sont actuellement déployés. Si Amodei a raison, l'économie mondiale est à quelques mois d'une « singularité logicielle » où le coût de l'intelligence tombe presque à zéro, nécessitant des discussions immédiates sur le revenu universel de base (Universal Basic Income, UBI) et une restructuration radicale des entreprises. L'orientation d'Anthropic vers l'adoption en entreprise suggère qu'ils misent tout sur cette capacité disruptive immédiate.
Inversement, si LeCun a raison, la bulle actuelle de l'IA — alimentée par l'hypothèse que l'augmentation des paramètres équivaut à une augmentation de l'intelligence — risque d'éclater. Les entreprises investissant des milliards dans des grappes de GPU pour l'entraînement des LLMs pourraient constater des rendements décroissants, les obligeant à pivoter vers des architectures radicalement différentes explorées par Meta. Cela validerait l'approche plus fragmentée et expérimentale de la communauté open source par rapport à l'escalade monolithique des modèles menée par OpenAI et Anthropic.
Hassabis propose une voie médiane qui est peut-être la plus acceptable pour l'élite de Davos : une évolution soutenue et à forts enjeux où l'IA débloque des percées « post-pénurie » (post-scarcity) en énergie (fusion) et en biologie (longévité) avant de remplacer entièrement la cognition humaine. Sa vision s'aligne sur l'intégration profonde de l'IA dans l'infrastructure par Google, suggérant un avenir où l'IA est un outil d'abondance scientifique plutôt qu'un simple substitut au travail de bureau.
Au moment où les délégués quittaient le Centre des congrès, le consensus qui unissait autrefois la communauté IA — selon lequel « l'échelle suffit » — semblait visiblement fracturé. Le débat de Davos 2026 a mis en lumière que si la destination (l'AGI) reste partagée, le véhicule et la carte sont âprement disputés.
Pour le public de Creati.ai, l'enseignement est clair : les 12 prochains mois seront le terrain d'épreuve. Si les modèles d'Anthropic commencent à écrire de manière autonome des logiciels supérieurs, la chronologie d'Amodei sera justifiée. Si les progrès stagnent et que les hallucinations persistent, l'appel de LeCun en faveur d'une nouvelle architecture se fera entendre plus fort. Nous n'attendons plus que l'avenir de l'IA soit écrit ; nous assistons à son débat en temps réel, avec le sort de l'économie mondiale en jeu.