
Au cours des dernières années, la course vers l'Intelligence Artificielle Générale (Artificial General Intelligence - AGI) a été largement définie par la recherche de scores plus élevés sur des tests de référence (benchmarks) statiques basés sur la connaissance. Bien que ces mesures aient rempli leur rôle pour évaluer l'évolution rapide des grands modèles de langage, elles sont de plus en plus critiquées pour leur vulnérabilité à la contamination des données et leur incapacité à saisir les nuances d'une véritable intelligence générale. Google DeepMind cherche aujourd'hui à modifier ce paradigme en dévoilant une approche rigoureuse et scientifique pour mesurer les progrès de l'IA à travers une taxonomie cognitive nouvellement publiée.
L'initiative, détaillée dans l'article « Measuring Progress Toward AGI: A Cognitive Taxonomy », va au-delà de la simple récupération de connaissances. Elle propose une restructuration fondamentale de la manière dont nous évaluons les systèmes d'IA, en ancrant l'évaluation de l'« intelligence générale » dans les principes établis des sciences cognitives, des neurosciences et de la psychologie. Pour catalyser cette transition, Google DeepMind a également lancé un hackathon Kaggle de 200 000 $, invitant la communauté mondiale de la recherche à aider à construire l'infrastructure de benchmarking nécessaire.
Au cœur de ce nouveau cadre se trouve une décomposition de l'intelligence générale en dix capacités cognitives distinctes. Cette taxonomie est conçue pour fournir une vue d'ensemble du fonctionnement d'un système d'IA, et non seulement de ce qu'il sait. En déconstruisant l'intelligence en ces facultés spécifiques, les chercheurs peuvent mieux identifier les forces et les faiblesses des différentes architectures.
La taxonomie proposée comprend les capacités clés suivantes :
Pour comprendre l'ampleur de ce changement, il est utile de contraster les méthodes de benchmarking traditionnelles avec la nouvelle approche axée sur le cognitif proposée par l'équipe de DeepMind.
| Axe d'évaluation | Benchmarks traditionnels | Taxonomie cognitive |
|---|---|---|
| Objectif principal | Récupération de connaissances statiques | Performance cognitive dynamique |
| Intégrité des données | Très sujet à la contamination | Résilient via des tests génératifs |
| Alignement humain | Corrélé aux scores des tests | Correspond à la distribution cognitive humaine |
| Vue du système | Score de performance unifié | Décomposition granulaire des capacités |
Bien que la publication du cadre fournisse le fondement théorique, DeepMind reconnaît qu'un cadre seul est insuffisant. Le défi réside dans la création de protocoles d'évaluation qui soient évolutifs, robustes et significatifs. Pour combler ce fossé, Google DeepMind s'est associé à Kaggle pour lancer un hackathon à enjeux élevés intitulé « Measuring progress toward AGI: Cognitive abilities » (Mesurer les progrès vers l'AGI : capacités cognitives).
Le hackathon est spécifiquement conçu pour combler le « fossé d'évaluation » (evaluation gap) — la pénurie significative de tests standardisés pour les capacités plus complexes et abstraites de l'IA moderne. La compétition se concentre sur cinq axes principaux où les méthodes d'évaluation actuelles sont les plus faibles :
Le hackathon offre une dotation totale de 200 000 $ pour encourager des soumissions de haute qualité. La structure est conçue pour récompenser à la fois l'excellence dans un axe spécifique et l'innovation globale :
Les participants utiliseront la plateforme Community Benchmarks de Kaggle, leur permettant de tester leurs évaluations par rapport à une variété de modèles d'IA de pointe (frontier AI models). La fenêtre de soumission est ouverte du 17 mars au 16 avril 2026, et l'annonce des résultats finaux est prévue pour le 1er juin 2026.
L'introduction de ce cadre cognitif représente une étape de maturité pour la communauté de recherche en IA. En standardisant le langage de l'« intelligence » à travers le prisme des sciences cognitives, DeepMind place la barre plus haut pour ce qui constitue un progrès significatif.
L'un des aspects les plus critiques de cette approche est le protocole d'évaluation en trois étapes proposé. En collectant des bases de référence humaines (human baselines) à partir d'échantillons représentatifs sur le plan démographique et en cartographiant les performances de l'IA par rapport à ces distributions, les chercheurs peuvent créer un score normalisé qui indique comment un modèle se comporte par rapport aux capacités humaines dans des domaines spécifiques. Il s'agit d'une amélioration significative par rapport à la course aux classements, qui masque souvent des failles fondamentales dans le raisonnement ou la fiabilité des modèles.
À mesure que l'industrie se rapproche de l'étape théorique de l'AGI, la capacité de mesurer les progrès « cognitifs » internes deviendra aussi importante que le déploiement des modèles eux-mêmes. Avec ce cadre, Google DeepMind ne se contente pas de demander « à quel point cette IA est-elle intelligente ? », mais fournit une méthodologie structurée et vérifiable pour répondre à cette question avec une rigueur scientifique. Pour les chercheurs et les développeurs, le hackathon Kaggle sert d'invitation ouverte à aider à définir les mesures qui façonneront la prochaine ère de l'intelligence artificielle.