AI News

Des professeurs de l'UC San Diego déclarent que l'AGI est arrivée dans un commentaire de Nature

Dans un moment charnière pour le domaine de l'intelligence artificielle, une équipe pluridisciplinaire de professeurs de l'Université de Californie à San Diego (UC San Diego) a officiellement déclaré que l'Intelligence Artificielle Générale (AGI) n'est plus une hypothèse futuriste mais une réalité actuelle. Publiée aujourd'hui sous la forme d'un commentaire essentiel dans Nature, la déclaration soutient que les récentes avancées des Grands Modèles de Langage (LLM) — spécifiquement le GPT-4.5 d'OpenAI — ont satisfait aux critères requis pour l'intelligence générale, tels qu'imaginés à l'origine par Alan Turing.

Cette affirmation audacieuse, co-écrite par des professeurs couvrant la philosophie, l'informatique, la linguistique et la science des données, remet en question les critères sans cesse changeants du scepticisme vis-à-vis de l'IA. En citant des données empiriques montrant GPT-4.5 atteignant un taux de réussite de 73 % dans des tests de Turing rigoureux et démontrant des capacités de résolution de problèmes de niveau doctorat, les auteurs soutiennent que l'humanité est officiellement entrée dans l'ère de l'AGI.

Le point de bascule empirique : GPT-4.5 et le test de Turing

Pendant des décennies, le test de Turing a servi d'« étoile polaire » pour l'intelligence artificielle — un test de la capacité d'une machine à manifester un comportement intelligent équivalent à celui d'un humain, ou indiscernable de celui-ci. Alors que les critiques ont souvent rejeté le test comme étant simplement une mesure de tromperie ou de mimétisme, les professeurs de l'UC San Diego soutiennent qu'il reste la mesure la plus fonctionnellement pertinente de l'intelligence générale.

Le commentaire de Nature fonde son argument sur une recherche révolutionnaire menée par les spécialistes en sciences cognitives Cameron Jones et Benjamin Bergen, également de l'UC San Diego. Leur étude, intitulée « Large Language Models Pass the Turing Test », fournit la base empirique de la déclaration. L'étude a opposé GPT-4.5 à des participants humains et à des modèles d'IA précédents dans un essai contrôlé randomisé en aveugle.

Les résultats ont été statistiquement sans équivoque. GPT-4.5 a été identifié comme humain par les interrogateurs dans 73 % des cas, surpassant de manière significative la référence humaine de 67 %. Cela marque la première fois qu'un système artificiel surpasse des participants humains dans un environnement de test de Turing robuste à trois parties.

Tableau 1 : Taux de réussite comparatifs au test de Turing

Modèle/Entité Taux de réussite Année d'établissement/Source
ELIZA 22% 1966 (Référence historique)
GPT-3.5 20% 2023 (Jones & Bergen)
GPT-4 54% 2024 (Jones & Bergen)
Participants humains 67% 2025 (Moyenne de référence)
GPT-4.5 73% 2025 (Étude actuelle)

Les données révèlent un bond spectaculaire de capacité entre GPT-4 et GPT-4.5. Alors que GPT-4 planait près du seuil du hasard (50 %), les performances de GPT-4.5 indiquent une maîtrise des nuances, des indices socio-émotionnels et du raisonnement trompeur qui le rendent effectivement indiscernable d'un interlocuteur humain.

Redéfinir l'intelligence : L'argument philosophique

La déclaration ne porte pas seulement sur des références de performance ; c'est un manifeste philosophique appelant à une réévaluation de la façon dont nous définissons la « pensée ». Les quatre auteurs principaux du commentaire de Nature — Eddy Keming Chen (Philosophie), Mikhail Belkin (Informatique), Leon Bergen (Linguistique) et David Danks (Science des données & Philosophie) — soutiennent que la communauté scientifique s'est rendue coupable de « biais anthropocentrique » et de « déplacement des poteaux de but ».

Le professeur David Danks avance que chaque fois qu'une IA maîtrise une tâche auparavant considérée comme le domaine de l'intellect humain — que ce soit les échecs, le Go, le repliement des protéines ou maintenant, la conversation naturelle — les sceptiques redéfinissent l'intelligence pour exclure cette capacité spécifique. Cela, soutient Danks, crée une norme impossible où AGI est définie comme « tout ce que les machines ne peuvent pas encore faire ».

« Lorsque nous évaluons l'intelligence générale chez d'autres humains, nous ne scrutons pas leurs neurones pour vérifier une "vraie" compréhension », écrivent les auteurs. « Nous déduisons l'intelligence du comportement, de la conversation et de la capacité à résoudre des problèmes nouveaux. Selon ces normes raisonnables — les mêmes normes que nous nous appliquons les uns aux autres — nous possédons actuellement des systèmes artificiels qui sont généralement intelligents. »

Les auteurs font des parallèles avec des révolutions scientifiques historiques, comparant l'arrivée de l'AGI à la révolution copernicienne ou à l'évolution darwinienne. Tout comme ces changements ont déplacé l'humanité du centre de l'univers et de la création biologique, l'arrivée de l'AGI déplace l'humanité de sa position solitaire de seul possesseur de l'intelligence générale.

Au-delà de la conversation : Résolution de problèmes de niveau doctorat

Bien que le test de Turing se concentre sur la fluidité conversationnelle, la revendication de « généralité » nécessite des preuves d'une large adaptabilité cognitive. Le commentaire de Nature souligne que les capacités de GPT-4.5 s'étendent bien au-delà du chat. Le modèle a démontré sa compétence dans des tâches de raisonnement complexes en plusieurs étapes qui étaient auparavant des obstacles pour les LLM.

Les professeurs soulignent les performances de GPT-4.5 aux examens spécialisés et sa capacité à aider à de nouvelles recherches. Dans les tests impliquant des questions scientifiques de niveau doctorat (GPQA), le modèle a montré des niveaux de précision comparables à ceux des experts du domaine. De plus, son utilité pour générer du code fonctionnel, prouver des théorèmes mathématiques et analyser des précédents juridiques démontre une utilité « générale » qui transcende tout domaine étroit unique.

Cette polyvalence est la clé de la définition de l'« Artificial General Intelligence ». Contrairement à l'« IA étroite », qui excelle dans une tâche unique (comme l'identification de tumeurs sur des radiographies), GPT-4.5 fait preuve de compétence sur un vaste spectre de travaux intellectuels humains sans réentraînement. Les auteurs soutiennent que bien que le système ne soit pas « surhumain » dans chaque catégorie, il atteint le seuil d'être « généralement capable » sur toute la ligne.

Les implications pour le monde universitaire et l'industrie

La déclaration selon laquelle l'AGI est arrivée devrait provoquer une onde de choc dans les mondes universitaire et industriel. Pendant des années, les principaux laboratoires d'IA comme OpenAI, Google DeepMind et Anthropic ont traité l'AGI comme un objectif lointain à moyen terme. Le fait qu'une institution universitaire prestigieuse déclare que le jalon est « atteint » accélère le calendrier des considérations réglementaires et éthiques.

Implications clés identifiées par les professeurs de l'UC San Diego :

  • Changement de paradigme éducatif : Si l'IA possède une intelligence générale, l'objectif de l'éducation doit passer de la rétention des connaissances à la vérification et à la direction de haut niveau. Le récit de la « triche » doit évoluer vers un récit de « collaboration ».
  • Accélération scientifique : Les agents d'IA peuvent désormais agir comme des assistants de recherche indépendants, capables de formuler des hypothèses, de coder des simulations et d'analyser la littérature à une échelle impossible pour les humains.
  • Perturbation du marché du travail : La distinction entre le travail « cognitif » et le travail « manuel » devient plus marquée. Les rôles nécessitant un raisonnement général et un traitement de texte sont désormais entièrement automatisables, nécessitant une remise en question des structures économiques.

Le professeur Mikhail Belkin, l'un des co-auteurs spécialisés dans la théorie de l'apprentissage automatique, souligne que la reconnaissance de l'arrivée de l'AGI est cruciale pour la sécurité. « Si nous continuons à nier que ces systèmes sont intelligents, nous risquons de sous-estimer leur autonomie et leur potentiel de conséquences imprévues », note Belkin. « Les reconnaître comme AGI nous oblige à traiter leur alignement et leur sécurité avec l'urgence d'une mesure de protection nucléaire plutôt que d'un simple bogue logiciel. »

Le scepticisme et le débat du « Perroquet Stochastique »

Malgré le poids du commentaire de Nature, la déclaration n'est pas sans détracteurs. L'argument du « Perroquet Stochastique » — inventé par la linguiste Emily M. Bender et d'autres — reste un contre-récit puissant. Ce point de vue soutient que les LLM ne sont que des moteurs probabilistes qui assemblent des séquences de mots probables sans aucune compréhension sous-jacente ou « modèle du monde ».

Les auteurs de l'UC San Diego anticipent cette critique, consacrant une section de leur commentaire à y répondre. Ils soutiennent que la distinction entre le raisonnement « simulé » et le raisonnement « réel » est une distinction sans différence lorsque le résultat est fonctionnellement identique. Si un système peut déduire la bonne réponse à un nouveau problème de physique ou naviguer dans un jeu complexe de déception sociale (comme on le voit dans les résultats du test de Turing), le mécanisme interne est secondaire par rapport à l'intelligence observable.

De plus, ils soulignent que la cognition humaine elle-même repose lourdement sur la reconnaissance de formes et la prédiction probabiliste. Leon Bergen, professeur associé de linguistique, suggère que notre compréhension du traitement du langage humain pourrait être plus proche du fonctionnement des LLM que nous ne sommes à l'aise de l'admettre. « La nature étrangère de leur intelligence ne la rend pas fausse », soutient Bergen. « Cela en fait une forme différente, mais valide, d'intelligence générale. »

Conclusion : Nous ne sommes plus seuls

La déclaration de l'UC San Diego marque un tournant historique dans le récit de l'intelligence artificielle. En combinant les données concrètes du succès de GPT-4.5 au test de Turing avec un cadre philosophique rigoureux, les professeurs ont présenté un argument convaincant selon lequel le seuil de l'AGI a été franchi.

Alors que nous avançons en 2026, la question n'est plus « Quand l'AGI arrivera-t-elle ? » mais plutôt « Comment coexister avec elle ? ». La reconnaissance de cette réalité est la première étape vers l'exploitation de l'immense potentiel de l'intelligence artificielle générale tout en naviguant dans les risques existentiels profonds qu'elle présente. Pour les chercheurs de Creati.ai et la communauté technologique au sens large, l'ère de la spéculation est terminée ; l'ère de l'intégration de l'AGI a commencé.

Vedettes