
Lors du sommet India AI Impact à New Delhi cette semaine, le PDG de Google DeepMind, Demis Hassabis, a prononcé un discours d'ouverture déterminant qui a équilibré l'optimisme technologique avec une mise en garde géopolitique urgente. S'adressant à une assemblée mondiale de décideurs politiques, de chefs d'entreprise et de chercheurs, Hassabis a proposé l'un de ses calendriers les plus concrets à ce jour pour l'arrivée de l'intelligence artificielle générale (IAG - Artificial General Intelligence), prédisant son émergence d'ici les « 5 à 10 prochaines années ». Cependant, cette prévision était accompagnée d'un avertissement sévère : la fenêtre pour établir des cadres de sécurité internationaux robustes se referme à mesure que les systèmes d'IA passent d'outils passifs à des agents autonomes.
Le sommet, qui se déroule dans une période d'accélération rapide des capacités de l'IA générative (Generative AI), a servi de toile de fond à Hassabis pour délimiter le « moment charnière » auquel l'industrie est aujourd'hui confrontée. Tout en célébrant le potentiel d'un nouvel « âge d'or de la découverte scientifique », il a souligné que la nature à double usage de l'IA avancée — capable à la fois d'immenses bénéfices et de dommages significatifs — nécessite un niveau de coopération mondiale qui accuse actuellement un retard sur le progrès technologique.
L'intervention de Hassabis a fourni une évaluation rare et franche des limites des modèles actuels de pointe. Malgré l'engouement suscité par les récentes percées de l'IA générative, il a qualifié les systèmes d'aujourd'hui d'« intelligences dentelées » (jagged intelligences). Ce terme décrit des modèles qui font preuve d'un génie surhumain dans des domaines spécifiques — comme le codage ou l'écriture créative — tout en échouant simultanément à des tâches de raisonnement élémentaires qu'un enfant humain pourrait accomplir avec aisance.
« Nous commençons à voir ce que ces systèmes peuvent faire, mais ils restent fragiles », a noté Hassabis au cours de sa session. Il a fait remarquer que si un modèle peut remporter une médaille d'or aux Olympiades internationales de mathématiques, il peut trébucher sur une arithmétique simple si la question est formulée de manière inhabituelle. Cette incohérence, a-t-il soutenu, est la principale barrière séparant l'IA étroite actuelle de la véritable IAG.
Pour illustrer le saut requis pour atteindre l'IAG, Hassabis a proposé une expérience de pensée ambitieuse impliquant l'innovation scientifique. Il a suggéré qu'une véritable IAG devrait être capable de suivre un entraînement avec une date limite de connaissances fixée à 1911 et d'en déduire indépendamment la théorie de la relativité générale, reproduisant ainsi la percée d'Albert Einstein en 1915. « Il est beaucoup plus difficile de trouver la bonne question et la bonne hypothèse que de résoudre la conjecture », a-t-il expliqué. Les systèmes actuels, qui excellent dans l'interpolation au sein des données existantes, manquent encore des « modèles du monde » et des capacités de planification à long terme nécessaires à de tels sauts conceptuels originaux.
Cependant, le cofondateur de DeepMind reste convaincu que ces lacunes sont comblées rapidement. Il a cité l'émergence de systèmes « agentiques » — une IA capable de prendre des actions autonomes pour atteindre des objectifs de haut niveau — comme la prochaine phase majeure. Cette transition des interactions de type chatbot vers des flux de travail basés sur des agents devrait s'accélérer au cours de l'année à venir, poussant l'industrie vers l'objectif de l'IAG d'ici 5 à 10 ans.
À mesure que le calendrier vers l'IAG se resserre, le potentiel de détournement augmente. Hassabis a consacré une partie importante de son discours à la nature à « double usage » des systèmes d'IA de pointe. Les mêmes capacités qui permettent à l'IA d'accélérer la découverte de médicaments ou d'optimiser les réseaux énergétiques peuvent être détournées par des « acteurs malveillants » — allant d'individus isolés à des États-nations hostiles — pour infliger des dommages.
Il a mis en évidence deux domaines de préoccupation immédiate : la biosécurité et le risque cybernétique.
Dans le domaine de la biosécurité, l'inquiétude est que l'IA puisse abaisser la barrière à l'entrée pour la création d'agents biologiques nocifs. Bien que des outils d'IA comme AlphaFold aient révolutionné la biologie en prédisant les structures des protéines, des technologies similaires pourraient théoriquement être utilisées pour concevoir des toxines ou des agents pathogènes si elles ne sont pas correctement encadrées.
La cybersécurité présente une volatilité encore plus immédiate. « Les systèmes actuels deviennent assez bons en cybernétique », a averti Hassabis, soulignant que l'industrie doit s'assurer que « les défenses sont plus fortes que les attaques ». À mesure que les agents d'IA deviennent capables d'écrire et d'exécuter du code complexe, le risque de cyberattaques automatisées dépassant la capacité des équipes de défense humaines devient une réalité tangible. Cela nécessite une approche proactive où l'IA est utilisée pour corriger les vulnérabilités plus rapidement qu'elle ne peut être utilisée pour les exploiter.
Le tableau suivant présente les distinctions critiques établies par Hassabis entre les modèles d'IA déployés aujourd'hui et les systèmes d'IAG anticipés au cours de la prochaine décennie.
| Métrique | Intelligence « dentelée » actuelle | Future intelligence artificielle générale (IAG) |
|---|---|---|
| Constance des performances | Grande variance ; brillant dans certaines tâches, échoue sur les bases | Compétence uniformément élevée dans tous les domaines cognitifs |
| Méthodologie d'apprentissage | Ensembles d'entraînement statiques ; « figés » après déploiement | Apprentissage continu en ligne ; mises à jour à partir d'expériences en temps réel |
| Capacité de raisonnement | Reconnaissance de motifs et prédiction statistique | Raisonnement causal, génération d'hypothèses et modélisation du monde |
| Niveau d'autonomie | Outil passif nécessitant une intervention humaine | Agentique ; capable de planification à long terme et d'action indépendante |
| Facteur de risque principal | Hallucination et biais | Désalignement, perte de contrôle et prolifération du double usage |
La nature sans frontières de l'intelligence numérique en fait un défi réglementaire unique. Hassabis a soutenu qu'aucun pays ne peut à lui seul contenir efficacement les risques de l'IA, car les données et les modèles circulent instantanément à travers les juridictions. Il a appelé à un cadre international similaire à ceux établis pour l'énergie nucléaire ou le changement climatique, tout en reconnaissant la difficulté d'y parvenir dans le climat géopolitique fragmenté actuel.
« Cela devient un point de ralliement incroyablement important pour le dialogue international », a déclaré Hassabis à propos du sommet, louant le rôle de l'Inde dans la facilitation de ces conversations critiques. Il a explicitement positionné l'Inde comme une future « puissance de l'IA », citant la profondeur du talent des ingénieurs du pays et son adoption rapide des infrastructures numériques.
Cependant, la voie vers la coopération mondiale est semée de tensions. Différentes nations accordent actuellement la priorité à différents aspects de la politique de l'IA — certaines se concentrant sur la domination de l'innovation, d'autres sur une conformité stricte en matière de sécurité. Le message de Hassabis était clair : sans un ensemble minimum de normes mondiales, en particulier concernant le déploiement d'agents autonomes et les garanties de biosécurité, le monde risque un « nivellement par le bas » en matière de sécurité.
Malgré l'accent mis sur les risques, le cœur du message de Hassabis reste ancré dans le potentiel transformateur de l'IA pour la science. Il a décrit la décennie à venir comme une « nouvelle Renaissance », où les outils d'IA perceront des mystères en physique, en biologie et en science des matériaux qui ont laissé les chercheurs perplexes pendant des décennies.
cet optimisme est soutenu par les antécédents de DeepMind. De la maîtrise du jeu de Go à la résolution du problème du repliement des protéines, l'entreprise a constamment démontré que l'IA peut résoudre des problèmes complexes et non définis. La transition vers l'IAG, selon Hassabis, ne consiste pas seulement à construire des chatbots plus intelligents, mais à créer l'outil ultime pour l'expansion des connaissances. « J'ai toujours cru que l'IA serait l'une des technologies les plus importantes et les plus bénéfiques jamais inventées », a-t-il réfléchi, notant que sa quête tout au long de sa carrière a été motivée par le désir d'accélérer la découverte scientifique.
Du point de vue de Creati.ai, les commentaires de Hassabis au sommet India AI Impact signalent un changement critique dans le récit de l'industrie. Nous nous éloignons de l'émerveillement initial suscité par le texte et les images génératifs pour nous diriger vers le travail sérieux et complexe de construction d'agents autonomes et fiables.
Pour les entreprises et les développeurs, la nature « dentelée » des modèles actuels est un point de friction connu. La promesse de l'IAG implique un avenir où la fiabilité de l'IA n'est plus un coup de dés, mais une garantie. Cependant, l'échéance de 5 à 10 ans suggère que les entreprises doivent rester agiles — en investissant dans les outils actuels tout en préparant leur infrastructure pour un saut radical de capacité.
L'accent mis sur la sécurité indique également que la prochaine vague de produits d'IA fera probablement l'objet d'un examen plus rigoureux concernant son potentiel de « double usage ». Nous anticipons une augmentation de la demande pour des plateformes de sécurité de l'IA — des outils spécifiquement conçus pour surveiller, auditer et protéger par pare-feu les systèmes d'IA agentiques. Alors que l'industrie digère l'avertissement de Hassabis, l'attention se tournera probablement vers un développement de l'IA « axé sur la défense », garantissant que les systèmes que nous construisons aujourd'hui ne deviennent pas les vulnérabilités de demain.