
Une coalition mondiale de plus de 100 experts de premier plan en intelligence artificielle (IA) a publié le Second rapport international sur la sécurité de l'IA (Second International AI Safety Report), lançant un avertissement solennel sur l'évolution imprévisible des systèmes d'IA à usage général (General-purpose AI). Publié quelques jours seulement avant le très stratégique Sommet sur l'impact de l'IA en Inde (India AI Impact Summit) à New Delhi, le rapport souligne un décalage critique entre l'avancement rapide des capacités de l'IA et les garde-fous « insuffisants » actuellement en place pour les gérer.
Présidé par le scientifique lauréat du prix Turing, Yoshua Bengio, le rapport sert de document de consensus scientifique destiné à guider les décideurs politiques lors du prochain sommet. Tout en reconnaissant le potentiel immense de l'IA pour stimuler la croissance économique et la découverte scientifique, les conclusions dressent le portrait complexe d'une technologie qui progresse à un rythme effréné, dépassant souvent la capacité humaine à la comprendre ou à la contrôler.
L'une des conclusions les plus significatives du rapport est le phénomène de performance « dentelée » (Jagged performance) dans les modèles d'IA de pointe. Bien que ces systèmes aient atteint des « performances de médaille d'or » aux questions des Olympiades internationales de mathématiques et dépassé l'expertise de niveau doctorat sur des références scientifiques spécifiques, ils continuent de subir des échecs spectaculaires sur des tâches qui seraient triviales pour un humain.
Cette incohérence crée une illusion de compétence dangereuse. Les utilisateurs peuvent accorder une confiance excessive aux systèmes dans des scénarios critiques — tels que le diagnostic médical ou l'analyse juridique — en se basant sur leurs performances dans d'autres domaines de haut niveau. Le rapport note que cette imprévisibilité est accentuée par l'émergence de systèmes agentiques (Agentic systems), qui peuvent agir de manière autonome pour accomplir des tâches en plusieurs étapes.
« Comment et pourquoi les modèles d'IA à usage général acquièrent de nouvelles capacités et se comportent de certaines manières est souvent difficile à prédire, même pour les développeurs », indique le rapport.
Les experts préviennent qu'à mesure que ces systèmes agentiques s'intègrent davantage dans l'économie, la perte de contrôle humain direct pourrait permettre à des « capacités dangereuses » de passer inaperçues jusqu'après leur déploiement.
Le rapport 2026 approfondit considérablement les catégories de risques identifiées dans l'édition inaugurale de 2025. Il présente de nouvelles preuves empiriques suggérant que la barrière à l'entrée pour les acteurs malveillants s'abaisse.
Les principaux domaines de préoccupation incluent :
Tableau : Catégories de risques critiques identifiées dans le rapport 2026
| Catégorie de risque | Préoccupation principale | État actuel |
|---|---|---|
| Utilisation malveillante | Abaissement des barrières pour les cyberattaques et les armes biologiques | Urgence élevée ; exploitation active observée |
| Risques systémiques | Déplacement de la main-d'œuvre et creusement des inégalités mondiales | Menace à long terme ; nécessite une intervention politique |
| Défaillances techniques | Perte de contrôle sur les systèmes agentiques autonomes | Profondément incertain ; les garde-fous sont « faillibles » |
| Désinformation | Ampleur des opérations d'influence générées par IA | Croissance rapide ; impacts sur les processus démocratiques |
Alors que le monde se prépare pour le Sommet sur l'impact de l'IA en Inde, le rapport met en lumière la répartition inégale des bénéfices de l'IA. Bien que l'adoption ait été « rapide », avec au moins 700 millions de personnes utilisant les principaux systèmes d'IA chaque semaine, cet usage est fortement concentré dans le Nord global.
En revanche, les taux d'adoption dans une grande partie de l'Afrique, de l'Asie et de l'Amérique latine restent inférieurs à 10 %. Cette « fracture numérique » pose un risque grave : si l'IA avancée devient le moteur primaire de la croissance économique future, les nations sans accès à la technologie — ou à l'infrastructure pour la soutenir — pourraient être définitivement laissées pour compte.
Cette disparité s'aligne sur les thèmes centraux du prochain sommet de New Delhi. Présenté sous les « Sutras » de l'Humain, de la Planète et du Progrès, le sommet vise à déplacer la conversation mondiale des débats théoriques sur la sécurité vers des résultats pratiques et inclusifs bénéficiant au Sud global (Global South).
Dans un développement géopolitique notable, les États-Unis ont refusé de signer la version finale du rapport, malgré la fourniture de commentaires pendant le processus de rédaction. Cela marque une rupture par rapport à l'unanimité de l'année précédente. Bien que ce mouvement soit décrit par certains observateurs comme « largement symbolique », il souligne la tension croissante entre l'innovation rapide et les cadres réglementaires internationaux.
La position des États-Unis contraste avec celle d'autres puissances majeures, dont l'Union européenne et la Chine, qui ont soutenu les conclusions du rapport. Cette divergence pourrait préparer le terrain pour des débats houleux au sommet de New Delhi, alors que les nations luttent pour équilibrer la « course à la suprématie de l'IA » avec la nécessité d'une gouvernance mondiale coordonnée.
La publication de ce rapport définit l'ordre du jour du Sommet sur l'impact de l'IA en Inde, prévu du 16 au 20 février 2026. Les responsables indiens, dont le ministre Ashwini Vaishnaw, ont souligné que le rassemblement se concentrera sur « l'ouverture responsable » et « l'accès équitable » aux ressources de calcul.
Pour les décideurs politiques réunis, le défi sera de traduire les avertissements scientifiques du rapport en politiques exploitables. Comme le conclut le document, les techniques actuelles de gestion des risques « s'améliorent mais sont insuffisantes ». Le monde se tourne désormais vers New Delhi pour combler le fossé entre l'identification de ces risques existentiels et leur atténuation réelle.