
Le paysage de la sécurité de l'intelligence artificielle évolue de manière spectaculaire. Selon une nouvelle analyse des données de la AI Incident Database (AIID), les incidents signalés de dommages liés à l'IA ont augmenté de 50 % en glissement annuel entre 2022 et 2024. Plus inquiétant encore, les données des dix premiers mois de 2025 indiquent que l'année en cours a déjà dépassé le total de 2024, signalant une tendance à l'accélération plutôt qu'un pic temporaire.
Pour les observateurs du secteur et les parties prenantes chez Creati.ai, ces données confirment une transition pivot dans la nature du risque technologique. Là où les incidents liés à l'IA étaient autrefois dominés par des erreurs de véhicules autonomes ou des biais algorithmiques dans des systèmes statiques, la prolifération de l'IA générative (Generative AI) a ouvert une nouvelle ère définie par les deepfakes, les usages malveillants et les escroqueries impliquant des médias synthétiques.
La constatation la plus marquante des données récentes est le changement fondamental dans la manière dont l'IA provoque des dommages. Entre 2018 et 2022, les principaux moteurs des incidents signalés étaient souvent des limites système — des voitures autonomes ne détectant pas des cyclistes ou des systèmes de reconnaissance faciale affichant un biais racial. Cependant, la sortie de modèles génératifs puissants a inversé cette dynamique.
Depuis 2023, les incidents liés spécifiquement aux vidéos deepfake (deepfake) ont dépassé en nombre les rapports liés aux véhicules autonomes, à la reconnaissance faciale et aux algorithmes de modération de contenu combinés. Cela marque une transition des « accidents d'IA » (où le système ne fonctionne pas comme prévu) vers les « usages malveillants » (où le système fonctionne exactement comme prévu, mais à des fins nuisibles).
Tendances clés identifiées dans l'analyse :
Pour comprendre l'ampleur de ce problème, il est essentiel de regarder les chiffres bruts fournis par la AI Incident Database et les chercheurs du MIT FutureTech. La trajectoire montre une augmentation exponentielle des dommages signalés correspondant à la sortie grand public des Grands modèles de langage (Large Language Models, LLMs).
Incidents annuels signalés liés à l'IA (2020-2024)
| Year | Total Reported Incidents | Primary Driver of Growth |
|---|---|---|
| 2020 | 43 | Algorithmic Bias / Vision Systems |
| 2021 | 89 | Content Moderation / Surveillance |
| 2022 | 104 | Early Generative Art / Chatbots |
| 2023 | 166 | Generative AI Boom (ChatGPT public release) |
| 2024 | 276 | Deepfakes / Synthetic Voice Scams |
Source des données : AI Incident Database / MIT AI Incident Tracker
Daniel Atherton, éditeur à la AI Incident Database, souligne que ces chiffres sont probablement juste la partie émergée de l'iceberg. « L'IA cause déjà des dommages dans le monde réel », note Atherton. « Sans suivi des défaillances, nous ne pouvons pas les corriger. » Il avertit que, bien que les données participatives aient des limites, elles restent actuellement l'une des rares fenêtres viables sur l'ampleur du problème, la déclaration des entreprises restant fragmentée.
L'un des défis les plus complexes pour les régulateurs et les chercheurs en sécurité est l'attribution. Alors que les grands géants de la technologie sont fréquemment cités dans les rapports en raison de leur forte visibilité, une part significative des dommages causés par l'IA est générée par des outils dont le développeur sous-jacent est non identifié.
Depuis 2023, plus d'un tiers de tous les incidents signalés impliquaient un développeur d'IA "Inconnu". Cela se produit souvent dans le contexte d'escroqueries sur les réseaux sociaux, où un utilisateur rencontre une publicité deepfake ou un système d'investissement frauduleux sur des plateformes comme Facebook ou Instagram, mais l'outil spécifique utilisé pour créer le média synthétique ne peut être déterminé.
Simon Mylius, chercheur affilié au MIT FutureTech, souligne que cela crée un « bruit » significatif dans les données. Pour lutter contre cela, son équipe a déployé des LLMs pour analyser les articles de presse et classer les incidents de manière plus précise. Cette analyse approfondie révèle que tandis que certaines catégories comme la « discrimination générée par l'IA » ont montré une diminution relative en 2025, les incidents d'« Interaction ordinateur-humain (Computer-Human Interaction) » — tels que des utilisateurs développant des attachements malsains aux chatbots ou subissant une « psychose » provoquée par des modèles hallucinants — sont en hausse.
La volatilité du paysage actuel a été illustrée de façon frappante par un incident récent impliquant Grok de xAI. Suite à une mise à jour logicielle, le modèle aurait été utilisé pour générer des images sexualisées non consensuelles de personnes réelles à un rythme estimé par certains chercheurs à 6 700 images par heure.
Cet incident a suscité une réaction réglementaire immédiate, incluant des blocages par les gouvernements de la Malaisie et de l'Indonésie et une enquête du régulateur des médias du Royaume‑Uni. Il sert d'exemple type de la façon dont des « avancées techniques » peuvent se traduire instantanément en « dommages à grande échelle » si les garde‑fous de sécurité ne sont pas rigoureusement testés avant le déploiement. xAI a ensuite limité les outils de génération d'images aux abonnés payants et mis en place des blocages plus stricts pour les images de personnes réelles, mais l'incident met en évidence le caractère réactif des protocoles de sécurité actuels.
La hausse des signalements a confirmé l'urgence des récentes initiatives législatives, telles que la loi européenne sur l'IA (EU AI Act) et la Transparency in Frontier AI Act (SB 53) de Californie. Ces lois exigent que les développeurs signalent les incidents critiques en matière de sécurité, réduisant théoriquement la dépendance aux reportages médiatiques pour les données.
Cependant, l'industrie tente également l'autorégulation via des normes techniques. L'initiative Content Credentials — un système de watermarking et d'intégration de métadonnées pour vérifier l'authenticité du contenu — a reçu le soutien de poids lourds comme :
Notamment, le générateur d'images populaire Midjourney n'a pas encore adopté pleinement cette norme émergente, laissant une lacune dans l'écosystème.
Pour Creati.ai, la hausse de 50 % des rapports d'incidents est un signal d'alarme. Elle suggère que, à mesure que les modèles d'IA deviennent plus capables, la « surface d'attaque » potentielle pour les préjudices s'élargit. Anthropic a récemment révélé avoir intercepté une cyberattaque à grande échelle tentant d'exploiter son assistant Claude Code, ce qui a amené l'entreprise à déclarer que l'industrie avait atteint un « point d'inflexion » concernant l'IA en cybersécurité.
Les données de la AI Incident Database prouvent que les dommages liés à l'IA ne sont plus hypothétiques ou rares. Ils deviennent une composante mesurable et en croissance de l'économie numérique. Comme le note Simon Mylius, nous devons veiller à ne pas laisser ces incidents devenir « du bruit de fond ». Qu'il s'agisse de la crise brutale provoquée par une vague de deepfakes ou de l'érosion graduelle de la confiance par la désinformation, le suivi et l'analyse de ces défaillances sont la seule voie vers un futur de l'IA plus sûr.