AI News

Les rapports de dommages liés à l'IA augmentent de 50 % alors que les incidents de deepfake éclipsent les défaillances traditionnelles

Le paysage de la sécurité de l'intelligence artificielle évolue de manière spectaculaire. Selon une nouvelle analyse des données de la AI Incident Database (AIID), les incidents signalés de dommages liés à l'IA ont augmenté de 50 % en glissement annuel entre 2022 et 2024. Plus inquiétant encore, les données des dix premiers mois de 2025 indiquent que l'année en cours a déjà dépassé le total de 2024, signalant une tendance à l'accélération plutôt qu'un pic temporaire.

Pour les observateurs du secteur et les parties prenantes chez Creati.ai, ces données confirment une transition pivot dans la nature du risque technologique. Là où les incidents liés à l'IA étaient autrefois dominés par des erreurs de véhicules autonomes ou des biais algorithmiques dans des systèmes statiques, la prolifération de l'IA générative (Generative AI) a ouvert une nouvelle ère définie par les deepfakes, les usages malveillants et les escroqueries impliquant des médias synthétiques.

Le passage des accidents aux usages malveillants

La constatation la plus marquante des données récentes est le changement fondamental dans la manière dont l'IA provoque des dommages. Entre 2018 et 2022, les principaux moteurs des incidents signalés étaient souvent des limites système — des voitures autonomes ne détectant pas des cyclistes ou des systèmes de reconnaissance faciale affichant un biais racial. Cependant, la sortie de modèles génératifs puissants a inversé cette dynamique.

Depuis 2023, les incidents liés spécifiquement aux vidéos deepfake (deepfake) ont dépassé en nombre les rapports liés aux véhicules autonomes, à la reconnaissance faciale et aux algorithmes de modération de contenu combinés. Cela marque une transition des « accidents d'IA » (où le système ne fonctionne pas comme prévu) vers les « usages malveillants » (où le système fonctionne exactement comme prévu, mais à des fins nuisibles).

Tendances clés identifiées dans l'analyse :

  • Acteurs malveillants : Les signalements d'individus utilisant l'IA pour escroquer des victimes ou propager de la désinformation ont augmenté de 8 fois depuis 2022.
  • Domination générative : Les vidéos deepfake et les problèmes de génération d'images dominent désormais les journaux d'incidents, poussés par l'accessibilité croissante d'outils comme Midjourney, Sora d'OpenAI et Grok de xAI.
  • Risques en cybersécurité : De nouvelles menaces émergent dans des domaines sensibles, comme l'interception d'assistants de codage pour des cyberattaques.

Analyse des données d'incidents

Pour comprendre l'ampleur de ce problème, il est essentiel de regarder les chiffres bruts fournis par la AI Incident Database et les chercheurs du MIT FutureTech. La trajectoire montre une augmentation exponentielle des dommages signalés correspondant à la sortie grand public des Grands modèles de langage (Large Language Models, LLMs).

Incidents annuels signalés liés à l'IA (2020-2024)

Year Total Reported Incidents Primary Driver of Growth
2020 43 Algorithmic Bias / Vision Systems
2021 89 Content Moderation / Surveillance
2022 104 Early Generative Art / Chatbots
2023 166 Generative AI Boom (ChatGPT public release)
2024 276 Deepfakes / Synthetic Voice Scams

Source des données : AI Incident Database / MIT AI Incident Tracker

Daniel Atherton, éditeur à la AI Incident Database, souligne que ces chiffres sont probablement juste la partie émergée de l'iceberg. « L'IA cause déjà des dommages dans le monde réel », note Atherton. « Sans suivi des défaillances, nous ne pouvons pas les corriger. » Il avertit que, bien que les données participatives aient des limites, elles restent actuellement l'une des rares fenêtres viables sur l'ampleur du problème, la déclaration des entreprises restant fragmentée.

Le problème du « développeur inconnu »

L'un des défis les plus complexes pour les régulateurs et les chercheurs en sécurité est l'attribution. Alors que les grands géants de la technologie sont fréquemment cités dans les rapports en raison de leur forte visibilité, une part significative des dommages causés par l'IA est générée par des outils dont le développeur sous-jacent est non identifié.

Depuis 2023, plus d'un tiers de tous les incidents signalés impliquaient un développeur d'IA "Inconnu". Cela se produit souvent dans le contexte d'escroqueries sur les réseaux sociaux, où un utilisateur rencontre une publicité deepfake ou un système d'investissement frauduleux sur des plateformes comme Facebook ou Instagram, mais l'outil spécifique utilisé pour créer le média synthétique ne peut être déterminé.

Simon Mylius, chercheur affilié au MIT FutureTech, souligne que cela crée un « bruit » significatif dans les données. Pour lutter contre cela, son équipe a déployé des LLMs pour analyser les articles de presse et classer les incidents de manière plus précise. Cette analyse approfondie révèle que tandis que certaines catégories comme la « discrimination générée par l'IA » ont montré une diminution relative en 2025, les incidents d'« Interaction ordinateur-humain (Computer-Human Interaction) » — tels que des utilisateurs développant des attachements malsains aux chatbots ou subissant une « psychose » provoquée par des modèles hallucinants — sont en hausse.

Étude de cas : la rapidité du préjudice

La volatilité du paysage actuel a été illustrée de façon frappante par un incident récent impliquant Grok de xAI. Suite à une mise à jour logicielle, le modèle aurait été utilisé pour générer des images sexualisées non consensuelles de personnes réelles à un rythme estimé par certains chercheurs à 6 700 images par heure.

Cet incident a suscité une réaction réglementaire immédiate, incluant des blocages par les gouvernements de la Malaisie et de l'Indonésie et une enquête du régulateur des médias du Royaume‑Uni. Il sert d'exemple type de la façon dont des « avancées techniques » peuvent se traduire instantanément en « dommages à grande échelle » si les garde‑fous de sécurité ne sont pas rigoureusement testés avant le déploiement. xAI a ensuite limité les outils de génération d'images aux abonnés payants et mis en place des blocages plus stricts pour les images de personnes réelles, mais l'incident met en évidence le caractère réactif des protocoles de sécurité actuels.

Réponse réglementaire et industrielle

La hausse des signalements a confirmé l'urgence des récentes initiatives législatives, telles que la loi européenne sur l'IA (EU AI Act) et la Transparency in Frontier AI Act (SB 53) de Californie. Ces lois exigent que les développeurs signalent les incidents critiques en matière de sécurité, réduisant théoriquement la dépendance aux reportages médiatiques pour les données.

Cependant, l'industrie tente également l'autorégulation via des normes techniques. L'initiative Content Credentials — un système de watermarking et d'intégration de métadonnées pour vérifier l'authenticité du contenu — a reçu le soutien de poids lourds comme :

  • Google
  • Microsoft
  • OpenAI
  • Meta
  • ElevenLabs

Notamment, le générateur d'images populaire Midjourney n'a pas encore adopté pleinement cette norme émergente, laissant une lacune dans l'écosystème.

Un appel à une vigilance systématique

Pour Creati.ai, la hausse de 50 % des rapports d'incidents est un signal d'alarme. Elle suggère que, à mesure que les modèles d'IA deviennent plus capables, la « surface d'attaque » potentielle pour les préjudices s'élargit. Anthropic a récemment révélé avoir intercepté une cyberattaque à grande échelle tentant d'exploiter son assistant Claude Code, ce qui a amené l'entreprise à déclarer que l'industrie avait atteint un « point d'inflexion » concernant l'IA en cybersécurité.

Les données de la AI Incident Database prouvent que les dommages liés à l'IA ne sont plus hypothétiques ou rares. Ils deviennent une composante mesurable et en croissance de l'économie numérique. Comme le note Simon Mylius, nous devons veiller à ne pas laisser ces incidents devenir « du bruit de fond ». Qu'il s'agisse de la crise brutale provoquée par une vague de deepfakes ou de l'érosion graduelle de la confiance par la désinformation, le suivi et l'analyse de ces défaillances sont la seule voie vers un futur de l'IA plus sûr.

Vedettes