AI News

Les leaders de l'industrie s'unissent pour définir l'avenir de l'IA autonome

Dans une démarche décisive visant à stabiliser le paysage de l'intelligence artificielle en fragmentation rapide, OpenAI et Cisco ont apporté leur soutien à une vaste initiative sectorielle pour établir des normes de gouvernance pour l'IA « agentique » (Agentic AI). La formation de l'Agentic AI Foundation (AAIF), opérant sous l'égide de la Linux Foundation, marque un moment charnière dans la transition de l'industrie des chatbots conversationnels vers des agents autonomes capables d'exécuter des tâches complexes.

Cette coalition, qui comprend les piliers fondateurs OpenAI, Anthropic et Block, aux côtés de soutiens majeurs en entreprise comme Cisco, Microsoft et Google, vise à résoudre la « crise d'interopérabilité » qui menace de freiner l'adoption par les entreprises. L'annonce intervient alors que Gartner publie une prédiction frappante : d'ici la fin de 2026, 40 % des logiciels d'entreprise incluront des agents d'IA spécifiques à des tâches — contre moins de 5 % en 2025.

Le passage du « Chat » à l'« Action »

L'industrie est actuellement à un point d'inflexion. Alors que l'IA générative (Generative AI) a impressionné le monde par sa capacité à créer du texte et des images, l'IA agentique (Agentic AI) représente l'évolution fonctionnelle de la technologie. Ces agents ne se contentent pas de générer du contenu ; ils interagissent avec les logiciels, exécutent des flux de travail et prennent des décisions avec une supervision humaine minimale.

Cependant, cette capacité introduit des risques significatifs. Sans normes partagées, les agents de différents fournisseurs ne peuvent pas communiquer, et les entreprises sont confrontées à des problèmes de sécurité de type « boîte noire ». Le mandat de l'AAIF est de créer un écosystème neutre et ouvert où les agents peuvent interagir en toute sécurité au-delà des frontières propriétaires.

Tableau 1 : L'évolution de l'IA générative vers l'IA agentique

Caractéristique IA générative (2023-2024) IA agentique (2025-2026)
Fonction principale Génération de contenu (Texte, Image) Exécution de tâches et prise de décision
Interaction L'humain donne des instructions, l'IA répond L'IA observe, planifie et agit de manière autonome
Utilité principale Récupération de connaissances, rédaction Automatisation des flux de travail, opérations informatiques, traitement des transactions
Risque clé Hallucination (Fausses informations) Action non intentionnelle (Corruption de données, accès non autorisé)
Interopérabilité Faible (Interfaces de chat cloisonnées) Élevée (Nécessite des normes API/Protocole comme MCP)
Prévisions de Gartner Programmes pilotes généralisés 40 % intégrés dans les applications d'entreprise d'ici 2026

Le pari stratégique de Cisco : AgenticOps

Tandis qu'OpenAI et Anthropic pilotent les protocoles logiciels, Cisco se positionne comme la colonne vertébrale de l'infrastructure pour cette nouvelle ère. Lors du récent événement Cisco Live EMEA à Amsterdam, le géant des réseaux a dévoilé l'expansion d'AgenticOps, un modèle opérationnel conçu pour soutenir les immenses demandes de calcul et de réseau des agents autonomes.

Jeetu Patel, président et directeur des produits de Cisco, a présenté l'initiative comme une question de compétitivité nationale et économique. « AgenticOps représente un changement profond et fondamental par rapport à la complexité », a déclaré Patel. « Nous passons d'une IA qui se contente d'observer à une IA qui raisonne, décide et agit. »

Cisco identifie trois barrières critiques que la coalition doit lever pour éviter que l'IA agentique ne reste un « projet de laboratoire » :

  1. Infrastructure : Les systèmes multi-agents nécessitent des réseaux à faible latence et une puissance de calcul massive. Les nouveaux commutateurs Silicon One G300 de Cisco sont conçus spécifiquement pour gérer ces clusters d'IA.
  2. Confiance : Les organisations ne peuvent pas déployer d'agents susceptibles d'« halluciner » un changement de configuration système. AgenticOps introduit une « validation de confiance » pour vérifier les actions des agents avant exécution.
  3. Données : À mesure que les sources de données publiques s'épuisent, les entreprises ont besoin de données synthétiques et de pipelines sécurisés pour entraîner ces agents sans exposer de secrets propriétaires.

L'« USB-C » de l'IA : Normes techniques

La Fondation n'est pas qu'un simple lieu de discussion ; elle a été lancée avec trois contributions techniques concrètes conçues pour créer un langage universel pour les agents d'IA.

  • Model Context Protocol (MCP) : Offert par Anthropic, cette norme agit comme un « port USB-C » pour les applications d'IA. Elle permet aux modèles d'IA de se connecter à des référentiels de données (comme Slack, Google Drive ou GitHub) de manière standardisée, éliminant ainsi le besoin pour les développeurs de créer des intégrations personnalisées pour chaque outil.
  • AGENTS.md : Contribué par OpenAI, il s'agit d'une norme basée sur le markdown qui sert de « README » pour les agents. Elle permet aux développeurs de définir des instructions et un contexte clairs et lisibles par l'homme pour les agents de codage, garantissant qu'ils comprennent les règles d'un projet spécifique avant de commencer à écrire du code.
  • Goose : Offert par Block (anciennement Square), Goose est un framework d'agent open source qui s'exécute localement. Il fournit un modèle sur la manière dont les agents peuvent opérer en toute sécurité sur la machine d'un utilisateur, comblant le fossé entre l'intelligence cloud et l'exécution locale.

Ces normes répondent à la crainte de « fragmentation » citée par les analystes du secteur. Si chaque fournisseur construit un jardin clos, les agents deviennent inutiles pour les flux de travail complexes et multiplateformes des entreprises.

Le fossé de la confiance dans les services financiers

L'urgence de ces normes est particulièrement aiguë dans les secteurs réglementés comme la finance. Chad Davis de F5 note que pour les coopératives de crédit et les banques, la promesse de l'IA agentique — décisions de prêt automatisées, détection de la fraude et conseils financiers personnalisés — repose entièrement sur la confiance des titulaires de comptes.

« Une IA agentique transparente, explicable et conforme n'est pas seulement une nécessité réglementaire ; elle est essentielle pour la durabilité future », soutient Davis. Les institutions financières limitent actuellement les agents à des fonctions internes à faible risque car elles ne peuvent pas encore garantir qu'un agent autonome ne refusera pas un prêt sur la base d'une logique erronée. Les cadres de gouvernance proposés par l'AAIF visent à fournir la « traçabilité » et l'« observabilité » nécessaires pour satisfaire les auditeurs et les régulateurs.

Perspectives d'avenir : Une opportunité de 450 milliards de dollars

Les enjeux économiques sont massifs. Gartner prévoit que d'ici 2035, l'IA agentique pourrait générer 450 milliards de dollars de revenus pour les logiciels d'entreprise. Cependant, le chemin vers ce chiffre est bloqué par le « fossé de la confiance ».

Une enquête de McKinsey auprès de 2 000 entreprises a révélé que si 62 % expérimentent des agents d'IA, les deux tiers n'ont pas encore procédé à des déploiements significatifs en raison de préoccupations de gouvernance. De même, une enquête de Collibra a révélé que 60 % des leaders de la donnée privilégient la formation à la gouvernance mais manquent de processus formels.

En établissant l'Agentic AI Foundation, des leaders comme OpenAI et Cisco tentent de construire les « garde-fous » qui permettront aux entreprises de lâcher le volant. En cas de succès, 2026 ne sera pas seulement l'année de l'agent d'IA, mais l'année où l'entreprise lui fera enfin confiance pour accomplir le travail.

Vedettes