AI News

Cisco redéfinit les réseaux d'IA avec le Silicon One G300 pour les clusters à l'échelle du gigawatt

Lors du Cisco Live EMEA à Amsterdam aujourd'hui, Cisco a franchi une étape importante dans l'évolution de l'infrastructure d'intelligence artificielle avec le dévoilement du Silicon One G300. Ce nouveau silicium de commutation, conçu spécifiquement pour les exigences des clusters d'IA à l'échelle du gigawatt (gigawatt-scale AI clusters), promet d'accélérer la transition de l'industrie vers les architectures d'IA basées sur Ethernet (Ethernet-based AI fabrics) tout en résolvant les goulots d'étranglement critiques de l'efficacité énergétique et des vitesses d'exécution des tâches.

Alors que les charges de travail d'IA passent de modèles d'entraînement statiques à des flux de travail agentiques et dynamiques, l'infrastructure sous-jacente fait face à une pression sans précédent. Chez Creati.ai, nous considérons le G300 non seulement comme une mise à niveau matérielle, mais comme un pivot stratégique vers le « Réseautage Collectif Intelligent » (Intelligent Collective Networking) — une architecture conçue pour gérer la collision entre la communication GPU synchrone à haute bande passante et les modèles de trafic imprévisibles des agents d'IA de nouvelle génération.

L'architecture de la vitesse : 102,4 Tbps et au-delà

La pièce maîtresse de l'annonce d'aujourd'hui est la capacité brute du Silicon One G300. Offrant 102,4 térabits par seconde (Tbps) de capacité de commutation Ethernet dans un seul composant, la puce est positionnée pour rivaliser directement avec les offres les plus avancées de concurrents comme Broadcom et NVIDIA.

Surtout, le G300 prend en charge les ports Ethernet 1,6T alimentés par la technologie interne SerDes 200 Gbps de Cisco. Cette intégration permet une mise à l'échelle à haute densité (high-radix scaling) — supportant jusqu'à 512 ports — ce qui permet aux architectes réseau de construire des réseaux plus « plats ». En réduisant le nombre de sauts (hops) entre les GPU, les opérateurs peuvent considérablement abaisser la latence et la consommation d'énergie, deux mesures qui définissent le coût total de possession (Total Cost of Ownership - TCO) pour les hyperscalers et les néo-clouds.

Jeetu Patel, Président et Chief Product Officer chez Cisco, a souligné l'unification de ces technologies lors du discours d'ouverture : « L'innovation en matière d'IA progresse plus rapidement que jamais... Les annonces d'aujourd'hui mettent en lumière la puissance de Cisco en tant que plateforme unifiée, montrant comment nos innovations dans le silicium et les systèmes s'unissent pour libérer de la valeur pour nos clients, du centre de données au lieu de travail. »

Résoudre le paradoxe de l'efficacité avec le Réseautage Collectif Intelligent

La vitesse brute est souvent annulée par la congestion du réseau. Dans les clusters d'IA traditionnels, lorsque des milliers de GPU tentent de communiquer simultanément, la perte de paquets et la gigue (jitter) peuvent bloquer les tâches d'entraînement, gaspillant des cycles de calcul coûteux. Cisco tente de résoudre ce problème avec une suite de fonctionnalités baptisée Réseautage Collectif Intelligent (Intelligent Collective Networking).

L'architecture du G300 intègre un tampon de paquets massivement partagé de 252 Mo (fully shared packet buffer) directement sur la puce. Contrairement aux conceptions traditionnelles qui partitionnent la mémoire, le G300 permet à un paquet de n'importe quel port d'utiliser n'importe quel espace disponible. Selon les simulations internes de Cisco, cela se traduit par une augmentation de 2,5x de l'absorption des pics (burst absorption) par rapport aux alternatives de l'industrie.

Pour l'entraînement des modèles d'IA, où la « latence de queue » (tail latency - le paquet le plus lent) dicte la vitesse de l'ensemble du cluster, cette capacité de mise en mémoire tampon est transformatrice. Cisco rapporte que cette architecture offre une augmentation de 33 % de l'utilisation du réseau (débit) et, ce qui est plus critique pour les chercheurs en IA, une amélioration de 28 % du Temps d'Exécution des Tâches (Job Completion Time - JCT) par rapport aux modèles de trafic non optimisés.

Équilibrage de charge accéléré par le matériel

L'une des caractéristiques techniques marquantes du G300 est son approche de l'équilibrage de charge. L'optimisation réseau traditionnelle basée sur le logiciel est souvent trop lente pour réagir aux pics de l'ordre de la microseconde typiques des charges de travail d'IA.

Le G300 implémente l'équilibrage de charge basé sur le chemin (path-based load balancing) au niveau matériel, capable de réagir aux événements de congestion ou aux pannes de réseau 100 000 fois plus vite que les équivalents logiciels. Cela garantit que le trafic est réparti intelligemment sur tous les chemins disponibles sans intervention manuelle. Pour les opérateurs gérant des clusters de dizaines de milliers de GPU, cette automatisation élimine le besoin d'un « réglage » manuel constant de la structure du réseau, un point de friction notoire dans les déploiements InfiniBand et les premiers déploiements Ethernet pour l'IA.

Comparaison : Spécifications clés du Cisco Silicon One G300

Le tableau suivant présente les spécifications techniques de base et les mesures de performance du nouveau silicium G300 par rapport aux références standards de l'industrie pour les réseaux d'IA.

Tableau 1 : Points forts techniques du Cisco Silicon One G300

Caractéristique Spécification Impact sur les charges de travail d'IA
Capacité de commutation 102,4 Tbps Permet une extension massive pour les clusters de classe gigawatt
Support des ports Ethernet 1,6T Réduit la complexité du câblage et augmente la densité par rack
Tampon de paquets 252 Mo (entièrement partagé) Absorbe les micro-pics pour éviter la perte de paquets pendant l'entraînement
Équilibrage de charge Matériel (sensible au chemin) Réagit 100 000 fois plus vite que le logiciel aux événements de congestion
Gain de débit +33 % d'utilisation Maximise le temps de fonctionnement des GPU coûteux et le ROI
Exécution des tâches 28 % plus rapide (vs non optimisé) Réduit le temps de mise sur le marché pour l'entraînement de modèles de fondation
Architecture P4 programmable Permet d'ajouter de futurs protocoles (comme l'UEC) après le déploiement

L'essor de l'AgenticOps et de l'intégration des systèmes

La stratégie de Cisco s'étend au-delà du silicium. L'entreprise a également introduit AgenticOps, un ensemble d'outils opérationnels conçus pour gérer la complexité de l'« IA Agentique » (Agentic AI) — des systèmes où des agents d'IA interagissent de manière autonome avec des outils et d'autres agents.

Ces nouvelles capacités sont intégrées dans la console de gestion Nexus One, offrant une vue unifiée de la santé du réseau. En combinant la télémétrie de la puce G300 (qui offre des diagnostics programmables au niveau de la session) avec une observabilité logicielle de haut niveau, les équipes informatiques peuvent identifier la cause profonde d'une dégradation des performances — qu'il s'agisse d'un câble défectueux ou d'une table de routage mal configurée — avant qu'elle n'impacte l'ensemble du cluster.

De plus, Cisco a annoncé que le G300 alimentera les nouveaux systèmes Cisco 8000 et Nexus 9100. Ces systèmes fixes et modulaires sont conçus pour remplacer directement l'infrastructure de centre de données existante, soutenant la philosophie de l'entreprise de « mise à niveau sur place ». Ceci est facilité par le Traitement Adaptatif des Paquets (Adaptive Packet Processing) de la puce, qui permet d'implémenter de nouveaux protocoles — tels que les normes émergentes de l'Ultra Ethernet Consortium (UEC) — via des mises à jour logicielles plutôt que par le remplacement du matériel.

La sécurité à l'ère des agents autonomes

Reconnaissant que des réseaux plus rapides accélèrent également la propagation des menaces potentielles, Cisco a dévoilé des mises à jour de sa solution AI Defense. Cela inclut l'« inspection tenant compte de l'intention » (intent-aware inspection) pour les flux de travail agentiques. Alors que les agents d'IA commencent à demander des ressources et à exécuter des outils de manière autonome, le réseau doit vérifier que ces actions sont légitimes. Les offres SASE (Secure Access Service Edge) mises à jour peuvent désormais évaluer le « pourquoi » et le « comment » du trafic agentique, fournissant une couche de gouvernance sur les systèmes autonomes qui manquait auparavant dans les environnements de calcul haute performance purs.

Disponibilité et perspectives du marché

Les implications du G300 sont significatives pour le marché plus large des semi-conducteurs et des centres de données. En prouvant que l'Ethernet peut égaler ou dépasser les performances d'interconnexions spécialisées comme l'InfiniBand grâce à une mise en mémoire tampon et un équilibrage de charge intelligents, Cisco valide le mouvement de l'industrie vers des standards ouverts pour les réseaux d'IA.

Cisco a confirmé que le SDK du Silicon One G300 est disponible dès maintenant, les premiers systèmes matériels utilisant la puce devant être livrés au cours du second semestre 2026.

Pour les entreprises et les hyperscalers qui planifient actuellement leur infrastructure pour 2027, la promesse d'une réduction de 28 % du temps d'entraînement représente des centaines de millions de dollars d'économies potentielles. Alors que la course à l'IA s'intensifie, l'efficacité du réseau devient tout aussi critique que la vitesse du GPU, et avec le G300, Cisco a posé un jalon puissant pour cet avenir.

Vedettes