
Auf der heutigen Cisco Live EMEA in Amsterdam markierte Cisco einen bedeutenden Meilenstein in der Entwicklung der Infrastruktur für Künstliche Intelligenz (Artificial Intelligence, AI) mit der Enthüllung des Silicon One G300. Dieser neue Switch-Silizium-Chip, der speziell für die Anforderungen von KI-Clustern im Gigawatt-Maßstab entwickelt wurde, verspricht, den Übergang der Branche zu Ethernet-basierten KI-Fabrics zu beschleunigen und gleichzeitig kritische Engpässe bei der Energieeffizienz und der Geschwindigkeit des Job-Abschlusses zu beheben.
Da KI-Workloads von statischen Trainingsmodellen zu dynamischen, agentischen Workflows übergehen, steht die zugrunde liegende Infrastruktur unter beispiellosem Druck. Wir bei Creati.ai betrachten den G300 nicht nur als Hardware-Upgrade, sondern als strategischen Schwenk hin zum „Intelligent Collective Networking“ – einer Architektur, die darauf ausgelegt ist, die Kollision von synchroner GPU-Kommunikation mit hoher Bandbreite und den unvorhersehbaren Verkehrsmustern von KI-Agenten der nächsten Generation zu bewältigen.
Das Herzstück der heutigen Ankündigung ist die reine Kapazität des Silicon One G300. Mit einer Ethernet-Switching-Kapazität von 102,4 Terabit pro Sekunde (Tbps) in einem einzigen Gerät ist der Chip so positioniert, dass er direkt mit den fortschrittlichsten Angeboten von Konkurrenten wie Broadcom und NVIDIA konkurrieren kann.
Entscheidend ist, dass der G300 1,6T-Ethernet-Ports unterstützt, die von Ciscos hauseigener 200-Gbps-SerDes-Technologie angetrieben werden. Diese Integration ermöglicht eine High-Radix-Skalierung – mit Unterstützung von bis zu 512 Ports –, die es Netzwerkarchitekten erlaubt, „flachere“ Netzwerke aufzubauen. Durch die Reduzierung der Anzahl der Hops zwischen den GPUs können Betreiber die Latenz und den Stromverbrauch erheblich senken – zwei Kennzahlen, welche die Gesamtkosten des Betriebs (Total Cost of Ownership, TCO) für Hyperscaler und Neo-Clouds definieren.
Jeetu Patel, President und Chief Product Officer bei Cisco, betonte die Vereinigung dieser Technologien während der Keynote: „KI-Innovationen bewegen sich schneller als je zuvor... Die heutigen Ankündigungen unterstreichen die Stärke von Cisco als einheitliche Plattform und zeigen, wie unsere Innovationen in Silizium und Systemen zusammenkommen, um für unsere Kunden Werte vom Rechenzentrum bis zum Arbeitsplatz freizusetzen.“
Reine Geschwindigkeit wird oft durch Netzwerküberlastung zunichtegemacht. In herkömmlichen KI-Clustern können Paketverluste und Jitter die Trainingsaufträge zum Stillstand bringen, wenn Tausende von GPUs gleichzeitig zu kommunizieren versuchen, wodurch teure Rechenzyklen verschwendet werden. Cisco versucht dies mit einer Reihe von Funktionen zu lösen, die als Intelligent Collective Networking bezeichnet werden.
Die G300-Architektur integriert einen massiven, voll gemeinsam genutzten 252-MB-Paketpuffer direkt auf dem Die. Im Gegensatz zu herkömmlichen Designs, die den Speicher partitionieren, ermöglicht der G300 einem Paket von jedem Port, jeden verfügbaren Platz zu nutzen. Laut internen Simulationen von Cisco führt dies zu einer 2,5-fachen Steigerung der Burst-Absorption im Vergleich zu Branchenalternativen.
Für das Training von KI-Modellen, bei dem die „Tail-Latency“ (das langsamste Paket) die Geschwindigkeit des gesamten Clusters diktiert, ist diese Pufferkapazität transformativ. Cisco berichtet, dass diese Architektur eine Steigerung der Netzwerkauslastung um 33 % (Durchsatz) und, was für KI-Forscher am kritischsten ist, eine Verbesserung der Job-Abschlusszeit (Job Completion Time, JCT) um 28 % im Vergleich zu nicht optimierten Verkehrsmustern liefert.
Eines der herausragenden technischen Merkmale des G300 ist sein Ansatz zum Lastbalancing (Load Balancing). Herkömmliches softwarebasiertes Netzwerktuning ist oft zu langsam, um auf die für KI-Workloads typischen Bursts im Mikrosekundenbereich zu reagieren.
Der G300 implementiert ein pfadbasiertes Lastbalancing in Hardware, das in der Lage ist, auf Überlastungsereignisse oder Netzwerkfehler 100.000-mal schneller zu reagieren als Software-Equivalente. Dies stellt sicher, dass der Datenverkehr intelligent über alle verfügbaren Pfade verteilt wird, ohne dass ein manuelles Eingreifen erforderlich ist. Für Betreiber, die Cluster mit Zehntausenden von GPUs verwalten, macht diese Automatisierung das ständige manuelle „Tuning“ der Network-Fabric überflüssig – ein berüchtigter Schwachpunkt bei InfiniBand- und frühen Ethernet-KI-Bereitstellungen.
Die folgende Tabelle skizziert die wichtigsten technischen Spezifikationen und Leistungsmetriken des neuen G300-Siliziums im Vergleich zu Standard-Branchen-Benchmarks für KI-Networking.
Tabelle 1: Technische Highlights des Cisco Silicon One G300
| Merkmal | Spezifikation | Auswirkung auf KI-Workloads |
|---|---|---|
| Switching-Kapazität | 102,4 Tbps | Ermöglicht massive Scale-out-Szenarien für Cluster der Gigawatt-Klasse |
| Port-Unterstützung | 1,6T Ethernet | Reduziert die Verkabelungskomplexität und erhöht die Dichte pro Rack |
| Paketpuffer | 252 MB (voll gemeinsam genutzt) | Absorbiert Mikro-Bursts, um Paketverluste während des Trainings zu verhindern |
| Lastbalancing | Hardwarebasiert (pfadbewusst) | Reagiert 100.000-mal schneller auf Überlastungsereignisse als Software |
| Durchsatzgewinn | +33 % Auslastung | Maximiert die Betriebszeit teurer GPUs und den ROI |
| Job-Abschluss | 28 % schneller (vs. nicht optimiert) | Verkürzt die Time-to-Market für das Training von Basismodellen |
| Architektur | Programmierbares P4 | Ermöglicht das Hinzufügen künftiger Protokolle (wie UEC) nach der Bereitstellung |
Die Strategie von Cisco reicht über das Silizium hinaus. Das Unternehmen führte außerdem AgenticOps ein, eine Reihe von Betriebswerkzeugen, die darauf ausgelegt sind, die Komplexität von „Agentic AI“ zu bewältigen – Systeme, in denen KI-Agenten autonom mit Tools und anderen Agenten interagieren.
Diese neuen Funktionen sind in die Nexus One-Managementkonsole integriert und bieten eine einheitliche Sicht auf den Netzwerkzustand. Durch die Kombination von Telemetriedaten des G300-Chips (der programmierbare Diagnosen auf Sitzungsebene bietet) mit hochgradiger Software-Observability können IT-Teams die Grundursache von Leistungseinbußen lokalisieren – sei es ein defektes Kabel oder eine falsch konfigurierte Routing-Tabelle –, bevor sie Auswirkungen auf den gesamten Cluster haben.
Darüber hinaus kündigte Cisco an, dass der G300 die neuen Systeme Cisco 8000 und Nexus 9100 antreiben wird. Diese fest konfigurierten und modularen Systeme sind als direkter Ersatz für bestehende Rechenzentrumsinfrastrukturen konzipiert und unterstützen die „Upgrade-in-Place“-Philosophie des Unternehmens. Dies wird durch das Adaptive Packet Processing des Chips erleichtert, das die Implementierung neuer Protokolle – wie der aufkommenden Ultra Ethernet Consortium (UEC)-Standards – über Software-Updates anstelle eines Hardware-Austauschs ermöglicht.
In der Erkenntnis, dass schnellere Netzwerke auch die Verbreitung potenzieller Bedrohungen beschleunigen, enthüllte Cisco Updates für seine KI-Abwehr-Lösung (AI Defense). Dies umfasst eine „intent-aware Inspection“ für agentische Workflows. Wenn KI-Agenten beginnen, autonom Ressourcen anzufordern und Tools auszuführen, muss das Netzwerk verifizieren, dass diese Aktionen legitim sind. Die aktualisierten SASE-Angebote (Secure Access Service Edge) können nun das „Warum“ und „Wie“ des agentischen Datenverkehrs bewerten und bieten so eine Governance-Ebene über autonome Systeme, die in reinen High-Performance-Computing-Umgebungen bisher fehlte.
Die Auswirkungen des G300 sind für den breiteren Halbleiter- und Rechenzentrumsmarkt von Bedeutung. Indem Cisco beweist, dass Ethernet durch intelligentes Buffering und Load Balancing die Leistung spezialisierter Interconnects wie InfiniBand erreichen oder übertreffen kann, validiert das Unternehmen den Trend der Branche hin zu offenen Standards für KI-Networking.
Cisco hat bestätigt, dass das Silicon One G300 SDK ab sofort verfügbar ist, wobei die ersten Hardwaresysteme, die den Chip nutzen, voraussichtlich in der zweiten Jahreshälfte 2026 ausgeliefert werden.
Für Unternehmen und Hyperscaler, die derzeit ihre Infrastruktur für 2027 planen, bedeutet das Versprechen einer 28-prozentigen Reduzierung der Trainingszeit potenzielle Einsparungen in Höhe von Hunderten Millionen Dollar. Während sich das KI-Rennen intensiviert, wird die Effizienz des Netzwerks genauso entscheidend wie die Geschwindigkeit der GPU, und mit dem G300 hat Cisco einen starken Anspruch auf diese Zukunft erhoben.