
Hoy en Cisco Live EMEA en Ámsterdam, Cisco marcó un hito significativo en la evolución de la infraestructura de inteligencia artificial con la presentación del Silicon One G300. Este nuevo silicio para conmutadores (switch silicon), diseñado específicamente para las exigencias de los clústeres de IA a escala de gigavatios, promete acelerar el cambio de la industria hacia arquitecturas de IA (AI fabrics) basadas en Ethernet, abordando al mismo tiempo cuellos de botella críticos en la eficiencia energética y la velocidad de finalización de tareas.
A medida que las cargas de trabajo de IA pasan de modelos de entrenamiento estáticos a flujos de trabajo agénticos (agentic workflows) dinámicos, la infraestructura subyacente enfrenta una presión sin precedentes. En Creati.ai, vemos el G300 no solo como una actualización de hardware, sino como un giro estratégico hacia el "Intelligent Collective Networking" (Redes Colectivas Inteligentes): una arquitectura diseñada para gestionar la colisión de la comunicación síncrona de GPU de alto ancho de banda con los patrones de tráfico impredecibles de los agentes de IA de próxima generación.
La pieza central del anuncio de hoy es la capacidad bruta del Silicon One G300. Al ofrecer 102,4 terabits por segundo (Tbps) de capacidad de conmutación Ethernet (Ethernet switching) en un solo dispositivo, el chip se posiciona para competir directamente con las ofertas más avanzadas de rivales como Broadcom y NVIDIA.
Crucialmente, el G300 admite puertos Ethernet de 1,6T impulsados por la tecnología SerDes de 200 Gbps propia de Cisco. Esta integración permite un escalado de alta raíz (high-radix scaling), admitiendo hasta 512 puertos, lo que permite a los arquitectos de redes construir redes más "planas". Al reducir el número de saltos (hops) entre las GPU, los operadores pueden reducir significativamente la latencia y el consumo de energía, dos métricas que definen el costo total de propiedad (TCO) para los hiperescaladores y las neo-clouds.
Jeetu Patel, presidente y director de productos de Cisco, enfatizó la unificación de estas tecnologías durante la conferencia magistral: "La innovación en IA se mueve más rápido que nunca... Los anuncios de hoy destacan el poder de Cisco como una plataforma unificada, mostrando cómo nuestras innovaciones en silicio y sistemas se unen para desbloquear valor para nuestros clientes, desde el centro de datos hasta el lugar de trabajo".
La velocidad bruta a menudo queda anulada por la congestión de la red. En los clústeres de IA tradicionales, cuando miles de GPU intentan comunicarse simultáneamente, la pérdida de paquetes y la fluctuación (jitter) pueden detener las tareas de entrenamiento, desperdiciando costosos ciclos de cómputo. Cisco intenta resolver esto con un conjunto de funciones denominadas Intelligent Collective Networking.
La arquitectura del G300 integra un enorme búfer de paquetes de 252 MB totalmente compartido directamente en el chip (die). A diferencia de los diseños tradicionales que particionan la memoria, el G300 permite que un paquete de cualquier puerto utilice cualquier espacio disponible. Según las simulaciones internas de Cisco, esto da como resultado un aumento de 2,5 veces en la absorción de ráfagas en comparación con las alternativas de la industria.
Para el entrenamiento de modelos de IA, donde la "latencia de cola" (tail latency) (el paquete más lento) dicta la velocidad de todo el clúster, esta capacidad de almacenamiento en búfer es transformadora. Cisco informa que esta arquitectura ofrece un aumento del 33% en la utilización de la red (rendimiento) y, lo que es más crítico para los investigadores de IA, una mejora del 28% en el Job Completion Time (JCT) (tiempo de finalización de tareas) en comparación con los patrones de tráfico no optimizados.
Una de las características técnicas más destacadas del G300 es su enfoque para el equilibrio de carga (load balancing). El ajuste de red tradicional basado en software suele ser demasiado lento para reaccionar a las ráfagas de nivel de microsegundos típicas de las cargas de trabajo de IA.
El G300 implementa el equilibrio de carga basado en rutas en hardware, capaz de reaccionar a eventos de congestión o fallas de red 100.000 veces más rápido que los equivalentes de software. Esto asegura que el tráfico se distribuya de manera inteligente a través de todas las rutas disponibles sin intervención manual. Para los operadores que gestionan clústeres con decenas de miles de GPU, esta automatización elimina la necesidad de un "ajuste" manual constante de la red, un punto de dolor notorio en los despliegues de InfiniBand y las primeras versiones de IA sobre Ethernet.
La siguiente tabla resume las especificaciones técnicas principales y las métricas de rendimiento del nuevo silicio G300 en comparación con los estándares de la industria para redes de IA.
Tabla 1: Aspectos técnicos destacados de Cisco Silicon One G300
| Función | Especificación | Impacto en las cargas de trabajo de IA |
|---|---|---|
| Capacidad de conmutación | 102,4 Tbps | Permite un escalado masivo para clústeres de clase gigavatio |
| Soporte de puertos | 1,6T Ethernet | Reduce la complejidad del cableado y aumenta la densidad por rack |
| Búfer de paquetes | 252 MB (totalmente compartido) | Absorbe microráfagas para evitar la pérdida de paquetes durante el entrenamiento |
| Equilibrio de carga | Basado en hardware (consciente de la ruta) | Reacciona 100.000 veces más rápido que el software ante eventos de congestión |
| Ganancia de rendimiento | +33% de utilización | Maximiza el tiempo de actividad de las costosas GPU y el ROI |
| Finalización de tareas | 28% más rápido (vs. no optimizado) | Reduce el tiempo de comercialización para el entrenamiento de modelos fundacionales |
| Arquitectura | P4 programable | Permite añadir protocolos futuros (como UEC) después del despliegue |
La estrategia de Cisco se extiende más allá del silicio. La empresa también presentó AgenticOps, un conjunto de herramientas operativas diseñadas para gestionar la complejidad de la "IA Agéntica" (Agentic AI): sistemas donde los agentes de IA interactúan de forma autónoma con herramientas y otros agentes.
Estas nuevas capacidades están integradas en la consola de gestión Nexus One, proporcionando una visión unificada del estado de la red. Al combinar la telemetría del chip G300 (que ofrece diagnósticos de nivel de sesión programables) con la observabilidad de software de alto nivel, los equipos de TI pueden identificar la causa raíz de la degradación del rendimiento, ya sea un cable defectuoso o una tabla de enrutamiento mal configurada, antes de que afecte al clúster en general.
Además, Cisco anunció que el G300 impulsará los nuevos sistemas Cisco 8000 y Nexus 9100. Estos sistemas fijos y modulares están diseñados para ser reemplazos directos de la infraestructura de centros de datos existente, respaldando la filosofía de la empresa de "actualización en el lugar" (upgrade in place). Esto es posible gracias al procesamiento adaptativo de paquetes (Adaptive Packet Processing) del chip, que permite que nuevos protocolos, como los estándares emergentes del Ultra Ethernet Consortium (UEC), se implementen mediante actualizaciones de software en lugar de reemplazo de hardware.
Reconociendo que las redes más rápidas también aceleran la propagación de amenazas potenciales, Cisco presentó actualizaciones de su solución AI Defense. Esto incluye la "inspección consciente de la intención" (intent-aware inspection) para flujos de trabajo agénticos. A medida que los agentes de IA comienzan a solicitar recursos y ejecutar herramientas de forma autónoma, la red debe verificar que estas acciones sean legítimas. Las ofertas actualizadas de SASE (Secure Access Service Edge) ahora pueden evaluar el "por qué" y el "cómo" del tráfico agéntico, proporcionando una capa de gobernanza sobre los sistemas autónomos que anteriormente faltaba en los entornos puros de computación de alto rendimiento.
Las implicaciones del G300 son significativas para el mercado más amplio de semiconductores y centros de datos. Al demostrar que Ethernet puede igualar o superar el rendimiento de las interconexiones especializadas como InfiniBand a través del almacenamiento en búfer inteligente y el equilibrio de carga, Cisco está validando el movimiento de la industria hacia estándares abiertos para las redes de IA.
Cisco ha confirmado que el SDK del Silicon One G300 ya está disponible, y se espera que los primeros sistemas de hardware que utilicen el chip se envíen en la segunda mitad de 2026.
Para las empresas e hiperescaladores que actualmente planifican su infraestructura para 2027, la promesa de una reducción del 28% en el tiempo de entrenamiento representa cientos de millones de dólares en ahorros potenciales. A medida que la carrera de la IA se intensifica, la eficiencia de la red se vuelve tan crítica como la velocidad de la GPU, y con el G300, Cisco ha marcado una posición poderosa en ese futuro.