
Na Cisco Live EMEA em Amsterdã hoje, a Cisco marcou um marco significativo na evolução da infraestrutura de inteligência artificial com a revelação do Silicon One G300. Este novo silício de switch, projetado especificamente para as demandas de clusters de IA em escala de gigawatt, promete acelerar a mudança da indústria em direção a estruturas de IA baseadas em Ethernet (Ethernet-based AI fabrics), ao mesmo tempo em que aborda gargalos críticos em eficiência de energia e velocidades de conclusão de tarefas.
À medida que as cargas de trabalho de IA transitam de modelos de treinamento estáticos para fluxos de trabalho agentes (agentic workflows) dinâmicos, a infraestrutura subjacente enfrenta uma pressão sem precedentes. Na Creati.ai, vemos o G300 não apenas como uma atualização de hardware, mas como um pivô estratégico em direção ao "Intelligent Collective Networking" (Redes Coletivas Inteligentes)—uma arquitetura projetada para lidar com a colisão da comunicação síncrona de GPUs de alta largura de banda com os padrões de tráfego imprevisíveis dos agentes de IA de próxima geração.
A peça central do anúncio de hoje é a capacidade bruta do Silicon One G300. Entregando 102,4 terabits por segundo (Tbps) de capacidade de <a href="/ai-tools/nextgenswitch/">Ethernet switching</a> em um único dispositivo, o chip está posicionado para competir diretamente com as ofertas mais avançadas de rivais como Broadcom e NVIDIA.
Crucialmente, o G300 suporta portas Ethernet de 1,6T alimentadas pela tecnologia interna SerDes de 200 Gbps da Cisco. Esta integração permite o escalonamento de alto radix—suportando até 512 portas—o que permite aos arquitetos de rede construir redes "mais planas" (flatter). Ao reduzir o número de saltos entre GPUs, os operadores podem diminuir significativamente a latência e o consumo de energia, duas métricas que definem o custo total de propriedade (TCO) para hiperescaladores e neo-clouds.
Jeetu Patel, Presidente e Diretor de Produtos da Cisco, enfatizou a unificação dessas tecnologias durante a palestra: "A inovação em IA está se movendo mais rápido do que nunca... Os anúncios de hoje destacam o poder da Cisco como uma plataforma unificada, demonstrando como nossas inovações em silício e sistemas se unem para desbloquear valor para nossos clientes, do data center ao local de trabalho."
A velocidade bruta é frequentemente anulada pelo congestionamento da rede. Em clusters de IA tradicionais, quando milhares de GPUs tentam se comunicar simultaneamente, a perda de pacotes e o jitter podem paralisar os trabalhos de treinamento, desperdiçando ciclos de computação caros. A Cisco tenta resolver isso com um conjunto de recursos apelidado de Intelligent Collective Networking.
A arquitetura G300 integra um enorme buffer de pacotes totalmente compartilhado de 252 MB diretamente no die. Ao contrário dos designs tradicionais que particionam a memória, o G300 permite que um pacote de qualquer porta utilize qualquer espaço disponível. De acordo com as simulações internas da Cisco, isso resulta em um aumento de 2,5 vezes na absorção de picos (burst absorption) em comparação com as alternativas da indústria.
Para o treinamento de modelos de IA, onde a "tail latency" (latência de cauda) dita a velocidade de todo o cluster, esta capacidade de buffer é transformadora. A Cisco relata que esta arquitetura oferece um aumento de 33% na utilização da rede (throughput) e, o que é mais crítico para pesquisadores de IA, uma melhoria de 28% no Job Completion Time (JCT) em comparação com padrões de tráfego não otimizados.
Um dos recursos técnicos de destaque do G300 é sua abordagem para o balanceamento de carga. O ajuste de rede tradicional baseado em software é frequentemente lento demais para reagir aos picos de nível de microssegundos típicos das cargas de trabalho de IA.
O G300 implementa balanceamento de carga baseado em caminho (path-based load balancing) em hardware, capaz de reagir a eventos de congestionamento ou falhas de rede 100.000 vezes mais rápido que os equivalentes em software. Isso garante que o tráfego seja distribuído de forma inteligente por todos os caminhos disponíveis sem intervenção manual. Para operadores que gerenciam clusters com dezenas de milhares de GPUs, essa automação remove a necessidade de ajuste manual constante da estrutura de rede, um ponto problemático notório em implantações de InfiniBand e das primeiras Ethernet para IA.
A tabela a seguir descreve as especificações técnicas principais e as métricas de desempenho do novo silício G300 em comparação com as linhas de base padrão da indústria para redes de IA.
Tabela 1: Destaques Técnicos do Cisco Silicon One G300
| Recurso | Especificação | Impacto nas Cargas de Trabalho de IA |
|---|---|---|
| Capacidade de Comutação | 102,4 Tbps | Permite scale-out massivo para clusters de classe gigawatt |
| Suporte de Portas | 1,6T Ethernet | Reduz a complexidade do cabeamento e aumenta a densidade por rack |
| Buffer de Pacotes | 252 MB (Totalmente Compartilhado) | Absorve micro-picos para evitar perda de pacotes durante o treinamento |
| Balanceamento de Carga | Baseado em hardware (Ciente do caminho) | Reage 100.000x mais rápido que o software a eventos de congestionamento |
| Ganho de Vazão | +33% de Utilização | Maximiza o tempo de atividade das GPUs caras e o ROI |
| Conclusão do Trabalho | 28% Mais Rápido (vs. não otimizado) | Reduz o tempo de lançamento no mercado para o treinamento de modelos fundamentais |
| Arquitetura | P4 Programável | Permite que protocolos futuros (como UEC) sejam adicionados após a implantação |
A estratégia da Cisco se estende além do silício. A empresa também introduziu o AgenticOps, um conjunto de ferramentas operacionais projetadas para gerenciar a complexidade da "IA Agente" (Agentic AI)—sistemas onde agentes de IA interagem autonomamente com ferramentas e outros agentes.
Essas novas capacidades estão integradas ao console de gerenciamento Nexus One, fornecendo uma visão unificada da integridade da rede. Ao combinar a telemetria do chip G300 (que oferece diagnósticos programáveis em nível de sessão) com a observabilidade de software de alto nível, as equipes de TI podem identificar a causa raiz da degradação de desempenho—seja um cabo com falha ou uma tabela de roteamento mal configurada—antes que isso impacte o cluster mais amplo.
Além disso, a Cisco anunciou que o G300 alimentará os novos sistemas Cisco 8000 e Nexus 9100. Estes sistemas fixos e modulares foram projetados para serem substitutos diretos da infraestrutura de data center existente, apoiando a filosofia de "atualização no local" (upgrade in place) da empresa. Isso é facilitado pelo Adaptive Packet Processing do chip, que permite que novos protocolos—como os padrões emergentes do Ultra Ethernet Consortium (UEC)—sejam implementados via atualizações de software em vez de substituição de hardware.
Reconhecendo que redes mais rápidas também aceleram a propagação de ameaças potenciais, a Cisco revelou atualizações em sua solução AI Defense. Isso inclui "inspeção ciente de intenção" (intent-aware inspection) para fluxos de trabalho agentes. À medida que os agentes de IA começam a solicitar recursos e executar ferramentas de forma autônoma, a rede deve verificar se essas ações são legítimas. As ofertas atualizadas de SASE (Secure Access Service Edge) agora podem avaliar o "porquê" e o "como" do tráfego agente, fornecendo uma camada de governança sobre sistemas autônomos que anteriormente faltava em ambientes de computação de alto desempenho puros.
As implicações do G300 são significativas para o mercado mais amplo de semicondutores e data centers. Ao provar que a Ethernet pode igualar ou exceder o desempenho de interconexões especializadas como InfiniBand por meio de buffer inteligente e balanceamento de carga, a Cisco está validando a mudança da indústria em direção a padrões abertos para redes de IA.
A Cisco confirmou que o SDK do Silicon One G300 está disponível agora, com os primeiros sistemas de hardware utilizando o chip previstos para serem enviados na segunda metade de 2026.
Para empresas e hiperescaladores que planejam atualmente sua infraestrutura para 2027, a promessa de uma redução de 28% no tempo de treinamento representa centenas de milhões de dólares em economias potenciais. À medida que a corrida da IA se intensifica, a eficiência da rede está se tornando tão crítica quanto a velocidade da GPU e, com o G300, a Cisco estabeleceu uma posição poderosa nesse futuro.