Switches Ethernet para IA: As Plataformas de 51,2Tbps Conectando Clusters de GPU

Switches Ethernet para IA: As Plataformas de 51,2Tbps Conectando Clusters de GPU

Switches Ethernet para IA: As Plataformas de 51,2Tbps Conectando Clusters de GPU

Atualizado em 11 de dezembro de 2025

Atualização de dezembro de 2025: Ethernet agora lidera implantações de back-end de IA segundo o Dell'Oro Group. xAI Colossus (100.000 H100s) alcançando 95% de throughput com Spectrum-X vs 60% em Ethernet tradicional. Broadcom Tomahawk 5 entregando 51,2Tbps em chip monolítico único (64x 800GbE). Especificação de 560 páginas do Ultra Ethernet Consortium formalizando padrões otimizados para IA. NVIDIA Spectrum-X800 proporcionando 1,6x de desempenho de IA sobre Ethernet tradicional.

Ethernet agora lidera implantações de redes de back-end para IA. O Dell'Oro Group relata que vantagens de custo atraentes, ecossistemas multi-vendor e familiaridade operacional impulsionam a adoção sobre InfiniBand em 2025.¹ A mudança ganha impulso à medida que o supercomputador Colossus da xAI demonstra desempenho Ethernet em escala massiva, conectando 100.000 GPUs NVIDIA Hopper usando rede Spectrum-X e alcançando 95% de throughput de dados com controle de congestionamento avançado.² Ethernet tradicional em escala similar sofre com milhares de colisões de fluxo, limitando o throughput a aproximadamente 60%.³

O silício de switches dobrou a largura de banda para atender às demandas de IA. O Tomahawk 5 da Broadcom entrega 51,2 terabits por segundo em um único chip monolítico, alimentando switches com 64 portas de 800GbE ou 128 portas de 400GbE.⁴ A plataforma Spectrum-X800 da NVIDIA iguala essa capacidade enquanto adiciona otimizações específicas para IA através de integração de software com BlueField SuperNICs. A especificação do Ultra Ethernet Consortium de junho de 2025 formaliza padrões para Ethernet otimizado para IA, estabelecendo uma estrutura de 560 páginas para controle de congestionamento, transporte RDMA e interoperabilidade multi-vendor.⁵

Broadcom Tomahawk 5 estabelece o benchmark de largura de banda

A série de switches StrataXGS Tomahawk 5 entrega 51,2 terabits por segundo de capacidade de switching Ethernet em um único dispositivo monolítico, dobrando a largura de banda do silício da geração anterior.⁶ O chip representa a dominância contínua da Broadcom em silício de switch merchant, mantendo a cadência de dobrar a largura de banda estabelecida com o Tomahawk 1 em 2014.

Decisões de arquitetura diferenciam o Tomahawk 5 dos concorrentes. Enquanto designs concorrentes de 51,2Tbps usam arquiteturas chiplet envolvendo múltiplos chiplets de sinalização SerDes ao redor de mecanismos de processamento de pacotes monolíticos, o Tomahawk 5 alcança largura de banda completa em uma única peça de silício usando tecnologia de processo de 5nm.⁷ A arquitetura de buffer compartilhado proporciona o maior desempenho e menor latência de cauda para RoCEv2 e outros protocolos RDMA críticos para cargas de trabalho de IA.⁸

Configurações de porta suportam diversos cenários de implantação: 64 portas a 800Gbps para implantações spine que requerem largura de banda máxima por porta, 128 portas a 400Gbps para switches leaf balanceados e 256 portas a 200Gbps para ambientes que requerem conectividade extensiva de servidores.⁹ O chip suporta tanto topologias Clos tradicionais quanto arquiteturas não-Clos incluindo configurações torus, Dragonfly, Dragonfly+ e Megafly otimizadas para comunicações de clusters de IA.¹⁰

Recursos avançados visam diretamente os requisitos de cargas de trabalho de IA/ML. Cognitive Routing proporciona distribuição inteligente de tráfego. Balanceamento de carga dinâmico distribui fluxos pelos caminhos disponíveis. Controle de congestionamento de ponta a ponta previne a saturação de rede que degrada a utilização de GPU.¹¹ A Broadcom afirma que o Jericho3-AI oferece mais de 10% de redução nos tempos de conclusão de trabalhos versus chips concorrentes através dessas otimizações.¹²

Ganhos de eficiência energética são substanciais. Um único Tomahawk 5 substitui quarenta e oito switches Tomahawk 1 em largura de banda equivalente, resultando em mais de 95% de redução nos requisitos de energia.¹³ Para data centers de IA já lutando com densidade de energia por rack, melhorias de eficiência de rede se compõem com otimização de computação e refrigeração.

Produtos de switch comerciais de múltiplos fornecedores utilizam silício Tomahawk 5. O N9600-64OD da FS.com entrega 64x portas 800GbE com latência sub-microssegundo.¹⁴ A série N9500 da NADDOD oferece configurações de 400G e 800G otimizadas para implantações de data centers de IA.¹⁵ A família AI Leaf 7060X6 da Arista emprega Tomahawk 5 para capacidade de 51,2Tbps em form factors de 2RU.¹⁶

NVIDIA Spectrum-X constrói Ethernet nativo para IA

A NVIDIA projetou o Spectrum-X como a primeira plataforma de rede Ethernet construída especificamente para cargas de trabalho de IA. A plataforma combina switches Spectrum SN5600 com BlueField-3 SuperNICs, acelerando o desempenho de IA generativa em 1,6x sobre implementações Ethernet tradicionais.¹⁷

O switch Spectrum-X800 SN5600 fornece 64 portas de 800GbE usando form factors OSFP e capacidade total de switching de 51,2Tbps.¹⁸ A arquitetura Spectrum-4 subjacente ao switch excede as capacidades da geração anterior tanto em capacidade quanto em densidade de portas. A integração com BlueField SuperNICs permite controle de congestionamento coordenado, roteamento adaptativo e coleta de telemetria abrangendo toda a estrutura de rede.

Implantações no mundo real validam a arquitetura. O cluster Colossus da xAI usa Ethernet Spectrum-X para treinar a família Grok de grandes modelos de linguagem em 100.000 GPUs.¹⁹ O sistema alcança 95% de throughput de dados através de tecnologia de controle de congestionamento especificamente otimizada para os padrões de comunicação em rajadas e sincronizados do treinamento distribuído de IA.²⁰

Anúncios de produtos de 2025 estendem significativamente as capacidades do Spectrum-X. Switches Spectrum-X Photonics revelados em março de 2025 fundem circuitos eletrônicos com comunicações ópticas em escala massiva.²¹ As configurações incluem 128 portas de 800Gbps (100Tbps total) e 512 portas de 800Gbps (400Tbps total), permitindo fábricas de IA conectando milhões de GPUs enquanto reduzem o consumo de energia.²²

O Spectrum-XGS Ethernet anunciado em agosto de 2025 introduz tecnologia scale-across combinando data centers distribuídos em super-fábricas de IA unificadas em giga-escala.²³ A tecnologia representa um terceiro pilar da computação de IA além do tradicional scale-up (NVLink) e scale-out (rede padrão), permitindo que organizações agreguem infraestrutura distribuída em ambientes de treinamento coerentes.

Grandes provedores de nuvem padronizam no Spectrum-X. Meta e Oracle anunciaram em outubro de 2025 que implantarão switches Ethernet Spectrum-X como uma arquitetura de rede aberta e acelerada, acelerando a eficiência do treinamento de IA.²⁴ O ecossistema multi-vendor posiciona o Spectrum-X tanto como uma solução NVIDIA quanto como uma plataforma da indústria.

Ultra Ethernet Consortium estabelece padrões prontos para IA

O Ultra Ethernet Consortium lançou a Especificação 1.0 em 11 de junho de 2025, estabelecendo uma estrutura abrangente de 560 páginas para redes de IA e HPC.²⁵ O consórcio, lançado em 2023 sob a Linux Foundation, une mais de 50 empresas de tecnologia incluindo AMD, Intel, Broadcom, Cisco, Arista, Meta, Microsoft, Dell, Samsung e Huawei.²⁶

Inovações técnicas abordam limitações fundamentais no Ethernet tradicional para cargas de trabalho de IA. A especificação define implementações RDMA aprimoradas, protocolos de transporte e mecanismos de controle de congestionamento projetados para os padrões de comunicação sincronizados e em rajadas do treinamento distribuído.²⁷

Abordagens de controle de congestionamento diferem fundamentalmente das implementações RoCE tradicionais. A abordagem UEC não depende de redes sem perdas como tradicionalmente exigido, introduzindo um modo orientado ao receptor onde endpoints podem limitar transmissões do remetente ativamente em vez de permanecer passivos.²⁸ A mudança permite a construção de redes maiores com melhor eficiência para cargas de trabalho de IA.

Metas de desempenho abrangem implantações em escala de cluster. A especificação visa tempos de ida e volta entre 1 e 20 microssegundos em clusters, otimizando especificamente para ambientes de data center executando treinamento de IA, inferência e cargas de trabalho de HPC.²⁹

Garantias de interoperabilidade previnem lock-in de fornecedor. A Especificação UEC 1.0 entrega soluções de alto desempenho através de NICs, switches, ópticos e cabos, permitindo integração multi-vendor contínua.³⁰ O padrão aberto permite que organizações obtenham componentes de múltiplos fornecedores mantendo consistência de desempenho.

A disponibilidade de produtos segue o lançamento da especificação. A Arista confirmou suporte para aprimoramentos de switching UEC 1.0 em todo o portfólio de produtos Etherlink, começando com plataformas 7060X e 7800R.³¹ Hardware de suporte de pilha completa de múltiplos fornecedores será enviado no final de 2025 ou início de 2026.³²

Arista e Cisco competem em plataformas modulares de IA

Fornecedores tradicionais de rede adaptam plataformas de data center para requisitos de cargas de trabalho de IA, competindo contra a abordagem construída especificamente pela NVIDIA.

A Série 7800R4 da Arista foi lançada em 29 de outubro de 2025 como a quarta geração de sistemas spine modulares projetados para implantações de IA.³³ A plataforma entrega 460Tbps (920Tbps full duplex) de throughput do sistema em configurações de quatro a dezesseis módulos de line card.³⁴ Contagens de portas escalam para 576x 800GbE ou 1152x 400GbE para conectividade massiva de clusters.³⁵

O 7800R4 implementa processadores Broadcom Jericho3-AI com um pipeline de pacotes otimizado para IA.³⁶ A tecnologia HyperPort combina quatro portas de 800Gbps em conexões agregadas de 3,2Tbps, permitindo 44% de redução nos tempos de conclusão de trabalhos para fluxos de largura de banda de IA comparado ao balanceamento de carga tradicional em portas separadas.³⁷ Chassis modular e switches de form fixo 7280R4 estão disponíveis agora, com variantes 7020R4 e linecards HyperPort chegando no Q1 2026.³⁸

Cisco Silicon One unifica capacidades de roteamento e switching com até 51,2Tbps de desempenho alimentado pelo ASIC G200.³⁹ A arquitetura visa tanto redes de IA scale-out quanto scale-up com alta capacidade, latência ultra-baixa e tempos reduzidos de conclusão de trabalhos.⁴⁰

Roteadores modulares da Série Cisco 8800 fornecem a base de chassis. Disponíveis em configurações de 4, 8, 12 e 18 slots, todos os modelos suportam line cards de terceira geração 36x 800G (P100) baseados em Silicon One.⁴¹ O roteador Cisco 8223 entrega capacidade de 51,2Tbps usando o chip programável Silicon One P200.⁴²

A parceria expandida Cisco-NVIDIA integra chips Silicon One na pilha Ethernet Spectrum-X, combinando switching de baixa latência, roteamento adaptativo e telemetria para suporte a clusters de GPU.⁴³ O suporte a SONiC (Software for Open Networking in the Cloud) nos switches da Série Cisco 8000 permite que organizações selecionem sistemas operacionais de rede abertos que correspondam aos requisitos operacionais.⁴⁴

RoCE torna Ethernet competitivo com InfiniBand

RDMA over Converged Ethernet (RoCE) permite que redes Ethernet igualem o desempenho do InfiniBand para cargas de trabalho de IA quando configuradas adequadamente. A Meta publicou detalhes de engenharia para seu cluster de 24.000 GPUs, afirmando que ajustaram tanto RoCE quanto InfiniBand para fornecer desempenho equivalente, com os maiores modelos treinados em sua estrutura RoCE.⁴⁵

RoCE v2 depende de configuração de rede Ethernet sem perdas. Priority Flow Control elimina perda de pacotes para classes de tráfego selecionadas. Enhanced Transmission Selection aloca largura de banda entre tipos de tráfego. Explicit Congestion Notification sinaliza congestionamento antecipado. Dynamic Congestion Control otimiza o desempenho RDMA.⁴⁶ Sem configuração adequada desses mecanismos, o desempenho RoCE degrada significativamente.

Principais plataformas de nuvem validam RoCE para cargas de trabalho de IA em produção. Os tipos de máquina A3 Ultra e A4 Compute Engine do Google Cloud utilizam RoCEv2 para rede GPU de alto desempenho.⁴⁷ O supercluster Zettascale10 da Oracle usa a estrutura de rede Acceleron RoCE com NICs Ethernet especializados contendo switches de quatro portas integrados para minimizar a latência.⁴⁸

A arquitetura de cluster de IA da Meta demonstra RoCE em escala. A estrutura de backend conecta todas as NICs RDMA em uma topologia não-bloqueante fornecendo alta largura de banda, baixa latência e transporte sem perdas entre quaisquer duas GPUs.⁴⁹ Uma topologia Clos de dois estágios organiza racks de IA em zonas, com switches de treinamento de rack servindo como switches leaf conectando GPUs via cabos DAC de cobre.⁵⁰

Considerações de custo favorecem Ethernet para muitas implantações. Para empresas de nível 2 e nível 3 implantando clusters de 256-1.024 GPUs, Ethernet com RoCE representa a recomendação padrão a menos que requisitos de latência específicos e quantificados justifiquem o custo 2x de rede do InfiniBand.⁵¹ Estudos de caso publicados de la

[Conteúdo truncado para tradução]

Solicitar Orçamento_

Conte-nos sobre seu projeto e responderemos em até 72 horas.

> TRANSMISSÃO_CONCLUÍDA

Solicitação Recebida_

Obrigado por sua consulta. Nossa equipe analisará sua solicitação e responderá em até 72 horas.

EM FILA PARA PROCESSAMENTO