Switches Ethernet para IA: Las Plataformas de 51.2Tbps que Conectan Clústeres de GPUs
Actualizado el 11 de diciembre de 2025
Actualización de diciembre de 2025: Ethernet ahora lidera los despliegues de redes back-end para IA según Dell'Oro Group. xAI Colossus (100,000 H100s) alcanza 95% de rendimiento con Spectrum-X vs 60% en Ethernet tradicional. Broadcom Tomahawk 5 entrega 51.2Tbps en un solo chip monolítico (64x 800GbE). El Ultra Ethernet Consortium publica especificación de 560 páginas formalizando estándares optimizados para IA. NVIDIA Spectrum-X800 proporciona 1.6x de rendimiento en IA sobre Ethernet tradicional.
Ethernet ahora lidera los despliegues de redes back-end para IA. Dell'Oro Group informa que las ventajas de costo convincentes, los ecosistemas multi-proveedor y la familiaridad operacional impulsan la adopción sobre InfiniBand en 2025.¹ El cambio gana impulso mientras la supercomputadora Colossus de xAI demuestra el rendimiento de Ethernet a escala masiva, conectando 100,000 GPUs NVIDIA Hopper usando redes Spectrum-X y alcanzando 95% de rendimiento de datos con control de congestión avanzado.² El Ethernet tradicional a escala similar sufre de miles de colisiones de flujo, limitando el rendimiento a aproximadamente 60%.³
El silicio de switches ha duplicado el ancho de banda para satisfacer las demandas de IA. El Tomahawk 5 de Broadcom entrega 51.2 terabits por segundo en un solo chip monolítico, alimentando switches con 64 puertos de 800GbE o 128 puertos de 400GbE.⁴ La plataforma Spectrum-X800 de NVIDIA iguala esta capacidad mientras añade optimizaciones específicas para IA a través de la integración de software con BlueField SuperNICs. La especificación del Ultra Ethernet Consortium de junio de 2025 formaliza estándares para Ethernet optimizado para IA, estableciendo un marco de 560 páginas para control de congestión, transporte RDMA e interoperabilidad multi-proveedor.⁵
Broadcom Tomahawk 5 establece el punto de referencia en ancho de banda
La serie de switches StrataXGS Tomahawk 5 entrega 51.2 terabits por segundo de capacidad de conmutación Ethernet en un solo dispositivo monolítico, duplicando el ancho de banda del silicio de generación anterior.⁶ El chip representa el dominio continuo de Broadcom en silicio de switches comerciales, manteniendo la cadencia de duplicación de ancho de banda establecida con Tomahawk 1 en 2014.
Las decisiones de arquitectura diferencian al Tomahawk 5 de los competidores. Mientras los diseños competidores de 51.2Tbps usan arquitecturas de chiplets envolviendo múltiples chiplets SerDes de señalización alrededor de motores de procesamiento de paquetes monolíticos, Tomahawk 5 logra el ancho de banda completo en una sola pieza de silicio usando tecnología de proceso de 5nm.⁷ La arquitectura de buffer compartido proporciona el mayor rendimiento y la menor latencia de cola para RoCEv2 y otros protocolos RDMA críticos para cargas de trabajo de IA.⁸
Las configuraciones de puertos soportan diversos escenarios de despliegue: 64 puertos a 800Gbps para despliegues spine que requieren máximo ancho de banda por puerto, 128 puertos a 400Gbps para switches leaf balanceados, y 256 puertos a 200Gbps para entornos que requieren conectividad extensa de servidores.⁹ El chip soporta tanto topologías Clos tradicionales como arquitecturas no-Clos incluyendo configuraciones torus, Dragonfly, Dragonfly+ y Megafly optimizadas para comunicaciones de clústeres de IA.¹⁰
Las características avanzadas apuntan directamente a los requisitos de cargas de trabajo de IA/ML. Cognitive Routing proporciona distribución inteligente de tráfico. El balanceo de carga dinámico distribuye flujos a través de las rutas disponibles. El control de congestión de extremo a extremo previene la saturación de red que degrada la utilización de GPUs.¹¹ Broadcom afirma que Jericho3-AI ofrece más de 10% de reducción en tiempos de completación de trabajos versus chips competidores a través de estas optimizaciones.¹²
Las ganancias en eficiencia energética resultan sustanciales. Un solo Tomahawk 5 reemplaza cuarenta y ocho switches Tomahawk 1 en ancho de banda equivalente, resultando en más de 95% de reducción en requisitos de energía.¹³ Para centros de datos de IA que ya luchan con la densidad de potencia por rack, las mejoras de eficiencia en redes se combinan con la optimización de cómputo y enfriamiento.
Productos de switches comerciales de múltiples proveedores aprovechan el silicio Tomahawk 5. El N9600-64OD de FS.com entrega 64x puertos 800GbE con latencia sub-microsegundo.¹⁴ La serie N9500 de NADDOD ofrece configuraciones tanto de 400G como de 800G optimizadas para despliegues en centros de datos de IA.¹⁵ La familia 7060X6 AI Leaf de Arista emplea Tomahawk 5 para capacidad de 51.2Tbps en factores de forma de 2RU.¹⁶
NVIDIA Spectrum-X construye Ethernet nativo para IA
NVIDIA diseñó Spectrum-X como la primera plataforma de redes Ethernet construida específicamente para cargas de trabajo de IA. La plataforma combina switches Spectrum SN5600 con BlueField-3 SuperNICs, acelerando el rendimiento de IA generativa en 1.6x sobre implementaciones Ethernet tradicionales.¹⁷
El switch Spectrum-X800 SN5600 proporciona 64 puertos de 800GbE usando factores de forma OSFP y capacidad total de conmutación de 51.2Tbps.¹⁸ La arquitectura Spectrum-4 subyacente al switch excede las capacidades de generaciones anteriores tanto en capacidad como en densidad de puertos. La integración con BlueField SuperNICs permite control de congestión coordinado, enrutamiento adaptativo y recolección de telemetría abarcando toda la infraestructura de red.
Los despliegues en el mundo real validan la arquitectura. El clúster Colossus de xAI usa Spectrum-X Ethernet para entrenar la familia de modelos de lenguaje grandes Grok a través de 100,000 GPUs.¹⁹ El sistema alcanza 95% de rendimiento de datos a través de tecnología de control de congestión específicamente optimizada para los patrones de comunicación sincronizados y en ráfagas del entrenamiento distribuido de IA.²⁰
Los anuncios de productos de 2025 extienden significativamente las capacidades de Spectrum-X. Los switches Spectrum-X Photonics revelados en marzo de 2025 fusionan circuitos electrónicos con comunicaciones ópticas a escala masiva.²¹ Las configuraciones incluyen 128 puertos de 800Gbps (100Tbps total) y 512 puertos de 800Gbps (400Tbps total), permitiendo fábricas de IA que conectan millones de GPUs mientras reducen el consumo de energía.²²
Spectrum-XGS Ethernet anunciado en agosto de 2025 introduce tecnología scale-across que combina centros de datos distribuidos en super-fábricas de IA unificadas a giga-escala.²³ La tecnología representa un tercer pilar de computación de IA más allá del tradicional scale-up (NVLink) y scale-out (redes estándar), permitiendo a las organizaciones agregar infraestructura distribuida en entornos de entrenamiento coherentes.
Los principales proveedores de nube estandarizan en Spectrum-X. Meta y Oracle anunciaron en octubre de 2025 que desplegarán switches Ethernet Spectrum-X como una arquitectura de redes abierta y acelerada que acelera la eficiencia del entrenamiento de IA.²⁴ El ecosistema multi-proveedor posiciona a Spectrum-X tanto como una solución de NVIDIA como una plataforma de la industria.
El Ultra Ethernet Consortium establece estándares listos para IA
El Ultra Ethernet Consortium lanzó la Especificación 1.0 el 11 de junio de 2025, estableciendo un marco integral de 560 páginas para redes de IA y HPC.²⁵ El consorcio, lanzado en 2023 bajo la Linux Foundation, une a más de 50 empresas de tecnología incluyendo AMD, Intel, Broadcom, Cisco, Arista, Meta, Microsoft, Dell, Samsung y Huawei.²⁶
Las innovaciones técnicas abordan limitaciones fundamentales en Ethernet tradicional para cargas de trabajo de IA. La especificación define implementaciones RDMA mejoradas, protocolos de transporte y mecanismos de control de congestión diseñados para los patrones de comunicación sincronizados y en ráfagas del entrenamiento distribuido.²⁷
Los enfoques de control de congestión difieren fundamentalmente de las implementaciones RoCE tradicionales. El enfoque UEC no depende de redes sin pérdida como tradicionalmente se requería, introduciendo un modo dirigido por el receptor donde los endpoints pueden limitar las transmisiones del emisor activamente en lugar de permanecer pasivos.²⁸ El cambio permite la construcción de redes más grandes con mejor eficiencia para cargas de trabajo de IA.
Los objetivos de rendimiento abarcan despliegues a escala de clúster. La especificación apunta a tiempos de ida y vuelta entre 1 y 20 microsegundos a través de clústeres, optimizando específicamente para entornos de centros de datos que ejecutan entrenamiento de IA, inferencia y cargas de trabajo HPC.²⁹
Las garantías de interoperabilidad previenen la dependencia de proveedores. La Especificación UEC 1.0 entrega soluciones de alto rendimiento a través de NICs, switches, óptica y cables, permitiendo integración multi-proveedor sin problemas.³⁰ El estándar abierto permite a las organizaciones obtener componentes de múltiples proveedores mientras mantienen consistencia en el rendimiento.
La disponibilidad de productos sigue al lanzamiento de la especificación. Arista confirmó soporte para mejoras de conmutación UEC 1.0 a través del portafolio de productos Etherlink, comenzando con las plataformas 7060X y 7800R.³¹ Hardware de soporte de pila completa de múltiples proveedores se envía a finales de 2025 o principios de 2026.³²
Arista y Cisco compiten en plataformas modulares de IA
Los proveedores de redes tradicionales adaptan plataformas de centros de datos para requisitos de cargas de trabajo de IA, compitiendo contra el enfoque construido específicamente de NVIDIA.
La Serie 7800R4 de Arista se lanzó el 29 de octubre de 2025 como la cuarta generación de sistemas spine modulares diseñados para despliegues de IA.³³ La plataforma entrega 460Tbps (920Tbps full duplex) de rendimiento del sistema a través de configuraciones de cuatro a dieciséis módulos de tarjetas de línea.³⁴ Los conteos de puertos escalan a 576x 800GbE o 1152x 400GbE para conectividad masiva de clústeres.³⁵
El 7800R4 implementa procesadores Broadcom Jericho3-AI con un pipeline de paquetes optimizado para IA.³⁶ La tecnología HyperPort combina cuatro puertos de 800Gbps en conexiones agregadas de 3.2Tbps, permitiendo 44% de reducción en tiempos de completación de trabajos para flujos de ancho de banda de IA comparado con el balanceo de carga tradicional a través de puertos separados.³⁷ Los chasis modulares y los switches de forma fija 7280R4 se envían ahora, con variantes 7020R4 y tarjetas de línea HyperPort llegando en Q1 2026.³⁸
Cisco Silicon One unifica capacidades de enrutamiento y conmutación con hasta 51.2Tbps de rendimiento potenciado por el ASIC G200.³⁹ La arquitectura apunta tanto a redes scale-out como scale-up de IA con alta capacidad, latencia ultra-baja y tiempos de completación de trabajos reducidos.⁴⁰
Los routers modulares Cisco Serie 8800 proporcionan la base del chasis. Disponibles en configuraciones de 4, 8, 12 y 18 slots, todos los modelos soportan tarjetas de línea de tercera generación 36x 800G (P100) basadas en Silicon One.⁴¹ El router Cisco 8223 entrega capacidad de 51.2Tbps usando el chip programable Silicon One P200.⁴²
La asociación expandida Cisco-NVIDIA integra chips Silicon One en la pila Ethernet Spectrum-X, combinando conmutación de baja latencia, enrutamiento adaptativo y telemetría para soporte de clústeres de GPU.⁴³ El soporte de SONiC (Software for Open Networking in the Cloud) en switches Cisco Serie 8000 permite a las organizaciones seleccionar sistemas operativos de red abiertos que coincidan con los requisitos operacionales.⁴⁴
RoCE hace a Ethernet competitivo con InfiniBand
RDMA over Converged Ethernet (RoCE) permite a las redes Ethernet igualar el rendimiento de InfiniBand para cargas de trabajo de IA cuando se configura correctamente. Meta publicó detalles de ingeniería para su clúster de 24,000 GPUs, declarando que ajustaron tanto RoCE como InfiniBand para proporcionar rendimiento equivalente, con los modelos más grandes entrenados en su infraestructura RoCE.⁴⁵
RoCE v2 depende de la configuración de red Ethernet sin pérdida. Priority Flow Control elimina la pérdida de paquetes para clases de tráfico seleccionadas. Enhanced Transmission Selection asigna ancho de banda a través de tipos de tráfico. Explicit Congestion Notification señala congestión temprana. Dynamic Congestion Control optimiza el rendimiento RDMA.⁴⁶ Sin la configuración adecuada de estos mecanismos, el rendimiento de RoCE se degrada significativamente.
Las principales plataformas de nube validan RoCE para cargas de trabajo de IA en producción. Los tipos de máquinas A3 Ultra y A4 Compute Engine de Google Cloud aprovechan RoCEv2 para redes GPU de alto rendimiento.⁴⁷ El superclúster Zettascale10 de Oracle usa la infraestructura de red Acceleron RoCE con NICs Ethernet especializadas que contienen switches integrados de cuatro puertos para minimizar la latencia.⁴⁸
La arquitectura del clúster de IA de Meta demuestra RoCE a escala. La infraestructura backend conecta todas las NICs RDMA en una topología sin bloqueo proporcionando alto ancho de banda, baja latencia y transporte sin pérdida entre cualquier par de GPUs.⁴⁹ Una topología Clos de dos etapas organiza los racks de IA en zonas, con switches de entrenamiento de rack sirviendo como switches leaf conectando GPUs vía cables DAC de cobre.⁵⁰
Las consideraciones de costo favorecen a Ethernet para muchos despliegues. Para empresas de nivel 2 y nivel 3 desplegando clústeres de 256-1,024 GPUs, Ethernet con RoCE representa la recomendación predeterminada a menos que requisitos de latencia específicos y cuantificados justifiquen el costo de red 2x de InfiniBand.⁵¹ Los estudios de caso publicados de la
[Contenido truncado para traducción]