Commutateurs Ethernet pour l'IA : Les plateformes 51,2 Tbps connectant les clusters GPU

Commutateurs Ethernet pour l'IA : Les plateformes 51,2 Tbps connectant les clusters GPU

Commutateurs Ethernet pour l'IA : Les plateformes 51,2 Tbps connectant les clusters GPU

Mis à jour le 11 décembre 2025

Mise à jour décembre 2025 : L'Ethernet domine désormais les déploiements réseau back-end pour l'IA selon Dell'Oro Group. xAI Colossus (100 000 H100) atteint 95 % de débit avec Spectrum-X contre 60 % sur Ethernet traditionnel. Broadcom Tomahawk 5 délivre 51,2 Tbps dans une seule puce monolithique (64x 800GbE). Le consortium Ultra Ethernet publie une spécification de 560 pages formalisant les standards optimisés pour l'IA. NVIDIA Spectrum-X800 offre 1,6x les performances IA par rapport à l'Ethernet traditionnel.

L'Ethernet domine désormais les déploiements réseau back-end pour l'IA. Dell'Oro Group rapporte que les avantages de coût convaincants, les écosystèmes multi-fournisseurs et la familiarité opérationnelle favorisent son adoption par rapport à InfiniBand en 2025.¹ Ce changement prend de l'ampleur alors que le supercalculateur Colossus de xAI démontre les performances de l'Ethernet à grande échelle, connectant 100 000 GPU NVIDIA Hopper via le réseau Spectrum-X et atteignant 95 % de débit de données grâce à un contrôle de congestion avancé.² L'Ethernet traditionnel à une échelle similaire souffre de milliers de collisions de flux, limitant le débit à environ 60 %.³

Le silicium des commutateurs a doublé sa bande passante pour répondre aux exigences de l'IA. Le Tomahawk 5 de Broadcom délivre 51,2 térabits par seconde dans une seule puce monolithique, alimentant des commutateurs avec 64 ports 800GbE ou 128 ports 400GbE.⁴ La plateforme Spectrum-X800 de NVIDIA égale cette capacité tout en ajoutant des optimisations spécifiques à l'IA grâce à l'intégration logicielle avec les SuperNIC BlueField. La spécification du consortium Ultra Ethernet de juin 2025 formalise les standards pour l'Ethernet optimisé IA, établissant un cadre de 560 pages pour le contrôle de congestion, le transport RDMA et l'interopérabilité multi-fournisseurs.⁵

Broadcom Tomahawk 5 établit la référence en bande passante

La série de commutateurs StrataXGS Tomahawk 5 délivre 51,2 térabits par seconde de capacité de commutation Ethernet dans un seul dispositif monolithique, doublant la bande passante du silicium de génération précédente.⁶ La puce représente la domination continue de Broadcom dans le silicium de commutation marchand, maintenant la cadence de doublement de bande passante établie avec Tomahawk 1 en 2014.

Les décisions architecturales différencient Tomahawk 5 de ses concurrents. Alors que les conceptions concurrentes à 51,2 Tbps utilisent des architectures chiplet enveloppant plusieurs chiplets SerDes de signalisation autour de moteurs de traitement de paquets monolithiques, Tomahawk 5 atteint la pleine bande passante dans une seule pièce de silicium utilisant la technologie de processus 5nm.⁷ L'architecture à tampon partagé offre les meilleures performances et la latence de queue la plus faible pour RoCEv2 et autres protocoles RDMA critiques pour les charges de travail IA.⁸

Les configurations de ports supportent divers scénarios de déploiement : 64 ports à 800 Gbps pour les déploiements spine nécessitant une bande passante maximale par port, 128 ports à 400 Gbps pour des commutateurs leaf équilibrés, et 256 ports à 200 Gbps pour les environnements nécessitant une connectivité serveur étendue.⁹ La puce supporte à la fois les topologies Clos traditionnelles et les architectures non-Clos incluant les configurations torus, Dragonfly, Dragonfly+ et Megafly optimisées pour les communications de clusters IA.¹⁰

Les fonctionnalités avancées ciblent directement les exigences des charges de travail IA/ML. Le Cognitive Routing fournit une distribution intelligente du trafic. L'équilibrage de charge dynamique répartit les flux sur les chemins disponibles. Le contrôle de congestion de bout en bout empêche la saturation réseau qui dégrade l'utilisation des GPU.¹¹ Broadcom affirme que Jericho3-AI offre plus de 10 % de réduction des temps d'achèvement des tâches par rapport aux puces concurrentes grâce à ces optimisations.¹²

Les gains d'efficacité énergétique s'avèrent substantiels. Un seul Tomahawk 5 remplace quarante-huit commutateurs Tomahawk 1 en bande passante équivalente, résultant en une réduction de plus de 95 % des besoins en énergie.¹³ Pour les data centers IA déjà confrontés à la densité de puissance par rack, les améliorations d'efficacité réseau se combinent avec l'optimisation du calcul et du refroidissement.

Les produits de commutation commerciaux de plusieurs fournisseurs exploitent le silicium Tomahawk 5. Le N9600-64OD de FS.com délivre 64x ports 800GbE avec une latence inférieure à la microseconde.¹⁴ La série N9500 de NADDOD offre des configurations 400G et 800G optimisées pour les déploiements de data centers IA.¹⁵ La famille AI Leaf 7060X6 d'Arista emploie Tomahawk 5 pour une capacité de 51,2 Tbps dans des formats 2RU.¹⁶

NVIDIA Spectrum-X construit un Ethernet natif pour l'IA

NVIDIA a conçu Spectrum-X comme la première plateforme réseau Ethernet spécialement construite pour les charges de travail IA. La plateforme combine les commutateurs Spectrum SN5600 avec les SuperNIC BlueField-3, accélérant les performances de l'IA générative de 1,6x par rapport aux implémentations Ethernet traditionnelles.¹⁷

Le commutateur Spectrum-X800 SN5600 fournit 64 ports 800GbE utilisant des formats OSFP et une capacité totale de commutation de 51,2 Tbps.¹⁸ L'architecture Spectrum-4 sous-jacente au commutateur dépasse les capacités de la génération précédente tant en capacité qu'en densité de ports. L'intégration avec les SuperNIC BlueField permet un contrôle de congestion coordonné, un routage adaptatif et une collecte de télémétrie couvrant l'ensemble du fabric réseau.

Les déploiements réels valident l'architecture. Le cluster Colossus de xAI utilise l'Ethernet Spectrum-X pour entraîner la famille de grands modèles de langage Grok sur 100 000 GPU.¹⁹ Le système atteint 95 % de débit de données grâce à une technologie de contrôle de congestion spécifiquement optimisée pour les schémas de communication en rafales et synchronisés de l'entraînement IA distribué.²⁰

Les annonces produits de 2025 étendent significativement les capacités de Spectrum-X. Les commutateurs Spectrum-X Photonics dévoilés en mars 2025 fusionnent circuits électroniques et communications optiques à grande échelle.²¹ Les configurations incluent 128 ports à 800 Gbps (100 Tbps au total) et 512 ports à 800 Gbps (400 Tbps au total), permettant aux usines d'IA de connecter des millions de GPU tout en réduisant la consommation d'énergie.²²

Spectrum-XGS Ethernet annoncé en août 2025 introduit la technologie scale-across combinant des data centers distribués en super-usines IA unifiées à l'échelle giga.²³ Cette technologie représente un troisième pilier du calcul IA au-delà du scale-up traditionnel (NVLink) et du scale-out (réseau standard), permettant aux organisations d'agréger une infrastructure distribuée en environnements d'entraînement cohérents.

Les principaux fournisseurs cloud se standardisent sur Spectrum-X. Meta et Oracle ont annoncé en octobre 2025 qu'ils déploieraient des commutateurs Ethernet Spectrum-X comme architecture réseau ouverte et accélérée, améliorant l'efficacité de l'entraînement IA.²⁴ L'écosystème multi-fournisseurs positionne Spectrum-X à la fois comme une solution NVIDIA et comme une plateforme industrielle.

Le consortium Ultra Ethernet établit des standards prêts pour l'IA

Le consortium Ultra Ethernet a publié la Spécification 1.0 le 11 juin 2025, établissant un cadre complet de 560 pages pour le réseau IA et HPC.²⁵ Le consortium, lancé en 2023 sous la Linux Foundation, réunit plus de 50 entreprises technologiques incluant AMD, Intel, Broadcom, Cisco, Arista, Meta, Microsoft, Dell, Samsung et Huawei.²⁶

Les innovations techniques adressent les limitations fondamentales de l'Ethernet traditionnel pour les charges de travail IA. La spécification définit des implémentations RDMA améliorées, des protocoles de transport et des mécanismes de contrôle de congestion conçus pour les schémas de communication synchronisés et en rafales de l'entraînement distribué.²⁷

Les approches de contrôle de congestion diffèrent fondamentalement des implémentations RoCE traditionnelles. L'approche UEC ne repose pas sur des réseaux sans perte comme traditionnellement requis, introduisant un mode piloté par le récepteur où les endpoints peuvent limiter activement les transmissions de l'émetteur plutôt que de rester passifs.²⁸ Ce changement permet la construction de réseaux plus grands avec une meilleure efficacité pour les charges de travail IA.

Les objectifs de performance couvrent les déploiements à l'échelle du cluster. La spécification vise des temps aller-retour entre 1 et 20 microsecondes à travers les clusters, optimisant spécifiquement pour les environnements de data center exécutant l'entraînement IA, l'inférence et les charges de travail HPC.²⁹

Les garanties d'interopérabilité préviennent l'enfermement fournisseur. La Spécification UEC 1.0 délivre des solutions haute performance à travers les NIC, commutateurs, optiques et câbles, permettant une intégration multi-fournisseurs transparente.³⁰ Le standard ouvert permet aux organisations de s'approvisionner en composants auprès de plusieurs fournisseurs tout en maintenant la cohérence des performances.

La disponibilité des produits suit la publication de la spécification. Arista a confirmé le support des améliorations de commutation UEC 1.0 à travers le portefeuille de produits Etherlink, en commençant par les plateformes 7060X et 7800R.³¹ Le matériel de support full-stack de plusieurs fournisseurs sera livré fin 2025 ou début 2026.³²

Arista et Cisco rivalisent dans les plateformes IA modulaires

Les fournisseurs de réseau traditionnels adaptent les plateformes de data center aux exigences des charges de travail IA, concurrençant l'approche spécialement construite de NVIDIA.

La série 7800R4 d'Arista lancée le 29 octobre 2025 est la quatrième génération de systèmes spine modulaires conçus pour les déploiements IA.³³ La plateforme délivre un débit système de 460 Tbps (920 Tbps en full duplex) à travers des configurations de quatre à seize modules de cartes de ligne.³⁴ Le nombre de ports évolue jusqu'à 576x 800GbE ou 1152x 400GbE pour une connectivité massive de clusters.³⁵

Le 7800R4 implémente les processeurs Broadcom Jericho3-AI avec un pipeline de paquets optimisé pour l'IA.³⁶ La technologie HyperPort combine quatre ports 800 Gbps en connexions agrégées de 3,2 Tbps, permettant des temps d'achèvement des tâches 44 % plus courts pour les flux de bande passante IA par rapport à l'équilibrage de charge traditionnel sur des ports séparés.³⁷ Les châssis modulaires et les commutateurs à format fixe 7280R4 sont disponibles maintenant, avec les variantes 7020R4 et les cartes de ligne HyperPort arrivant au T1 2026.³⁸

Cisco Silicon One unifie les capacités de routage et de commutation avec des performances jusqu'à 51,2 Tbps alimentées par l'ASIC G200.³⁹ L'architecture cible à la fois le réseau IA scale-out et scale-up avec une haute capacité, une latence ultra-faible et des temps d'achèvement des tâches réduits.⁴⁰

Les routeurs modulaires Cisco série 8800 fournissent la fondation en châssis. Disponibles en configurations 4, 8, 12 et 18 slots, tous les modèles supportent les cartes de ligne de troisième génération 36x 800G (P100) basées sur Silicon One.⁴¹ Le routeur Cisco 8223 délivre une capacité de 51,2 Tbps utilisant la puce programmable Silicon One P200.⁴²

Le partenariat étendu Cisco-NVIDIA intègre les puces Silicon One dans la pile Ethernet Spectrum-X, combinant commutation à faible latence, routage adaptatif et télémétrie pour le support des clusters GPU.⁴³ Le support SONiC (Software for Open Networking in the Cloud) sur les commutateurs Cisco série 8000 permet aux organisations de sélectionner des systèmes d'exploitation réseau ouverts correspondant aux exigences opérationnelles.⁴⁴

RoCE rend l'Ethernet compétitif face à InfiniBand

RDMA over Converged Ethernet (RoCE) permet aux réseaux Ethernet d'égaler les performances d'InfiniBand pour les charges de travail IA lorsqu'il est correctement configuré. Meta a publié les détails d'ingénierie pour son cluster de 24 000 GPU, déclarant avoir ajusté à la fois RoCE et InfiniBand pour fournir des performances équivalentes, les plus grands modèles étant entraînés sur leur fabric RoCE.⁴⁵

RoCE v2 repose sur une configuration réseau Ethernet sans perte. Le Priority Flow Control élimine la perte de paquets pour les classes de trafic sélectionnées. L'Enhanced Transmission Selection alloue la bande passante entre les types de trafic. L'Explicit Congestion Notification signale la congestion précoce. Le Dynamic Congestion Control optimise les performances RDMA.⁴⁶ Sans configuration appropriée de ces mécanismes, les performances RoCE se dégradent significativement.

Les principales plateformes cloud valident RoCE pour les charges de travail IA en production. Les types de machines A3 Ultra et A4 Compute Engine de Google Cloud exploitent RoCEv2 pour le réseau GPU haute performance.⁴⁷ Le supercluster Zettascale10 d'Oracle utilise le fabric réseau Acceleron RoCE avec des NIC Ethernet spécialisés contenant des commutateurs intégrés à quatre ports pour minimiser la latence.⁴⁸

L'architecture du cluster IA de Meta démontre RoCE à grande échelle. Le fabric backend connecte tous les NIC RDMA dans une topologie non-bloquante fournissant haute bande passante, faible latence et transport sans perte entre deux GPU quelconques.⁴⁹ Une topologie Clos à deux étages organise les racks IA en zones, avec des commutateurs d'entraînement rack servant de commutateurs leaf connectant les GPU via des câbles DAC en cuivre.⁵⁰

Les considérations de coût favorisent l'Ethernet pour de nombreux déploiements. Pour les entreprises de niveau 2 et 3 déployant des clusters de 256 à 1 024 GPU, l'Ethernet avec RoCE représente la recommandation par défaut sauf si des exigences de latence spécifiques et quantifiées justifient le coût réseau 2x d'InfiniBand.⁵¹ Les études de cas publiées de la

[Contenu tronqué pour la traduction]

Demander un devis_

Parlez-nous de votre projet et nous vous répondrons sous 72 heures.

> TRANSMISSION_TERMINÉE

Demande reçue_

Merci pour votre demande. Notre équipe examinera votre requête et vous répondra sous 72 heures.

EN ATTENTE DE TRAITEMENT