Ethernet-switches voor AI: De 51,2Tbps platforms die GPU-clusters verbinden
Bijgewerkt op 11 december 2025
Update december 2025: Ethernet leidt nu AI back-end implementaties volgens Dell'Oro Group. xAI Colossus (100.000 H100's) behaalt 95% doorvoer met Spectrum-X versus 60% op traditioneel Ethernet. Broadcom Tomahawk 5 levert 51,2Tbps in een enkele monolithische chip (64x 800GbE). Ultra Ethernet Consortium 560-pagina specificatie formaliseert AI-geoptimaliseerde standaarden. NVIDIA Spectrum-X800 biedt 1,6x AI-prestaties ten opzichte van traditioneel Ethernet.
Ethernet leidt nu AI back-end netwerkimplementaties. Dell'Oro Group rapporteert dat overtuigende kostenvoordelen, multi-vendor ecosystemen en operationele vertrouwdheid de adoptie boven InfiniBand in 2025 stimuleren.¹ De verschuiving wint aan momentum nu xAI's Colossus-supercomputer Ethernet-prestaties op enorme schaal demonstreert, waarbij 100.000 NVIDIA Hopper GPU's worden verbonden met Spectrum-X-netwerken en 95% datadoorvoer wordt behaald met geavanceerde congestiecontrole.² Traditioneel Ethernet op vergelijkbare schaal lijdt onder duizenden flow-botsingen, waardoor de doorvoer beperkt blijft tot ongeveer 60%.³
Switch-silicium heeft de bandbreedte verdubbeld om aan AI-eisen te voldoen. Broadcom's Tomahawk 5 levert 51,2 terabits per seconde in een enkele monolithische chip, waarmee switches met 64 poorten van 800GbE of 128 poorten van 400GbE worden aangedreven.⁴ NVIDIA's Spectrum-X800-platform evenaart deze capaciteit terwijl het AI-specifieke optimalisaties toevoegt door software-integratie met BlueField SuperNICs. De Ultra Ethernet Consortium-specificatie van juni 2025 formaliseert standaarden voor AI-geoptimaliseerd Ethernet, met een 560-pagina framework voor congestiecontrole, RDMA-transport en multi-vendor interoperabiliteit.⁵
Broadcom Tomahawk 5 zet de bandbreedtebenchmark
De StrataXGS Tomahawk 5-switchserie levert 51,2 terabits per seconde aan Ethernet-switchcapaciteit in een enkel monolithisch apparaat, waarmee de bandbreedte van vorige generatie silicium wordt verdubbeld.⁶ De chip vertegenwoordigt Broadcom's voortdurende dominantie in merchant switch-silicium, waarbij de bandbreedteverdubbelingscadans wordt gehandhaafd die met Tomahawk 1 in 2014 werd vastgesteld.
Architectuurbeslissingen onderscheiden Tomahawk 5 van concurrenten. Terwijl concurrerende 51,2Tbps-ontwerpen chiplet-architecturen gebruiken die meerdere signalerings-SerDes-chiplets rond monolithische pakketverwerkingsengines wikkelen, bereikt Tomahawk 5 volledige bandbreedte in een enkel stuk silicium met behulp van 5nm-procestechnologie.⁷ De shared-buffer-architectuur biedt de hoogste prestaties en laagste tail-latency voor RoCEv2 en andere RDMA-protocollen die cruciaal zijn voor AI-workloads.⁸
Poortconfiguraties ondersteunen diverse implementatiescenario's: 64 poorten op 800Gbps voor spine-implementaties die maximale per-poort bandbreedte vereisen, 128 poorten op 400Gbps voor gebalanceerde leaf-switches, en 256 poorten op 200Gbps voor omgevingen die uitgebreide serverconnectiviteit vereisen.⁹ De chip ondersteunt zowel traditionele Clos-topologieën als non-Clos-architecturen, waaronder torus-, Dragonfly-, Dragonfly+- en Megafly-configuraties geoptimaliseerd voor AI-clustercommunicatie.¹⁰
Geavanceerde functies richten zich direct op AI/ML-workloadvereisten. Cognitive Routing biedt intelligente verkeersdistributie. Dynamische load balancing spreidt flows over beschikbare paden. End-to-end congestiecontrole voorkomt de netwerkverzadiging die GPU-benutting verslechtert.¹¹ Broadcom claimt dat Jericho3-AI meer dan 10% kortere job completion times biedt versus concurrerende chips door deze optimalisaties.¹²
Energie-efficiëntiewinsten blijken substantieel. Een enkele Tomahawk 5 vervangt achtenveertig Tomahawk 1-switches in equivalente bandbreedte, resulterend in meer dan 95% reductie in stroomvereisten.¹³ Voor AI-datacenters die al worstelen met per-rack stroomdichtheid, stapelen netwerkefficiëntieverbeteringen zich op met compute- en koelingsoptimalisatie.
Commerciële switchproducten van meerdere leveranciers maken gebruik van Tomahawk 5-silicium. FS.com's N9600-64OD levert 64x 800GbE-poorten met sub-microseconde latency.¹⁴ NADDOD's N9500-serie biedt zowel 400G- als 800G-configuraties geoptimaliseerd voor AI-datacenterimplementaties.¹⁵ Arista's 7060X6 AI Leaf-familie gebruikt Tomahawk 5 voor 51,2Tbps capaciteit in 2RU-vormfactoren.¹⁶
NVIDIA Spectrum-X bouwt AI-native Ethernet
NVIDIA ontwierp Spectrum-X als het eerste Ethernet-netwerkplatform dat specifiek is gebouwd voor AI-workloads. Het platform combineert Spectrum SN5600-switches met BlueField-3 SuperNICs, waardoor generatieve AI-prestaties met 1,6x worden versneld ten opzichte van traditionele Ethernet-implementaties.¹⁷
De Spectrum-X800 SN5600-switch biedt 64 poorten van 800GbE met OSFP-vormfactoren en 51,2Tbps totale switchcapaciteit.¹⁸ De Spectrum-4-architectuur die ten grondslag ligt aan de switch overtreft de vorige generatie mogelijkheden in zowel capaciteit als poortdichtheid. Integratie met BlueField SuperNICs maakt gecoördineerde congestiecontrole, adaptieve routing en telemetrieverzameling mogelijk over de gehele netwerkfabric.
Real-world implementaties valideren de architectuur. xAI's Colossus-cluster gebruikt Spectrum-X Ethernet om de Grok-familie van grote taalmodellen te trainen over 100.000 GPU's.¹⁹ Het systeem bereikt 95% datadoorvoer door congestiecontroletechnologie die specifiek is geoptimaliseerd voor de burst-achtige, gesynchroniseerde communicatiepatronen van gedistribueerde AI-training.²⁰
Productaankondigingen van 2025 breiden de Spectrum-X-mogelijkheden aanzienlijk uit. Spectrum-X Photonics-switches onthuld in maart 2025 fuseren elektronische circuits met optische communicatie op enorme schaal.²¹ Configuraties omvatten 128 poorten van 800Gbps (100Tbps totaal) en 512 poorten van 800Gbps (400Tbps totaal), waardoor AI-fabrieken miljoenen GPU's kunnen verbinden terwijl het energieverbruik wordt verminderd.²²
Spectrum-XGS Ethernet aangekondigd in augustus 2025 introduceert scale-across-technologie die gedistribueerde datacenters combineert tot uniforme giga-scale AI-superfabrieken.²³ De technologie vertegenwoordigt een derde pijler van AI-computing naast traditionele scale-up (NVLink) en scale-out (standaard netwerken), waardoor organisaties gedistribueerde infrastructuur kunnen aggregeren tot coherente trainingsomgevingen.
Grote cloudproviders standaardiseren op Spectrum-X. Meta en Oracle kondigden in oktober 2025 aan dat ze Spectrum-X Ethernet-switches zullen implementeren als een open, versnelde netwerkarchitectuur die AI-trainingsefficiëntie versnelt.²⁴ Het multi-vendor ecosysteem positioneert Spectrum-X als zowel een NVIDIA-oplossing als een industrieplatform.
Ultra Ethernet Consortium stelt AI-ready standaarden vast
Het Ultra Ethernet Consortium bracht Specificatie 1.0 uit op 11 juni 2025, waarmee een uitgebreid 560-pagina framework voor AI- en HPC-netwerken werd vastgesteld.²⁵ Het consortium, gelanceerd in 2023 onder de Linux Foundation, verenigt meer dan 50 technologiebedrijven, waaronder AMD, Intel, Broadcom, Cisco, Arista, Meta, Microsoft, Dell, Samsung en Huawei.²⁶
Technische innovaties pakken fundamentele beperkingen in traditioneel Ethernet voor AI-workloads aan. De specificatie definieert verbeterde RDMA-implementaties, transportprotocollen en congestiebeheersmechanismen ontworpen voor de gesynchroniseerde, burst-achtige communicatiepatronen van gedistribueerde training.²⁷
Congestiecontrolebenaderingen verschillen fundamenteel van traditionele RoCE-implementaties. De UEC-benadering vertrouwt niet op lossless netwerken zoals traditioneel vereist, en introduceert een receiver-driven modus waarbij endpoints zendertransmissies actief kunnen beperken in plaats van passief te blijven.²⁸ De verschuiving maakt de constructie van grotere netwerken met betere efficiëntie voor AI-workloads mogelijk.
Prestatiedoelen omvatten cluster-schaal implementaties. De specificatie streeft naar round-trip times tussen 1 en 20 microseconden over clusters, specifiek geoptimaliseerd voor datacenteromgevingen die AI-training, inferentie en HPC-workloads uitvoeren.²⁹
Interoperabiliteitsgaranties voorkomen vendor lock-in. UEC Specificatie 1.0 levert hoogwaardige oplossingen over NIC's, switches, optica en kabels, waardoor naadloze multi-vendor integratie mogelijk wordt.³⁰ De open standaard stelt organisaties in staat componenten van meerdere leveranciers te betrekken met behoud van prestatieconsistentie.
Productbeschikbaarheid volgt na specificatierelease. Arista bevestigde ondersteuning voor UEC 1.0-switchverbeteringen over het Etherlink-productportfolio, beginnend met 7060X- en 7800R-platforms.³¹ Full-stack ondersteunende hardware van meerdere leveranciers wordt geleverd tegen eind 2025 of begin 2026.³²
Arista en Cisco concurreren in modulaire AI-platforms
Traditionele netwerkleveranciers passen datacenterplatforms aan voor AI-workloadvereisten, en concurreren met NVIDIA's doelgerichte aanpak.
Arista's 7800R4-serie lanceerde op 29 oktober 2025 als de vierde generatie modulaire spine-systemen ontworpen voor AI-implementaties.³³ Het platform levert 460Tbps (920Tbps full duplex) systeemdoorvoer over configuraties van vier tot zestien line card-modules.³⁴ Poortaantallen schalen tot 576x 800GbE of 1152x 400GbE voor massieve clusterconnectiviteit.³⁵
De 7800R4 implementeert Broadcom Jericho3-AI-processors met een AI-geoptimaliseerde pakketpipeline.³⁶ HyperPort-technologie combineert vier 800Gbps-poorten tot 3,2Tbps geaggregeerde verbindingen, waardoor 44% kortere job completion times voor AI-bandbreedteflows mogelijk worden vergeleken met traditionele load balancing over afzonderlijke poorten.³⁷ Modulaire chassis en 7280R4 fixed-form switches worden nu geleverd, met 7020R4-varianten en HyperPort-linecards die in Q1 2026 arriveren.³⁸
Cisco Silicon One verenigt routing- en switchingmogelijkheden met tot 51,2Tbps prestaties aangedreven door de G200 ASIC.³⁹ De architectuur richt zich op zowel AI scale-out als scale-up netwerken met hoge capaciteit, ultralage latency en verminderde job completion times.⁴⁰
Cisco 8800-serie modulaire routers bieden de chassis-basis. Beschikbaar in 4-, 8-, 12- en 18-slot configuraties, alle modellen ondersteunen derde generatie 36x 800G (P100) line cards gebaseerd op Silicon One.⁴¹ De Cisco 8223-router levert 51,2Tbps capaciteit met de Silicon One P200 programmeerbare chip.⁴²
Het uitgebreide Cisco-NVIDIA-partnerschap integreert Silicon One-chips in de Spectrum-X Ethernet-stack, waarbij low-latency switching, adaptieve routing en telemetrie worden gecombineerd voor GPU-clusterondersteuning.⁴³ SONiC (Software for Open Networking in the Cloud)-ondersteuning op Cisco 8000-serie switches stelt organisaties in staat om open network operating systems te selecteren die aansluiten bij operationele vereisten.⁴⁴
RoCE maakt Ethernet concurrerend met InfiniBand
RDMA over Converged Ethernet (RoCE) stelt Ethernet-netwerken in staat om InfiniBand-prestaties te evenaren voor AI-workloads wanneer correct geconfigureerd. Meta publiceerde engineeringdetails voor hun 24.000-GPU-cluster, waarin ze verklaarden dat ze zowel RoCE als InfiniBand hadden afgestemd om equivalente prestaties te leveren, waarbij de grootste modellen werden getraind op hun RoCE-fabric.⁴⁵
RoCE v2 vertrouwt op lossless Ethernet-netwerkconfiguratie. Priority Flow Control elimineert pakketverlies voor geselecteerde verkeersklassen. Enhanced Transmission Selection wijst bandbreedte toe over verkeerstypen. Explicit Congestion Notification signaleert vroege congestie. Dynamic Congestion Control optimaliseert RDMA-prestaties.⁴⁶ Zonder juiste configuratie van deze mechanismen verslechteren RoCE-prestaties aanzienlijk.
Grote cloudplatforms valideren RoCE voor productie-AI-workloads. Google Cloud's A3 Ultra en A4 Compute Engine machine types maken gebruik van RoCEv2 voor high-performance GPU-netwerken.⁴⁷ Oracle's Zettascale10-supercluster gebruikt de Acceleron RoCE-netwerkfabric met gespecialiseerde Ethernet-NIC's die geïntegreerde four-port switches bevatten om latency te minimaliseren.⁴⁸
Meta's AI-clusterarchitectuur demonstreert RoCE op schaal. De backend-fabric verbindt alle RDMA-NIC's in een non-blocking topologie die hoge bandbreedte, lage latency en lossless transport biedt tussen twee willekeurige GPU's.⁴⁹ Een two-stage Clos-topologie organiseert AI-racks in zones, met rack training switches die dienen als leaf switches die GPU's verbinden via koperen DAC-kabels.⁵⁰
Kostenoverwegingen bevoordelen Ethernet voor veel implementaties. Voor tier 2 en tier 3 bedrijven die 256-1.024 GPU-clusters implementeren, vertegenwoordigt Ethernet met RoCE de standaardaanbeveling, tenzij specifieke, gekwantificeerde latencyvereisten de 2x netwerkkosten van InfiniBand rechtvaardigen.⁵¹ Gepubliceerde casestudies van la
[Inhoud afgekapt voor vertaling]