Ethernet-Switches für KI: Die 51,2-Tbps-Plattformen, die GPU-Cluster verbinden
Aktualisiert am 11. Dezember 2025
Update Dezember 2025: Ethernet führt laut Dell'Oro Group jetzt bei KI-Backend-Implementierungen. xAI Colossus (100.000 H100s) erreicht 95% Durchsatz mit Spectrum-X gegenüber 60% bei herkömmlichem Ethernet. Broadcom Tomahawk 5 liefert 51,2 Tbps in einem einzelnen monolithischen Chip (64x 800GbE). Ultra Ethernet Consortium veröffentlicht 560-seitige Spezifikation zur Formalisierung KI-optimierter Standards. NVIDIA Spectrum-X800 bietet 1,6-fache KI-Leistung gegenüber herkömmlichem Ethernet.
Ethernet führt jetzt bei KI-Backend-Netzwerkimplementierungen. Dell'Oro Group berichtet, dass überzeugende Kostenvorteile, Multi-Vendor-Ökosysteme und betriebliche Vertrautheit die Adoption gegenüber InfiniBand im Jahr 2025 vorantreiben.¹ Der Wandel gewinnt an Dynamik, da xAIs Colossus-Supercomputer Ethernet-Leistung im Großmaßstab demonstriert und 100.000 NVIDIA Hopper GPUs mit Spectrum-X-Netzwerken verbindet, wobei 95% Datendurchsatz mit fortschrittlicher Überlastungskontrolle erreicht werden.² Herkömmliches Ethernet leidet bei ähnlicher Skalierung unter Tausenden von Flow-Kollisionen, was den Durchsatz auf etwa 60% begrenzt.³
Switch-Silizium hat die Bandbreite verdoppelt, um KI-Anforderungen zu erfüllen. Broadcoms Tomahawk 5 liefert 51,2 Terabit pro Sekunde in einem einzelnen monolithischen Chip und betreibt Switches mit 64 Ports bei 800GbE oder 128 Ports bei 400GbE.⁴ NVIDIAs Spectrum-X800-Plattform erreicht diese Kapazität ebenfalls und fügt durch Softwareintegration mit BlueField SuperNICs KI-spezifische Optimierungen hinzu. Die Ultra Ethernet Consortium-Spezifikation vom Juni 2025 formalisiert Standards für KI-optimiertes Ethernet und etabliert ein 560-seitiges Framework für Überlastungskontrolle, RDMA-Transport und Multi-Vendor-Interoperabilität.⁵
Broadcom Tomahawk 5 setzt den Bandbreiten-Maßstab
Die StrataXGS Tomahawk 5 Switch-Serie liefert 51,2 Terabit pro Sekunde Ethernet-Schaltkapazität in einem einzelnen monolithischen Gerät und verdoppelt damit die Bandbreite der vorherigen Silizium-Generation.⁶ Der Chip repräsentiert Broadcoms anhaltende Dominanz bei Merchant-Switch-Silizium und hält die mit Tomahawk 1 im Jahr 2014 etablierte Bandbreitenverdoppelungskadenz aufrecht.
Architekturentscheidungen differenzieren Tomahawk 5 von Wettbewerbern. Während konkurrierende 51,2-Tbps-Designs Chiplet-Architekturen verwenden, die mehrere Signal-SerDes-Chiplets um monolithische Paketverarbeitungs-Engines wickeln, erreicht Tomahawk 5 die volle Bandbreite in einem einzelnen Stück Silizium unter Verwendung von 5-nm-Prozesstechnologie.⁷ Die Shared-Buffer-Architektur bietet die höchste Leistung und niedrigste Tail-Latenz für RoCEv2 und andere RDMA-Protokolle, die für KI-Workloads entscheidend sind.⁸
Portkonfigurationen unterstützen verschiedene Einsatzszenarien: 64 Ports bei 800 Gbps für Spine-Implementierungen, die maximale Bandbreite pro Port erfordern, 128 Ports bei 400 Gbps für ausgewogene Leaf-Switches und 256 Ports bei 200 Gbps für Umgebungen, die umfangreiche Server-Konnektivität erfordern.⁹ Der Chip unterstützt sowohl traditionelle Clos-Topologien als auch Nicht-Clos-Architekturen einschließlich Torus-, Dragonfly-, Dragonfly+- und Megafly-Konfigurationen, die für KI-Cluster-Kommunikation optimiert sind.¹⁰
Erweiterte Funktionen zielen direkt auf KI/ML-Workload-Anforderungen ab. Cognitive Routing bietet intelligente Verkehrsverteilung. Dynamischer Lastausgleich verteilt Flows über verfügbare Pfade. End-to-End-Überlastungskontrolle verhindert die Netzwerksättigung, die die GPU-Auslastung beeinträchtigt.¹¹ Broadcom behauptet, dass Jericho3-AI durch diese Optimierungen mehr als 10% kürzere Job-Completion-Zeiten gegenüber konkurrierenden Chips bietet.¹²
Energieeffizienzgewinne erweisen sich als erheblich. Ein einzelner Tomahawk 5 ersetzt achtundvierzig Tomahawk 1 Switches in äquivalenter Bandbreite, was zu über 95% Reduzierung des Strombedarfs führt.¹³ Für KI-Rechenzentren, die bereits mit der Leistungsdichte pro Rack kämpfen, verstärken sich Netzwerk-Effizienzverbesserungen mit Rechen- und Kühlungsoptimierung.
Kommerzielle Switch-Produkte mehrerer Hersteller nutzen Tomahawk 5-Silizium. FS.coms N9600-64OD liefert 64x 800GbE-Ports mit Sub-Mikrosekunden-Latenz.¹⁴ NADDODs N9500-Serie bietet sowohl 400G- als auch 800G-Konfigurationen, die für KI-Rechenzentrumsimplementierungen optimiert sind.¹⁵ Aristas 7060X6 AI Leaf-Familie verwendet Tomahawk 5 für 51,2-Tbps-Kapazität in 2RU-Formfaktoren.¹⁶
NVIDIA Spectrum-X baut KI-natives Ethernet
NVIDIA hat Spectrum-X als erste Ethernet-Netzwerkplattform konzipiert, die speziell für KI-Workloads entwickelt wurde. Die Plattform kombiniert Spectrum SN5600-Switches mit BlueField-3 SuperNICs und beschleunigt die generative KI-Leistung um das 1,6-fache gegenüber herkömmlichen Ethernet-Implementierungen.¹⁷
Der Spectrum-X800 SN5600-Switch bietet 64 Ports mit 800GbE unter Verwendung von OSFP-Formfaktoren und 51,2 Tbps Gesamtschaltkapazität.¹⁸ Die dem Switch zugrunde liegende Spectrum-4-Architektur übertrifft die Fähigkeiten der vorherigen Generation sowohl in Kapazität als auch in Portdichte. Die Integration mit BlueField SuperNICs ermöglicht koordinierte Überlastungskontrolle, adaptives Routing und Telemetrieerfassung über das gesamte Netzwerk-Fabric.
Praxiseinsätze validieren die Architektur. xAIs Colossus-Cluster verwendet Spectrum-X Ethernet, um die Grok-Familie großer Sprachmodelle über 100.000 GPUs hinweg zu trainieren.¹⁹ Das System erreicht 95% Datendurchsatz durch Überlastungskontrolltechnologie, die speziell für die stoßweisen, synchronisierten Kommunikationsmuster des verteilten KI-Trainings optimiert ist.²⁰
Produktankündigungen 2025 erweitern die Spectrum-X-Fähigkeiten erheblich. Im März 2025 vorgestellte Spectrum-X Photonics-Switches verschmelzen elektronische Schaltkreise mit optischer Kommunikation im Großmaßstab.²¹ Konfigurationen umfassen 128 Ports mit 800 Gbps (100 Tbps gesamt) und 512 Ports mit 800 Gbps (400 Tbps gesamt) und ermöglichen KI-Fabriken, die Millionen von GPUs verbinden und gleichzeitig den Energieverbrauch senken.²²
Das im August 2025 angekündigte Spectrum-XGS Ethernet führt Scale-Across-Technologie ein, die verteilte Rechenzentren zu einheitlichen Giga-Scale-KI-Superfabriken kombiniert.²³ Die Technologie repräsentiert eine dritte Säule des KI-Computing neben traditionellem Scale-Up (NVLink) und Scale-Out (Standard-Netzwerke) und ermöglicht es Organisationen, verteilte Infrastruktur zu kohärenten Trainingsumgebungen zusammenzufassen.
Große Cloud-Anbieter standardisieren auf Spectrum-X. Meta und Oracle kündigten im Oktober 2025 an, dass sie Spectrum-X Ethernet-Switches als offene, beschleunigte Netzwerkarchitektur einsetzen werden, die die KI-Trainingseffizienz steigert.²⁴ Das Multi-Vendor-Ökosystem positioniert Spectrum-X sowohl als NVIDIA-Lösung als auch als Industrieplattform.
Ultra Ethernet Consortium etabliert KI-fähige Standards
Das Ultra Ethernet Consortium veröffentlichte am 11. Juni 2025 die Spezifikation 1.0 und etablierte damit ein umfassendes 560-seitiges Framework für KI- und HPC-Netzwerke.²⁵ Das 2023 unter der Linux Foundation gegründete Konsortium vereint über 50 Technologieunternehmen, darunter AMD, Intel, Broadcom, Cisco, Arista, Meta, Microsoft, Dell, Samsung und Huawei.²⁶
Technische Innovationen adressieren grundlegende Einschränkungen im traditionellen Ethernet für KI-Workloads. Die Spezifikation definiert erweiterte RDMA-Implementierungen, Transportprotokolle und Überlastungskontrollmechanismen, die für die synchronisierten, stoßweisen Kommunikationsmuster des verteilten Trainings konzipiert sind.²⁷
Überlastungskontrollansätze unterscheiden sich grundlegend von traditionellen RoCE-Implementierungen. Der UEC-Ansatz verlässt sich nicht auf verlustfreie Netzwerke, wie sie traditionell erforderlich waren, und führt einen empfängergesteuerten Modus ein, bei dem Endpunkte Senderübertragungen aktiv begrenzen können, anstatt passiv zu bleiben.²⁸ Diese Verschiebung ermöglicht den Aufbau größerer Netzwerke mit besserer Effizienz für KI-Workloads.
Leistungsziele erstrecken sich über clusterweite Implementierungen. Die Spezifikation zielt auf Round-Trip-Zeiten zwischen 1 und 20 Mikrosekunden über Cluster hinweg und optimiert speziell für Rechenzentrumsumgebungen, die KI-Training, Inferenz und HPC-Workloads ausführen.²⁹
Interoperabilitätsgarantien verhindern Vendor-Lock-in. UEC-Spezifikation 1.0 liefert Hochleistungslösungen über NICs, Switches, Optiken und Kabel hinweg und ermöglicht nahtlose Multi-Vendor-Integration.³⁰ Der offene Standard ermöglicht es Organisationen, Komponenten von mehreren Lieferanten zu beziehen und gleichzeitig Leistungskonsistenz zu wahren.
Produktverfügbarkeit folgt der Spezifikationsveröffentlichung. Arista bestätigte die Unterstützung für UEC 1.0-Switching-Erweiterungen im gesamten Etherlink-Produktportfolio, beginnend mit 7060X- und 7800R-Plattformen.³¹ Full-Stack-unterstützende Hardware von mehreren Anbietern wird bis Ende 2025 oder Anfang 2026 ausgeliefert.³²
Arista und Cisco konkurrieren bei modularen KI-Plattformen
Traditionelle Netzwerkhersteller passen Rechenzentrumsplattformen für KI-Workload-Anforderungen an und konkurrieren mit NVIDIAs zweckgebautem Ansatz.
Aristas 7800R4-Serie wurde am 29. Oktober 2025 als vierte Generation modularer Spine-Systeme für KI-Implementierungen eingeführt.³³ Die Plattform liefert 460 Tbps (920 Tbps Full Duplex) Systemdurchsatz über Konfigurationen von vier bis sechzehn Linecard-Modulen.³⁴ Portzahlen skalieren auf 576x 800GbE oder 1152x 400GbE für massive Cluster-Konnektivität.³⁵
Die 7800R4 implementiert Broadcom Jericho3-AI-Prozessoren mit einer KI-optimierten Paket-Pipeline.³⁶ HyperPort-Technologie kombiniert vier 800-Gbps-Ports zu 3,2-Tbps-Aggregatverbindungen und ermöglicht 44% kürzere Job-Completion-Zeiten für KI-Bandbreiten-Flows im Vergleich zu traditionellem Lastausgleich über separate Ports.³⁷ Modulare Chassis und 7280R4 Fixed-Form-Switches sind jetzt verfügbar, wobei 7020R4-Varianten und HyperPort-Linecards im Q1 2026 folgen.³⁸
Cisco Silicon One vereinheitlicht Routing- und Switching-Fähigkeiten mit bis zu 51,2 Tbps Leistung, angetrieben vom G200 ASIC.³⁹ Die Architektur zielt auf KI-Scale-Out- und Scale-Up-Networking mit hoher Kapazität, ultraniedriger Latenz und reduzierten Job-Completion-Zeiten ab.⁴⁰
Cisco 8800 Series modulare Router bieten die Chassis-Grundlage. Verfügbar in 4-, 8-, 12- und 18-Slot-Konfigurationen, unterstützen alle Modelle Linecards der dritten Generation mit 36x 800G (P100), basierend auf Silicon One.⁴¹ Der Cisco 8223 Router liefert 51,2 Tbps Kapazität unter Verwendung des programmierbaren Silicon One P200-Chips.⁴²
Die erweiterte Cisco-NVIDIA-Partnerschaft integriert Silicon One-Chips in den Spectrum-X Ethernet-Stack und kombiniert Low-Latency-Switching, adaptives Routing und Telemetrie für GPU-Cluster-Unterstützung.⁴³ SONiC (Software for Open Networking in the Cloud)-Unterstützung auf Cisco 8000 Series-Switches ermöglicht es Organisationen, offene Netzwerkbetriebssysteme auszuwählen, die den betrieblichen Anforderungen entsprechen.⁴⁴
RoCE macht Ethernet wettbewerbsfähig mit InfiniBand
RDMA over Converged Ethernet (RoCE) ermöglicht es Ethernet-Netzwerken, bei ordnungsgemäßer Konfiguration die InfiniBand-Leistung für KI-Workloads zu erreichen. Meta veröffentlichte technische Details für ihren 24.000-GPU-Cluster und stellte fest, dass sie sowohl RoCE als auch InfiniBand so abgestimmt haben, dass sie gleichwertige Leistung bieten, wobei die größten Modelle auf ihrem RoCE-Fabric trainiert werden.⁴⁵
RoCE v2 basiert auf verlustfreier Ethernet-Netzwerkkonfiguration. Priority Flow Control eliminiert Paketverlust für ausgewählte Verkehrsklassen. Enhanced Transmission Selection verteilt Bandbreite über Verkehrstypen. Explicit Congestion Notification signalisiert frühzeitig Überlastung. Dynamic Congestion Control optimiert die RDMA-Leistung.⁴⁶ Ohne ordnungsgemäße Konfiguration dieser Mechanismen verschlechtert sich die RoCE-Leistung erheblich.
Große Cloud-Plattformen validieren RoCE für produktive KI-Workloads. Google Clouds A3 Ultra und A4 Compute Engine-Maschinentypen nutzen RoCEv2 für Hochleistungs-GPU-Netzwerke.⁴⁷ Oracles Zettascale10-Supercluster verwendet das Acceleron RoCE-Netzwerk-Fabric mit spezialisierten Ethernet-NICs, die integrierte Vier-Port-Switches enthalten, um die Latenz zu minimieren.⁴⁸
Metas KI-Cluster-Architektur demonstriert RoCE im Großmaßstab. Das Backend-Fabric verbindet alle RDMA-NICs in einer nicht-blockierenden Topologie, die hohe Bandbreite, niedrige Latenz und verlustfreien Transport zwischen beliebigen zwei GPUs bietet.⁴⁹ Eine zweistufige Clos-Topologie organisiert KI-Racks in Zonen, wobei Rack-Training-Switches als Leaf-Switches dienen, die GPUs über Kupfer-DAC-Kabel verbinden.⁵⁰
Kostenüberlegungen begünstigen Ethernet für viele Implementierungen. Für Tier-2- und Tier-3-Unternehmen, die 256-1.024 GPU-Cluster implementieren, stellt Ethernet mit RoCE die Standardempfehlung dar, es sei denn, spezifische, quantifizierte Latenzanforderungen rechtfertigen die 2-fachen Netzwerkkosten von InfiniBand.⁵¹ Veröffentlichte Fallstudien von la
[Inhalt für Übersetzung gekürzt]