800G-netwerken voor AI: planning van uw next-generation GPU-fabric
Bijgewerkt op 11 december 2025
Update december 2025: NVIDIA's Quantum-X800 InfiniBand en Spectrum-X800 Ethernet-platformen worden nu in volume geleverd. Microsoft Azure implementeert 800G full fat-tree non-blocking fabrics voor GB200/GB300-clusters. Het Ultra Ethernet Consortium versnelt AI-specifieke verbeteringen terwijl 1,6T-tests beginnen. Vermogensdichtheid blijft de implementatiebeperking—800G-modules die 14-20W per poort verbruiken, belasten rack-koelingsontwerpen.
De meerderheid van switch-poortleveringen in AI-clusters gedurende 2025 draait op 800 gigabit per seconde.¹ Tegen 2027 zal de meerderheid overgaan naar 1,6 terabit. Tegen 2030 zullen de meeste poorten op 3,2 terabit draaien.² Dit impliceert dat elektrische lagen van datacenternetwerken bij elke bandbreedtegeneratie vervanging vereisen, een veel agressievere upgradecyclus dan historisch gezien in enterprise-netwerken. Organisaties die AI-infrastructuur plannen, moeten rekening houden met netwerktransities die sneller zullen plaatsvinden dan enige vorige technologiegeneratie.
NVIDIA's netwerkopbrengsten verdubbelden bijna jaar-op-jaar naar $7,3 miljard, gedreven door sterke adoptie van Spectrum-X Ethernet, InfiniBand XDR en NVLink scale-up systemen.³ Spectrum-X overschreed een geannualiseerd runrate van $10 miljard.⁴ De investering signaleert dat netwerken voor AI een aparte markt vertegenwoordigt ten opzichte van traditionele datacenternetwerken, met vereisten en economische aspecten die toegewijde productontwikkeling en infrastructuurplanning rechtvaardigen.
800G wordt de standaard van 2025
Industrieonderzoek en leveranciersroadmaps positioneren 800G-optics als de dominante technologie voor nieuwe AI-cluster- en grote datacenterimplementaties in 2025, met name in OSFP- en QSFP-DD-vormfactoren.⁵ Leveranciers en analisten verwachten dat 800G-transceivers het werkpaard zullen zijn in grote AI-fabrics, terwijl vroege tests voor 1,6T al in ontwikkeling zijn.⁶
De snelle opkomst van NVIDIA's Blackwell Ultra-platform voedde een sterke vraag naar 800 Gbps InfiniBand-switches, wat leidde tot een sterke stijging in InfiniBand-switchverkopen in Q2 2025.⁷ Hoewel InfiniBand-switchverkopen in AI back-end netwerken sterk stegen, behoudt Ethernet de algemene voorsprong. 800 Gbps-switches vormen het grootste deel van zowel Ethernet- als InfiniBand-switchleveringen en -opbrengsten in AI back-end netwerken.⁸
Microsoft's nieuwste NVIDIA GB200- en GB300-implementaties communiceren via NVLink en NVSwitch met terabytes per seconde op rackniveau.⁹ Om meerdere racks in een pod te verbinden, gebruikt Azure zowel InfiniBand- als Ethernet-fabrics die 800 Gbps leveren in een full fat-tree non-blocking architectuur.¹⁰ De hybride aanpak weerspiegelt de complementaire rollen van verschillende netwerktechnologieën in grootschalige AI-infrastructuur.
AI-gedreven optische connectiviteit inclusief 400G- en 800G-modules zal groeien met meer dan 22% samengestelde jaarlijkse groei richting 2030, grotendeels door grootschalige AI-trainings- en inference-clusters.¹¹ Het groeitraject rechtvaardigt infrastructuurinvesteringen die anticiperen op meerjarige uitbreiding van AI-netwerkvereisten.
NVIDIA's 800G-netwerkplatformen
NVIDIA Quantum-X800 InfiniBand en Spectrum-X800 Ethernet vertegenwoordigen 's werelds eerste netwerkplatformen die end-to-end 800Gb/s throughput kunnen leveren.¹² Het Quantum-X800-platform, speciaal gebouwd voor AI-modellen op trillion-parameter-schaal, omvat de Quantum-X800 InfiniBand-switch, ConnectX-8 SuperNIC, ConnectX-9 SuperNIC en LinkX-kabels en -transceivers.¹³
De Quantum-X800 InfiniBand-switch biedt 144 poorten van 800 Gb/s connectiviteit per poort.¹⁴ De poortdichtheid maakt het bouwen van grootschalige fabrics met minder switching-lagen mogelijk, wat latentie en complexiteit vermindert. Voor organisaties die de grootste AI-modellen trainen, blijft InfiniBand de laagste latentie en beste prestatieconsistentie op schaal bieden.
NVIDIA's Quantum-X en Spectrum-X Photonics-switches integreren silicon photonics direct in het switch-pakket, en leveren 128 tot 512 poorten van 800 Gb/s met totale bandbreedtes variërend van 100 Tb/s tot 400 Tb/s.¹⁵ De integratie biedt 3,5x meer energie-efficiëntie en 10x betere veerkracht vergeleken met traditionele optics.¹⁶
Cisco Nexus Hyperfabric AI met de cloud-beheerde Cisco G200 Silicon One-switch levert high-density 800G Ethernet, nu bestelbaar als implementatieoptie in AI PODs.¹⁷ De samenwerking tussen Cisco en NVIDIA op AI-netwerken demonstreert hoe traditionele enterprise-netwerkleveranciers zich aanpassen aan AI-infrastructuurvereisten.
InfiniBand versus Ethernet-overwegingen
Ethernet zal de meeste enterprise AI-implementaties domineren vanwege kosten- en ecosysteemvoordelen, terwijl InfiniBand de keuze blijft voor extreme-schaal AI- en HPC-clusters.¹⁸ Het onderscheid is belangrijk voor infrastructuurplanning: organisaties moeten technologie kiezen op basis van workloadkenmerken in plaats van standaard te kiezen voor vertrouwde opties.
InfiniBand biedt lagere latentie van ongeveer 1-2 microseconden en betere prestatieconsistentie op schaal.¹⁹ Ethernet met RoCEv2 biedt ongeveer 5-10 microseconden latentie en kan worden afgestemd op AI-workloads.²⁰ Het latentieverschil is belangrijk voor trainingsjobs waarbij collectieve operaties synchroniseren over duizenden GPU's. Inference-workloads met lagere synchronisatievereisten profiteren mogelijk niet van de latentievoordelen van InfiniBand.
Analisten voorspellen dat Ethernet de prominentere technologie voor AI-netwerken zal worden, en InfiniBand zal overtreffen naarmate 800G opschaalt en 1,6T vorm krijgt.²¹ NVIDIA's oprichtend lidmaatschap in het Ultra Ethernet Consortium en de release van AI-geoptimaliseerde Spectrum-X 800G Ethernet-switches signaleren vertrouwen in de AI-toekomst van Ethernet.²² Het Ultra Ethernet Consortium ontwikkelt verbeteringen specifiek voor AI-workloads.
Het implementeren van een high-performance, lossless 800G Ethernet-fabric maximaliseert de waarde van AI-investeringen.²³ Het netwerk dient als het centrale zenuwstelsel, cruciaal voor het maximaliseren van efficiëntie en rendement op investering. Het fijnafstellen van de network fabric versnelt de voltooiingstijd van jobs en zorgt voor hoge GPU-benutting.²⁴
Migratie-uitdagingen en planning
800G-optics introduceren nieuwe uitdagingen die organisaties moeten aanpakken tijdens migratieplanning. Vermogens- en thermische dichtheid nemen aanzienlijk toe, waarbij 800G-modules 14-20 watt of meer verbruiken, wat het switch-koelingsontwerp en rack-vermogensbudgetten belast.²⁵ Organisaties moeten verifiëren dat bestaande infrastructuur verhoogde vermogens- en koelingsvereisten kan ondersteunen.
Glasvezelbeheer wordt complexer. Migreren naar 800G vereist vaak hogere glasvezeltellingen, MTP-bekabeling en strengere polariteits- en reinheidsveristen.²⁶ De fysieke laag-infrastructuur die werkte voor 100G of 400G ondersteunt mogelijk geen 800G zonder upgrades. Kabelplantinvesteringen moeten anticiperen op toekomstige bandbreedtevereisten om herhaalde infrastructuurvervanging te vermijden.
Interoperabiliteit en validatie tussen switchleveranciers en NIC's vereisen zorgvuldige planning.²⁷ Multi-vendor omgevingen kunnen compatibiliteitsproblemen tegenkomen die homogene implementaties vermijden. Organisaties moeten interoperabiliteit valideren in labomgevingen vóór productie-implementatie.
De agressieve upgradecyclus van 800G naar 1,6T naar 3,2T over minder dan vijf jaar verschilt van historische netwerktransities. Planning moet rekening houden met frequentere infrastructuurvervanging dan traditionele datacenternetwerken hebben ervaren. Modulaire ontwerpen die component-level upgrades mogelijk maken, kunnen de totale vervangingskosten verminderen.
Strategische aanbevelingen
Organisaties die AI-infrastructuur plannen, moeten netwerkvereisten evalueren met dezelfde grondigheid als toegepast op GPU-selectie. Het netwerk bepaalt hoe effectief dure GPU-resources worden benut. Onderinvesteren in netwerken creëert knelpunten die GPU-capaciteit verspillen.
Voor nieuwe AI-implementaties in 2025 moet 800G de standaardspecificatie zijn voor spine-level connectiviteit. Leaf-level connectiviteit kan 400G gebruiken afhankelijk van GPU-configuraties en oversubscriptietolerantie. De investering in 800G-infrastructuur biedt ruimte voor workloadgroei en bereidt voor op toekomstige transities.
InfiniBand blijft geschikt voor de grootste AI-trainingsclusters waar latentieminimalisatie direct de trainingsefficiëntie verbetert. Enterprise AI-implementaties, cloud-gebaseerde AI-services en inference-workloads profiteren over het algemeen van de kostenvoordelen en ecosysteemintegratie van Ethernet zonder betekenisvolle prestaties op te offeren.
Vermogens- en koelingsbeperkingen kunnen de adoptie van 800G meer beperken dan bandbreedtevereisten. Organisaties moeten infrastructuurcapaciteit auditen voordat ze zich committeren aan 800G-implementaties. Het vermogensbudget voor netwerken kan concurreren met GPU-vermogensvereisten in beperkte faciliteiten.
Snel beslissingsframework
Technologieselectie:
| Als uw workload is... | Kies | Rationale |
|---|---|---|
| LLM-training (>1000 GPU's) | InfiniBand 800G | 1-2µs latentie, beste consistentie |
| Enterprise AI/inference | Ethernet 800G | Kosteneffectief, ecosysteemintegratie |
| Hybride training + inference | Dual fabric | InfiniBand voor training, Ethernet voor inference |
| Cloud-geïmplementeerde AI | Provider-afhankelijk | GCP is alleen Ethernet; AWS/Azure bieden beide |
Bandbreedteplanning:
| Clusterschaal | Spine | Leaf | Oversubscriptie |
|---|---|---|---|
| <256 GPU's | 400G | 100G | 4:1 acceptabel |
| 256-1024 GPU's | 800G | 400G | 2:1 aanbevolen |
| 1024-4096 GPU's | 800G | 800G | 1:1 (non-blocking) |
| >4096 GPU's | Multi-tier 800G | 800G | Fat-tree ontwerp |
Belangrijkste inzichten
Voor netwerkarchitecten: - 800G is de standaard van 2025; plan voor 1,6T tegen 2027, 3,2T tegen 2030 - NVIDIA Quantum-X800 levert 144 poorten × 800Gb/s per switch - InfiniBand: ~1-2µs latentie; Ethernet met RoCEv2: ~5-10µs - Stroomverbruik: 800G-modules trekken 14-20W, wat rack-budgetten beïnvloedt
Voor infrastructuurplanners: - Netwerk elektrische lagen vereisen vervanging bij elke bandbreedtegeneratie - 800G-optics hebben hogere glasvezeltellingen, MTP-bekabeling, strengere reinheid nodig - Interoperabiliteitsvalidatie is cruciaal in multi-vendor omgevingen - Modulaire ontwerpen verminderen totale vervangingskosten tijdens transities
Voor strategische planning: - Ethernet zal naar verwachting InfiniBand overtreffen voor AI-netwerken naarmate 800G opschaalt - NVIDIA Spectrum-X bereikte $10 miljard geannualiseerde runrate—AI-netwerken is een aparte markt - Ultra Ethernet Consortium ontwikkelt AI-specifieke verbeteringen - Netwerkinvestering bepaalt GPU-benutting—onderinvesteren verspilt compute
Netwerken vertegenwoordigt een significant maar vaak onderschat onderdeel van AI-infrastructuurkosten. De investering die nodig is om GPU-clusters met passende bandbreedte te ondersteunen, rechtvaardigt zorgvuldige planning en leveranciersevaluatie. Organisaties die netwerken als bijzaak behandelen, zullen ontdekken dat netwerkbeperkingen de AI-mogelijkheden beperken die hun GPU-investeringen anders zouden kunnen bieden.
Referenties
-
Dell'Oro Group. "Beyond the GPU Arms Race — The Potential Role of OXC in Building Next Gen AI Infrastructure." 2025. https://www.delloro.com/beyond-the-gpu-arms-race-the-potential-role-of-oxc-in-building-next-gen-ai-infrastructure/
-
Dell'Oro Group. "Beyond the GPU Arms Race."
-
NVIDIA Newsroom. "NVIDIA Announces New Switches Optimized for Trillion-Parameter GPU Computing and AI Infrastructure." 2025. https://nvidianews.nvidia.com/news/networking-switches-gpu-computing-ai
-
NVIDIA Newsroom. "NVIDIA Announces New Switches."
-
QSFP DD 800G. "2025 800G Optical Module Trends for AI Data Centers." 2025. https://qsfpdd800g.com/blogs/artical/2025-800g-optical-module-trends-ai-data-centers
-
QSFP DD 800G. "2025 800G Optical Module Trends."
-
Lightwave Online. "Ethernet maintains a lead over InfiniBand in the AI race." 2025. https://www.lightwaveonline.com/home/article/55315256/ethernet-maintains-a-lead-over-infiniband-in-the-ai-race
-
Lightwave Online. "Ethernet maintains a lead over InfiniBand."
-
Microsoft Blog. "Inside the world's most powerful AI datacenter." September 18, 2025. https://blogs.microsoft.com/blog/2025/09/18/inside-the-worlds-most-powerf
[Inhoud ingekort voor vertaling]