Kabels en Interconnects: DAC, AOC, AEC en Glasvezelselectie voor 800G AI-Datacenters
Bijgewerkt 11 december 2025
Update december 2025: 800G wordt de standaard voor nieuwe AI-implementaties, met 1.6T in ontwikkelingsproeven. AEC-technologie bereikt 9 meter bij 800G (Marvell/Infraeo OCP-demo), en overbrugt de kloof tussen DAC en AOC met 25-50% minder stroomverbruik dan optisch. NVIDIA LinkX AOC-kabels zijn geïnstalleerd in de meerderheid van TOP500 HPC-systemen. QSFP-DD800 en OSFP-vormfactoren ondersteunen PAM4 voor productie-implementaties.
Generatieve AI-datacenters hebben tien keer meer glasvezel nodig dan conventionele opstellingen om GPU-clusters en low-latency interconnects te ondersteunen.¹ De kabelinfrastructuur die 800G-switches verbindt met duizenden GPU's bepaalt of dure computerbronnen volledige benutting bereiken of bottlenecken op netwerkconnectiviteit. Nu 800G de standaardkeuze wordt voor nieuwe AI-datacenter-implementaties en 1.6T al in ontwikkelingsproeven zit, bepalen kabelselectiebeslissingen van vandaag de infrastructuurflexibiliteit voor de komende jaren.²
Het interconnect-landschap is complexer geworden dan de traditionele DAC versus AOC-keuze. Active Electrical Cables (AEC) overbruggen nu de kloof tussen koper- en optische oplossingen, reiken tot 9 meter terwijl ze 25-50% minder stroom verbruiken dan actieve optische alternatieven.³ Vormfactoren zijn geëvolueerd van QSFP-DD naar OSFP, elk geoptimaliseerd voor verschillende thermische en dichtheidsvereisten. Organisaties die AI-infrastructuur implementeren moeten navigeren door afstandsvereisten, vermogensbudgetten, koelbeperkingen en upgradetrajecten over kabeltypes die elk uitblinken in specifieke scenario's.
DAC levert de laagste kosten en latentie voor korte afstanden
Direct Attach Copper (DAC)-kabels blijven de optimale keuze voor intra-rack verbindingen waar de afstand het toelaat. De koper-gebaseerde interconnects vereisen geen foto-elektrische conversie en verzenden signalen direct met vrijwel nul extra latentie.⁴ Eenvoudige structuur en hoge betrouwbaarheid verminderen operationele complexiteit terwijl de kosten aanzienlijk onder optische alternatieven blijven.
800G DAC-producten gebruiken QSFP-DD800 of OSFP-behuizing met ondersteuning voor PAM4-technologie. Passieve DAC verbruikt vrijwel geen stroom (onder 0,15W), terwijl actieve DAC het stroomverbruik ver onder optische modules houdt.⁵ Het kostenvoordeel vermenigvuldigt op schaal, waarbij grote implementaties aanzienlijke bedragen besparen vergeleken met optische alternatieven.
Afstandsbeperkingen beperken de toepasbaarheid van DAC. Passieve DAC reikt ongeveer 3 meter bij 800G-snelheden, met actieve DAC die uitbreidt tot 5 meter.⁶ Wanneer interconnectie-afstanden deze drempels overschrijden, maken transmissieverlies en kabelstarheid DAC onpraktisch.
Fysieke eigenschappen vormen extra uitdagingen. Koperkabels zijn dikker dan optische alternatieven, met een grotere buigradius en zwaarder gewicht die dichte implementaties bemoeilijken.⁷ Kabelbeheer in high-density racks wordt moeilijker naarmate het aantal DAC's toeneemt.
Beste toepassingen voor DAC zijn onder andere server-naar-ToR (Top of Rack) switch-verbindingen binnen racks, hogesnelheidsinterconnectie tussen aangrenzende servers, en omgevingen met extreme latentiegevoeligheid bij beperkte afstanden.⁸ Meta's AI-clusterarchitectuur gebruikt DAC-kabels voor rack-training switch-verbindingen naar GPU's, wat de rol van de technologie in productie AI-infrastructuur demonstreert.⁹
AOC vergroot het bereik met optische prestaties
Active Optical Cables (AOC) integreren foto-elektrische conversiemodules, die elektrische signalen omzetten naar optisch voor transmissie. De technologie ondersteunt transmissieafstanden van 30 tot 100 meter in 800G-configuraties terwijl QSFP-DD800 of OSFP-behuizing behouden blijft.¹⁰
Prestatiekenmerken zijn gunstig voor AOC bij middellange afstandsverbindingen. Licht gewicht, uitstekende flexibiliteit en immuniteit voor elektromagnetische interferentie maken dichtere implementaties mogelijk zonder prestatiecompromissen.¹¹ Betere warmteafvoer dan koperalternatieven helpt thermische belastingen te beheren in GPU-dichte omgevingen.
Stroomverbruik is hoger dan DAC met 1-2W per kabel, maar blijft acceptabel voor de geboden afstandsmogelijkheden.¹² Kosten bereiken ongeveer 4x DAC voor vergelijkbare specificaties, wat de complexere interne elektronica en optische componenten weerspiegelt.¹³
800G AOC-kabels richten zich op opkomende toepassingen in AI-datacenters, machine learning-trainingsfaciliteiten en hyperscale cloudomgevingen waar bandbreedtevereisten 400G overschrijden.¹⁴ De technologie is ideaal voor GPU-cluster interconnecties, inter-rij verbindingen en grootschalige AI-trainingsomgevingen die flexibele bekabeling met middellange transmissieafstanden vereisen.¹⁵
NVIDIA LinkX AOC-kabels demonstreren leverancierspecifieke optimalisatie voor AI-workloads. Ontworpen en geproduceerd door LinkX Optics, zijn de kabels geïnstalleerd in de meerderheid van TOP500 HPC-systemen.¹⁶ Producten omvatten QSFP-vormfactoren die QDR tot en met NDR (400G) ondersteunen op afstanden tot 150 meter, met 100% testen in daadwerkelijke NVIDIA-netwerk- en GPU-systemen om optimale signaalintegriteit te garanderen.¹⁷
AEC overbrugt de kloof tussen DAC en AOC
Active Electrical Cables (AEC) vertegenwoordigen de opkomende middenweg tussen DAC- en AOC-oplossingen. De technologie integreert retimer- of DSP-chips in kabels om signaaltransmissie te verbeteren, signalen te versterken, te egaliseren en clock data recovery uit te voeren om koperen transmissie-uitdagingen aan te pakken.¹⁸
Afstandsmogelijkheden overtreffen DAC aanzienlijk. AEC ondersteunt kabellengtes van 2 tot 9 meter, wat betrouwbare verbindingen mogelijk maakt over racks binnen dichte datacenterlay-outs.¹⁹ Marvell en Infraeo demonstreerden een 9-meter 800G AEC op de 2025 OCP Global Summit, wat koperen verbindingen over zeven racks mogelijk maakt en datacenterarchitectuur dichter bij volledig rij-schaal AI-systeemontwerp brengt.²⁰
Voordelen in energie-efficiëntie ten opzichte van AOC zijn aanzienlijk. AEC verbruikt ongeveer 20% minder stroom dan optische alternatieven terwijl het 8 lanes van 106,25G-PAM4-signalering ondersteunt voor bidirectioneel 800G-verkeer.²¹ Totaal stroomverbruik van ongeveer 10W vertegenwoordigt 25-50% lager verbruik dan AOC, wat de luchtstroom en gewichtsbeheer in high-density omgevingen verbetert.²²
Kosten-prestatiepositie maakt AEC aantrekkelijk voor grote implementaties. De kabels kosten minder dan AOC terwijl ze mogelijkheden bieden die DAC overtreffen, wat een slimme investering biedt voor bandbreedtevereisenede omgevingen.²³ Industrieanalisten van 650 Group merken op dat hyperscalers oplossingen nodig hebben met hoge bandbreedte, laag vermogen en lage kosten, wat AEC positioneert als de optimale oplossing voor generatieve AI-infrastructuur.²⁴
De AEC-markt projecteert een CAGR van 28,2% tot 2031, met een bereik van $1,257 miljard naarmate de technologie standaard wordt in AI-cluster implementaties.²⁵ Toonaangevende leveranciers waaronder Amphenol, TE Connectivity, Molex en Credo investeren in next-generation modules die 112Gbps per lane kunnen schalen richting 224Gbps voor 800G en 1.6T systemen.²⁶
OSFP versus QSFP-DD vormfactorselectie
Transceiver-vormfactoren bepalen switch-poortdichtheid, thermisch beheer vereisten en upgrade-flexibiliteit. Twee standaarden concurreren voor 400G en 800G implementaties: OSFP en QSFP-DD.
OSFP (Octal Small Form-factor Pluggable) biedt een grotere mechanische vorm geoptimaliseerd voor high-thermal-capacity toepassingen. Het ontwerp accommodeert vermogensdissipatie tot 15-20W, met ondersteuning voor native 8x lanes voor 400G en 800G connectiviteit.²⁷ OSFP blinkt uit in next-generation AI-cluster interconnects waar linkbetrouwbaarheid en vermogensbeheer zwaarder wegen dan zorgen over vormfactorgrootte.²⁸
Twin-port OSFP 800G-configuraties huisvesten 8 kanalen van elektrische signalering met twee 400Gbps optische of koperen engines die naar twee poorten gaan. Extra koelvinnen ondersteunen 17W transceivers, aangeduid als "2x400G twin-port OSFP finned-top" producten.²⁹
QSFP-DD (Quad Small Form-factor Pluggable Double Density) biedt flexibiliteit door achterwaartse compatibiliteit. QSFP-DD-poorten draaien doorgaans zowel 400G als 800G modules, wat incrementele upgrades mogelijk maakt zonder switchvervanging.³⁰ Volledige compatibiliteit met QSFP+, QSFP28 en QSFP56 standaarden maakt naadloze migratietrajecten mogelijk.³¹
QSFP-DD 400G blijft de meest geïmplementeerde standaard in AI-gerichte Ethernet-omgevingen, met name binnen NVIDIA-gebaseerde GPU-clusters.³² De vormfactor domineert in netwerken die stapsgewijs upgraden vanaf lagere snelheden.
Selectierichtlijnen hangen af van de implementatiestrategie. QSFP-DD past bij netwerken die stap voor stap upgraden, terwijl OSFP de voorkeur heeft bij nieuwe implementaties die langetermijnschaalbaarheid prioriteren boven achterwaartse compatibiliteit.³³ Organisaties die uitbreiding naar 1.6T verwachten, moeten OSFP-architectuur verkiezen voor eenvoudigere toekomstige schaling.
Afstandsgebaseerde kabelstrategie
Optimale kabelselectie volgt afstandsvereisten over de datacenter-topologie:
Intra-rack verbindingen (0-3m): DAC biedt de laagste kosten, laagste latentie en laagste stroomverbruik. Gebruik passieve DAC waar afstanden het toelaten, actieve DAC wanneer extra signaalconditionering de prestaties ten goede komt.
Aangrenzende rack-verbindingen (3-7m): AEC breidt kopervoordelen uit met actieve signaalherstel. De 25-50% energiebesparing ten opzichte van AOC stapelt zich op over duizenden verbindingen in grote GPU-clusters.
Inter-rij verbindingen (7-100m): AOC levert het bereik dat nodig is voor spine-leaf architecturen die datahallen overspannen. SR8/DR8 multimode modules ondersteunen afstanden tot 100 meter met MTP/MPO-connectoren.³⁴
Cross-building verbindingen (100m-2km+): Single-mode glasvezel met FR4/LR4 modules biedt het bereik voor het verbinden van clusters tussen faciliteiten. Installeer SMF voor core-backbone of cross-building links met planning voor toekomstige bandbreedtegroei.³⁵
Server-naar-leaf GPU-verbindingen in ToR-configuraties beslaan doorgaans 100-300 meter.³⁶ Leaf-naar-spine links met 400G/800G interfaces beslaan 300-800 meter over datahallen.³⁷ Het afstemmen van kabeltechnologie op afstandsvereisten optimaliseert kosten terwijl prestaties gewaarborgd blijven.
NVIDIA LinkX portfolio dekt alle vereisten
De LinkX-productfamilie biedt de meest complete interconnect-lijn in de industrie, van 10G tot 1600G in Ethernet en EDR tot XDR in InfiniBand-protocollen.³⁸ Producten adresseren elke afstands- en snelheidsvereiste voor AI-infrastructuur.
800G en 400G producten koppelen Quantum-2 InfiniBand en Spectrum-4 SN5600 Ethernet switches met ConnectX-7 adapters, BlueField-3 DPU's en DGX H100 systemen.³⁹ De productlijn omvat DAC tot 3 meter, lineaire actieve koperkabels van 3-5 meter, multimode optics tot 50 meter, en single-mode optics tot 100 meter, 500 meter en 2 kilometer.⁴⁰
Dual protocol ondersteuning vereenvoudigt voorraadbeheer. 100G-PAM4 LinkX kabels en transceivers ondersteunen zowel InfiniBand als Ethernet protocollen in hetzelfde apparaat met identieke onderdeelnummers.⁴¹ Protocolbepaling vindt plaats bij het plaatsen in Quantum-2 NDR InfiniBand of Spectrum-4 Ethernet switches.
Kwaliteitsborging overtreft industriestandaarden. Naast IBTA-compliance ondergaan LinkX-gecertificeerde kabels 100% testen in daadwerkelijke NVIDIA-netwerk- en GPU-systemen om optimale signaalintegriteit en end-to-end prestaties te garanderen.⁴² De testvereisten overtreffen Ethernet AOC industriestandaarden en voldoen aan supercomputer-grade kwaliteitsniveaus.
Buigradius en kabelbeheer bij hoge dichtheid
High-density implementaties vereisen zorgvuldige aandacht voor kabelrouting en handhaving van de buigradius. Onjuist buigen veroorzaakt signaalverzwakking en permanente glasvezelschade die prestaties in de loop van de tijd verslechteren.
Standaard buigradiusrichtlijnen specificeren dat glasvezelkabels nooit strakker mogen buigen dan tien keer de buitendiameter.⁴³ Installatiefasen vereisen conservatievere minima van twintig keer de diameter.⁴⁴ Temperatuurvariaties, trillingen en beweging veranderen glasvezelbuigkarakteristieken, wat een 35% verhoogde buigradius vereist in omgevingen met veel trillingen of seismische activiteit.⁴⁵
Buigongevoelige glasvezelopties verminderen beperkingen. De ITU G.657-specificatie definieert buigongevoelige single-mode glasvezels met minimale buigradii van 5mm (G.657.B2) tot 10mm (G.657.A1), vergeleken met 30mm voor standaard G.652 glasvezel.⁴⁶ Echter, datacenter-kabels met hoge glasvezelaantallen creëren stijve constructies die deze strakke radii fysiek niet kunnen bereiken zonder schade, wat
[Inhoud afgekapt voor vertaling]