Kabel und Verbindungstechnik: DAC, AOC, AEC und Glasfaserauswahl für 800G-KI-Rechenzentren

Kabel und Verbindungstechnik: DAC, AOC, AEC und Glasfaserauswahl für 800G-KI-Rechenzentren

Kabel und Verbindungstechnik: DAC, AOC, AEC und Glasfaserauswahl für 800G-KI-Rechenzentren

Aktualisiert am 11. Dezember 2025

Update Dezember 2025: 800G wird zum Standard für neue KI-Infrastrukturen, während 1,6T sich in Entwicklungstests befindet. Die AEC-Technologie erreicht bei 800G eine Reichweite von 9 Metern (Marvell/Infraeo OCP-Demo) und schließt die Lücke zwischen DAC und AOC mit 25-50% weniger Stromverbrauch als optische Lösungen. NVIDIA LinkX AOC-Kabel sind in der Mehrheit der TOP500-HPC-Systeme installiert. QSFP-DD800- und OSFP-Formfaktoren unterstützen PAM4 für Produktionseinsätze.

Generative KI-Rechenzentren benötigen zehnmal mehr Glasfaser als herkömmliche Einrichtungen, um GPU-Cluster und latenzarme Verbindungen zu unterstützen.¹ Die Kabelinfrastruktur, die 800G-Switches mit Tausenden von GPUs verbindet, bestimmt, ob teure Rechenressourcen voll ausgelastet werden oder an der Netzwerkkonnektivität scheitern. Da 800G zur Standardwahl für neue KI-Rechenzentren wird und 1,6T bereits in Entwicklungstests ist, bestimmen heute getroffene Kabelentscheidungen die Infrastrukturflexibilität für die kommenden Jahre.²

Die Verbindungslandschaft ist komplexer geworden als die traditionelle Wahl zwischen DAC und AOC. Active Electrical Cables (AEC) schließen nun die Lücke zwischen Kupfer- und optischen Lösungen und erreichen 9 Meter bei 25-50% weniger Stromverbrauch als aktive optische Alternativen.³ Die Formfaktoren haben sich von QSFP-DD zu OSFP weiterentwickelt, wobei jeder für unterschiedliche thermische und Dichteanforderungen optimiert ist. Organisationen, die KI-Infrastruktur aufbauen, müssen Entfernungsanforderungen, Strombudgets, Kühlungsbeschränkungen und Upgrade-Pfade über verschiedene Kabeltypen hinweg navigieren, die jeweils in spezifischen Szenarien excellieren.

DAC liefert niedrigste Kosten und Latenz für kurze Strecken

Direct Attach Copper (DAC)-Kabel bleiben die optimale Wahl für Verbindungen innerhalb eines Racks, wo die Entfernung es erlaubt. Die kupferbasierten Verbindungen erfordern keine photoelektrische Umwandlung und übertragen Signale direkt mit nahezu null zusätzlicher Latenz.⁴ Einfache Struktur und hohe Zuverlässigkeit reduzieren die betriebliche Komplexität, während die Kosten deutlich unter optischen Alternativen bleiben.

800G-DAC-Produkte verwenden QSFP-DD800- oder OSFP-Verpackungen mit PAM4-Technologie. Passives DAC verbraucht praktisch keine Energie (unter 0,15W), während der Stromverbrauch von aktivem DAC weit unter dem optischer Module bleibt.⁵ Der Kostenvorteil potenziert sich bei großen Implementierungen, wobei umfangreiche Installationen im Vergleich zu optischen Alternativen erhebliche Summen einsparen.

Entfernungsbeschränkungen begrenzen die Anwendbarkeit von DAC. Passives DAC erreicht bei 800G-Geschwindigkeiten etwa 3 Meter, während aktives DAC auf 5 Meter erweitert werden kann.⁶ Wenn die Verbindungsentfernungen diese Schwellenwerte überschreiten, machen Übertragungsverluste und Kabelunflexibilität DAC unpraktisch.

Physikalische Eigenschaften stellen zusätzliche Herausforderungen dar. Kupferkabel sind dicker als optische Alternativen, mit größerem Biegeradius und höherem Gewicht, was dichte Installationen erschwert.⁷ Das Kabelmanagement in hochdichten Racks wird mit zunehmender DAC-Anzahl schwieriger.

Beste Anwendungen für DAC umfassen Server-zu-ToR (Top of Rack)-Switch-Verbindungen innerhalb von Racks, Hochgeschwindigkeitsverbindungen zwischen benachbarten Servern und Umgebungen mit extremer Latenzempfindlichkeit bei begrenzten Entfernungen.⁸ Metas KI-Cluster-Architektur verwendet DAC-Kabel für Rack-Training-Switch-Verbindungen zu GPUs, was die Rolle der Technologie in produktiver KI-Infrastruktur demonstriert.⁹

AOC erweitert die Reichweite mit optischer Leistung

Active Optical Cables (AOC) integrieren photoelektrische Umwandlungsmodule und wandeln elektrische Signale zur Übertragung in optische um. Die Technologie unterstützt Übertragungsentfernungen von 30 bis 100 Metern in 800G-Konfigurationen bei Beibehaltung der QSFP-DD800- oder OSFP-Verpackung.¹⁰

Leistungsmerkmale sprechen für AOC bei mittleren Entfernungen. Geringes Gewicht, ausgezeichnete Flexibilität und Immunität gegen elektromagnetische Interferenzen ermöglichen dichtere Installationen ohne Leistungseinbußen.¹¹ Bessere Wärmeableitung als Kupferalternativen hilft bei der Bewältigung thermischer Lasten in GPU-dichten Umgebungen.

Der Stromverbrauch liegt mit 1-2W pro Kabel höher als bei DAC, bleibt aber für die gebotenen Entfernungsmöglichkeiten akzeptabel.¹² Die Kosten erreichen etwa das 4-fache von DAC bei ähnlichen Spezifikationen, was die komplexere interne Elektronik und optische Komponenten widerspiegelt.¹³

800G-AOC-Kabel zielen auf aufkommende Anwendungen in KI-Rechenzentren, Machine-Learning-Trainingseinrichtungen und Hyperscale-Cloud-Umgebungen ab, in denen die Bandbreitenanforderungen 400G überschreiten.¹⁴ Die Technologie eignet sich ideal für GPU-Cluster-Verbindungen, Verbindungen zwischen Reihen und großangelegte KI-Trainingsumgebungen, die flexible Verkabelung mit mittleren Übertragungsentfernungen erfordern.¹⁵

NVIDIA LinkX AOC-Kabel demonstrieren herstellerspezifische Optimierung für KI-Workloads. Von LinkX Optics entwickelt und hergestellt, sind die Kabel in der Mehrheit der TOP500-HPC-Systeme installiert.¹⁶ Die Produkte umfassen QSFP-Formfaktoren, die QDR bis NDR (400G) bei Entfernungen bis zu 150 Metern unterstützen, mit 100%iger Prüfung in tatsächlichen NVIDIA-Netzwerk- und GPU-Systemen zur Gewährleistung optimaler Signalintegrität.¹⁷

AEC überbrückt die Lücke zwischen DAC und AOC

Active Electrical Cables (AEC) repräsentieren den aufkommenden Mittelweg zwischen DAC- und AOC-Lösungen. Die Technologie integriert Retimer- oder DSP-Chips in den Kabeln zur Verbesserung der Signalübertragung, verstärkt Signale, gleicht sie aus und führt Clock-Data-Recovery durch, um Kupferübertragungsherausforderungen zu bewältigen.¹⁸

Die Entfernungsfähigkeiten übertreffen DAC erheblich. AEC unterstützt Kabellängen von 2 bis 9 Metern und ermöglicht zuverlässige Verbindungen über Racks hinweg in dichten Rechenzentrumlayouts.¹⁹ Marvell und Infraeo demonstrierten auf dem OCP Global Summit 2025 ein 9-Meter-800G-AEC, das Kupferverbindungen über sieben Racks ermöglicht und die Rechenzentrumsarchitektur näher an das Design vollständiger reihenbasierter KI-Systeme bringt.²⁰

Die Energieeffizienzvorteile gegenüber AOC sind erheblich. AEC verbraucht etwa 20% weniger Strom als optische Alternativen und unterstützt dabei 8 Lanes mit 106,25G-PAM4-Signalisierung für bidirektionalen 800G-Verkehr.²¹ Der Gesamtstromverbrauch von etwa 10W bedeutet 25-50% weniger Verbrauch als AOC, was den Luftstrom und das Gewichtsmanagement in hochdichten Umgebungen verbessert.²²

Die Kosten-Leistungs-Positionierung macht AEC attraktiv für große Installationen. Die Kabel kosten weniger als AOC und bieten dabei Fähigkeiten, die DAC übertreffen – eine kluge Investition für bandbreitenintensive Umgebungen.²³ Branchenanalysten der 650 Group stellen fest, dass Hyperscaler Lösungen mit hoher Bandbreite, niedrigem Stromverbrauch und niedrigen Kosten benötigen, was AEC als optimale Lösung für generative KI-Infrastruktur positioniert.²⁴

Der AEC-Markt wird bis 2031 mit einer CAGR von 28,2% auf 1,257 Milliarden Dollar wachsen, da die Technologie zum Standard in KI-Cluster-Implementierungen wird.²⁵ Führende Anbieter wie Amphenol, TE Connectivity, Molex und Credo investieren in Module der nächsten Generation, die 112 Gbps pro Lane unterstützen und auf 224 Gbps für 800G- und 1,6T-Systeme skalieren.²⁶

OSFP versus QSFP-DD Formfaktorauswahl

Transceiver-Formfaktoren bestimmen die Switch-Port-Dichte, thermische Management-Anforderungen und Upgrade-Flexibilität. Zwei Standards konkurrieren bei 400G- und 800G-Implementierungen: OSFP und QSFP-DD.

OSFP (Octal Small Form-factor Pluggable) bietet einen größeren mechanischen Formfaktor, der für Anwendungen mit hoher thermischer Kapazität optimiert ist. Das Design ermöglicht eine Wärmeableitung von bis zu 15-20W und unterstützt native 8x Lanes für 400G- und 800G-Konnektivität.²⁷ OSFP excelliert bei Verbindungen der nächsten Generation in KI-Clustern, wo Verbindungszuverlässigkeit und Energiemanagement wichtiger sind als Formfaktorgrößenbedenken.²⁸

Twin-Port-OSFP-800G-Konfigurationen beherbergen 8 Kanäle elektrischer Signalisierung mit zwei 400-Gbps-optischen oder Kupfer-Engines, die zu zwei Ports führen. Zusätzliche Kühlrippen unterstützen 17W-Transceiver, die als „2x400G Twin-Port OSFP Finned-Top"-Produkte bezeichnet werden.²⁹

QSFP-DD (Quad Small Form-factor Pluggable Double Density) bietet Flexibilität durch Abwärtskompatibilität. QSFP-DD-Ports unterstützen typischerweise sowohl 400G- als auch 800G-Module und ermöglichen inkrementelle Upgrades ohne Switch-Austausch.³⁰ Volle Kompatibilität mit QSFP+, QSFP28 und QSFP56-Standards ermöglicht nahtlose Migrationspfade.³¹

QSFP-DD 400G bleibt der am weitesten verbreitete Standard in KI-fokussierten Ethernet-Umgebungen, insbesondere in NVIDIA-basierten GPU-Clustern.³² Der Formfaktor dominiert in Netzwerken, die schrittweise von niedrigeren Geschwindigkeiten aufrüsten.

Die Auswahlempfehlung hängt von der Implementierungsstrategie ab. QSFP-DD eignet sich für Netzwerke, die schrittweise aufrüsten, während OSFP neue Implementierungen bevorzugt, die langfristige Skalierbarkeit über Abwärtskompatibilität priorisieren.³³ Organisationen, die eine Erweiterung auf 1,6T erwarten, sollten die OSFP-Architektur für einfachere zukünftige Skalierung bevorzugen.

Entfernungsbasierte Kabelstrategie

Die optimale Kabelauswahl folgt den Entfernungsanforderungen über die gesamte Rechenzentrumstopologie:

Verbindungen innerhalb des Racks (0-3m): DAC bietet niedrigste Kosten, niedrigste Latenz und niedrigsten Stromverbrauch. Verwenden Sie passives DAC, wo die Entfernungen es erlauben, aktives DAC, wenn zusätzliche Signalkonditionierung die Leistung verbessert.

Verbindungen zu benachbarten Racks (3-7m): AEC erweitert die Kupfervorteile mit aktiver Signalwiederherstellung. Die 25-50%ige Stromeinsparung gegenüber AOC potenziert sich über Tausende von Verbindungen in großen GPU-Clustern.

Verbindungen zwischen Reihen (7-100m): AOC liefert die Reichweite, die für Spine-Leaf-Architekturen erforderlich ist, die sich über Rechenzentrumshallen erstrecken. SR8/DR8-Multimode-Module unterstützen Entfernungen bis zu 100 Metern mit MTP/MPO-Steckern.³⁴

Gebäudeübergreifende Verbindungen (100m-2km+): Singlemode-Glasfaser mit FR4/LR4-Modulen bietet die Reichweite für die Verbindung von Clustern über Einrichtungen hinweg. Installieren Sie SMF für Core-Backbone- oder gebäudeübergreifende Verbindungen mit Blick auf zukünftiges Bandbreitenwachstum.³⁵

Server-zu-Leaf-GPU-Verbindungen in ToR-Konfigurationen erstrecken sich typischerweise über 100-300 Meter.³⁶ Leaf-zu-Spine-Verbindungen mit 400G/800G-Schnittstellen erstrecken sich über 300-800 Meter durch Rechenzentrumshallen.³⁷ Die Abstimmung der Kabeltechnologie auf die Entfernungsanforderungen optimiert die Kosten bei gleichzeitiger Gewährleistung der Leistung.

Das NVIDIA LinkX-Portfolio deckt alle Anforderungen ab

Die LinkX-Produktfamilie bietet die umfassendste Verbindungslinie der Branche von 10G bis 1600G in Ethernet und EDR bis XDR in InfiniBand-Protokollen.³⁸ Die Produkte adressieren jede Entfernungs- und Geschwindigkeitsanforderung für KI-Infrastruktur.

800G- und 400G-Produkte verbinden Quantum-2 InfiniBand- und Spectrum-4 SN5600 Ethernet-Switches mit ConnectX-7-Adaptern, BlueField-3 DPUs und DGX H100-Systemen.³⁹ Die Produktlinie umfasst DAC mit einer Reichweite von 3 Metern, lineare aktive Kupferkabel von 3-5 Metern, Multimode-Optik bis 50 Meter und Singlemode-Optik bis 100 Meter, 500 Meter und 2 Kilometer.⁴⁰

Dual-Protokoll-Unterstützung vereinfacht das Bestandsmanagement. 100G-PAM4 LinkX-Kabel und Transceiver unterstützen sowohl InfiniBand- als auch Ethernet-Protokolle im selben Gerät mit identischen Teilenummern.⁴¹ Die Protokollbestimmung erfolgt beim Einstecken in Quantum-2 NDR InfiniBand- oder Spectrum-4 Ethernet-Switches.

Qualitätssicherung übertrifft Industriestandards. Über die IBTA-Konformität hinaus durchlaufen LinkX-zertifizierte Kabel 100%ige Tests in tatsächlichen NVIDIA-Netzwerk- und GPU-Systemen, um optimale Signalintegrität und End-to-End-Leistung zu gewährleisten.⁴² Die Testanforderungen übertreffen Ethernet-AOC-Industriestandards und erfüllen Qualitätsniveaus auf Supercomputer-Niveau.

Biegeradius und Kabelmanagement bei hoher Dichte

Hochdichte Installationen erfordern sorgfältige Aufmerksamkeit bei der Kabelführung und Einhaltung des Biegeradius. Unsachgemäßes Biegen verursacht Signaldämpfung und dauerhafte Glasfaserschäden, die die Leistung im Laufe der Zeit verschlechtern.

Standard-Biegeradius-Richtlinien spezifizieren, dass Glasfaserkabel niemals enger als das Zehnfache des Außendurchmessers gebogen werden sollten.⁴³ Installationsphasen erfordern konservativere Mindestwerte vom Zwanzigfachen des Durchmessers.⁴⁴ Temperaturschwankungen, Vibrationen und Bewegungen verändern die Biegeeigenschaften der Glasfaser und erfordern einen um 35% erhöhten Biegeradius in Umgebungen mit hoher Vibration oder seismischer Aktivität.⁴⁵

Biegeunempfindliche Glasfaseroptionen reduzieren Einschränkungen. Die ITU G.657-Spezifikation definiert biegeunempfindliche Singlemode-Glasfasern mit minimalen Biegeradien von 5mm (G.657.B2) bis 10mm (G.657.A1), verglichen mit 30mm für Standard-G.652-Glasfaser.⁴⁶ Allerdings erzeugen Rechenzentrumskabel mit hoher Glasfaseranzahl steife Konstruktionen, die diese engen Radien physisch nicht ohne Beschädigung erreichen können, was

Angebot anfordern_

Erzählen Sie uns von Ihrem Projekt und wir antworten innerhalb von 72 Stunden.

> ÜBERTRAGUNG_ABGESCHLOSSEN

Anfrage erhalten_

Vielen Dank für Ihre Anfrage. Unser Team wird Ihre Anfrage prüfen und innerhalb von 72 Stunden antworten.

ZUR BEARBEITUNG EINGEREIHT