Glasfaser für Rechenzentren: Stand der Technik 2025

Der Markt für optische Datenübertragung wächst um über 60% und wird 2025 16 Mrd. USD übersteigen. 800G-Transceiver-Lieferungen verzeichnen 100% Wachstum im Jahresvergleich. 1,6T-Transceiver gehen für NVIDIA und Hyperscale-Anwendungen in Produktion....

Glasfaser für Rechenzentren: Stand der Technik 2025

Glasfaser für Rechenzentren: Stand der Technik 2025

Aktualisiert am 11. Dezember 2025

Update Dezember 2025: Der Markt für optische Datenübertragungskomponenten wächst um über 60% und wird 2025 einen Umsatz von 16 Mrd. USD übersteigen. 800G-Transceiver-Lieferungen verzeichnen einen Anstieg von 100% im Jahresvergleich. 1,6T-Transceiver gehen für NVIDIA und Hyperscale-Anwendungen in Produktion. NVIDIA kündigt Co-Packaged-Optics-Switches auf Basis von Silizium-Photonik an. Google demonstriert 40% Energieeinsparung durch optisches Circuit Switching. OSFP-XD ist als primärer 1,6T-Träger standardisiert (92% der Hyperscale-Verträge).

Der Markt für optische Datenübertragungskomponenten wird 2025 um über 60% wachsen und einen Umsatz von mehr als 16 Milliarden US-Dollar erzielen, hauptsächlich getrieben durch das anhaltende Wachstum bei 400G- und 800G-Lieferungen.¹ Die Lieferungen von 800G-optischen Transceivern werden 2025 einen Anstieg von 100% im Jahresvergleich erreichen.² NVIDIA kündigte Co-Packaged-Optics-Switches auf Basis von Silizium-Photonik an, die steckbare Transceiver-Module vollständig eliminieren.³ Google demonstrierte 40% Energieeinsparung durch den Einsatz von optischem Circuit Switching.⁴ Die Glasfasertechnologie entwickelt sich gleichzeitig an mehreren Fronten weiter und verändert die Rechenzentrum-Interconnect-Architektur für das KI-Zeitalter grundlegend.

Die Bandbreitenanforderungen von KI-Training und -Inferenz treiben optische Verbindungen über traditionelle Grenzen hinaus. GPU-Cluster benötigen Terabits pro Sekunde an aggregierter Bandbreite bei minimaler Latenz. Der Übergang von 400G zu 800G zu 1,6T-Transceivern beschleunigt sich, da Hyperscaler bestehende Kapazitäten ausschöpfen. Neue Architekturen einschließlich Linear Pluggable Optics, Co-Packaged Optics und optischem Circuit Switching fordern das dominierende Modell steckbarer Transceiver heraus, das das letzte Jahrzehnt geprägt hat.

800G wird zum Mainstream-Standard

Bis 2025 sind 800G-Optikmodule keine Zukunftstechnologie mehr – sie stellen die Standardwahl für neue Installationen in KI-Rechenzentren und Hyperscale-Cloud-Netzwerken dar.⁵ Explosive KI-Workloads, Large Language Models mit Billionen Parametern und dichte GPU-Cluster bringen traditionelle 100G-, 200G- und 400G-Netzwerke an ihre Grenzen.⁶ Branchenforschung und Hersteller-Roadmaps zeigen, dass 800G-Optik neue Implementierungen in KI-Clustern und großen Rechenzentren dominieren wird, insbesondere in den Formfaktoren OSFP und QSFP-DD.⁷

Die Lieferungen von 800GbE-Optik werden 2025 um 60% wachsen.⁸ Das Wachstum folgt auf einen Anstieg der Implementierungen von 400G- und höheren optischen Transceivern um 250% im Jahresvergleich 2024.⁹ Die Beschleunigung spiegelt sowohl die Infrastrukturerweiterung als auch Technologie-Erneuerungszyklen wider, da Betreiber veraltete 100G- und 200G-Geräte ersetzen.

Der Zeitraum von 2024 bis 2026 markiert die massive Bereitstellungsphase für 800G.¹⁰ Die Technologie verdrängt 400G als bevorzugte Wahl für Rechenzentrumsnetzwerk-Upgrades.¹¹ Organisationen, die Infrastrukturinvestitionen planen, sollten 800G als Basis für neue Implementierungen voraussetzen.

1,6T-Transceiver gehen in Produktion

Der Übergang zu 1,6T-Datenübertragungsoptik beginnt 2025, obwohl die Volumenproduktion auf ausgewählte NVIDIA- und Hyperscale-Anwendungen beschränkt bleibt.¹² Die Lieferungen werden für das Jahr unter einer Million Einheiten bleiben.¹³ Die 1,6T-Generation wird die Wachstumsraten von 400G und 800G bis 2026 nicht wesentlich beeinflussen.¹⁴

Accelink Technologies brachte ein 1,6T OSFP224 DR8-Modul auf den Markt, das 8×200G-Raten unterstützt.¹⁵ Coherents 1,6T-DR8-Modul mit OSFP-Gehäuse integriert NVIDIA-DSP, um die Anforderungen von KI-Netzwerken zu erfüllen.¹⁶ Diese frühen Produkte demonstrieren Produktionsreife, während die Volumina schrittweise hochfahren.

Die vom Open Compute Project geleiteten Industriestandardisierungsbemühungen priorisieren nun OSFP-XD als primären 1,6T-Träger.¹⁷ Zweiundneunzig Prozent der Hyperscale-Rechenzentrumsverträge für 2025 spezifizieren diesen Formfaktor wegen seiner 224G-SerDes-Bereitschaft.¹⁸ Die Standardisierung bietet Beschaffungsklarheit für Organisationen, die mehrjährige Infrastrukturprogramme planen.

Mit Blick auf die Zukunft werden 3,2-Terabit-Transceiver bis 2026 erwartet.¹⁹ Die Branche befindet sich im Übergang zu höheren Datenraten, wobei 200G-pro-Kanal-Verbindungen 2026 und 2027 zum Mainstream werden sollen, was den Weg für 800G- und 1600G-Transceiver mit diesen Kanalraten ebnet.²⁰

Formfaktoren und Energieüberlegungen

Der OSFP-Formfaktor bietet 800 Gigabit pro Sekunde aggregierten Durchsatz unter Verwendung von 8×100G-Lanes.²¹ Der im Vergleich zu QSFP-DD größere Formfaktor ermöglicht integrierte Kühlkörper und unterstützt einen Stromverbrauch von bis zu etwa 15 Watt.²² Der thermische Spielraum erweist sich als wesentlich, da die Leistungsanforderungen der Transceiver steigen.

800G-Optik bringt neue Infrastruktur-Herausforderungen mit sich.²³ Module verbrauchen 14 bis 20 Watt oder mehr, was Switch-Kühlungsdesigns und Rack-Leistungsbudgets belastet.²⁴ OSFPs größerer Formfaktor hilft bei der Bewältigung thermischer Anforderungen, aber sorgfältige Planung bleibt notwendig.²⁵

Die Migration auf 800G erfordert oft höhere Faserzahlen, MTP-Verkabelung und strengere Polaritäts- und Sauberkeitsanforderungen.²⁶ Die Infrastrukturinvestition erstreckt sich über die Transceiver selbst hinaus auf die passive Verkabelungsinfrastruktur.

Wichtige Lieferanten sind Innolight (jetzt TeraHop), Coherent und Eoptolink für komplette Module.²⁷ Coherent, Broadcom und Lumentum liefern kritische optische Komponenten einschließlich Laser und Photodetektoren.²⁸

Linear Pluggable Optics reduzieren den Stromverbrauch

Die Linear-Pluggable-Optics-Technologie (LPO) entfernt den digitalen Signalprozessor-Chip (DSP) aus dem Transceiver-Modul.²⁹ Das Modul stützt sich stattdessen auf den DSP der Host-Plattform und verwendet lineare Treiberschaltungen mit Transimpedanzverstärkern und Treiberchips, die ausgezeichnete Linearitäts- und Entzerrungsfähigkeiten aufweisen.³⁰

Die Energieeinsparungen sind erheblich. Ein traditioneller DSP-gesteuerter 400GbE-Transceiver verbraucht 7 bis 9 Watt.³¹ Ein 400GbE-LPO-Transceiver benötigt in der Regel nur 2 bis 4 Watt.³² Der DSP macht etwa 50% der Leistungsaufnahme steckbarer Module aus, was ihn zum primären Ziel für Effizienzgewinne macht.³³

LPO-Technologie liefert bis zu 90% weniger Latenz.³⁴ Das Fehlen des DSP entfernt einen Verarbeitungsschritt aus dem Datenübertragungspfad.³⁵ Die Latenzreduzierung ist zu einem wichtigen Treiber für die LPO-Adoption bei Switch-zu-Switch-, Switch-zu-Server- und GPU-zu-GPU-Konnektivität für Machine Learning und High-Performance Computing geworden.³⁶

Kostenvorteile verstärken die Leistungs- und Latenzvorteile. Der DSP-Chip stellt die teuerste Komponente in traditioneller Optik dar.³⁷ Seine Entfernung ermöglicht erhebliche Einsparungen im großen Maßstab.

LPO glänzt in Umgebungen mit kurzen Verbindungen und Host-Equipment, das für lineare Ansteuerung ausgelegt ist.³⁸ Top-of-Rack- zu Leaf-Switch-Verbindungen, typischerweise unter 100 Metern und oft unter 5 Metern, stellen primäre Anwendungen dar.³⁹ Intra-Cluster-KI- und HPC-Fabrics, die GPUs innerhalb einzelner Racks oder benachbarter Racks verbinden, profitieren von LPOs Eigenschaften.⁴⁰

Das LPO Multi-Source Agreement umfasst 50 Netzwerk-, Halbleiter-, Interconnect- und Optikunternehmen, die bei Interoperabilitätstests zusammenarbeiten.⁴¹ Der Mangel an vollständigen Standards für optische Modulverbindungen verlangsamt jedoch die Adoption trotz des wachsenden Drucks, den Stromverbrauch von Rechenzentren zu reduzieren.⁴²

Co-Packaged Optics transformieren die Architektur

Co-Packaged Optics (CPO) integriert optische Engines direkt mit Switch-ASICs oder Prozessoren auf einem gemeinsamen Substrat.⁴³ Der Ansatz eliminiert steckbare Transceiver-Module vollständig, verbessert die Energieeffizienz um das 3,5-fache und erhöht die Zuverlässigkeit um das 10-fache im Vergleich zu traditionellen Architekturen.⁴⁴ Im Vergleich zu steckbaren Transceivern reduziert CPO den Stromverbrauch um 50% und erhöht die Bandbreitendichte um das Dreifache.⁴⁵

NVIDIA kündigte die CPO-Integration auf der GTC 2025 an. Jensen Huang enthüllte Netzwerk-Switches mit integrierten Co-Packaged Optics, die Photonik und Elektronik in einem einzigen Paket für höhere Leistung und Effizienz kombinieren.⁴⁶ Der Quantum-X-Switch, verfügbar in der zweiten Jahreshälfte 2025, und der Spectrum-X-Switch, geplant für die zweite Jahreshälfte 2026, liefern 1,6T- und 3,2T-Silizium-Photonik-Co-Packaged-Optics-Chips.⁴⁷

Der photonische Quantum-X-Switch liefert 115,2 Terabit pro Sekunde Gesamtdurchsatz mit zwei CPO-Modulen.⁴⁸ Jedes Modul beherbergt einen Quantum-X800-ASIC, gebaut auf TSMCs 4N-Prozess mit 107 Milliarden Transistoren und sechs optischen Komponenten einschließlich 18 Silizium-Photonik-Engines.⁴⁹ Die 200 Gigabit pro Sekunde Mikroring-Modulatoren erreichen die 3,5-fache Leistungsreduzierung.⁵⁰

Energiebeschränkungen treiben die CPO-Adoption voran. Laut Jensen Huang ist Energie die wichtigste Ressource für KI-Infrastruktur.⁵¹ Jede GPU benötigt sechs steckbare elektrisch-zu-optische Transceiver, wobei jeder 30 Watt verbraucht.⁵² Die Skalierung auf eine Million GPUs würde etwa 180 Megawatt verbrauchen – eine unhaltbare Zahl für großflächige Systeme.⁵³

Delta kündigte einen 51,2T CPO Ethernet-Switch an, basierend auf Broadcoms Tomahawk 5-Bailly-Lösung, um den sich entwickelnden KI-Netzwerkanforderungen gerecht zu werden.⁵⁴ Ayar Labs und Alchip Technologies kündigten eine strategische Partnerschaft an, um die KI-Scale-Up-Infrastruktur mit CPO-Technologie und TSMCs fortschrittlicher Packaging-Technologie zu beschleunigen.⁵⁵

Großflächige CPO-Bereitstellungen werden zwischen 2028 und 2030 prognostiziert.⁵⁶ Frühe Produkte von Broadcom wurden 2024 und 2025 ausgeliefert, aber die Adoption erfordert neue Switch-Architekturen, Verkabelung und Standards.⁵⁷ Branchenprognosen sagen voraus, dass die Lieferungen von CPO-Ports von minimalen Mengen heute auf mehrere zehn Millionen bis 2029 steigen werden.⁵⁸

Der Silizium-Photonik-Markt beschleunigt sich

Der Silizium-Photonik-Markt generiert 2025 3,11 Milliarden US-Dollar und soll mit einer durchschnittlichen jährlichen Wachstumsrate von 27,21% bis 2030 auf 10,36 Milliarden US-Dollar wachsen.⁵⁹ Das starke Wachstum resultiert aus der steigenden Nachfrage nach Hochgeschwindigkeits-Datenübertragung in KI, Cloud Computing und Quantentechnologien.⁶⁰

KI ist der größte Treiber der Entwicklung von photonisch integrierten Schaltkreis-Transceivern.⁶¹ Leistungsfähigere KI-Beschleuniger erfordern leistungsfähigere Transceiver, wobei 3,2 Terabit pro Sekunde Transceiver bis 2026 erwartet werden.⁶² Die Technologie ermöglicht die hochbandbreitigen, energieeffizienten Verbindungen, die für die Skalierung von KI-Systemen unerlässlich sind.⁶³

Die Einbettung optischer Engines neben Switch-ASICs reduziert elektrisch-optische Umwandlungen und senkt den Stromverbrauch auf Rack-Ebene um bis zu 40%.⁶⁴ Googles Versuche mit optischem Circuit Switching validieren Latenzgewinne.⁶⁵ Sowohl NVIDIA als auch Marvell liefern jetzt Muster proprietärer Co-Packaged-Module, die Board-Layouts für KI-Cluster optimieren.⁶⁶

Das industrielle Ökosystem kombiniert vertikal integrierte Marktführer wie TeraHop (ehemals InnoLight), Cisco, Broadcom und Marvell mit innovativen Startups wie Ayar Labs, Lightmatter, Celestial AI und Nubis Communications.⁶⁷ Chinesische Anbieter wie TeraHop, Hisense und Accezlink liefern Millionen von Modulen, die KI-Verbindungen antreiben.⁶⁸

Mehrkernfaser erhöht die Dichte

Mehrkernfaser (MCF) enthält mehrere unabhängige lichtleitende Kerne in einem einzigen Faserstrang.⁶⁹ Im Gegensatz zu traditioneller Singlemode- oder Multimode-Faser mit einem Kern fungiert MCF wie eine mehrspurige Autobahn, wobei jeder Kern gleichzeitig einen separaten Datenkanal überträgt.⁷⁰ Das Design erhöht die Faserkapazität und räumliche Dichte drastisch, ohne die physische Kabelgröße zu erhöhen.

Eine Vierkern-MCF kann die Bandbreitenkapazität innerhalb des gleichen Platzbedarfs um das Vierfache erhöhen.⁷¹ Eine Siebenkernfaser kann sieben Einzelkernfasern ersetzen und verbessert die Platznutzung erheblich.⁷² Die Übertragung von mehr Daten durch eine einzelne Faser ist von Natur aus energieeffizienter als der Betrieb mehrerer separater Fasern und ihrer zugehörigen Elektronik.⁷³

Auf der OFC 2025 demonstrierte Eoptolink den branchenweit ersten 800G-optischen Transceiver für Mehrkernfaser.⁷⁴ HYC präsentierte eine komplette Serie von MCF-passiven Unterbaugruppen.⁷⁵ LINK-PP bietet 400G QSFP-DD-Transceiver an, die für 400 Gigabit pro Sekunde Geschwindigkeiten mit Vierkern-MCF entwickelt wurden.⁷⁶

MCF wird als effektive Lösung zur Überwindung der Shannon-Kapazitätsgrenze aktueller optischer Kommunikationssysteme angesehen und ermöglicht signifikante exponentielle Erhöhungen der Bandbreitenkapazität.⁷⁷ Es gibt jedoch noch keinen Standard zur Messung von Übersprechen, wobei mehrere vorgeschlagene Methoden in Standardisierungsgremien noch nicht vereinbart wurden.⁷⁸

Es wurde vorhergesagt, dass MCF bis 2025 in Betrieb sein würde, und jüngste Ankündigungen bestätigen, dass die Technologie jetzt kommerziell verfügbar ist.⁷⁹

Hohlkernfaser reduziert Latenz

Hohlkernfaser (HCF) überträgt Licht durch einen hohlen Raum anstatt durch einen festen Glaskern.⁸⁰ Da Licht schneller durch

[Inhalt für Übersetzung gekürzt]

Angebot anfordern_

Erzählen Sie uns von Ihrem Projekt und wir antworten innerhalb von 72 Stunden.

> ÜBERTRAGUNG_ABGESCHLOSSEN

Anfrage erhalten_

Vielen Dank für Ihre Anfrage. Unser Team wird Ihre Anfrage prüfen und innerhalb von 72 Stunden antworten.

ZUR BEARBEITUNG EINGEREIHT