Cooling Distribution Units: Flüssigkühlungsinfrastruktur für KI-Rechenzentren
Aktualisiert am 11. Dezember 2025
Update Dezember 2025: Der Markt für Flüssigkühlung erreicht 2025 5,5 Milliarden US-Dollar mit einer Prognose von 15,8 Milliarden US-Dollar bis 2030 (23% CAGR). H200-GPUs mit 700W TDP erfordern im großen Maßstab Flüssigkühlung. NVIDIAs Kyber-Rack (2027) wird 600kW-1MW pro Rack benötigen. Supermicro bringt 250kW-CDUs auf den Markt und verdoppelt damit die bisherige Kapazität. CDUs erreichen 99,999% Verfügbarkeit mit dreifach redundanter Architektur und 100ms Failover.
2025 markiert das Jahr, in dem Flüssigkühlung vom experimentellen Stadium zum Standard wurde. Nicht mehr auf experimentelle Einsätze beschränkt, fungiert Flüssigkühlung heute als kritischer Enabler für KI-Infrastruktur.¹ Rechenzentrumsbetreiber, die NVIDIA H200-GPUs einsetzen, stehen vor thermischen Lasten von 700W pro Gerät, die Luftkühlung im großen Maßstab nicht kosteneffizient abführen kann.² Die Entwicklung verstärkt sich, da NVIDIAs Kyber-Rack, das 2027 erscheinen soll, zunächst 600kW und skalierbar bis 1MW pro Rack benötigen wird – dies erfordert eine Flüssigkühlungsinfrastruktur, die in der Lage ist, beispiellose Wärmelasten abzuführen.³
Der Markt für Flüssigkühlung in Rechenzentren erreichte 2025 5,52 Milliarden US-Dollar mit Prognosen von 15,75 Milliarden US-Dollar bis 2030 bei einem CAGR von 23,31%.⁴ Alternative Analysen prognostizieren ein Wachstum von 2,84 Milliarden US-Dollar im Jahr 2025 auf 21,15 Milliarden US-Dollar bis 2032 bei einem CAGR von 33,2%.⁵ Cooling Distribution Units (CDUs) bilden die zentrale Infrastruktur, die diesen Übergang ermöglicht, indem sie die Kühlmittelzirkulation zwischen Gebäudewassersystemen und IT-Equipment verwalten und dabei die präzisen Temperaturen aufrechterhalten, die KI-Hardware erfordert.
Wie CDUs Flüssigkühlung im großen Maßstab ermöglichen
Coolant Distribution Units dienen als Schnittstelle zwischen der Kühlinfrastruktur des Gebäudes und den Flüssigkühlungssystemen auf Rack-Ebene. CDUs verwalten den Wärmetransfer vom Sekundärkreislauf, der die IT-Ausrüstung versorgt, zum Primärkreislauf, der mit Gebäudekühlern oder Kühltürmen verbunden ist.
Wärmetauscherarchitektur verwendet Plattenwärmetauscher aus Edelstahl 316, die mit verschiedenen Kühlflüssigkeiten kompatibel sind.⁶ Der Wärmetauscher isoliert IT-Kühlkreisläufe vom Gebäudewasser und verhindert Kontamination bei gleichzeitig effizientem Wärmetransfer. Maximale Durchflussraten erreichen 3.600 Liter pro Minute für schnelle Wärmeaufnahme und -übertragung.⁷
Temperaturregelung hält präzise Bedingungen aufrecht. CDUs erreichen Temperaturbereiche von -20°C bis zu +70°C je nach Anwendungsanforderungen.⁸ Präzise Temperaturregelung verhindert thermisches Throttling bei GPUs und gewährleistet konstante Rechenleistung.
Druckmanagement ermöglicht Flexibilität bei der Installation. Mehr als 50 psi Förderdruck erlaubt längere Leitungswege zwischen CDU und Server-Racks.⁹ Duale Pumpen mit variabler Drehzahl (VSD) bieten dynamische Reaktion auf den Kühlbedarf bei gleichzeitig verbesserter Energieeffizienz.¹⁰
Zuverlässigkeitsmerkmale gewährleisten Verfügbarkeit. Moderne CDUs nutzen dreifach redundante Architektur mit 1:1 Hot-Standby für kritische Komponenten.¹¹ Bei Ausfällen des Hauptmoduls schalten Backup-Systeme nahtlos innerhalb von 100 Millisekunden um und erreichen 99,999% Systemverfügbarkeit.¹²
Energieeffizienz liefert betriebliche Einsparungen. Im Vergleich zu Luftkühlungseinheiten verbrauchen CDUs 20-30% weniger Strom für äquivalente Kühlkapazität.¹³ Die Effizienzgewinne summieren sich bei großen KI-Deployments, wo Kühlung einen erheblichen Teil des Gesamtstromverbrauchs ausmacht.
CDU-Kapazität für KI-Workloads
Die Leistungsdichte von KI-Servern bestimmt die CDU-Dimensionierungsanforderungen. Eine einzelne NVIDIA GB200-GPU hat eine TDP von 1,2kW. Ein typischer GB200 NVL72-Server mit 8 GPUs und 2 CPUs erreicht insgesamt 10kW TDP.¹⁴ Die CDU-Kapazität muss skalieren, um ganze Rack-Populationen dieser Systeme zu versorgen.
Einsteigerkonfigurationen adressieren moderate Dichten. Boyds 10U Liquid-to-Air CDU bietet bis zu 15kW Kapazität je nach Wärmelast und Annäherungstemperaturanforderungen.¹⁵ Solche Einheiten eignen sich für Edge-Deployments oder Colocation-Umgebungen mit geringerer Dichte.
Mittelklassesysteme unterstützen hochdichte Racks. Chilldynes CF-CDU300 kühlt bis zu 300kW an Servern.¹⁶ Innerhalb eines Standard-42U-Racks ermöglichen Systeme, die 50kW Server-Cluster-Kühlung erreichen, eine erhebliche Konsolidierung von KI-Workloads.¹⁷
Hochkapazitätsplattformen bedienen Hyperscale-Deployments. Motivairs CDUs bieten sechs Standardmodelle und kundenspezifische OEM-Konfigurationen mit Skalierung bis zu 2,3MW IT-Last.¹⁸ Supermicro veröffentlichte im Juni 2025 NVIDIA Blackwell Rack-Scale-Lösungen mit 250kW-CDUs, die die bisherige Kapazität verdoppeln.¹⁹
Enterprise-Scale-Systeme adressieren rechenzentrumsweite Anforderungen. Tranes CDU der nächsten Generation liefert bis zu 10MW Kühlkapazität für Direct-to-Chip-Flüssigkühlung in Hyperscale- und Colocation-Umgebungen.²⁰
Installationsplanung erfordert Aufmerksamkeit für physische Einschränkungen. Der ideale Abstand zwischen CDU und Racks sollte 20 Meter nicht überschreiten.²¹ Die Bodenbelastbarkeit muss 800kg/m² erreichen, da befüllte CDUs bis zu 3 Tonnen wiegen können.²² Wartungsplatzanforderungen umfassen 1,2 Meter vorne und hinten plus 0,6 Meter oben für Rohranschlüsse.²³
Rear Door Heat Exchanger für Brownfield-Upgrades
Rear Door Heat Exchanger (RDHx) werden an der Rückseite von Server-Racks montiert und entfernen Wärme aus der Abluft, bevor diese in die Rechenzentrumsumgebung gelangt.²⁴ Die Technologie ermöglicht die Vorteile der Flüssigkühlung, ohne vorhandene luftgekühlte Server ersetzen zu müssen.
Kühleffizienz übertrifft reine Luftansätze erheblich. Traditionelle Luftkühlung arbeitet 30-60% weniger effizient als RDHx-Konfigurationen.²⁵ Die Verbesserung verstärkt sich in hochdichten Umgebungen, wo Luftkühlung Schwierigkeiten hat, Temperaturen aufrechtzuerhalten.
Kapazitätsentwicklung adressiert steigende Rack-Dichten. Motivairs ChilledDoor kühlt bis zu 72kW pro Rack.²⁶ OptiCool Technologies brachte im September 2025 das branchenweit leistungsstärkste 120kW-RDHx auf den Markt, speziell entwickelt für KI- und HPC-Workloads der nächsten Generation.²⁷
Proprietäre Kühlansätze verschieben Leistungsgrenzen. OptiCools Zweiphasen-Kältemittel-Design nutzt Phasenwechsel-Thermodynamik, entfernt Wärme aus Racks und führt Luft bei raumtemperaturneutralem Niveau zurück.²⁸ Der Ansatz erreicht höhere Wärmetransfereffizienz als Einphasen-Flüssigkeitssysteme.
Aktive versus passive Designs bieten unterschiedliche Kompromisse. Passive RDHx verlassen sich ausschließlich auf den Luftstrom der Serverlüfter und bieten Energieeffizienz und Einfachheit.²⁹ Aktive RDHx integrieren eingebaute Lüfter für höhere thermische Dichten, verbrauchen mehr Strom, bieten aber größere Flexibilität für High-Performance-Computing-Umgebungen.³⁰
Kompatibilität mit Legacy-Infrastruktur macht RDHx attraktiv für Brownfield-Deployments. Die Nachrüstung vorhandener luftgekühlter Server-Racks kostet weniger und verursacht weniger Störungen als der Übergang zu flüssiggekühlten Servern.³¹ KI-Inferenz-Workloads, die auf luftgekühlter Hardware laufen, profitieren von RDHx ohne unternehmensweite Infrastrukturüberholung.³²
Branchenstandardisierung beschleunigt sich durch das Open Compute Project. Das Door Heat Exchanger Sub-Project konzentriert sich auf RDHx-Entwicklung, Integration und Standardisierung innerhalb des ORV3-Frameworks (Open Rack Version 3).³³ Schneider Electric erwarb im Februar 2025 eine Mehrheitsbeteiligung an Motivair, um die Marktposition bei Flüssigkühlung zu stärken.³⁴
Immersionskühlung für maximale Dichte
Immersionskühlung taucht Server in thermisch leitfähige dielektrische Flüssigkeit in versiegelten Tanks ein.³⁵ Der Ansatz ermöglicht Deployments mit höchster Dichte bei gleichzeitig dramatischer Reduzierung des Energieverbrauchs für Kühlung.
Einphasen-Immersion hält die Flüssigkeit durchgehend im flüssigen Zustand. Kühlmittelzirkulation durch Wärmetauscher entfernt absorbierte Wärme.³⁶ Der Ansatz reduziert den Strombedarf um fast die Hälfte im Vergleich zu traditioneller Luftkühlung, senkt CO2-Emissionen um bis zu 30% und unterstützt 99% weniger Wasserverbrauch.³⁷
Zweiphasen-Immersion lässt Flüssigkeit an Wärmequellen zu Dampf verdampfen. Kondensatorspulen führen Dampf wieder in den flüssigen Zustand zurück.³⁸ Zweiphasensysteme erreichen höhere Effizienz beim Abführen großer Wärmemengen und eignen sich daher besser für HPC- und KI-Infrastruktur.³⁹
Dichteverbessserungen transformieren die Wirtschaftlichkeit von Rechenzentren. Immersionskühlung ermöglicht es Betreibern, 10-15x mehr Rechenleistung auf derselben Fläche unterzubringen, was sich direkt in schnellerer Time-to-Revenue für KI-Dienste niederschlägt.⁴⁰ Die Konsolidierung reduziert Immobilienanforderungen bei gleichzeitiger Erhöhung der Kapazität pro Quadratmeter.
Energieeffizienz erreicht dramatische Werte. Laut Submer reduziert Immersionskühlung den Energieverbrauch des Kühlsystems um bis zu 95%.⁴¹ Die Einsparungen gleichen höhere Investitionskosten über die Deployment-Lebensdauer aus.
Branchenvalidierung schafft Vertrauen. Intel und Shell validierten eine vollständige Immersionslösung mit Hardware von Supermicro und Submer und etablierten "Intel Data Center Certified for Immersion Cooling" als Industriestandard für Kühleffizienz.⁴² Submer führte autonome Roboter für die Wartung von Immersionstanks ein und vereinfachte damit die Server-Handhabung.⁴³
Kostenüberlegungen erfordern sorgfältige Analyse. Umfassende Immersions-Deployments erfordern spezialisierte Tanks, lasttragende Stützen, Leckageerkennungssysteme und Kühlmittelhandhabungsausrüstung, wodurch die Installationskosten pro Rack auf über 50.000 US-Dollar steigen – etwa das Dreifache äquivalenter Luftsysteme.⁴⁴ Die Nachrüstung laufender Standorte erhöht die Komplexität, da Bodenplenums, Kabeltrassen und Strompfade umgeleitet werden müssen, während die Betriebszeit aufrechterhalten wird.⁴⁵
Technologiereife schreitet weiter voran. Immersion bleibt relativ unausgereift mit minimalen historischen Daten zur Langzeitleistung und Zuverlässigkeit.⁴⁶ Die beschleunigte Adoption durch Hyperscaler und KI-Infrastrukturanbieter baut jedoch schnell Betriebserfahrung auf.
Der Flüssigkühlungs-Technologie-Stack
Verschiedene Kühltechnologien adressieren verschiedene Deployment-Szenarien. Der optimale Ansatz hängt von der Wärmedichte, der vorhandenen Infrastruktur und den betrieblichen Anforderungen ab.
Cold-Plate-Kühlung (Direct-to-Chip oder D2C) repräsentiert das am schnellsten wachsende Segment.⁴⁷ Cold Plates werden direkt an wärmeerzeugende Komponenten befestigt und zirkulieren Flüssigkeit zur Entfernung der thermischen Last. Der Ansatz lässt sich leichter in vorhandene Rack-Infrastruktur integrieren als Immersionsalternativen.
Hybridarchitekturen kombinieren mehrere Ansätze. CDUs versorgen Cold-Plate-Systeme für Komponenten mit der höchsten Wärme, während RDHx die verbleibende thermische Last von luftgekühlten Komponenten bewältigt. Die Kombination maximiert die Kühleffizienz ohne vollständigen Infrastrukturersatz.
OCP-Konformität gewährleistet Interoperabilität. Nidec entwickelte einen Project-Deschutes-CDU-Prototyp, der den Google Open Compute Project-Spezifikationen entspricht und auf der SC25 ausgestellt wurde.⁴⁸ Standardisierte Schnittstellen ermöglichen Komponenteninteroperabilität zwischen Anbietern.
Rack-Dichte-Evolution treibt weiterhin die Anforderungen. Laut Omdia umfassten Racks unter 10kW 47% der installierten Kapazität im Jahr 2024 und sanken auf 38% bis 2025.⁴⁹ Gleichzeitig stiegen 10-20kW-Racks von 27% auf 30% und 20-30kW-Racks von 24% auf 28%.⁵⁰ Die Dichteverschiebung beschleunigt die Adoption von Flüssigkühlung.
Wichtige CDU-Anbieter und aktuelle Entwicklungen
Die Wettbewerbslandschaft umfasst etablierte Thermomanagement-Unternehmen und neue Marktteilnehmer, die auf KI-Infrastruktur abzielen.
Vertiv bietet umfassende CDU-Lösungen mit Bildungsressourcen, die die Grundlagen der Flüssigkühlung erklären. Die AI-Hub-Initiative des Unternehmens positioniert CDU-Technologie als zentral für Infrastruktur der nächsten Generation.⁵¹
Schneider Electric stärkte seine Flüssigkühlungsposition durch die Motivair-Übernahme im Februar 2025.⁵² Das kombinierte Portfolio adressiert RDHx, CDU und integrierte Flüssigkühllösungen.
Supermicro veröffentlichte im Juni 2025 NVIDIA Blackwell Rack-Scale-Lösungen mit 250kW-CDUs.⁵³ Die Systeme demonstrieren integriertes Compute- und Kühlungsdesign für Deployments mit maximaler Dichte.
Trane bietet Enterprise-Scale-CDUs mit bis zu 10MW Kapazität für Hyperscale-Umgebungen.⁵⁴ Das Unternehmen betont Energieeffizienz und Integration mit thermischer Infrastruktur auf Gebäudeebene.
Motivair entwickelte das ChilledDoor-RDHx mit bis zu 72kW pro Rack zusammen mit CDU-Plattformen, die auf 2,3MW skalieren.⁵⁵ Die Schneider-Übernahme positioniert die Technologie für erweiterten globalen Einsatz.
Submer spezialisiert sich auf Immersionskühlung mit Innovationen einschließlich autonomer Wartungsroboter.⁵⁶ Die Intel-Pa
[Inhalt für Übersetzung gekürzt]