Hochdichte Racks: 100kW+ Designs für KI-Rechenzentrumsinfrastruktur

Durchschnittliche KI-Rack-Kosten 2025 bei 3,9 Mio. USD vs. 500.000 USD traditionell – 7-facher Anstieg. GB200NVL72-Racks erreichen 132kW; Blackwell Ultra und Rubin zielen auf 250-900kW mit 576 GPUs/Rack bis 2026-2027. NVIDIA OCP 2025...

Hochdichte Racks: 100kW+ Designs für KI-Rechenzentrumsinfrastruktur

Hochdichte Racks: 100kW+ Designs für KI-Rechenzentrumsinfrastruktur

Aktualisiert am 11. Dezember 2025

Update Dezember 2025: Durchschnittliche KI-Rack-Kosten 2025 bei 3,9 Mio. USD vs. 500.000 USD traditionell – 7-facher Anstieg. GB200NVL72-Racks erreichen 132kW; Blackwell Ultra und Rubin zielen auf 250-900kW mit 576 GPUs/Rack bis 2026-2027. NVIDIA OCP 2025 enthüllt 1MW-Rack-Designs. Eaton Heavy-Duty SmartRack unterstützt 2.268 kg statisches Gewicht für KI. Der Aufbau einer 100kW-Infrastruktur kostet 200.000-300.000 USD/Rack.

Das durchschnittliche KI-Rack wird 2025 rund 3,9 Millionen US-Dollar kosten, verglichen mit 500.000 US-Dollar für traditionelle Server-Racks.¹ Diese siebenfache Kostensteigerung spiegelt die grundlegende Transformation der Rack-Anforderungen wider, da GPUs die 1.000-Watt-Schwelle überschreiten und die Leistungsdichte pro Rack von über 100kW in Richtung 1MW treiben.² NVIDIAs Blackwell Ultra und Rubin AI-Server werden zwischen 250 und 900kW bei bis zu 576 GPUs pro Rack bis 2026-2027 benötigen.³ Die Rack-Infrastruktur, die diese Systeme beherbergt, muss sich entsprechend weiterentwickeln – mit struktureller Verstärkung, Integration von Flüssigkeitskühlung und Stromverteilungskapazitäten, die traditionelle Gehäuse nie vorgesehen hatten.

Der Rechenzentrum-Rack-Markt prognostiziert ein Wachstum auf 9,41 Milliarden US-Dollar bis 2033, da KI-Workloads die Anforderungen an die physische Infrastruktur neu gestalten.⁴ Im Gegensatz zu traditionellen Rechenzentren mit 10-15kW pro Rack benötigen KI-Einrichtungen zwischen 40-250kW pro Rack, um die Rechenanforderungen des maschinellen Lernens zu unterstützen.⁵ Organisationen, die KI-Infrastruktur planen, müssen Rack-Spezifikationen anhand aktueller und prognostizierter GPU-Anforderungen bewerten, anstatt sich auf veraltete Annahmen über Leistungsdichte und Tragfähigkeit zu verlassen.

Die Entwicklung der Leistungsdichte erfordert neue Rack-Designs

Der Anstieg auf 100kW+ pro Rack stellt sowohl eine Evolution als auch eine Revolution in der Rechenzentrumsinfrastruktur dar.⁶ Traditionelle Racks, die für 5-10kW-Lasten ausgelegt sind, können moderne GPU-Server-Leistungsanforderungen ohne grundlegende architektonische Änderungen nicht sicher unterstützen.

Aktuelle Dichtebereiche umfassen verschiedene Einsatzszenarien. Hochdichte KI-Trainingscluster benötigen 40-60kW-Racks. Große Sprachmodell-Workloads erfordern mindestens 70kW. Supercomputing-Anwendungen für nationale Sicherheit und KI-Forschung ziehen 100kW oder mehr.⁷ Die Entwicklung beschleunigt sich weiter.

NVIDIA-Systemanforderungen definieren Infrastruktur-Benchmarks. Die 2024 eingeführten GB200NVL72-Rack-Designs erreichen eine Spitzenleistungsdichte von 132kW.⁸ Zukünftige Blackwell Ultra- und Rubin-Systeme benötigen bis zu 900kW mit 576 GPUs pro Rack.⁹ NVIDIAs Eröffnungsrede auf der OCP 2025 enthüllte KI-Racks der nächsten Generation mit einem Bedarf von bis zu 1MW.¹⁰

Stromverteilungsarchitekturen passen sich den Dichtesteigerungen an. Die Zentralisierung der Gleichrichtung wandelt Wechselstrom näher an der Quelle in Gleichstrom um und verteilt dann Hochspannungs-Gleichstrom direkt an die Racks, wodurch Verluste reduziert und die PUE verbessert wird.¹¹ Hyperscaler wie Meta, Google und Microsoft setzen Mittelspannungsverteilung bis 13,8kV und höhere DC-Spannungsarchitekturen bei 400VDC und 800VDC ein.¹²

Kostenauswirkungen sind erheblich. Der Aufbau einer neuen 100kW-fähigen Infrastruktur kostet 200.000-300.000 US-Dollar pro Rack, bietet aber Spielraum für zukünftiges Wachstum.¹³ Die Nachrüstung bestehender Einrichtungen für 40kW-Dichte kostet 50.000-100.000 US-Dollar pro Rack.¹⁴ Das Investitionsvolumen erfordert sorgfältige Kapazitätsplanung.

Strukturelle Anforderungen für dichte Deployments

Die Tragfähigkeit wird kritisch, da GPU-Server die traditionelle Servermasse überschreiten. KI-Server packen dichtere Komponenten, größere Kühlkörper und Flüssigkeitskühlungshardware, die Legacy-Racks nicht sicher tragen können.

Statische Tragfähigkeit muss voll beladene Konfigurationen aufnehmen. Eaton führte im Oktober 2024 Heavy-Duty SmartRack-Gehäuse speziell für KI ein, mit einer statischen Tragfähigkeit von bis zu 2.268 kg.¹⁵ Die erweiterte Tiefe von 137 cm nimmt größere KI-Server auf, die bei GPU-Deployments üblich sind.¹⁶ Standard-Racks, die für 900-1.360 kg Lasten ausgelegt sind, erfordern eine Bewertung vor dem KI-Server-Deployment.

Bodenbelastung erfordert eine Einrichtungsbewertung. Das CDU-Gewicht bei Befüllung kann 3 Tonnen erreichen und erfordert eine Bodenbelastungskapazität von 800 kg/m².¹⁷ In Kombination mit dem Servergewicht und der Flüssigkeitskühlungsinfrastruktur kann die Gesamtbodenbelastung die traditionellen Rechenzentrumsspezifikationen überschreiten.

Rack-Tiefe geht über Standardmaße hinaus. NVIDIA HGX-Server und ähnliche Plattformen erfordern tiefere Gehäuse als 107 cm Standard-Tiefe-Racks bieten.¹⁸ Die Planung für erweiterte Tiefe beeinflusst Gangabstände, Einrichtungslayout und Kabelführung.

Integration des Wärmemanagements beeinflusst das strukturelle Design. Hochleistungs-Racks erzeugen Wärmefahnen, die ununterbrochene Luftströmungswege erfordern.¹⁹ NVIDIA empfiehlt die Platzierung von zwei Servern unten, einer 3-6U leeren Lücke, dann zwei Servern darüber für optimierte luftgekühlte Konfigurationen.²⁰ Das Rack-Layout beeinflusst direkt die Kühleffektivität.

Anforderungen an die Integration der Flüssigkeitskühlung

Racks, die KI-Workloads bedienen, müssen eine Flüssigkeitskühlungsinfrastruktur aufnehmen, die luftgekühlte Gehäuse nie vorgesehen hatten. Die Integration erhöht die Komplexität bei der Rack-Auswahl und Einrichtungsplanung.

Cold-Plate-Unterstützung erfordert Verteiler-Integration. Direkte Chip-Kühlung bringt Kühlmittel zu CPU- und GPU-Wärmequellen und entfernt 30-40kW pro Rack.²¹ Racks müssen Montagepunkte, Führungswege und Leckage-Eindämmung für die Flüssigkeitsverteilung innerhalb des Gehäuses bieten.

Montage von Rear-Door-Wärmetauschern ermöglicht hybride Kühlung. RDHx-Systeme werden an der Rack-Rückseite befestigt und entfernen in den neuesten Konfigurationen bis zu 120kW pro Rack.²² Rack-Strukturspezifikationen müssen das RDHx-Gewicht und die Rohrverbindungen unterstützen.

Immersionskompatibilität ermöglicht höchste Dichten. Immersionskühlung taucht Systeme in dielektrische Flüssigkeit und bewältigt 50-100kW bei Eliminierung von Lüftern.²³ Einige Deployments verwenden Immersionstanks im Rack-Maßstab anstelle traditioneller Gehäuse, was eine andere Einrichtungsplanung erfordert.

Hybridarchitekturen kombinieren Kühlungsansätze. Ein gängiges Design von 2025 umfasst 70% Flüssigkeitskühlung und 30% Luftkühlung, wobei das Rack als Integrationspunkt dient.²⁴ Racks müssen beide Kühlmodalitäten gleichzeitig aufnehmen.

Durchflussratenspezifikationen bestimmen die Kühlkapazität. Der Industriestandard von 1,2 LPM/kW bei 45°C Einlasstemperatur bedeutet, dass ein 85kW-Rack eine CDU und einen Wärmetauscher benötigt, die 102 LPM Durchfluss mit Kühlung auf 45°C unterstützen.²⁵ Rack-Verrohrung darf die erforderlichen Durchflussraten nicht einschränken.

OCP Open Rack Spezifikationen

Das Open Compute Project definiert Rack-Standards, die für Hyperscale-Effizienz optimiert sind. KI-Workload-Anforderungen treiben die kontinuierliche Spezifikationsentwicklung voran.

Open Rack V3 (ORV3) legte die Grundlage. Meta definierte und veröffentlichte die Basisspezifikation 2022 mit Beiträgen von Google und Rittal.²⁶ Die 53,3 cm Breite übertrifft den EIA 48,3 cm Standard und ermöglicht eine deutliche Erhöhung des Luftstroms.²⁷ Stromregal-, Gleichrichter- und Batterie-Backup-Spezifikationen ermöglichen integrierte Stromverteilung.

Open Rack Wide (ORW) adressiert KI der nächsten Generation. Meta führte ORW-Spezifikationen auf der OCP 2025 als Open-Source-Standard für doppelt breite Racks ein, optimiert für Strom-, Kühlungs- und Wartbarkeitsanforderungen von KI-Systemen der nächsten Generation.²⁸ Die Spezifikation stellt einen grundlegenden Wandel hin zu standardisiertem, interoperablem und skalierbarem Rechenzentrumsdesign dar.²⁹

Mt Diablo (Diablo 400) Spezifikationen beschreiben Power-Rack-Sidecars für KI-Cluster. Gemeinsam verfasst von Google, Meta und Microsoft, definiert die Spezifikation disaggregierte Power-Racks, die die Stromversorgung über traditionelle 48V-Konfigurationen hinaus treiben.³⁰ Delta Electronics stellte das 800VDC "AI Power Cube"-Ökosystem vor, das mit NVIDIA entwickelt wurde, um 1,1MW-Scale KI-Racks zu versorgen.³¹

Clemente-Spezifikation beschreibt Compute-Trays, die NVIDIA GB300 Host Processor Modules in Formfaktoren für Metas KI/ML-Training und Inferenz-Anwendungsfälle integrieren.³² Die Spezifikation stellt das erste Deployment mit OCP ORv3 HPR mit Sidecar-Power-Racks dar.

Branchenimplementierungen demonstrieren den Spezifikationswert. AMD kündigte das "Helios" Rack-Scale-Referenzsystem an, das auf ORW offenen Standards aufbaut.³³ Rittals Open Rack V3-Vorbereitung für direkte Flüssigkeitskühlung adressiert die Wärmeabfuhr von High-Performance-Computing und KI-Technologie.³⁴

Herstellerlösungen für KI-Rack-Deployments

Große Infrastrukturanbieter brachten 2024-2025 KI-spezifische Rack-Produkte auf den Markt.

Schneider Electric lancierte hochdichte NetShelter Racks im Juni 2025, gefolgt von neuen OCP-inspirierten Rack-Systemen, die NVIDIAs MGX-Architektur unterstützen.³⁵ Die Produkte integrieren sich mit Schneiders Stromverteilungs- und Kühlungsportfolios.

Eaton Heavy-Duty SmartRack-Gehäuse zielen auf KI-Deployments mit 2.268 kg statischer Tragfähigkeit und 137 cm erweiterter Tiefe.³⁶ Die Spezifikationen adressieren die größeren, schwereren Server, die bei GPU-Infrastruktur üblich sind.

Supermicro bietet Rack-Scale-Flüssigkeitskühlungslösungen mit bis zu 100kW Strom und Kühlung pro Rack, vollständig validiert auf System-, Rack- und Clusterebene mit beschleunigten Vorlaufzeiten.³⁷ Die Lösungen integrieren sich mit Supermicros GPU-Server-Portfolio.

Rittal bietet OCP ORV3-konforme Racks mit Flüssigkeitskühlungsvorbereitung, die die Wärmeabfuhranforderungen von KI-Technologie adressieren.³⁸ Die Produkte unterstützen die Integration direkter Flüssigkeitskühlung.

Legrand erzielte im ersten Halbjahr 2025 einen Umsatzanstieg von 24% aus dem KI-fokussierten Rechenzentrumsinfrastruktur-Portfolio und tätigte sieben Akquisitionen, die 500 Mio. EUR an jährlichem Umsatz hinzufügten.³⁹ Der Rechenzentrumsumsatz des Unternehmens wird 2025 voraussichtlich 2 Mrd. EUR überschreiten.⁴⁰

Netzwerkinfrastruktur-Überlegungen

KI-Cluster benötigen fünfmal mehr Glasfaser-Infrastrukturdichte als konventionelle Rechenzentren.⁴¹ Die Rack-Auswahl muss die Kabeldichte aufnehmen, die KI-Vernetzung erfordert.

InfiniBand und Hochgeschwindigkeits-Ethernet-Verkabelung erfordert Führungskapazität. KI-Cluster sind auf Netzwerke mit ultrahoher Bandbreite und niedriger Latenz (400Gbps+ Ethernet oder InfiniBand XDR) angewiesen, um GPUs über Server hinweg zu synchronisieren.⁴² Das Netzwerk-Fabric ähnelt dem Supercomputer-Design mit 4-5x mehr Glasfaserverbindungen pro Rack.⁴³

Kabelmanagement-Integration beeinflusst die Rack-Auswahl. Standard-Kabelmanagement-Zubehör, das für 10-20 Kabel pro Rack ausgelegt ist, kann die Hunderte von Hochgeschwindigkeitsverbindungen, die KI-Vernetzung erfordert, nicht aufnehmen. Bewerten Sie die Rack-Kabelmanagement-Kapazität vor der Beschaffung.

Overhead- versus Unterboden-Führung beeinflusst die Rack-Positionierung. KI-Kabeldichten können die traditionelle Doppelbodenkapazität überschreiten, was zur Einführung von Overhead-Kabelmanagement führt. Die Rack-Höhe muss Overhead-Führung aufnehmen und gleichzeitig die Wartbarkeit gewährleisten.

Planung für Dichtewachstum

Organisationen, die KI-Infrastruktur bereitstellen, sollten Rack-Investitionen für das erwartete Wachstum dimensionieren, anstatt für aktuelle Anforderungen.

GPU-Roadmap-Bewusstsein informiert die Kapazitätsplanung. NVIDIAs Progression von H100 (700W) zu Blackwell (1000W+) zu Rubin (höher) setzt die Dichteeskalation fort. Racks, die für aktuelle GPUs bereitgestellt werden, sollten die Stromanforderungen der nächsten Generation aufnehmen.

Modulare Stromverteilung ermöglicht inkrementelle Kapazitätssteigerungen. PDU-pro-Rack versus Busway-Verteilung beeinflusst, wie die Kapazität skaliert. Planen Sie die Stromarchitektur zusammen mit der Rack-Auswahl.

Kühlungsreserve verhindert gestrandete Rechenleistung. Racks mit Flüssigkeitskühlungsfähigkeit, auch für anfänglich luftgekühlte Deployments, ermöglichen den Übergang bei steigenden Dichten. Die Mehrkosten sind gering im Vergleich zum Rack-Austausch.

Flächeneffizienz multipliziert sich im großen Maßstab. Höherdichte Racks reduzieren die Gesamtanzahl der Racks bei äquivalenter Rechenkapazität. Weniger Racks bedeuten weniger Bodenfläche, kürzere Kabelwege und potenziell kleinere Einrichtungen.

Introls globale Engineering-Teams setzen hochdichte Rack-Infrastruktur für KI-Installationen an 257 Standorten ein, von ersten GPU-Server-Deployments bis hin zu Einrichtungen mit 100.000 Beschleunigern. Die Rack-Auswahl beeinflusst direkt die Einrichtungseffizienz und Kapazität für zukünftige GPU-Generationen.

Das Infrastruktur-Fundament

Racks stellen das physische Fundament für KI-Infrastrukturinvestitionen dar. Das Gehäuse, das 3,9 Millionen US-Dollar an GPU-Servern und Netzwerkausrüstung beherbergt, muss diese Investition sicher tragen und gleichzeitig die Stromversorgung und Kühlungsinfrastruktur ermöglichen, die diese Systeme benötigen.

Angebot anfordern_

Erzählen Sie uns von Ihrem Projekt und wir antworten innerhalb von 72 Stunden.

> ÜBERTRAGUNG_ABGESCHLOSSEN

Anfrage erhalten_

Vielen Dank für Ihre Anfrage. Unser Team wird Ihre Anfrage prüfen und innerhalb von 72 Stunden antworten.

ZUR BEARBEITUNG EINGEREIHT