Vloeistofkoeling vs Lucht: De 50kW GPU Rack Gids (2025)

GPU-racks bereiken 50kW thermische limieten. Vloeistofkoeling levert 21% energiebesparing en 40% kostenreductie. Essentiële gids voor AI-infrastructuurteams die tegen de muur aanlopen.

Vloeistofkoeling vs Lucht: De 50kW GPU Rack Gids (2025)

De exponentiële groei van AI-workloads heeft datacenterkoeling naar een kritiek kantelpunt gebracht. Terwijl GPU-rackdichtheden voorbij de 50kW schieten—met systemen van de volgende generatie die 100kW en meer vereisen—heeft traditionele luchtkoeling zijn fundamentele fysieke limieten bereikt. Deze uitgebreide analyse toont hoe de industrie door deze thermische transformatie navigeert via geavanceerde vloeistofkoeltechnologieën, wat 10-21% energiebesparingen, 40% reductie in koelkosten oplevert en de infrastructuur mogelijk maakt die noodzakelijk is voor de AI-revolutie.

Wanneer lucht de bottleneck wordt

Het falen van luchtkoeling bij hoge dichtheden is niet geleidelijk—het is een klif. Bij 50kW per rack wordt de natuurkunde meedogenloos: koeling vereist 7.850 kubieke voet per minuut (CFM) aan luchtstroom bij een temperatuurverschil van 20°F. Verdubbel dat naar 100kW, en je hebt 15.700 CFM nodig—waardoor orkaankracht winden ontstaan door server-inlaten van slechts 2-4 vierkante inch. De fundamentele warmteafvoervergelijking (Q = 0,318 × CFM × ΔT) onthult een onoverkoomelijke uitdaging: naarmate de dichtheid toeneemt, schaalt de benodigde luchtstroom lineair, maar het stroomverbruik van ventilatoren schaalt met de derde macht van ventilatorsnelheid. Een 10% toename in luchtstroom vereist 33% meer ventilatorvermogen, wat een energieverbruiksspiraal creëert die hoogdichte luchtkoeling economisch en praktisch onmogelijk maakt.

Praktijkgegevens bevestigen deze theoretische limieten. Eén gedocumenteerd geval toonde 250 racks op slechts 6kW die van 72°F naar meer dan 90°F gingen in 75 seconden toen de koeling faalde. Traditionele datacenters ontworpen voor 5-10kW gemiddelde rack-dichtheden kunnen moderne GPU-workloads simpelweg niet aan. Zelfs met geavanceerde warm/koude gang-insluiting, worstelt luchtkoeling voorbij 40kW, terwijl niet-ingesloten systemen 20-40% capaciteitsverliezen ondervinden door recirculatie van warme lucht. De nieuwe ASHRAE H1 omgevingsklasse, expliciet gecreëerd voor hoogdichte apparatuur, beperkt toelaatbare temperaturen tot 18-22°C—een bereik dat onmogelijk te handhaven is met luchtkoeling op GPU-schaal.

Vloeistofkoelingstechnologieën transformeren het mogelijke.

De overgang naar vloeistofkoeling vertegenwoordigt meer dan incrementele verbetering—het is een fundamentele heroverweging van warmteafvoer. De warmteoverdrachtscoëfficiënt van water is 3.500 keer groter dan die van lucht, waardoor koelcapaciteiten mogelijk worden die 100kW+ racks routineus maken in plaats van opmerkelijk.

Direct-to-chip koeling leidt de transformatie, met koelplaten met microkanalen (27-100 micron) die direct aan processors bevestigd zijn. Deze systemen werken met toevoerwater van 40°C en retour van 50°C, en verwijderen 70-75% van de rackhitte via vloeistof terwijl ze een 1.02-1.03 partiële PUE handhaven. Moderne implementaties ondersteunen 1.5kW+ per chip met doorstroomsnelheden van 13 liter per minuut voor een 9kW server. De resterende 25-30% van de warmte—van geheugen, schijven en hulpcomponenten—vereist nog steeds luchtkoeling, waardoor deze hybride systemen de praktische keuze zijn voor de meeste implementaties.

Onderdompelingskoeling duwt grenzen verder, waarbij hele servers ondergedompeld worden in diëlektrische vloeistoffen. Eenfasesystemen die minerale oliën gebruiken kosten $50-100 per gallon en ondersteunen consistent 200kW per rack. Tweefasesystemen beloven superieure warmteoverdracht door koken en condensatie, maar ondervinden uitdagingen: fluorcarbonvloeistoffen kosten $500-1000 per gallon, en 3M's stopzetting van productie tegen 2025 wegens milieubezwaren heeft adoptie bevroren. De complexiteit van de technologie—verzegelde behuizingen, cavitatierisico's en PFAS-regelgeving—beperkt implementatie tot gespecialiseerde toepassingen.

Coolant Distribution Units (CDUs) vormen de ruggengraat van vloeistofkoelingsinfrastructuur. Moderne units variëren van 7kW rack-mount systemen tot 2.000kW+ reuzen zoals CoolIT's CHx2000. Toonaangevende leveranciers—Vertiv, Schneider Electric, Motivair en CoolIT—bieden oplossingen met N+1 redundantie, 50-micron filtratie en variabele frequentieaandrijvingen voor belastingmatching. De CDU-markt, gewaardeerd op $1 miljard in 2024, wordt geprojecteerd om $3.6 miljard tegen 2031 te bereiken (20.5% CAGR), wat de snelle adoptie van vloeistofkoeling weergeeft.

De kunst en economie van retrofitting

Het overstappen van bestaande datacenters naar liquid cooling vereist zorgvuldige orkestratie. De meest succesvolle aanpak volgt een gefaseerde migratie: beginnen met 1-2 high-density racks, uitbreiden naar een rij, en vervolgens schalen op basis van vraag. Drie primaire retrofit-paden zijn ontstaan: liquid-to-air CDU's die gebruikmaken van bestaande airconditioning, rear-door heat exchangers die tot 40kW per rack kunnen koelen, en direct-to-chip oplossingen voor maximale efficiëntie.

Infrastructuurwijzigingen vormen de primaire uitdaging. Power infrastructuur wordt vaak de beperkende factor—faciliteiten ontworpen voor 5-10kW gemiddelde belastingen kunnen geen 50kW+ racks ondersteunen, ongeacht de koelcapaciteit. Leidingwerk vereist zorgvuldige CFD-modellering in raised-floor omgevingen of overhead installatie met druppelplaten bij slab constructie. Vloerbelasting, vooral voor immersion systems, kan de structurele capaciteit in oudere faciliteiten overschrijden.

Kostenanalyse toont overtuigende economie ondanks hoge initiële investering. Een California Energy Commission studie documenteerde een compleet liquid cooling systeem voor 1.200 servers verdeeld over 17 racks voor een totale kost van $470.557, of $392 per server, inclusief faciliteitswijzigingen. Jaarlijkse energiebesparingen van 355 MWh ($39.155 tegen $0,11/kWh) leveren een 12-jarige eenvoudige terugverdientijd op, hoewel geoptimaliseerde implementaties 2-5 jaar rendement behalen. Schneider Electric's analyse toont 14% kapitaalbesparingen door 4x rack compactie, terwijl operationele besparingen een 10,2% reductie in totale datacenter power en een 15,5% verbetering in Total Usage Effectiveness omvatten.

Integratie-uitdagingen vermenigvuldigen in hybride omgevingen. Zelfs "volledig liquid-cooled" faciliteiten vereisen 20-30% air cooling capaciteit voor hulpcomponenten. Controlesystemen moeten meerdere cooling technologieën coördineren, waarbij zowel rack inlet temperaturen als supply water condities worden gemonitord. Redundantie wordt kritiek—rear-door heat exchangers moeten failover naar air cooling wanneer geopend voor service, terwijl direct-to-chip systemen minder dan 10 seconden ride-through tijd hebben bij volle belasting.

Van pilots naar productie

Real-world implementaties tonen de volwassenheid van liquid cooling aan. Meta loopt voorop bij grootschalige adoptie, met de implementatie van Air-Assisted Liquid Cooling in meer dan 40 miljoen vierkante meter aan datacenterruimte. Hun Catalina rack-ontwerp ondersteunt 140kW met 72 GPU's, terwijl de facility-brede liquid cooling implementatie naar verwachting begin 2025 voltooid zal zijn. De transformatie vereiste het schrappen van meerdere datacenters in aanbouw voor AI-geoptimaliseerde herontwerpen, waarbij 31% kostenbesparingen verwacht worden van de nieuwe architectuur.

Google's zevenjarige reis met liquid-cooled TPU's levert de meest uitgebreide dataset van de industrie. Door closed-loop systemen te implementeren in meer dan 2000 TPU Pods op gigawatt-schaal, hebben zij 99.999% uptime bereikt terwijl ze 30x betere thermische geleidbaarheid dan lucht aantonen. Hun vijfde generatie CDU-ontwerp, Project Deschutes, zal worden bijgedragen aan het Open Compute Project, waardoor industrie-brede adoptie wordt versneld.

Microsoft verlegt grenzen met two-phase immersion cooling in productie, gebruikmakend van diëlektrische vloeistoffen die koken bij 122°F—50°C lager dan water. De technologie maakt 5-15% server stroomreductie mogelijk terwijl koelventilatoren worden weggenomen. Hun toezegging voor 95% waterverbruikreductie tegen 2024 drijft innovatie aan in closed-loop, zero-evaporation systemen.

gespecialiseerde providers zoals CoreWeave tonen liquid cooling voor AI workloads aan. Met plannen voor 4.000 GPU implementaties tegen eind 2024, bereiken zij 130kW rack dichtheden met 20% betere systeembenutting dan concurrenten. Hun rail-geoptimaliseerde ontwerpen besparen 3,1 miljoen GPU uren door verbeterde betrouwbaarheid, en implementeren H100 clusters in minder dan 60 dagen.

Het beantwoorden aan de thermische eisen van AI-accelerators

GPU-specificaties tonen aan waarom vloeistofkoeling verplicht is geworden. De NVIDIA H100 SXM5 werkt op 700W TDP en vereist vloeistofkoeling voor optimale prestaties. De H200 houdt hetzelfde vermogensprofiel aan terwijl deze 141GB HBM3e-geheugen levert op 4,8TB/s—1,4x meer bandbreedte, wat proportionele warmte genereert. De aankomende B200 duwt grenzen verder: 1.200W voor vloeistofgekoelde varianten versus 1.000W voor luchtgekoelde, met 20 PFLOPS FP4-prestaties die geavanceerd thermisch beheer vereisen.

De GB200 NVL72—met 72 Blackwell GPU's en 36 Grace CPU's in een enkele rack—vertegenwoordigt het eindpunt van de haalbaarheid van luchtkoeling. Bij 140kW rackstroom vereist het verplichte vloeistofkoeling via nieuw ontwikkelde koelplaten en 250kW CDU's. Overwegingen op systeemniveau maken de complexiteit nog groter: NVSwitch-interconnects voegen elk 10-15W toe, terwijl high-speed geheugen en stroomtoevoersystemen aanzienlijke extra warmte bijdragen.

Technische analyse door JetCool toont grote prestatieverschillen aan: hun H100 SmartPlate behaalt 0,021°C/W thermische weerstand, waarbij chips 35°C koeler draaien dan luchtalternatieven terwijl 60°C inlaattemperaturen worden ondersteund. Deze temperatuurverlaging verlengt theoretisch de GPU-levensduur 8x terwijl aanhoudende maximale prestaties mogelijk worden—cruciaal voor AI-trainingssessies van meerdere weken.

Het stappenplan naar 2030

De industrie staat op een transformatiepunt waar best practices snel evolueren tot vereisten. ASHRAE's nieuwe H1 milieuklasse (18-22°C aanbevolen) erkent dat traditionele richtlijnen AI-workloads niet kunnen accommoderen. De vloeistofkoeling-standaarden van het Open Compute Project stimuleren interoperabiliteit, terwijl hun Immersion Requirements Rev. 2.10 kwalificatieprocessen vaststelt voor opkomende technologieën.

Tweefase onderdompelingskoeling toont ondanks huidige uitdagingen potentieel voor mainstream adoptie in 2025-2027. Marktprojecties geven groei aan van $375 miljoen (2024) naar $1,2 miljard (2032), gedreven door superieure warmteoverdracht die 1.500W+ per chip mogelijk maakt. Innovaties zoals Accelsius NeuCool en alternatieven voor gestopte 3M vloeistoffen pakken milieuzorgen aan terwijl prestaties behouden blijven.

AI-gedreven optimalisatie levert directe resultaten. Google DeepMind's implementatie behaalde 40% vermindering van koelingenergie door real-time leren, terwijl Siemens' White Space Cooling Optimization en vergelijkbare platforms zich verspreiden. Deze systemen voorspellen storingen, optimaliseren koelvloeistofchemie, en passen zich dynamisch aan werkbelastingpatronen aan—capaciteiten waarvan 91% van de leveranciers verwacht dat ze binnen vijf jaar alomtegenwoordig zijn.

Afvalwarmteterugwinning transformeert verplichting in bezit. Stockholm Data Parks verwarmt al 10.000 huishoudens met datacenter-afvalwarmte, met als doel 10% van de stadsverwarming tegen 2035. Regelgevingsdruk versnelt adoptie: Duitsland verplicht 20% warmtehergebruik tegen 2028, terwijl California Title 24 terugwinningsinfrastructuur vereist in nieuwbouw. Warmtepomptechnologie verhoogt 30-40°C afvalwarmte naar 70-80°C voor stadsverwarming, waardoor inkomstenstromen ontstaan uit voorheen weggegooid energie.

De overgang maken

Succes bij de implementatie van vloeistofkoeling vereist strategische planning op meerdere dimensies. Organisaties moeten beginnen met eenvoudige liquid-to-air CDU's voor de laagste toegangsdrempel, maar moeten eerst de stroominfrastructuur beoordelen—ontoereikende elektrische capaciteit diskwalificeert de haalbaarheid van retrofit ongeacht de koeltechnologie. Beginnen met 1-2 rack pilots maakt leren mogelijk voordat geschaald wordt, terwijl het behouden van luchtkoeling expertise cruciaal blijft voor hybride operaties.

Financiële modellering moet rekening houden met de totale systeemwaarde. Hoewel de initiële investering varieert van $1.000 tot $2.000 per kW koelcapaciteit, stapelen operationele besparingen zich op: 27% reductie van faciliteitsstroom in geoptimaliseerde implementaties, 30% besparing op koelenergie versus conventionele systemen, en cruciaal, de mogelijkheid om inkomstengenererende AI workloads te implementeren, onmogelijk met luchtkoeling. Leidende implementaties bereiken terugverdientijden van minder dan 2 jaar door zorgvuldig ontwerp: het omzeilen van inefficiënte chiller integratie bespaart 20-30%, terwijl focus op de hoogste dichtheid applicaties het rendement maximaliseert.

Technische teams hebben nieuwe competenties nodig. Naast traditionele HVAC kennis moeten medewerkers koelvloeistofchemie begrijpen, lekresponsprotocollen, en geïntegreerde controlesystemen. Vendorpartnerschappen blijken essentieel—24/7 ondersteuning voor gespecialiseerde componenten en regelmatig preventief onderhoud met 6-maands intervallen worden operationele noodzakelijkheden. Veiligheidsprotocollen breiden uit naar diëlektrische vloeistofhantering en druksysteembeheer.

De markt signaleert overweldigend momentum. Datacentrum vloeistofkoeling groeit van $4,9 miljard (2024) naar verwachte $21,3 miljard (2030) met 27,6% CAGR. Single-phase direct-to-chip koeling wordt standaard voor AI workloads tegen 2025-2026, terwijl two-phase immersion mainstream adoptie bereikt tegen 2027. Tegen 2030 zullen 1MW racks geavanceerde vloeistofkoeling als standaard vereisen, niet als uitzondering.

## Conclusie

De fysica is duidelijk: luchtkoeling heeft zijn limieten bereikt. Bij rackdichtheden van 50-100kW maken fundamentele thermodynamische beperkingen vloeistofkoeling niet alleen wenselijker maar verplicht. De transitie vertegenwoordigt de meest significante infrastructuurverschuiving in de geschiedenis van datacenters, die nieuwe vaardigheden, aanzienlijke investeringen en operationele transformatie vereist. Toch maken de voordelen—10-21% energiebesparing, 40% reductie in koelkosten, 8x verbetering in betrouwbaarheid, en het meest cruciaal, de mogelijkheid om next-generation AI-infrastructuur te implementeren—deze evolutie onvermijdelijk. Organisaties die vloeistofkoeling vandaag onder de knie krijgen zullen de AI-doorbraken van morgen aandrijven—degenen die uitstellen vallen achter terwijl de industrie naar steeds hogere computationele dichtheden racet. We hebben de thermische muur bereikt; vloeistofkoeling is hoe we erdoorheen breken.

Referenties

ACM Digital Library. "Energy-efficient LLM Training in GPU datacenters with Immersion Cooling Systems." Proceedings of the 16th ACM International Conference on Future and Sustainable Energy Systems. 2025. https://dl.acm.org/doi/10.1145/3679240.3734609.

AMAX. "Comparing NVIDIA Blackwell Configurations." 2025. https://www.amax.com/comparing-nvidia-blackwell-configurations/.

———. "Top 5 Considerations for Deploying NVIDIA Blackwell." 2025. https://www.amax.com/top-5-considerations-for-deploying-nvidia-blackwell/.

arXiv. "[1309.4887] iDataCool: HPC with Hot-Water Cooling and Energy Reuse." 2013. https://ar5iv.labs.arxiv.org/html/1309.4887.

———. "[1709.05077] Transforming Cooling Optimization for Green Data Center via Deep Reinforcement Learning." 2017. https://ar5iv.labs.arxiv.org/html/1709.05077.

Attom. "Ashrae's New Thermal Guideline Update: A New High Density Trend." Expert Green Prefab Data Centers. 2025. https://attom.tech/ashraes-new-thermal-guideline-update-a-new-high-density-trend/.

Chilldyne. "High-power liquid cooling design: direct-to-chip solution requirements for 500 kW Racks." Chilldyne | Liquid Cooling. 29 juli 2024. https://chilldyne.com/2024/07/29/high-power-liquid-cooling-design-direct-to-chip-solution-requirements-for-500-kw-racks/.

Compass Datacenters. "What Is Data Center Cooling?" 2025. https://www.compassdatacenters.com/data-center-cooling/.

Converge Digest. "Meta Outlines AI Infrastructure Upgrades at OCP Summit 2024." 2024. https://convergedigest.com/meta-outlinesai-infrastructure-upgrades-at-ocp-summit-2024/.

Core Winner LTD. "Comprehensive Guide to Liquid Cooling: The Future of High-Performance Data Centers and AI Deployments." 2025. https://www.corewinner.com/en/blog/detail/52.

CoreWeave. "Building AI Clusters for Enterprises 2025." 2025. https://www.coreweave.com/blog/building-ai-clusters-for-enterprises-2025.

———. "GPUs for AI Models and Innovation." 2025. https://www.coreweave.com/products/gpu-compute.

Cyber Defense Advisors. "AI-Driven Predictive Maintenance: The Future of Data Center Reliability." 2025. https://cyberdefenseadvisors.com/ai-driven-predictive-maintenance-the-future-of-data-center-reliability/.

Data Center Catalog. "Meta Plans Shift to Liquid Cooling for its Data Center Infrastructure." 2022. https://datacentercatalog.com/news/2022/meta-plans-shift-to-liquid-cooling-for-its-data-center-infrastructure.

Data Center Dynamics. "An introduction to liquid cooling in the data center." 2025. https://www.datacenterdynamics.com/en/analysis/an-introduction-to-liquid-cooling-in-the-data-center/.

———. "Hyperscalers prepare for 1MW racks at OCP EMEA; Google announces new CDU." 2025. https://www.datacenterdynamics.com/en/news/hyperscalers-prepare-for-1mw-racks-at-ocp-emea-google-announces-new-cdu/.

———. "New ASHRAE guidelines challenge efficiency drive." 2025. https://www.datacenterdynamics.com/en/opinions/new-ashrae-guidelines-challenge-efficiency-drive/.

———. "Nvidia's CEO confirms upcoming system will be liquid cooled." 2025. https://www.datacenterdynamics.com/en/news/nvidias-ceo-confirms-next-dgx-will-be-liquid-cooled/.

———. "Optimizing data center efficiency with direct-to-chip liquid cooling." 2025. https://www.datacenterdynamics.com/en/opinions/optimizing-data-center-efficiency-with-direct-to-chip-liquid-cooling/.

———. "Two-phase cooling will be hit by EPA rules and 3M's exit from PFAS 'forever chemicals'." 2025. https://www.datacenterdynamics.com/en/news/two-phase-cooling-will-be-hit-by-epa-rules-and-3ms-exit-from-pfas-forever-chemicals/.

Data Center Frontier. "8 Trends That Will Shape the Data Center Industry In 2025." 2025. https://www.datacenterfrontier.com/cloud/article/55253151/8-trends-that-will-shape-the-data-center-industry-in-2025.

———. "Best Practices for Deploying Liquid Cooled Servers in Your Data Center." 2025. https://www.datacenterfrontier.com/sponsored/article/55138161/best-practices-for-deploying-liquid-cooled-servers-in-your-data-center.

———. "Google Developing New 'Climate Conscious' Cooling Tech to Save Water." 2025. https://www.datacenterfrontier.com/cooling/article/33001080/google-developing-new-climate-conscious-cooling-tech-to-save-water.

———. "Google Shifts to Liquid Cooling for AI Data Crunching." 2025. https://www.datacenterfrontier.com/cloud/article/11430207/google-shifts-to-liquid-cooling-for-ai-data-crunching.

———. "Meta Plans Shift to Liquid Cooling for its Data Center Infrastructure." 2025. https://www.datacenterfrontier.com/cooling/article/11436915/meta-plans-shift-to-liquid-cooling-for-its-data-center-infrastructure.

———. "Meta Previews New Data Center Design for an AI-Powered Future." 2025. https://www.datacenterfrontier.com/data-center-design/article/33005296/meta-previews-new-data-center-design-for-an-ai-powered-future.

———. "OCP 2024 Spotlight: Meta Debuts 140 kW Liquid-Cooled AI Rack; Google Eyes Robotics to Muscle Hyperscaler GPUs." 2024. https://www.datacenterfrontier.com/hyperscale/article/55238148/ocp-2024-spotlight-meta-shows-off-140-kw-liquid-cooled-ai-rack-google-eyes-robotics-to-muscle-hyperscaler-gpu-placement.

———. "Pushing the Boundaries of Air Cooling in High Density Environments." 2025. https://www.datacenterfrontier.com/special-reports/article/11427279/pushing-the-boundaries-of-air-cooling-in-high-density-environments.

———. "Report: Meta Plans Shift to Liquid Cooling in AI-Centric Data Center Redesign." 2025. https://www.datacenterfrontier.com/cooling/article/33004107/report-meta-plans-shift-to-liquid-cooling-in-ai-centric-data-center-redesign.

———. "The Importance of Liquid Cooling to the Open Compute Project (OCP)." 2025. https://www.datacenterfrontier.com/sponsored/article/55134348/the-importance-of-liquid-cooling-to-the-open-compute-project-ocp.

———. "Waste Heat Utilization is the Data Center Industry's Next Step Toward Net-Zero Energy." 2025. https://www.datacenterfrontier.com/voices-of-the-industry/article/11428787/waste-heat-utilization-is-the-data-center-industrys-next-step-toward-net-zero-energy.

———. "ZutaCore's HyperCool Liquid Cooling Technology to Support NVIDIA's Advanced H100 and H200 GPUs for Sustainable AI." 2024. https://www.datacenterfrontier.com/press-releases/press-release/33038994/zutacores-hypercool-liquid-cooling-technology-to-support-nvidias-advanced-h100-and-h200-gpus-for-sustainable-ai.

Data Center Knowledge. "Data Center Retrofit Strategies." 2025. https://www.datacenterknowledge.com/infrastructure/data-center-retrofit-strategies.

———. "Hybrid Cooling: The Bridge to Full Liquid Cooling in Data Centers." 2025. https://www.datacenterknowledge.com/cooling/hybrid-cooling-the-bridge-to-full-liquid-cooling-in-data-centers.

Data Centre Review. "Making the most of data centre waste heat." Juni 2024. https://datacentrereview.com/2024/06/making-the-most-of-data-centre-waste-heat/.

Datacenters. "CoreWeave's Role in Google and OpenAI's Cloud Partnership Redefines AI Infrastructure." 2025. https://www.datacenters.com/news/coreweave-s-strategic-role-in-google-and-openai-s-cloud-collaboration.

Dell. "When to Move from Air Cooling to Liquid Cooling for Your Data Center." 2025. https://www.dell.com/en-us/blog/when-to-move-from-air-cooling-to-liquid-cooling-for-your-data-center/.

Digital Infra Network. "Google's megawatt move for AI: Revamping power and cooling." 2025. https://digitalinfranetwork.com/news/google-ocp-400v-liquid-cooling/.

Enconnex. "Data Center Liquid Cooling vs. Air Cooling." 2025. https://blog.enconnex.com/data-center-liquid-cooling-vs-air-cooling.

Engineering at Meta. "Meta's open AI hardware vision." 15 oktober 2024. https://engineering.fb.com/2024/10/15/data-infrastructure/metas-open-ai-hardware-vision/.

Fortune Business Insights. "Two-Phase Data Center Liquid Immersion Cooling Market, 2032." 2025. https://www.fortunebusinessinsights.com/two-phase-data-center-liquid-immersion-cooling-market-113122.

Google Cloud. "Enabling 1 MW IT racks and liquid cooling at OCP EMEA Summit." Google Cloud Blog. 2025. https://cloud.google.com/blog/topics/systems/enabling-1-mw-it-racks-and-liquid-cooling-at-ocp-emea-summit.

GR Cooling. "Exploring Advanced Liquid Cooling: Immersion vs. Direct-to-Chip Cooling." 2025. https://www.grcooling.com/blog/exploring-advanced-liquid-cooling/.

———. "Two-Phase Versus Single-Phase Immersion Cooling." 2025. https://www.grcooling.com/blog/two-phase-versus-single-phase-immersion-cooling/.

HDR. "Direct-To-Chip Liquid Cooling." 2025. https://www.hdrinc.com/insights/direct-chip-liquid-cooling.

HiRef. "Hybrid Rooms: the combined solution for air and liquid cooling in data centers." 2025. https://hiref.com/news/hybrid-rooms-data-centers.

HPCwire. "H100 Fading: Nvidia Touts 2024 Hardware with H200." 13 november 2023. https://www.hpcwire.com/2023/11/13/h100-fading-nvidia-touts-2024-hardware-with-h200/.

IDTechEx. "Thermal Management for Data Centers 2025-2035: Technologies, Markets, and Opportunities." 2025. https://www.idtechex.com/en/research-report/thermal-management-for-data-centers/1036.

JetCool. "Direct Liquid Cooling vs. Immersion Cooling for Data Centers." 2025. https://jetcool.com/post/five-reasons-water-cooling-is-better-than-immersion-cooling/.

———. "Liquid Cooling System for NVIDIA H100 GPU." 2025. https://jetcool.com/h100/.

Maroonmonkeys. "CDU." 2025. https://www.maroonmonkeys.com/motivair/cdu.html.

Microsoft. "Project Natick Phase 2." 2025. https://natick.research.microsoft.com/.

Microsoft News. "To cool datacenter servers, Microsoft turns to boiling liquid." 2025. https://news.microsoft.com/source/features/innovation/datacenter-liquid-cooling/.

Nortek Data Center Cooling Solutions. "Waste Heat Utilization is the Data Center Industry's Next Step Toward Net-Zero Energy." 2025. https://www.nortekdatacenter.com/waste-heat-utilization-is-the-data-center-industrys-next-step-toward-net-zero-energy/.

NVIDIA. "H200 Tensor Core GPU." 2025. https://www.nvidia.com/en-us/data-center/h200/.

Open Compute Project. "Open Compute Project Foundation Expands Its Open Systems for AI Initiative." 2025. https://www.opencompute.org/blog/open-compute-project-foundation-expands-its-open-systems-for-ai-initiative.

P&S Intelligence. "Immersion Cooling Market Size, Share & Trends Analysis, 2032." 2025. https://www.psmarketresearch.com/market-analysis/immersion-cooling-market.

PR Newswire. "Supermicro Introduces Rack Scale Plug-and-Play Liquid-Cooled AI SuperClusters for NVIDIA Blackwell and NVIDIA HGX H100/H200." 2024. https://www.prnewswire.com/news-releases/supermicro-introduces-rack-scale-plug-and-play-liquid-cooled-ai-superclusters-for-nvidia-blackwell-and-nvidia-hgx-h100h200--radical-innovations-in-the-ai-era-to-make-liquid-cooling-free-with-a-bonus-302163611.html.

———. "ZutaCore's HyperCool Liquid Cooling Technology to Support NVIDIA's Advanced H100 and H200 GPUs for Sustainable AI." 2024. https://www.prnewswire.com/news-releases/zutacores-hypercool-liquid-cooling-technology-to-support-nvidias-advanced-h100-and-h200-gpus-for-sustainable-ai-302087410.html.

Rittal. "What is Direct to Chip Cooling – and Is Liquid Cooling in your Future?" 2025. https://www.rittal.com/us-en_US/Company/Rittal-Stories/What-is-Direct-to-Chip-Cooling-and-Is-Liquid-Cooling-in-your-Future.

ScienceDirect. "Liquid cooling of data centers: A necessity facing challenges." 2024. https://www.sciencedirect.com/science/article/abs/pii/S1359431124007804.

SemiAnalysis. "Datacenter Anatomy Part 1: Electrical Systems." 14 oktober 2024. https://semianalysis.com/2024/10/14/datacenter-anatomy-part-1-electrical/.

———. "Datacenter Anatomy Part 2 – Cooling Systems." 13 februari 2025. https://semianalysis.com/2025/02/13/datacenter-anatomy-part-2-cooling-systems/.

———. "Multi-Datacenter Training: OpenAI's Ambitious Plan To Beat Google's Infrastructure." 4 september 2024. https://semianalysis.com/2024/09/04/multi-datacenter-training-openais/.

TechPowerUp. "NVIDIA H100 PCIe 80 GB Specs." TechPowerUp GPU Database. 2025. https://www.techpowerup.com/gpu-specs/h100-pcie-80-gb.c3899.

TechTarget. "Liquid Cooling vs. Air Cooling in the Data Center." 2025. https://www.techtarget.com/searchdatacenter/feature/Liquid-cooling-vs-air-cooling-in-the-data-center.

Unisys. "How leading LLM developers are fueling the liquid cooling boom." 2025. https://www.unisys.com/blog-post/dws/how-leading-llm-developers-are-fueling-the-liquid-cooling-boom/.

Upsite Technologies. "How Rack Density and Delta T Impact Your Airflow Management Strategy." 2025. https://www.upsite.com/blog/rack-density-delta-t-impact-airflow-management-strategy/.

———. "When to Retrofit the Data Center to Accommodate AI, and When Not to." 2025. https://www.upsite.com/blog/when-to-retrofit-the-data-center-to-accommodate-ai-and-when-not-to/.

Uptime Institute. "Data Center Cooling Best Practices." 2025. https://journal.uptimeinstitute.com/implementing-data-center-cooling-best-practices/.

———. "Performance expectations of liquid cooling need a reality check." Uptime Institute Blog. 2025. https://journal.uptimeinstitute.com/performance-expectations-of-liquid-cooling-need-a-reality-check/.

Utility Dive. "The 2025 outlook for data center cooling." 2025. https://www.utilitydive.com/news/2025-outlook-data-center-cooling-electricity-demand-ai-dual-phase-direct-to-chip-energy-efficiency/738120/.

Vertiv. "Deploying liquid cooling in data centers: Installing and managing coolant distribution units (CDUs)." 2025. https://www.vertiv.com/en-us/about/news-and-insights/articles/blog-posts/deploying-liquid-cooling-in-data-centers-installing-and-managing-coolant-distribution-units-cdus/.

———. "Liquid and Immersion Cooling Options for Data Centers." 2025. https://www.vertiv.com/en-us/solutions/learn-about/liquid-cooling-options-for-data-centers/.

———. "Liquid cooling options for data centers." 2025. https://www.vertiv.com/en-us/solutions/learn-about/liquid-cooling-options-for-data-centers/.

———. "Quantifying the Impact on PUE and Energy Consumption When Introducing Liquid Cooling Into an Air-cooled Data Center." 2025. https://www.vertiv.com/en-emea/about/news-and-insights/articles/blog-posts/quantifying-data-center-pue-when-introducing-liquid-cooling/.

———. "Understanding direct-to-chip cooling in HPC infrastructure: A deep dive into liquid cooling." 2025. https://www.vertiv.com/en-emea/about/news-and-insights/articles/educational-articles/understanding-direct-to-chip-cooling-in-hpc-infrastructure-a-deep-dive-into-liquid-cooling/.

———. "Vertiv™ CoolPhase CDU | High Density Solutions." 2025. https://www.vertiv.com/en-us/products-catalog/thermal-management/high-density-solutions/vertiv-coolphase-cdu/.

WGI. "Cooling Down AI and Data Centers." 2025. https://wginc.com/cooling-down-ai-and-data-centers/.

Offerte aanvragen_

Vertel ons over uw project en wij reageren binnen 72 uur.

> TRANSMISSIE_VOLTOOID

Aanvraag Ontvangen_

Bedankt voor uw aanvraag. Ons team zal uw verzoek beoordelen en binnen 72 uur reageren.

IN WACHTRIJ VOOR VERWERKING