Back to Blog

Refroidissement Liquide vs Air : Le Guide des Racks GPU 50kW (2025)

Les racks GPU atteignent les limites thermiques de 50kW. Le refroidissement liquide offre 21% d'économies d'énergie et 40% de réduction des coûts. Guide essentiel pour les équipes d'infrastructure IA face au mur.

Refroidissement Liquide vs Air : Le Guide des Racks GPU 50kW (2025)

La croissance exponentielle des charges de travail IA a poussé le refroidissement des data centers à un point d'inflexion critique. Alors que les densités des racks GPU dépassent 50kW—avec des systèmes de nouvelle génération exigeant 100kW et au-delà—le refroidissement par air traditionnel a atteint ses limites physiques fondamentales. Cette analyse complète révèle comment l'industrie navigue cette transformation thermique grâce aux technologies avancées de refroidissement liquide, offrant 10-21% d'économies d'énergie, 40% de réduction des coûts de refroidissement, et permettant l'infrastructure nécessaire à la révolution de l'IA.

Quand l'air devient le goulot d'étranglement

L'échec du refroidissement par air aux hautes densités n'est pas progressif—c'est une falaise. À 50kW par rack, la physique devient impitoyable : le refroidissement nécessite 7 850 pieds cubes par minute (CFM) de débit d'air avec un différentiel de température de 20°F. Doublez cela à 100kW, et vous avez besoin de 15 700 CFM—créant des vents de force ouragan à travers les entrées de serveurs mesurant seulement 2-4 pouces carrés. L'équation fondamentale d'évacuation de la chaleur (Q = 0,318 × CFM × ΔT) révèle un défi insurmontable : à mesure que la densité augmente, le débit d'air requis évolue linéairement, mais la consommation d'énergie des ventilateurs évolue avec le cube de la vitesse du ventilateur. Une augmentation de 10% du débit d'air demande 33% de puissance de ventilateur en plus, créant une spirale de consommation d'énergie qui rend le refroidissement par air haute densité économiquement et pratiquement impossible.

Les preuves du monde réel confirment ces limites théoriques. Un cas documenté a montré 250 racks à seulement 6kW passant de 72°F à plus de 90°F en 75 secondes lors d'une panne de refroidissement. Les data centers traditionnels conçus pour des densités de rack moyennes de 5-10kW ne peuvent tout simplement pas gérer les charges de travail GPU modernes. Même avec un confinement avancé allées chaudes/froides, le refroidissement par air peine au-delà de 40kW, tandis que les systèmes non confinés subissent des pertes de capacité de 20-40% dues à la recirculation de l'air chaud. La nouvelle classe environnementale ASHRAE H1, explicitement créée pour les équipements haute densité, restreint les températures admissibles à 18-22°C—une plage impossible à maintenir avec le refroidissement par air aux échelles GPU.

Les technologies de refroidissement liquide transforment le possible.

La transition vers le refroidissement liquide représente plus qu'une amélioration incrémentale—c'est une réimagination fondamentale de l'évacuation de la chaleur. Le coefficient de transfert thermique de l'eau est 3 500 fois supérieur à celui de l'air, permettant des capacités de refroidissement qui rendent les racks de 100kW+ routiniers plutôt que remarquables.

Le refroidissement direct-to-chip mène la transformation, avec des plaques froides comportant des microcanaux (27-100 microns) attachées directement aux processeurs. Fonctionnant avec une eau d'alimentation à 40°C et un retour à 50°C, ces systèmes évacuent 70-75% de la chaleur du rack par le liquide tout en maintenant un PUE partiel de 1,02-1,03. Les implémentations modernes supportent 1,5kW+ par puce avec des débits de 13 litres par minute pour un serveur de 9kW. Les 25-30% restants de chaleur—de la mémoire, des disques et des composants auxiliaires—nécessitent encore un refroidissement par air, faisant de ces systèmes hybrides le choix pratique pour la plupart des déploiements.

Le refroidissement par immersion repousse les limites plus loin, en immergeant des serveurs entiers dans des fluides diélectriques. Les systèmes monophasés utilisant des huiles minérales coûtent 50-100$ par gallon et supportent régulièrement 200kW par rack. Les systèmes biphasés promettent un transfert thermique supérieur par ébullition et condensation, mais font face à des défis : les fluides fluorocarbonés coûtent 500-1000$ par gallon, et l'arrêt de la production par 3M d'ici 2025 en raison de préoccupations environnementales a gelé l'adoption. La complexité de la technologie—enceintes scellées, risques de cavitation et réglementations PFAS—limite le déploiement aux applications spécialisées.

Les Unités de Distribution de Liquide de Refroidissement (CDU) forment l'épine dorsale de l'infrastructure de refroidissement liquide. Les unités modernes vont des systèmes rack de 7kW aux géants de 2 000kW+ comme le CHx2000 de CoolIT. Les principaux fournisseurs—Vertiv, Schneider Electric, Motivair et CoolIT—offrent des solutions avec redondance N+1, filtration 50 microns et variateurs de fréquence pour l'adaptation à la charge. Le marché des CDU, évalué à 1 milliard de dollars en 2024, devrait atteindre 3,6 milliards de dollars d'ici 2031 (TCAC de 20,5%), reflétant l'adoption rapide du refroidissement liquide.

L'art et l'économie de la mise à niveau

La transition des data centers existants vers le refroidissement liquide nécessite une orchestration minutieuse. L'approche la plus réussie suit une migration par phases : commencer par 1-2 racks haute densité, étendre à une rangée, puis dimensionner selon la demande. Trois voies principales de mise à niveau ont émergé : les CDU liquide-vers-air qui exploitent la climatisation existante, les échangeurs de chaleur de porte arrière qui peuvent refroidir jusqu'à 40kW par rack, et les solutions direct-to-chip pour une efficacité maximale.

Les modifications d'infrastructure présentent le défi principal. L'infrastructure électrique devient souvent le facteur limitant—les installations conçues pour des charges moyennes de 5-10kW ne peuvent pas supporter des racks de 50kW+ quelle que soit la capacité de refroidissement. La plomberie nécessite une modélisation CFD minutieuse dans les environnements à plancher surélevé ou une installation en hauteur avec bacs de récupération dans les constructions sur dalle. La charge au sol, particulièrement pour les systèmes d'immersion, peut dépasser la capacité structurelle des installations anciennes.

L'analyse des coûts révèle une économie convaincante malgré un investissement initial élevé. Une étude de la California Energy Commission a documenté un système complet de refroidissement liquide pour 1 200 serveurs sur 17 racks à un coût total de 470 557$, soit 392$ par serveur, incluant les modifications des installations. Les économies d'énergie annuelles de 355 MWh (39 155$ à 0,11$/kWh) donnent un retour sur investissement simple de 12 ans, bien que les implémentations optimisées atteignent des retours de 2-5 ans. L'analyse de Schneider Electric montre 14% d'économies en capital grâce à une compaction des racks de 4x, tandis que les économies opérationnelles incluent une réduction de 10,2% de la puissance totale du data center et une amélioration de 15,5% de l'Efficacité d'Utilisation Totale.

Les défis d'intégration se multiplient dans les environnements hybrides. Même les installations « entièrement refroidies par liquide » nécessitent 20-30% de capacité de refroidissement par air pour les composants auxiliaires. Les systèmes de contrôle doivent coordonner plusieurs technologies de refroidissement, surveillant à la fois les températures d'entrée des racks et les conditions de l'eau d'alimentation. La redondance devient critique—les échangeurs de chaleur de porte arrière doivent basculer vers le refroidissement par air lorsqu'ils sont ouverts pour maintenance, tandis que les systèmes direct-to-chip ont moins de 10 secondes d'autonomie à pleine charge.

Des pilotes à la production

Les déploiements réels démontrent la maturité du refroidissement liquide. Meta mène l'adoption à grande échelle, implémentant le Air-Assisted Liquid Cooling sur plus de 40 millions de pieds carrés d'espace data center. Leur conception de rack Catalina supporte 140kW avec 72 GPU, tandis que le déploiement du refroidissement liquide à l'échelle des installations vise une finalisation début 2025. La transformation a nécessité l'abandon de plusieurs data centers en construction pour des reconceptions optimisées pour l'IA, avec une attente d'économies de coûts de 31% grâce à la nouvelle architecture.

Le parcours de sept ans de Google avec les TPU refroidis par liquide fournit l'ensemble de données le plus complet de l'industrie. En déployant des systèmes en boucle fermée sur plus de 2 000 TPU Pods à l'échelle du gigawatt, ils ont atteint 99,999% de disponibilité tout en démontrant une conductivité thermique 30x supérieure à l'air. Leur conception de CDU de cinquième génération, Project Deschutes, sera contribuée à l'Open Compute Project, accélérant l'adoption à l'échelle de l'industrie.

Microsoft repousse les limites avec le refroidissement par immersion biphasé en production, utilisant des fluides diélectriques qui bouillent à 122°F—50°C de moins que l'eau. La technologie permet une réduction de 5-15% de la puissance des serveurs tout en éliminant les ventilateurs de refroidissement. Leur engagement à réduire l'utilisation d'eau de 95% d'ici 2024 stimule l'innovation dans les systèmes en boucle fermée à zéro évaporation.

Des fournisseurs spécialisés comme CoreWeave démontrent le refroidissement liquide pour les charges de travail IA. Planifiant des déploiements de 4 000 GPU d'ici fin 2024, ils atteignent des densités de rack de 130kW avec 20% de meilleure utilisation système que les concurrents. Leurs conceptions optimisées pour le rail économisent 3,1 millions d'heures GPU grâce à une fiabilité améliorée, déployant des clusters H100 en moins de 60 jours.

Répondre aux exigences thermiques des accélérateurs IA

Les spécifications des GPU révèlent pourquoi le refroidissement liquide est devenu obligatoire. Le NVIDIA H100 SXM5 fonctionne à 700W TDP, nécessitant un refroidissement liquide pour des performances optimales. Le H200 maintient la même enveloppe de puissance tout en offrant 141Go de mémoire HBM3e à 4,8To/s—1,4x plus de bande passante, ce qui génère une chaleur proportionnelle. Le B200 à venir repousse encore les limites : 1 200W pour les variantes refroidies par liquide contre 1 000W pour celles refroidies par air, avec des performances de 20 PFLOPS FP4 exigeant une gestion thermique sophistiquée.

Le GB200 NVL72—intégrant 72 GPU Blackwell et 36 CPU Grace dans un seul rack—représente le point limite de viabilité du refroidissement par air. À 140kW de puissance rack, il nécessite un refroidissement liquide obligatoire via des plaques froides nouvellement développées et des CDU de 250kW. Les considérations au niveau système amplifient la complexité : les interconnexions NVSwitch ajoutent 10-15W chacune, tandis que la mémoire haute vitesse et les systèmes de distribution d'alimentation contribuent une chaleur supplémentaire substantielle.

L'analyse technique de JetCool démontre des différences de performance marquées : leur SmartPlate H100 atteint une résistance thermique de 0,021°C/W, faisant fonctionner les puces 35°C plus froid que les alternatives à air tout en supportant des températures d'entrée de 60°C. Cette réduction de température prolonge théoriquement la durée de vie des GPU de 8x tout en permettant des performances maximales soutenues—critique pour les entraînements IA de plusieurs semaines.

La feuille de route vers 2030

L'industrie se trouve à un point de transformation où les meilleures pratiques évoluent rapidement en exigences. La nouvelle classe environnementale H1 de l'ASHRAE (18-22°C recommandé) reconnaît que les directives traditionnelles ne peuvent pas accommoder les charges de travail IA. Les standards de refroidissement liquide de l'Open Compute Project favorisent l'interopérabilité, tandis que leurs Immersion Requirements Rev. 2.10 établissent des processus de qualification pour les technologies émergentes.

Le refroidissement par immersion biphasé, malgré les défis actuels, montre des promesses pour une adoption mainstream en 2025-2027. Les projections de marché indiquent une croissance de 375 millions de dollars (2024) à 1,2 milliard de dollars (2032), tirée par un transfert thermique supérieur permettant 1 500W+ par puce. Des innovations comme Accelsius NeuCool et des alternatives aux fluides 3M discontinués répondent aux préoccupations environnementales tout en maintenant les performances.

L'optimisation pilotée par l'IA offre des retours immédiats. L'implémentation de Google DeepMind a atteint une réduction de 40% de l'énergie de refroidissement grâce à l'apprentissage en temps réel, tandis que White Space Cooling Optimization de Siemens et des plateformes similaires prolifèrent. Ces systèmes prédisent les pannes, optimisent la chimie du liquide de refroidissement et s'ajustent dynamiquement aux modèles de charge de travail—des capacités que 91% des fournisseurs s'attendent à voir devenir omniprésentes dans les cinq ans.

La récupération de chaleur résiduelle transforme un passif en actif. Stockholm Data Parks chauffe déjà 10 000 ménages avec la chaleur résiduelle des data centers, visant 10% du chauffage de la ville d'ici 2035. La pression réglementaire accélère l'adoption : l'Allemagne impose 20% de réutilisation de chaleur d'ici 2028, tandis que California Title 24 exige une infrastructure de récupération dans les nouvelles constructions. La technologie des pompes à chaleur élève la chaleur résiduelle de 30-40°C à 70-80°C pour le chauffage urbain, créant des flux de revenus à partir d'énergie auparavant gaspillée.

Effectuer la transition

Le succès du déploiement du refroidissement liquide nécessite une planification stratégique sur plusieurs dimensions. Les organisations devraient commencer par des CDU liquide-vers-air simples pour une entrée avec le moins d'obstacles, mais doivent d'abord évaluer l'infrastructure électrique—une capacité électrique inadéquate disqualifie la faisabilité de la mise à niveau quelle que soit la technologie de refroidissement. Commencer par des pilotes de 1-2 racks permet d'apprendre avant de passer à l'échelle, tandis que maintenir l'expertise en refroidissement par air reste critique pour les opérations hybrides.

La modélisation financière doit tenir compte de la valeur totale du système. Bien que l'investissement initial varie de 1 000 à 2 000$ par kW de capacité de refroidissement, les économies opérationnelles se composent : 27% de réduction de puissance des installations dans les implémentations optimisées, 30% d'économies d'énergie de refroidissement par rapport aux systèmes conventionnels, et de manière critique, la capacité de déployer des charges de travail IA génératrices de revenus, impossible avec le refroidissement par air. Les implémentations leaders atteignent des retours sur investissement de moins de 2 ans grâce à une conception soignée : contourner l'intégration inefficace des refroidisseurs économise 20-30%, tandis que se concentrer sur les applications de plus haute densité maximise le retour.

Les équipes techniques requièrent de nouvelles compétences. Au-delà des connaissances HVAC traditionnelles, le personnel doit comprendre la chimie des liquides de refroidissement, les protocoles de réponse aux fuites et les systèmes de contrôle intégrés. Les partenariats avec les fournisseurs s'avèrent essentiels—support 24/7 pour les composants spécialisés et maintenance préventive régulière à intervalles de 6 mois deviennent des nécessités opérationnelles. Les protocoles de sécurité s'étendent pour inclure la manipulation des fluides diélectriques et la gestion des systèmes sous pression.

Le marché signale un élan écrasant. Le refroidissement liquide des data centers passe de 4,9 milliards de dollars (2024) à 21,3 milliards de dollars projetés (2030) avec un TCAC de 27,6%. Le refroidissement monophasé direct-to-chip devient standard pour les charges de travail IA d'ici 2025-2026, tandis que l'immersion biphasée atteint l'adoption mainstream d'ici 2027. D'ici 2030, les racks de 1MW nécessiteront un refroidissement liquide avancé comme standard, pas comme exception.

Conclusion

La physique est claire : le refroidissement par air a atteint ses limites. Aux densités de rack de 50-100kW, les contraintes thermodynamiques fondamentales rendent le refroidissement liquide non seulement préférable mais obligatoire. La transition représente le changement d'infrastructure le plus significatif de l'histoire des data centers, nécessitant de nouvelles compétences, un investissement considérable et une transformation opérationnelle. Pourtant les avantages—10-21% d'économies d'énergie, 40% de réduction des coûts de refroidissement, 8x d'amélioration de la fiabilité, et surtout, la capacité de déployer l'infrastructure IA de nouvelle génération—rendent cette évolution inévitable. Les organisations qui maîtrisent le refroidissement liquide aujourd'hui alimenteront les percées IA de demain—celles qui tardent prendront du retard alors que l'industrie court vers des densités de calcul toujours plus élevées. Nous avons atteint le mur thermique ; le refroidissement liquide est notre moyen de le franchir.

Références

ACM Digital Library. "Energy-efficient LLM Training in GPU datacenters with Immersion Cooling Systems." Proceedings of the 16th ACM International Conference on Future and Sustainable Energy Systems. 2025. https://dl.acm.org/doi/10.1145/3679240.3734609.

AMAX. "Comparing NVIDIA Blackwell Configurations." 2025. https://www.amax.com/comparing-nvidia-blackwell-configurations/.

———. "Top 5 Considerations for Deploying NVIDIA Blackwell." 2025. https://www.amax.com/top-5-considerations-for-deploying-nvidia-blackwell/.

arXiv. "[1309.4887] iDataCool: HPC with Hot-Water Cooling and Energy Reuse." 2013. https://ar5iv.labs.arxiv.org/html/1309.4887.

———. "[1709.05077] Transforming Cooling Optimization for Green Data Center via Deep Reinforcement Learning." 2017. https://ar5iv.labs.arxiv.org/html/1709.05077.

Attom. "Ashrae's New Thermal Guideline Update: A New High Density Trend." Expert Green Prefab Data Centers. 2025. https://attom.tech/ashraes-new-thermal-guideline-update-a-new-high-density-trend/.

Chilldyne. "High-power liquid cooling design: direct-to-chip solution requirements for 500 kW Racks." Chilldyne | Liquid Cooling. July 29, 2024. https://chilldyne.com/2024/07/29/high-power-liquid-cooling-design-direct-to-chip-solution-requirements-for-500-kw-racks/.

Compass Datacenters. "What Is Data Center Cooling?" 2025. https://www.compassdatacenters.com/data-center-cooling/.

Converge Digest. "Meta Outlines AI Infrastructure Upgrades at OCP Summit 2024." 2024. https://convergedigest.com/meta-outlinesai-infrastructure-upgrades-at-ocp-summit-2024/.

Core Winner LTD. "Comprehensive Guide to Liquid Cooling: The Future of High-Performance Data Centers and AI Deployments." 2025. https://www.corewinner.com/en/blog/detail/52.

CoreWeave. "Building AI Clusters for Enterprises 2025." 2025. https://www.coreweave.com/blog/building-ai-clusters-for-enterprises-2025.

———. "GPUs for AI Models and Innovation." 2025. https://www.coreweave.com/products/gpu-compute.

Cyber Defense Advisors. "AI-Driven Predictive Maintenance: The Future of Data Center Reliability." 2025. https://cyberdefenseadvisors.com/ai-driven-predictive-maintenance-the-future-of-data-center-reliability/.

Data Center Catalog. "Meta Plans Shift to Liquid Cooling for its Data Center Infrastructure." 2022. https://datacentercatalog.com/news/2022/meta-plans-shift-to-liquid-cooling-for-its-data-center-infrastructure.

Data Center Dynamics. "An introduction to liquid cooling in the data center." 2025. https://www.datacenterdynamics.com/en/analysis/an-introduction-to-liquid-cooling-in-the-data-center/.

———. "Hyperscalers prepare for 1MW racks at OCP EMEA; Google announces new CDU." 2025. https://www.datacenterdynamics.com/en/news/hyperscalers-prepare-for-1mw-racks-at-ocp-emea-google-announces-new-cdu/.

———. "New ASHRAE guidelines challenge efficiency drive." 2025. https://www.datacenterdynamics.com/en/opinions/new-ashrae-guidelines-challenge-efficiency-drive/.

———. "Nvidia's CEO confirms upcoming system will be liquid cooled." 2025. https://www.datacenterdynamics.com/en/news/nvidias-ceo-confirms-next-dgx-will-be-liquid-cooled/.

———. "Optimizing data center efficiency with direct-to-chip liquid cooling." 2025. https://www.datacenterdynamics.com/en/opinions/optimizing-data-center-efficiency-with-direct-to-chip-liquid-cooling/.

———. "Two-phase cooling will be hit by EPA rules and 3M's exit from PFAS 'forever chemicals'." 2025. https://www.datacenterdynamics.com/en/news/two-phase-cooling-will-be-hit-by-epa-rules-and-3ms-exit-from-pfas-forever-chemicals/.

Data Center Frontier. "8 Trends That Will Shape the Data Center Industry In 2025." 2025. https://www.datacenterfrontier.com/cloud/article/55253151/8-trends-that-will-shape-the-data-center-industry-in-2025.

———. "Best Practices for Deploying Liquid Cooled Servers in Your Data Center." 2025. https://www.datacenterfrontier.com/sponsored/article/55138161/best-practices-for-deploying-liquid-cooled-servers-in-your-data-center.

———. "Google Developing New 'Climate Conscious' Cooling Tech to Save Water." 2025. https://www.datacenterfrontier.com/cooling/article/33001080/google-developing-new-climate-conscious-cooling-tech-to-save-water.

———. "Google Shifts to Liquid Cooling for AI Data Crunching." 2025. https://www.datacenterfrontier.com/cloud/article/11430207/google-shifts-to-liquid-cooling-for-ai-data-crunching.

———. "Meta Plans Shift to Liquid Cooling for its Data Center Infrastructure." 2025. https://www.datacenterfrontier.com/cooling/article/11436915/meta-plans-shift-to-liquid-cooling-for-its-data-center-infrastructure.

———. "Meta Previews New Data Center Design for an AI-Powered Future." 2025. https://www.datacenterfrontier.com/data-center-design/article/33005296/meta-previews-new-data-center-design-for-an-ai-powered-future.

———. "OCP 2024 Spotlight: Meta Debuts 140 kW Liquid-Cooled AI Rack; Google Eyes Robotics to Muscle Hyperscaler GPUs." 2024. https://www.datacenterfrontier.com/hyperscale/article/55238148/ocp-2024-spotlight-meta-shows-off-140-kw-liquid-cooled-ai-rack-google-eyes-robotics-to-muscle-hyperscaler-gpu-placement.

———. "Pushing the Boundaries of Air Cooling in High Density Environments." 2025. https://www.datacenterfrontier.com/special-reports/article/11427279/pushing-the-boundaries-of-air-cooling-in-high-density-environments.

———. "Report: Meta Plans Shift to Liquid Cooling in AI-Centric Data Center Redesign." 2025. https://www.datacenterfrontier.com/cooling/article/33004107/report-meta-plans-shift-to-liquid-cooling-in-ai-centric-data-center-redesign.

———. "The Importance of Liquid Cooling to the Open Compute Project (OCP)." 2025. https://www.datacenterfrontier.com/sponsored/article/55134348/the-importance-of-liquid-cooling-to-the-open-compute-project-ocp.

———. "Waste Heat Utilization is the Data Center Industry's Next Step Toward Net-Zero Energy." 2025. https://www.datacenterfrontier.com/voices-of-the-industry/article/11428787/waste-heat-utilization-is-the-data-center-industrys-next-step-toward-net-zero-energy.

———. "ZutaCore's HyperCool Liquid Cooling Technology to Support NVIDIA's Advanced H100 and H200 GPUs for Sustainable AI." 2024. https://www.datacenterfrontier.com/press-releases/press-release/33038994/zutacores-hypercool-liquid-cooling-technology-to-support-nvidias-advanced-h100-and-h200-gpus-for-sustainable-ai.

Data Center Knowledge. "Data Center Retrofit Strategies." 2025. https://www.datacenterknowledge.com/infrastructure/data-center-retrofit-strategies.

———. "Hybrid Cooling: The Bridge to Full Liquid Cooling in Data Centers." 2025. https://www.datacenterknowledge.com/cooling/hybrid-cooling-the-bridge-to-full-liquid-cooling-in-data-centers.

Data Centre Review. "Making the most of data centre waste heat." June 2024. https://datacentrereview.com/2024/06/making-the-most-of-data-centre-waste-heat/.

Datacenters. "CoreWeave's Role in Google and OpenAI's Cloud Partnership Redefines AI Infrastructure." 2025. https://www.datacenters.com/news/coreweave-s-strategic-role-in-google-and-openai-s-cloud-collaboration.

Dell. "When to Move from Air Cooling to Liquid Cooling for Your Data Center." 2025. https://www.dell.com/en-us/blog/when-to-move-from-air-cooling-to-liquid-cooling-for-your-data-center/.

Digital Infra Network. "Google's megawatt move for AI: Revamping power and cooling." 2025. https://digitalinfranetwork.com/news/google-ocp-400v-liquid-cooling/.

Enconnex. "Data Center Liquid Cooling vs. Air Cooling." 2025. https://blog.enconnex.com/data-center-liquid-cooling-vs-air-cooling.

Engineering at Meta. "Meta's open AI hardware vision." October 15, 2024. https://engineering.fb.com/2024/10/15/data-infrastructure/metas-open-ai-hardware-vision/.

Fortune Business Insights. "Two-Phase Data Center Liquid Immersion Cooling Market, 2032." 2025. https://www.fortunebusinessinsights.com/two-phase-data-center-liquid-immersion-cooling-market-113122.

Google Cloud. "Enabling 1 MW IT racks and liquid cooling at OCP EMEA Summit." Google Cloud Blog. 2025. https://cloud.google.com/blog/topics/systems/enabling-1-mw-it-racks-and-liquid-cooling-at-ocp-emea-summit.

GR Cooling. "Exploring Advanced Liquid Cooling: Immersion vs. Direct-to-Chip Cooling." 2025. https://www.grcooling.com/blog/exploring-advanced-liquid-cooling/.

———. "Two-Phase Versus Single-Phase Immersion Cooling." 2025. https://www.grcooling.com/blog/two-phase-versus-single-phase-immersion-cooling/.

HDR. "Direct-To-Chip Liquid Cooling." 2025. https://www.hdrinc.com/insights/direct-chip-liquid-cooling.

HiRef. "Hybrid Rooms: the combined solution for air and liquid cooling in data centers." 2025. https://hiref.com/news/hybrid-rooms-data-centers.

HPCwire. "H100 Fading: Nvidia Touts 2024 Hardware with H200." November 13, 2023. https://www.hpcwire.com/2023/11/13/h100-fading-nvidia-touts-2024-hardware-with-h200/.

IDTechEx. "Thermal Management for Data Centers 2025-2035: Technologies, Markets, and Opportunities." 2025. https://www.idtechex.com/en/research-report/thermal-management-for-data-centers/1036.

JetCool. "Direct Liquid Cooling vs. Immersion Cooling for Data Centers." 2025. https://jetcool.com/post/five-reasons-water-cooling-is-better-than-immersion-cooling/.

———. "Liquid Cooling System for NVIDIA H100 GPU." 2025. https://jetcool.com/h100/.

Maroonmonkeys. "CDU." 2025. https://www.maroonmonkeys.com/motivair/cdu.html.

Microsoft. "Project Natick Phase 2." 2025. https://natick.research.microsoft.com/.

Microsoft News. "To cool datacenter servers, Microsoft turns to boiling liquid." 2025. https://news.microsoft.com/source/features/innovation/datacenter-liquid-cooling/.

Nortek Data Center Cooling Solutions. "Waste Heat Utilization is the Data Center Industry's Next Step Toward Net-Zero Energy." 2025. https://www.nortekdatacenter.com/waste-heat-utilization-is-the-data-center-industrys-next-step-toward-net-zero-energy/.

NVIDIA. "H200 Tensor Core GPU." 2025. https://www.nvidia.com/en-us/data-center/h200/.

Open Compute Project. "Open Compute Project Foundation Expands Its Open Systems for AI Initiative." 2025. https://www.opencompute.org/blog/open-compute-project-foundation-expands-its-open-systems-for-ai-initiative.

P&S Intelligence. "Immersion Cooling Market Size, Share & Trends Analysis, 2032." 2025. https://www.psmarketresearch.com/market-analysis/immersion-cooling-market.

PR Newswire. "Supermicro Introduces Rack Scale Plug-and-Play Liquid-Cooled AI SuperClusters for NVIDIA Blackwell and NVIDIA HGX H100/H200." 2024. https://www.prnewswire.com/news-releases/supermicro-introduces-rack-scale-plug-and-play-liquid-cooled-ai-superclusters-for-nvidia-blackwell-and-nvidia-hgx-h100h200--radical-innovations-in-the-ai-era-to-make-liquid-cooling-free-with-a-bonus-302163611.html.

———. "ZutaCore's HyperCool Liquid Cooling Technology to Support NVIDIA's Advanced H100 and H200 GPUs for Sustainable AI." 2024. https://www.prnewswire.com/news-releases/zutacores-hypercool-liquid-cooling-technology-to-support-nvidias-advanced-h100-and-h200-gpus-for-sustainable-ai-302087410.html.

Rittal. "What is Direct to Chip Cooling – and Is Liquid Cooling in your Future?" 2025. https://www.rittal.com/us-en_US/Company/Rittal-Stories/What-is-Direct-to-Chip-Cooling-and-Is-Liquid-Cooling-in-your-Future.

ScienceDirect. "Liquid cooling of data centers: A necessity facing challenges." 2024. https://www.sciencedirect.com/science/article/abs/pii/S1359431124007804.

SemiAnalysis. "Datacenter Anatomy Part 1: Electrical Systems." October 14, 2024. https://semianalysis.com/2024/10/14/datacenter-anatomy-part-1-electrical/.

———. "Datacenter Anatomy Part 2 – Cooling Systems." February 13, 2025. https://semianalysis.com/2025/02/13/datacenter-anatomy-part-2-cooling-systems/.

———. "Multi-Datacenter Training: OpenAI's Ambitious Plan To Beat Google's Infrastructure." September 4, 2024. https://semianalysis.com/2024/09/04/multi-datacenter-training-openais/.

TechPowerUp. "NVIDIA H100 PCIe 80 GB Specs." TechPowerUp GPU Database. 2025. https://www.techpowerup.com/gpu-specs/h100-pcie-80-gb.c3899.

TechTarget. "Liquid Cooling vs. Air Cooling in the Data Center." 2025. https://www.techtarget.com/searchdatacenter/feature/Liquid-cooling-vs-air-cooling-in-the-data-center.

Unisys. "How leading LLM developers are fueling the liquid cooling boom." 2025. https://www.unisys.com/blog-post/dws/how-leading-llm-developers-are-fueling-the-liquid-cooling-boom/.

Upsite Technologies. "How Rack Density and Delta T Impact Your Airflow Management Strategy." 2025. https://www.upsite.com/blog/rack-density-delta-t-impact-airflow-management-strategy/.

———. "When to Retrofit the Data Center to Accommodate AI, and When Not to." 2025. https://www.upsite.com/blog/when-to-retrofit-the-data-center-to-accommodate-ai-and-when-not-to/.

Uptime Institute. "Data Center Cooling Best Practices." 2025. https://journal.uptimeinstitute.com/implementing-data-center-cooling-best-practices/.

———. "Performance expectations of liquid cooling need a reality check." Uptime Institute Blog. 2025. https://journal.uptimeinstitute.com/performance-expectations-of-liquid-cooling-need-a-reality-check/.

Utility Dive. "The 2025 outlook for data center cooling." 2025. https://www.utilitydive.com/news/2025-outlook-data-center-cooling-electricity-demand-ai-dual-phase-direct-to-chip-energy-efficiency/738120/.

Vertiv. "Deploying liquid cooling in data centers: Installing and managing coolant distribution units (CDUs)." 2025. https://www.vertiv.com/en-us/about/news-and-insights/articles/blog-posts/deploying-liquid-cooling-in-data-centers-installing-and-managing-coolant-distribution-units-cdus/.

———. "Liquid and Immersion Cooling Options for Data Centers." 2025. https://www.vertiv.com/en-us/solutions/learn-about/liquid-cooling-options-for-data-centers/.

———. "Liquid cooling options for data centers." 2025. https://www.vertiv.com/en-us/solutions/learn-about/liquid-cooling-options-for-data-centers/.

———. "Quantifying the Impact on PUE and Energy Consumption When Introducing Liquid Cooling Into an Air-cooled Data Center." 2025. https://www.vertiv.com/en-emea/about/news-and-insights/articles/blog-posts/quantifying-data-center-pue-when-introducing-liquid-cooling/.

———. "Understanding direct-to-chip cooling in HPC infrastructure: A deep dive into liquid cooling." 2025. https://www.vertiv.com/en-emea/about/news-and-insights/articles/educational-articles/understanding-direct-to-chip-cooling-in-hpc-infrastructure-a-deep-dive-into-liquid-cooling/.

———. "Vertiv™ CoolPhase CDU | High Density Solutions." 2025. https://www.vertiv.com/en-us/products-catalog/thermal-management/high-density-solutions/vertiv-coolphase-cdu/.

WGI. "Cooling Down AI and Data Centers." 2025. https://wginc.com/cooling-down-ai-and-data-centers/.

Request a Quote_

Tell us about your project and we'll respond within 72 hours.

> TRANSMISSION_COMPLETE

Request Received_

Thank you for your inquiry. Our team will review your request and respond within 72 hours.

QUEUED FOR PROCESSING