Back to Blog

Refrigeración Líquida vs Aire: La Guía de Racks GPU de 50kW (2025)

Los racks GPU alcanzan límites térmicos de 50kW. La refrigeración líquida ofrece 21% de ahorro energético y 40% de reducción de costos. Guía esencial para equipos de infraestructura de IA que enfrentan el muro.

Refrigeración Líquida vs Aire: La Guía de Racks GPU de 50kW (2025)

El crecimiento exponencial de las cargas de trabajo de IA ha llevado la refrigeración de centros de datos a un punto de inflexión crítico. A medida que las densidades de los racks GPU superan los 50kW—con sistemas de próxima generación demandando 100kW y más—la refrigeración por aire tradicional ha alcanzado sus límites físicos fundamentales. Este análisis exhaustivo revela cómo la industria está navegando esta transformación térmica mediante tecnologías avanzadas de refrigeración líquida, ofreciendo 10-21% de ahorro energético, 40% de reducción en costos de refrigeración, y habilitando la infraestructura necesaria para la revolución de la IA.

Cuando el aire se convierte en el cuello de botella

El fallo de la refrigeración por aire en altas densidades no es gradual—es un precipicio. A 50kW por rack, la física se vuelve implacable: la refrigeración requiere 7,850 pies cúbicos por minuto (CFM) de flujo de aire con un diferencial de temperatura de 20°F. Duplica eso a 100kW, y necesitas 15,700 CFM—creando vientos con fuerza de huracán a través de las entradas de los servidores que miden solo 2-4 pulgadas cuadradas. La ecuación fundamental de remoción de calor (Q = 0.318 × CFM × ΔT) revela un desafío insuperable: a medida que la densidad aumenta, el flujo de aire requerido escala linealmente, pero el consumo de energía del ventilador escala con el cubo de la velocidad del ventilador. Un aumento del 10% en el flujo de aire demanda 33% más potencia del ventilador, creando una espiral de consumo de energía que hace que la refrigeración por aire de alta densidad sea económica y prácticamente imposible.

La evidencia del mundo real confirma estos límites teóricos. Un caso documentado mostró 250 racks a solo 6kW pasando de 72°F a más de 90°F en 75 segundos cuando falló la refrigeración. Los centros de datos tradicionales diseñados para densidades promedio de 5-10kW por rack simplemente no pueden manejar las cargas de trabajo modernas de GPU. Incluso con contención avanzada de pasillos calientes/fríos, la refrigeración por aire tiene dificultades más allá de 40kW, mientras que los sistemas sin contención sufren pérdidas de capacidad del 20-40% por recirculación de aire caliente. La nueva clase ambiental ASHRAE H1, creada explícitamente para equipos de alta densidad, restringe las temperaturas permitidas a 18-22°C—un rango imposible de mantener con refrigeración por aire a escalas de GPU.

Las tecnologías de refrigeración líquida transforman lo posible.

La transición a la refrigeración líquida representa más que una mejora incremental—es una reimaginación fundamental de la remoción de calor. El coeficiente de transferencia de calor del agua es 3,500 veces mayor que el del aire, permitiendo capacidades de refrigeración que hacen que los racks de 100kW+ sean rutinarios en lugar de extraordinarios.

La refrigeración directa al chip lidera la transformación, con placas frías que presentan microcanales (27-100 micrones) conectadas directamente a los procesadores. Operando con agua de suministro a 40°C y retorno a 50°C, estos sistemas eliminan el 70-75% del calor del rack a través del líquido mientras mantienen un PUE parcial de 1.02-1.03. Las implementaciones modernas soportan más de 1.5kW por chip con tasas de flujo de 13 litros por minuto para un servidor de 9kW. El 25-30% restante del calor—de la memoria, discos y componentes auxiliares—todavía requiere refrigeración por aire, haciendo de estos sistemas híbridos la opción práctica para la mayoría de las implementaciones.

La refrigeración por inmersión empuja los límites más allá, sumergiendo servidores completos en fluidos dieléctricos. Los sistemas de una fase que usan aceites minerales cuestan $50-100 por galón y consistentemente soportan 200kW por rack. Los sistemas de dos fases prometen una transferencia de calor superior a través de ebullición y condensación, pero enfrentan desafíos: los fluidos fluorocarbonados cuestan $500-1000 por galón, y la discontinuación de producción de 3M para 2025 debido a preocupaciones ambientales ha congelado la adopción. La complejidad de la tecnología—recintos sellados, riesgos de cavitación y regulaciones de PFAS—limita la implementación a aplicaciones especializadas.

Las Unidades de Distribución de Refrigerante (CDUs) forman la columna vertebral de la infraestructura de refrigeración líquida. Las unidades modernas van desde sistemas de montaje en rack de 7kW hasta gigantes de más de 2,000kW como el CHx2000 de CoolIT. Los proveedores líderes—Vertiv, Schneider Electric, Motivair y CoolIT—ofrecen soluciones con redundancia N+1, filtración de 50 micrones y variadores de frecuencia para adaptación a la carga. El mercado de CDU, valorado en $1 mil millones en 2024, se proyecta que alcance $3.6 mil millones para 2031 (CAGR del 20.5%), reflejando la rápida adopción de la refrigeración líquida.

El arte y la economía de la modernización

La transición de centros de datos existentes a refrigeración líquida requiere una orquestación cuidadosa. El enfoque más exitoso sigue una migración por fases: comenzando con 1-2 racks de alta densidad, expandiendo a una fila, luego escalando según la demanda. Han surgido tres rutas principales de modernización: CDUs de líquido a aire que aprovechan el aire acondicionado existente, intercambiadores de calor de puerta trasera que pueden enfriar hasta 40kW por rack, y soluciones directas al chip para máxima eficiencia.

Las modificaciones de infraestructura presentan el desafío principal. La infraestructura eléctrica a menudo se convierte en el factor limitante—las instalaciones diseñadas para cargas promedio de 5-10kW no pueden soportar racks de más de 50kW independientemente de la capacidad de refrigeración. La plomería requiere modelado CFD cuidadoso en entornos de piso elevado o instalación aérea con bandejas de goteo en construcción sobre losa. La carga del piso, particularmente para sistemas de inmersión, puede exceder la capacidad estructural en instalaciones antiguas.

El análisis de costos revela una economía convincente a pesar de la alta inversión inicial. Un estudio de la Comisión de Energía de California documentó un sistema completo de refrigeración líquida para 1,200 servidores en 17 racks a un costo total de $470,557, o $392 por servidor, incluyendo modificaciones de instalaciones. Los ahorros anuales de energía de 355 MWh ($39,155 a $0.11/kWh) generan un retorno simple de 12 años, aunque las implementaciones optimizadas logran retornos de 2-5 años. El análisis de Schneider Electric muestra 14% de ahorro de capital a través de compactación de racks 4x, mientras que los ahorros operativos incluyen una reducción del 10.2% en el consumo total de energía del centro de datos y una mejora del 15.5% en la Efectividad de Uso Total.

Los desafíos de integración se multiplican en entornos híbridos. Incluso las instalaciones "totalmente refrigeradas por líquido" requieren un 20-30% de capacidad de refrigeración por aire para componentes auxiliares. Los sistemas de control deben coordinar múltiples tecnologías de refrigeración, monitoreando tanto las temperaturas de entrada del rack como las condiciones del agua de suministro. La redundancia se vuelve crítica—los intercambiadores de calor de puerta trasera deben cambiar a refrigeración por aire cuando se abren para servicio, mientras que los sistemas directos al chip tienen menos de 10 segundos de tiempo de autonomía a plena carga.

De pilotos a producción

Las implementaciones del mundo real demuestran la madurez de la refrigeración líquida. Meta lidera la adopción a escala, implementando Refrigeración Líquida Asistida por Aire en más de 40 millones de pies cuadrados de espacio de centro de datos. Su diseño de rack Catalina soporta 140kW con 72 GPUs, mientras que la implementación de refrigeración líquida a nivel de instalación tiene como objetivo completarse a principios de 2025. La transformación requirió descartar múltiples centros de datos en construcción para rediseños optimizados para IA, esperando 31% de ahorro en costos de la nueva arquitectura.

El viaje de siete años de Google con TPUs refrigeradas por líquido proporciona el conjunto de datos más completo de la industria. Implementando sistemas de circuito cerrado en más de 2000 Pods de TPU a escala de gigavatios, han logrado 99.999% de tiempo de actividad mientras demuestran 30x mayor conductividad térmica que el aire. Su diseño de CDU de quinta generación, Project Deschutes, será contribuido al Open Compute Project, acelerando la adopción en toda la industria.

Microsoft empuja los límites con refrigeración por inmersión de dos fases en producción, usando fluidos dieléctricos que hierven a 122°F—50°C más bajo que el agua. La tecnología permite una reducción del 5-15% en el consumo de energía del servidor mientras elimina los ventiladores de refrigeración. Su compromiso con la reducción del 95% en el uso de agua para 2024 impulsa la innovación en sistemas de circuito cerrado y cero evaporación.

Proveedores especializados como CoreWeave demuestran refrigeración líquida para cargas de trabajo de IA. Planeando implementaciones de 4,000 GPU para finales de 2024, están logrando densidades de rack de 130kW con 20% mejor utilización del sistema que los competidores. Sus diseños optimizados para rieles ahorran 3.1 millones de horas de GPU a través de una mayor fiabilidad, implementando clústeres H100 en menos de 60 días.

Cumpliendo con las demandas térmicas de los aceleradores de IA

Las especificaciones de GPU revelan por qué la refrigeración líquida se ha vuelto obligatoria. El NVIDIA H100 SXM5 opera a 700W TDP, requiriendo refrigeración líquida para un rendimiento óptimo. El H200 mantiene el mismo sobre de potencia mientras entrega 141GB de memoria HBM3e a 4.8TB/s—1.4x más ancho de banda, lo que genera calor proporcional. El próximo B200 empuja los límites aún más: 1,200W para variantes refrigeradas por líquido versus 1,000W para refrigeradas por aire, con rendimiento de 20 PFLOPS FP4 que demanda una gestión térmica sofisticada.

El GB200 NVL72—empacando 72 GPUs Blackwell y 36 CPUs Grace en un solo rack—representa el punto final de la viabilidad de la refrigeración por aire. A 140kW de potencia de rack, requiere refrigeración líquida obligatoria a través de placas frías recientemente desarrolladas y CDUs de 250kW. Las consideraciones a nivel de sistema aumentan la complejidad: los interconectores NVSwitch añaden 10-15W cada uno, mientras que la memoria de alta velocidad y los sistemas de entrega de energía contribuyen calor adicional sustancial.

El análisis técnico de JetCool demuestra diferencias de rendimiento marcadas: su SmartPlate H100 logra una resistencia térmica de 0.021°C/W, ejecutando chips 35°C más fríos que las alternativas de aire mientras soporta temperaturas de entrada de 60°C. Esta reducción de temperatura teóricamente extiende la vida útil de la GPU 8x mientras permite un rendimiento máximo sostenido—crítico para entrenamientos de IA de varias semanas.

La hoja de ruta hacia 2030

La industria se encuentra en un punto de transformación donde las mejores prácticas evolucionan rápidamente hacia requisitos. La nueva clase ambiental H1 de ASHRAE (18-22°C recomendado) reconoce que las directrices tradicionales no pueden acomodar cargas de trabajo de IA. Los estándares de refrigeración líquida del Open Compute Project impulsan la interoperabilidad, mientras que sus Requisitos de Inmersión Rev. 2.10 establecen procesos de calificación para tecnologías emergentes.

La refrigeración por inmersión de dos fases, a pesar de los desafíos actuales, muestra promesa para la adopción generalizada en 2025-2027. Las proyecciones de mercado indican un crecimiento de $375 millones (2024) a $1.2 mil millones (2032), impulsado por una transferencia de calor superior que permite más de 1,500W por chip. Innovaciones como Accelsius NeuCool y alternativas a los fluidos discontinuados de 3M abordan las preocupaciones ambientales mientras mantienen el rendimiento.

La optimización impulsada por IA ofrece retornos inmediatos. La implementación de Google DeepMind logró una reducción del 40% en la energía de refrigeración a través del aprendizaje en tiempo real, mientras que White Space Cooling Optimization de Siemens y plataformas similares proliferan. Estos sistemas predicen fallos, optimizan la química del refrigerante y se ajustan dinámicamente a los patrones de carga de trabajo—capacidades que el 91% de los proveedores espera que sean ubicuas dentro de cinco años.

La recuperación del calor residual transforma un pasivo en un activo. Stockholm Data Parks ya calienta 10,000 hogares con calor residual de centros de datos, apuntando al 10% de la calefacción de la ciudad para 2035. La presión regulatoria acelera la adopción: Alemania obliga a un 20% de reutilización de calor para 2028, mientras que California Title 24 requiere infraestructura de recuperación en nuevas construcciones. La tecnología de bombas de calor eleva el calor residual de 30-40°C a 70-80°C para calefacción de distrito, creando flujos de ingresos a partir de energía anteriormente descartada.

Realizando la transición

El éxito en la implementación de refrigeración líquida requiere planificación estratégica en múltiples dimensiones. Las organizaciones deberían comenzar con CDUs simples de líquido a aire para la entrada con menor barrera, pero deben evaluar la infraestructura eléctrica primero—la capacidad eléctrica inadecuada descalifica la viabilidad de modernización independientemente de la tecnología de refrigeración. Comenzar con pilotos de 1-2 racks permite aprender antes de escalar, mientras que mantener la experiencia en refrigeración por aire sigue siendo crítico para operaciones híbridas.

El modelado financiero debe tener en cuenta el valor total del sistema. Mientras que la inversión inicial varía de $1,000 a $2,000 por kW de capacidad de refrigeración, los ahorros operativos se acumulan: 27% de reducción en el consumo de energía de la instalación en implementaciones optimizadas, 30% de ahorro en energía de refrigeración versus sistemas convencionales, y críticamente, la capacidad de implementar cargas de trabajo de IA generadoras de ingresos, imposibles con refrigeración por aire. Las implementaciones líderes logran retornos en menos de 2 años a través de un diseño cuidadoso: evitar la integración ineficiente de chillers ahorra 20-30%, mientras que enfocarse en las aplicaciones de mayor densidad maximiza el retorno.

Los equipos técnicos requieren nuevas competencias. Más allá del conocimiento tradicional de HVAC, el personal debe entender la química de los refrigerantes, los protocolos de respuesta a fugas y los sistemas de control integrados. Las asociaciones con proveedores resultan esenciales—soporte 24/7 para componentes especializados y mantenimiento preventivo regular en intervalos de 6 meses se convierten en necesidades operativas. Los protocolos de seguridad se expanden para incluir el manejo de fluidos dieléctricos y la gestión de sistemas de presión.

El mercado señala un impulso abrumador. La refrigeración líquida de centros de datos crece de $4.9 mil millones (2024) a proyectados $21.3 mil millones (2030) con un CAGR del 27.6%. La refrigeración directa al chip de una fase se convierte en estándar para cargas de trabajo de IA para 2025-2026, mientras que la inmersión de dos fases alcanza la adopción generalizada para 2027. Para 2030, los racks de 1MW requerirán refrigeración líquida avanzada como estándar, no como excepción.

Conclusión

La física es clara: la refrigeración por aire ha alcanzado sus límites. A densidades de rack de 50-100kW, las restricciones termodinámicas fundamentales hacen que la refrigeración líquida no sea solo preferible sino obligatoria. La transición representa el cambio de infraestructura más significativo en la historia de los centros de datos, requiriendo nuevas habilidades, inversión considerable y transformación operativa. Sin embargo, los beneficios—10-21% de ahorro energético, 40% de reducción en costos de refrigeración, 8x de mejora en fiabilidad, y más críticamente, la capacidad de implementar infraestructura de IA de próxima generación—hacen que esta evolución sea inevitable. Las organizaciones que dominen la refrigeración líquida hoy impulsarán los avances de IA del mañana—aquellos que se retrasen quedarán atrás mientras la industria corre hacia densidades computacionales cada vez más altas. Hemos alcanzado el muro térmico; la refrigeración líquida es cómo lo atravesamos.

Referencias

ACM Digital Library. "Energy-efficient LLM Training in GPU datacenters with Immersion Cooling Systems." Proceedings of the 16th ACM International Conference on Future and Sustainable Energy Systems. 2025. https://dl.acm.org/doi/10.1145/3679240.3734609.

AMAX. "Comparing NVIDIA Blackwell Configurations." 2025. https://www.amax.com/comparing-nvidia-blackwell-configurations/.

———. "Top 5 Considerations for Deploying NVIDIA Blackwell." 2025. https://www.amax.com/top-5-considerations-for-deploying-nvidia-blackwell/.

arXiv. "[1309.4887] iDataCool: HPC with Hot-Water Cooling and Energy Reuse." 2013. https://ar5iv.labs.arxiv.org/html/1309.4887.

———. "[1709.05077] Transforming Cooling Optimization for Green Data Center via Deep Reinforcement Learning." 2017. https://ar5iv.labs.arxiv.org/html/1709.05077.

Attom. "Ashrae's New Thermal Guideline Update: A New High Density Trend." Expert Green Prefab Data Centers. 2025. https://attom.tech/ashraes-new-thermal-guideline-update-a-new-high-density-trend/.

Chilldyne. "High-power liquid cooling design: direct-to-chip solution requirements for 500 kW Racks." Chilldyne | Liquid Cooling. July 29, 2024. https://chilldyne.com/2024/07/29/high-power-liquid-cooling-design-direct-to-chip-solution-requirements-for-500-kw-racks/.

Compass Datacenters. "What Is Data Center Cooling?" 2025. https://www.compassdatacenters.com/data-center-cooling/.

Converge Digest. "Meta Outlines AI Infrastructure Upgrades at OCP Summit 2024." 2024. https://convergedigest.com/meta-outlinesai-infrastructure-upgrades-at-ocp-summit-2024/.

Core Winner LTD. "Comprehensive Guide to Liquid Cooling: The Future of High-Performance Data Centers and AI Deployments." 2025. https://www.corewinner.com/en/blog/detail/52.

CoreWeave. "Building AI Clusters for Enterprises 2025." 2025. https://www.coreweave.com/blog/building-ai-clusters-for-enterprises-2025.

———. "GPUs for AI Models and Innovation." 2025. https://www.coreweave.com/products/gpu-compute.

Cyber Defense Advisors. "AI-Driven Predictive Maintenance: The Future of Data Center Reliability." 2025. https://cyberdefenseadvisors.com/ai-driven-predictive-maintenance-the-future-of-data-center-reliability/.

Data Center Catalog. "Meta Plans Shift to Liquid Cooling for its Data Center Infrastructure." 2022. https://datacentercatalog.com/news/2022/meta-plans-shift-to-liquid-cooling-for-its-data-center-infrastructure.

Data Center Dynamics. "An introduction to liquid cooling in the data center." 2025. https://www.datacenterdynamics.com/en/analysis/an-introduction-to-liquid-cooling-in-the-data-center/.

———. "Hyperscalers prepare for 1MW racks at OCP EMEA; Google announces new CDU." 2025. https://www.datacenterdynamics.com/en/news/hyperscalers-prepare-for-1mw-racks-at-ocp-emea-google-announces-new-cdu/.

———. "New ASHRAE guidelines challenge efficiency drive." 2025. https://www.datacenterdynamics.com/en/opinions/new-ashrae-guidelines-challenge-efficiency-drive/.

———. "Nvidia's CEO confirms upcoming system will be liquid cooled." 2025. https://www.datacenterdynamics.com/en/news/nvidias-ceo-confirms-next-dgx-will-be-liquid-cooled/.

———. "Optimizing data center efficiency with direct-to-chip liquid cooling." 2025. https://www.datacenterdynamics.com/en/opinions/optimizing-data-center-efficiency-with-direct-to-chip-liquid-cooling/.

———. "Two-phase cooling will be hit by EPA rules and 3M's exit from PFAS 'forever chemicals'." 2025. https://www.datacenterdynamics.com/en/news/two-phase-cooling-will-be-hit-by-epa-rules-and-3ms-exit-from-pfas-forever-chemicals/.

Data Center Frontier. "8 Trends That Will Shape the Data Center Industry In 2025." 2025. https://www.datacenterfrontier.com/cloud/article/55253151/8-trends-that-will-shape-the-data-center-industry-in-2025.

———. "Best Practices for Deploying Liquid Cooled Servers in Your Data Center." 2025. https://www.datacenterfrontier.com/sponsored/article/55138161/best-practices-for-deploying-liquid-cooled-servers-in-your-data-center.

———. "Google Developing New 'Climate Conscious' Cooling Tech to Save Water." 2025. https://www.datacenterfrontier.com/cooling/article/33001080/google-developing-new-climate-conscious-cooling-tech-to-save-water.

———. "Google Shifts to Liquid Cooling for AI Data Crunching." 2025. https://www.datacenterfrontier.com/cloud/article/11430207/google-shifts-to-liquid-cooling-for-ai-data-crunching.

———. "Meta Plans Shift to Liquid Cooling for its Data Center Infrastructure." 2025. https://www.datacenterfrontier.com/cooling/article/11436915/meta-plans-shift-to-liquid-cooling-for-its-data-center-infrastructure.

———. "Meta Previews New Data Center Design for an AI-Powered Future." 2025. https://www.datacenterfrontier.com/data-center-design/article/33005296/meta-previews-new-data-center-design-for-an-ai-powered-future.

———. "OCP 2024 Spotlight: Meta Debuts 140 kW Liquid-Cooled AI Rack; Google Eyes Robotics to Muscle Hyperscaler GPUs." 2024. https://www.datacenterfrontier.com/hyperscale/article/55238148/ocp-2024-spotlight-meta-shows-off-140-kw-liquid-cooled-ai-rack-google-eyes-robotics-to-muscle-hyperscaler-gpu-placement.

———. "Pushing the Boundaries of Air Cooling in High Density Environments." 2025. https://www.datacenterfrontier.com/special-reports/article/11427279/pushing-the-boundaries-of-air-cooling-in-high-density-environments.

———. "Report: Meta Plans Shift to Liquid Cooling in AI-Centric Data Center Redesign." 2025. https://www.datacenterfrontier.com/cooling/article/33004107/report-meta-plans-shift-to-liquid-cooling-in-ai-centric-data-center-redesign.

———. "The Importance of Liquid Cooling to the Open Compute Project (OCP)." 2025. https://www.datacenterfrontier.com/sponsored/article/55134348/the-importance-of-liquid-cooling-to-the-open-compute-project-ocp.

———. "Waste Heat Utilization is the Data Center Industry's Next Step Toward Net-Zero Energy." 2025. https://www.datacenterfrontier.com/voices-of-the-industry/article/11428787/waste-heat-utilization-is-the-data-center-industrys-next-step-toward-net-zero-energy.

———. "ZutaCore's HyperCool Liquid Cooling Technology to Support NVIDIA's Advanced H100 and H200 GPUs for Sustainable AI." 2024. https://www.datacenterfrontier.com/press-releases/press-release/33038994/zutacores-hypercool-liquid-cooling-technology-to-support-nvidias-advanced-h100-and-h200-gpus-for-sustainable-ai.

Data Center Knowledge. "Data Center Retrofit Strategies." 2025. https://www.datacenterknowledge.com/infrastructure/data-center-retrofit-strategies.

———. "Hybrid Cooling: The Bridge to Full Liquid Cooling in Data Centers." 2025. https://www.datacenterknowledge.com/cooling/hybrid-cooling-the-bridge-to-full-liquid-cooling-in-data-centers.

Data Centre Review. "Making the most of data centre waste heat." June 2024. https://datacentrereview.com/2024/06/making-the-most-of-data-centre-waste-heat/.

Datacenters. "CoreWeave's Role in Google and OpenAI's Cloud Partnership Redefines AI Infrastructure." 2025. https://www.datacenters.com/news/coreweave-s-strategic-role-in-google-and-openai-s-cloud-collaboration.

Dell. "When to Move from Air Cooling to Liquid Cooling for Your Data Center." 2025. https://www.dell.com/en-us/blog/when-to-move-from-air-cooling-to-liquid-cooling-for-your-data-center/.

Digital Infra Network. "Google's megawatt move for AI: Revamping power and cooling." 2025. https://digitalinfranetwork.com/news/google-ocp-400v-liquid-cooling/.

Enconnex. "Data Center Liquid Cooling vs. Air Cooling." 2025. https://blog.enconnex.com/data-center-liquid-cooling-vs-air-cooling.

Engineering at Meta. "Meta's open AI hardware vision." October 15, 2024. https://engineering.fb.com/2024/10/15/data-infrastructure/metas-open-ai-hardware-vision/.

Fortune Business Insights. "Two-Phase Data Center Liquid Immersion Cooling Market, 2032." 2025. https://www.fortunebusinessinsights.com/two-phase-data-center-liquid-immersion-cooling-market-113122.

Google Cloud. "Enabling 1 MW IT racks and liquid cooling at OCP EMEA Summit." Google Cloud Blog. 2025. https://cloud.google.com/blog/topics/systems/enabling-1-mw-it-racks-and-liquid-cooling-at-ocp-emea-summit.

GR Cooling. "Exploring Advanced Liquid Cooling: Immersion vs. Direct-to-Chip Cooling." 2025. https://www.grcooling.com/blog/exploring-advanced-liquid-cooling/.

———. "Two-Phase Versus Single-Phase Immersion Cooling." 2025. https://www.grcooling.com/blog/two-phase-versus-single-phase-immersion-cooling/.

HDR. "Direct-To-Chip Liquid Cooling." 2025. https://www.hdrinc.com/insights/direct-chip-liquid-cooling.

HiRef. "Hybrid Rooms: the combined solution for air and liquid cooling in data centers." 2025. https://hiref.com/news/hybrid-rooms-data-centers.

HPCwire. "H100 Fading: Nvidia Touts 2024 Hardware with H200." November 13, 2023. https://www.hpcwire.com/2023/11/13/h100-fading-nvidia-touts-2024-hardware-with-h200/.

IDTechEx. "Thermal Management for Data Centers 2025-2035: Technologies, Markets, and Opportunities." 2025. https://www.idtechex.com/en/research-report/thermal-management-for-data-centers/1036.

JetCool. "Direct Liquid Cooling vs. Immersion Cooling for Data Centers." 2025. https://jetcool.com/post/five-reasons-water-cooling-is-better-than-immersion-cooling/.

———. "Liquid Cooling System for NVIDIA H100 GPU." 2025. https://jetcool.com/h100/.

Maroonmonkeys. "CDU." 2025. https://www.maroonmonkeys.com/motivair/cdu.html.

Microsoft. "Project Natick Phase 2." 2025. https://natick.research.microsoft.com/.

Microsoft News. "To cool datacenter servers, Microsoft turns to boiling liquid." 2025. https://news.microsoft.com/source/features/innovation/datacenter-liquid-cooling/.

Nortek Data Center Cooling Solutions. "Waste Heat Utilization is the Data Center Industry's Next Step Toward Net-Zero Energy." 2025. https://www.nortekdatacenter.com/waste-heat-utilization-is-the-data-center-industrys-next-step-toward-net-zero-energy/.

NVIDIA. "H200 Tensor Core GPU." 2025. https://www.nvidia.com/en-us/data-center/h200/.

Open Compute Project. "Open Compute Project Foundation Expands Its Open Systems for AI Initiative." 2025. https://www.opencompute.org/blog/open-compute-project-foundation-expands-its-open-systems-for-ai-initiative.

P&S Intelligence. "Immersion Cooling Market Size, Share & Trends Analysis, 2032." 2025. https://www.psmarketresearch.com/market-analysis/immersion-cooling-market.

PR Newswire. "Supermicro Introduces Rack Scale Plug-and-Play Liquid-Cooled AI SuperClusters for NVIDIA Blackwell and NVIDIA HGX H100/H200." 2024. https://www.prnewswire.com/news-releases/supermicro-introduces-rack-scale-plug-and-play-liquid-cooled-ai-superclusters-for-nvidia-blackwell-and-nvidia-hgx-h100h200--radical-innovations-in-the-ai-era-to-make-liquid-cooling-free-with-a-bonus-302163611.html.

———. "ZutaCore's HyperCool Liquid Cooling Technology to Support NVIDIA's Advanced H100 and H200 GPUs for Sustainable AI." 2024. https://www.prnewswire.com/news-releases/zutacores-hypercool-liquid-cooling-technology-to-support-nvidias-advanced-h100-and-h200-gpus-for-sustainable-ai-302087410.html.

Rittal. "What is Direct to Chip Cooling – and Is Liquid Cooling in your Future?" 2025. https://www.rittal.com/us-en_US/Company/Rittal-Stories/What-is-Direct-to-Chip-Cooling-and-Is-Liquid-Cooling-in-your-Future.

ScienceDirect. "Liquid cooling of data centers: A necessity facing challenges." 2024. https://www.sciencedirect.com/science/article/abs/pii/S1359431124007804.

SemiAnalysis. "Datacenter Anatomy Part 1: Electrical Systems." October 14, 2024. https://semianalysis.com/2024/10/14/datacenter-anatomy-part-1-electrical/.

———. "Datacenter Anatomy Part 2 – Cooling Systems." February 13, 2025. https://semianalysis.com/2025/02/13/datacenter-anatomy-part-2-cooling-systems/.

———. "Multi-Datacenter Training: OpenAI's Ambitious Plan To Beat Google's Infrastructure." September 4, 2024. https://semianalysis.com/2024/09/04/multi-datacenter-training-openais/.

TechPowerUp. "NVIDIA H100 PCIe 80 GB Specs." TechPowerUp GPU Database. 2025. https://www.techpowerup.com/gpu-specs/h100-pcie-80-gb.c3899.

TechTarget. "Liquid Cooling vs. Air Cooling in the Data Center." 2025. https://www.techtarget.com/searchdatacenter/feature/Liquid-cooling-vs-air-cooling-in-the-data-center.

Unisys. "How leading LLM developers are fueling the liquid cooling boom." 2025. https://www.unisys.com/blog-post/dws/how-leading-llm-developers-are-fueling-the-liquid-cooling-boom/.

Upsite Technologies. "How Rack Density and Delta T Impact Your Airflow Management Strategy." 2025. https://www.upsite.com/blog/rack-density-delta-t-impact-airflow-management-strategy/.

———. "When to Retrofit the Data Center to Accommodate AI, and When Not to." 2025. https://www.upsite.com/blog/when-to-retrofit-the-data-center-to-accommodate-ai-and-when-not-to/.

Uptime Institute. "Data Center Cooling Best Practices." 2025. https://journal.uptimeinstitute.com/implementing-data-center-cooling-best-practices/.

———. "Performance expectations of liquid cooling need a reality check." Uptime Institute Blog. 2025. https://journal.uptimeinstitute.com/performance-expectations-of-liquid-cooling-need-a-reality-check/.

Utility Dive. "The 2025 outlook for data center cooling." 2025. https://www.utilitydive.com/news/2025-outlook-data-center-cooling-electricity-demand-ai-dual-phase-direct-to-chip-energy-efficiency/738120/.

Vertiv. "Deploying liquid cooling in data centers: Installing and managing coolant distribution units (CDUs)." 2025. https://www.vertiv.com/en-us/about/news-and-insights/articles/blog-posts/deploying-liquid-cooling-in-data-centers-installing-and-managing-coolant-distribution-units-cdus/.

———. "Liquid and Immersion Cooling Options for Data Centers." 2025. https://www.vertiv.com/en-us/solutions/learn-about/liquid-cooling-options-for-data-centers/.

———. "Liquid cooling options for data centers." 2025. https://www.vertiv.com/en-us/solutions/learn-about/liquid-cooling-options-for-data-centers/.

———. "Quantifying the Impact on PUE and Energy Consumption When Introducing Liquid Cooling Into an Air-cooled Data Center." 2025. https://www.vertiv.com/en-emea/about/news-and-insights/articles/blog-posts/quantifying-data-center-pue-when-introducing-liquid-cooling/.

———. "Understanding direct-to-chip cooling in HPC infrastructure: A deep dive into liquid cooling." 2025. https://www.vertiv.com/en-emea/about/news-and-insights/articles/educational-articles/understanding-direct-to-chip-cooling-in-hpc-infrastructure-a-deep-dive-into-liquid-cooling/.

———. "Vertiv™ CoolPhase CDU | High Density Solutions." 2025. https://www.vertiv.com/en-us/products-catalog/thermal-management/high-density-solutions/vertiv-coolphase-cdu/.

WGI. "Cooling Down AI and Data Centers." 2025. https://wginc.com/cooling-down-ai-and-data-centers/.

Request a Quote_

Tell us about your project and we'll respond within 72 hours.

> TRANSMISSION_COMPLETE

Request Received_

Thank you for your inquiry. Our team will review your request and respond within 72 hours.

QUEUED FOR PROCESSING