O crescimento exponencial das cargas de trabalho de AI levou o resfriamento de data centers a um ponto de inflexão crítico. Conforme as densidades de racks de GPU ultrapassam 50kW—com sistemas de próxima geração exigindo 100kW e além—o resfriamento a ar tradicional atingiu seus limites físicos fundamentais. Esta análise abrangente revela como a indústria está navegando essa transformação térmica através de tecnologias avançadas de resfriamento líquido, entregando 10-21% de economia de energia, 40% de redução nos custos de resfriamento, e viabilizando a infraestrutura necessária para a revolução da AI.
Quando o ar se torna o gargalo
A falha do resfriamento a ar em altas densidades não é gradual—é um abismo. Com 50kW por rack, a física se torna implacável: o resfriamento requer 7.850 pés cúbicos por minuto (CFM) de fluxo de ar com uma diferença de temperatura de 20°F. Duplique isso para 100kW, e você precisa de 15.700 CFM—criando ventos com força de furacão através das entradas de ar dos servidores que medem apenas 2-4 polegadas quadradas. A equação fundamental de remoção de calor (Q = 0,318 × CFM × ΔT) revela um desafio intransponível: conforme a densidade aumenta, o fluxo de ar necessário escala linearmente, mas o consumo de energia do ventilador escala com o cubo da velocidade do ventilador. Um aumento de 10% no fluxo de ar demanda 33% mais energia do ventilador, criando uma espiral de consumo energético que torna o resfriamento a ar de alta densidade econômica e praticamente impossível.
Evidências do mundo real confirmam esses limites teóricos. Um caso documentado mostrou 250 racks com apenas 6kW indo de 72°F para mais de 90°F em 75 segundos quando o resfriamento falhou. Data centers tradicionais projetados para densidades médias de rack de 5-10kW simplesmente não conseguem lidar com cargas de trabalho modernas de GPU. Mesmo com contenção avançada de corredores quentes/frios, o resfriamento a ar tem dificuldades além de 40kW, enquanto sistemas não contidos sofrem perdas de capacidade de 20-40% devido à recirculação de ar quente. A nova classe ambiental ASHRAE H1, explicitamente criada para equipamentos de alta densidade, restringe as temperaturas permitidas a 18-22°C—uma faixa impossível de manter com resfriamento a ar em escalas de GPU.
As tecnologias de resfriamento líquido transformam o possível.
A transição para o resfriamento líquido representa mais do que uma melhoria incremental—é uma reimaginação fundamental da remoção de calor. O coeficiente de transferência de calor da água é 3.500 vezes maior que o do ar, permitindo capacidades de resfriamento que tornam racks de 100kW+ rotineiros ao invés de notáveis.
O resfriamento direto no chip lidera a transformação, com placas frias contendo microcanais (27-100 mícrons) conectadas diretamente aos processadores. Operando com água de alimentação a 40°C e retorno a 50°C, esses sistemas removem 70-75% do calor do rack através do líquido enquanto mantêm PUE parcial de 1.02-1.03. Implementações modernas suportam 1.5kW+ por chip com taxas de fluxo de 13 litros por minuto para um servidor de 9kW. Os 25-30% restantes do calor—da memória, drives e componentes auxiliares—ainda requerem resfriamento a ar, tornando esses sistemas híbridos a escolha prática para a maioria das implementações.
O resfriamento por imersão empurra os limites ainda mais longe, submergindo servidores inteiros em fluidos dielétricos. Sistemas de fase única usando óleos minerais custam $50-100 por galão e consistentemente suportam 200kW por rack. Sistemas de duas fases prometem transferência de calor superior através de ebulição e condensação, mas enfrentam desafios: fluidos fluorocarbonos custam $500-1000 por galão, e a descontinuação da produção pela 3M até 2025 devido a preocupações ambientais congelou a adoção. A complexidade da tecnologia—invólucros selados, riscos de cavitação e regulamentações PFAS—limita a implementação a aplicações especializadas.
As Unidades de Distribuição de Refrigerante (CDUs) formam a espinha dorsal da infraestrutura de resfriamento líquido. Unidades modernas variam de sistemas de rack de 7kW a gigantes de 2.000kW+ como o CHx2000 da CoolIT. Fornecedores líderes—Vertiv, Schneider Electric, Motivair e CoolIT—oferecem soluções com redundância N+1, filtragem de 50 mícrons e drives de frequência variável para correspondência de carga. O mercado de CDU, avaliado em $1 bilhão em 2024, está projetado para alcançar $3.6 bilhões até 2031 (CAGR de 20.5%), refletindo a rápida adoção do resfriamento líquido.
A arte e economia da adaptação
A transição de data centers existentes para resfriamento líquido requer orquestração cuidadosa. A abordagem mais bem-sucedida segue uma migração em fases: começando com 1-2 racks de alta densidade, expandindo para uma fileira, depois escalando com base na demanda. Três caminhos principais de adaptação emergiram: CDUs líquido-para-ar que aproveitam o ar condicionado existente, trocadores de calor na porta traseira que podem resfriar até 40kW por rack, e soluções direto-para-chip para máxima eficiência.
As modificações de infraestrutura apresentam o principal desafio. A infraestrutura de energia frequentemente se torna o fator limitante—instalações projetadas para cargas médias de 5-10kW não conseguem suportar racks de 50kW+ independentemente da capacidade de resfriamento. O encanamento requer modelagem CFD cuidadosa em ambientes de piso elevado ou instalação superior com bandejas coletoras em construções de laje. O carregamento do piso, particularmente para sistemas de imersão, pode exceder a capacidade estrutural em instalações mais antigas.
A análise de custos revela uma economia atrativa apesar do alto investimento inicial. Um estudo da California Energy Commission documentou um sistema completo de resfriamento líquido para 1.200 servidores em 17 racks a um custo total de $470.557, ou $392 por servidor, incluindo modificações nas instalações. A economia anual de energia de 355 MWh ($39.155 a $0,11/kWh) resulta em um payback simples de 12 anos, embora implementações otimizadas alcancem retornos de 2-5 anos. A análise da Schneider Electric mostra 14% de economia de capital através da compactação de racks 4x, enquanto as economias operacionais incluem uma redução de 10,2% no consumo total de energia do data center e uma melhoria de 15,5% na Eficácia Total de Uso.
Os desafios de integração se multiplicam em ambientes híbridos. Mesmo instalações "totalmente resfriadas a líquido" requerem 20-30% de capacidade de resfriamento a ar para componentes auxiliares. Os sistemas de controle devem coordenar múltiplas tecnologias de resfriamento, monitorando tanto as temperaturas de entrada dos racks quanto as condições da água de alimentação. A redundância torna-se crítica—trocadores de calor na porta traseira devem fazer failover para resfriamento a ar quando abertos para manutenção, enquanto sistemas direto-para-chip têm menos de 10 segundos de tempo de sustentação em carga total.
Do piloto à produção
Implementações do mundo real demonstram a maturidade do resfriamento líquido. A Meta lidera a adoção em escala, implementando Resfriamento Líquido Assistido por Ar em mais de 40 milhões de pés quadrados de espaço de data center. Seu design de rack Catalina suporta 140kW com 72 GPUs, enquanto a implementação de resfriamento líquido em toda a instalação tem como meta a conclusão no início de 2025. A transformação exigiu o descarte de múltiplos data centers em construção para redesigns otimizados para AI, esperando 31% de economia de custos da nova arquitetura.
A jornada de sete anos do Google com TPUs resfriadas a líquido fornece o conjunto de dados mais abrangente da indústria. Implementando sistemas de circuito fechado em mais de 2000 TPU Pods em escala de gigawatt, eles alcançaram 99,999% de uptime enquanto demonstraram condutividade térmica 30x maior que o ar. Seu design de CDU de quinta geração, Project Deschutes, será contribuído para o Open Compute Project, acelerando a adoção em toda a indústria.
A Microsoft ultrapassa limites com resfriamento por imersão bifásico em produção, usando fluidos dielétricos que fervem a 122°F—50°C mais baixo que a água. A tecnologia permite redução de 5-15% no consumo de energia do servidor enquanto elimina ventiladores de resfriamento. Seu compromisso com 95% de redução no uso de água até 2024 impulsiona a inovação em sistemas de circuito fechado e zero evaporação.
Provedores especializados como a CoreWeave demonstram resfriamento líquido para cargas de trabalho de AI. Planejando implementações de 4.000 GPUs até o final de 2024, eles estão alcançando densidades de rack de 130kW com 20% melhor utilização do sistema que os concorrentes. Seus designs otimizados para trilhos economizam 3,1 milhões de horas de GPU através de melhor confiabilidade, implementando clusters H100 em menos de 60 dias.
Atendendo às demandas térmicas dos aceleradores de IA
As especificações de GPU revelam por que o resfriamento líquido se tornou obrigatório. A NVIDIA H100 SXM5 opera a 700W TDP, exigindo resfriamento líquido para performance otimizada. A H200 mantém o mesmo envelope de potência enquanto entrega 141GB de memória HBM3e a 4.8TB/s—1.4x mais largura de banda, o que gera calor proporcional. A próxima B200 expande ainda mais os limites: 1.200W para variantes com resfriamento líquido versus 1.000W para resfriamento a ar, com performance de 20 PFLOPS FP4 exigindo gerenciamento térmico sofisticado.
A GB200 NVL72—empacotando 72 GPUs Blackwell e 36 CPUs Grace em um único rack—representa o limite da viabilidade do resfriamento a ar. Com potência de rack de 140kW, ela exige resfriamento líquido obrigatório através de placas frias recém-desenvolvidas e CDUs de 250kW. Considerações em nível de sistema agravam a complexidade: interconexões NVSwitch adicionam 10-15W cada, enquanto memória de alta velocidade e sistemas de entrega de energia contribuem com calor adicional substancial.
Análise técnica da JetCool demonstra diferenças de performance marcantes: sua H100 SmartPlate atinge resistência térmica de 0.021°C/W, mantendo chips 35°C mais frios que alternativas a ar enquanto suporta temperaturas de entrada de 60°C. Esta redução de temperatura teoricamente estende a vida útil da GPU em 8x enquanto permite performance máxima sustentada—crítico para execuções de treinamento de IA de várias semanas.
O roteiro até 2030
A indústria está em um ponto de transformação onde as melhores práticas evoluem rapidamente para requisitos. A nova classe ambiental H1 da ASHRAE (18-22°C recomendado) reconhece que as diretrizes tradicionais não conseguem acomodar cargas de trabalho de AI. Os padrões de refrigeração líquida do Open Compute Project impulsionam a interoperabilidade, enquanto seus Immersion Requirements Rev. 2.10 estabelecem processos de qualificação para tecnologias emergentes.
Refrigeração por imersão bifásica, apesar dos desafios atuais, mostra potencial para adoção mainstream entre 2025-2027. Projeções de mercado indicam crescimento de $375 milhões (2024) para $1,2 bilhão (2032), impulsionado pela transferência de calor superior que permite mais de 1.500W por chip. Inovações como o Accelsius NeuCool e alternativas aos fluidos 3M descontinuados abordam preocupações ambientais mantendo o desempenho.
Otimização orientada por AI oferece retornos imediatos. A implementação do Google DeepMind alcançou 40% de redução no consumo de energia de refrigeração através de aprendizado em tempo real, enquanto o White Space Cooling Optimization da Siemens e plataformas similares proliferam. Esses sistemas preveem falhas, otimizam a química do refrigerante e se ajustam dinamicamente aos padrões de carga de trabalho—capacidades que 91% dos fornecedores esperam que sejam ubíquas em cinco anos.
Recuperação de calor residual transforma passivo em ativo. O Stockholm Data Parks já aquece 10.000 residências com calor residual de data centers, visando 10% do aquecimento da cidade até 2035. Pressão regulatória acelera a adoção: a Alemanha determina 20% de reuso de calor até 2028, enquanto o California Title 24 exige infraestrutura de recuperação em novas construções. A tecnologia de bomba de calor eleva calor residual de 30-40°C para 70-80°C para aquecimento urbano, criando fontes de receita a partir de energia anteriormente descartada.
Fazendo a transição
O sucesso na implementação de resfriamento líquido requer planejamento estratégico em múltiplas dimensões. As organizações devem começar com CDUs líquido-para-ar diretas para uma entrada de menor barreira, mas devem avaliar a infraestrutura elétrica primeiro—capacidade elétrica inadequada desqualifica a viabilidade de retrofit independentemente da tecnologia de resfriamento. Começar com pilotos de 1-2 racks permite aprender antes de escalar, enquanto manter a expertise em resfriamento a ar permanece crítico para operações híbridas.
A modelagem financeira deve considerar o valor total do sistema. Embora o investimento inicial varie de $1.000 a $2.000 por kW de capacidade de resfriamento, as economias operacionais se acumulam: 27% de redução na energia da instalação em implementações otimizadas, 30% de economia de energia de resfriamento versus sistemas convencionais, e criticamente, a capacidade de implementar cargas de trabalho de AI geradoras de receita, impossível com resfriamento a ar. As principais implementações alcançam paybacks abaixo de 2 anos através de design cuidadoso: contornar a integração ineficiente de chillers economiza 20-30%, enquanto focar nas aplicações de maior densidade maximiza o retorno.
Equipes técnicas requerem novas competências. Além do conhecimento tradicional de HVAC, a equipe deve entender química de coolant, protocolos de resposta a vazamentos e sistemas de controle integrados. Parcerias com fornecedores provam ser essenciais—suporte 24/7 para componentes especializados e manutenção preventiva regular em intervalos de 6 meses tornam-se necessidades operacionais. Protocolos de segurança expandem para incluir manuseio de fluidos dielétricos e gerenciamento de sistemas de pressão.
O mercado sinaliza um momentum avassalador. O resfriamento líquido de data centers cresce de $4,9 bilhões (2024) para projetados $21,3 bilhões (2030) com CAGR de 27,6%. O resfriamento direto ao chip de fase única torna-se padrão para cargas de trabalho de AI até 2025-2026, enquanto a imersão de duas fases atinge adoção mainstream até 2027. Até 2030, racks de 1MW irão requerer resfriamento líquido avançado como padrão, não uma exceção.
Conclusão
A física é clara: o resfriamento a ar chegou aos seus limites. Com densidades de rack de 50-100kW, limitações termodinâmicas fundamentais tornam o resfriamento líquido não apenas preferível, mas obrigatório. A transição representa a mudança de infraestrutura mais significativa na história dos data centers, exigindo novas habilidades, investimento considerável e transformação operacional. Ainda assim, os benefícios—economia de energia de 10-21%, redução de 40% nos custos de resfriamento, melhoria de 8x na confiabilidade e, mais importante, a capacidade de implementar infraestrutura de AI de próxima geração—tornam essa evolução inevitável. Organizações que dominarem o resfriamento líquido hoje irão alimentar os avanços em AI de amanhã—aquelas que adiarem ficam para trás conforme a indústria corre em direção a densidades computacionais cada vez maiores. Chegamos ao muro térmico; o resfriamento líquido é como o atravessamos.
Referências
ACM Digital Library. "Energy-efficient LLM Training in GPU datacenters with Immersion Cooling Systems." Proceedings of the 16th ACM International Conference on Future and Sustainable Energy Systems. 2025. https://dl.acm.org/doi/10.1145/3679240.3734609.
AMAX. "Comparing NVIDIA Blackwell Configurations." 2025. https://www.amax.com/comparing-nvidia-blackwell-configurations/.
———. "Top 5 Considerations for Deploying NVIDIA Blackwell." 2025. https://www.amax.com/top-5-considerations-for-deploying-nvidia-blackwell/.
arXiv. "[1309.4887] iDataCool: HPC with Hot-Water Cooling and Energy Reuse." 2013. https://ar5iv.labs.arxiv.org/html/1309.4887.
———. "[1709.05077] Transforming Cooling Optimization for Green Data Center via Deep Reinforcement Learning." 2017. https://ar5iv.labs.arxiv.org/html/1709.05077.
Attom. "Ashrae's New Thermal Guideline Update: A New High Density Trend." Expert Green Prefab Data Centers. 2025. https://attom.tech/ashraes-new-thermal-guideline-update-a-new-high-density-trend/.
Chilldyne. "High-power liquid cooling design: direct-to-chip solution requirements for 500 kW Racks." Chilldyne | Liquid Cooling. 29 de julho de 2024. https://chilldyne.com/2024/07/29/high-power-liquid-cooling-design-direct-to-chip-solution-requirements-for-500-kw-racks/.
Compass Datacenters. "What Is Data Center Cooling?" 2025. https://www.compassdatacenters.com/data-center-cooling/.
Converge Digest. "Meta Outlines AI Infrastructure Upgrades at OCP Summit 2024." 2024. https://convergedigest.com/meta-outlinesai-infrastructure-upgrades-at-ocp-summit-2024/.
Core Winner LTD. "Comprehensive Guide to Liquid Cooling: The Future of High-Performance Data Centers and AI Deployments." 2025. https://www.corewinner.com/en/blog/detail/52.
CoreWeave. "Building AI Clusters for Enterprises 2025." 2025. https://www.coreweave.com/blog/building-ai-clusters-for-enterprises-2025.
———. "GPUs for AI Models and Innovation." 2025. https://www.coreweave.com/products/gpu-compute.
Cyber Defense Advisors. "AI-Driven Predictive Maintenance: The Future of Data Center Reliability." 2025. https://cyberdefenseadvisors.com/ai-driven-predictive-maintenance-the-future-of-data-center-reliability/.
Data Center Catalog. "Meta Plans Shift to Liquid Cooling for its Data Center Infrastructure." 2022. https://datacentercatalog.com/news/2022/meta-plans-shift-to-liquid-cooling-for-its-data-center-infrastructure.
Data Center Dynamics. "An introduction to liquid cooling in the data center." 2025. https://www.datacenterdynamics.com/en/analysis/an-introduction-to-liquid-cooling-in-the-data-center/.
———. "Hyperscalers prepare for 1MW racks at OCP EMEA; Google announces new CDU." 2025. https://www.datacenterdynamics.com/en/news/hyperscalers-prepare-for-1mw-racks-at-ocp-emea-google-announces-new-cdu/.
———. "New ASHRAE guidelines challenge efficiency drive." 2025. https://www.datacenterdynamics.com/en/opinions/new-ashrae-guidelines-challenge-efficiency-drive/.
———. "Nvidia's CEO confirms upcoming system will be liquid cooled." 2025. https://www.datacenterdynamics.com/en/news/nvidias-ceo-confirms-next-dgx-will-be-liquid-cooled/.
———. "Optimizing data center efficiency with direct-to-chip liquid cooling." 2025. https://www.datacenterdynamics.com/en/opinions/optimizing-data-center-efficiency-with-direct-to-chip-liquid-cooling/.
———. "Two-phase cooling will be hit by EPA rules and 3M's exit from PFAS 'forever chemicals'." 2025. https://www.datacenterdynamics.com/en/news/two-phase-cooling-will-be-hit-by-epa-rules-and-3ms-exit-from-pfas-forever-chemicals/.
Data Center Frontier. "8 Trends That Will Shape the Data Center Industry In 2025." 2025. https://www.datacenterfrontier.com/cloud/article/55253151/8-trends-that-will-shape-the-data-center-industry-in-2025.
———. "Best Practices for Deploying Liquid Cooled Servers in Your Data Center." 2025. https://www.datacenterfrontier.com/sponsored/article/55138161/best-practices-for-deploying-liquid-cooled-servers-in-your-data-center.
———. "Google Developing New 'Climate Conscious' Cooling Tech to Save Water." 2025. https://www.datacenterfrontier.com/cooling/article/33001080/google-developing-new-climate-conscious-cooling-tech-to-save-water.
———. "Google Shifts to Liquid Cooling for AI Data Crunching." 2025. https://www.datacenterfrontier.com/cloud/article/11430207/google-shifts-to-liquid-cooling-for-ai-data-crunching.
———. "Meta Plans Shift to Liquid Cooling for its Data Center Infrastructure." 2025. https://www.datacenterfrontier.com/cooling/article/11436915/meta-plans-shift-to-liquid-cooling-for-its-data-center-infrastructure.
———. "Meta Previews New Data Center Design for an AI-Powered Future." 2025. https://www.datacenterfrontier.com/data-center-design/article/33005296/meta-previews-new-data-center-design-for-an-ai-powered-future.
———. "OCP 2024 Spotlight: Meta Debuts 140 kW Liquid-Cooled AI Rack; Google Eyes Robotics to Muscle Hyperscaler GPUs." 2024. https://www.datacenterfrontier.com/hyperscale/article/55238148/ocp-2024-spotlight-meta-shows-off-140-kw-liquid-cooled-ai-rack-google-eyes-robotics-to-muscle-hyperscaler-gpu-placement.
———. "Pushing the Boundaries of Air Cooling in High Density Environments." 2025. https://www.datacenterfrontier.com/special-reports/article/11427279/pushing-the-boundaries-of-air-cooling-in-high-density-environments.
———. "Report: Meta Plans Shift to Liquid Cooling in AI-Centric Data Center Redesign." 2025. https://www.datacenterfrontier.com/cooling/article/33004107/report-meta-plans-shift-to-liquid-cooling-in-ai-centric-data-center-redesign.
———. "The Importance of Liquid Cooling to the Open Compute Project (OCP)." 2025. https://www.datacenterfrontier.com/sponsored/article/55134348/the-importance-of-liquid-cooling-to-the-open-compute-project-ocp.
———. "Waste Heat Utilization is the Data Center Industry's Next Step Toward Net-Zero Energy." 2025. https://www.datacenterfrontier.com/voices-of-the-industry/article/11428787/waste-heat-utilization-is-the-data-center-industrys-next-step-toward-net-zero-energy.
———. "ZutaCore's HyperCool Liquid Cooling Technology to Support NVIDIA's Advanced H100 and H200 GPUs for Sustainable AI." 2024. https://www.datacenterfrontier.com/press-releases/press-release/33038994/zutacores-hypercool-liquid-cooling-technology-to-support-nvidias-advanced-h100-and-h200-gpus-for-sustainable-ai.
Data Center Knowledge. "Data Center Retrofit Strategies." 2025. https://www.datacenterknowledge.com/infrastructure/data-center-retrofit-strategies.
———. "Hybrid Cooling: The Bridge to Full Liquid Cooling in Data Centers." 2025. https://www.datacenterknowledge.com/cooling/hybrid-cooling-the-bridge-to-full-liquid-cooling-in-data-centers.
Data Centre Review. "Making the most of data centre waste heat." Junho de 2024. https://datacentrereview.com/2024/06/making-the-most-of-data-centre-waste-heat/.
Datacenters. "CoreWeave's Role in Google and OpenAI's Cloud Partnership Redefines AI Infrastructure." 2025. https://www.datacenters.com/news/coreweave-s-strategic-role-in-google-and-openai-s-cloud-collaboration.
Dell. "When to Move from Air Cooling to Liquid Cooling for Your Data Center." 2025. https://www.dell.com/en-us/blog/when-to-move-from-air-cooling-to-liquid-cooling-for-your-data-center/.
Digital Infra Network. "Google's megawatt move for AI: Revamping power and cooling." 2025. https://digitalinfranetwork.com/news/google-ocp-400v-liquid-cooling/.
Enconnex. "Data Center Liquid Cooling vs. Air Cooling." 2025. https://blog.enconnex.com/data-center-liquid-cooling-vs-air-cooling.
Engineering at Meta. "Meta's open AI hardware vision." 15 de outubro de 2024. https://engineering.fb.com/2024/10/15/data-infrastructure/metas-open-ai-hardware-vision/.
Fortune Business Insights. "Two-Phase Data Center Liquid Immersion Cooling Market, 2032." 2025. https://www.fortunebusinessinsights.com/two-phase-data-center-liquid-immersion-cooling-market-113122.
Google Cloud. "Enabling 1 MW IT racks and liquid cooling at OCP EMEA Summit." Google Cloud Blog. 2025. https://cloud.google.com/blog/topics/systems/enabling-1-mw-it-racks-and-liquid-cooling-at-ocp-emea-summit.
GR Cooling. "Exploring Advanced Liquid Cooling: Immersion vs. Direct-to-Chip Cooling." 2025. https://www.grcooling.com/blog/exploring-advanced-liquid-cooling/.
———. "Two-Phase Versus Single-Phase Immersion Cooling." 2025. https://www.grcooling.com/blog/two-phase-versus-single-phase-immersion-cooling/.
HDR. "Direct-To-Chip Liquid Cooling." 2025. https://www.hdrinc.com/insights/direct-chip-liquid-cooling.
HiRef. "Hybrid Rooms: the combined solution for air and liquid cooling in data centers." 2025. https://hiref.com/news/hybrid-rooms-data-centers.
HPCwire. "H100 Fading: Nvidia Touts 2024 Hardware with H200." 13 de novembro de 2023. https://www.hpcwire.com/2023/11/13/h100-fading-nvidia-touts-2024-hardware-with-h200/.
IDTechEx. "Thermal Management for Data Centers 2025-2035: Technologies, Markets, and Opportunities." 2025. https://www.idtechex.com/en/research-report/thermal-management-for-data-centers/1036.
JetCool. "Direct Liquid Cooling vs. Immersion Cooling for Data Centers." 2025. https://jetcool.com/post/five-reasons-water-cooling-is-better-than-immersion-cooling/.
———. "Liquid Cooling System for NVIDIA H100 GPU." 2025. https://jetcool.com/h100/.
Maroonmonkeys. "CDU." 2025. https://www.maroonmonkeys.com/motivair/cdu.html.
Microsoft. "Project Natick Phase 2." 2025. https://natick.research.microsoft.com/.
Microsoft News. "To cool datacenter servers, Microsoft turns to boiling liquid." 2025. https://news.microsoft.com/source/features/innovation/datacenter-liquid-cooling/.
Nortek Data Center Cooling Solutions. "Waste Heat Utilization is the Data Center Industry's Next Step Toward Net-Zero Energy." 2025. https://www.nortekdatacenter.com/waste-heat-utilization-is-the-data-center-industrys-next-step-toward-net-zero-energy/.
NVIDIA. "H200 Tensor Core GPU." 2025. https://www.nvidia.com/en-us/data-center/h200/.
Open Compute Project. "Open Compute Project Foundation Expands Its Open Systems for AI Initiative." 2025. https://www.opencompute.org/blog/open-compute-project-foundation-expands-its-open-systems-for-ai-initiative.
P&S Intelligence. "Immersion Cooling Market Size, Share & Trends Analysis, 2032." 2025. https://www.psmarketresearch.com/market-analysis/immersion-cooling-market.
PR Newswire. "Supermicro Introduces Rack Scale Plug-and-Play Liquid-Cooled AI SuperClusters for NVIDIA Blackwell and NVIDIA HGX H100/H200." 2024. https://www.prnewswire.com/news-releases/supermicro-introduces-rack-scale-plug-and-play-liquid-cooled-ai-superclusters-for-nvidia-blackwell-and-nvidia-hgx-h100h200--radical-innovations-in-the-ai-era-to-make-liquid-cooling-free-with-a-bonus-302163611.html.
———. "ZutaCore's HyperCool Liquid Cooling Technology to Support NVIDIA's Advanced H100 and H200 GPUs for Sustainable AI." 2024. https://www.prnewswire.com/news-releases/zutacores-hypercool-liquid-cooling-technology-to-support-nvidias-advanced-h100-and-h200-gpus-for-sustainable-ai-302087410.html.
Rittal. "What is Direct to Chip Cooling – and Is Liquid Cooling in your Future?" 2025. https://www.rittal.com/us-en_US/Company/Rittal-Stories/What-is-Direct-to-Chip-Cooling-and-Is-Liquid-Cooling-in-your-Future.
ScienceDirect. "Liquid cooling of data centers: A necessity facing challenges." 2024. https://www.sciencedirect.com/science/article/abs/pii/S1359431124007804.
SemiAnalysis. "Datacenter Anatomy Part 1: Electrical Systems." 14 de outubro de 2024. https://semianalysis.com/2024/10/14/datacenter-anatomy-part-1-electrical/.
———. "Datacenter Anatomy Part 2 – Cooling Systems." 13 de fevereiro de 2025. https://semianalysis.com/2025/02/13/datacenter-anatomy-part-2-cooling-systems/.
———. "Multi-Datacenter Training: OpenAI's Ambitious Plan To Beat Google's Infrastructure." 4 de setembro de 2024. https://semianalysis.com/2024/09/04/multi-datacenter-training-openais/.
TechPowerUp. "NVIDIA H100 PCIe 80 GB Specs." TechPowerUp GPU Database. 2025. https://www.techpowerup.com/gpu-specs/h100-pcie-80-gb.c3899.
TechTarget. "Liquid Cooling vs. Air Cooling in the Data Center." 2025. https://www.techtarget.com/searchdatacenter/feature/Liquid-cooling-vs-air-cooling-in-the-data-center.
Unisys. "How leading LLM developers are fueling the liquid cooling boom." 2025. https://www.unisys.com/blog-post/dws/how-leading-llm-developers-are-fueling-the-liquid-cooling-boom/.
Upsite Technologies. "How Rack Density and Delta T Impact Your Airflow Management Strategy." 2025. https://www.upsite.com/blog/rack-density-delta-t-impact-airflow-management-strategy/.
———. "When to Retrofit the Data Center to Accommodate AI, and When Not to." 2025. https://www.upsite.com/blog/when-to-retrofit-the-data-center-to-accommodate-ai-and-when-not-to/.
Uptime Institute. "Data Center Cooling Best Practices." 2025. https://journal.uptimeinstitute.com/implementing-data-center-cooling-best-practices/.
———. "Performance expectations of liquid cooling need a reality check." Uptime Institute Blog. 2025. https://journal.uptimeinstitute.com/performance-expectations-of-liquid-cooling-need-a-reality-check/.
Utility Dive. "The 2025 outlook for data center cooling." 2025. https://www.utilitydive.com/news/2025-outlook-data-center-cooling-electricity-demand-ai-dual-phase-direct-to-chip-energy-efficiency/738120/.
Vertiv. "Deploying liquid cooling in data centers: Installing and managing coolant distribution units (CDUs)." 2025. https://www.vertiv.com/en-us/about/news-and-insights/articles/blog-posts/deploying-liquid-cooling-in-data-centers-installing-and-managing-coolant-distribution-units-cdus/.
———. "Liquid and Immersion Cooling Options for Data Centers." 2025. https://www.vertiv.com/en-us/solutions/learn-about/liquid-cooling-options-for-data-centers/.
———. "Liquid cooling options for data centers." 2025. https://www.vertiv.com/en-us/solutions/learn-about/liquid-cooling-options-for-data-centers/.
———. "Quantifying the Impact on PUE and Energy Consumption When Introducing Liquid Cooling Into an Air-cooled Data Center." 2025. https://www.vertiv.com/en-emea/about/news-and-insights/articles/blog-posts/quantifying-data-center-pue-when-introducing-liquid-cooling/.
———. "Understanding direct-to-chip cooling in HPC infrastructure: A deep dive into liquid cooling." 2025. https://www.vertiv.com/en-emea/about/news-and-insights/articles/educational-articles/understanding-direct-to-chip-cooling-in-hpc-infrastructure-a-deep-dive-into-liquid-cooling/.
———. "Vertiv™ CoolPhase CDU | High Density Solutions." 2025. https://www.vertiv.com/en-us/products-catalog/thermal-management/high-density-solutions/vertiv-coolphase-cdu/.
WGI. "Cooling Down AI and Data Centers." 2025. https://wginc.com/cooling-down-ai-and-data-centers/.