Unidades de Distribuição de Resfriamento: Infraestrutura de Resfriamento Líquido para Data Centers de IA
Atualizado em 11 de dezembro de 2025
Atualização de dezembro de 2025: O mercado de resfriamento líquido atinge US$ 5,5 bilhões em 2025, com projeção de US$ 15,8 bilhões até 2030 (CAGR de 23%). GPUs H200 com TDP de 700W exigem resfriamento líquido em escala. O rack NVIDIA Kyber (2027) exigirá 600kW-1MW por rack. A Supermicro lança CDUs de 250kW, dobrando a capacidade anterior. As CDUs alcançam disponibilidade de 99,999% com arquitetura de tripla redundância e failover de 100ms.
2025 marca o ano em que o resfriamento líquido passou de tecnologia de ponta para requisito básico. Não mais limitado a implantações experimentais, o resfriamento líquido agora opera como um habilitador crítico para infraestrutura de IA.¹ Operadores de data centers que implantam GPUs NVIDIA H200 enfrentam cargas térmicas de 700W por dispositivo que o resfriamento a ar não consegue remover de forma economicamente viável em escala.² A trajetória se intensifica conforme o rack Kyber da NVIDIA, previsto para 2027, exigirá 600kW inicialmente e escalará para 1MW por rack, demandando infraestrutura de resfriamento líquido capaz de remover cargas térmicas sem precedentes.³
O mercado de resfriamento líquido para data centers atingiu US$ 5,52 bilhões em 2025, com projeções de US$ 15,75 bilhões até 2030 com CAGR de 23,31%.⁴ Análises alternativas projetam crescimento de US$ 2,84 bilhões em 2025 para US$ 21,15 bilhões até 2032 com CAGR de 33,2%.⁵ As Unidades de Distribuição de Resfriamento (CDUs) formam a infraestrutura central que possibilita essa transição, gerenciando a circulação de fluido refrigerante entre os sistemas de água da instalação e os equipamentos de TI, mantendo as temperaturas precisas que o hardware de IA exige.
Como as CDUs viabilizam o resfriamento líquido em escala
As Unidades de Distribuição de Refrigerante servem como interface entre a infraestrutura de resfriamento da instalação e os sistemas de resfriamento líquido em nível de rack. As CDUs gerenciam a transferência de calor do circuito secundário que atende os equipamentos de TI para o circuito primário conectado aos chillers ou torres de resfriamento da instalação.
A arquitetura de troca de calor emprega trocadores de calor de placas em aço inoxidável 316, compatíveis com vários fluidos refrigerantes.⁶ O trocador de calor isola os circuitos de resfriamento de TI da água da instalação, prevenindo contaminação enquanto permite transferência térmica eficiente. As vazões máximas atingem 3.600 litros por minuto para absorção e transferência rápida de calor.⁷
O controle de temperatura mantém condições precisas. As CDUs alcançam faixas de temperatura de -20°C até +70°C, dependendo dos requisitos da aplicação.⁸ O controle rigoroso de temperatura previne o throttling térmico nas GPUs e mantém o desempenho computacional consistente.
O gerenciamento de pressão permite flexibilidade na instalação. Pressão de carga maior que 50 psi permite trajetos mais longos entre a CDU e os racks de servidores.⁹ Bombas duplas com inversores de frequência variável (VSD) fornecem resposta dinâmica à demanda de resfriamento enquanto aumentam a eficiência energética.¹⁰
Os recursos de confiabilidade garantem disponibilidade. As CDUs modernas utilizam arquitetura de tripla redundância com hot standby 1:1 para componentes críticos.¹¹ Durante falhas do módulo principal, os sistemas de backup alternam perfeitamente em 100 milissegundos, alcançando 99,999% de disponibilidade do sistema.¹²
A eficiência energética proporciona economia operacional. Comparadas com unidades de resfriamento a ar, as CDUs consomem 20-30% menos eletricidade para capacidade de resfriamento equivalente.¹³ Os ganhos de eficiência se multiplicam em grandes implantações de IA, onde o resfriamento representa uma parcela significativa do consumo total de energia.
Capacidade das CDUs para cargas de trabalho de IA
A densidade de potência dos servidores de IA determina os requisitos de dimensionamento das CDUs. Uma única GPU NVIDIA GB200 tem TDP de 1,2kW. Um servidor típico GB200 NVL72 com 8 GPUs e 2 CPUs atinge 10kW de TDP total.¹⁴ A capacidade das CDUs deve escalar para atender populações inteiras de racks desses sistemas.
Configurações de entrada atendem densidades moderadas. A CDU Líquido-para-Ar de 10U da Boyd fornece até 15kW de capacidade, dependendo da carga térmica e dos requisitos de temperatura de aproximação.¹⁵ Tais unidades são adequadas para implantações de borda ou ambientes de colocation de menor densidade.
Sistemas de médio porte suportam racks de alta densidade. O CF-CDU300 da Chilldyne resfria até 300kW de servidores.¹⁶ Dentro de um rack padrão de 42U, sistemas que alcançam 50kW de resfriamento de cluster de servidores permitem consolidação substancial de cargas de trabalho de IA.¹⁷
Plataformas de alta capacidade atendem implantações em hiperescala. As CDUs da Motivair oferecem seis modelos padrão e configurações OEM personalizadas que escalam até 2,3MW de carga de TI.¹⁸ A Supermicro lançou soluções em escala de rack NVIDIA Blackwell em junho de 2025 com CDUs de 250kW, dobrando a capacidade anterior.¹⁹
Sistemas em escala empresarial atendem requisitos de todo o data center. A CDU de próxima geração da Trane oferece até 10MW de capacidade de resfriamento para resfriamento líquido direto ao chip em ambientes de hiperescala e colocation.²⁰
O planejamento da instalação requer atenção às restrições físicas. A distância ideal entre a CDU e os racks não deve exceder 20 metros.²¹ A capacidade de carga do piso deve atingir 800kg/m², já que CDUs preenchidas podem pesar até 3 toneladas.²² Os requisitos de espaço para manutenção incluem 1,2 metros na frente e atrás, além de 0,6 metros no topo para conexões de tubulação.²³
Trocadores de calor de porta traseira para upgrades em instalações existentes
Os Trocadores de Calor de Porta Traseira (RDHx) são montados nas partes traseiras dos racks de servidores, removendo o calor do ar de exaustão antes que ele entre no ambiente do data center.²⁴ A tecnologia permite os benefícios do resfriamento líquido sem substituir os servidores existentes resfriados a ar.
A eficiência de resfriamento supera substancialmente as abordagens apenas com ar. O resfriamento tradicional a ar opera 30-60% menos eficientemente do que as configurações RDHx.²⁵ A melhoria se multiplica em ambientes de alta densidade onde o resfriamento a ar tem dificuldade em manter as temperaturas.
A evolução da capacidade atende às crescentes densidades de rack. O ChilledDoor da Motivair resfria até 72kW por rack.²⁶ A OptiCool Technologies lançou o RDHx de maior capacidade do setor, com 120kW, em setembro de 2025, projetado especificamente para cargas de trabalho de IA e HPC de próxima geração.²⁷
Abordagens de resfriamento proprietárias expandem os limites de desempenho. O design de refrigerante bifásico da OptiCool usa termodinâmica de mudança de fase, removendo calor dos racks e retornando o ar em temperatura ambiente neutra.²⁸ A abordagem alcança maior eficiência de transferência térmica do que sistemas líquidos monofásicos.
Designs ativos versus passivos oferecem diferentes compensações. O RDHx passivo depende exclusivamente do fluxo de ar dos ventiladores do servidor, oferecendo eficiência energética e simplicidade.²⁹ O RDHx ativo incorpora ventiladores integrados para maiores densidades térmicas, consumindo mais energia, mas proporcionando maior flexibilidade para ambientes de computação de alto desempenho.³⁰
A compatibilidade com infraestrutura legada torna o RDHx atraente para implantações em instalações existentes. Retrofit de racks de servidores existentes resfriados a ar custa menos e causa menos interrupção do que a transição para servidores resfriados a líquido.³¹ Cargas de trabalho de inferência de IA executadas em hardware resfriado a ar se beneficiam do RDHx sem reforma completa da infraestrutura da instalação.³²
A padronização do setor acelera através do Open Compute Project. O Subprojeto Door Heat Exchanger foca no desenvolvimento, integração e padronização de RDHx dentro da estrutura ORV3 (Open Rack Version 3).³³ A Schneider Electric adquiriu participação controladora na Motivair em fevereiro de 2025 para fortalecer sua posição no mercado de resfriamento líquido.³⁴
Resfriamento por imersão para máxima densidade
O resfriamento por imersão submerge servidores em líquido dielétrico termicamente condutivo dentro de tanques selados.³⁵ A abordagem permite implantações de maior densidade enquanto reduz drasticamente o consumo de energia para resfriamento.
A imersão monofásica mantém o líquido em estado líquido durante todo o processo. A circulação do refrigerante através de trocadores de calor remove o calor absorvido.³⁶ A abordagem reduz a demanda de eletricidade em quase metade comparada ao resfriamento tradicional a ar, corta as emissões de CO2 em até 30% e suporta 99% menos consumo de água.³⁷
A imersão bifásica ferve o líquido até o estado de vapor nas fontes de calor. Serpentinas condensadoras retornam o vapor ao estado líquido.³⁸ Sistemas bifásicos alcançam maior eficiência na extração de grandes quantidades de calor, tornando-os mais adequados para infraestrutura de HPC e IA.³⁹
As melhorias de densidade transformam a economia dos data centers. O resfriamento por imersão permite que os operadores concentrem 10-15x mais capacidade computacional no mesmo espaço, traduzindo-se diretamente em tempo mais rápido para receita de serviços de IA.⁴⁰ A consolidação reduz os requisitos de área enquanto aumenta a capacidade por metro quadrado.
A eficiência energética atinge níveis dramáticos. Segundo a Submer, o resfriamento por imersão reduz o consumo de energia do sistema de resfriamento em até 95%.⁴¹ A economia compensa os custos de capital mais altos ao longo da vida útil da implantação.
A validação do setor constrói confiança. Intel e Shell validaram uma solução completa de imersão com hardware da Supermicro e Submer, estabelecendo "Intel Data Center Certified for Immersion Cooling" como padrão do setor para eficiência de resfriamento.⁴² A Submer introduziu robôs autônomos para manutenção de tanques de imersão, simplificando o manuseio de servidores.⁴³
Considerações de custo requerem análise cuidadosa. Implantações abrangentes de imersão exigem tanques especializados, suportes de carga, sistemas de detecção de vazamentos e equipamentos de manuseio de refrigerante, elevando os custos de instalação por rack acima de US$ 50.000, aproximadamente o triplo de sistemas equivalentes a ar.⁴⁴ O retrofit de sites em operação aumenta a complexidade, pois plenums de piso, bandejas de cabos e trajetos de energia requerem redirecionamento enquanto mantêm o tempo de atividade.⁴⁵
A maturidade tecnológica continua avançando. A imersão permanece relativamente imatura com dados históricos mínimos sobre desempenho e confiabilidade a longo prazo.⁴⁶ No entanto, a adoção acelerada por hyperscalers e provedores de infraestrutura de IA constrói experiência operacional rapidamente.
A pilha tecnológica de resfriamento líquido
Diferentes tecnologias de resfriamento atendem diferentes cenários de implantação. A abordagem ideal depende da densidade térmica, infraestrutura existente e requisitos operacionais.
O resfriamento por cold plate (direto ao chip ou D2C) representa o segmento de crescimento mais rápido.⁴⁷ Cold plates se conectam diretamente aos componentes geradores de calor, circulando líquido para remover a carga térmica. A abordagem se integra mais facilmente com a infraestrutura de rack existente do que as alternativas de imersão.
Arquiteturas híbridas combinam múltiplas abordagens. CDUs atendem sistemas de cold plate para componentes de maior calor enquanto RDHx lida com a carga térmica remanescente de componentes resfriados a ar. A combinação maximiza a eficiência de resfriamento sem exigir substituição completa da infraestrutura.
A conformidade OCP garante interoperabilidade. A Nidec desenvolveu um protótipo de CDU do Project Deschutes em conformidade com as especificações do Google Open Compute Project, exibido na SC25.⁴⁸ Interfaces padronizadas permitem interoperabilidade de componentes entre fornecedores.
A evolução da densidade de rack continua impulsionando os requisitos. Segundo a Omdia, racks abaixo de 10kW compreendiam 47% da capacidade instalada em 2024, caindo para 38% até 2025.⁴⁹ Enquanto isso, racks de 10-20kW subiram de 27% para 30%, e racks de 20-30kW aumentaram de 24% para 28%.⁵⁰ A mudança de densidade acelera a adoção do resfriamento líquido.
Principais fornecedores de CDU e desenvolvimentos recentes
O cenário competitivo abrange empresas estabelecidas de gerenciamento térmico e novos entrantes visando infraestrutura de IA.
Vertiv fornece soluções abrangentes de CDU com recursos educacionais explicando os fundamentos do resfriamento líquido. A iniciativa AI Hub da empresa posiciona a tecnologia CDU como central para infraestrutura de próxima geração.⁵¹
Schneider Electric fortaleceu sua posição em resfriamento líquido através da aquisição da Motivair em fevereiro de 2025.⁵² O portfólio combinado aborda soluções de RDHx, CDU e resfriamento líquido integrado.
Supermicro lançou soluções em escala de rack NVIDIA Blackwell com CDUs de 250kW em junho de 2025.⁵³ Os sistemas demonstram design integrado de computação e resfriamento para implantações de máxima densidade.
Trane oferece CDUs em escala empresarial alcançando capacidade de 10MW para ambientes de hiperescala.⁵⁴ A empresa enfatiza eficiência energética e integração com infraestrutura térmica em nível de instalação.
Motivair desenvolveu o RDHx ChilledDoor alcançando 72kW por rack junto com plataformas de CDU escalando até 2,3MW.⁵⁵ A aquisição pela Schneider posiciona a tecnologia para implantação global expandida.
Submer especializa-se em resfriamento por imersão com inovação incluindo robôs de manutenção autônomos.⁵⁶ A pa
[Conteúdo truncado para tradução]