Unités de Distribution de Refroidissement : Infrastructure de Refroidissement Liquide pour les Data Centers IA

Unités de Distribution de Refroidissement : Infrastructure de Refroidissement Liquide pour les Data Centers IA

Unités de Distribution de Refroidissement : Infrastructure de Refroidissement Liquide pour les Data Centers IA

Mis à jour le 11 décembre 2025

Mise à jour décembre 2025 : Le marché du refroidissement liquide atteint 5,5 milliards de dollars en 2025, avec une projection de 15,8 milliards de dollars d'ici 2030 (TCAC de 23 %). Les GPU H200 avec un TDP de 700W nécessitent un refroidissement liquide à grande échelle. Le rack NVIDIA Kyber (2027) nécessitera 600kW à 1MW par rack. Supermicro lance des CDU de 250kW, doublant la capacité précédente. Les CDU atteignent une disponibilité de 99,999 % grâce à une architecture à triple redondance et un basculement en 100 ms.

2025 marque l'année où le refroidissement liquide est passé de technologie de pointe à standard de base. N'étant plus limité aux déploiements expérimentaux, le refroidissement liquide fonctionne désormais comme un facilitateur critique pour l'infrastructure IA.¹ Les opérateurs de data centers déployant des GPU NVIDIA H200 font face à des charges thermiques de 700W par appareil que le refroidissement par air ne peut pas éliminer de manière rentable à grande échelle.² La trajectoire s'intensifie alors que le rack Kyber de NVIDIA, prévu pour 2027, nécessitera initialement 600kW et évoluera jusqu'à 1MW par rack, exigeant une infrastructure de refroidissement liquide capable d'évacuer des charges thermiques sans précédent.³

Le marché du refroidissement liquide des data centers a atteint 5,52 milliards de dollars en 2025 avec des projections à 15,75 milliards de dollars d'ici 2030 à un TCAC de 23,31 %.⁴ Des analyses alternatives projettent une croissance de 2,84 milliards de dollars en 2025 à 21,15 milliards de dollars d'ici 2032 à un TCAC de 33,2 %.⁵ Les Unités de Distribution de Refroidissement (CDU) constituent l'infrastructure centrale permettant cette transition, gérant la circulation du liquide de refroidissement entre les systèmes d'eau des installations et les équipements IT tout en maintenant les températures précises exigées par le matériel IA.

Comment les CDU permettent le refroidissement liquide à grande échelle

Les Unités de Distribution de Refroidissement servent d'interface entre l'infrastructure de refroidissement des installations et les systèmes de refroidissement liquide au niveau des racks. Les CDU gèrent le transfert de chaleur de la boucle secondaire desservant les équipements IT vers la boucle primaire connectée aux refroidisseurs ou tours de refroidissement des installations.

L'architecture d'échange thermique utilise des échangeurs de chaleur à plaques en acier inoxydable 316 compatibles avec divers fluides de refroidissement.⁶ L'échangeur de chaleur isole les boucles de refroidissement IT de l'eau des installations, empêchant la contamination tout en permettant un transfert thermique efficace. Les débits maximaux atteignent 3 600 litres par minute pour une absorption et un transfert rapides de la chaleur.⁷

Le contrôle de température maintient des conditions précises. Les CDU atteignent des plages de température de -20°C jusqu'à +70°C selon les exigences applicatives.⁸ Un contrôle strict de la température prévient le throttling thermique des GPU et maintient des performances de calcul constantes.

La gestion de pression permet une flexibilité d'installation. Une pression de tête supérieure à 50 psi permet des trajets plus longs entre le CDU et les racks de serveurs.⁹ Des pompes doubles à variateur de vitesse (VSD) fournissent une réponse dynamique à la demande de refroidissement tout en améliorant l'efficacité énergétique.¹⁰

Les fonctionnalités de fiabilité assurent la disponibilité. Les CDU modernes utilisent une architecture à triple redondance avec une veille à chaud 1:1 pour les composants critiques.¹¹ Lors de défaillances du module principal, les systèmes de secours basculent de manière transparente en 100 millisecondes, atteignant une disponibilité système de 99,999 %.¹²

L'efficacité énergétique génère des économies opérationnelles. Par rapport aux unités de refroidissement par air, les CDU consomment 20-30 % moins d'électricité pour une capacité de refroidissement équivalente.¹³ Les gains d'efficacité se cumulent sur les grands déploiements IA où le refroidissement représente une part importante de la consommation électrique totale.

Capacité des CDU pour les charges de travail IA

La densité de puissance des serveurs IA détermine les exigences de dimensionnement des CDU. Un seul GPU NVIDIA GB200 a un TDP de 1,2kW. Un serveur GB200 NVL72 typique avec 8 GPU et 2 CPU atteint un TDP total de 10kW.¹⁴ La capacité des CDU doit évoluer pour correspondre à des populations entières de racks de ces systèmes.

Les configurations d'entrée de gamme répondent aux densités modérées. Le CDU Liquid-to-Air 10U de Boyd fournit jusqu'à 15kW de capacité selon la charge thermique et les exigences de température d'approche.¹⁵ Ces unités conviennent aux déploiements edge ou aux environnements de colocation à plus faible densité.

Les systèmes de milieu de gamme supportent les racks haute densité. Le CF-CDU300 de Chilldyne refroidit jusqu'à 300kW de serveurs.¹⁶ Dans un rack standard de 42U, les systèmes atteignant 50kW de refroidissement de cluster de serveurs permettent une consolidation substantielle des charges de travail IA.¹⁷

Les plateformes haute capacité servent les déploiements hyperscale. Les CDU de Motivair offrent six modèles standard et des configurations OEM personnalisées évoluant jusqu'à 2,3MW de charge IT.¹⁸ Supermicro a lancé des solutions à l'échelle du rack NVIDIA Blackwell en juin 2025 avec des CDU de 250kW doublant la capacité précédente.¹⁹

Les systèmes à l'échelle entreprise répondent aux exigences de l'ensemble du data center. Le CDU de nouvelle génération de Trane fournit jusqu'à 10MW de capacité de refroidissement pour le refroidissement liquide direct-to-chip dans les environnements hyperscale et de colocation.²⁰

La planification d'installation nécessite une attention aux contraintes physiques. La distance idéale entre le CDU et les racks ne doit pas dépasser 20 mètres.²¹ La capacité de charge au sol doit atteindre 800kg/m² car les CDU remplis peuvent peser jusqu'à 3 tonnes.²² Les exigences d'espace de maintenance incluent 1,2 mètres à l'avant et à l'arrière plus 0,6 mètres au sommet pour les raccordements de tuyauterie.²³

Échangeurs de chaleur de porte arrière pour les mises à niveau brownfield

Les Échangeurs de Chaleur de Porte Arrière (RDHx) se montent à l'arrière des racks de serveurs, éliminant la chaleur de l'air d'échappement avant qu'il n'entre dans l'environnement du data center.²⁴ La technologie permet les avantages du refroidissement liquide sans remplacer les serveurs refroidis par air existants.

L'efficacité de refroidissement dépasse substantiellement les approches uniquement par air. Le refroidissement par air traditionnel fonctionne avec une efficacité inférieure de 30-60 % par rapport aux configurations RDHx.²⁵ L'amélioration se cumule dans les environnements haute densité où le refroidissement par air peine à maintenir les températures.

L'évolution de capacité répond aux densités de racks croissantes. Le ChilledDoor de Motivair refroidit jusqu'à 72kW par rack.²⁶ OptiCool Technologies a lancé le RDHx de plus haute capacité de l'industrie à 120kW en septembre 2025, conçu spécifiquement pour les charges de travail IA et HPC de nouvelle génération.²⁷

Les approches de refroidissement propriétaires repoussent les limites de performance. La conception à réfrigérant biphasé d'OptiCool utilise la thermodynamique de changement de phase, éliminant la chaleur des racks et renvoyant l'air à température ambiante neutre.²⁸ L'approche atteint une efficacité de transfert thermique plus élevée que les systèmes liquides monophasés.

Les conceptions actives versus passives offrent différents compromis. Le RDHx passif repose uniquement sur le flux d'air des ventilateurs de serveurs, offrant efficacité énergétique et simplicité.²⁹ Le RDHx actif intègre des ventilateurs pour des densités thermiques plus élevées, consommant plus d'énergie mais offrant une plus grande flexibilité pour les environnements de calcul haute performance.³⁰

La compatibilité avec l'infrastructure existante rend le RDHx attractif pour les déploiements brownfield. La mise à niveau des racks de serveurs refroidis par air existants coûte moins cher et cause moins de perturbations que la transition vers des serveurs refroidis par liquide.³¹ Les charges de travail d'inférence IA fonctionnant sur du matériel refroidi par air bénéficient du RDHx sans refonte complète de l'infrastructure des installations.³²

La standardisation industrielle s'accélère à travers l'Open Compute Project. Le Sous-Projet Door Heat Exchanger se concentre sur le développement, l'intégration et la standardisation des RDHx dans le cadre ORV3 (Open Rack Version 3).³³ Schneider Electric a acquis une participation majoritaire dans Motivair en février 2025 pour renforcer sa position sur le marché du refroidissement liquide.³⁴

Refroidissement par immersion pour une densité maximale

Le refroidissement par immersion plonge les serveurs dans un liquide diélectrique thermiquement conducteur dans des réservoirs scellés.³⁵ L'approche permet les déploiements de plus haute densité tout en réduisant considérablement la consommation d'énergie de refroidissement.

L'immersion monophasée maintient le liquide à l'état liquide tout au long du processus. La circulation du liquide de refroidissement à travers les échangeurs de chaleur élimine la chaleur absorbée.³⁶ L'approche réduit la demande d'électricité de près de moitié par rapport au refroidissement par air traditionnel, réduit les émissions de CO2 jusqu'à 30 % et supporte une consommation d'eau réduite de 99 %.³⁷

L'immersion biphasée fait bouillir le liquide en vapeur aux sources de chaleur. Les serpentins du condenseur ramènent la vapeur à l'état liquide.³⁸ Les systèmes biphasés atteignent une efficacité supérieure pour extraire de grandes quantités de chaleur, les rendant plus adaptés aux infrastructures HPC et IA.³⁹

Les améliorations de densité transforment l'économie des data centers. Le refroidissement par immersion permet aux opérateurs de concentrer 10-15x plus de puissance de calcul dans le même espace, se traduisant directement par un délai de mise sur le marché plus rapide pour les services IA.⁴⁰ La consolidation réduit les besoins en immobilier tout en augmentant la capacité par mètre carré.

L'efficacité énergétique atteint des niveaux spectaculaires. Selon Submer, le refroidissement par immersion réduit la consommation d'énergie du système de refroidissement jusqu'à 95 %.⁴¹ Les économies compensent les coûts d'investissement plus élevés sur la durée de vie du déploiement.

La validation industrielle renforce la confiance. Intel et Shell ont validé une solution d'immersion complète avec du matériel de Supermicro et Submer, établissant « Intel Data Center Certified for Immersion Cooling » comme norme industrielle pour l'efficacité de refroidissement.⁴² Submer a introduit des robots autonomes pour la maintenance des réservoirs d'immersion, simplifiant la manipulation des serveurs.⁴³

Les considérations de coût nécessitent une analyse approfondie. Les déploiements d'immersion complets nécessitent des réservoirs spécialisés, des supports de charge, des systèmes de détection de fuites et des équipements de manipulation de liquide de refroidissement poussant les coûts d'installation par rack au-delà de 50 000 $, soit environ le triple des systèmes à air équivalents.⁴⁴ La mise à niveau des sites en exploitation ajoute de la complexité car les plénums de sol, les chemins de câbles et les chemins d'alimentation nécessitent un reroutage tout en maintenant la disponibilité.⁴⁵

La maturité technologique continue de progresser. L'immersion reste relativement immature avec des données historiques minimales sur les performances et la fiabilité à long terme.⁴⁶ Cependant, l'adoption accélérée par les hyperscalers et les fournisseurs d'infrastructure IA accumule rapidement l'expérience opérationnelle.

La pile technologique du refroidissement liquide

Différentes technologies de refroidissement répondent à différents scénarios de déploiement. L'approche optimale dépend de la densité thermique, de l'infrastructure existante et des exigences opérationnelles.

Le refroidissement par cold plate (direct-to-chip ou D2C) représente le segment à la croissance la plus rapide.⁴⁷ Les cold plates se fixent directement sur les composants générant de la chaleur, faisant circuler du liquide pour éliminer la charge thermique. L'approche s'intègre à l'infrastructure de rack existante plus facilement que les alternatives par immersion.

Les architectures hybrides combinent plusieurs approches. Les CDU servent les systèmes cold plate pour les composants à plus haute chaleur tandis que les RDHx gèrent la charge thermique restante des composants refroidis par air. La combinaison maximise l'efficacité de refroidissement sans nécessiter un remplacement complet de l'infrastructure.

La conformité OCP assure l'interopérabilité. Nidec a développé un prototype de CDU Project Deschutes conforme aux spécifications Google Open Compute Project, exposé à SC25.⁴⁸ Les interfaces standardisées permettent l'interopérabilité des composants entre les fournisseurs.

L'évolution de la densité des racks continue de stimuler les exigences. Selon Omdia, les racks inférieurs à 10kW représentaient 47 % de la capacité installée en 2024, tombant à 38 % d'ici 2025.⁴⁹ Pendant ce temps, les racks de 10-20kW sont passés de 27 % à 30 %, et les racks de 20-30kW ont grimpé de 24 % à 28 %.⁵⁰ Le changement de densité accélère l'adoption du refroidissement liquide.

Principaux fournisseurs de CDU et développements récents

Le paysage concurrentiel s'étend des entreprises établies de gestion thermique aux nouveaux entrants ciblant l'infrastructure IA.

Vertiv fournit des solutions CDU complètes avec des ressources éducatives expliquant les fondamentaux du refroidissement liquide. L'initiative AI Hub de l'entreprise positionne la technologie CDU comme centrale à l'infrastructure de nouvelle génération.⁵¹

Schneider Electric a renforcé sa position dans le refroidissement liquide grâce à l'acquisition de Motivair en février 2025.⁵² Le portefeuille combiné répond aux solutions RDHx, CDU et de refroidissement liquide intégré.

Supermicro a lancé des solutions à l'échelle du rack NVIDIA Blackwell avec des CDU de 250kW en juin 2025.⁵³ Les systèmes démontrent une conception intégrée de calcul et de refroidissement pour les déploiements de densité maximale.

Trane propose des CDU à l'échelle entreprise atteignant une capacité de 10MW pour les environnements hyperscale.⁵⁴ L'entreprise met l'accent sur l'efficacité énergétique et l'intégration avec l'infrastructure thermique au niveau des installations.

Motivair a développé le RDHx ChilledDoor atteignant 72kW par rack aux côtés de plateformes CDU évoluant jusqu'à 2,3MW.⁵⁵ L'acquisition par Schneider positionne la technologie pour un déploiement mondial élargi.

Submer se spécialise dans le refroidissement par immersion avec des innovations incluant des robots de maintenance autonomes.⁵⁶ Le pa

Demander un devis_

Parlez-nous de votre projet et nous vous répondrons sous 72 heures.

> TRANSMISSION_TERMINÉE

Demande reçue_

Merci pour votre demande. Notre équipe examinera votre requête et vous répondra sous 72 heures.

EN ATTENTE DE TRAITEMENT