Refroidissement liquide pour l'IA : d'un cas marginal à une infrastructure essentielle

Le marché du refroidissement liquide en pleine expansion, passant de 2,8 milliards $ (2025) à plus de 21 milliards $ d'ici 2032 (TCAC de plus de 30 %). Les racks NVIDIA actuels à 132 kW ; la prochaine génération nécessitera 240 kW. Le GB200 NVL72 permettant des économies de 25x (plus de 4 M$ annuellement pour une installation de 50 MW...

Refroidissement liquide pour l'IA : d'un cas marginal à une infrastructure essentielle

Refroidissement liquide pour l'IA : d'un cas marginal à une infrastructure essentielle

Mis à jour le 11 décembre 2025

Mise à jour décembre 2025 : Le marché du refroidissement liquide en pleine expansion, passant de 2,8 milliards $ (2025) à plus de 21 milliards $ d'ici 2032 (TCAC de plus de 30 %). Les racks NVIDIA actuels à 132 kW ; la prochaine génération nécessitera 240 kW. Le GB200 NVL72 permettant des économies de 25x (plus de 4 M$ annuellement pour une installation de 50 MW). Le refroidissement direct sur puce gère désormais jusqu'à 1 600 W par composant. L'Accelsius NeuCool refroidit 4 500 W par socket GPU avec de l'eau chaude à 40°C.

Le marché mondial du refroidissement liquide passera de 2,8 milliards de dollars en 2025 à plus de 21 milliards de dollars d'ici 2032, avec une croissance annuelle composée dépassant 30 %.¹ À mi-parcours de 2025, le passage du refroidissement à air au refroidissement liquide est passé du stade expérimental au stade opérationnel.² À pleine charge, les derniers serveurs GPU basés sur NVIDIA nécessitent 132 kilowatts par rack. La prochaine génération, attendue dans l'année, nécessitera 240 kilowatts.³ Le refroidissement à air traditionnel ne peut pas dissiper la chaleur à ces densités. Le refroidissement liquide s'est transformé d'un luxe réservé aux hyperscalers en une exigence pour toute organisation déployant une infrastructure IA de génération actuelle.

L'économie renforce cette transition. Les centres de données dépensent environ 1,9 à 2,8 millions de dollars par mégawatt annuellement pour le refroidissement.⁴ Le déploiement de systèmes GB200 NVL72 refroidis par liquide permet aux centres de données hyperscale d'atteindre des économies jusqu'à 25 fois supérieures, se traduisant par plus de 4 millions de dollars d'économies annuelles pour une installation de 50 mégawatts.⁵ Les organisations qui résistent à la transition se retrouveront incapables de déployer les générations de GPU qui définissent les capacités de l'IA.

La physique qui conduit la transition

Les serveurs optimisés pour l'IA et les clusters denses en GPU poussent les densités de puissance au-delà de 50 kilowatts par rack, atteignant des niveaux où le refroidissement à air traditionnel ne peut assurer une dissipation thermique stable ou efficace.⁶ Selon l'Uptime Institute, la densité de puissance moyenne par rack des centres de données a augmenté de 38 % entre 2022 et 2024, avec la croissance la plus prononcée dans les déploiements IA et hyperscale.⁷ Les densités de puissance qui plafonnaient autrefois à 15 kilowatts atteignent désormais 80 à 120 kilowatts dans les clusters IA.⁸

L'avantage fondamental du refroidissement liquide réside dans la thermodynamique. Avec une densité presque 1 000 fois supérieure à celle de l'air, le liquide excelle à évacuer la chaleur grâce à une capacité thermique et une conductivité thermique supérieures.⁹ En transférant efficacement la chaleur des GPU haute performance, le refroidissement liquide réduit la dépendance aux ventilateurs de refroidissement énergivores. Le résultat : une réduction moyenne de 11 % de la consommation énergétique des serveurs tout en éliminant 80 % des besoins en espace de l'infrastructure de refroidissement traditionnelle.¹⁰

Les systèmes de refroidissement à air peinent à gérer les densités de puissance supérieures à 10 à 15 kilowatts par rack.¹¹ De nombreuses charges de travail IA nécessitent des racks fonctionnant à 30 à 60 kilowatts ou plus.¹² L'écart entre ce que le refroidissement à air peut fournir et ce que l'infrastructure IA exige s'accroît à chaque génération de GPU.

Le refroidissement direct sur puce domine en production

Le refroidissement direct sur puce est rapidement devenu la forme de refroidissement liquide la plus couramment déployée en environnement de production.¹³ Des plaques froides se montent directement sur les CPU, GPU, modules mémoire et régulateurs de tension. Un système en boucle fermée fait circuler le liquide de refroidissement à travers ces plaques, évacuant la chaleur à la source.¹⁴

Les systèmes GB200 NVL72 et GB300 NVL72 de NVIDIA utilisent le refroidissement liquide direct sur puce comme configuration standard.¹⁵ Contrairement au refroidissement par évaporation ou par immersion, le refroidissement liquide du NVL72 fonctionne comme un système en boucle fermée où le liquide de refroidissement ne s'évapore pas et ne nécessite pas de remplacement, économisant ainsi l'eau.¹⁶ L'architecture offre un potentiel de revenus 40 fois supérieur, un débit 30 fois plus élevé, une efficacité énergétique 25 fois meilleure et une efficacité hydrique 300 fois supérieure aux systèmes traditionnels refroidis par air.¹⁷

Les solutions de refroidissement direct sur puce gèrent désormais jusqu'à 1 600 watts par composant, permettant une densité de serveurs 58 % plus élevée par rapport au refroidissement à air tout en réduisant la consommation énergétique de l'infrastructure de 40 %.¹⁸ Le système DLC-2 de Supermicro pour NVIDIA HGX B200 capture jusqu'à 98 % de la chaleur du système en refroidissant par liquide les CPU, GPU, DIMM, switches PCIe, régulateurs de tension et alimentations, permettant un fonctionnement silencieux du centre de données avec des niveaux sonores aussi bas que 50 décibels.¹⁹

Accelsius a atteint deux jalons thermiques avec sa technologie NeuCool : le refroidissement réussi de 4 500 watts par socket GPU et le maintien de températures GPU sûres dans un rack IA de 250 kilowatts à pleine charge utilisant de l'eau chaude à 40°C.²⁰ La capacité d'utiliser de l'eau chaude plutôt que de l'eau réfrigérée réduit les besoins en infrastructure de refroidissement et les coûts d'exploitation.

Le refroidissement par immersion s'adapte aux densités extrêmes

Le refroidissement par immersion plonge les serveurs dans un fluide diélectrique, atteignant plus de 100 kilowatts par rack et, dans certaines configurations, jusqu'à 250 kilowatts.²¹ Des systèmes comme l'ICEraQ de GRC atteignent une capacité de refroidissement jusqu'à 368 kilowatts par système tout en maintenant une efficacité énergétique (PUE) inférieure à 1,03.²² Cette approche élimine entièrement les ventilateurs et permet aux opérateurs de concentrer 10 à 15 fois plus de capacité de calcul dans le même espace.²³

Le marché du refroidissement par immersion pour centres de données a atteint 4,87 milliards de dollars en 2025 et atteindra 11,10 milliards de dollars d'ici 2030 avec un taux de croissance annuel composé de 17,91 %.²⁴ Les systèmes monophasés conservent la plus grande part de marché en raison de la familiarité d'installation, mais les conceptions biphasées remportent les projets pilotes où la densité extrême et les architectures sans pompe s'avèrent essentielles.²⁵

Comparé au refroidissement à air traditionnel, le refroidissement par immersion monophasé réduit la demande d'électricité jusqu'à près de moitié, contribue à des réductions d'émissions de CO2 jusqu'à 30 %, et permet une consommation d'eau jusqu'à 99 % inférieure.²⁶ Les gains d'efficacité se traduisent directement par un délai de rentabilisation plus court pour les services d'IA. La capacité à optimiser l'utilisation de chaque mètre carré reste le levier économique le plus puissant motivant l'adoption à l'échelle hyperscale.²⁷

En mai 2025, Intel s'est associé à Shell Global Solutions pour lancer la première solution de refroidissement par immersion certifiée Intel pour les processeurs Xeon de 4e et 5e génération, permettant une gestion thermique haute performance à l'échelle de production.²⁸ Ce partenariat indique que le refroidissement par immersion a atteint les niveaux de certification et de support requis par les déploiements d'entreprise.

Les déploiements des hyperscalers établissent la norme

Les clusters Azure AI de Microsoft, les déploiements TPU de Google et les nœuds d'entraînement du modèle LLaMA de Meta sont tous passés au refroidissement liquide.²⁹ Le superordinateur IA avancé de Microsoft, dévoilé en 2025, comprend exclusivement des racks refroidis par liquide supportant les charges de travail d'entraînement GPT-Next.³⁰ Les engagements des hyperscalers valident le refroidissement liquide comme une infrastructure prête pour la production plutôt qu'une technologie expérimentale.

HPE a livré sa première solution de la famille NVIDIA Blackwell, le GB200 NVL72, en février 2025.³¹ HPE a construit sept des dix superordinateurs les plus rapides au monde, établissant une expertise approfondie en refroidissement liquide direct.³² Les architectures de référence de l'entreprise fournissent des plans directeurs pour les déploiements d'entreprise.

L'architecture de référence de Vertiv pour les serveurs NVIDIA GB200 NVL72 réduit la consommation énergétique annuelle de 25 %, diminue les besoins en espace rack de 75 % et réduit l'empreinte électrique de 30 %.³³ L'infrastructure de refroidissement liquide de Schneider Electric supporte jusqu'à 132 kilowatts par rack pour les centres de données IA GB200 NVL72.³⁴ L'écosystème de fournisseurs propose désormais des solutions clés en main plutôt que de nécessiter une ingénierie personnalisée.

Meta a développé le refroidissement liquide assisté par air (Air-Assisted Liquid Cooling) avec Microsoft comme solution hybride et rénovable.³⁵ Cette approche a permis à Meta de commencer à intégrer le refroidissement liquide sans remanier l'ensemble de son infrastructure refroidie par air, démontrant des voies de transition pragmatiques pour les organisations disposant d'installations existantes.

Les défis de la rénovation persistent

La rénovation d'un centre de données en exploitation pour accueillir des processeurs plus puissants présente des défis techniques et logistiques significatifs.³⁶ Certains opérateurs concluent que construire de nouvelles installations s'avère plus facile que de mettre à niveau les existantes.³⁷ La décision dépend de l'âge de l'installation, de sa durée de vie utile restante et de l'ampleur des déploiements IA prévus.

Le refroidissement liquide nécessite une infrastructure spécialisée comprenant des unités de distribution de liquide, des plaques froides, des cuves d'immersion et des pompes de liquide de refroidissement.³⁸ La rénovation implique la modification des racks de serveurs, l'ajout de systèmes de prévention des fuites et la conformité réglementaire.³⁹ Les sites existants (brownfield) font face à des limitations architecturales et d'infrastructure que les projets nouveaux (greenfield) évitent.

Les taux d'adoption plus faibles pour les solutions nécessitant une infrastructure intensive comme le refroidissement par immersion, à 20,4 % parmi les sites existants, reflètent des contraintes pratiques.⁴⁰ Ces contraintes incluent une rénovation extensive pour accueillir les cuves, un espace au sol limité et des défis d'intégration avec l'infrastructure électrique et de refroidissement existante.⁴¹ Les sites existants semblent plus susceptibles d'adopter des solutions incrémentales comme le refroidissement liquide-air qui évitent une refonte complète de l'infrastructure.⁴²

Schneider Electric s'est associé à NVIDIA sur trois conceptions de référence pour la rénovation destinées aux opérateurs de centres de données cherchant des améliorations de performance sans reconcevoir les installations de zéro.⁴³ Ces conceptions reconnaissent que la plupart des organisations ne peuvent pas construire de nouveaux centres de données IA et doivent travailler dans les contraintes existantes.

La complexité opérationnelle augmente

Parce que les systèmes liquides ne refroidissent que les puces, un refroidissement à air complémentaire gère encore 20 % à 30 % de la charge thermique totale.⁴⁴ Les architectures de refroidissement hybrides nécessitent une expertise que de nombreuses organisations n'ont pas en interne.⁴⁵ Le changement opérationnel s'avère aussi significatif que la mise à niveau mécanique elle-même.

Le refroidissement liquide introduit de nouvelles exigences opérationnelles : détection des fuites, redondance hydraulique, contrôle qualité du liquide de refroidissement et montée en compétences des techniciens.⁴⁶ Les équipes d'exploitation traditionnelles des centres de données peuvent ne pas avoir d'expérience avec la plomberie, les pompes et les échangeurs de chaleur à l'échelle exigée par l'infrastructure IA. L'écart de compétences affecte les délais de déploiement et les opérations en cours.

ZutaCore a développé des systèmes de refroidissement liquide direct sur puce supportant la superpuce GB200, qui combine les processeurs NVIDIA Grace ARM avec les GPU Blackwell.⁴⁷ Les solutions tierces élargissent les options mais compliquent également la gestion des fournisseurs et les arrangements de support.

Les problèmes de chaîne d'approvisionnement pourraient compliquer les plans de refroidissement hybride, potentiellement aggravés par les changements de politique commerciale.⁴⁸ L'augmentation rapide de la puissance de calcul signifie que les centres de données à la pointe aujourd'hui pourraient rapidement prendre du retard.⁴⁹ Concevoir des installations avec une capacité pour les futures densités de puissance s'avère difficile quand la cible continue de bouger.

Schémas d'adoption régionaux

L'Amérique du Nord mène l'adoption du marché grâce aux déploiements à l'échelle de production par les fournisseurs cloud hyperscale.⁵⁰ Le marché américain passera de 1,09 milliard de dollars en 2024 à 6,39 milliards de dollars d'ici 2034.⁵¹ Les investissements des hyperscalers d'AWS, Google et Microsoft stimulent l'adoption tandis que les entreprises suivent leur exemple.

L'Asie-Pacifique affiche la croissance la plus forte alors que le Japon, la Chine et la Corée du Sud défendent les clusters IA refroidis par liquide.⁵² Le refroidissement à air conventionnel s'avère prohibitif dans les climats chauds et humides.⁵³ Le refroidissement par immersion offre des solutions durables et peu encombrantes particulièrement adaptées aux conditions régionales. L'Asie-Pacifique mène le marché mondial du refroidissement par immersion tout au long de la période de prévision.⁵⁴

La distribution géographique reflète à la fois les considérations climatiques et la concentration des investissements en infrastructure IA. Les régions avec des programmes de développement IA agressifs stimulent l'innovation en matière de refroidissement par nécessité.

Considérations de planification stratégique

Les organisations planifiant une infrastructure IA doivent intégrer le refroidissement liquide dans leurs décisions d'installation et de budget. Le choix entre le refroidissement direct sur puce et le refroidissement par immersion dépend de l'échelle de déploiement, des contraintes de rénovation et des capacités opérationnelles.

Pour les nouveaux déploiements, le refroidissement liquide devrait être la spécification par défaut pour tout rack dépassant 30 kilowatts. Planifier pour des densités de plus de 100 kilowatts anticipe les feuilles de route GPU jusqu'en 2027. Les installations conçues aujourd'hui sans infrastructure de refroidissement liquide feront face à des rénovations coûteuses ou à un remplacement dans les années à venir.

Pour les installations existantes, évaluez honnêtement la faisabilité de la rénovation. Les conceptions de référence de Schneider Electric fournissent des points de départ, mais un travail d'ingénierie significatif reste nécessaire. Les approches hybrides qui superposent le refroidissement liquide à l'infrastructure refroidie par air offrent des voies incrémentales d'évolution.

[Contenu tronqué pour la traduction]

Demander un devis_

Parlez-nous de votre projet et nous vous répondrons sous 72 heures.

> TRANSMISSION_TERMINÉE

Demande reçue_

Merci pour votre demande. Notre équipe examinera votre requête et vous répondra sous 72 heures.

EN ATTENTE DE TRAITEMENT