AIワークロードの指数関数的な成長により、データセンターの冷却は重要な変曲点に押し上げられています。GPUラック密度が50kWを超えて急上昇し、次世代システムでは100kW以上が要求される中、従来の空冷は根本的な物理的限界に達しています。この包括的な分析では、業界が先進的な液冷技術を通じてこの熱的変革をどのように進めているかを明らかにし、10-21%のエネルギー削減、冷却コストの40%削減を実現し、AI革命に必要なインフラストラクチャを可能にしています。
空気がボトルネックとなる場合
高密度環境における空冷の限界は段階的ではなく、崖のような急激な変化です。ラック当たり50kWでは、物理法則が厳しくなります:冷却には20°Fの温度差で7,850立方フィート毎分(CFM)の風量が必要です。これを100kWに倍増すると、15,700 CFMが必要となり、わずか2-4平方インチのサーバー吸気口にハリケーン級の風が吹き込むことになります。基本的な熱除去方程式(Q = 0.318 × CFM × ΔT)は、克服不可能な課題を示しています:密度が増加するにつれて、必要な風量は直線的にスケールしますが、ファンの消費電力はファン速度の3乗でスケールします。風量を10%増加させると、ファンの消費電力は33%増加し、高密度空冷を経済的にも実用的にも不可能にするエネルギー消費のスパイラルを生み出します。
実世界の証拠がこれらの理論的限界を裏付けています。ある記録されたケースでは、わずか6kWの250台のラックが、冷却が故障した際に72°Fから90°F超まで75秒で上昇しました。5-10kWの平均ラック密度向けに設計された従来のデータセンターでは、現代のGPUワークロードに対応できません。高度なホット/コールドアイル封じ込めシステムを使用しても、空冷は40kWを超えると困難になり、封じ込めのないシステムでは、熱風の再循環により20-40%の容量損失が発生します。高密度機器向けに明確に作成された新しいASHRAE H1環境クラスでは、許容温度を18-22°Cに制限していますが、これはGPU規模での空冷では維持不可能な範囲です。
液体冷却技術が可能性を変革する。
液体冷却への移行は段階的な改善以上の意味を持つ—これは熱除去の根本的な再構築である。水の熱伝達係数は空気の3,500倍であり、100kW+のラックを例外的ではなく日常的なものにする冷却能力を可能にする。
ダイレクト・トゥ・チップ冷却が変革をリードしており、マイクロチャネル(27-100ミクロン)を備えたコールドプレートをプロセッサに直接取り付ける。供給水温40°C、戻り水温50°Cで動作し、これらのシステムは液体によってラック熱量の70-75%を除去しながら、1.02-1.03の部分PUEを維持する。現代の実装では、9kWサーバーに対して毎分13リットルの流量で1チップあたり1.5kW+をサポートする。残りの25-30%の熱量—メモリ、ドライブ、補助コンポーネントからの—は依然として空冷を必要とするため、これらのハイブリッドシステムが大部分の導入における実用的な選択となっている。
イマージョン冷却はさらなる境界を押し広げ、サーバー全体を誘電体流体に浸漬する。ミネラルオイルを使用する単相システムはガロンあたり50-100ドルのコストで、一貫してラックあたり200kWをサポートする。二相システムは沸騰と凝縮を通じて優れた熱伝達を約束するが、課題に直面している:フッ素化炭素流体はガロンあたり500-1000ドルのコストがかかり、環境への懸念から3Mが2025年までに生産を中止することで採用が凍結されている。この技術の複雑さ—密封された筐体、キャビテーションリスク、PFAS規制—により、導入は特殊用途に限定されている。
冷却剤分配ユニット(CDU)は液体冷却インフラストラクチャの基盤を形成する。現代のユニットは7kWのラックマウントシステムからCoolITのCHx2000のような2,000kW+の大型機まで幅広い。主要ベンダー—Vertiv、Schneider Electric、Motivair、CoolIT—は、N+1冗長性、50ミクロンフィルタリング、負荷マッチングのための可変周波数駆動を備えたソリューションを提供している。2024年に10億ドルと評価されたCDU市場は、2031年までに36億ドル(年平均成長率20.5%)に達すると予測されており、液体冷却の急速な採用を反映している。
レトロフィットの技術と経済性
既存のデータセンターを液体冷却に移行するには、慎重なオーケストレーションが必要です。最も成功するアプローチは段階的移行です:1-2台の高密度ラックから開始し、1列に拡張し、需要に基づいてスケールします。3つの主要なレトロフィット手法が登場しています:既存の空調を活用する液体-空気CDU、ラック当たり最大40kWまで冷却可能なリアドア熱交換器、そして最大効率のためのダイレクト・トゥ・チップソリューションです。
インフラストラクチャの改修が主要な課題となります。電力インフラがしばしば制限要因となります—平均5-10kW負荷向けに設計された施設では、冷却能力に関係なく50kW+のラックをサポートできません。配管は、二重床環境では慎重なCFDモデリング、またはスラブ構造では滴下パンを備えたオーバーヘッド設置が必要です。床荷重は、特に浸漬システムでは、古い施設の構造容量を超える可能性があります。
コスト分析では、初期投資が高いにもかかわらず、魅力的な経済性が明らかになります。カリフォルニア州エネルギー委員会の研究では、17ラックにわたる1,200台のサーバー用完全液体冷却システムが、施設改修を含めて総費用$470,557、つまりサーバー当たり$392で実現したことが記録されています。年間355MWh($0.11/kWhで$39,155)のエネルギー節約により12年のシンプルペイバックを実現しますが、最適化された実装では2-5年のリターンを達成します。Schneider Electricの分析では、4倍のラック圧縮により14%の設備投資削減を示し、運用コスト削減にはデータセンター総電力の10.2%削減とTotal Usage Effectivenessの15.5%改善が含まれます。
ハイブリッド環境では統合の課題が増大します。「完全液体冷却」施設でも、補助コンポーネント用に20-30%の空気冷却容量が必要です。制御システムは複数の冷却技術を調整し、ラック吸気温度と供給水条件の両方を監視する必要があります。冗長性が重要になります—リアドア熱交換器は、メンテナンス時に開放された際に空気冷却にフェイルオーバーする必要があり、ダイレクト・トゥ・チップシステムはフル負荷時に10秒未満のライドスルー時間しかありません。
パイロットから本格運用へ
実際の導入事例が液体冷却技術の成熟度を示している。Metaは大規模導入を主導し、4,000万平方フィート超のデータセンタースペースにわたってAir-Assisted液体冷却を実装している。同社のCatalinaラック設計は72基のGPUで140kWをサポートし、施設全体の液体冷却導入は2025年初頭の完了を目標としている。この変革では、AI最適化された再設計のために建設中の複数のデータセンターを廃棄する必要があり、新しいアーキテクチャから31%のコスト削減を見込んでいる。
Googleの液体冷却TPUによる7年間の取り組みは、業界で最も包括的なデータセットを提供している。ギガワット規模で2,000台超のTPU Podに閉ループシステムを導入し、99.999%の稼働率を達成しながら、空冷の30倍の熱伝導率を実証している。同社の第5世代CDU設計であるProject Deschutesは、Open Compute Projectに貢献される予定で、業界全体の導入を加速させる。
Microsoftは本格運用環境で二相浸漬冷却の限界に挑戦し、122°F(水より50°C低い)で沸騰する誘電流体を使用している。この技術により、冷却ファンを不要にしながらサーバー電力を5-15%削減できる。2024年までに95%の水使用量削減という同社のコミットメントが、閉ループ・無蒸発システムのイノベーションを推進している。
CoreWeaveのような専門プロバイダーは、AIワークロード向けの液体冷却を実証している。2024年末までに4,000基のGPU導入を計画しており、競合他社よりも20%優れたシステム利用率で130kWのラック密度を実現している。同社のrail最適化設計は信頼性向上により310万GPU時間を節約し、H100クラスターを60日以内に導入している。
## AI アクセラレータの熱的要求への対応
GPU仕様を見ると、液冷が必須となった理由が明らかになります。NVIDIA H100 SXM5は700W TDPで動作し、最適なパフォーマンスには液冷が必要です。H200は同じ電力エンベロープを維持しながら、4.8TB/sで141GBのHBM3eメモリを提供—1.4倍のバンド幅で、それに比例した熱を発生させます。今後登場するB200はさらに限界を押し上げます:液冷版では1,200W対空冷版の1,000W、20 PFLOPS FP4パフォーマンスには高度な熱管理が求められます。
GB200 NVL72—単一ラックに72個のBlackwell GPUと36個のGrace CPUを搭載—は空冷の実用性の終点を表しています。140kWのラック電力で、新開発のコールドプレートと250kW CDUによる液冷が必須となります。システムレベルの考慮事項が複雑さを増大させます:NVSwitchインターコネクトがそれぞれ10-15Wを追加し、高速メモリと電源供給システムが相当な追加熱量を発生させます。
JetCoolによる技術解析では、パフォーマンスに大きな差があることが実証されています:同社のH100 SmartPlateは0.021°C/Wの熱抵抗を実現し、60°Cの入口温度をサポートしながら、空冷代替品より35°C低温でチップを動作させます。この温度削減により理論的にはGPUの寿命が8倍延び、継続的な最大パフォーマンスを可能にします—数週間にわたるAI訓練実行には重要な要素です。
## 2030年へのロードマップ
業界は、ベストプラクティスが急速に必要条件へと進化する変革点に立っています。ASHRAEの新しいH1環境クラス(推奨18-22°C)は、従来のガイドラインではAIワークロードに対応できないことを認めています。Open Compute Projectの液冷標準は相互運用性を推進し、同プロジェクトのImmersion Requirements Rev. 2.10は新興技術の認定プロセスを確立しています。
二相浸漬冷却は、現在の課題にもかかわらず、2025-2027年の主流採用に向けて有望性を示しています。市場予測では、チップ当たり1,500W+を可能にする優れた熱伝達により、3億7,500万ドル(2024年)から12億ドル(2032年)への成長が示されています。Accelsius NeuCoolなどのイノベーションや廃止された3M流体の代替品は、性能を維持しながら環境への懸念に対処しています。
AI駆動最適化は即座にリターンをもたらします。Google DeepMindの実装では、リアルタイム学習により冷却エネルギーの40%削減を達成し、SiemensのWhite Space Cooling Optimizationや類似プラットフォームが普及しています。これらのシステムは故障を予測し、冷却材の化学成分を最適化し、ワークロードパターンに動的に調整します。ベンダーの91%が5年以内にユビキタスになると予想している機能です。
廃熱回収は負債を資産に変えます。Stockholm Data Parksは既にデータセンターの廃熱で1万世帯を暖房し、2035年までに都市暖房の10%を目標としています。規制圧力が採用を加速させています:ドイツは2028年までに20%の熱再利用を義務化し、CaliforniaのTitle 24は新建設において回収インフラを要求しています。ヒートポンプ技術は30-40°Cの廃熱を70-80°Cに上昇させて地域暖房に利用し、以前は廃棄されていたエネルギーから収益源を創出します。
移行の実現
液体冷却の導入を成功させるには、複数の側面にわたる戦略的計画が必要です。組織は参入障壁が最も低い液対気CDUから開始すべきですが、電力インフラを最初に評価する必要があります—電気容量が不適切であれば、冷却技術に関係なく改修の実現可能性は失われます。1-2ラックのパイロットから開始することで、スケールアップ前に学習することができ、ハイブリッド運用においては空気冷却の専門知識を維持することが重要です。
財務モデルでは、システム全体の価値を考慮する必要があります。初期投資は冷却能力1kWあたり1,000ドルから2,000ドルの範囲ですが、運用コスト削減は複利効果をもたらします:最適化された実装での施設電力27%削減、従来システムとの比較で冷却エネルギー30%節約、そして重要なことに、空気冷却では不可能な収益を生み出すAIワークロードの配備が可能になります。優れた実装では、慎重な設計により2年未満での投資回収を実現しています:非効率なチラー統合を回避することで20-30%の節約を実現し、最高密度のアプリケーションに焦点を当てることで収益を最大化します。
技術チームには新しい能力が求められます。従来のHVAC知識に加えて、スタッフは冷却剤の化学、漏れ対応プロトコル、統合制御システムを理解する必要があります。ベンダーとのパートナーシップは不可欠であることが証明されています—特殊コンポーネントの24時間365日サポートと6ヶ月間隔での定期予防メンテナンスが運用上の必要条件となります。安全プロトコルは、誘電性流体の取り扱いと圧力システム管理を含むように拡張されます。
市場は圧倒的な勢いを示しています。データセンター液体冷却市場は49億ドル(2024年)から213億ドル(2030年)への成長が予測され、CAGR27.6%となっています。単相直接チップ冷却は2025-2026年までにAIワークロードの標準となり、二相浸漬冷却は2027年までに主流採用に達します。2030年までに、1MWラックには例外ではなく標準として高度な液体冷却が必要となるでしょう。
## 結論
物理学的事実は明確です:空冷は限界に達しました。50-100kWのラック密度では、熱力学的な基本制約により、液冷は単に好ましいだけでなく必須となります。この移行は、データセンター史上最も重要なインフラ変革を意味し、新しいスキル、相当な投資、運用の変革を必要とします。しかし、その利点—10-21%の省エネルギー、40%の冷却コスト削減、8倍の信頼性向上、そして最も重要な次世代AI インフラの展開能力—により、この進化は避けられません。今日液冷をマスターする組織が明日のAIブレークスルーを支える一方で、遅れをとる組織は業界がより高い計算密度に向かって突き進む中で取り残されます。私たちは熱の壁に到達しました;液冷はそれを突破する手段なのです。
参考文献
ACM Digital Library. "Energy-efficient LLM Training in GPU datacenters with Immersion Cooling Systems." Proceedings of the 16th ACM International Conference on Future and Sustainable Energy Systems. 2025. https://dl.acm.org/doi/10.1145/3679240.3734609.
AMAX. "Comparing NVIDIA Blackwell Configurations." 2025. https://www.amax.com/comparing-nvidia-blackwell-configurations/.
———. "Top 5 Considerations for Deploying NVIDIA Blackwell." 2025. https://www.amax.com/top-5-considerations-for-deploying-nvidia-blackwell/.
arXiv. "[1309.4887] iDataCool: HPC with Hot-Water Cooling and Energy Reuse." 2013. https://ar5iv.labs.arxiv.org/html/1309.4887.
———. "[1709.05077] Transforming Cooling Optimization for Green Data Center via Deep Reinforcement Learning." 2017. https://ar5iv.labs.arxiv.org/html/1709.05077.
Attom. "Ashrae's New Thermal Guideline Update: A New High Density Trend." Expert Green Prefab Data Centers. 2025. https://attom.tech/ashraes-new-thermal-guideline-update-a-new-high-density-trend/.
Chilldyne. "High-power liquid cooling design: direct-to-chip solution requirements for 500 kW Racks." Chilldyne | Liquid Cooling. July 29, 2024. https://chilldyne.com/2024/07/29/high-power-liquid-cooling-design-direct-to-chip-solution-requirements-for-500-kw-racks/.
Compass Datacenters. "What Is Data Center Cooling?" 2025. https://www.compassdatacenters.com/data-center-cooling/.
Converge Digest. "Meta Outlines AI Infrastructure Upgrades at OCP Summit 2024." 2024. https://convergedigest.com/meta-outlinesai-infrastructure-upgrades-at-ocp-summit-2024/.
Core Winner LTD. "Comprehensive Guide to Liquid Cooling: The Future of High-Performance Data Centers and AI Deployments." 2025. https://www.corewinner.com/en/blog/detail/52.
CoreWeave. "Building AI Clusters for Enterprises 2025." 2025. https://www.coreweave.com/blog/building-ai-clusters-for-enterprises-2025.
———. "GPUs for AI Models and Innovation." 2025. https://www.coreweave.com/products/gpu-compute.
Cyber Defense Advisors. "AI-Driven Predictive Maintenance: The Future of Data Center Reliability." 2025. https://cyberdefenseadvisors.com/ai-driven-predictive-maintenance-the-future-of-data-center-reliability/.
Data Center Catalog. "Meta Plans Shift to Liquid Cooling for its Data Center Infrastructure." 2022. https://datacentercatalog.com/news/2022/meta-plans-shift-to-liquid-cooling-for-its-data-center-infrastructure.
Data Center Dynamics. "An introduction to liquid cooling in the data center." 2025. https://www.datacenterdynamics.com/en/analysis/an-introduction-to-liquid-cooling-in-the-data-center/.
———. "Hyperscalers prepare for 1MW racks at OCP EMEA; Google announces new CDU." 2025. https://www.datacenterdynamics.com/en/news/hyperscalers-prepare-for-1mw-racks-at-ocp-emea-google-announces-new-cdu/.
———. "New ASHRAE guidelines challenge efficiency drive." 2025. https://www.datacenterdynamics.com/en/opinions/new-ashrae-guidelines-challenge-efficiency-drive/.
———. "Nvidia's CEO confirms upcoming system will be liquid cooled." 2025. https://www.datacenterdynamics.com/en/news/nvidias-ceo-confirms-next-dgx-will-be-liquid-cooled/.
———. "Optimizing data center efficiency with direct-to-chip liquid cooling." 2025. https://www.datacenterdynamics.com/en/opinions/optimizing-data-center-efficiency-with-direct-to-chip-liquid-cooling/.
———. "Two-phase cooling will be hit by EPA rules and 3M's exit from PFAS 'forever chemicals'." 2025. https://www.datacenterdynamics.com/en/news/two-phase-cooling-will-be-hit-by-epa-rules-and-3ms-exit-from-pfas-forever-chemicals/.
Data Center Frontier. "8 Trends That Will Shape the Data Center Industry In 2025." 2025. https://www.datacenterfrontier.com/cloud/article/55253151/8-trends-that-will-shape-the-data-center-industry-in-2025.
———. "Best Practices for Deploying Liquid Cooled Servers in Your Data Center." 2025. https://www.datacenterfrontier.com/sponsored/article/55138161/best-practices-for-deploying-liquid-cooled-servers-in-your-data-center.
———. "Google Developing New 'Climate Conscious' Cooling Tech to Save Water." 2025. https://www.datacenterfrontier.com/cooling/article/33001080/google-developing-new-climate-conscious-cooling-tech-to-save-water.
———. "Google Shifts to Liquid Cooling for AI Data Crunching." 2025. https://www.datacenterfrontier.com/cloud/article/11430207/google-shifts-to-liquid-cooling-for-ai-data-crunching.
———. "Meta Plans Shift to Liquid Cooling for its Data Center Infrastructure." 2025. https://www.datacenterfrontier.com/cooling/article/11436915/meta-plans-shift-to-liquid-cooling-for-its-data-center-infrastructure.
———. "Meta Previews New Data Center Design for an AI-Powered Future." 2025. https://www.datacenterfrontier.com/data-center-design/article/33005296/meta-previews-new-data-center-design-for-an-ai-powered-future.
———. "OCP 2024 Spotlight: Meta Debuts 140 kW Liquid-Cooled AI Rack; Google Eyes Robotics to Muscle Hyperscaler GPUs." 2024. https://www.datacenterfrontier.com/hyperscale/article/55238148/ocp-2024-spotlight-meta-shows-off-140-kw-liquid-cooled-ai-rack-google-eyes-robotics-to-muscle-hyperscaler-gpu-placement.
———. "Pushing the Boundaries of Air Cooling in High Density Environments." 2025. https://www.datacenterfrontier.com/special-reports/article/11427279/pushing-the-boundaries-of-air-cooling-in-high-density-environments.
———. "Report: Meta Plans Shift to Liquid Cooling in AI-Centric Data Center Redesign." 2025. https://www.datacenterfrontier.com/cooling/article/33004107/report-meta-plans-shift-to-liquid-cooling-in-ai-centric-data-center-redesign.
———. "The Importance of Liquid Cooling to the Open Compute Project (OCP)." 2025. https://www.datacenterfrontier.com/sponsored/article/55134348/the-importance-of-liquid-cooling-to-the-open-compute-project-ocp.
———. "Waste Heat Utilization is the Data Center Industry's Next Step Toward Net-Zero Energy." 2025. https://www.datacenterfrontier.com/voices-of-the-industry/article/11428787/waste-heat-utilization-is-the-data-center-industrys-next-step-toward-net-zero-energy.
———. "ZutaCore's HyperCool Liquid Cooling Technology to Support NVIDIA's Advanced H100 and H200 GPUs for Sustainable AI." 2024. https://www.datacenterfrontier.com/press-releases/press-release/33038994/zutacores-hypercool-liquid-cooling-technology-to-support-nvidias-advanced-h100-and-h200-gpus-for-sustainable-ai.
Data Center Knowledge. "Data Center Retrofit Strategies." 2025. https://www.datacenterknowledge.com/infrastructure/data-center-retrofit-strategies.
———. "Hybrid Cooling: The Bridge to Full Liquid Cooling in Data Centers." 2025. https://www.datacenterknowledge.com/cooling/hybrid-cooling-the-bridge-to-full-liquid-cooling-in-data-centers.
Data Centre Review. "Making the most of data centre waste heat." June 2024. https://datacentrereview.com/2024/06/making-the-most-of-data-centre-waste-heat/.
Datacenters. "CoreWeave's Role in Google and OpenAI's Cloud Partnership Redefines AI Infrastructure." 2025. https://www.datacenters.com/news/coreweave-s-strategic-role-in-google-and-openai-s-cloud-collaboration.
Dell. "When to Move from Air Cooling to Liquid Cooling for Your Data Center." 2025. https://www.dell.com/en-us/blog/when-to-move-from-air-cooling-to-liquid-cooling-for-your-data-center/.
Digital Infra Network. "Google's megawatt move for AI: Revamping power and cooling." 2025. https://digitalinfranetwork.com/news/google-ocp-400v-liquid-cooling/.
Enconnex. "Data Center Liquid Cooling vs. Air Cooling." 2025. https://blog.enconnex.com/data-center-liquid-cooling-vs-air-cooling.
Engineering at Meta. "Meta's open AI hardware vision." October 15, 2024. https://engineering.fb.com/2024/10/15/data-infrastructure/metas-open-ai-hardware-vision/.
Fortune Business Insights. "Two-Phase Data Center Liquid Immersion Cooling Market, 2032." 2025. https://www.fortunebusinessinsights.com/two-phase-data-center-liquid-immersion-cooling-market-113122.
Google Cloud. "Enabling 1 MW IT racks and liquid cooling at OCP EMEA Summit." Google Cloud Blog. 2025. https://cloud.google.com/blog/topics/systems/enabling-1-mw-it-racks-and-liquid-cooling-at-ocp-emea-summit.
GR Cooling. "Exploring Advanced Liquid Cooling: Immersion vs. Direct-to-Chip Cooling." 2025. https://www.grcooling.com/blog/exploring-advanced-liquid-cooling/.
———. "Two-Phase Versus Single-Phase Immersion Cooling." 2025. https://www.grcooling.com/blog/two-phase-versus-single-phase-immersion-cooling/.
HDR. "Direct-To-Chip Liquid Cooling." 2025. https://www.hdrinc.com/insights/direct-chip-liquid-cooling.
HiRef. "Hybrid Rooms: the combined solution for air and liquid cooling in data centers." 2025. https://hiref.com/news/hybrid-rooms-data-centers.
HPCwire. "H100 Fading: Nvidia Touts 2024 Hardware with H200." November 13, 2023. https://www.hpcwire.com/2023/11/13/h100-fading-nvidia-touts-2024-hardware-with-h200/.
IDTechEx. "Thermal Management for Data Centers 2025-2035: Technologies, Markets, and Opportunities." 2025. https://www.idtechex.com/en/research-report/thermal-management-for-data-centers/1036.
JetCool. "Direct Liquid Cooling vs. Immersion Cooling for Data Centers." 2025. https://jetcool.com/post/five-reasons-water-cooling-is-better-than-immersion-cooling/.
———. "Liquid Cooling System for NVIDIA H100 GPU." 2025. https://jetcool.com/h100/.
Maroonmonkeys. "CDU." 2025. https://www.maroonmonkeys.com/motivair/cdu.html.
Microsoft. "Project Natick Phase 2." 2025. https://natick.research.microsoft.com/.
Microsoft News. "To cool datacenter servers, Microsoft turns to boiling liquid." 2025. https://news.microsoft.com/source/features/innovation/datacenter-liquid-cooling/.
Nortek Data Center Cooling Solutions. "Waste Heat Utilization is the Data Center Industry's Next Step Toward Net-Zero Energy." 2025. https://www.nortekdatacenter.com/waste-heat-utilization-is-the-data-center-industrys-next-step-toward-net-zero-energy/.
NVIDIA. "H200 Tensor Core GPU." 2025. https://www.nvidia.com/en-us/data-center/h200/.
Open Compute Project. "Open Compute Project Foundation Expands Its Open Systems for AI Initiative." 2025. https://www.opencompute.org/blog/open-compute-project-foundation-expands-its-open-systems-for-ai-initiative.
P&S Intelligence. "Immersion Cooling Market Size, Share & Trends Analysis, 2032." 2025. https://www.psmarketresearch.com/market-analysis/immersion-cooling-market.
PR Newswire. "Supermicro Introduces Rack Scale Plug-and-Play Liquid-Cooled AI SuperClusters for NVIDIA Blackwell and NVIDIA HGX H100/H200." 2024. https://www.prnewswire.com/news-releases/supermicro-introduces-rack-scale-plug-and-play-liquid-cooled-ai-superclusters-for-nvidia-blackwell-and-nvidia-hgx-h100h200--radical-innovations-in-the-ai-era-to-make-liquid-cooling-free-with-a-bonus-302163611.html.
———. "ZutaCore's HyperCool Liquid Cooling Technology to Support NVIDIA's Advanced H100 and H200 GPUs for Sustainable AI." 2024. https://www.prnewswire.com/news-releases/zutacores-hypercool-liquid-cooling-technology-to-support-nvidias-advanced-h100-and-h200-gpus-for-sustainable-ai-302087410.html.
Rittal. "What is Direct to Chip Cooling – and Is Liquid Cooling in your Future?" 2025. https://www.rittal.com/us-en_US/Company/Rittal-Stories/What-is-Direct-to-Chip-Cooling-and-Is-Liquid-Cooling-in-your-Future.
ScienceDirect. "Liquid cooling of data centers: A necessity facing challenges." 2024. https://www.sciencedirect.com/science/article/abs/pii/S1359431124007804.
SemiAnalysis. "Datacenter Anatomy Part 1: Electrical Systems." October 14, 2024. https://semianalysis.com/2024/10/14/datacenter-anatomy-part-1-electrical/.
———. "Datacenter Anatomy Part 2 – Cooling Systems." February 13, 2025. https://semianalysis.com/2025/02/13/datacenter-anatomy-part-2-cooling-systems/.
———. "Multi-Datacenter Training: OpenAI's Ambitious Plan To Beat Google's Infrastructure." September 4, 2024. https://semianalysis.com/2024/09/04/multi-datacenter-training-openais/.
TechPowerUp. "NVIDIA H100 PCIe 80 GB Specs." TechPowerUp GPU Database. 2025. https://www.techpowerup.com/gpu-specs/h100-pcie-80-gb.c3899.
TechTarget. "Liquid Cooling vs. Air Cooling in the Data Center." 2025. https://www.techtarget.com/searchdatacenter/feature/Liquid-cooling-vs-air-cooling-in-the-data-center.
Unisys. "How leading LLM developers are fueling the liquid cooling boom." 2025. https://www.unisys.com/blog-post/dws/how-leading-llm-developers-are-fueling-the-liquid-cooling-boom/.
Upsite Technologies. "How Rack Density and Delta T Impact Your Airflow Management Strategy." 2025. https://www.upsite.com/blog/rack-density-delta-t-impact-airflow-management-strategy/.
———. "When to Retrofit the Data Center to Accommodate AI, and When Not to." 2025. https://www.upsite.com/blog/when-to-retrofit-the-data-center-to-accommodate-ai-and-when-not-to/.
Uptime Institute. "Data Center Cooling Best Practices." 2025. https://journal.uptimeinstitute.com/implementing-data-center-cooling-best-practices/.
———. "Performance expectations of liquid cooling need a reality check." Uptime Institute Blog. 2025. https://journal.uptimeinstitute.com/performance-expectations-of-liquid-cooling-need-a-reality-check/.
Utility Dive. "The 2025 outlook for data center cooling." 2025. https://www.utilitydive.com/news/2025-outlook-data-center-cooling-electricity-demand-ai-dual-phase-direct-to-chip-energy-efficiency/738120/.
Vertiv. "Deploying liquid cooling in data centers: Installing and managing coolant distribution units (CDUs)." 2025. https://www.vertiv.com/en-us/about/news-and-insights/articles/blog-posts/deploying-liquid-cooling-in-data-centers-installing-and-managing-coolant-distribution-units-cdus/.
———. "Liquid and Immersion Cooling Options for Data Centers." 2025. https://www.vertiv.com/en-us/solutions/learn-about/liquid-cooling-options-for-data-centers/.
———. "Liquid cooling options for data centers." 2025. https://www.vertiv.com/en-us/solutions/learn-about/liquid-cooling-options-for-data-centers/.
———. "Quantifying the Impact on PUE and Energy Consumption When Introducing Liquid Cooling Into an Air-cooled Data Center." 2025. https://www.vertiv.com/en-emea/about/news-and-insights/articles/blog-posts/quantifying-data-center-pue-when-introducing-liquid-cooling/.
———. "Understanding direct-to-chip cooling in HPC infrastructure: A deep dive into liquid cooling." 2025. https://www.vertiv.com/en-emea/about/news-and-insights/articles/educational-articles/understanding-direct-to-chip-cooling-in-hpc-infrastructure-a-deep-dive-into-liquid-cooling/.
———. "Vertiv™ CoolPhase CDU | High Density Solutions." 2025. https://www.vertiv.com/en-us/products-catalog/thermal-management/high-density-solutions/vertiv-coolphase-cdu/.
WGI. "Cooling Down AI and Data Centers." 2025. https://wginc.com/cooling-down-ai-and-data-centers/.