冷却分配ユニット:AIデータセンター向け液体冷却インフラストラクチャ

冷却分配ユニット:AIデータセンター向け液体冷却インフラストラクチャ

冷却分配ユニット:AIデータセンター向け液体冷却インフラストラクチャ

2025年12月11日更新

2025年12月更新: 液体冷却市場は2025年に55億ドルに達し、2030年までに158億ドル(年平均成長率23%)に拡大すると予測されています。700W TDPのH200 GPUは大規模展開において液体冷却が必須となります。NVIDIA Kyberラック(2027年)は1ラックあたり600kW〜1MWを必要とする見込みです。Supermicroは従来の2倍の容量となる250kW CDUをリリース。CDUはトリプル冗長アーキテクチャと100msフェイルオーバーにより99.999%の可用性を達成しています。

2025年は液体冷却が最先端技術から標準装備へと転換した年となりました。実験的な導入に限定されることなく、液体冷却は現在AIインフラストラクチャの重要な実現技術として機能しています。¹ NVIDIA H200 GPUを展開するデータセンター事業者は、空冷ではコスト効率よく大規模に除去できないデバイスあたり700Wの熱負荷に直面しています。² この傾向は今後さらに加速し、2027年に登場予定のNVIDIA Kyberラックは当初600kW、最大1MWをラックあたり必要とし、前例のない熱負荷を除去できる液体冷却インフラストラクチャが求められます。³

データセンター液体冷却市場は2025年に55.2億ドルに達し、2030年までに157.5億ドル、年平均成長率23.31%で拡大すると予測されています。⁴ 別の分析では、2025年の28.4億ドルから2032年までに211.5億ドル、年平均成長率33.2%で成長すると予測されています。⁵ 冷却分配ユニット(CDU)はこの移行を可能にする中核インフラストラクチャを形成し、施設の水システムとIT機器間の冷却水循環を管理しながら、AIハードウェアが要求する精密な温度を維持します。

CDUが大規模な液体冷却を可能にする仕組み

冷却分配ユニットは、施設の冷却インフラストラクチャとラックレベルの液体冷却システム間のインターフェースとして機能します。CDUはIT機器に供給する二次ループから、施設のチラーや冷却塔に接続された一次ループへの熱移動を管理します。

熱交換アーキテクチャは、様々な冷却液に対応する316ステンレス鋼プレート熱交換器を採用しています。⁶ 熱交換器はIT冷却ループを施設水から分離し、汚染を防止しながら効率的な熱移動を可能にします。最大流量は毎分3,600リットルに達し、迅速な熱吸収と移動を実現します。⁷

温度制御は精密な条件を維持します。CDUはアプリケーション要件に応じて-20°Cから+70°Cまでの温度範囲を達成します。⁸ 厳密な温度制御はGPUのサーマルスロットリングを防止し、一貫した計算性能を維持します。

圧力管理は設置の柔軟性を実現します。50 psi以上のヘッド圧力により、CDUとサーバーラック間の長距離配管が可能になります。⁹ デュアル可変速駆動(VSD)ポンプは冷却需要に対する動的応答を提供しながら、エネルギー効率を向上させます。¹⁰

信頼性機能は可用性を確保します。最新のCDUは重要コンポーネント用の1:1ホットスタンバイを備えたトリプル冗長アーキテクチャを採用しています。¹¹ メインモジュール障害時、バックアップシステムは100ミリ秒以内にシームレスに切り替わり、99.999%のシステム可用性を達成します。¹²

エネルギー効率は運用コスト削減をもたらします。空冷ユニットと比較して、CDUは同等の冷却容量に対して20〜30%少ない電力を消費します。¹³ 効率向上は、冷却が総電力消費の大きな部分を占める大規模AI展開全体で複合的な効果をもたらします。

AIワークロード向けCDU容量

AIサーバーの電力密度がCDUのサイジング要件を決定します。単一のNVIDIA GB200 GPUのTDPは1.2kWです。8基のGPUと2基のCPUを搭載した典型的なGB200 NVL72サーバーの総TDPは10kWに達します。¹⁴ CDU容量はこれらのシステムのラック全体に対応できるようスケールする必要があります。

エントリーレベル構成は中程度の密度に対応します。Boydの10U Liquid-to-Air CDUは、熱負荷とアプローチ温度要件に応じて最大15kWの容量を提供します。¹⁵ このようなユニットはエッジ展開や低密度コロケーション環境に適しています。

ミッドレンジシステムは高密度ラックをサポートします。ChilldyneのCF-CDU300は最大300kWのサーバーを冷却します。¹⁶ 標準42Uラック内で50kWサーバークラスター冷却を達成するシステムにより、大規模なAIワークロードの統合が可能になります。¹⁷

高容量プラットフォームはハイパースケール展開に対応します。MotivairのCDUは6つの標準モデルとカスタムOEM構成を提供し、2.3MWのIT負荷までスケールします。¹⁸ Supermicroは2025年6月に、従来の2倍の容量となる250kW CDUを搭載したNVIDIA Blackwellラックスケールソリューションをリリースしました。¹⁹

エンタープライズスケールシステムはデータセンター全体の要件に対応します。Traneの次世代CDUは、ハイパースケールおよびコロケーション環境における直接チップ液体冷却用に最大10MWの冷却容量を提供します。²⁰

設置計画は物理的制約に注意を払う必要があります。CDUとラック間の理想的な距離は20メートルを超えてはなりません。²¹ 満水のCDUは最大3トンに達する可能性があるため、床荷重容量は800kg/m²に達する必要があります。²² メンテナンススペース要件には、前後1.2メートル、配管接続用に上部0.6メートルが含まれます。²³

ブラウンフィールドアップグレード向けリアドア熱交換器

リアドア熱交換器(RDHx)はサーバーラックの背面に取り付けられ、排気がデータセンター環境に入る前に熱を除去します。²⁴ この技術により、既存の空冷サーバーを交換することなく液体冷却のメリットを享受できます。

冷却効率は空冷のみのアプローチを大幅に上回ります。従来の空冷はRDHx構成よりも30〜60%効率が低くなります。²⁵ この改善は、空冷が温度維持に苦労する高密度環境で複合的な効果をもたらします。

容量の進化は増加するラック密度に対応します。MotivairのChilledDoorはラックあたり最大72kWを冷却します。²⁶ OptiCool Technologiesは2025年9月に、次世代AIおよびHPCワークロード向けに特別設計された業界最高容量の120kW RDHxを発表しました。²⁷

独自の冷却アプローチは性能限界を押し広げます。OptiCoolの二相冷媒設計は相変化熱力学を使用し、ラックから熱を除去して室温に近い周囲温度で空気を戻します。²⁸ このアプローチは単相液体システムよりも高い熱移動効率を達成します。

アクティブ対パッシブ設計は異なるトレードオフを提供します。パッシブRDHxはサーバーファンの気流のみに依存し、エネルギー効率とシンプルさを提供します。²⁹ アクティブRDHxは高い熱密度に対応するため内蔵ファンを組み込んでおり、より多くの電力を消費しますが、高性能コンピューティング環境に対してより大きな柔軟性を提供します。³⁰

レガシーインフラストラクチャ互換性により、RDHxはブラウンフィールド展開にとって魅力的です。既存の空冷サーバーラックのレトロフィットは、液体冷却サーバーへの移行よりもコストが低く、混乱も少なくなります。³¹ 空冷ハードウェアで実行されるAI推論ワークロードは、施設全体のインフラストラクチャ改修なしにRDHxの恩恵を受けます。³²

業界標準化はOpen Compute Projectを通じて加速しています。Door Heat Exchanger Sub-ProjectはORV3(Open Rack Version 3)フレームワーク内でのRDHxの開発、統合、標準化に焦点を当てています。³³ Schneider Electricは液体冷却市場でのポジションを強化するため、2025年2月にMotivairの支配持分を取得しました。³⁴

最大密度向け液浸冷却

液浸冷却は密閉タンク内で熱伝導性の絶縁液にサーバーを浸します。³⁵ このアプローチは最高密度の展開を可能にしながら、冷却エネルギー消費を劇的に削減します。

単相液浸は液体を全工程で液体状態に保ちます。熱交換器を通じた冷却液の循環により吸収された熱を除去します。³⁶ このアプローチは従来の空冷と比較して電力需要をほぼ半減させ、CO2排出量を最大30%削減し、水消費量を99%削減します。³⁷

二相液浸は熱源で液体を蒸気に沸騰させます。コンデンサーコイルが蒸気を液体状態に戻します。³⁸ 二相システムは大量の熱を引き出す効率が高く、HPCおよびAIインフラストラクチャにより適しています。³⁹

密度改善はデータセンターの経済性を変革します。液浸冷却により、事業者は同じ床面積に10〜15倍の計算能力を詰め込むことができ、AIサービスの収益化までの時間短縮に直結します。⁴⁰ この統合により、平方フィートあたりの容量を増加させながら不動産要件を削減します。

エネルギー効率は劇的なレベルに達します。Submerによると、液浸冷却は冷却システムのエネルギー消費を最大95%削減します。⁴¹ この節約は展開期間全体で高い設備投資コストを相殺します。

業界の検証により信頼性が構築されています。IntelとShellはSupermicroとSubmerのハードウェアを使用した完全な液浸ソリューションを検証し、「Intel Data Center Certified for Immersion Cooling」を冷却効率の業界標準として確立しました。⁴² Submerは液浸タンクのメンテナンス用自律ロボットを導入し、サーバーの取り扱いを簡素化しました。⁴³

コストの考慮事項は慎重な分析が必要です。包括的な液浸展開には、専用タンク、耐荷重サポート、漏洩検知システム、冷却液取り扱い機器が必要であり、ラックあたりの設置コストは50,000ドルを超え、同等の空冷システムの約3倍になります。⁴⁴ 稼働中のサイトのレトロフィットでは、床下プレナム、ケーブルトレイ、電源経路の再ルーティングを稼働を維持しながら行う必要があり、複雑さが増します。⁴⁵

技術の成熟度は進化を続けています。液浸は比較的未成熟であり、長期的な性能と信頼性に関する過去のデータは最小限です。⁴⁶ しかし、ハイパースケーラーやAIインフラストラクチャプロバイダーによる採用の加速により、運用経験が急速に蓄積されています。

液体冷却技術スタック

異なる冷却技術は異なる展開シナリオに対応します。最適なアプローチは熱密度、既存インフラストラクチャ、運用要件によって決まります。

コールドプレート冷却(直接チップ冷却またはD2C)は最も急成長しているセグメントを代表します。⁴⁷ コールドプレートは発熱コンポーネントに直接取り付けられ、液体を循環させて熱負荷を除去します。このアプローチは液浸代替よりも既存のラックインフラストラクチャとの統合が容易です。

ハイブリッドアーキテクチャは複数のアプローチを組み合わせます。CDUは最高発熱コンポーネント用のコールドプレートシステムに対応し、RDHxは空冷コンポーネントからの残りの熱負荷を処理します。この組み合わせは完全なインフラストラクチャ交換を必要とせずに冷却効率を最大化します。

OCP準拠は相互運用性を確保します。NidecはGoogle Open Compute Project仕様に準拠したProject Deschutes CDUプロトタイプを開発し、SC25で展示しました。⁴⁸ 標準化されたインターフェースにより、ベンダー間でのコンポーネントの相互運用性が可能になります。

ラック密度の進化は要件を継続的に推進しています。Omdiaによると、10kW未満のラックは2024年に設置容量の47%を占めていましたが、2025年には38%に低下しました。⁴⁹ 一方、10〜20kWラックは27%から30%に、20〜30kWラックは24%から28%に上昇しました。⁵⁰ この密度シフトが液体冷却の採用を加速させています。

主要CDUベンダーと最近の動向

競争環境は、確立された熱管理企業とAIインフラストラクチャをターゲットとする新規参入企業にまたがっています。

Vertivは液体冷却の基礎を説明する教育リソースとともに包括的なCDUソリューションを提供しています。同社のAI Hubイニシアチブは、CDU技術を次世代インフラストラクチャの中心として位置付けています。⁵¹

Schneider Electricは2025年2月のMotivair買収を通じて液体冷却のポジションを強化しました。⁵² 統合されたポートフォリオはRDHx、CDU、統合液体冷却ソリューションに対応しています。

Supermicroは2025年6月に250kW CDUを搭載したNVIDIA Blackwellラックスケールソリューションをリリースしました。⁵³ このシステムは最大密度展開向けの統合コンピューティングと冷却設計を実証しています。

Traneはハイパースケール環境向けに10MW容量に達するエンタープライズスケールCDUを提供しています。⁵⁴ 同社はエネルギー効率と施設レベルの熱インフラストラクチャとの統合を重視しています。

Motivairはラックあたり72kWに達するChilledDoor RDHxと2.3MWまでスケールするCDUプラットフォームを開発しました。⁵⁵ Schneiderによる買収により、グローバル展開の拡大が見込まれています。

Submerは自律メンテナンスロボットを含む革新で液浸冷却を専門としています。⁵⁶ Intelとのパ

[翻訳のためコンテンツ省略]

お見積り依頼_

プロジェクトについてお聞かせください。72時間以内にご回答いたします。

> TRANSMISSION_COMPLETE

リクエストを受信しました_

お問い合わせありがとうございます。弊社チームがリクエストを確認し、72時間以内に回答いたします。

QUEUED FOR PROCESSING