構造化配線 vs. 液冷コンジット:100 kW以上のラック設計

AIワークロードがラック密度を100kWを超えて押し上げる中、データセンターはデータフロー用の構造化配線と熱除去用の液冷の両方をマスターしなければなりません。GPUを最高のパフォーマンスで稼働させ続けるインフラストラクチャを設計する方法を学びましょう。

構造化配線 vs. 液冷コンジット:100 kW以上のラック設計

データセンターはかつてメガワット単位で勝利を数えていましたが、今日ではラック当たりのキロワット数を自慢しています。AIワークロードが急増し、ラック密度が100 kWの大台を超える中、施設チームは新たなバランス調整に直面しています:完璧なファイバーレーンを通じてデータを流し続けながら、灼熱の熱を迅速に除去することです。その重要性は具体的に感じられます。設計を誤ればGPUが焼損し、エネルギー料金が高騰します。そのため、すべての経路、パイプ、パッチパネルは初日から十分な役割を果たさなければなりません。

100 kWの閾値

現代のGPUシェルフは現在、ラック当たり100 kW以上を消費します。これはかつて小規模変電所にのみ許される電力負荷でした。¹ これらの密度を目標とする事業者は、ケーブル設備と冷却材ネットワークの両方を第一級インフラに引き上げなければなりません。どちらかのシステムを怠れば、プレミアムなホワイトスペースが生産的なデータホールではなく、特大のスペースヒーターに変わってしまいます。

構造化配線:信頼性の基盤

構造化配線は銅線とファイバー経路を規律正しい階層で配置し、3つの重要な利点を提供します:

妨げられない空気の流れ。 束ねられたトランクがフロア下と頭上のプレナムを保護するため、CRAH装置が一貫した冷風供給を維持できます。

平均修理時間の短縮。 明確にラベル付けされたポートと事前終端カセットにより、技術者は数分以内に故障したリンクを分離して復旧できます。

信号の完全性。 高密度カセットが適切な曲げ半径を確保し、400 GbEオプティクスをマイクロベンディング損失から保護します。²

100 kWで動作する—またはそれを超える—空冷ホールは、配線が重要な空気の流れを決して阻害しない場合にのみ成功します。

液冷導管:直接的な熱抽出

空冷は概ねラック当たり50 kWを超えると効率を失います。液冷は—コールドプレートループまたは浸漬タンクを通じて—チップから熱を除去し、外部熱交換器に送ります。

優れた熱容量。 水は同じ温度上昇で、体積当たり空気の3,500倍効率的に熱を除去します。³

向上したエネルギー効率。 冷却材供給温度を下げることで、事業者はチラー設定点を上げ、本番環境でPUEを10~20%削減できます。⁴

経路の調整。 液体ホースには専用のトレイスペースが必要なため、設計チームはレイアウト段階でそれらを光ファイバートランクから分離します。

比較性能のハイライト

熱除去: 構造化配線は妨げられない空気の流れを促進する一方、液冷導管はコンポーネントレベルで直接熱を抽出します。

メンテナンス: 配線クルーはカセットを交換してリンクを迅速に検証し、冷却専門家はドライクイック・ディスコネクトを接続してリーク検査を実行します。

スペース要件: ファイバーバンドルはコンパクトなままですが、冷却材ホースはより大きな直径とより広い曲げ半径を必要とします。

故障の影響: 単一のファイバー断線は1つのリンクを分離しますが、冷却材の漏れはより広範囲のダウンタイムを引き起こす可能性があります。

スキル要件: 配線作業は低電圧ネットワーク技術者に依存しますが、液体システムは機械および流体処理の専門家を必要とします。

ほとんどのハイパースケール施設は両システムを組み合わせています:構造化配線がデータを転送し、液体導管が熱を除去します。

Introlの迅速配備手法

Introl現場チームは100,000台を超えるGPUを設置し、グローバルAIクラスター全体で40,000マイル以上のファイバーを配線してきました。⁵ 550名のエンジニアのスタッフが72時間以内に動員され、1,024台のH100ノードと35,000本のファイバーパッチを14日で設置し、完全に計装されたコンテインメントシステムをスケジュール通りに提供します。⁶

中核的な実践には以下が含まれます:

  1. 専用経路。 ホットアイル上の頭上トレイが液体ホースを運び、床下の接地バスケットがファイバートランクを運びます。

  2. 高密度ファイバー。 24芯MPOトランクがバンドル幅を最小化し、冷却材マニホールド用のスペースを創出します。

  3. 短距離マニホールド。 ラックレベルのマニホールドがホース長を短縮し、分離されたドライブレークゾーンを作成します。

  4. 分野横断的トレーニング。 ネットワーク技術者が流体処理手順の認定を受ける一方、機械スタッフがファイバー管理許容差を習得します。

持続可能性と将来の開発

ハイブリッドレースウェイは現在、シールドされたファイバーチャネルとツイン液体ループを束ね、設置を合理化し、トレイスペースを保存します。⁷ National Renewable Energy Laboratoryのエンジニアは、ラックレベルの廃熱を捕獲し、それを地域暖房グリッドに供給し、過剰な熱エネルギーをコミュニティの暖房に変えています。⁸ ASHRAEの次期ガイドラインは許容ラック吸気温度を上げ、空冷と液冷スキームのより密な統合への道を開いています。⁹

私たちのエンジニアは、すべての新しいアイデアをパイロットラボで厳格にテストし、耐える物のみを保持し、それらの勝者を実際のプロジェクト—新規建設でも既存ホールの改修でも—に展開します。その成果は明らかです:より密なラックレイアウト、より低い電力料金、そして現場チームと経営陣の両方が誇りに思える持続可能性の成果です。

結論

構造化配線はデータの整合性と運用の敏捷性を確保し、液冷導管は高密度での熱安定性を提供します。設計段階で両システムを調整する施設は、予測可能な性能、最適化されたエネルギー使用、加速された配備スケジュールを実現します。注意深い経路計画、規律正しい設置、分野横断的な専門知識が、100 kWラックを野心的なコンセプトから信頼できる現実に変えます。

参考文献 (Chicago Author-Date)

  1. Uptime Institute. Global Data Center Survey 2024: Keynote Report 146M. New York: Uptime Institute, 2024.

  2. Cisco Systems. Fiber-Optic Cabling Best Practices for 400 G Data Centers. San José, CA: Cisco White Paper, 2023.

  3. American Society of Heating, Refrigerating and Air-Conditioning Engineers. Thermal Guidelines for Data Processing Environments, 6th ed. Atlanta: ASHRAE, 2022.

  4. Lawrence Berkeley National Laboratory. Measured PUE Savings in Liquid-Cooled AI Facilities. Berkeley, CA: LBNL, 2024.

  5. Introl. "Accelerate the Future of AI with Introl Managed GPU Deployments." Accessed June 26, 2025. https://introl.com/.

  6. Introl. "Frankfurt Case Study." Accessed June 26, 2025. https://introl.com/case-studies/frankfurt.

  7. Open Compute Project. Advanced Cooling Solutions: 2025 Specification Draft. San José, CA: OCP Foundation, 2025.

  8. Huang, Wei. "Rack-Level Heat Recovery in Liquid-Cooled AI Clusters." Journal of Sustainable Computing 12, no. 3 (2024): 45–58.

  9. ASHRAE. Proposed Addendum C to Thermal Guidelines, public-review draft, January 2025.

お見積り依頼_

プロジェクトについてお聞かせください。72時間以内にご回答いたします。

> TRANSMISSION_COMPLETE

リクエストを受信しました_

お問い合わせありがとうございます。弊社チームがリクエストを確認し、72時間以内に回答いたします。

QUEUED FOR PROCESSING