Liquid Cooling vs Air: Panduan Rack GPU 50kW (2025)

GPU rack mencapai batas thermal 50kW. Liquid cooling memberikan penghematan energi 21%, pengurangan biaya 40%. Panduan penting untuk tim infrastruktur AI yang menghadapi hambatan tersebut.

Liquid Cooling vs Air: Panduan Rack GPU 50kW (2025)

Pertumbuhan eksponensial beban kerja AI telah mendorong pendinginan data center ke titik kritis yang menentukan. Seiring dengan densitas rack GPU yang melonjak melewati 50kW—dengan sistem generasi mendatang membutuhkan 100kW atau lebih—pendinginan udara tradisional telah mencapai batas fisik fundamentalnya. Analisis komprehensif ini mengungkapkan bagaimana industri menavigasi transformasi termal ini melalui teknologi pendinginan cair canggih, menghadirkan penghematan energi 10-21%, pengurangan biaya pendinginan 40%, dan memungkinkan infrastruktur yang diperlukan untuk revolusi AI.

Ketika udara menjadi hambatan

Kegagalan pendinginan udara pada kepadatan tinggi bukanlah bertahap—tetapi seperti tebing curam. Pada 50kW per rack, fisika menjadi tidak kenal ampun: pendinginan memerlukan 7.850 cubic feet per minute (CFM) aliran udara pada diferensial suhu 20°F. Gandakan menjadi 100kW, dan Anda membutuhkan 15.700 CFM—menciptakan angin berkekuatan badai melalui intake server yang hanya berukuran 2-4 inci persegi. Persamaan fundamental pembuangan panas (Q = 0,318 × CFM × ΔT) mengungkapkan tantangan yang tidak dapat diatasi: seiring meningkatnya kepadatan, aliran udara yang diperlukan meningkat secara linear, tetapi konsumsi daya kipas meningkat dengan pangkat tiga dari kecepatan kipas. Peningkatan aliran udara 10% membutuhkan daya kipas 33% lebih banyak, menciptakan spiral konsumsi energi yang membuat pendinginan udara kepadatan tinggi tidak mungkin secara ekonomis dan praktis.

Bukti dunia nyata mengkonfirmasi batas-batas teoretis ini. Satu kasus terdokumentasi menunjukkan 250 rack pada hanya 6kW naik dari 72°F menjadi lebih dari 90°F dalam 75 detik ketika pendinginan gagal. Data center tradisional yang dirancang untuk kepadatan rack rata-rata 5-10kW sama sekali tidak dapat menangani beban kerja GPU modern. Bahkan dengan containment hot/cold aisle yang canggih, pendinginan udara kesulitan melampaui 40kW, sementara sistem tanpa containment mengalami kehilangan kapasitas 20-40% dari resirkulasi udara panas. Kelas lingkungan ASHRAE H1 yang baru, yang secara eksplisit dibuat untuk peralatan kepadatan tinggi, membatasi suhu yang diizinkan hingga 18-22°C—rentang yang tidak mungkin dipertahankan dengan pendinginan udara pada skala GPU.

Teknologi liquid cooling mentransformasi yang mungkin.

Transisi ke liquid cooling mewakili lebih dari sekadar peningkatan inkremental—ini adalah reimajinasi fundamental dari pembuangan panas. Koefisien transfer panas air 3.500 kali lebih besar daripada udara, memungkinkan kapasitas pendinginan yang membuat rack 100kW+ menjadi rutinitas daripada sesuatu yang luar biasa.

Direct-to-chip cooling memimpin transformasi, dengan cold plate yang menampilkan microchannel (27-100 mikron) yang dipasang langsung ke processor. Beroperasi dengan supply water pada 40°C dan return pada 50°C, sistem ini menghilangkan 70-75% panas rack melalui liquid sambil mempertahankan partial PUE 1.02-1.03. Implementasi modern mendukung 1.5kW+ per chip dengan flow rate 13 liter per menit untuk server 9kW. Sisa 25-30% panas—dari memory, drive, dan komponen tambahan—masih memerlukan air cooling, membuat sistem hybrid ini menjadi pilihan praktis untuk sebagian besar deployment.

Immersion cooling mendorong batas lebih jauh, menenggelamkan seluruh server dalam dielectric fluid. Sistem single-phase menggunakan mineral oil seharga $50-100 per gallon dan secara konsisten mendukung 200kW per rack. Sistem two-phase menjanjikan heat transfer superior melalui boiling dan kondensasi, tetapi menghadapi tantangan: fluorocarbon fluid seharga $500-1000 per gallon, dan penghentian produksi 3M pada 2025 karena masalah lingkungan telah membekukan adopsi. Kompleksitas teknologi—sealed enclosure, risiko kavitasi, dan regulasi PFAS—membatasi deployment pada aplikasi khusus.

Coolant Distribution Unit (CDU) membentuk tulang punggung infrastruktur liquid cooling. Unit modern berkisar dari sistem rack-mount 7kW hingga raksasa 2.000kW+ seperti CoolIT CHx2000. Vendor terkemuka—Vertiv, Schneider Electric, Motivair, dan CoolIT—menawarkan solusi dengan redundansi N+1, filtrasi 50-mikron, dan variable frequency drive untuk load matching. Pasar CDU, yang bernilai $1 miliar pada 2024, diproyeksikan mencapai $3.6 miliar pada 2031 (CAGR 20.5%), mencerminkan adopsi cepat liquid cooling.

Seni dan ekonomi retrofitting

Transisi data center yang sudah ada ke liquid cooling memerlukan orkestrasi yang cermat. Pendekatan paling sukses mengikuti migrasi bertahap: dimulai dengan 1-2 rack kepadatan tinggi, berkembang ke satu baris, kemudian scaling berdasarkan permintaan. Tiga jalur retrofit utama telah muncul: CDU liquid-to-air yang memanfaatkan air conditioning yang sudah ada, rear-door heat exchanger yang dapat mendinginkan hingga 40kW per rack, dan solusi direct-to-chip untuk efisiensi maksimum.

Modifikasi infrastruktur menjadi tantangan utama. Infrastruktur power seringkali menjadi faktor pembatas—fasilitas yang dirancang untuk beban rata-rata 5-10kW tidak dapat mendukung rack 50kW+ terlepas dari kemampuan cooling. Plumbing memerlukan pemodelan CFD yang cermat di lingkungan raised-floor atau instalasi overhead dengan drip pan pada konstruksi slab. Beban lantai, khususnya untuk sistem immersion, dapat melebihi kapasitas struktural di fasilitas lama.

Analisis biaya mengungkapkan ekonomi yang menarik meskipun investasi awal tinggi. Studi California Energy Commission mendokumentasikan sistem liquid cooling lengkap untuk 1.200 server di 17 rack dengan total biaya $470.557, atau $392 per server, termasuk modifikasi fasilitas. Penghematan energi tahunan 355 MWh ($39.155 pada $0,11/kWh) menghasilkan simple payback 12 tahun, meskipun implementasi yang dioptimalkan mencapai return 2-5 tahun. Analisis Schneider Electric menunjukkan penghematan capital 14% melalui kompaksi rack 4x, sementara penghematan operasional mencakup pengurangan 10,2% total power data center dan peningkatan 15,5% dalam Total Usage Effectiveness.

Tantangan integrasi berlipat ganda di lingkungan hybrid. Bahkan fasilitas "fully liquid-cooled" memerlukan kapasitas air cooling 20-30% untuk komponen auxiliary. Sistem kontrol harus mengkoordinasikan berbagai teknologi cooling, memantau baik temperatur inlet rack maupun kondisi supply water. Redundancy menjadi kritis—rear-door heat exchanger harus fail over ke air cooling ketika dibuka untuk service, sementara sistem direct-to-chip memiliki ride-through time kurang dari 10 detik pada full load.

Dari pilot hingga produksi

Penerapan di dunia nyata menunjukkan kematangan liquid cooling. Meta memimpin adopsi dalam skala besar, mengimplementasikan Air-Assisted Liquid Cooling di lebih dari 40 juta kaki persegi ruang data center. Desain rack Catalina mereka mendukung 140kW dengan 72 GPU, sementara penerapan liquid cooling di seluruh fasilitas menargetkan penyelesaian pada awal 2025. Transformasi ini memerlukan pembatalan beberapa data center yang sedang dibangun untuk redesain yang dioptimalkan untuk AI, mengharapkan penghematan biaya 31% dari arsitektur baru.

Perjalanan tujuh tahun Google dengan TPU berpendingin liquid memberikan dataset paling komprehensif di industri. Menerapkan sistem closed-loop di lebih dari 2000 TPU Pod dalam skala gigawatt, mereka telah mencapai uptime 99,999% sambil mendemonstrasikan konduktivitas termal 30x lebih besar daripada udara. Desain CDU generasi kelima mereka, Project Deschutes, akan dikontribusikan ke Open Compute Project, mempercepat adopsi di seluruh industri.

Microsoft mendorong batas dengan two-phase immersion cooling dalam produksi, menggunakan cairan dielektrik yang mendidih pada 122°F—50°C lebih rendah dari air. Teknologi ini memungkinkan pengurangan daya server 5-15% sambil menghilangkan kipas pendingin. Komitmen mereka untuk pengurangan penggunaan air 95% pada 2024 mendorong inovasi dalam sistem closed-loop, zero-evaporation.

Penyedia khusus seperti CoreWeave mendemonstrasikan liquid cooling untuk beban kerja AI. Merencanakan penerapan 4.000 GPU pada akhir 2024, mereka mencapai kepadatan rack 130kW dengan utilisasi sistem 20% lebih baik dari kompetitor. Desain rail-optimized mereka menghemat 3,1 juta jam GPU melalui peningkatan keandalan, menerapkan cluster H100 dalam waktu kurang dari 60 hari.

Memenuhi Kebutuhan Termal Akselerator AI

Spesifikasi GPU menunjukkan mengapa liquid cooling telah menjadi wajib. NVIDIA H100 SXM5 beroperasi pada 700W TDP, memerlukan liquid cooling untuk performa optimal. H200 mempertahankan power envelope yang sama sambil menghadirkan 141GB memori HBM3e pada 4.8TB/s—bandwidth 1.4x lebih tinggi, yang menghasilkan panas proporsional. B200 yang akan datang mendorong batas lebih jauh: 1,200W untuk varian liquid-cooled versus 1,000W untuk air-cooled, dengan performa 20 PFLOPS FP4 yang menuntut thermal management canggih.

GB200 NVL72—yang menampung 72 GPU Blackwell dan 36 CPU Grace dalam satu rack—mewakili titik akhir viabilitas air cooling. Pada daya rack 140kW, memerlukan liquid cooling wajib melalui cold plate yang baru dikembangkan dan CDU 250kW. Pertimbangan tingkat sistem memperbesar kompleksitas: interkoneksi NVSwitch menambah 10-15W masing-masing, sementara memori berkecepatan tinggi dan sistem power delivery berkontribusi pada panas tambahan yang substansial.

Analisis teknis oleh JetCool menunjukkan perbedaan performa yang mencolok: SmartPlate H100 mereka mencapai resistansi termal 0.021°C/W, menjalankan chip 35°C lebih dingin dibandingkan alternatif udara sambil mendukung suhu inlet 60°C. Pengurangan suhu ini secara teoritis memperpanjang masa pakai GPU hingga 8x sambil memungkinkan performa maksimum berkelanjutan—kritis untuk training AI multi-minggu.

Roadmap menuju 2030

Industri berada di titik transformasi di mana praktik terbaik dengan cepat berkembang menjadi persyaratan. Kelas lingkungan H1 baru dari ASHRAE (18-22°C yang direkomendasikan) mengakui bahwa pedoman tradisional tidak dapat mengakomodasi beban kerja AI. Standar liquid cooling Open Compute Project mendorong interoperabilitas, sementara Immersion Requirements Rev. 2.10 mereka menetapkan proses kualifikasi untuk teknologi yang berkembang.

Two-phase immersion cooling, meskipun menghadapi tantangan saat ini, menunjukkan prospek untuk adopsi mainstream 2025-2027. Proyeksi pasar menunjukkan pertumbuhan dari $375 juta (2024) menjadi $1,2 miliar (2032), didorong oleh transfer panas yang superior memungkinkan 1.500W+ per chip. Inovasi seperti Accelsius NeuCool dan alternatif untuk cairan 3M yang dihentikan mengatasi kekhawatiran lingkungan sambil mempertahankan performa.

Optimisasi berbasis AI memberikan hasil langsung. Implementasi Google DeepMind mencapai pengurangan energi cooling 40% melalui pembelajaran real-time, sementara White Space Cooling Optimization dari Siemens dan platform serupa berkembang pesat. Sistem ini memprediksi kegagalan, mengoptimalkan kimia coolant, dan menyesuaikan secara dinamis dengan pola beban kerja—kemampuan yang diperkirakan 91% vendor akan tersebar luas dalam lima tahun.

Waste heat recovery mengubah beban menjadi aset. Stockholm Data Parks sudah memanaskan 10.000 rumah tangga dengan limbah panas data center, menargetkan 10% pemanas kota pada 2035. Tekanan regulasi mempercepat adopsi: Jerman mewajibkan 20% reuse panas pada 2028, sementara California Title 24 mewajibkan infrastruktur recovery pada konstruksi baru. Teknologi heat pump meningkatkan limbah panas 30-40°C menjadi 70-80°C untuk district heating, menciptakan aliran pendapatan dari energi yang sebelumnya terbuang.

Melakukan transisi

Kesuksesan dalam penerapan liquid cooling membutuhkan perencanaan strategis di berbagai dimensi. Organisasi sebaiknya memulai dengan CDU liquid-to-air yang sederhana untuk hambatan masuk terendah, namun harus menilai infrastruktur daya terlebih dahulu—kapasitas listrik yang tidak memadai menggugurkan kelayakan retrofit terlepas dari teknologi pendinginan yang digunakan. Memulai dengan pilot 1-2 rack memungkinkan pembelajaran sebelum melakukan scaling, sementara mempertahankan keahlian air cooling tetap kritis untuk operasi hybrid.

Pemodelan finansial harus memperhitungkan nilai sistem total. Meskipun investasi awal berkisar dari $1,000 hingga $2,000 per kW kapasitas pendinginan, penghematan operasional terakumulasi: pengurangan daya fasilitas 27% pada implementasi yang dioptimalkan, penghematan energi pendinginan 30% dibanding sistem konvensional, dan yang kritis, kemampuan untuk menerapkan AI workload yang menghasilkan revenue, yang tidak mungkin dengan air cooling. Implementasi terdepan mencapai payback di bawah 2 tahun melalui desain yang cermat: menghindari integrasi chiller yang tidak efisien menghemat 20-30%, sementara fokus pada aplikasi dengan densitas tertinggi memaksimalkan return.

Tim teknis memerlukan kompetensi baru. Selain pengetahuan HVAC tradisional, staf harus memahami kimia coolant, protokol respons kebocoran, dan sistem kontrol terintegrasi. Kemitraan vendor terbukti esensial—dukungan 24/7 untuk komponen khusus dan pemeliharaan preventif reguler dengan interval 6 bulan menjadi kebutuhan operasional. Protokol keselamatan diperluas untuk mencakup penanganan dielectric fluid dan manajemen pressure system.

Sinyal pasar menunjukkan momentum yang luar biasa. Liquid cooling data center tumbuh dari $4.9 miliar (2024) menjadi proyeksi $21.3 miliar (2030) dengan CAGR 27.6%. Single-phase direct-to-chip cooling menjadi standar untuk AI workload pada 2025-2026, sementara two-phase immersion mencapai adopsi mainstream pada 2027. Pada 2030, rack 1MW akan membutuhkan advanced liquid cooling sebagai standar, bukan pengecualian.

Kesimpulan

Fisikanya sudah jelas: pendinginan udara telah mencapai batasnya. Pada kepadatan rack 50-100kW, kendala termodinamika fundamental membuat pendinginan liquid bukan hanya lebih disukai tetapi wajib. Transisi ini merepresentasikan pergeseran infrastruktur paling signifikan dalam sejarah data center, memerlukan keterampilan baru, investasi besar, dan transformasi operasional. Namun manfaatnya—penghematan energi 10-21%, pengurangan biaya pendinginan 40%, peningkatan keandalan 8x, dan yang paling kritis, kemampuan untuk men-deploy infrastruktur AI generasi berikutnya—membuat evolusi ini tak terelakkan. Organisasi yang menguasai pendinginan liquid hari ini akan menggerakkan terobosan AI masa depan—mereka yang menunda akan tertinggal saat industri berlomba menuju kepadatan komputasi yang semakin tinggi. Kita telah mencapai dinding termal; pendinginan liquid adalah cara kita menerobosnya.

Referensi

ACM Digital Library. "Energy-efficient LLM Training in GPU datacenters with Immersion Cooling Systems." Proceedings of the 16th ACM International Conference on Future and Sustainable Energy Systems. 2025. https://dl.acm.org/doi/10.1145/3679240.3734609.

AMAX. "Comparing NVIDIA Blackwell Configurations." 2025. https://www.amax.com/comparing-nvidia-blackwell-configurations/.

———. "Top 5 Considerations for Deploying NVIDIA Blackwell." 2025. https://www.amax.com/top-5-considerations-for-deploying-nvidia-blackwell/.

arXiv. "[1309.4887] iDataCool: HPC with Hot-Water Cooling and Energy Reuse." 2013. https://ar5iv.labs.arxiv.org/html/1309.4887.

———. "[1709.05077] Transforming Cooling Optimization for Green Data Center via Deep Reinforcement Learning." 2017. https://ar5iv.labs.arxiv.org/html/1709.05077.

Attom. "Ashrae's New Thermal Guideline Update: A New High Density Trend." Expert Green Prefab Data Centers. 2025. https://attom.tech/ashraes-new-thermal-guideline-update-a-new-high-density-trend/.

Chilldyne. "High-power liquid cooling design: direct-to-chip solution requirements for 500 kW Racks." Chilldyne | Liquid Cooling. July 29, 2024. https://chilldyne.com/2024/07/29/high-power-liquid-cooling-design-direct-to-chip-solution-requirements-for-500-kw-racks/.

Compass Datacenters. "What Is Data Center Cooling?" 2025. https://www.compassdatacenters.com/data-center-cooling/.

Converge Digest. "Meta Outlines AI Infrastructure Upgrades at OCP Summit 2024." 2024. https://convergedigest.com/meta-outlinesai-infrastructure-upgrades-at-ocp-summit-2024/.

Core Winner LTD. "Comprehensive Guide to Liquid Cooling: The Future of High-Performance Data Centers and AI Deployments." 2025. https://www.corewinner.com/en/blog/detail/52.

CoreWeave. "Building AI Clusters for Enterprises 2025." 2025. https://www.coreweave.com/blog/building-ai-clusters-for-enterprises-2025.

———. "GPUs for AI Models and Innovation." 2025. https://www.coreweave.com/products/gpu-compute.

Cyber Defense Advisors. "AI-Driven Predictive Maintenance: The Future of Data Center Reliability." 2025. https://cyberdefenseadvisors.com/ai-driven-predictive-maintenance-the-future-of-data-center-reliability/.

Data Center Catalog. "Meta Plans Shift to Liquid Cooling for its Data Center Infrastructure." 2022. https://datacentercatalog.com/news/2022/meta-plans-shift-to-liquid-cooling-for-its-data-center-infrastructure.

Data Center Dynamics. "An introduction to liquid cooling in the data center." 2025. https://www.datacenterdynamics.com/en/analysis/an-introduction-to-liquid-cooling-in-the-data-center/.

———. "Hyperscalers prepare for 1MW racks at OCP EMEA; Google announces new CDU." 2025. https://www.datacenterdynamics.com/en/news/hyperscalers-prepare-for-1mw-racks-at-ocp-emea-google-announces-new-cdu/.

———. "New ASHRAE guidelines challenge efficiency drive." 2025. https://www.datacenterdynamics.com/en/opinions/new-ashrae-guidelines-challenge-efficiency-drive/.

———. "Nvidia's CEO confirms upcoming system will be liquid cooled." 2025. https://www.datacenterdynamics.com/en/news/nvidias-ceo-confirms-next-dgx-will-be-liquid-cooled/.

———. "Optimizing data center efficiency with direct-to-chip liquid cooling." 2025. https://www.datacenterdynamics.com/en/opinions/optimizing-data-center-efficiency-with-direct-to-chip-liquid-cooling/.

———. "Two-phase cooling will be hit by EPA rules and 3M's exit from PFAS 'forever chemicals'." 2025. https://www.datacenterdynamics.com/en/news/two-phase-cooling-will-be-hit-by-epa-rules-and-3ms-exit-from-pfas-forever-chemicals/.

Data Center Frontier. "8 Trends That Will Shape the Data Center Industry In 2025." 2025. https://www.datacenterfrontier.com/cloud/article/55253151/8-trends-that-will-shape-the-data-center-industry-in-2025.

———. "Best Practices for Deploying Liquid Cooled Servers in Your Data Center." 2025. https://www.datacenterfrontier.com/sponsored/article/55138161/best-practices-for-deploying-liquid-cooled-servers-in-your-data-center.

———. "Google Developing New 'Climate Conscious' Cooling Tech to Save Water." 2025. https://www.datacenterfrontier.com/cooling/article/33001080/google-developing-new-climate-conscious-cooling-tech-to-save-water.

———. "Google Shifts to Liquid Cooling for AI Data Crunching." 2025. https://www.datacenterfrontier.com/cloud/article/11430207/google-shifts-to-liquid-cooling-for-ai-data-crunching.

———. "Meta Plans Shift to Liquid Cooling for its Data Center Infrastructure." 2025. https://www.datacenterfrontier.com/cooling/article/11436915/meta-plans-shift-to-liquid-cooling-for-its-data-center-infrastructure.

———. "Meta Previews New Data Center Design for an AI-Powered Future." 2025. https://www.datacenterfrontier.com/data-center-design/article/33005296/meta-previews-new-data-center-design-for-an-ai-powered-future.

———. "OCP 2024 Spotlight: Meta Debuts 140 kW Liquid-Cooled AI Rack; Google Eyes Robotics to Muscle Hyperscaler GPUs." 2024. https://www.datacenterfrontier.com/hyperscale/article/55238148/ocp-2024-spotlight-meta-shows-off-140-kw-liquid-cooled-ai-rack-google-eyes-robotics-to-muscle-hyperscaler-gpu-placement.

———. "Pushing the Boundaries of Air Cooling in High Density Environments." 2025. https://www.datacenterfrontier.com/special-reports/article/11427279/pushing-the-boundaries-of-air-cooling-in-high-density-environments.

———. "Report: Meta Plans Shift to Liquid Cooling in AI-Centric Data Center Redesign." 2025. https://www.datacenterfrontier.com/cooling/article/33004107/report-meta-plans-shift-to-liquid-cooling-in-ai-centric-data-center-redesign.

———. "The Importance of Liquid Cooling to the Open Compute Project (OCP)." 2025. https://www.datacenterfrontier.com/sponsored/article/55134348/the-importance-of-liquid-cooling-to-the-open-compute-project-ocp.

———. "Waste Heat Utilization is the Data Center Industry's Next Step Toward Net-Zero Energy." 2025. https://www.datacenterfrontier.com/voices-of-the-industry/article/11428787/waste-heat-utilization-is-the-data-center-industrys-next-step-toward-net-zero-energy.

———. "ZutaCore's HyperCool Liquid Cooling Technology to Support NVIDIA's Advanced H100 and H200 GPUs for Sustainable AI." 2024. https://www.datacenterfrontier.com/press-releases/press-release/33038994/zutacores-hypercool-liquid-cooling-technology-to-support-nvidias-advanced-h100-and-h200-gpus-for-sustainable-ai.

Data Center Knowledge. "Data Center Retrofit Strategies." 2025. https://www.datacenterknowledge.com/infrastructure/data-center-retrofit-strategies.

———. "Hybrid Cooling: The Bridge to Full Liquid Cooling in Data Centers." 2025. https://www.datacenterknowledge.com/cooling/hybrid-cooling-the-bridge-to-full-liquid-cooling-in-data-centers.

Data Centre Review. "Making the most of data centre waste heat." June 2024. https://datacentrereview.com/2024/06/making-the-most-of-data-centre-waste-heat/.

Datacenters. "CoreWeave's Role in Google and OpenAI's Cloud Partnership Redefines AI Infrastructure." 2025. https://www.datacenters.com/news/coreweave-s-strategic-role-in-google-and-openai-s-cloud-collaboration.

Dell. "When to Move from Air Cooling to Liquid Cooling for Your Data Center." 2025. https://www.dell.com/en-us/blog/when-to-move-from-air-cooling-to-liquid-cooling-for-your-data-center/.

Digital Infra Network. "Google's megawatt move for AI: Revamping power and cooling." 2025. https://digitalinfranetwork.com/news/google-ocp-400v-liquid-cooling/.

Enconnex. "Data Center Liquid Cooling vs. Air Cooling." 2025. https://blog.enconnex.com/data-center-liquid-cooling-vs-air-cooling.

Engineering at Meta. "Meta's open AI hardware vision." October 15, 2024. https://engineering.fb.com/2024/10/15/data-infrastructure/metas-open-ai-hardware-vision/.

Fortune Business Insights. "Two-Phase Data Center Liquid Immersion Cooling Market, 2032." 2025. https://www.fortunebusinessinsights.com/two-phase-data-center-liquid-immersion-cooling-market-113122.

Google Cloud. "Enabling 1 MW IT racks and liquid cooling at OCP EMEA Summit." Google Cloud Blog. 2025. https://cloud.google.com/blog/topics/systems/enabling-1-mw-it-racks-and-liquid-cooling-at-ocp-emea-summit.

GR Cooling. "Exploring Advanced Liquid Cooling: Immersion vs. Direct-to-Chip Cooling." 2025. https://www.grcooling.com/blog/exploring-advanced-liquid-cooling/.

———. "Two-Phase Versus Single-Phase Immersion Cooling." 2025. https://www.grcooling.com/blog/two-phase-versus-single-phase-immersion-cooling/.

HDR. "Direct-To-Chip Liquid Cooling." 2025. https://www.hdrinc.com/insights/direct-chip-liquid-cooling.

HiRef. "Hybrid Rooms: the combined solution for air and liquid cooling in data centers." 2025. https://hiref.com/news/hybrid-rooms-data-centers.

HPCwire. "H100 Fading: Nvidia Touts 2024 Hardware with H200." November 13, 2023. https://www.hpcwire.com/2023/11/13/h100-fading-nvidia-touts-2024-hardware-with-h200/.

IDTechEx. "Thermal Management for Data Centers 2025-2035: Technologies, Markets, and Opportunities." 2025. https://www.idtechex.com/en/research-report/thermal-management-for-data-centers/1036.

JetCool. "Direct Liquid Cooling vs. Immersion Cooling for Data Centers." 2025. https://jetcool.com/post/five-reasons-water-cooling-is-better-than-immersion-cooling/.

———. "Liquid Cooling System for NVIDIA H100 GPU." 2025. https://jetcool.com/h100/.

Maroonmonkeys. "CDU." 2025. https://www.maroonmonkeys.com/motivair/cdu.html.

Microsoft. "Project Natick Phase 2." 2025. https://natick.research.microsoft.com/.

Microsoft News. "To cool datacenter servers, Microsoft turns to boiling liquid." 2025. https://news.microsoft.com/source/features/innovation/datacenter-liquid-cooling/.

Nortek Data Center Cooling Solutions. "Waste Heat Utilization is the Data Center Industry's Next Step Toward Net-Zero Energy." 2025. https://www.nortekdatacenter.com/waste-heat-utilization-is-the-data-center-industrys-next-step-toward-net-zero-energy/.

NVIDIA. "H200 Tensor Core GPU." 2025. https://www.nvidia.com/en-us/data-center/h200/.

Open Compute Project. "Open Compute Project Foundation Expands Its Open Systems for AI Initiative." 2025. https://www.opencompute.org/blog/open-compute-project-foundation-expands-its-open-systems-for-ai-initiative.

P&S Intelligence. "Immersion Cooling Market Size, Share & Trends Analysis, 2032." 2025. https://www.psmarketresearch.com/market-analysis/immersion-cooling-market.

PR Newswire. "Supermicro Introduces Rack Scale Plug-and-Play Liquid-Cooled AI SuperClusters for NVIDIA Blackwell and NVIDIA HGX H100/H200." 2024. https://www.prnewswire.com/news-releases/supermicro-introduces-rack-scale-plug-and-play-liquid-cooled-ai-superclusters-for-nvidia-blackwell-and-nvidia-hgx-h100h200--radical-innovations-in-the-ai-era-to-make-liquid-cooling-free-with-a-bonus-302163611.html.

———. "ZutaCore's HyperCool Liquid Cooling Technology to Support NVIDIA's Advanced H100 and H200 GPUs for Sustainable AI." 2024. https://www.prnewswire.com/news-releases/zutacores-hypercool-liquid-cooling-technology-to-support-nvidias-advanced-h100-and-h200-gpus-for-sustainable-ai-302087410.html.

Rittal. "What is Direct to Chip Cooling – and Is Liquid Cooling in your Future?" 2025. https://www.rittal.com/us-en_US/Company/Rittal-Stories/What-is-Direct-to-Chip-Cooling-and-Is-Liquid-Cooling-in-your-Future.

ScienceDirect. "Liquid cooling of data centers: A necessity facing challenges." 2024. https://www.sciencedirect.com/science/article/abs/pii/S1359431124007804.

SemiAnalysis. "Datacenter Anatomy Part 1: Electrical Systems." October 14, 2024. https://semianalysis.com/2024/10/14/datacenter-anatomy-part-1-electrical/.

———. "Datacenter Anatomy Part 2 – Cooling Systems." February 13, 2025. https://semianalysis.com/2025/02/13/datacenter-anatomy-part-2-cooling-systems/.

———. "Multi-Datacenter Training: OpenAI's Ambitious Plan To Beat Google's Infrastructure." September 4, 2024. https://semianalysis.com/2024/09/04/multi-datacenter-training-openais/.

TechPowerUp. "NVIDIA H100 PCIe 80 GB Specs." TechPowerUp GPU Database. 2025. https://www.techpowerup.com/gpu-specs/h100-pcie-80-gb.c3899.

TechTarget. "Liquid Cooling vs. Air Cooling in the Data Center." 2025. https://www.techtarget.com/searchdatacenter/feature/Liquid-cooling-vs-air-cooling-in-the-data-center.

Unisys. "How leading LLM developers are fueling the liquid cooling boom." 2025. https://www.unisys.com/blog-post/dws/how-leading-llm-developers-are-fueling-the-liquid-cooling-boom/.

Upsite Technologies. "How Rack Density and Delta T Impact Your Airflow Management Strategy." 2025. https://www.upsite.com/blog/rack-density-delta-t-impact-airflow-management-strategy/.

———. "When to Retrofit the Data Center to Accommodate AI, and When Not to." 2025. https://www.upsite.com/blog/when-to-retrofit-the-data-center-to-accommodate-ai-and-when-not-to/.

Uptime Institute. "Data Center Cooling Best Practices." 2025. https://journal.uptimeinstitute.com/implementing-data-center-cooling-best-practices/.

———. "Performance expectations of liquid cooling need a reality check." Uptime Institute Blog. 2025. https://journal.uptimeinstitute.com/performance-expectations-of-liquid-cooling-need-a-reality-check/.

Utility Dive. "The 2025 outlook for data center cooling." 2025. https://www.utilitydive.com/news/2025-outlook-data-center-cooling-electricity-demand-ai-dual-phase-direct-to-chip-energy-efficiency/738120/.

Vertiv. "Deploying liquid cooling in data centers: Installing and managing coolant distribution units (CDUs)." 2025. https://www.vertiv.com/en-us/about/news-and-insights/articles/blog-posts/deploying-liquid-cooling-in-data-centers-installing-and-managing-coolant-distribution-units-cdus/.

———. "Liquid and Immersion Cooling Options for Data Centers." 2025. https://www.vertiv.com/en-us/solutions/learn-about/liquid-cooling-options-for-data-centers/.

———. "Liquid cooling options for data centers." 2025. https://www.vertiv.com/en-us/solutions/learn-about/liquid-cooling-options-for-data-centers/.

———. "Quantifying the Impact on PUE and Energy Consumption When Introducing Liquid Cooling Into an Air-cooled Data Center." 2025. https://www.vertiv.com/en-emea/about/news-and-insights/articles/blog-posts/quantifying-data-center-pue-when-introducing-liquid-cooling/.

———. "Understanding direct-to-chip cooling in HPC infrastructure: A deep dive into liquid cooling." 2025. https://www.vertiv.com/en-emea/about/news-and-insights/articles/educational-articles/understanding-direct-to-chip-cooling-in-hpc-infrastructure-a-deep-dive-into-liquid-cooling/.

———. "Vertiv™ CoolPhase CDU | High Density Solutions." 2025. https://www.vertiv.com/en-us/products-catalog/thermal-management/high-density-solutions/vertiv-coolphase-cdu/.

WGI. "Cooling Down AI and Data Centers." 2025. https://wginc.com/cooling-down-ai-and-data-centers/.

Minta Penawaran_

Ceritakan tentang proyek Anda dan kami akan merespons dalam 72 jam.

> TRANSMISSION_COMPLETE

Permintaan Diterima_

Terima kasih atas pertanyaan Anda. Tim kami akan meninjau permintaan Anda dan merespons dalam 72 jam.

QUEUED FOR PROCESSING