Tản nhiệt nước vs Tản nhiệt khí: Hướng dẫn Rack GPU 50kW (2025)

GPU rack đạt giới hạn nhiệt 50kW. Tản nhiệt bằng chất lỏng tiết kiệm 21% năng lượng, giảm 40% chi phí. Hướng dẫn thiết yếu cho các team hạ tầng AI đang đối mặt với rào cản.

Tản nhiệt nước vs Tản nhiệt khí: Hướng dẫn Rack GPU 50kW (2025)

Sự tăng trưởng theo cấp số nhân của các khối lượng công việc AI đã đẩy việc làm mát trung tâm dữ liệu đến một điểm chuyển giao quan trọng. Khi mật độ rack GPU vượt qua mốc 50kW—với các hệ thống thế hệ tiếp theo đòi hỏi 100kW và cao hơn—việc làm mát bằng không khí truyền thống đã đạt đến giới hạn vật lý cơ bản. Phân tích toàn diện này tiết lộ cách ngành công nghiệp đang điều hướng quá trình chuyển đổi nhiệt này thông qua các công nghệ làm mát bằng chất lỏng tiên tiến, mang lại tiết kiệm năng lượng 10-21%, giảm 40% chi phí làm mát, và cho phép cơ sở hạ tầng cần thiết cho cuộc cách mạng AI.

Khi không khí trở thành nút cổ chai

Việc không khí làm mát thất bại ở mật độ cao không phải là quá trình dần dần—mà là một vách đá. Ở mức 50kW trên một rack, vật lý trở nên không khoan nhượng: làm mát đòi hỏi 7,850 feet khối mỗi phút (CFM) luồng khí ở chênh lệch nhiệt độ 20°F. Tăng gấp đôi lên 100kW, và bạn cần 15,700 CFM—tạo ra những luồng gió mạnh như bão qua các cửa hút máy chủ chỉ đo 2-4 inch vuông. Phương trình cơ bản của việc thoát nhiệt (Q = 0.318 × CFM × ΔT) tiết lộ một thách thức không thể vượt qua: khi mật độ tăng, luồng khí cần thiết tăng tuyến tính, nhưng tiêu thụ điện năng của quạt tăng theo lũy thừa bậc ba của tốc độ quạt. Tăng 10% luồng khí đòi hỏi nhiều hơn 33% điện năng quạt, tạo ra một vòng xoắn tiêu thụ năng lượng khiến việc làm mát bằng không khí ở mật độ cao trở nên bất khả thi về mặt kinh tế và thực tiễn.

Bằng chứng thực tế xác nhận những giới hạn lý thuyết này. Một trường hợp được ghi chép cho thấy 250 rack ở chỉ 6kW tăng từ 72°F lên hơn 90°F trong 75 giây khi hệ thống làm mát thất bại. Các trung tâm dữ liệu truyền thống được thiết kế cho mật độ rack trung bình 5-10kW đơn giản là không thể xử lý các khối lượng công việc GPU hiện đại. Ngay cả với hệ thống ngăn chặn lối đi nóng/lạnh tiên tiến, việc làm mát bằng không khí vẫn gặp khó khăn vượt quá 40kW, trong khi các hệ thống không được ngăn chặn chịu tổn thất công suất 20-40% do tuần hoàn lại không khí nóng. Lớp môi trường ASHRAE H1 mới, được tạo ra rõ ràng cho thiết bị mật độ cao, hạn chế nhiệt độ cho phép ở mức 18-22°C—một phạm vi không thể duy trì bằng làm mát không khí ở quy mô GPU.

Công nghệ làm mát bằng chất lỏng biến đổi những điều có thể.

Chuyển đổi sang làm mát bằng chất lỏng không chỉ đơn thuần là cải tiến từng bước—mà là việc tái tưởng tượng cơ bản về phương pháp tản nhiệt. Hệ số truyền nhiệt của nước cao hơn 3.500 lần so với không khí, cho phép khả năng làm mát giúp các rack 100kW+ trở thành điều thường thấy thay vì đáng chú ý.

Làm mát trực tiếp chip dẫn đầu sự biến đổi này, với các tấm lạnh có các vi kênh (27-100 micron) gắn trực tiếp vào bộ xử lý. Hoạt động với nước cấp ở 40°C và nước hồi ở 50°C, các hệ thống này loại bỏ 70-75% nhiệt của rack thông qua chất lỏng trong khi duy trì 1.02-1.03 partial PUE. Các triển khai hiện đại hỗ trợ 1.5kW+ mỗi chip với lưu lượng 13 lít mỗi phút cho một server 9kW. 25-30% nhiệt còn lại—từ bộ nhớ, ổ đĩa và các thành phần phụ trợ—vẫn cần làm mát bằng không khí, khiến các hệ thống hybrid này trở thành lựa chọn thực tế cho hầu hết các triển khai.

Làm mát ngâm đẩy ranh giới xa hơn, ngâm toàn bộ server trong chất lỏng điện môi. Hệ thống một pha sử dụng dầu khoáng có giá $50-100 mỗi gallon và ổn định hỗ trợ 200kW mỗi rack. Hệ thống hai pha hứa hẹn khả năng truyền nhiệt vượt trội thông qua quá trình sôi và ngưng tụ, nhưng đối mặt với thử thách: chất lỏng fluorocarbon có giá $500-1000 mỗi gallon, và việc 3M ngừng sản xuất vào năm 2025 do lo ngại về môi trường đã làm đóng băng việc áp dụng. Độ phức tạp của công nghệ—vỏ bọc kín, rủi ro cavitation, và quy định PFAS—giới hạn triển khai trong các ứng dụng chuyên biệt.

Đơn vị phân phối chất làm mát (CDUs) tạo thành xương sống của cơ sở hạ tầng làm mát bằng chất lỏng. Các đơn vị hiện đại có phạm vi từ hệ thống rack-mount 7kW đến những siêu phẩm 2.000kW+ như CHx2000 của CoolIT. Các nhà cung cấp hàng đầu—Vertiv, Schneider Electric, Motivair và CoolIT—cung cấp giải pháp với dự phòng N+1, lọc 50-micron và biến tần để phù hợp tải. Thị trường CDU, định giá $1 tỷ năm 2024, dự kiến đạt $3.6 tỷ vào năm 2031 (20.5% CAGR), phản ánh việc áp dụng nhanh chóng của làm mát bằng chất lỏng.

Nghệ thuật và kinh tế học của việc cải tạo

Chuyển đổi các trung tâm dữ liệu hiện tại sang làm mát bằng chất lỏng đòi hỏi sự phối hợp cẩn thận. Cách tiếp cận thành công nhất là di chuyển theo từng giai đoạn: bắt đầu với 1-2 rack mật độ cao, mở rộng thành một hàng, sau đó mở rộng quy mô dựa trên nhu cầu. Ba con đường cải tạo chính đã xuất hiện: CDU liquid-to-air tận dụng hệ thống điều hòa không khí hiện có, bộ trao đổi nhiệt cửa sau có thể làm mát tới 40kW mỗi rack, và giải pháp direct-to-chip để đạt hiệu quả tối đa.

Các thay đổi cơ sở hạ tầng đặt ra thách thức chính. Cơ sở hạ tầng điện thường trở thành yếu tố hạn chế—các cơ sở được thiết kế cho tải trung bình 5-10kW không thể hỗ trợ rack 50kW+ bất kể khả năng làm mát. Hệ thống ống nước đòi hỏi mô hình CFD cẩn thận trong môi trường sàn nâng hoặc lắp đặt trên cao với khay chứa nước nhỏ giọt trong cấu trúc bê tông. Tải trọng sàn, đặc biệt đối với hệ thống ngâm, có thể vượt quá khả năng chịu tải của cấu trúc trong các cơ sở cũ.

Phân tích chi phí cho thấy tính kinh tế hấp dẫn bất chấp đầu tư ban đầu cao. Một nghiên cứu của California Energy Commission ghi nhận hệ thống làm mát bằng chất lỏng hoàn chỉnh cho 1.200 server trên 17 rack với tổng chi phí là $470,557, hoặc $392 mỗi server, bao gồm cả việc sửa đổi cơ sở. Tiết kiệm năng lượng hàng năm 355 MWh ($39,155 với giá $0.11/kWh) mang lại thời gian hoàn vốn đơn giản 12 năm, mặc dù các triển khai được tối ưu hóa đạt được lợi nhuận 2-5 năm. Phân tích của Schneider Electric cho thấy tiết kiệm vốn 14% thông qua nén rack 4 lần, trong khi tiết kiệm vận hành bao gồm giảm 10.2% tổng điện năng trung tâm dữ liệu và cải thiện 15.5% Total Usage Effectiveness.

Các thách thức tích hợp tăng gấp bội trong môi trường lai. Ngay cả các cơ sở "làm mát hoàn toàn bằng chất lỏng" cũng cần 20-30% khả năng làm mát bằng không khí cho các thành phần phụ trợ. Hệ thống điều khiển phải phối hợp nhiều công nghệ làm mát, giám sát cả nhiệt độ đầu vào rack và điều kiện nước cấp. Dự phòng trở nên quan trọng—bộ trao đổi nhiệt cửa sau phải chuyển đổi dự phòng sang làm mát bằng không khí khi mở để bảo trì, trong khi hệ thống direct-to-chip có ít hơn 10 giây thời gian duy trì ở tải đầy.

Từ thử nghiệm đến sản xuất

Các triển khai thực tế cho thấy sự trưởng thành của công nghệ làm mát bằng chất lỏng. Meta dẫn đầu việc áp dụng ở quy mô lớn, triển khai Air-Assisted Liquid Cooling trên hơn 40 triệu feet vuông không gian trung tâm dữ liệu. Thiết kế rack Catalina của họ hỗ trợ 140kW với 72 GPU, trong khi việc triển khai làm mát bằng chất lỏng trên toàn bộ cơ sở nhắm mục tiêu hoàn thành vào đầu năm 2025. Quá trình chuyển đổi đòi hỏi phải loại bỏ nhiều trung tâm dữ liệu đang xây dựng để thiết kế lại tối ưu cho AI, kỳ vọng tiết kiệm 31% chi phí từ kiến trúc mới.

Hành trình bảy năm của Google với TPU làm mát bằng chất lỏng cung cấp bộ dữ liệu toàn diện nhất trong ngành. Triển khai hệ thống vòng kín trên hơn 2000 TPU Pod ở quy mô gigawatt, họ đã đạt được 99.999% thời gian hoạt động đồng thời chứng minh độ dẫn nhiệt cao hơn không khí 30 lần. Thiết kế CDU thế hệ thứ năm của họ, Project Deschutes, sẽ được đóng góp cho Open Compute Project, thúc đẩy việc áp dụng trên toàn ngành.

Microsoft vượt qua ranh giới với công nghệ làm mát ngâm hai pha trong sản xuất, sử dụng chất lỏng điện môi sôi ở 122°F—thấp hơn nước 50°C. Công nghệ này cho phép giảm 5-15% công suất máy chủ đồng thời loại bỏ quạt làm mát. Cam kết giảm 95% sử dụng nước vào năm 2024 của họ thúc đẩy đổi mới trong các hệ thống vòng kín, không bay hơi.

Các nhà cung cấp chuyên biệt như CoreWeave chứng minh làm mát bằng chất lỏng cho khối lượng công việc AI. Lên kế hoạch triển khai 4,000 GPU vào cuối năm 2024, họ đạt được mật độ rack 130kW với hiệu suất hệ thống tốt hơn 20% so với đối thủ. Thiết kế tối ưu hóa rail của họ tiết kiệm 3.1 triệu giờ GPU thông qua độ tin cậy được cải thiện, triển khai cụm H100 trong vòng chưa đến 60 ngày.

Đáp ứng nhu cầu tản nhiệt của bộ gia tốc AI

Thông số kỹ thuật GPU cho thấy lý do tại sao tản nhiệt lỏng đã trở thành bắt buộc. NVIDIA H100 SXM5 hoạt động ở mức 700W TDP, đòi hỏi tản nhiệt lỏng để đạt hiệu suất tối ưu. H200 duy trì cùng một khung công suất trong khi cung cấp 141GB bộ nhớ HBM3e với tốc độ 4.8TB/s—băng thông cao hơn 1.4x, điều này tạo ra lượng nhiệt tương ứng. B200 sắp ra mắt đẩy ranh giới xa hơn: 1,200W cho các phiên bản tản nhiệt lỏng so với 1,000W cho tản nhiệt khí, với hiệu suất 20 PFLOPS FP4 đòi hỏi quản lý nhiệt tinh vi.

GB200 NVL72—tích hợp 72 GPU Blackwell và 36 CPU Grace trong một rack duy nhất—đại diện cho điểm cuối của khả năng thi hành tản nhiệt khí. Với công suất rack 140kW, nó đòi hỏi tản nhiệt lỏng bắt buộc thông qua các tấm làm lạnh mới được phát triển và các CDU 250kW. Các yếu tố cấp hệ thống làm phức tạp thêm: các kết nối NVSwitch thêm 10-15W mỗi cái, trong khi bộ nhớ tốc độ cao và hệ thống cung cấp điện đóng góp lượng nhiệt bổ sung đáng kể.

Phân tích kỹ thuật của JetCool cho thấy sự khác biệt hiệu suất rõ rệt: H100 SmartPlate của họ đạt điện trở nhiệt 0.021°C/W, vận hành chip mát hơn 35°C so với các giải pháp tản nhiệt khí trong khi hỗ trợ nhiệt độ đầu vào 60°C. Việc giảm nhiệt độ này về mặt lý thuyết kéo dài tuổi thọ GPU gấp 8 lần đồng thời cho phép duy trì hiệu suất tối đa—quan trọng cho các quá trình huấn luyện AI kéo dài nhiều tuần.

## Lộ trình đến năm 2030

Ngành công nghiệp đang đứng tại điểm chuyển đổi, nơi các thực hành tốt nhất nhanh chóng trở thành yêu cầu bắt buộc. Tiêu chuẩn môi trường H1 mới của ASHRAE (khuyến nghị 18-22°C) thừa nhận rằng các hướng dẫn truyền thống không thể đáp ứng khối lượng công việc AI. Các tiêu chuẩn làm mát bằng chất lỏng của Open Compute Project thúc đẩy khả năng tương tác, trong khi Yêu cầu Ngâm tẩm (Immersion Requirements) Rev. 2.10 của họ thiết lập các quy trình đủ điều kiện cho các công nghệ mới nổi.

Làm mát ngâm tẩm hai pha, bất chấp những thách thức hiện tại, cho thấy triển vọng áp dụng chủ đạo trong giai đoạn 2025-2027. Dự báo thị trường cho thấy tăng trưởng từ $375 triệu (2024) lên $1.2 tỷ (2032), được thúc đẩy bởi khả năng truyền nhiệt vượt trội cho phép hơn 1,500W mỗi chip. Các sáng tạo như Accelsius NeuCool và các giải pháp thay thế cho chất lỏng 3M đã ngừng sản xuất giải quyết các lo ngại về môi trường trong khi vẫn duy trì hiệu suất.

Tối ưu hóa dựa trên AI mang lại lợi nhuận tức thì. Việc triển khai của Google DeepMind đạt được giảm 40% năng lượng làm mát thông qua học tập thời gian thực, trong khi Tối ưu hóa Làm mát Không gian Trắng (White Space Cooling Optimization) của Siemens và các nền tảng tương tự ngày càng phổ biến. Những hệ thống này dự đoán hỏng hóc, tối ưu hóa hóa học chất làm mát và điều chỉnh động theo các mẫu khối lượng công việc—những khả năng mà 91% các nhà cung cấp kỳ vọng sẽ trở nên phổ biến trong vòng năm năm.

Thu hồi nhiệt thải biến trách nhiệm thành tài sản. Stockholm Data Parks đã sưởi ấm 10,000 hộ gia đình bằng nhiệt thải từ trung tâm dữ liệu, nhắm mục tiêu 10% hệ thống sưởi ấm thành phố vào năm 2035. Áp lực pháp lý thúc đẩy việc áp dụng: Đức yêu cầu tái sử dụng 20% nhiệt vào năm 2028, trong khi California Title 24 yêu cầu cơ sở hạ tầng thu hồi trong xây dựng mới. Công nghệ bơm nhiệt nâng nhiệt thải 30-40°C lên 70-80°C cho hệ thống sưởi ấm khu vực, tạo ra nguồn doanh thu từ năng lượng trước đây bị bỏ phí.

## Thực hiện chuyển đổi

Thành công trong triển khai làm mát bằng chất lỏng đòi hỏi quy hoạch chiến lược trên nhiều khía cạnh. Các tổ chức nên bắt đầu với các CDU liquid-to-air đơn giản để có rào cản thấp nhất, nhưng phải đánh giá hạ tầng điện trước—công suất điện không đủ sẽ loại trừ khả năng cải tạo bất kể công nghệ làm mát nào. Bắt đầu với các dự án thí điểm 1-2 rack cho phép học hỏi trước khi mở rộng quy mô, trong khi duy trì chuyên môn làm mát bằng không khí vẫn quan trọng cho các hoạt động hybrid.

Mô hình tài chính phải tính đến giá trị tổng thể của hệ thống. Trong khi đầu tư ban đầu dao động từ $1,000 đến $2,000 mỗi kW công suất làm mát, tiết kiệm vận hành có tác động tích lũy: giảm 27% điện năng tiêu thụ của cơ sở trong các triển khai được tối ưu hóa, tiết kiệm 30% năng lượng làm mát so với hệ thống thông thường, và quan trọng hơn cả, khả năng triển khai các workload AI tạo doanh thu, điều không thể với làm mát bằng không khí. Các triển khai hàng đầu đạt được thời gian hoàn vốn dưới 2 năm thông qua thiết kế cẩn thận: tránh tích hợp chiller không hiệu quả tiết kiệm 20-30%, trong khi tập trung vào các ứng dụng có mật độ cao nhất sẽ tối đa hóa lợi nhuận.

Các nhóm kỹ thuật cần những năng lực mới. Ngoài kiến thức HVAC truyền thống, nhân viên phải hiểu hóa học chất làm mát, quy trình ứng phó rò rỉ, và hệ thống điều khiển tích hợp. Quan hệ đối tác với nhà cung cấp tỏ ra thiết yếu—hỗ trợ 24/7 cho các thành phần chuyên biệt và bảo trì phòng ngừa định kỳ 6 tháng một lần trở thành nhu cầu vận hành thiết yếu. Quy trình an toàn mở rộng để bao gồm xử lý chất lỏng điện môi và quản lý hệ thống áp suất.

Thị trường báo hiệu động lực áp đảo. Thị trường làm mát bằng chất lỏng cho data center tăng từ $4.9 tỷ (2024) lên dự kiến $21.3 tỷ (2030) với CAGR 27.6%. Làm mát direct-to-chip một pha trở thành tiêu chuẩn cho các workload AI vào 2025-2026, trong khi immersion hai pha đạt được sự chấp nhận rộng rãi vào 2027. Đến 2030, các rack 1MW sẽ yêu cầu làm mát bằng chất lỏng tiên tiến như tiêu chuẩn, không phải ngoại lệ.

Kết luận

Các định luật vật lý đã rất rõ ràng: làm mát bằng không khí đã đạt đến giới hạn. Với mật độ rack 50-100kW, các ràng buộc nhiệt động học cơ bản khiến làm mát bằng chất lỏng không chỉ được ưa chuộng mà còn trở thành bắt buộc. Sự chuyển đổi này đại diện cho thay đổi hạ tầng quan trọng nhất trong lịch sử trung tâm dữ liệu, đòi hỏi các kỹ năng mới, đầu tư đáng kể và chuyển đổi vận hành. Tuy nhiên, những lợi ích—tiết kiệm năng lượng 10-21%, giảm 40% chi phí làm mát, cải thiện độ tin cậy gấp 8 lần, và quan trọng nhất là khả năng triển khai hạ tầng AI thế hệ tiếp theo—khiến sự phát triển này trở nên tất yếu. Các tổ chức thành thạo công nghệ làm mát bằng chất lỏng ngay hôm nay sẽ cung cấp năng lượng cho những đột phá AI của ngày mai—những ai chậm trễ sẽ tụt hậu khi ngành công nghiệp đua nhau hướng đến mật độ tính toán ngày càng cao hơn. Chúng ta đã chạm đến rào cản nhiệt; làm mát bằng chất lỏng chính là cách chúng ta vượt qua.

Tài liệu tham khảo

ACM Digital Library. "Energy-efficient LLM Training in GPU datacenters with Immersion Cooling Systems." Proceedings of the 16th ACM International Conference on Future and Sustainable Energy Systems. 2025. https://dl.acm.org/doi/10.1145/3679240.3734609.

AMAX. "So sánh các cấu hình NVIDIA Blackwell." 2025. https://www.amax.com/comparing-nvidia-blackwell-configurations/.

———. "Top 5 cân nhắc khi triển khai NVIDIA Blackwell." 2025. https://www.amax.com/top-5-considerations-for-deploying-nvidia-blackwell/.

arXiv. "[1309.4887] iDataCool: HPC với làm mát bằng nước nóng và tái sử dụng năng lượng." 2013. https://ar5iv.labs.arxiv.org/html/1309.4887.

———. "[1709.05077] Chuyển đổi tối ưu hóa làm mát cho data center xanh thông qua deep reinforcement learning." 2017. https://ar5iv.labs.arxiv.org/html/1709.05077.

Attom. "Cập nhật hướng dẫn nhiệt mới của ASHRAE: Xu hướng mật độ cao mới." Expert Green Prefab Data Centers. 2025. https://attom.tech/ashraes-new-thermal-guideline-update-a-new-high-density-trend/.

Chilldyne. "Thiết kế làm mát lỏng công suất cao: yêu cầu giải pháp direct-to-chip cho rack 500 kW." Chilldyne | Liquid Cooling. July 29, 2024. https://chilldyne.com/2024/07/29/high-power-liquid-cooling-design-direct-to-chip-solution-requirements-for-500-kw-racks/.

Compass Datacenters. "Làm mát data center là gì?" 2025. https://www.compassdatacenters.com/data-center-cooling/.

Converge Digest. "Meta phác thảo nâng cấp hạ tầng AI tại OCP Summit 2024." 2024. https://convergedigest.com/meta-outlinesai-infrastructure-upgrades-at-ocp-summit-2024/.

Core Winner LTD. "Hướng dẫn toàn diện về làm mát lỏng: Tương lai của data center hiệu năng cao và triển khai AI." 2025. https://www.corewinner.com/en/blog/detail/52.

CoreWeave. "Xây dựng cluster AI cho doanh nghiệp 2025." 2025. https://www.coreweave.com/blog/building-ai-clusters-for-enterprises-2025.

———. "GPU cho mô hình AI và đổi mới." 2025. https://www.coreweave.com/products/gpu-compute.

Cyber Defense Advisors. "Bảo trì dự đoán dựa trên AI: Tương lai của độ tin cậy data center." 2025. https://cyberdefenseadvisors.com/ai-driven-predictive-maintenance-the-future-of-data-center-reliability/.

Data Center Catalog. "Meta lên kế hoạch chuyển sang làm mát lỏng cho hạ tầng data center." 2022. https://datacentercatalog.com/news/2022/meta-plans-shift-to-liquid-cooling-for-its-data-center-infrastructure.

Data Center Dynamics. "Giới thiệu về làm mát lỏng trong data center." 2025. https://www.datacenterdynamics.com/en/analysis/an-introduction-to-liquid-cooling-in-the-data-center/.

———. "Hyperscaler chuẩn bị cho rack 1MW tại OCP EMEA; Google công bố CDU mới." 2025. https://www.datacenterdynamics.com/en/news/hyperscalers-prepare-for-1mw-racks-at-ocp-emea-google-announces-new-cdu/.

———. "Hướng dẫn ASHRAE mới thách thức động lực hiệu quả." 2025. https://www.datacenterdynamics.com/en/opinions/new-ashrae-guidelines-challenge-efficiency-drive/.

———. "CEO của NVIDIA xác nhận hệ thống sắp tới sẽ được làm mát lỏng." 2025. https://www.datacenterdynamics.com/en/news/nvidias-ceo-confirms-next-dgx-will-be-liquid-cooled/.

———. "Tối ưu hóa hiệu quả data center với làm mát lỏng direct-to-chip." 2025. https://www.datacenterdynamics.com/en/opinions/optimizing-data-center-efficiency-with-direct-to-chip-liquid-cooling/.

———. "Làm mát hai pha sẽ bị ảnh hưởng bởi quy định EPA và việc 3M rút khỏi hóa chất PFAS 'vĩnh cửu'." 2025. https://www.datacenterdynamics.com/en/news/two-phase-cooling-will-be-hit-by-epa-rules-and-3ms-exit-from-pfas-forever-chemicals/.

Data Center Frontier. "8 xu hướng sẽ định hình ngành data center năm 2025." 2025. https://www.datacenterfrontier.com/cloud/article/55253151/8-trends-that-will-shape-the-data-center-industry-in-2025.

———. "Thực hành tốt nhất để triển khai server làm mát lỏng trong data center của bạn." 2025. https://www.datacenterfrontier.com/sponsored/article/55138161/best-practices-for-deploying-liquid-cooled-servers-in-your-data-center.

———. "Google phát triển công nghệ làm mát 'ý thức khí hậu' mới để tiết kiệm nước." 2025. https://www.datacenterfrontier.com/cooling/article/33001080/google-developing-new-climate-conscious-cooling-tech-to-save-water.

———. "Google chuyển sang làm mát lỏng cho xử lý dữ liệu AI." 2025. https://www.datacenterfrontier.com/cloud/article/11430207/google-shifts-to-liquid-cooling-for-ai-data-crunching.

———. "Meta lên kế hoạch chuyển sang làm mát lỏng cho hạ tầng data center." 2025. https://www.datacenterfrontier.com/cooling/article/11436915/meta-plans-shift-to-liquid-cooling-for-its-data-center-infrastructure.

———. "Meta xem trước thiết kế data center mới cho tương lai được hỗ trợ bởi AI." 2025. https://www.datacenterfrontier.com/data-center-design/article/33005296/meta-previews-new-data-center-design-for-an-ai-powered-future.

———. "Nổi bật OCP 2024: Meta ra mắt rack AI làm mát lỏng 140 kW; Google tập trung vào robotics để vận chuyển GPU hyperscaler." 2024. https://www.datacenterfrontier.com/hyperscale/article/55238148/ocp-2024-spotlight-meta-shows-off-140-kw-liquid-cooled-ai-rack-google-eyes-robotics-to-muscle-hyperscaler-gpu-placement.

———. "Đẩy ranh giới làm mát khí trong môi trường mật độ cao." 2025. https://www.datacenterfrontier.com/special-reports/article/11427279/pushing-the-boundaries-of-air-cooling-in-high-density-environments.

———. "Báo cáo: Meta lên kế hoạch chuyển sang làm mát lỏng trong thiết kế lại data center tập trung vào AI." 2025. https://www.datacenterfrontier.com/cooling/article/33004107/report-meta-plans-shift-to-liquid-cooling-in-ai-centric-data-center-redesign.

———. "Tầm quan trọng của làm mát lỏng đối với Open Compute Project (OCP)." 2025. https://www.datacenterfrontier.com/sponsored/article/55134348/the-importance-of-liquid-cooling-to-the-open-compute-project-ocp.

———. "Tận dụng nhiệt thải là bước tiếp theo của ngành data center hướng tới năng lượng net-zero." 2025. https://www.datacenterfrontier.com/voices-of-the-industry/article/11428787/waste-heat-utilization-is-the-data-center-industrys-next-step-toward-net-zero-energy.

———. "Công nghệ làm mát lỏng HyperCool của ZutaCore hỗ trợ GPU H100 và H200 tiên tiến của NVIDIA cho AI bền vững." 2024. https://www.datacenterfrontier.com/press-releases/press-release/33038994/zutacores-hypercool-liquid-cooling-technology-to-support-nvidias-advanced-h100-and-h200-gpus-for-sustainable-ai.

Data Center Knowledge. "Chiến lược nâng cấp data center." 2025. https://www.datacenterknowledge.com/infrastructure/data-center-retrofit-strategies.

———. "Làm mát hybrid: Cầu nối đến làm mát lỏng hoàn toàn trong data center." 2025. https://www.datacenterknowledge.com/cooling/hybrid-cooling-the-bridge-to-full-liquid-cooling-in-data-centers.

Data Centre Review. "Tận dụng tối đa nhiệt thải data center." June 2024. https://datacentrereview.com/2024/06/making-the-most-of-data-centre-waste-heat/.

Datacenters. "Vai trò của CoreWeave trong quan hệ đối tác cloud Google và OpenAI định nghĩa lại hạ tầng AI." 2025. https://www.datacenters.com/news/coreweave-s-strategic-role-in-google-and-openai-s-cloud-collaboration.

Dell. "Khi nào chuyển từ làm mát khí sang làm mát lỏng cho data center của bạn." 2025. https://www.dell.com/en-us/blog/when-to-move-from-air-cooling-to-liquid-cooling-for-your-data-center/.

Digital Infra Network. "Động thái megawatt của Google cho AI: Cải tạo điện năng và làm mát." 2025. https://digitalinfranetwork.com/news/google-ocp-400v-liquid-cooling/.

Enconnex. "Làm mát lỏng data center so với làm mát khí." 2025. https://blog.enconnex.com/data-center-liquid-cooling-vs-air-cooling.

Engineering at Meta. "Tầm nhìn phần cứng AI mở của Meta." October 15, 2024. https://engineering.fb.com/2024/10/15/data-infrastructure/metas-open-ai-hardware-vision/.

Fortune Business Insights. "Thị trường làm mát ngâm lỏng hai pha data center, 2032." 2025. https://www.fortunebusinessinsights.com/two-phase-data-center-liquid-immersion-cooling-market-113122.

Google Cloud. "Cho phép rack IT 1 MW và làm mát lỏng tại OCP EMEA Summit." Google Cloud Blog. 2025. https://cloud.google.com/blog/topics/systems/enabling-1-mw-it-racks-and-liquid-cooling-at-ocp-emea-summit.

GR Cooling. "Khám phá làm mát lỏng tiên tiến: Ngâm so với làm mát direct-to-chip." 2025. https://www.grcooling.com/blog/exploring-advanced-liquid-cooling/.

———. "Làm mát ngâm hai pha so với một pha." 2025. https://www.grcooling.com/blog/two-phase-versus-single-phase-immersion-cooling/.

HDR. "Làm mát lỏng Direct-To-Chip." 2025. https://www.hdrinc.com/insights/direct-chip-liquid-cooling.

HiRef. "Phòng hybrid: giải pháp kết hợp cho làm mát khí và lỏng trong data center." 2025. https://hiref.com/news/hybrid-rooms-data-centers.

HPCwire. "H100 đang mờ nhạt: NVIDIA quảng bá phần cứng 2024 với H200." November 13, 2023. https://www.hpcwire.com/2023/11/13/h100-fading-nvidia-touts-2024-hardware-with-h200/.

IDTechEx. "Quản lý nhiệt cho data center 2025-2035: Công nghệ, thị trường và cơ hội." 2025. https://www.idtechex.com/en/research-report/thermal-management-for-data-centers/1036.

JetCool. "Làm mát lỏng trực tiếp so với làm mát ngâm cho data center." 2025. https://jetcool.com/post/five-reasons-water-cooling-is-better-than-immersion-cooling/.

———. "Hệ thống làm mát lỏng cho GPU NVIDIA H100." 2025. https://jetcool.com/h100/.

Maroonmonkeys. "CDU." 2025. https://www.maroonmonkeys.com/motivair/cdu.html.

Microsoft. "Project Natick Phase 2." 2025. https://natick.research.microsoft.com/.

Microsoft News. "Để làm mát server datacenter, Microsoft chuyển sang chất lỏng sôi." 2025. https://news.microsoft.com/source/features/innovation/datacenter-liquid-cooling/.

Nortek Data Center Cooling Solutions. "Tận dụng nhiệt thải là bước tiếp theo của ngành data center hướng tới năng lượng net-zero." 2025. https://www.nortekdatacenter.com/waste-heat-utilization-is-the-data-center-industrys-next-step-toward-net-zero-energy/.

NVIDIA. "GPU H200 Tensor Core." 2025. https://www.nvidia.com/en-us/data-center/h200/.

Open Compute Project. "Open Compute Project Foundation mở rộng sáng kiến Open Systems for AI." 2025. https://www.opencompute.org/blog/open-compute-project-foundation-expands-its-open-systems-for-ai-initiative.

P&S Intelligence. "Phân tích quy mô, thị phần và xu hướng thị trường làm mát ngâm, 2032." 2025. https://www.psmarketresearch.com/market-analysis/immersion-cooling-market.

PR Newswire. "Supermicro giới thiệu AI SuperCluster làm mát lỏng plug-and-play quy mô rack cho NVIDIA Blackwell và NVIDIA HGX H100/H200." 2024. https://www.prnewswire.com/news-releases/supermicro-introduces-rack-scale-plug-and-play-liquid-cooled-ai-superclusters-for-nvidia-blackwell-and-nvidia-hgx-h100h200--radical-innovations-in-the-ai-era-to-make-liquid-cooling-free-with-a-bonus-302163611.html.

———. "Công nghệ làm mát lỏng HyperCool của ZutaCore hỗ trợ GPU H100 và H200 tiên tiến của NVIDIA cho AI bền vững." 2024. https://www.prnewswire.com/news-releases/zutacores-hypercool-liquid-cooling-technology-to-support-nvidias-advanced-h100-and-h200-gpus-for-sustainable-ai-302087410.html.

Rittal. "Direct to Chip Cooling là gì – và liệu làm mát lỏng có trong tương lai của bạn?" 2025. https://www.rittal.com/us-en_US/Company/Rittal-Stories/What-is-Direct-to-Chip-Cooling-and-Is-Liquid-Cooling-in-your-Future.

ScienceDirect. "Làm mát lỏng data center: Một nhu cầu đối mặt với thách thức." 2024. https://www.sciencedirect.com/science/article/abs/pii/S1359431124007804.

SemiAnalysis. "Giải phẫu datacenter phần 1: Hệ thống điện." October 14, 2024. https://semianalysis.com/2024/10/14/datacenter-anatomy-part-1-electrical/.

———. "Giải phẫu datacenter phần 2 – Hệ thống làm mát." February 13, 2025. https://semianalysis.com/2025/02/13/datacenter-anatomy-part-2-cooling-systems/.

———. "Huấn luyện đa datacenter: Kế hoạch đầy tham vọng của OpenAI để đánh bại hạ tầng của Google." September 4, 2024. https://semianalysis.com/2024/09/04/multi-datacenter-training-openais/.

TechPowerUp. "Thông số NVIDIA H100 PCIe 80 GB." TechPowerUp GPU Database. 2025. https://www.techpowerup.com/gpu-specs/h100-pcie-80-gb.c3899.

TechTarget. "Làm mát lỏng so với làm mát khí trong data center." 2025. https://www.techtarget.com/searchdatacenter/feature/Liquid-cooling-vs-air-cooling-in-the-data-center.

Unisys. "Các nhà phát triển LLM hàng đầu thúc đẩy sự bùng nổ làm mát lỏng như thế nào." 2025. https://www.unisys.com/blog-post/dws/how-leading-llm-developers-are-fueling-the-liquid-cooling-boom/.

Upsite Technologies. "Mật độ rack và Delta T tác động đến chiến lược quản lý luồng khí như thế nào." 2025. https://www.upsite.com/blog/rack-density-delta-t-impact-airflow-management-strategy/.

———. "Khi nào nâng cấp data center để phù hợp với AI, và khi nào không nên." 2025. https://www.upsite.com/blog/when-to-retrofit-the-data-center-to-accommodate-ai-and-when-not-to/.

Uptime Institute. "Thực hành tốt nhất về làm mát data center." 2025. https://journal.uptimeinstitute.com/implementing-data-center-cooling-best-practices/.

———. "Kỳ vọng hiệu suất của làm mát lỏng cần kiểm tra thực tế." Uptime Institute Blog. 2025. https://journal.uptimeinstitute.com/performance-expectations-of-liquid-cooling-need-a-reality-check/.

Utility Dive. "Triển vọng 2025 cho làm mát data center." 2025. https://www.utilitydive.com/news/2025-outlook-data-center-cooling-electricity-demand-ai-dual-phase-direct-to-chip-energy-efficiency/738120/.

Vertiv. "Triển khai làm mát lỏng trong data center: Lắp đặt và quản lý đơn vị phân phối chất làm mát (CDU)." 2025. https://www.vertiv.com/en-us/about/news-and-insights/articles/blog-posts/deploying-liquid-cooling-in-data-centers-installing-and-managing-coolant-distribution-units-cdus/.

———. "Các tùy chọn làm mát lỏng và ngâm cho data center." 2025. https://www.vertiv.com/en-us/solutions/learn-about/liquid-cooling-options-for-data-centers/.

———. "Các tùy chọn làm mát lỏng cho data center." 2025. https://www.vertiv.com/en-us/solutions/learn-about/liquid-cooling-options-for-data-centers/.

———. "Định lượng tác động lên PUE và tiêu thụ năng lượng khi đưa làm mát lỏng vào data center làm mát khí." 2025. https://www.vertiv.com/en-emea/about/news-and-insights/articles/blog-posts/quantifying-data-center-pue-when-introducing-liquid-cooling/.

———. "Hiểu về làm mát direct-to-chip trong hạ tầng HPC: Tìm hiểu sâu về làm mát lỏng." 2025. https://www.vertiv.com/en-emea/about/news-and-insights/articles/educational-articles/understanding-direct-to-chip-cooling-in-hpc-infrastructure-a-deep-dive-into-liquid-cooling/.

———. "Vertiv™ CoolPhase CDU | Giải pháp mật độ cao." 2025. https://www.vertiv.com/en-us/products-catalog/thermal-management/high-density-solutions/vertiv-coolphase-cdu/.

WGI. "Làm mát AI và data center." 2025. https://wginc.com/cooling-down-ai-and-data-centers/.

Yêu cầu báo giá_

Hãy cho chúng tôi biết về dự án của bạn và chúng tôi sẽ phản hồi trong vòng 72 giờ.

> TRUYỀN_TẢI_HOÀN_TẤT

Đã Nhận Yêu cầu_

Cảm ơn bạn đã gửi yêu cầu. Đội ngũ của chúng tôi sẽ xem xét và phản hồi trong vòng 72 giờ.

ĐANG XẾP HÀNG XỬ LÝ