Hệ thống cáp có cấu trúc so với ống dẫn làm mát bằng chất lỏng: Thiết kế cho rack 100 kW trở lên

Khi các workload AI đẩy mật độ rack vượt quá 100 kW, các trung tâm dữ liệu phải làm chủ cả hệ thống cáp có cấu trúc cho luồng dữ liệu và tản nhiệt bằng chất lỏng để loại bỏ nhiệt. Tìm hiểu cách thiết kế hạ tầng giúp GPU hoạt động ở hiệu suất đỉnh cao.

Hệ thống cáp có cấu trúc so với ống dẫn làm mát bằng chất lỏng: Thiết kế cho rack 100 kW trở lên

Các trung tâm dữ liệu từng tự hào về công suất tính bằng megawatt; ngày nay, họ khoe khoang về kilowatt trên mỗi rack. Khi khối lượng công việc AI tăng vọt và mật độ rack vượt mốc 100 kW, các đội ngũ vận hành phải đối mặt với thử thách cân bằng mới: giữ dữ liệu chảy qua các tuyến cáp quang sạch sẽ đồng thời nhanh chóng loại bỏ nhiệt độ cực cao. Các rủi ro có thể cảm nhận được—thiết kế sai lầm có nghĩa là GPU bị cháy và hóa đơn năng lượng tăng vọt—vì vậy mọi đường dẫn, ống dẫn và bảng vá phải phát huy tác dụng từ ngày đầu tiên.

Ngưỡng 100 kW

Các kệ GPU hiện đại hiện tiêu thụ hơn 100 kW mỗi rack—mức tải điện từng dành riêng cho các trạm biến áp nhỏ.¹ Các nhà vận hành nhắm đến mật độ này phải nâng cấp cả hệ thống cáp và mạng lưới chất làm mát lên cơ sở hạ tầng hạng nhất. Bỏ qua bất kỳ hệ thống nào, không gian premium sẽ biến thành một thiết bị sưởi ấm cỡ lớn thay vì một trung tâm dữ liệu hiệu quả.

Hệ thống cáp có cấu trúc: Nền tảng cho độ tin cậy

Hệ thống cáp có cấu trúc sắp xếp các đường dẫn đồng và cáp quang theo một hệ thống phân cấp nghiêm ngặt và mang lại ba lợi ích quan trọng:

Luồng khí không bị cản trở. Các tuyến cáp được đóng gói bảo vệ khu vực dưới sàn và trên trần, giúp các đơn vị CRAH duy trì việc cung cấp khí lạnh ổn định.

Giảm thời gian sửa chữa trung bình. Các cổng được ghi nhãn rõ ràng và cassette được kết nối trước cho phép kỹ thuật viên cách ly và khôi phục các liên kết bị lỗi trong vòng vài phút.

Tính toàn vẹn tín hiệu. Cassette mật độ cao đảm bảo bán kính uốn phù hợp, bảo vệ quang học 400 GbE khỏi tổn thất do uốn cong nhỏ.²

Các trung tâm làm mát bằng không khí hoạt động ở—hoặc trên—100 kW chỉ thành công khi hệ thống cáp không bao giờ chặn luồng khí quan trọng.

Đường ống làm mát bằng chất lỏng: Chiết xuất nhiệt trực tiếp

Làm mát bằng không khí mất hiệu quả trên khoảng 50 kW mỗi rack. Làm mát bằng chất lỏng—thông qua vòng lặp tấm lạnh hoặc bể ngâm—loại bỏ nhiệt từ chip và gửi đến các bộ trao đổi nhiệt bên ngoài.

Khả năng tỏa nhiệt vượt trội. Nước loại bỏ nhiệt hiệu quả hơn 3.500 lần theo thể tích so với không khí ở cùng mức tăng nhiệt độ.³

Cải thiện hiệu quả năng lượng. Giảm nhiệt độ cung cấp chất làm mát cho phép nhà vận hành tăng điểm cài đặt chiller và giảm PUE 10–20 phần trăm trong các triển khai thực tế.⁴

Phối hợp đường dẫn. Ống dẫn chất lỏng cần không gian khay riêng, vì vậy các đội thiết kế tách chúng khỏi tuyến cáp quang ngay từ giai đoạn bố trí.

Điểm nổi bật về hiệu suất so sánh

Tỏa nhiệt: Hệ thống cáp có cấu trúc thúc đẩy luồng khí không bị cản trở, trong khi đường ống làm mát bằng chất lỏng chiết xuất nhiệt trực tiếp ở cấp độ linh kiện.

Bảo trì: Đội ngũ cáp thay thế cassette và xác minh liên kết nhanh chóng; chuyên gia làm mát sử dụng quick-disconnect khô và thực hiện kiểm tra rò rỉ.

Nhu cầu không gian: Gói cáp quang vẫn nhỏ gọn; ống dẫn chất làm mát cần đường kính lớn hơn và bán kính uốn rộng hơn.

Tác động sự cố: Một sợi quang bị đứt cách ly một liên kết; rò rỉ chất làm mát có thể gây ra thời gian ngừng hoạt động rộng hơn.

Yêu cầu kỹ năng: Công việc cáp dựa vào kỹ thuật viên mạng điện áp thấp, trong khi hệ thống chất lỏng cần chuyên gia cơ khí và xử lý chất lỏng.

Hầu hết các cơ sở hyperscale kết hợp cả hai hệ thống: cáp có cấu trúc truyền tải dữ liệu và đường ống chất lỏng loại bỏ nhiệt.

Phương pháp triển khai nhanh của Introl

Các đội ngũ thực địa Introl đã lắp đặt hơn 100.000 GPU và định tuyến hơn 40.000 dặm cáp quang trên các cụm AI toàn cầu.⁵ Đội ngũ 550 kỹ sư huy động trong vòng 72 giờ, lắp đặt 1.024 nút H100 và 35.000 bản vá cáp quang trong 14 ngày, và cung cấp các hệ thống containment được thiết bị đầy đủ đúng tiến độ.⁶

Các thực hành cốt lõi bao gồm:

  1. Đường dẫn riêng biệt. Khay trên cao phía trên lối đi nóng mang ống dẫn chất lỏng; giỏ được nối đất dưới sàn mang tuyến cáp quang.

  2. Cáp quang mật độ cao. Tuyến MPO 24 sợi giảm thiểu chiều rộng gói, tạo không gian cho các đường ống phân phối chất làm mát.

  3. Đường ống phân phối tầm ngắn. Đường ống phân phối cấp rack giảm độ dài ống và tạo các vùng dry-break cô lập.

  4. Đào tạo đa ngành. Kỹ thuật viên mạng chứng nhận quy trình xử lý chất lỏng, trong khi nhân viên cơ khí thành thạo dung sai quản lý cáp quang.

Tính bền vững và phát triển tương lai

Các đường dẫn kết hợp hiện gộp chung các kênh cáp quang được che chắn với vòng lặp chất lỏng kép, hợp lý hóa việc lắp đặt và bảo tồn không gian khay.⁷ Các kỹ sư tại Phòng thí nghiệm Năng lượng tái tạo Quốc gia thu hồi nhiệt thải cấp rack và đưa vào lưới sưởi ấm khu vực, biến năng lượng nhiệt dư thừa thành sự ấm áp cho cộng đồng.⁸ Hướng dẫn sắp tới của ASHRAE tăng nhiệt độ đầu vào rack cho phép, mở đường cho việc tích hợp chặt chẽ hơn các sơ đồ làm mát không khí và chất lỏng.⁹

Các kỹ sư của chúng tôi đưa mọi ý tưởng mới qua thử nghiệm nghiêm ngặt trong phòng thí nghiệm pilot, chỉ giữ lại những cái có hiệu quả, và áp dụng những thành công đó vào các dự án thực tế—dù là xây dựng mới hay cải tạo trung tâm cũ. Kết quả rõ ràng: bố trí rack chặt chẽ hơn, hóa đơn điện thấp hơn, và thành tựu bền vững mà cả đội ngũ thực địa và ban lãnh đạo đều có thể tự hào.

Kết luận

Cáp có cấu trúc đảm bảo tính toàn vẹn dữ liệu và tính linh hoạt vận hành, trong khi đường ống làm mát bằng chất lỏng cung cấp sự ổn định nhiệt ở mật độ cao. Các cơ sở phối hợp cả hai hệ thống trong quá trình thiết kế đạt được hiệu suất có thể dự đoán, sử dụng năng lượng tối ưu và thời gian triển khai nhanh chóng. Quy hoạch đường dẫn cẩn thận, lắp đặt có kỷ luật và chuyên môn đa chức năng biến rack 100 kW từ một khái niệm đầy tham vọng thành hiện thực đáng tin cậy.

Tài liệu tham khảo (Chicago Author-Date)

  1. Uptime Institute. Global Data Center Survey 2024: Keynote Report 146M. New York: Uptime Institute, 2024.

  2. Cisco Systems. Fiber-Optic Cabling Best Practices for 400 G Data Centers. San José, CA: Cisco White Paper, 2023.

  3. American Society of Heating, Refrigerating and Air-Conditioning Engineers. Thermal Guidelines for Data Processing Environments, 6th ed. Atlanta: ASHRAE, 2022.

  4. Lawrence Berkeley National Laboratory. Measured PUE Savings in Liquid-Cooled AI Facilities. Berkeley, CA: LBNL, 2024.

  5. Introl. "Accelerate the Future of AI with Introl Managed GPU Deployments." Accessed June 26, 2025. https://introl.com/.

  6. Introl. "Frankfurt Case Study." Accessed June 26, 2025. https://introl.com/case-studies/frankfurt.

  7. Open Compute Project. Advanced Cooling Solutions: 2025 Specification Draft. San José, CA: OCP Foundation, 2025.

  8. Huang, Wei. "Rack-Level Heat Recovery in Liquid-Cooled AI Clusters." Journal of Sustainable Computing 12, no. 3 (2024): 45–58.

  9. ASHRAE. Proposed Addendum C to Thermal Guidelines, public-review draft, January 2025.

Yêu cầu báo giá_

Hãy cho chúng tôi biết về dự án của bạn và chúng tôi sẽ phản hồi trong vòng 72 giờ.

> TRUYỀN_TẢI_HOÀN_TẤT

Đã Nhận Yêu cầu_

Cảm ơn bạn đã gửi yêu cầu. Đội ngũ của chúng tôi sẽ xem xét và phản hồi trong vòng 72 giờ.

ĐANG XẾP HÀNG XỬ LÝ