การเดินสายแบบมีโครงสร้าง เทียบกับ ท่อระบายความร้อนด้วยของเหลว: การออกแบบสำหรับแร็คที่มีกำลังไฟ 100 kW ขึ้นไป

เมื่อภาระงาน AI ผลักดันความหนาแน่นของแร็คให้เกิน 100 kW ดาต้าเซ็นเตอร์จำเป็นต้องเชี่ยวชาญทั้งการเดินสายเคเบิลที่มีโครงสร้างสำหรับการไหลของข้อมูลและระบบระบายความร้อนด้วยของเหลวสำหรับการกำจัดความร้อน เรียนรู้วิธีการออกแบบโครงสร้างพื้นฐานที่ทำให้ GPU ทำงานได้อย่างมีประสิทธิภาพสูงสุด

การเดินสายแบบมีโครงสร้าง เทียบกับ ท่อระบายความร้อนด้วยของเหลว: การออกแบบสำหรับแร็คที่มีกำลังไฟ 100 kW ขึ้นไป

ศูนย์ข้อมูลในอดีตเคยวัดความสำเร็จด้วยหน่วย megawatt แต่วันนี้กลับอวดความสามารถในแง่ kilowatt ต่อ rack เมื่อ AI workload เพิ่มสูงขึ้นและความหนาแน่นของ rack เกิน 100 kW ทีมดูแลสิ่งอำนวยความสะดวกต้องเผชิญกับการปรับสมดุลใหม่: คือการรักษาการไหลของข้อมูลผ่านเส้นใยแสงที่สะอาดปราศจากปัญหาไปพร้อมๆ กับการระบายความร้อนที่เผาไหม้ออกไปอย่างรวดเร็ว ความเสี่ยงที่เกิดขึ้นสัมผัสได้จริง—การออกแบบที่ผิดพลาดหมายถึง GPU ที่เสียหายและค่าไฟฟ้าที่เพิ่มขึ้นเป็นเกลียว—ดังนั้นทุกเส้นทาง ท่อ และ patch panel ต้องทำหน้าที่ได้เต็มประสิทธิภาพตั้งแต่วันแรก

เกณฑ์ 100 kW

GPU shelf สมัยใหม่ใช้ไฟฟ้ามากกว่า 100 kW ต่อ rack ซึ่งเป็นภาระทางไฟฟ้าที่เคยสงวนไว้เฉพาะ substation ขนาดเล็ก¹ ผู้ปฏิบัติงานที่ตั้งเป้าความหนาแน่นเหล่านี้ต้องยกระดับทั้งระบบ cable plant และเครือข่ายสารทำความเย็นให้เป็นโครงสร้างพื้นฐานระดับแนวหน้า หากละเลยระบบใดระบบหนึ่ง white space ระดับพรีเมียมจะกลายเป็นเครื่องทำความร้อนขนาดใหญ่แทนที่จะเป็น data hall ที่มีประสิทธิผล

Structured Cabling: รากฐานสำหรับความเชื่อถือได้

Structured cabling จัดเรียงเส้นทางทองแดงและใยแสงในลำดับชั้นที่มีระเบียบวินัยและส่งมอบประโยชน์สำคัญสามประการ:

การไหลของอากาศที่ไม่มีสิ่งกีดขวาง Bundled trunk ปกป้องพื้นที่ใต้พื้นและ overhead plenum เพื่อให้หน่วย CRAH รักษาการส่งมอบอากาศเย็นที่สม่ำเสมอ

ลด mean time to repair พอร์ตที่มีป้ายกำกับชัดเจนและ pre-terminated cassette ช่วยให้เทคนิเชียนแยกและกู้คืนลิงก์ที่ล้มเหลวภายในไม่กี่นาที

Signal integrity Cassette ความหนาแน่นสูงบังคับให้มี bend radius ที่เหมาะสม ปกป้อง 400 GbE optics จาก micro-bending loss²

Air-cooled hall ที่ทำงานที่ระดับ—หรือเกิน—100 kW จะประสบความสำเร็จได้เฉพาะเมื่อการเดินสายไม่บล็อก critical airflow

Liquid-Cooled Conduit: การสกัดความร้อนโดยตรง

Air cooling สูญเสียประสิทธิภาพเมื่อเกินประมาณ 50 kW ต่อ rack Liquid cooling—ผ่าน cold-plate loop หรือ immersion tank—ระบายความร้อนจากชิปและส่งไปยัง heat exchanger ภายนอก

Heat capacity ที่เหนือกว่า น้ำระบายความร้อนได้อย่างมีประสิทธิภาพมากกว่าอากาศ 3,500 เท่าตามปริมาตรที่อุณหภูมิเพิ่มขึ้นเท่ากัน³

ประสิทธิภาพพลังงานที่ดีขึ้น การลดอุณหภูมิจ่ายสารทำความเย็นช่วยให้ผู้ปฏิบัติงานเพิ่ม chiller set point และลด PUE 10–20 เปอร์เซ็นต์ในการติดตั้งจริง⁴

การประสานงานเส้นทาง สาย liquid ต้องการพื้นที่ถาดเฉพาะ ดังนั้นทีมออกแบบจึงแยกออกจาก optical trunk ในขั้นตอนการจัดวาง

จุดเด่นของประสิทธิภาพเปรียบเทียบ

การระบายความร้อน: Structured cabling ส่งเสริมการไหลของอากาศที่ไม่มีสิ่งกีดขวาง ขณะที่ liquid-cooled conduit สกัดความร้อนโดยตรงที่ระดับส่วนประกอบ

การบำรุงรักษา: ทีม cabling สลับ cassette และตรวจสอบลิงก์อย่างรวดเร็ว ส่วนผู้เชี่ยวชาญด้านระบายความร้อนใช้ dry quick-disconnect และทำการตรวจสอบรั่ว

ความต้องการพื้นที่: มัด fiber ยังคงกะทัดรัด สาย coolant ต้องการเส้นผ่านศูนย์กลางใหญ่กว่าและ bend radius กว้างกว่า

ผลกระทบจากความล้มเหลว: Fiber ขาดเพียงเส้นเดียวทำให้ลิงก์หนึ่งแยกออก การรั่วของสารทำความเย็นสามารถก่อให้เกิดการหยุดทำงานในวงกว้าง

ข้อกำหนดทักษะ: งาน cabling อาศัยเทคนิเชียนเครือข่ายแรงดันต่ำ ขณะที่ระบบ liquid ต้องการผู้เชี่ยวชาญด้านกลศาสตร์และการจัดการของเหลว

สิ่งอำนวยความสะดวก hyperscale ส่วนใหญ่ผสมผสานทั้งสองระบบ: structured cabling ขนส่งข้อมูลและ liquid conduit ระบายความร้อน

วิธีการ Rapid-Deployment ของ Introl

ทีมภาคสนาม Introl ติดตั้ง GPU กว่า 100,000 ตัวและเดิน fiber มากกว่า 40,000 ไมล์ทั่ว AI cluster ระดับโลก⁵ พนักงาน 550 คนระดมพลภายใน 72 ชั่วโมง ติดตั้ง 1,024 H100 node และ 35,000 fiber patch ใน 14 วัน และส่งมอบระบบ containment ที่มีเครื่องมือครบครันตามกำหนด⁶

แนวปฏิบัติหลักรวมถึง:

  1. Dedicated pathway ถาดเหนือศีรษะเหนือ hot aisle พา liquid hose ตะกร้าที่ต่อสายดินใต้พื้นพา fiber trunk

  2. High-density fiber MPO trunk 24 เส้นลดความกว้างของมัด สร้างพื้นที่สำหรับ coolant manifold

  3. Short-run manifold Manifold ระดับ rack ลดความยาวของสายและสร้างโซน dry-break ที่แยกออกมา

  4. การฝึกอบรมข้ามสาขาวิชา เทคนิเชียนเครือข่ายได้รับการรับรองขั้นตอนการจัดการของเหลว ขณะที่พนักงานฝ่ายกลศาสตร์เชี่ยวชาญ fiber-management tolerance

ความยั่งยืนและการพัฒนาในอนาคต

Hybrid raceway ปัจจุบันรวม shielded fiber channel กับ twin liquid loop ทำให้การติดตั้งคล่องตัวและรักษาพื้นที่ถาด⁷ วิศวกรที่ National Renewable Energy Laboratory จับความร้อนเสียระดับ rack และป้อนเข้าไปใน district-heating grid เปลี่ยนพลังงานความร้อนส่วนเกินเป็นความอบอุ่นของชุมชน⁸ แนวทาง ASHRAE ที่กำลังจะออกมาเพิ่มอุณหภูมิ rack-inlet ที่อนุญาต เปิดทางสำหรับการรวมระบบ air และ liquid cooling ที่แน่นขึ้น⁹

วิศวกรของเรานำความคิดใหม่ทุกอย่างผ่านการทดสอบอย่างเข้มงวดใน pilot lab ของเรา เก็บเฉพาะสิ่งที่อยู่รอดได้ และนำผู้ชนะเหล่านั้นไปใช้ในโครงการจริง—ไม่ว่าจะเป็นการก่อสร้างใหม่หรือการ retrofit hall เก่า ผลตอบแทนเห็นได้ง่าย: การจัดวาง rack ที่แน่นขึ้น ค่าไฟฟ้าที่ลดลง และชัยชนะด้านความยั่งยืนที่ทั้งทีมภาคสนามและผู้บริหารสามารถภูมิใจได้

บทสรุป

Structured cabling รับประกันความครบถ้วนของข้อมูลและความคล่องตัวในการปฏิบัติงาน ขณะที่ liquid-cooled conduit ให้ความเสถียรทางความร้อนที่ความหนาแน่นสูง สิ่งอำนวยความสะดวกที่ออกแบบระบบทั้งสองอย่างประสานกันจะได้ประสิทธิภาพที่คาดการณ์ได้ การใช้พลังงานที่เหมาะสม และไทม์ไลน์การติดตั้งที่เร่งขึ้น การวางแผนเส้นทางอย่างระมัดระวัง การติดตั้งที่มีระเบียบวินัย และความเชี่ยวชาญข้ามสายงานเปลี่ยน 100 kW rack จากแนวคิดที่ทะเยอทะยานเป็นความจริงที่เชื่อถือได้

เอกสารอ้างอิง (Chicago Author-Date)

  1. Uptime Institute. Global Data Center Survey 2024: Keynote Report 146M. New York: Uptime Institute, 2024.

  2. Cisco Systems. Fiber-Optic Cabling Best Practices for 400 G Data Centers. San José, CA: Cisco White Paper, 2023.

  3. American Society of Heating, Refrigerating and Air-Conditioning Engineers. Thermal Guidelines for Data Processing Environments, 6th ed. Atlanta: ASHRAE, 2022.

  4. Lawrence Berkeley National Laboratory. Measured PUE Savings in Liquid-Cooled AI Facilities. Berkeley, CA: LBNL, 2024.

  5. Introl. "Accelerate the Future of AI with Introl Managed GPU Deployments." Accessed June 26, 2025. https://introl.com/.

  6. Introl. "Frankfurt Case Study." Accessed June 26, 2025. https://introl.com/case-studies/frankfurt.

  7. Open Compute Project. Advanced Cooling Solutions: 2025 Specification Draft. San José, CA: OCP Foundation, 2025.

  8. Huang, Wei. "Rack-Level Heat Recovery in Liquid-Cooled AI Clusters." Journal of Sustainable Computing 12, no. 3 (2024): 45–58.

  9. ASHRAE. Proposed Addendum C to Thermal Guidelines, public-review draft, January 2025.

ขอใบเสนอราคา_

แจ้งรายละเอียดโครงการของคุณ เราจะตอบกลับภายใน 72 ชั่วโมง

> TRANSMISSION_COMPLETE

ได้รับคำขอแล้ว_

ขอบคุณสำหรับคำสอบถาม ทีมงานจะตรวจสอบคำขอและติดต่อกลับภายใน 72 ชั่วโมง

QUEUED FOR PROCESSING