เดินเข้าไปในโกดังแปลงใหม่ที่ National Composites Centre ของ Bristol แล้วคุณจะพบกับฮาร์ดแวร์คอมพิวติ้งล้ำสมัยหนัก 150 ตันที่ทำงานอึ่งอ่างอยู่ในตู้ระบายความร้อนด้วยของเหลว: Isambard-AI ซูเปอร์คอมพิวเตอร์ปัญญาประดิษฐ์ที่ทรงพลังที่สุดของสหราชอาณาจักร แน่นอนว่าหัวข่าวต่างเฉลิมฉลองประสิทธิภาพ AI 21 exaflops แต่นี่คือสิ่งที่พวกเขาพลาด: ความท้าทายด้านโครงสร้างพื้นฐานที่พิเศษกว่าปกติที่ทีมงานเอาชนะได้เพื่อนำโปรเจกต์มูลค่า £225 ล้านนี้มาใช้งานได้ในเวลาเพียง 24 เดือน เมื่อห้าปีก่อน? เป็นไทม์ไลน์ที่เป็นไปไม่ได้เลย
การติดตั้ง NVIDIA Grace Hopper Superchips จำนวน 5,448 ชิปของ Isambard-AI เผยให้เห็นความพัฒนาที่สำคัญ ความสำเร็จในการคอมพิวติ้ง AI ตอนนี้ไม่ได้ขึ้นอยู่กับแค่การซื้อ GPU อีกต่อไป คุณต้องเชี่ยวชาญระบบนิเวศที่ซับซ้อนของไฟฟ้า ระบายความร้อน เครือข่าย และ logistics ที่โครงสร้างพื้นฐาน AI สมัยใหม่ต้องการ องค์กรที่วางแผนการติดตั้ง GPU ขนาดใหญ่ควรเข้าใจความท้าทายเหล่านี้และความเชี่ยวชาญเฉพาะทางที่จำเป็นในการเอาชนะปัญหาเหล่านั้นให้ดีขึ้น
เมื่อ 5 เมกะวัตต์พบกับซิลิคอน 150 ตัน
ขนาดของ Isambard-AI ทำลายแนวคิดดาต้าเซ็นเตอร์แบบดั้งเดิม แต่ละตู้ HPE Cray EX4000 ทั้ง 12 ตู้จุ GPU 440 ตัว สร้างความหนาแน่นของความร้อนที่จะทำให้ระบบแบบเดิมหลอมละลาย การระบายความร้อนด้วยอากาศแบบดั้งเดิมดิ้นรนเกิน 20kW ต่อแร็ก Isambard-AI ล่ะ? เกิน 400kW ต่อตู้ โซลูชันคือการระบายความร้อนด้วยของเหลวโดยตรง 100% แต่การนำมาใช้ต้องการทักษะใหม่ทั้งหมด
"สิ่งที่เราเห็นกับการติดตั้งอย่าง Isambard-AI คือการเปลี่ยนแปลงพื้นฐานในสิ่งที่ถือว่าเป็นความเชี่ยวชาญด้านดาต้าเซ็นเตอร์" ภูมิทัศน์การติดตั้งโครงสร้างพื้นฐานเผยให้เห็น บริษัทที่เคยเน้นการดำเนินงาน rack-and-stack แบบดั้งเดิมตอนนี้ต้องการวิศวกรที่เข้าใจพลศาสตร์การระบายความร้อนด้วยของเหลว การจัดการสายเคเบิลความหนาแน่นสูง และวิธีการเริ่มใช้งาน GPU หลายพันตัวพร้อมกัน ทีมของ University of Bristol ทำงานร่วมกับพาร์ตเนอร์การติดตั้งเฉพาะทางเพื่อติดตั้งการเชื่อมต่อไฟเบอร์ออปติกกว่า 40,000 จุด นั่นคือสายเคเบิลเพียงพอที่จะล้อมเมืองเล็กๆ ได้ และพวกเขาต้องรักษาความแม่นยำที่จำเป็นสำหรับการเชื่อมต่อ NVLink รุ่นที่ 5 ของระบบที่ทำงานที่ 1.8TB/s
นี่คือจุดสำคัญ: โปรเจกต์นี้ใช้เวลาจากการลงนามในสัญญาจนถึงสถานะการดำเนินงานน้อยกว่าสี่เดือน อย่างไร? บริษัทการติดตั้งโครงสร้างพื้นฐาน GPU เฉพาะทางสามารถระดมช่างเทคนิคฝีมือหลายร้อยคนภายใน 72 ชั่วโมงในตอนนี้ เหล่านี้ไม่ใช่ผู้รับเหมา IT แบบดั้งเดิม พวกเขาเป็นทีมเฉพาะทางที่รู้ข้อกำหนดแรงบิดเฉพาะสำหรับการเชื่อมต่อระบายความร้อนด้วยของเหลวและลำดับที่เหมาะสมสำหรับการนำ GPU หลายพันตัวมาใช้งานโดยไม่ทำให้ระบบไฟฟ้าล้นหลาม
ความซับซ้อนที่ซ่อนอยู่ของโครงสร้างพื้นฐาน AI-first
ซูเปอร์คอมพิวเตอร์แบบดั้งเดิมถูกดัดแปลงสำหรับปริมาณงาน AI Isambard-AI ถูกออกแบบตั้งแต่เริ่มต้นสำหรับแอปพลิเคชันปัญญาประดิษฐ์ แนวทาง AI-first ของพวกเขามีอิทธิพลต่อการตัดสินใจด้านโครงสร้างพื้นฐานทุกอย่าง ทีมเลือกการออกแบบดาต้าเซ็นเตอร์แบบโมดูลาร์ของ HPE และประกอบมันในพื้นที่เพียง 48 ชั่วโมง พวกเขาเลือกแหล่งจ่ายไฟแบบศูนย์คาร์บอนที่สอดคล้องกับการจัดอันดับประสิทธิภาพพลังงานอันดับ 4 ของโลก
โครงสร้างพื้นฐานเครือข่ายเพียงอย่างเดียวก็เป็นความสำเร็จการประสานงานวิศวกรรมขนาดใหญ่ เครือข่าย HPE Slingshot 11 ของระบบให้แบนด์วิดธ์สองทิศทาง 25.6 Tb/s ข้าม 64 พอร์ต โดยแต่ละโหนดได้รับแบนด์วิดธ์การฉีดเครือข่าย 800 Gbps การติดตั้งและตรวจสอบเว็บของการเชื่อมต่อที่ซับซ้อนนี้ต้องการความเชี่ยวชาญเฉพาะทางในเครือข่ายประสิทธิภาพสูงที่ไปไกลกว่าการติดตั้งองค์กรทั่วไป ผู้เชี่ยวชาญโครงสร้างพื้นฐาน GPU สมัยใหม่ต้องเข้าใจชั้นกายภาพและวิธีที่โทโพโลยีการเชื่อมต่อต่างๆ ส่งผลต่อประสิทธิภาพปริมาณงาน AI
การจ่ายไฟสร้างความท้าทายเฉพาะของมัน ในขณะที่ไฟฟ้าสิ่งอำนวยความสะดวกรวม 5MW ของ Isambard-AI อาจดูเจียมเนื้อเจียมตัวเมื่อเทียบกับดาต้าเซ็นเตอร์ hyperscale แต่ความหนาแน่นและความสำคัญของการจ่ายไฟนี้สร้างข้อกำหนดที่เป็นเอกลักษณ์ Grace Hopper Superchip แต่ละตัวต้องการการจ่ายไฟที่แม่นยำ ด้วย 5,448 ตัวที่ทำงานร่วมกัน แม้แต่การผันผวนเล็กน้อยก็อาจทำให้ระบบไม่เสถียร ทีมการติดตั้งนำระบบจัดการไฟฟ้าที่ซับซ้อนพร้อมความสามารถในการตรวจสอบแบบเรียลไทม์ที่สามารถตรวจจับและตอบสนองต่อความผิดปกติภายในมิลลิวินาทีมาใช้
การเรียนรู้จากการแข่งขันโครงสร้างพื้นฐาน AI ของยุโรป
การติดตั้ง Isambard-AI เกิดขึ้นในขณะที่ประเทศในยุโรปแข่งขันกันอย่างเข้มข้นเพื่อความเป็นเลิศด้าน AI ระบบ LUMI ของฟินแลนด์ให้พลังการคอมพิวติ้งแบบดั้งเดิม 380 petaflops ซูเปอร์คอมพิวเตอร์ Jupiter ที่กำลังจะมาของเยอรมนีสัญญาว่าจะเป็นระบบ exascale แรกของยุโรป แต่ Isambard-AI บรรลุสถานะการดำเนินงานได้เร็วกว่าเพื่อนยุโรปคนไหนๆ มันย้ายจากข้อเสนอเริ่มต้นไปสู่การดำเนินงานทั้งหมดในเวลาไม่ถึงสองปี เปรียบเทียบกับไทม์ไลน์ทั่วไป 4-5 ปีสำหรับระบบที่เทียบได้
ความได้เปรียบด้านความเร็วนี้มาจากกระบวนการจัดซื้อจัดจ้างที่คล่องตัวของสหราชอาณาจักรหลัง Brexit บางส่วน แต่สำคัญกว่านั้น มันเกิดจากวิวัฒนาการของวิธีการติดตั้ง GPU การติดตั้งซูเปอร์คอมพิวเตอร์แบบดั้งเดิมเป็นไปตามขั้นตอนต่อเนื่อง: โครงสร้างพื้นฐาน แล้วฮาร์ดแวร์ แล้วเครือข่าย แล้วซอฟต์แวร์ การติดตั้ง GPU สมัยใหม่ใช้ประโยชน์จากเวิร์กโฟลว์แบบขนาน ทีมเฉพาะทางทำงานพร้อมกันในการติดตั้งระบายความร้อนด้วยของเหลว การเริ่มใช้งาน GPU และการกำหนดค่าเครือข่าย ทำให้ไทม์ไลน์บีบอัดอย่างมาก
ความแตกต่างกับการติดตั้งยุโรปอื่นๆ สอนบทเรียนที่มีค่า MareNostrum 5 ของสเปน แม้จะมีข้อกำหนดที่น่าประทับใจ แต่ก็ต้องการการดัดแปลงสิ่งอำนวยความสะดวกที่มีอยู่อย่างมาก ระบบ Leonardo ของอิตาลีเผชิญความล่าช้าในการรวมความสามารถการเร่ง AI ความสำเร็จของ Isambard-AI แสดงให้เห็นว่าโครงสร้างพื้นฐาน AI ที่สร้างขึ้นเพื่อจุดประสงค์เฉพาะ ที่ติดตั้งโดยทีมที่มีความเชี่ยวชาญ GPU เฉพาะ สามารถบรรลุเวลาสู่วิทยาศาสตร์ได้เร็วกว่าระบบ HPC ที่ดัดแปลง
ช่องว่างความเชี่ยวชาญที่คุกคามความทะเยอทะยาน AI
องค์กรทั่วโลกแข่งกันติดตั้งโครงสร้างพื้นฐาน AI แต่ช่องว่างทักษะที่สำคัญได้เกิดขึ้น ช่างเทคนิคดาต้าเซ็นเตอร์แบบดั้งเดิม แม้จะมีประสบการณ์ แต่ก็มักขาดความรู้เฉพาะทางที่จำเป็นสำหรับการติดตั้ง GPU สมัยใหม่ ระบบระบายความร้อนด้วยของเหลวต้องการความเข้าใจในพลศาสตร์ของไหลและการจัดการความร้อน การกำหนดค่า GPU ความหนาแน่นสูงต้องการความเชี่ยวชาญในการจ่ายไฟและการเพิ่มประสิทธิภาพการไหลของอากาศที่ไปไกลกว่าการติดตั้งเซิร์ฟเวอร์แบบเดิม
ช่องว่างความเชี่ยวชาญนี้กระทบหนักที่สุดในหลายพื้นที่ การจัดการสายเคเบิลสำหรับคลัสเตอร์ GPU กลายเป็นสาขาวิชาเฉพาะทาง การเชื่อมต่อความเร็วสูงหลายพันจุดของ Isambard-AI ต้องการการกำหนดเส้นทางที่แม่นยำเพื่อรักษาความสมบูรณ์ของสัญญาณในขณะเดียวกันก็อนุญาตให้เข้าถึงเพื่อการบำรุงรักษา ช่างเทคนิคไฟฟ้าและระบายความร้อนต้องเข้าใจไม่เพียงข้อกำหนดสถานะคงที่ แต่ยังรวมถึงพฤติกรรมไดนามิกของปริมาณงาน AI ที่สามารถเปลี่ยนจากไม่ทำงานเป็นพลังงานเต็มในมิลลิวินาที
บริษัทอย่าง introl.com ได้เกิดขึ้นมาเพื่อเติมช่องว่างนี้ พัฒนาทีมเฉพาะทางที่รวมทักษะดาต้าเซ็นเตอร์แบบดั้งเดิมกับความเชี่ยวชาญเฉพาะ GPU การติดตั้งระบบที่เกิน 1,000 GPU nodes ของพวกเขาแสดงให้เห็นขนาดที่ผู้เชี่ยวชาญโครงสร้างพื้นฐานสายพันธุ์ใหม่นี้ดำเนินการ ความสามารถในการระดมช่างเทคนิค 40 คนภายในสัปดาห์ ตามที่เห็นในการติดตั้งผู้ให้บริการ GPU cloud รายใหญ่เมื่อเร็วๆ นี้ แสดงถึงความสามารถการดำเนินงานใหม่ที่ไม่มีอยู่ในอุตสาหกรรมดาต้าเซ็นเตอร์แบบดั้งเดิม
นอกเหนือการติดตั้ง: การรักษาความเป็นเลิศโครงสร้างพื้นฐาน AI
ความท้าทายไม่สิ้นสุดเมื่อ GPU ตัวสุดท้ายเปิดใช้งาน การรักษาระบบอย่าง Isambard-AI ต้องการการเพิ่มประสิทธิภาพอย่างต่อเนื่องและการจัดการเชิงรุก ทีมของ University of Bristol ใช้ระบบการตรวจสอบที่ซับซ้อนที่ติดตามทุกอย่างตั้งแต่รูปแบบการใช้ GPU ไปจนถึงอัตราการไหลของสารหล่อเย็น ด้วยพื้นที่ที่อยู่หน่วยความจำรวม 850GB ต่อโหนดของระบบ แม้แต่ความไร้ประสิทธิภาพเล็กน้อยก็สามารถส่งผลกระทบอย่างมากต่อผลผลิตการวิจัย
โครงสร้างพื้นฐาน GPU สมัยใหม่ต้องการแนวทาง DevOps สำหรับระบบทางกายภาพ การอัปเดตเฟิร์มแวร์ต้องได้รับการประสานงานอย่างระมัดระวังข้ามอุปกรณ์หลายพันเครื่องโดยทีมวิศวกรรม ระบบระบายความร้อนต้องการการบำรุงรักษาเชิงพยากรณ์ตามรูปแบบการใช้งานและสภาพแวดล้อม การกำหนดค่าเครือข่ายต้องการการปรับแต่งอย่างต่อเนื่องเพื่อเพิ่มประสิทธิภาพสำหรับรูปแบบปริมาณงานที่เปลี่ยนแปลง ความซับซ้อนการดำเนินงานนี้ขับเคลื่อนการพัฒนาโมเดลบริการเฉพาะทางที่พาร์ตเนอร์โครงสร้างพื้นฐานให้บริการเพิ่มประสิทธิภาพอย่างต่อเนื่องแทนการติดตั้งครั้งเดียว
ผลกระทบทางเศรษฐกิจกระทบหนัก Grace Hopper Superchip แต่ละตัวแสดงถึงการลงทุนทุนมากพอสมควร เวลาที่ไม่ได้ใช้งานส่งผลกระทบโดยตรงต่อผลตอบแทนจากการลงทุน องค์กรที่ติดตั้งคลัสเตอร์ GPU ขนาดใหญ่มักพึ่งพาพาร์ตเนอร์ที่สามารถให้ไม่เพียงการติดตั้งแต่ยังรวมถึงบริการเพิ่มประสิทธิภาพอย่างต่อเนื่อง ความสามารถในการรักษาอัตราการใช้งาน 95%+ ตามที่เป้าหมายโดยการติดตั้งโครงสร้างพื้นฐาน AI ชั้นนำ ต้องการความสนใจอย่างต่อเนื่องต่อการจัดตารางปริมาณงาน การจัดสรรทรัพยากร และสุขภาพระบบ
การวางแผนอนาคตของโครงสร้างพื้นฐาน AI
การติดตั้ง Isambard-AI ที่ประสบความสำเร็จให้บทเรียนสำคัญสำหรับองค์กรที่วางแผนความคิดริเริ่มโครงสร้างพื้นฐาน AI ของตัวเอง ประการแรก ยุคของการปฏิบัติต่อ GPU เป็นเพียงคอมโพเนนต์เซิร์ฟเวอร์ธรรมดาได้สิ้นสุดลง ระบบ AI สมัยใหม่ต้องการการคิดแบบองค์รวมเกี่ยวกับไฟฟ้า ระบายความร้อน เครือข่าย และการดำเนินงานตั้งแต่ขั้นตอนการวางแผนเริ่มต้น ประการที่สอง ไทม์ไลน์ที่บีบอัดที่บรรลุโดย Isambard-AI (จากแนวคิดสู่การดำเนินงานในเวลาไม่ถึงสองปี) กำลังกลายเป็นมาตรฐานใหม่ แต่เฉพาะสำหรับองค์กรที่เป็นพาร์ตเนอร์กับทีมการติดตั้งเฉพาะทาง
มองไปข้างหน้า ความท้าทายด้านโครงสร้างพื้นฐานจะรุนแรงขึ้นเท่านั้น สถาปัตยกรรม Blackwell ของ NVIDIA สัญญาว่าจะมีความหนาแน่นของพลังงานที่สูงยิ่งขึ้น โดยการกำหนดค่าบางอย่างเกิน 1,000W ต่อ GPU การระบายความร้อนด้วยของเหลวจะเปลี่ยนจากตัวเลือกขั้นสูงเป็นความจำเป็นโดยสิ้นเชิง ข้อกำหนดแบนด์วิดธ์เครือข่ายจะเติบโตอย่างทวีคูณอย่างต่อเนื่องเมื่อขนาดโมเดลผลักไปสู่ 10 ล้านล้านพารามิเตอร์ องค์กรที่ขาดการเข้าถึงความเชี่ยวชาญโครงสร้างพื้นฐาน GPU เฉพาะทางจะพบว่าตัวเองไม่สามารถแข่งขันในการปฏิวัติ AI ได้มากขึ้น
การลงทุนของสหราชอาณาจักรใน Isambard-AI แสดงถึงมากกว่าเพียงความสำเร็จทางเทคนิค มันเป็นแบบแปลนสำหรับวิธีที่ประเทศและองค์กรสามารถติดตั้งโครงสร้างพื้นฐาน AI ระดับโลกได้อย่างรวดเร็ว โดยการรวมสิ่งอำนวยความสะดวกที่สร้างขึ้นเพื่อจุดประสงค์เฉพาะ กระบวนการจัดซื้อจัดจ้างที่คล่องตัว และการเป็นพาร์ตเนอร์กับทีมการติดตั้งเฉพาะทาง โปรเจกต์แสดงให้เห็นว่าความท้าทายด้านโครงสร้างพื้นฐานของยุค AI แม้จะน่ากลัว แต่ก็ไม่ได้เป็นสิ่งที่เอาชนะไม่ได้เลย สำหรับผู้ที่ยินดีลงทุนในความเชี่ยวชาญและการเป็นพาร์ตเนอร์ที่เหมาะสม เส้นทางจากความทะเยอทะยานสู่ซูเปอร์คอมพิวติ้ง AI ที่ใช้งานได้จริงไม่เคยตรงไปตรงมาขนาดนี้มาก่อน
มหาวิทยาลัย องค์กร และรัฐบาลทั่วโลกใคร่ครวญการลงทุนโครงสร้างพื้นฐาน AI ของตัวเอง Isambard-AI ยืนเป็นหลักฐานว่าด้วยแนวทางที่เหมาะสมและพาร์ตเนอร์ที่เหมาะสม แม้การติดตั้ง GPU ที่ทะเยอทะยานที่สุดก็สามารถย้ายจากข้อเสนอไปสู่การผลิตด้วยความเร็วของนวัตกรรมได้ คำถามไม่ใช่ว่าจะสร้างโครงสร้างพื้นฐาน AI หรือไม่ แต่ว่าคุณมีการเข้าถึงความเชี่ยวชาญเฉพาะทางที่จำเป็นในการทำให้มันถูกต้องหรือไม่
References
Alliance Chemical. "AI GPU Cooling Revolution: Deionized Water, Ethylene Glycol & Propylene." Alliance Chemical. Accessed August 1, 2025. https://alliancechemical.com/blogs/articles/ai-gpu-cooling-revolution-deionized-water-ethylene-glycol-propylene-glycol-the-ultimate-liquid-cooling-guide.
Computer Weekly. "Bristol goes live with UK AI supercomputer." Computer Weekly, 2025. https://www.computerweekly.com/news/366584173/Bristol-goes-live-with-UK-AI-supercomputer.
Computer Weekly. "UK government pledges £225m to fund University of Bristol AI supercomputer build with HPE." Computer Weekly, November 2023. https://www.computerweekly.com/news/366558036/UK-government-pledges-225m-to-fund-University-of-Bristol-AI-supercomputer-build-with-HPE.
Data Center Knowledge. "Direct-to-Chip Liquid Cooling: Optimizing Data Center Efficiency." Data Center Knowledge. Accessed August 1, 2025. https://www.datacenterknowledge.com/cooling/direct-to-chip-liquid-cooling-optimizing-data-center-efficiency.
EuroHPC Joint Undertaking. "Inauguration of MareNostrum 5: Europe welcomes a new world-class supercomputer." December 21, 2023. https://www.eurohpc-ju.europa.eu/inauguration-marenostrum-5-europe-welcomes-new-world-class-supercomputer-2023-12-21_en.
EuroHPC Joint Undertaking. "MareNostrum5: a new EuroHPC world-class supercomputer in Spain." June 16, 2022. https://eurohpc-ju.europa.eu/marenostrum5-new-eurohpc-world-class-supercomputer-spain-2022-06-16_en.
Forschungszentrum Jülich. "JUPITER Technical Overview." Accessed August 1, 2025. https://www.fz-juelich.de/en/ias/jsc/jupiter/tech.
GOV.UK. "Sovereign AI AIRR launch opportunity: call for researchers." Accessed August 1, 2025. https://www.gov.uk/government/publications/sovereign-ai-airr-launch-opportunity-call-for-researchers/sovereign-ai-airr-launch-opportunity-call-for-researchers.
Hewlett-Packard Enterprise. "UK Government invests £225m to create UK's most powerful AI supercomputer with University of Bristol and Hewlett Packard Enterprise." Press release, November 2023. https://www.hpe.com/us/en/newsroom/press-release/2023/11/uk-government-invests-225m-to-create-uks-most-powerful-ai-supercomputer-with-university-of-bristol-and-hewlett-packard-enterprise.html.
HPCwire. "University of Bristol to Host Isambard-AI Supercomputer, Marking a New Era in AI and HPC." HPCwire. Accessed August 1, 2025. https://www.hpcwire.com/off-the-wire/university-of-bristol-to-host-isambard-ai-supercomputer-marking-a-new-era-in-ai-and-hpc/.
Hyperstack. "All About the NVIDIA Blackwell GPUs: Architecture, Features, Chip Specs." Accessed August 1, 2025. https://www.hyperstack.cloud/blog/thought-leadership/everything-you-need-to-know-about-the-nvidia-blackwell-gpus.
IBM. "Introl Solutions, LLC." IBM PartnerPlus Directory. Accessed August 1, 2025. https://www.ibm.com/partnerplus/directory/company/9695.
Introl. "GPU Infrastructure Deployments | Optimize Your GPU Deployments." Accessed August 1, 2025. https://introl.com/gpu-infrastructure-deployments.
Introl. "Introl - GPU Infrastructure & Data Center Deployment Experts." Accessed August 1, 2025. https://introl.com.
Introl. "Introl | GPU Infrastructure, Data Center Solutions & HPC Deployment." Accessed August 1, 2025. https://introl.com/blog.
IT Pro. "Inside Isambard-AI: The UK's most powerful supercomputer." IT Pro. Accessed August 1, 2025. https://www.itpro.com/infrastructure/inside-isambard-ai-the-uks-most-powerful-supercomputer.
IT4Innovations. "LUMI." Accessed August 1, 2025. https://www.it4i.cz/en/infrastructure/lumi.
Jetcool. "What is Direct Liquid Cooling for AI Data Centers?" Accessed August 1, 2025. https://jetcool.com/post/what-is-direct-liquid-cooling-for-ai-data-centers/.
NVIDIA. "NVLink & NVSwitch for Advanced Multi-GPU Communication." Accessed August 1, 2025. https://www.nvidia.com/en-us/data-center/nvlink/.
NVIDIA. "The Engine Behind AI Factories | NVIDIA Blackwell Architecture." Accessed August 1, 2025. https://www.nvidia.com/en-us/data-center/technologies/blackwell-architecture/.
NVIDIA Blog. "NVIDIA Blackwell Platform Boosts Water Efficiency by Over 300x." Accessed August 1, 2025. https://blogs.nvidia.com/blog/blackwell-platform-water-efficiency-liquid-cooling-data-centers-ai-factories/.
ResearchGate. "Isambard-AI: a leadership class supercomputer optimised specifically for Artificial Intelligence." October 2024. https://www.researchgate.net/publication/384938455_Isambard-AI_a_leadership_class_supercomputer_optimised_specifically_for_Artificial_Intelligence.
SDxCentral. "UK's $300M Isambard-AI supercomputer officially launches." SDxCentral. Accessed August 1, 2025. https://www.sdxcentral.com/news/uks-300m-isambard-ai-supercomputer-officially-launches/.
TechTarget. "Liquid cooling's moment comes courtesy of AI." TechTarget. Accessed August 1, 2025. https://www.techtarget.com/searchdatacenter/feature/Liquid-coolings-moment-comes-courtesy-of-AI.
The Engineer. "Isambard AI supercomputer launches in Bristol." The Engineer. Accessed August 1, 2025. https://www.theengineer.co.uk/content/news/isambard-ai-supercomputer-launches-in-bristol/.
UK Research and Innovation. "£300 million to launch first phase of new AI Research Resource." Accessed August 1, 2025. https://www.ukri.org/news/300-million-to-launch-first-phase-of-new-ai-research-resource/.
University of Bristol. "2023: Isambard AI Bristol." Cabot Institute for the Environment. Accessed August 1, 2025. https://www.bristol.ac.uk/cabot/news/2023/isambard-ai-bristol.html.
University of Bristol. "July: UK's most powerful supercomputer launches in Bristol." News and features, July 2025. https://www.bristol.ac.uk/news/2025/july/isambard-launch.html.
University of Bristol. "November: Unprecedented £225m investment to create UK's most powerful supercomputer." News and features, November 2023. https://www.bristol.ac.uk/news/2023/november/supercomputer-announcement.html.
Wikipedia. "Blackwell (microarchitecture)." Accessed August 1, 2025. https://en.wikipedia.org/wiki/Blackwell_(microarchitecture).
Wikipedia. "LUMI." Accessed August 1, 2025. https://en.wikipedia.org/wiki/LUMI.
"Isambard-AI: a leadership class supercomputer optimised specifically for Artificial Intelligence." arXiv preprint arXiv:2410.11199 (2024). http://arxiv.org/pdf/2410.11199.