
การจับมือระหว่าง Jensen Huang และ Sam Altman มีความหมายมากกว่าการทูตขององค์กร บริษัททั้งสองเพิ่งมีข้อผูกพันในการสร้างโครงสร้างพื้นฐาน AI 10 กิกะวัตต์—พลังการประมวลผลที่เพียงพอต่อการให้บริการที่มีความสามารถมากกว่าระบบ DGX เดี่ยวที่ Huang ส่งมอบด้วยตนเองไปยังสำนักงาน OpenAI เมื่อเก้าปีก่อนถึงพันล้านเท่า¹ NVIDIA วางแผนลงทุนสูงสุด 100 พันล้านดอลลาร์ ขณะที่ OpenAI ปรับใช้ระบบเหล่านี้ ซึ่งเป็นสิ่งที่ Huang เรียกว่า "โครงการโครงสร้างพื้นฐาน AI ที่ใหญ่ที่สุดในประวัติศาสตร์"²
ความร่วมมือนี้เกิดขึ้นในจุดสำคัญ OpenAI ให้บริการ ผู้ใช้งานรายสัปดาห์ 700 ล้านคน ซึ่งรวมกันสร้างความต้องการทางการประมวลผลที่มากเกินกว่าศูนย์ซูเปอร์คอมพิวเตอร์ของประเทศส่วนใหญ่³ ในขณะเดียวกัน แพลตฟอร์ม Vera Rubin รุ่นใหม่ของ NVIDIA สัญญาว่าจะให้ ประสิทธิภาพ AI แปดเอกซะฟลอปส์ และ หน่วยความจำเร็ว 100TB ในแร็คเดียว ข้อกำหนดเหล่านี้ฟังดูเหมือนนิยายวิทยาศาสตร์ แต่จะขับเคลื่อนภาระงานการผลิตเริ่มต้นในปลายปี 2026⁴ การบรรจบกันของนวัตกรรมโมเดลของ OpenAI กับความก้าวหน้าด้านฮาร์ดแวร์ของ NVIDIA สร้างการเล่นโครงสร้างพื้นฐานที่เปลี่ยนแปลงวิธีที่เราคิดเกี่ยวกับเศรษฐกิจ AI
ทศวรรษแห่งความร่วมมือถึงจุดเปลี่ยน
ความร่วมมือระหว่าง NVIDIA และ OpenAI อ่านเหมือนเรื่องราวกำเนิดของ Silicon Valley ในปี 2016 Huang ส่งมอบซูเปอร์คอมพิวเตอร์ DGX เครื่องแรกของ NVIDIA ด้วยตนเองไปยังสำนักงานใหญ่ของ OpenAI ในซานฟรานซิสโก ซึ่งเป็นช่วงเวลาที่ถูกบันทึกไว้ในภาพถ่ายที่เป็นสัญลักษณ์ในปัจจุบัน ประธาน OpenAI Greg Brockman สะท้อนถึงช่วงเวลานั้น: "ความร่วมมือแสดงถึงพลังการประมวลผลที่มากกว่าเซิร์ฟเวอร์เริ่มต้นนั้นพันล้านเท่า"⁵
บริษัททั้งสองได้ผลักดันขอบเขตร่วมกันผ่านความก้าวกระโดดทางเทคโนโลยีหลายครั้ง ฮาร์ดแวร์ของ NVIDIA ขับเคลื่อนวิวัฒนาการของซีรีส์ GPT ของ OpenAI จากโมเดลภาษาตอนต้นไปสู่การเปิดตัวอย่างระเบิดของ ChatGPT แต่ละรุ่นต้องการการประมวลผลที่มากขึ้นแบบเลขยกกำลัง ผลักดัน NVIDIA ให้เร่งรอบการพัฒนาชิปขณะที่ OpenAI ปรับปรุงสถาปัตยกรรมโมเดลเพื่อเพิ่มประสิทธิภาพฮาร์ดแวร์สูงสุด
ข้อตกลงใหม่ทำให้เป็นทางการในสิ่งที่ผู้เฝ้าดูอุตสาหกรรมสงสัยมานาน: บริษัททั้งสองต้องการซึ่งกันและกัน OpenAI ต้องการทรัพยากรการประมวลผลขนาดใหญ่เพื่อฝึกระบบที่ฉลาดยิ่งยวด ในขณะที่ NVIDIA ได้ประโยชน์จากนวัตกรรมโมเดลของ OpenAI ที่แสดงความสามารถของฮาร์ดแวร์ บริษัททั้งสองจะ "ปรับแผนงานร่วมกันให้เหมาะสมสำหรับโมเดลและโครงสร้างพื้นฐานของ OpenAI" บ่งชี้ถึงความร่วมมือทางเทคนิคที่ลึกซึ้งเกินกว่าไดนามิกผู้ซื้อ-ผู้จำหน่ายแบบธรรมดา⁶
แพลตฟอร์ม Vera Rubin นิยามขอบเขตการประมวลผลใหม่
แพลตฟอร์ม NVIDIA Vera Rubin NVL144 CPX แสดงถึงก้าวกระโดดแห่งรุ่นในการออกแบบโครงสร้างพื้นฐาน AI ระบบผสานรวม GPU Rubin CPX 144 ตัว, GPU Rubin 144 ตัว และ CPU Vera 36 ตัว ในการกำหนดค่าแร็คเดียวที่ส่งมอบ ประสิทธิภาพ AI มากกว่าระบบ NVIDIA GB300 NVL72 ถึง 7.5 เท่า⁷ ตัวเลขเหล่านี้ทำให้แม้แต่วิศวกรโครงสร้างพื้นฐานที่มีประสบการณ์ยังต้องตกตะลึง แบนด์วิดท์หน่วยความจำ 1.7 เพตะไบต์ต่อวินาที ช่วยให้โมเดลสามารถประมวลผลบริบทล้านโทเค็นโดยไม่มีการลดประสิทธิภาพ
สถาปัตยกรรม Rubin CPX แนะนำวงจรเฉพาะที่ปรับให้เหมาะสมสำหรับกลไกความสนใจของโมเดลภาษาและภาระงานประมวลผลวิดีโอ Rubin CPX แต่ละตัวมี หน่วยความจำ GDDR7 128 กิกะไบต์ บนไดเดี่ยว ขณะที่แพลตฟอร์มบรรลุ ประสิทธิภาพ 50 เพตะฟลอปส์ใน FP4—การปรับปรุง 2.5 เท่าจาก 20 เพตะฟลอปส์ของ Blackwell⁸ NVIDIA ออกแบบระบบเหล่านี้โดยเฉพาะสำหรับภาระงาน inference ที่จะครองเศรษฐกิจ AI เมื่อโมเดลย้ายจากการวิจัยสู่การผลิต
Vera แสดงถึงการออกแบบ CPU แบบกำหนดเองครั้งแรกของ NVIDIA ที่อิงตามสถาปัตยกรรมแกน Olympus โปรเซสเซอร์ 88 แกนที่ใช้ Arm สัญญาประสิทธิภาพสองเท่าของ CPU Grace ที่ใช้ในระบบ Blackwell ปัจจุบัน⁹ การผสานรวมที่แน่นหนาระหว่าง CPU Vera และ GPU Rubin ผ่านระบบ NVIDIA MGX กำจัดคอขวดแบบดั้งเดิมที่รบกวนสถาปัตยกรรมการประมวลผลแบบกระจาย
เศรษฐกิจโครงสร้างพื้นฐานเปลี่ยนแปลงแบบจำลองธุรกิจ AI
วิศวกรรมทางการเงินเบื้องหลังความร่วมมือเปิดเผยว่าเศรษฐกิจของโครงสร้างพื้นฐาน AI มีวิวัฒนาการอย่างไร ความมุ่งมั่นของ NVIDIA ในการลงทุนสูงสุด 100 พันล้านดอลลาร์อย่างต่อเนื่อง หลังจากปรับใช้แต่ละกิกะวัตต์ สร้างแบบจำลองการระดมทุนใหม่ที่จัดแนวแรงจูงใจผู้ให้บริการฮาร์ดแวร์กับความสำเร็จของลูกค้า¹⁰ การจัดเรียงนี้ช่วยให้ OpenAI สามารถขยายโครงสร้างพื้นฐานโดยไม่ต้องใช้รายจ่ายฝ่ายทุนล่วงหน้าจำนวนมาก ขณะที่ NVIDIA มีส่วนร่วมในการสร้างมูลค่าที่ฮาร์ดแวร์ของตนช่วยให้เกิดขึ้น
ในระดับใหญ่ แพลตฟอร์ม Vera Rubin สัญญา ผลตอบแทนการลงทุน 30 ถึง 50 เท่า อาจแปลเป็น รายได้ 5 พันล้านดอลลาร์จากรายจ่ายฝ่ายทุน 100 ล้านดอลลาร์¹¹ เศรษฐกิจเหล่านี้เปลี่ยนแปลงพื้นฐานวิธีที่บริษัทประเมินการตัดสินใจโครงสร้างพื้นฐาน AI ต้นทุนต่อหน่วยของปัญญา ซึ่งเป็นเมตริกที่บริษัททั้งสองเน้น ลดลงอย่างมากเมื่อระบบบรรลุขนาดและการใช้งานที่เพียงพอ
โครงสร้างของความร่วมมือบ่งชี้ว่าบริษัททั้งสองเรียนรู้จากรอบการเฟื่องฟูและตกต่ำของการขุด cryptocurrency แทนที่จะขายฮาร์ดแวร์สู่ความต้องการเก็งกำไร NVIDIA ผูกการลงทุนกับการปรับใช้และการใช้งานจริง OpenAI ได้รับการขยายกำลังการผลิตที่คาดเดาได้ซึ่งสอดคล้องกับการเติบโตของผู้ใช้และไทม์ไลน์การพัฒนาโมเดล
ผลกระทบระดับภูมิภาคเปลี่ยนแปลงภูมิศาสตร์ศูนย์ข้อมูล
การปรับใช้ 10 กิกะวัตต์ต้องการความจุศูนย์ข้อมูลที่ไม่เคยมีมาก่อนซึ่งจะเปลี่ยนแปลงแผนที่โครงสร้างพื้นฐานทั่วโลก สำหรับบริบท 10 กิกะวัตต์เท่ากับการใช้ไฟฟ้าของบ้าน 10 ล้านหลังหรือพื้นที่มหานครกลาง การค้นหาสถานที่ที่มีไฟฟ้า ความจุระบายความร้อน และการเชื่อมต่อเครือข่ายที่พร้อมใช้ในระดับนี้นำเสนอความท้าทายด้านวิศวกรรมที่เทียบเท่าความซับซ้อนของการประมวลผล
การสร้างโครงสร้างพื้นฐานสร้างโอกาสสำหรับตลาดศูนย์ข้อมูลระดับภูมิภาค โดยเฉพาะในภูมิภาค APAC ที่มีโครงข่ายไฟฟ้าที่แข็งแกร่งและข้อได้เปรียบด้านการระบายความร้อน ประเทศที่มีพลังงานทดแทนส่วนเกินและสภาพแวดล้อมด้านกฎระเบียบที่เอื้ออำนวยวางตำแหน่งตัวเองเพื่อจับส่วนหนึ่งของการปรับใช้นี้ ไทม์ไลน์ของความร่วมมือ—ระบบแรกเริ่มปฏิบัติการในปลายปี 2026—ให้เวลาผู้ดำเนินการศูนย์ข้อมูลและรัฐบาลในการเตรียมโครงสร้างพื้นฐานอย่างจำกัด
การแข่งขันรุนแรงขึ้น แต่แบบจำลองความร่วมมือกลายเป็นแนวทางหลัก
พันธมิตร OpenAI-NVIDIA ส่งสัญญาณการเปลี่ยนแปลงอุตสาหกรรมที่กว้างขึ้นไปสู่ความร่วมมือที่ลึกซึ้งระหว่างนักพัฒนาโมเดลและผู้ให้บริการฮาร์ดแวร์ ความร่วมมือของ Anthropic กับ Amazon Web Services และการพัฒนา TPU ภายในของ Google แสดงถึงรูปแบบต่างๆ ในธีมเดียวกัน ความก้าวหน้า AI ต้องการการประสานงานที่ไม่เคยมีมาก่อนระหว่างนวัตกรรมซอฟต์แวร์และฮาร์ดแวร์
ตำแหน่งของ Microsoft เพิ่มความซับซ้อนให้กับภูมิทัศน์ ในฐานะนักลงทุนรายใหญ่ที่สุดและพันธมิตรคลาวด์ของ OpenAI Microsoft ต้องสร้างสมดุลระหว่างการลงทุนโครงสร้างพื้นฐาน Azure กับความสัมพันธ์โดยตรงของ OpenAI กับ NVIDIA บริษัททั้งสองกำหนดกรอบความพยายามของตนว่าเป็นส่วนเสริม แต่การตัดสินใจจัดสรรทรัพยากรจะทดสอบเรื่องเล่านั้นเมื่อความต้องการการประมวลผลระเบิด
ข้อได้เปรียบของแบบจำลองความร่วมมือกลายเป็นที่ชัดเจนเมื่อตรวจสอบแนวทางทางเลือก การสร้างซิลิคอนแบบกำหนดเองต้องการหลายปีของการพัฒนาและการลงทุนหลายพันล้านดอลลาร์ ด้วยผลลัพธ์ที่ไม่แน่นอน การพึ่งพาผู้ให้บริการคลาวด์เพียงอย่างเดียวนำเข้าการต่อมาร์จิ้นที่ทำให้การฝึกระดับใหญ่ท้าทายทางเศรษฐกิจ ความร่วมมือโดยตรงระหว่าง OpenAI และ NVIDIA กำจัดต้นทุนตัวกลางขณะเร่งรอบนวัตกรรม
ไทม์ไลน์เปิดเผยตารางการปรับใช้ที่ก้าวร้าวแต่บรรลุได้
กิกะวัตต์แรกของระบบจะเริ่มต้นในครึ่งหลังของปี 2026 ซึ่งตรงกับความพร้อมของ NVIDIA Rubin CPX¹² ไทม์ไลน์ที่ก้าวร้าวต้องการการดำเนินการขนานข้ามกระแสงานหลายสาย: การผลิตชิป การก่อสร้างศูนย์ข้อมูล การปรับใช้โครงสร้างพื้นฐานไฟฟ้า และการปรับซอฟต์แวร์ให้เหมาะสม แต่ละองค์ประกอบนำเสนอคอขวดที่อาจทำให้วิสัยทัศน์ 10 กิกะวัตต์ที่กว้างขึ้นล่าช้า
พันธมิตรการผลิตของ NVIDIA หลักคือ TSMC ต้องจัดสรรกำลังการผลิตจำนวนมากให้กับการผลิต Rubin เทคโนโลยีการแพ็คเกจขั้นสูงที่จำเป็นสำหรับ Rubin CPX เพิ่มความซับซ้อนเกินการผลิต GPU แบบดั้งเดิม การกระจายห่วงโซ่อุปทานกลายเป็นสิ่งสำคัญเพื่อหลีกเลี่ยงจุดความล้มเหลวเดี่ยวที่อาจทำลายตารางการปรับใช้
ช่วงการปรับใช้ 2026-2030 สอดคล้องกับการเปลี่ยนแปลงเทคโนโลยีหลายอย่าง การปรับปรุงโครงสร้างพื้นฐานไฟฟ้าสมัยใหม่ โดยเฉพาะในการผสานรวมพลังงานทดแทน เร่งเพื่อตอบสนองความต้องการของศูนย์ข้อมูล เทคโนโลยีการเชื่อมต่อแสงมีความเป็นผู้ใหญ่เพื่อตอบสนองความต้องการแบนด์วิดท์ที่เพิ่มขึ้น นวัตกรรมการระบายความร้อน จากการระบายความร้อนด้วยของเหลวโดยตรงไปจนถึงระบบจุ่ม กลายเป็นมาตรฐานแทนที่จะเป็นการทดลอง
ความท้าทายด้านวิศวกรรมต้องการนวัตกรรมข้ามสแต็ค
การปรับใช้โครงสร้างพื้นฐาน AI 10 กิกะวัตต์ทำให้เกิดความท้าทายด้านวิศวกรรมที่ผลักดันเทคโนโลยีปัจจุบันไปสู่ขีดจำกัด การส่งมอบไฟฟ้าในระดับนี้ต้องการการประสานงานกับบริษัทสาธารณูปโภคและอาจต้องการกำลังการผลิตเฉพาะ แร็ค Vera Rubin เดี่ยวที่ใช้ไฟฟ้าหลายเมกะวัตต์สร้างความร้อนที่การระบายความร้อนด้วยอากาศแบบดั้งเดิมไม่สามารถระบายได้อย่างมีประสิทธิภาพ
สถาปัตยกรรมเครือข่ายต้องพัฒนาเพื่อรองรับการขนานของโมเดลข้าม GPU หลายพัน แบนด์วิดท์หน่วยความจำ 1.7 เพตะไบต์ต่อวินาทีภายในแร็ค Vera Rubin หมายความว่าเครือข่ายภายนอกกลายเป็นคอขวดหลักสำหรับการฝึกแบบกระจาย การลงทุนของ NVIDIA ในเทคโนโลยีการเชื่อมต่อแสงและซิลิคอนสวิตช์แก้ไขข้อจำกัดเหล่านี้ แต่ต้องการการออกแบบระบบอย่างระมัดระวัง
การปรับซอฟต์แวร์ให้เหมาะสมกลายเป็นสิ่งสำคัญเท่าเทียมกัน โมเดลของ OpenAI ต้องใช้วงจรเฉพาะใน Rubin CPX สำหรับกลไกความสนใจอย่างมีประสิทธิภาพ ความมุ่งมั่นของบริษัทในการปรับแผนงานร่วกันบ่งชี้ถึงความร่วมมือที่ลึกซึ้งในเทคโนโลยีคอมไพเลอร์ การปรับเคอร์เนลให้เหมาะสม และวิวัฒนาการสถาปัตยกรรมโมเดล การเพิ่มประสิทธิภาพจากการปรับซอฟต์แวร์ให้เหมาะสมมักเกินการปรับปรุงฮาร์ดแวร์ในระดับนี้
ผลกระทบต่อตลาดขยายเกินผู้เข้าร่วมโดยตรง
ผลกระทบระลอกของความร่วมมือขยายไปทั่วระบบนิเวศเทคโนโลยี ผู้ให้บริการเทคโนโลยีระบายความร้อนเห็นความต้องการที่ไม่เคยมีมาก่อนสำหรับโซลูชันระบายความร้อนด้วยของเหลว บริษัทโครงสร้างพื้นฐานไฟฟ้าเร่งโครงการปรับปรุงโครงข่ายให้ทันสมัย ผู้ผลิตส่วนประกอบแสงขยายการผลิตเพื่อตอบสนองความต้องการการเชื่อมต่อ
สงครามความสามารถรุนแรงขึ้นเมื่อบริษัททั้งสองขยายทีมวิศวกรรม วิศวกรโครงสร้างพื้นฐานที่เข้าใจการปรับคลัสเตอร์ GPU ให้เหมาะสมได้รับค่าตอบแทนพิเศษ วิศวกรซอฟต์แวร์ที่มีประสบการณ์ในการฝึกแบบกระจายกลายเป็นสิ่งล้ำค่า ความร่วมมือสร้างงานที่จ่ายดีหลายพันตำแหน่งข้ามสาขาและภูมิศาสตร์หลายแห่ง
บริษัท AI ขนาดเล็กเผชิญการเลือกที่เด่นชัด: ร่วมมือกับผู้ให้บริการคลาวด์ที่เพิ่มราคาฮาร์ดแวร์ NVIDIA หรือยอมรับข้อจำกัดการประมวลผลที่จำกัดความทะเยาทะยานของโมเดล เศรษฐกิจของโครงสร้างพื้นฐาน AI ให้ความสำคัญกับขนาดมากขึ้น สร้างแรงกดดันธรรมชาติสำหรับการควบรวมข้ามอุตสาหกรรม
แผนงานอนาคตบ่งชี้จังหวะนวัตกรรมที่ยั่งยืน
ในขณะที่ข้อตกลงปัจจุบันมุ่งเน้นที่การปรับใช้ Vera Rubin บริษัททั้งสองส่งสัญญาณความร่วมมือที่ยั่งยืนเกินปี 2030 จังหวะสถาปัตยกรรมประจำปีของ NVIDIA (Blackwell, Rubin และแพลตฟอร์มอนาคตที่ไม่ระบุชื่อ) บ่งชี้ถึงการปรับปรุงประสิทธิภาพอย่างต่อเนื่อง ความก้าวหน้าของ OpenAI สู่ปัญญาทั่วไปประดิษฐ์ต้องการทรัพยากรการประมวลผลที่เติบโตแบบเลขยกกำลังกับแต่ละก้าวกระโดดในความสามารถ
ความมุ่งมั่นในการปรับร่วมกันบ่งบอกถึงการพัฒนาเทคโนโลยีร่วมที่อาจผลิตนวัตกรรมที่บริษัทใดบริษัทหนึ่งจะบรรลุได้ด้วยตนเองไม่ได้ ซิลิคอนแบบกำหนดเองสำหรับสถาปัตยกรรมโมเดลเฉพาะ แนวทางระบายความร้อนใหม่สำหรับการปรับใช้ความหนาแน่นสูงพิเศษ หรือเทคโนโลยีการเชื่อมต่อที่ก้าวหน้าอาจเกิดขึ้นจากความร่วมมือนี้
ผู้เข้าร่วมอื่นอาจร่วมมือในลักษณะนี้ในอนาคต ผู้ผลิตชิป ผู้เชี่ยวชาญระบายความร้อน และผู้ให้บริการโครงสร้างพื้นฐานไฟฟ้าอาจเข้าร่วมระบบนิเวศ สร้างสแต็คแบบผสานรวมที่ปรับให้เหมาะสมสำหรับภาระงาน AI ข้อได้เปรียบการผสานรวมแนวตั้งกลายเป็นสิ่งที่คู่แข่งที่พยายามประกอบความสามารถที่คล้ายกันจากส่วนประกอบแยกไม่สามารถเอาชนะได้
บทสรุป
ความร่วมมือ OpenAI-NVIDIA เปลี่ยนแปลงโครงสร้างพื้นฐาน AI จากเทคโนโลยีสนับสนุนไปเป็นตัวสร้างความแตกต่างเชิงกลยุทธ์ ความมุ่งมั่น 100 พันล้านดอลลาร์และเป้าหมายการปรับใช้ 10 กิกะวัตต์กำหนดมาตรฐานใหม่สำหรับความทะเยาทะยานการประมวลผล เมื่อระบบเหล่านี้มาออนไลน์เริ่มต้นในปี 2026 พวกมันช่วยให้ความสามารถ AI ที่วันนี้มีเฉพาะในงานวิจัยและนิยายวิทยาศาสตร์
แบบจำลองความร่วมมือ (การผสานรวมทางเทคนิคที่ลึกซึ้ง แรงจูงใจทางเศรษฐกิจที่จัดแนว และความเสี่ยงร่วม) ให้แม่แบบสำหรับวิธีที่เทคโนโลยีเปลี่ยนแปลงถึงขนาด ขณะที่ความท้าทายยังคงอยู่ในการส่งมอบไฟฟ้า ประสิทธิภาพการระบายความร้อน และการปรับซอฟต์แวร์ให้เหมาะสม โครงสร้างของความร่วมมือสร้างแรงจูงใจในการแก้ปัญหาเหล่านี้แทนที่จะหาทางอ้อม
สำหรับองค์กรที่วางแผนการลงทุนโครงสร้างพื้นฐาน AI ข้อความชัดเจน: ยุคของการเพิ่มกำลังการผลิตแบบค่อยเป็นค่อยไปสิ้นสุดลงแล้ว การปรับใช้ AI ที่แข่งขันได้ต้องการการคิดในหน่วยกิกะวัตต์ ไม่ใช่เมกะวัตต์ พันธมิตรโครงสร้างพื้นฐานระดับมืออาชีพที่เข้าใจไดนามิกขนาดเหล่านี้กลายเป็นสิ่งจำเป็นสำหรับการจับมูลค่าจากเฟสต่อไปของ AI อนาคตการประมวลผลที่ OpenAI และ NVIDIA มีวิสัยทัศน์จะมาถึงเร็วกว่าที่คนส่วนใหญ่คาดไว้ คำถามเดียวคือใครจะพร้อมควบคุมมัน
อ้างอิง
-
NVIDIA. "NVIDIA, OpenAI Announce 'Biggest AI Infrastructure Deployment in History'." NVIDIA Blog. September 22, 2025. https://blogs.nvidia.com/blog/openai-nvidia/.
-
NVIDIA. "NVIDIA, OpenAI Announce 'Biggest AI Infrastructure Deployment in History'." NVIDIA Blog. September 22, 2025. https://blogs.nvidia.com/blog/openai-nvidia/.
-
NVIDIA. "NVIDIA, OpenAI Announce 'Biggest AI Infrastructure Deployment in History'." NVIDIA Blog. September 22, 2025. https://blogs.nvidia.com/blog/openai-nvidia/.
-
AI Magazine. "Inside OpenAI and Nvidia's US$100bn AI Infrastructure Deal." AI Magazine. 2025. https://aimagazine.com/news/behind-openai-and-nvidias-landmark-10gw-ai-data-centre-deal.
-
NVIDIA. "NVIDIA, OpenAI Announce 'Biggest AI Infrastructure Deployment in History'." NVIDIA Blog. September 22, 2025. https://blogs.nvidia.com/blog/openai-nvidia/.
-
AI Magazine. "Inside OpenAI and Nvidia's US$100bn AI Infrastructure Deal." AI Magazine. 2025. https://aimagazine.com/news/behind-openai-and-nvidias-landmark-10gw-ai-data-centre-deal.
-
AI Magazine. "Inside OpenAI and Nvidia's US$100bn AI Infrastructure Deal." AI Magazine. 2025. https://aimagazine.com/news/behind-openai-and-nvidias-landmark-10gw-ai-data-centre-deal.
-
SemiAnalysis. "NVIDIA GTC 2025 – Built For Reasoning, Vera Rubin, Kyber, CPO, Dynamo Inference, Jensen Math, Feynman." March 19, 2025. https://semianalysis.com/2025/03/19/nvidia-gtc-2025-built-for-reasoning-vera-rubin-kyber-cpo-dynamo-inference-jensen-math-feynman/.
-
Wccftech. "NVIDIA Rubin & Rubin Ultra With Next-Gen Vera CPUs Start Arriving Next Year: Up To 1 TB HBM4 Memory, 4-Reticle Sized GPUs, 100PF FP4 & 88 CPU Cores." March 18, 2025. https://wccftech.com/nvidia-rubin-rubin-ultra-next-gen-vera-cpus-next-year-1-tb-hbm4-memory-4-reticle-sized-gpus-100pf-fp4-88-cpu-cores/.
-
NVIDIA. "NVIDIA, OpenAI Announce 'Biggest AI Infrastructure Deployment in History'." NVIDIA Blog. September 22, 2025. https://blogs.nvidia.com/blog/openai-nvidia/.
-
AI Magazine. "Inside OpenAI and Nvidia's US$100bn AI Infrastructure Deal." AI Magazine. 2025. https://aimagazine.com/news/behind-openai-and-nvidias-landmark-10gw-ai-data-centre-deal.
-
AI Magazine. "Inside OpenAI and Nvidia's US$100bn AI Infrastructure Deal." AI Magazine. 2025. https://aimagazine.com/news/behind-openai-and-nvidias-landmark-10gw-ai-data-centre-deal.