OpenAI และ NVIDIA ร่วมมือสร้างโครงสร้างพื้นฐานมูลค่า 100,000 ล้านดอลลาร์เพื่อสร้างอนาคตการประมวลผล AI
อัปเดต 11 ธันวาคม 2025
การจับมือระหว่าง Jensen Huang และ Sam Altman หมายถึงมากกว่าการทูตระหว่างองค์กร บริษัททั้งสองประกาศหนังสือแสดงเจตจำนงในการสร้างโครงสร้างพื้นฐาน AI ขนาด 10 กิกะวัตต์—พลังการประมวลผลที่มากพอจะรองรับความสามารถมากกว่าระบบ DGX เครื่องเดียวที่ Huang ส่งมอบให้สำนักงาน OpenAI ด้วยตัวเองเมื่อเก้าปีก่อนถึงพันล้านเท่า¹ NVIDIA วางแผนลงทุนสูงถึง 100,000 ล้านดอลลาร์ ขณะที่ OpenAI ติดตั้งระบบเหล่านี้ ซึ่ง Huang เรียกว่า "โครงการโครงสร้างพื้นฐาน AI ที่ใหญ่ที่สุดในประวัติศาสตร์"²
อัปเดตเดือนธันวาคม 2025: ณ ต้นเดือนธันวาคม ความร่วมมือครั้งสำคัญนี้ยังคงอยู่ในขั้นตอนหนังสือแสดงเจตจำนง Colette Kress ประธานเจ้าหน้าที่การเงินของ NVIDIA ยืนยันในงาน UBS Global Technology Conference ว่า "เรายังไม่ได้ทำข้อตกลงขั้นสุดท้าย"¹³ การซื้อ GPU ปัจจุบันของ OpenAI ยังคงไหลผ่านพันธมิตรคลาวด์อย่าง Microsoft และ Oracle ขณะที่ทั้งสองบริษัทเจรจาเงื่อนไขสุดท้าย Kress เน้นย้ำว่าความสัมพันธ์ยังคงเป็น "ความร่วมมือที่แข็งแกร่งมาก" โดย OpenAI ถือว่า NVIDIA เป็น "พันธมิตรที่ต้องการ" สำหรับการประมวลผล—แม้ว่าข้อตกลงโดยตรงที่ระบุไว้ในเดือนกันยายนยังไม่ได้เป็นทางการ¹⁴
ความร่วมมือนี้มาถึงในจุดเปลี่ยนสำคัญ OpenAI ให้บริการ ผู้ใช้งานรายสัปดาห์ 700 ล้านคน ที่รวมกันสร้างความต้องการการประมวลผลที่เกินกว่าศูนย์ซูเปอร์คอมพิวเตอร์ระดับชาติส่วนใหญ่³ ในขณะเดียวกัน แพลตฟอร์ม Vera Rubin รุ่นถัดไปของ NVIDIA สัญญาว่าจะมี ประสิทธิภาพ AI 8 เอกซะฟลอปส์ และ หน่วยความจำความเร็วสูง 100TB ในแร็คเดียว—สเปคที่ฟังดูเหมือนนิยายวิทยาศาสตร์แต่จะขับเคลื่อนภาระงานการผลิตเริ่มตั้งแต่ปลายปี 2026⁴ การบรรจบกันของนวัตกรรมโมเดลของ OpenAI กับความก้าวหน้าทางฮาร์ดแวร์ของ NVIDIA สร้างการลงทุนโครงสร้างพื้นฐานที่เปลี่ยนแปลงวิธีคิดเรื่องเศรษฐศาสตร์ AI
หนึ่งทศวรรษของความร่วมมือถึงจุดเปลี่ยน
ความร่วมมือระหว่าง NVIDIA และ OpenAI อ่านได้เหมือนเรื่องราวต้นกำเนิดของ Silicon Valley ในปี 2016 Huang ส่งมอบซูเปอร์คอมพิวเตอร์ DGX เครื่องแรกของ NVIDIA ให้กับสำนักงานใหญ่ OpenAI ในซานฟรานซิสโกด้วยตัวเอง ช่วงเวลาที่ถูกบันทึกไว้ในภาพถ่ายที่กลายเป็นตำนาน Greg Brockman ประธาน OpenAI สะท้อนถึงช่วงเวลานั้นว่า: "ความร่วมมือนี้หมายถึงพลังการประมวลผลมากกว่าเซิร์ฟเวอร์เครื่องแรกนั้นถึงพันล้านเท่า"⁵
ทั้งสองบริษัทผลักดันขอบเขตร่วมกันผ่านการก้าวกระโดดทางเทคโนโลยีหลายครั้ง ฮาร์ดแวร์ของ NVIDIA ขับเคลื่อนวิวัฒนาการของซีรีส์ GPT ของ OpenAI ตั้งแต่โมเดลภาษารุ่นแรกจนถึงการเปิดตัว ChatGPT ที่ระเบิดความนิยม แต่ละเจเนอเรชันต้องการการประมวลผลที่เพิ่มขึ้นแบบทวีคูณ ผลักดันให้ NVIDIA เร่งวงจรการพัฒนาชิปในขณะที่ OpenAI ปรับปรุงสถาปัตยกรรมโมเดลเพื่อเพิ่มประสิทธิภาพฮาร์ดแวร์สูงสุด
ข้อตกลงใหม่ทำให้เป็นทางการในสิ่งที่ผู้สังเกตการณ์อุตสาหกรรมสงสัยมานาน—บริษัททั้งสองต้องการซึ่งกันและกัน OpenAI ต้องการทรัพยากรการประมวลผลขนาดมหาศาลเพื่อฝึกระบบที่มีสติปัญญาเหนือมนุษย์ ในขณะที่ NVIDIA ได้ประโยชน์จากนวัตกรรมโมเดลของ OpenAI ที่แสดงให้เห็นความสามารถของฮาร์ดแวร์ ทั้งสองบริษัทจะ "ร่วมปรับแต่งแผนงานสำหรับโมเดลและโครงสร้างพื้นฐานของ OpenAI" ซึ่งบ่งบอกถึงความร่วมมือทางเทคนิคที่ลึกซึ้งเกินกว่าความสัมพันธ์ผู้ซื้อ-ผู้ขายธรรมดา⁶
แพลตฟอร์ม Vera Rubin กำหนดขอบเขตการประมวลผลใหม่
แพลตฟอร์ม Vera Rubin NVL144 CPX ของ NVIDIA แสดงถึงการก้าวกระโดดของยุคในการออกแบบโครงสร้างพื้นฐาน AI ระบบนี้รวม GPU Rubin CPX 144 ตัว, GPU Rubin 144 ตัว และ CPU Vera 36 ตัว ในการกำหนดค่าแร็คเดียวที่ให้ ประสิทธิภาพ AI มากกว่าระบบ NVIDIA GB300 NVL72 ถึง 7.5 เท่า⁷ ตัวเลขเหล่านี้ทำให้วิศวกรโครงสร้างพื้นฐานที่มีประสบการณ์ต้องตะลึง—แบนด์วิดท์หน่วยความจำ 1.7 เพตะไบต์ต่อวินาที ช่วยให้โมเดลประมวลผลบริบทล้านโทเค็นได้โดยไม่มีการลดลงของประสิทธิภาพ
สถาปัตยกรรม Rubin CPX แนะนำวงจรเฉพาะทางที่ปรับให้เหมาะสมสำหรับกลไก attention ของโมเดลภาษาและภาระงานประมวลผลวิดีโอ Rubin CPX แต่ละตัวมี หน่วยความจำ GDDR7 128 กิกะไบต์ บนไดย์เดียว ในขณะที่แพลตฟอร์มบรรลุ ประสิทธิภาพ 50 เพตะฟลอปส์ใน FP4—การปรับปรุง 2.5 เท่าจาก 20 เพตะฟลอปส์ของ Blackwell⁸ NVIDIA ออกแบบระบบเหล่านี้โดยเฉพาะสำหรับภาระงาน inference ที่จะครอบงำเศรษฐศาสตร์ AI เมื่อโมเดลเคลื่อนจากการวิจัยสู่การผลิต
Vera แสดงถึงการออกแบบ CPU แบบกำหนดเองครั้งแรกของ NVIDIA ที่อิงจากสถาปัตยกรรม Olympus core โปรเซสเซอร์ Arm 88 คอร์ สัญญาว่าจะมีประสิทธิภาพสองเท่าของ Grace CPU ที่ใช้ในระบบ Blackwell ปัจจุบัน⁹ การรวมตัวอย่างแน่นหนาระหว่าง Vera CPU และ Rubin GPU ผ่านระบบ NVIDIA MGX ขจัดคอขวดแบบดั้งเดิมที่รบกวนสถาปัตยกรรมการประมวลผลแบบกระจาย
เศรษฐศาสตร์โครงสร้างพื้นฐานเปลี่ยนแปลงโมเดลธุรกิจ AI
วิศวกรรมการเงินเบื้องหลังความร่วมมือที่เสนอเผยให้เห็นว่าเศรษฐศาสตร์โครงสร้างพื้นฐาน AI ได้วิวัฒนาการอย่างไร ความมุ่งมั่นของ NVIDIA ที่จะลงทุนสูงถึง 100,000 ล้านดอลลาร์แบบค่อยเป็นค่อยไปเมื่อแต่ละกิกะวัตต์ถูกติดตั้งจะสร้างโมเดลการระดมทุนแบบใหม่ที่จัดแรงจูงใจของผู้ให้บริการฮาร์ดแวร์ให้สอดคล้องกับความสำเร็จของลูกค้า¹⁰ หากสำเร็จ ข้อตกลงนี้จะช่วยให้ OpenAI ขยายโครงสร้างพื้นฐานโดยไม่ต้องใช้เงินลงทุนล่วงหน้าจำนวนมาก ในขณะที่ NVIDIA มีส่วนร่วมในการสร้างมูลค่าที่ฮาร์ดแวร์ของตนเปิดใช้งาน
ในระดับขนาดใหญ่ แพลตฟอร์ม Vera Rubin สัญญาว่าจะให้ ผลตอบแทนการลงทุน 30 ถึง 50 เท่า ซึ่งอาจแปลงเป็น รายได้ 5,000 ล้านดอลลาร์จากการลงทุน CAPEX 100 ล้านดอลลาร์¹¹ เศรษฐศาสตร์เหล่านี้เปลี่ยนแปลงวิธีที่บริษัทประเมินการตัดสินใจโครงสร้างพื้นฐาน AI อย่างพื้นฐาน ต้นทุนต่อหน่วยของสติปัญญา—ตัวชี้วัดที่ทั้งสองบริษัทเน้นย้ำ—ลดลงอย่างมากเมื่อระบบบรรลุขนาดและการใช้งานที่เพียงพอ
โครงสร้างความร่วมมือบ่งบอกว่าทั้งสองบริษัทเรียนรู้จากวงจรขึ้นลงของการขุด cryptocurrency แทนที่จะขายฮาร์ดแวร์เข้าสู่อุปสงค์เก็งกำไร NVIDIA ผูกการลงทุนกับการติดตั้งและการใช้งานจริง OpenAI ได้รับการขยายกำลังการผลิตที่คาดการณ์ได้ซึ่งสอดคล้องกับการเติบโตของผู้ใช้และไทม์ไลน์การพัฒนาโมเดล
ผลกระทบระดับภูมิภาคเปลี่ยนแปลงภูมิศาสตร์ศูนย์ข้อมูล
การติดตั้ง 10 กิกะวัตต์ต้องการกำลังการผลิตศูนย์ข้อมูลที่ไม่เคยมีมาก่อนซึ่งจะเปลี่ยนแปลงแผนที่โครงสร้างพื้นฐานทั่วโลก สำหรับบริบท 10 กิกะวัตต์เท่ากับการใช้พลังงานของบ้านประมาณ 10 ล้านหลังหรือเขตมหานครขนาดใหญ่ การหาสถานที่ที่มีพลังงาน กำลังการระบายความร้อน และการเชื่อมต่อเครือข่ายพร้อมใช้งานในระดับนี้นำเสนอความท้าทายทางวิศวกรรมที่เทียบเคียงกับความท้าทายทางการประมวลผล
การสร้างโครงสร้างพื้นฐานสร้างโอกาสสำหรับตลาดศูนย์ข้อมูลระดับภูมิภาค โดยเฉพาะใน ภูมิภาค APAC ที่มีโครงข่ายไฟฟ้าแข็งแกร่งและข้อได้เปรียบด้านการระบายความร้อน ประเทศที่มีพลังงานหมุนเวียนส่วนเกินและสภาพแวดล้อมกฎระเบียบที่เอื้ออำนวยวางตำแหน่งตัวเองเพื่อรับส่วนแบ่งของการติดตั้งนี้ ไทม์ไลน์ความร่วมมือ—ระบบแรกเปิดใช้งานในปลายปี 2026—ให้เวลาผู้ประกอบการศูนย์ข้อมูลและรัฐบาลในกรอบเวลาจำกัดในการเตรียมโครงสร้างพื้นฐาน
ความเชี่ยวชาญในการติดตั้งอย่างมืออาชีพกลายเป็นสิ่งสำคัญในระดับนี้ ความแตกต่างระหว่างสเปคทางทฤษฎีและประสิทธิภาพการทำงานจริงมักขึ้นอยู่กับประสิทธิภาพการระบายความร้อน การกระจายพลังงาน และการปรับแต่งการเชื่อมต่อ บริษัทอย่าง Introl ที่มีประสบการณ์ในการติดตั้งคลัสเตอร์ GPU ขนาดใหญ่ข้ามภูมิภาคทางภูมิศาสตร์ที่หลากหลาย เข้าใจความละเอียดอ่อนที่กำหนดว่าระบบเหล่านี้จะส่งมอบประสิทธิภาพตามที่สัญญาไว้หรือไม่
การแข่งขันเร่งตัวแต่โมเดลความร่วมมือกลายเป็นผู้ครอบงำ
พันธมิตร OpenAI-NVIDIA ส่งสัญญาณการเปลี่ยนแปลงอุตสาหกรรมที่กว้างขึ้นไปสู่ความร่วมมือที่ลึกซึ้งระหว่างนักพัฒนาโมเดลและผู้ให้บริการฮาร์ดแวร์ ความร่วมมือของ Anthropic กับ Amazon Web Services และการพัฒนา TPU ภายในของ Google แสดงถึงรูปแบบที่แตกต่างในธีมเดียวกัน—ความก้าวหน้าของ AI ต้องการการประสานงานที่ไม่เคยมีมาก่อนระหว่างนวัตกรรมซอฟต์แวร์และฮาร์ดแวร์
ตำแหน่งของ Microsoft เพิ่มความซับซ้อนให้กับภูมิทัศน์ ในฐานะนักลงทุนรายใหญ่ที่สุดและพันธมิตรคลาวด์ของ OpenAI Microsoft ต้องสมดุลการลงทุนโครงสร้างพื้นฐาน Azure กับความสัมพันธ์โดยตรงของ OpenAI กับ NVIDIA ทั้งสองบริษัทกำหนดกรอบความพยายามของตนว่าเป็นสิ่งที่เสริมกัน แต่การตัดสินใจจัดสรรทรัพยากรจะทดสอบคำบรรยายนั้นเมื่อความต้องการการประมวลผลระเบิด
ข้อได้เปรียบของโมเดลความร่วมมือชัดเจนเมื่อตรวจสอบแนวทางทางเลือก การสร้างซิลิคอนแบบกำหนดเองต้องใช้เวลาพัฒนาหลายปีและเงินลงทุนหลายพันล้านดอลลาร์โดยมีผลลัพธ์ที่ไม่แน่นอน การพึ่งพาผู้ให้บริการคลาวด์เพียงอย่างเดียวแนะนำการทับซ้อนของมาร์จินที่ทำให้การฝึกขนาดใหญ่เป็นความท้าทายทางเศรษฐกิจ ความร่วมมือโดยตรงระหว่าง OpenAI และ NVIDIA ขจัดต้นทุนตัวกลางในขณะที่เร่งวงจรนวัตกรรม
ไทม์ไลน์เผยกำหนดการติดตั้งที่เข้มข้นแต่ทำได้
กิกะวัตต์แรกของระบบเริ่มเปิดใช้งานในครึ่งหลังของปี 2026 ตรงกับความพร้อมใช้งานของ NVIDIA Rubin CPX¹² ไทม์ไลน์ที่เข้มข้นต้องการการดำเนินการแบบขนานข้ามหลายสายงาน—การผลิตชิป การก่อสร้างศูนย์ข้อมูล การติดตั้งโครงสร้างพื้นฐานพลังงาน และการปรับแต่งซอฟต์แวร์ แต่ละองค์ประกอบนำเสนอคอขวดที่อาจชะลอวิสัยทัศน์ 10 กิกะวัตต์ที่กว้างขึ้น
พันธมิตรการผลิตของ NVIDIA โดยหลักคือ TSMC ต้องจัดสรรกำลังการผลิตจำนวนมากให้กับการผลิต Rubin เทคโนโลยีบรรจุภัณฑ์ขั้นสูงที่จำเป็นสำหรับ Rubin CPX เพิ่มความซับซ้อนเกินกว่าการผลิต GPU แบบดั้งเดิม การกระจายห่วงโซ่อุปทานกลายเป็นสิ่งสำคัญเพื่อหลีกเลี่ยงจุดล้มเหลวเดียวที่อาจทำให้กำหนดการติดตั้งล่าช้า
กรอบเวลาการติดตั้ง 2026-2030 สอดคล้องกับการเปลี่ยนแปลงเทคโนโลยีหลายอย่าง การปรับปรุงโครงสร้างพื้นฐานพลังงานให้ทันสมัย โดยเฉพาะการรวมพลังงานหมุนเวียน เร่งตัวเพื่อตอบสนองความต้องการของศูนย์ข้อมูล เทคโนโลยีการเชื่อมต่อแบบออปติคัลเติบโตเต็มที่เพื่อรองรับความต้องการแบนด์วิดท์ที่เพิ่มขึ้น นวัตกรรมการระบายความร้อน ตั้งแต่การระบายความร้อนด้วยของเหลวโดยตรงไปจนถึงระบบจุ่ม กลายเป็นมาตรฐานแทนที่จะเป็นการทดลอง
ความท้าทายทางวิศวกรรมต้องการนวัตกรรมทั่วทั้งสแต็ก
การติดตั้งโครงสร้างพื้นฐาน AI 10 กิกะวัตต์เผยให้เห็นความท้าทายทางวิศวกรรมที่ผลักดันเทคโนโลยีปัจจุบันถึงขีดจำกัด การส่งมอบพลังงานในระดับนี้ต้องการการประสานงานกับบริษัทสาธารณูปโภคและอาจต้องมีกำลังการผลิตเฉพาะ แร็ค Vera Rubin เดียวที่ใช้พลังงานเมกะวัตต์สร้างความร้อนที่การระบายความร้อนด้วยอากาศแบบดั้งเดิมไม่สามารถกระจายได้อย่างมีประสิทธิภาพ
สถาปัตยกรรมเครือข่ายต้องวิวัฒนาการเพื่อรองรับการขนานโมเดลข้าม GPU หลายพันตัว แบนด์วิดท์หน่วยความจำ 1.7 เพตะไบต์ต่อวินาทีภายในแร็ค Vera Rubin หมายความว่าเครือข่ายภายนอกกลายเป็นคอขวดหลักสำหรับการฝึกแบบกระจาย การลงทุนของ NVIDIA ในเทคโนโลยีการเชื่อมต่อออปติคัลและซิลิคอนสวิตช์แก้ไขข้อจำกัดเหล่านี้แต่ต้องการการออกแบบระบบอย่างรอบคอบ
การปรับแต่งซอฟต์แวร์กลายเป็นสิ่งสำคัญเท่าเทียมกัน โมเดลของ OpenAI ต้องใช้วงจรเฉพาะทางใน Rubin CPX สำหรับกลไก attention อย่างมีประสิทธิภาพ ความมุ่งมั่นของทั้งสองบริษัทในการร่วมปรับแต่งแผนงานบ่งบอกถึงความร่วมมือที่ลึกซึ้งในเทคโนโลยีคอมไพเลอร์ การปรับแต่งเคอร์เนล และวิวัฒนาการสถาปัตยกรรมโมเดล การเพิ่มประสิทธิภาพจากการปรับแต่งซอฟต์แวร์มักเกินกว่าการปรับปรุงฮาร์ดแวร์ในระดับนี้
ผลกระทบตลาดขยายเกินกว่าผู้มีส่วนร่วมโดยตรง
ผลกระทบระลอกคลื่นของความร่วมมือขยายไปทั่วระบบนิเวศเทคโนโลยี ผู้ให้บริการเทคโนโลยีการระบายความร้อนเห็นอุปสงค์ที่ไม่เคยมีมาก่อนสำหรับโซลูชันการระบายความร้อนด้วยของเหลว บริษัทโครงสร้างพื้นฐานพลังงานเร่งโครงการปรับปรุงโครงข่ายให้ทันสมัย ผู้ผลิตชิ้นส่วนออปติคัลขยายการผลิตเพื่อตอบสนองความต้องการการเชื่อมต่อ
สงครามแย่งตัวบุคลากรทวีความรุนแรงขึ้นเมื่อทั้งสองบริษัทขยายทีมวิศวกร วิศวกรโครงสร้างพื้นฐานที่เข้าใจการปรับแต่งคลัสเตอร์ GPU ได้รับค่าตอบแทนระดับพรีเมียม วิศวกรซอฟต์แวร์ที่มีประสบการณ์ในการฝึกแบบกระจายกลายเป็นสิ่งล้ำค่า ความร่วมมือสร้างงานที่มีรายได้สูงหลายพันตำแหน่งข้ามหลายสาขาและภูมิภาค
บริษัท AI ขนาดเล็กเผชิญทางเลือกที่ชัดเจน—ร่วมมือกับผู้ให้บริการคลาวด์ที่เพิ่มราคาฮาร์ดแวร์ NVIDIA หรือยอมรับข้อจำกัดทางการประมวลผลที่จำกัดความทะเยอทะยานของโมเดล เศรษฐศาสตร์ของโครงสร้างพื้นฐาน AI เอื้อประโยชน์ต่อขนาดมากขึ้นเรื่อยๆ สร้างแรงกดดันการรวมตัวตามธรรมชาติทั่วทั้งอุตสาหกรรม
แผนงานอนาคตบ่งบอกถึงจังหวะนวัตกรรมที่ยั่งยืน
ในขณะที่ข้อตกลงปัจจุบันมุ่งเน้นการติดตั้ง Vera Rubin ทั้งสองบริษัทส่งสัญญาณความร่วมมือที่ยั่งยืนหลังปี 2030 แผนงานประจำปีของ NVIDIA
[เนื้อหาถูกตัดทอนสำหรับการแปล]