DeepSeek และ Qwen เปลี่ยนแปลงเศรษฐศาสตร์โครงสร้างพื้นฐาน AI อย่างไร
อัปเดต 11 ธันวาคม 2025
อัปเดตธันวาคม 2025: DeepSeek R1 ฝึกด้วยงบ 5.6 ล้านดอลลาร์บน GPU H800 จำนวน 2,000 ตัว เทียบกับ 80-100 ล้านดอลลาร์บน GPU H100 จำนวน 16,000 ตัว สำหรับโมเดลตะวันตกที่เทียบเคียงได้ โมเดลโอเพนซอร์สจากจีนเติบโตจาก 1.2% เป็นเกือบ 30% ของการใช้งานทั่วโลกในปี 2025 AWS, Azure และ Google Cloud ให้บริการ DeepSeek แล้ว HSBC, Standard Chartered และ Saudi Aramco กำลังทดสอบหรือใช้งาน DeepSeek Qwen 2.5-Max มีราคา 0.38 ดอลลาร์ต่อล้านโทเค็น เทียบกับทางเลือกตะวันตกที่แพงกว่ามาก
DeepSeek อ้างว่าฝึกโมเดล R1 ด้วยงบเพียง 5.6 ล้านดอลลาร์โดยใช้ GPU NVIDIA H800 จำนวน 2,000 ตัว¹ โมเดลตะวันตกที่เทียบเคียงได้ต้องใช้งบ 80 ล้านถึง 100 ล้านดอลลาร์และ GPU H100 จำนวน 16,000 ตัว² การเปิดตัวในเดือนมกราคม 2025 ซึ่งตรงกับหนึ่งวันก่อนการประกาศโครงการ Stargate มูลค่า 500,000 ล้านดอลลาร์ของ OpenAI ทำให้ NVIDIA สูญเสียมูลค่าตลาดถึง 589,000 ล้านดอลลาร์ในวันเดียวอย่างที่ไม่เคยเกิดขึ้นมาก่อน³ โมเดล AI จากจีนเปลี่ยนจากสิ่งที่น่าสนใจในระดับภูมิภาคกลายเป็นความท้าทายด้านโครงสร้างพื้นฐานระดับโลกในการเปิดตัวผลิตภัณฑ์เพียงครั้งเดียว
การอ้างเรื่องประสิทธิภาพนี้ต้องมีการตรวจสอบ โมเดลโอเพนซอร์สจากจีนเติบโตจาก 1.2% ของการใช้งานทั่วโลกในช่วงปลายปี 2024 เป็นเกือบ 30% ในปี 2025⁴ Alibaba รายงานว่ามีโมเดลที่พัฒนาต่อยอดจาก Qwen มากกว่า 170,000 โมเดล⁵ HSBC, Standard Chartered และ Saudi Aramco กำลังทดสอบหรือใช้งานโมเดล DeepSeek⁶ Amazon Web Services, Microsoft Azure และ Google Cloud ให้บริการ DeepSeek แก่ลูกค้าของตน⁷ เศรษฐศาสตร์ด้านโครงสร้างพื้นฐานที่เคยเอื้อต่อการลงทุนขนาดใหญ่อาจกำลังเปลี่ยนไปสู่แนวทางที่เน้นประสิทธิภาพเป็นอันดับแรก ซึ่งจะเปลี่ยนวิธีที่องค์กรควรวางแผนการลงทุนด้าน AI
ความก้าวหน้าด้านประสิทธิภาพของ DeepSeek
DeepSeek บริษัทในเมืองหางโจวที่มีพนักงานไม่ถึง 200 คน ได้รับการสนับสนุนจากกองทุน quantitative High-Flyer (สินทรัพย์ภายใต้การจัดการ 8,000 ล้านดอลลาร์) คิดใหม่เกี่ยวกับวิธีการฝึกโมเดล⁸ แทนที่จะพึ่งพาโครงสร้างพื้นฐานที่ใช้การประมวลผลหนัก โมเดลของบริษัทใช้ reinforcement learning และสถาปัตยกรรม Mixture-of-Experts เพื่อเพิ่มประสิทธิภาพขณะลดความต้องการด้านการประมวลผล⁹
สถาปัตยกรรม MoE เป็นแก่นหลักทางเทคนิคของการเพิ่มประสิทธิภาพ แทนที่จะเปิดใช้งานพารามิเตอร์ทั้งหมดสำหรับทุกคำขอ inference โมเดล MoE จะเปิดใช้งานเฉพาะเครือข่ายผู้เชี่ยวชาญที่เกี่ยวข้องเท่านั้น แนวทางนี้ลดต้นทุนการประมวลผลได้ถึง 30% เมื่อเทียบกับโมเดล dense แบบดั้งเดิม ขณะที่ยังคงรักษาหรือเกินประสิทธิภาพเดิม¹⁰ DeepSeek แสดงให้เห็นว่าการออกแบบซอฟต์แวร์-ฮาร์ดแวร์ร่วมกันอย่างมีประสิทธิภาพทำให้สามารถฝึกโมเดลขนาดใหญ่ได้อย่างคุ้มค่า ซึ่งเปิดโอกาสให้ทีมขนาดเล็กแข่งขันได้
การควบคุมการส่งออกของสหรัฐฯ กระตุ้นให้เกิดการคิดสร้างสรรค์อย่างมากในภาค AI ของจีน¹¹ เมื่อถูกปฏิเสธการเข้าถึง GPU NVIDIA ที่ทันสมัยที่สุด นักวิจัยจีนพัฒนาเทคนิคเพื่อให้ได้ผลลัพธ์ที่แข่งขันได้ด้วยฮาร์ดแวร์ที่มีอยู่ ข้อจำกัดกลายเป็นตัวเร่ง DeepSeek สร้างความตกตะลึงให้ผู้สังเกตการณ์ทั่วโลกด้วยโมเดลที่แข่งขันได้กับความสามารถของ GPT-4 ในราคาและการประมวลผลเพียงเศษเสี้ยว
ผลกระทบด้านโครงสร้างพื้นฐานขยายไปไกลกว่าต้นทุนการฝึก หากต้นทุน inference เป็นไปตามเส้นโค้งประสิทธิภาพที่คล้ายกัน ผู้ให้บริการคลาวด์อาจลดรายจ่ายลงทุนจาก 80-100,000 ล้านดอลลาร์ต่อปีเหลือ 65-85,000 ล้านดอลลาร์ต่อผู้ให้บริการคลาวด์แต่ละราย¹² การลดลงนี้จะส่งผลกระทบต่อทุกคนตั้งแต่ผู้ผลิตชิปไปจนถึงผู้ดำเนินการศูนย์ข้อมูลและผู้ให้บริการพลังงาน
Qwen และระบบนิเวศโมเดลจีน
โมเดล Qwen ของ Alibaba นำเสนอประสิทธิภาพที่แปลงเป็นเศรษฐศาสตร์องค์กรได้โดยตรง Qwen 2.5-Max มีราคาประมาณ 0.38 ดอลลาร์ต่อล้านโทเค็น ซึ่งถูกกว่าโมเดลตะวันตกที่แข่งขันอยู่อย่างมาก ขณะที่เทียบเท่าหรือเกินประสิทธิภาพในหลายเกณฑ์มาตรฐาน¹³ สำหรับองค์กรที่ประมวลผลโทเค็นนับพันล้านต่อเดือน ความแตกต่างของต้นทุนเป็นตัวกำหนดความสามารถในการทำกำไร
Brian Chesky CEO ของ Airbnb ระบุว่าบริษัทชอบ Qwen ของ Alibaba เพราะมัน "เร็วและถูก"¹⁴ กระทรวงเศรษฐกิจของญี่ปุ่นเลือก Qwen แทนทางเลือกจากสหรัฐฯ สำหรับแอปพลิเคชันบางอย่าง¹⁵ LVMH ร่วมมือกับ Alibaba เพื่อใช้ Qwen และ Model Studio สำหรับการดำเนินงานค้าปลีกดิจิทัลในจีน¹⁶ การนำไปใช้ขยายไปไกลกว่าสตาร์ทอัพที่คำนึงถึงต้นทุนไปสู่องค์กรขนาดใหญ่ที่มีงบประมาณ AI จำนวนมาก
Qwen 3 เป็นหนึ่งในตระกูลโมเดลโอเพนซอร์สที่ครอบคลุมที่สุดที่เปิดตัวในปี 2025 ครอบคลุมตั้งแต่ 0.5 พันล้านถึง 110 พันล้านพารามิเตอร์ รวมถึงโมเดลทั้งแบบ dense และ sparse¹⁷ แนวทางการทำงานแบบคู่ผ่านโหมด "Thinking" และ "Non-Thinking" สลับแบบไดนามิกตามความซับซ้อนของงาน จัดสรรการประมวลผลไปที่จุดสำคัญและประหยัดทรัพยากรในที่อื่น
Baichuan วางตำแหน่งตัวเองเป็นโมเดลจีนชั้นนำสำหรับแอปพลิเคชันเฉพาะทาง สร้างขึ้นโดยเน้นกฎหมาย การเงิน การแพทย์ และวรรณกรรมจีนโบราณ มันให้ประสิทธิภาพในงานที่มีความละเอียดอ่อนทางภาษาและวัฒนธรรม¹⁸ ด้วย ALiBi positional encoding Baichuan รองรับการจัดการบริบทที่ยาวขึ้นด้วย inference ที่มีประสิทธิภาพ รุ่น quantized ใน int8 และ int4 รับประกันการใช้งานบน GPU ระดับผู้บริโภคที่มีต้นทุนต่ำกว่า¹⁹
ผลกระทบต่อการลงทุนโครงสร้างพื้นฐานตะวันตก
ปฏิกิริยาของ Wall Street เผยให้เห็นความไม่แน่นอนอย่างแท้จริง Jefferies เตือนว่าแนวทางของ DeepSeek "ทำลายความคึกคักของการลงทุน" หลังจากการประกาศใช้จ่ายจาก Meta และ Microsoft ที่เกิน 60,000 ล้านดอลลาร์แต่ละราย²⁰ Goldman Sachs เสนอว่าการพัฒนานี้อาจเปลี่ยนแปลงการแข่งขันโดยลดอุปสรรคในการเข้าสู่ตลาด²¹ ดัชนี Nasdaq composite ลดลง 3.1% ขณะที่ S&P 500 ลดลง 1.5%²²
สถานการณ์ในมุมบวกอ้าง Jevon's paradox: การปรับปรุงประสิทธิภาพนำไปสู่ inference ที่ถูกลง กระตุ้นการนำ AI ไปใช้มากขึ้น ซึ่งในที่สุดจะขับเคลื่อนความต้องการโครงสร้างพื้นฐานที่สูงขึ้น²³ ต้นทุนที่ต่ำลงเปิดใช้งานแอปพลิเคชันที่ก่อนหน้านี้ไม่คุ้มค่าทางเศรษฐกิจ แอปพลิเคชันมากขึ้นหมายถึง inference มากขึ้น Inference มากขึ้นในที่สุดหมายถึงฮาร์ดแวร์มากขึ้น เพียงแต่ใช้งานอย่างมีประสิทธิภาพมากขึ้น
สถานการณ์ปานกลางเสนอว่าต้นทุนการฝึก AI ยังคงทรงตัว ขณะที่การใช้จ่ายโครงสร้างพื้นฐาน inference ลดลง 30-50%²⁴ ผู้ให้บริการคลาวด์จะลดรายจ่ายลงทุนในขณะที่รับปริมาณงาน AI ที่คล้ายกันหรือมากกว่า การเพิ่มประสิทธิภาพจะไหลไปสู่ผู้ใช้ในรูปแบบราคาที่ต่ำลงแทนที่จะไปสู่ผู้ให้บริการโครงสร้างพื้นฐานในรูปแบบกำไร
การชะลอตัวของการใช้จ่ายโครงสร้างพื้นฐาน AI อาจส่งผลกระทบชั่วคราวต่อผู้ผลิตชิปและผู้ให้บริการฮาร์ดแวร์²⁵ อย่างไรก็ตาม การเพิ่มประสิทธิภาพจากการปรับแต่งโมเดลและการลดต้นทุนอาจนำไปสู่การนำ AI ไปใช้มากขึ้นในระยะยาว ซึ่งในที่สุดจะขับเคลื่อนความต้องการฮาร์ดแวร์ AI ที่สูงขึ้น เวลาเป็นสิ่งสำคัญ: ความเจ็บปวดระยะสั้นอาจมาก่อนผลประโยชน์ระยะยาว
ผลกระทบเชิงกลยุทธ์สำหรับการวางแผนโครงสร้างพื้นฐาน
อุตสาหกรรมดูเหมือนจะกำลังเปลี่ยนจากการฝึก large language models ขนาดใหญ่สำหรับกรณีการใช้งานทั่วไป²⁶ โมเดลขนาดเล็กที่ปรับแต่งและปรับแต่งสำหรับกรณีการใช้งานเฉพาะมากขึ้นเรื่อย ๆ แทนที่โมเดล frontier อเนกประสงค์สำหรับแอปพลิเคชันหลายอย่าง การเปลี่ยนแปลงนี้เอื้อต่อ inference ที่มีประสิทธิภาพในระดับมากกว่าการฝึกขนาดใหญ่
การเกิดขึ้นของ DeepSeek เน้นให้เห็นการเปลี่ยนแปลงทั่วทั้งอุตสาหกรรมที่เติบโตขึ้นจากการขยายขนาดแบบใช้กำลังดิบไปสู่การเพิ่มประสิทธิภาพอย่างชาญฉลาด²⁷ ผู้เล่นที่มีชื่อเสียงรวมถึง OpenAI และ Google เผชิญแรงกดดันในการสำรวจการปรับปรุงประสิทธิภาพเมื่อการนำ AI ไปใช้ขยายตัวทั่วโลก แรงกดดันการแข่งขันเป็นประโยชน์ต่อผู้ใช้ในขณะที่อาจลดกำไรของผู้ให้บริการโครงสร้างพื้นฐาน
องค์กรที่วางแผนโครงสร้างพื้นฐาน AI ควรพิจารณาแนวโน้มประสิทธิภาพ โมเดลที่ทำงานได้เทียบเท่ากันด้วยต้นทุนการประมวลผลที่ต่ำกว่าท้าทายสมมติฐานเกี่ยวกับความต้องการกำลังการผลิต ความแตกต่างระหว่างโครงสร้างพื้นฐานการฝึก (ยังคงใช้การประมวลผลหนัก) และโครงสร้างพื้นฐาน inference (มีประสิทธิภาพมากขึ้นเรื่อย ๆ) อาจขยายกว้างขึ้น การสร้างกำลังการผลิต inference มากเกินไปตามรูปแบบการใช้งานปัจจุบันอาจทำให้องค์กรมีกำลังการผลิตเกินเมื่อประสิทธิภาพปรับปรุงขึ้น
โมเดลจีนยังสร้างการตัดสินใจในการใช้งาน องค์กรหลายแห่งสามารถเข้าถึงความสามารถ AI ของจีนผ่านผู้ให้บริการคลาวด์ตะวันตก รวมโครงสร้างพื้นฐานที่คุ้นเคยกับโมเดลที่มีประสิทธิภาพ ความกังวลเรื่องอธิปไตย ข้อกำหนดด้านกฎระเบียบ และการพิจารณาด้านการแข่งขันล้วนเป็นปัจจัยในการตัดสินใจว่าจะนำโมเดลจีนไปใช้หรือไม่แม้จะมีข้อได้เปรียบด้านประสิทธิภาพ
เศรษฐกิจโครงสร้างพื้นฐาน AI ที่ดูเหมือนจะลงตัวในปี 2024 ซึ่งขนาดการประมวลผลกำหนดความสามารถ ตอนนี้เผชิญคำถามพื้นฐาน DeepSeek พิสูจน์ว่าวิศวกรรมที่ชาญฉลาดสามารถทดแทนการประมวลผลดิบได้ Qwen แสดงให้เห็นว่าประสิทธิภาพโอเพนซอร์สสามารถแข่งขันกับขนาดแบบปิดได้ องค์กรที่สร้างกลยุทธ์ AI รอบกำลังการประมวลผลไม่จำกัดต้องคำนึงถึงทางเลือกที่เน้นประสิทธิภาพเป็นอันดับแรกที่ท้าทายสมมติฐานของพวกเขาเกี่ยวกับสิ่งที่โครงสร้างพื้นฐาน AI ต้องการ
ประเด็นสำคัญ
สำหรับนักกลยุทธ์ด้านโครงสร้างพื้นฐาน: - DeepSeek ฝึก R1 ด้วยงบ 5.6 ล้านดอลลาร์ด้วย GPU H800 จำนวน 2,000 ตัว เทียบกับ 80-100 ล้านดอลลาร์และ GPU H100 จำนวน 16,000 ตัว สำหรับโมเดลตะวันตกที่เทียบเคียงได้ - สถาปัตยกรรม MoE ลดต้นทุนการประมวลผล 30% เทียบกับโมเดล dense; การเพิ่มประสิทธิภาพมาจากการออกแบบซอฟต์แวร์-ฮาร์ดแวร์ร่วมกัน - โมเดลโอเพนซอร์สจากจีนเติบโตจาก 1.2% เป็น 30% ของการใช้งานทั่วโลกในปี 2025; Alibaba รายงานมีโมเดลที่พัฒนาต่อยอดจาก Qwen มากกว่า 170,000 โมเดล
สำหรับทีม AI องค์กร: - Qwen 2.5-Max มีราคา ~0.38 ดอลลาร์ต่อล้านโทเค็น—ถูกกว่าทางเลือกตะวันตกอย่างมากที่ประสิทธิภาพเทียบเคียงกัน - CEO ของ Airbnb อ้างว่าชอบ Qwen ของ Alibaba เพราะมัน "เร็วและถูก"; กระทรวงเศรษฐกิจของญี่ปุ่นเลือก Qwen แทนทางเลือกจากสหรัฐฯ - AWS, Azure และ GCP ให้บริการ DeepSeek แล้ว; การนำไปใช้ในองค์กรครอบคลุม HSBC, Standard Chartered, Saudi Aramco
สำหรับการวางแผนการเงิน: - หากประสิทธิภาพ inference เป็นไปตามรูปแบบการฝึก ผู้ให้บริการคลาวด์อาจลด CapEx จาก 80-100,000 ล้านดอลลาร์เหลือ 65-85,000 ล้านดอลลาร์ต่อปี - NVIDIA สูญเสียมูลค่าตลาด 589,000 ล้านดอลลาร์ในวันเดียวจากการประกาศของ DeepSeek; Nasdaq ลดลง 3.1%, S&P 500 ลดลง 1.5% - Jefferies: DeepSeek "ทำลายความคึกคักของการลงทุน" หลังจากการประกาศใช้จ่ายมากกว่า 60,000 ล้านดอลลาร์แต่ละรายของ Meta และ Microsoft
สำหรับนักวางแผนกำลังการผลิต: - อุตสาหกรรมกำลังเปลี่ยนจาก LLM อเนกประสงค์ขนาดใหญ่ไปสู่โมเดลขนาดเล็กที่ปรับแต่งสำหรับกรณีการใช้งานเฉพาะ - โครงสร้างพื้นฐานการฝึกยังคงใช้การประมวลผลหนัก; โครงสร้างพื้นฐาน inference มีประสิทธิภาพมากขึ้นเรื่อย ๆ—วางแผนแตกต่างกัน - การสร้างกำลังการผลิต inference มากเกินไปตามรูปแบบปัจจุบันเสี่ยงต่อสินทรัพย์ที่ไม่ได้ใช้เมื่อประสิทธิภาพปรับปรุง
สำหรับการวางแผนเชิงกลยุทธ์: - การควบคุมการส่งออกกระตุ้นการคิดสร้างสรรค์; ข้อจำกัดกลายเป็นตัวเร่งสำหรับนวัตกรรมด้านประสิทธิภาพ - สถานการณ์ Jevon's paradox: ประสิทธิภาพเปิดใช้งานแอปพลิเคชันมากขึ้น ในที่สุดขับเคลื่อนความต้องการฮาร์ดแวร์ที่สูงขึ้น - องค์กรต้องคำนึงถึงทางเลือกที่เน้นประสิทธิภาพเป็นอันดับแรกเมื่อวางแผนความต้องการโครงสร้างพื้นฐาน
อ้างอิง
-
Bain & Company. "DeepSeek: A Game Changer in AI Efficiency?" 2025. https://www.bain.com/insights/deepseek-a-game-changer-in-ai-efficiency/
-
Bain & Company. "DeepSeek: A Game Changer in AI Efficiency?"
-
TechCrunch. "DeepSeek 'punctures' AI leaders' spending plans, and what analysts are saying." January 27, 2025. https://techcrunch.com/2025/01/27/deepseek-punctures-tech-spending-plans-and-what-analysts-are-saying/
-
Gizmochina. "Why U.S. Startups Are Dumping Western AI for China's Open-Source Models." December 9, 2025. https://www.gizmochina.com/2025/12/09/why-u-s-startups-are-dumping-western-ai-for-chinas-open-source-models/
-
Intuition Labs. "An Overview of Chinese Open-Source LLMs (Sept 2025)." September 2025. https://intuitionlabs.ai/articles/chinese-open-source-llms-2025
-
iKangai. "The Enterprise AI Shift: How Chinese Models Are Challenging Silicon Valley's Dominance." 2025. https://www.ikangai.com/the-enterprise-ai-shift-how-chinese-models-are-challenging-silicon-valleys-dominance/
-
iKangai. "The Enterprise AI Shift."
-
Bain & Company. "DeepSeek: A Game Changer in AI Efficiency?"
-
IDC Blog. "DeepSeek's AI Innovation: A Shift in AI Model Efficiency and Cost Structure." January 31, 2025. https://blogs.idc.com/2025/01/31/deepseeks-ai-innovation-a-shift-in-ai-model-efficiency-and-cost-structure/
-
Gizmochina. "Why U.S. Startups Are Dumping Western AI for China's Open-Source Models."
-
World Economic Forum. "Why China's AI breakthroughs should come as no surprise." June 2025. https://www.weforum.org/stories/2025/06/china-ai-breakthroughs-no-surprise/
-
Bain & Company. "DeepSeek: A Game Changer in AI Efficiency?"
-
Gizmochina. "Why U.S. Startups Are Dumping Western AI for China's Open-Source Models."
-
Gizmochina. "Why U.S. Startups Are Dumping Western AI for China's Open-Source Models."
-
Gizmochina. "Why U.S. Startups Are Dumping Western AI for China's Open-Source Models."
-
Intuition Labs. "An Overview of Chinese Open-Source LLMs (Sept 2025)."
-
Intuition Labs. "An Overview of Chinese Open-Source LLMs (Sept 2025)."
-
Intuition Labs. "An Overview of Chinese Open-Source LLMs (Sept 2025)."
-
Intuition Labs. "An Overview of Chinese Open-Source LLMs (Sept 2025)."
-
TechCrunch. "DeepSeek 'punctures' AI leaders' spending plans."
-
TechCrunch. "DeepSeek 'punctures' AI leaders' spending plans."
-
TechCrunch. "DeepSeek 'punctures' AI leaders' spending plans."
-
Bain & Company. "DeepSeek: A Game Changer in AI Efficiency?"
-
Bain & Company. "DeepSeek: A Game Changer in AI Efficiency?"
-
IDC Blog. "DeepSeek's AI Innovation."
-
Bain & Company. "DeepSeek: A Game Changer in AI Efficiency?"
-
IDC Blog. "DeepSeek's AI Innovation."