DeepSeek และ Qwen เปลี่ยนแปลงเศรษฐศาสตร์โครงสร้างพื้นฐาน AI อย่างไร

DeepSeek R1 ฝึกด้วยงบ 5.6 ล้านดอลลาร์บน GPU H800 จำนวน 2,000 ตัว เทียบกับ 80-100 ล้านดอลลาร์บน GPU H100 จำนวน 16,000 ตัว สำหรับโมเดลตะวันตกที่เทียบเคียงได้ โมเดลโอเพนซอร์สจากจีนเติบโตจาก 1.2% เป็นเกือบ 30% ของการใช้งานทั่วโลกในปี 2025 AWS, Azure และ Google Cloud ให้บริการ DeepSeek แล้ว HSBC, Standard Chartered และ Saudi Aramco กำลังทดสอบหรือใช้งาน DeepSeek Qwen 2.5-Max มีราคา 0.38 ดอลลาร์ต่อล้านโทเค็น เทียบกับทางเลือกตะวันตกที่แพงกว่ามาก

DeepSeek และ Qwen เปลี่ยนแปลงเศรษฐศาสตร์โครงสร้างพื้นฐาน AI อย่างไร

DeepSeek และ Qwen เปลี่ยนแปลงเศรษฐศาสตร์โครงสร้างพื้นฐาน AI อย่างไร

อัปเดต 11 ธันวาคม 2025

อัปเดตธันวาคม 2025: DeepSeek R1 ฝึกด้วยงบ 5.6 ล้านดอลลาร์บน GPU H800 จำนวน 2,000 ตัว เทียบกับ 80-100 ล้านดอลลาร์บน GPU H100 จำนวน 16,000 ตัว สำหรับโมเดลตะวันตกที่เทียบเคียงได้ โมเดลโอเพนซอร์สจากจีนเติบโตจาก 1.2% เป็นเกือบ 30% ของการใช้งานทั่วโลกในปี 2025 AWS, Azure และ Google Cloud ให้บริการ DeepSeek แล้ว HSBC, Standard Chartered และ Saudi Aramco กำลังทดสอบหรือใช้งาน DeepSeek Qwen 2.5-Max มีราคา 0.38 ดอลลาร์ต่อล้านโทเค็น เทียบกับทางเลือกตะวันตกที่แพงกว่ามาก

DeepSeek อ้างว่าฝึกโมเดล R1 ด้วยงบเพียง 5.6 ล้านดอลลาร์โดยใช้ GPU NVIDIA H800 จำนวน 2,000 ตัว¹ โมเดลตะวันตกที่เทียบเคียงได้ต้องใช้งบ 80 ล้านถึง 100 ล้านดอลลาร์และ GPU H100 จำนวน 16,000 ตัว² การเปิดตัวในเดือนมกราคม 2025 ซึ่งตรงกับหนึ่งวันก่อนการประกาศโครงการ Stargate มูลค่า 500,000 ล้านดอลลาร์ของ OpenAI ทำให้ NVIDIA สูญเสียมูลค่าตลาดถึง 589,000 ล้านดอลลาร์ในวันเดียวอย่างที่ไม่เคยเกิดขึ้นมาก่อน³ โมเดล AI จากจีนเปลี่ยนจากสิ่งที่น่าสนใจในระดับภูมิภาคกลายเป็นความท้าทายด้านโครงสร้างพื้นฐานระดับโลกในการเปิดตัวผลิตภัณฑ์เพียงครั้งเดียว

การอ้างเรื่องประสิทธิภาพนี้ต้องมีการตรวจสอบ โมเดลโอเพนซอร์สจากจีนเติบโตจาก 1.2% ของการใช้งานทั่วโลกในช่วงปลายปี 2024 เป็นเกือบ 30% ในปี 2025⁴ Alibaba รายงานว่ามีโมเดลที่พัฒนาต่อยอดจาก Qwen มากกว่า 170,000 โมเดล⁵ HSBC, Standard Chartered และ Saudi Aramco กำลังทดสอบหรือใช้งานโมเดล DeepSeek⁶ Amazon Web Services, Microsoft Azure และ Google Cloud ให้บริการ DeepSeek แก่ลูกค้าของตน⁷ เศรษฐศาสตร์ด้านโครงสร้างพื้นฐานที่เคยเอื้อต่อการลงทุนขนาดใหญ่อาจกำลังเปลี่ยนไปสู่แนวทางที่เน้นประสิทธิภาพเป็นอันดับแรก ซึ่งจะเปลี่ยนวิธีที่องค์กรควรวางแผนการลงทุนด้าน AI

ความก้าวหน้าด้านประสิทธิภาพของ DeepSeek

DeepSeek บริษัทในเมืองหางโจวที่มีพนักงานไม่ถึง 200 คน ได้รับการสนับสนุนจากกองทุน quantitative High-Flyer (สินทรัพย์ภายใต้การจัดการ 8,000 ล้านดอลลาร์) คิดใหม่เกี่ยวกับวิธีการฝึกโมเดล⁸ แทนที่จะพึ่งพาโครงสร้างพื้นฐานที่ใช้การประมวลผลหนัก โมเดลของบริษัทใช้ reinforcement learning และสถาปัตยกรรม Mixture-of-Experts เพื่อเพิ่มประสิทธิภาพขณะลดความต้องการด้านการประมวลผล⁹

สถาปัตยกรรม MoE เป็นแก่นหลักทางเทคนิคของการเพิ่มประสิทธิภาพ แทนที่จะเปิดใช้งานพารามิเตอร์ทั้งหมดสำหรับทุกคำขอ inference โมเดล MoE จะเปิดใช้งานเฉพาะเครือข่ายผู้เชี่ยวชาญที่เกี่ยวข้องเท่านั้น แนวทางนี้ลดต้นทุนการประมวลผลได้ถึง 30% เมื่อเทียบกับโมเดล dense แบบดั้งเดิม ขณะที่ยังคงรักษาหรือเกินประสิทธิภาพเดิม¹⁰ DeepSeek แสดงให้เห็นว่าการออกแบบซอฟต์แวร์-ฮาร์ดแวร์ร่วมกันอย่างมีประสิทธิภาพทำให้สามารถฝึกโมเดลขนาดใหญ่ได้อย่างคุ้มค่า ซึ่งเปิดโอกาสให้ทีมขนาดเล็กแข่งขันได้

การควบคุมการส่งออกของสหรัฐฯ กระตุ้นให้เกิดการคิดสร้างสรรค์อย่างมากในภาค AI ของจีน¹¹ เมื่อถูกปฏิเสธการเข้าถึง GPU NVIDIA ที่ทันสมัยที่สุด นักวิจัยจีนพัฒนาเทคนิคเพื่อให้ได้ผลลัพธ์ที่แข่งขันได้ด้วยฮาร์ดแวร์ที่มีอยู่ ข้อจำกัดกลายเป็นตัวเร่ง DeepSeek สร้างความตกตะลึงให้ผู้สังเกตการณ์ทั่วโลกด้วยโมเดลที่แข่งขันได้กับความสามารถของ GPT-4 ในราคาและการประมวลผลเพียงเศษเสี้ยว

ผลกระทบด้านโครงสร้างพื้นฐานขยายไปไกลกว่าต้นทุนการฝึก หากต้นทุน inference เป็นไปตามเส้นโค้งประสิทธิภาพที่คล้ายกัน ผู้ให้บริการคลาวด์อาจลดรายจ่ายลงทุนจาก 80-100,000 ล้านดอลลาร์ต่อปีเหลือ 65-85,000 ล้านดอลลาร์ต่อผู้ให้บริการคลาวด์แต่ละราย¹² การลดลงนี้จะส่งผลกระทบต่อทุกคนตั้งแต่ผู้ผลิตชิปไปจนถึงผู้ดำเนินการศูนย์ข้อมูลและผู้ให้บริการพลังงาน

Qwen และระบบนิเวศโมเดลจีน

โมเดล Qwen ของ Alibaba นำเสนอประสิทธิภาพที่แปลงเป็นเศรษฐศาสตร์องค์กรได้โดยตรง Qwen 2.5-Max มีราคาประมาณ 0.38 ดอลลาร์ต่อล้านโทเค็น ซึ่งถูกกว่าโมเดลตะวันตกที่แข่งขันอยู่อย่างมาก ขณะที่เทียบเท่าหรือเกินประสิทธิภาพในหลายเกณฑ์มาตรฐาน¹³ สำหรับองค์กรที่ประมวลผลโทเค็นนับพันล้านต่อเดือน ความแตกต่างของต้นทุนเป็นตัวกำหนดความสามารถในการทำกำไร

Brian Chesky CEO ของ Airbnb ระบุว่าบริษัทชอบ Qwen ของ Alibaba เพราะมัน "เร็วและถูก"¹⁴ กระทรวงเศรษฐกิจของญี่ปุ่นเลือก Qwen แทนทางเลือกจากสหรัฐฯ สำหรับแอปพลิเคชันบางอย่าง¹⁵ LVMH ร่วมมือกับ Alibaba เพื่อใช้ Qwen และ Model Studio สำหรับการดำเนินงานค้าปลีกดิจิทัลในจีน¹⁶ การนำไปใช้ขยายไปไกลกว่าสตาร์ทอัพที่คำนึงถึงต้นทุนไปสู่องค์กรขนาดใหญ่ที่มีงบประมาณ AI จำนวนมาก

Qwen 3 เป็นหนึ่งในตระกูลโมเดลโอเพนซอร์สที่ครอบคลุมที่สุดที่เปิดตัวในปี 2025 ครอบคลุมตั้งแต่ 0.5 พันล้านถึง 110 พันล้านพารามิเตอร์ รวมถึงโมเดลทั้งแบบ dense และ sparse¹⁷ แนวทางการทำงานแบบคู่ผ่านโหมด "Thinking" และ "Non-Thinking" สลับแบบไดนามิกตามความซับซ้อนของงาน จัดสรรการประมวลผลไปที่จุดสำคัญและประหยัดทรัพยากรในที่อื่น

Baichuan วางตำแหน่งตัวเองเป็นโมเดลจีนชั้นนำสำหรับแอปพลิเคชันเฉพาะทาง สร้างขึ้นโดยเน้นกฎหมาย การเงิน การแพทย์ และวรรณกรรมจีนโบราณ มันให้ประสิทธิภาพในงานที่มีความละเอียดอ่อนทางภาษาและวัฒนธรรม¹⁸ ด้วย ALiBi positional encoding Baichuan รองรับการจัดการบริบทที่ยาวขึ้นด้วย inference ที่มีประสิทธิภาพ รุ่น quantized ใน int8 และ int4 รับประกันการใช้งานบน GPU ระดับผู้บริโภคที่มีต้นทุนต่ำกว่า¹⁹

ผลกระทบต่อการลงทุนโครงสร้างพื้นฐานตะวันตก

ปฏิกิริยาของ Wall Street เผยให้เห็นความไม่แน่นอนอย่างแท้จริง Jefferies เตือนว่าแนวทางของ DeepSeek "ทำลายความคึกคักของการลงทุน" หลังจากการประกาศใช้จ่ายจาก Meta และ Microsoft ที่เกิน 60,000 ล้านดอลลาร์แต่ละราย²⁰ Goldman Sachs เสนอว่าการพัฒนานี้อาจเปลี่ยนแปลงการแข่งขันโดยลดอุปสรรคในการเข้าสู่ตลาด²¹ ดัชนี Nasdaq composite ลดลง 3.1% ขณะที่ S&P 500 ลดลง 1.5%²²

สถานการณ์ในมุมบวกอ้าง Jevon's paradox: การปรับปรุงประสิทธิภาพนำไปสู่ inference ที่ถูกลง กระตุ้นการนำ AI ไปใช้มากขึ้น ซึ่งในที่สุดจะขับเคลื่อนความต้องการโครงสร้างพื้นฐานที่สูงขึ้น²³ ต้นทุนที่ต่ำลงเปิดใช้งานแอปพลิเคชันที่ก่อนหน้านี้ไม่คุ้มค่าทางเศรษฐกิจ แอปพลิเคชันมากขึ้นหมายถึง inference มากขึ้น Inference มากขึ้นในที่สุดหมายถึงฮาร์ดแวร์มากขึ้น เพียงแต่ใช้งานอย่างมีประสิทธิภาพมากขึ้น

สถานการณ์ปานกลางเสนอว่าต้นทุนการฝึก AI ยังคงทรงตัว ขณะที่การใช้จ่ายโครงสร้างพื้นฐาน inference ลดลง 30-50%²⁴ ผู้ให้บริการคลาวด์จะลดรายจ่ายลงทุนในขณะที่รับปริมาณงาน AI ที่คล้ายกันหรือมากกว่า การเพิ่มประสิทธิภาพจะไหลไปสู่ผู้ใช้ในรูปแบบราคาที่ต่ำลงแทนที่จะไปสู่ผู้ให้บริการโครงสร้างพื้นฐานในรูปแบบกำไร

การชะลอตัวของการใช้จ่ายโครงสร้างพื้นฐาน AI อาจส่งผลกระทบชั่วคราวต่อผู้ผลิตชิปและผู้ให้บริการฮาร์ดแวร์²⁵ อย่างไรก็ตาม การเพิ่มประสิทธิภาพจากการปรับแต่งโมเดลและการลดต้นทุนอาจนำไปสู่การนำ AI ไปใช้มากขึ้นในระยะยาว ซึ่งในที่สุดจะขับเคลื่อนความต้องการฮาร์ดแวร์ AI ที่สูงขึ้น เวลาเป็นสิ่งสำคัญ: ความเจ็บปวดระยะสั้นอาจมาก่อนผลประโยชน์ระยะยาว

ผลกระทบเชิงกลยุทธ์สำหรับการวางแผนโครงสร้างพื้นฐาน

อุตสาหกรรมดูเหมือนจะกำลังเปลี่ยนจากการฝึก large language models ขนาดใหญ่สำหรับกรณีการใช้งานทั่วไป²⁶ โมเดลขนาดเล็กที่ปรับแต่งและปรับแต่งสำหรับกรณีการใช้งานเฉพาะมากขึ้นเรื่อย ๆ แทนที่โมเดล frontier อเนกประสงค์สำหรับแอปพลิเคชันหลายอย่าง การเปลี่ยนแปลงนี้เอื้อต่อ inference ที่มีประสิทธิภาพในระดับมากกว่าการฝึกขนาดใหญ่

การเกิดขึ้นของ DeepSeek เน้นให้เห็นการเปลี่ยนแปลงทั่วทั้งอุตสาหกรรมที่เติบโตขึ้นจากการขยายขนาดแบบใช้กำลังดิบไปสู่การเพิ่มประสิทธิภาพอย่างชาญฉลาด²⁷ ผู้เล่นที่มีชื่อเสียงรวมถึง OpenAI และ Google เผชิญแรงกดดันในการสำรวจการปรับปรุงประสิทธิภาพเมื่อการนำ AI ไปใช้ขยายตัวทั่วโลก แรงกดดันการแข่งขันเป็นประโยชน์ต่อผู้ใช้ในขณะที่อาจลดกำไรของผู้ให้บริการโครงสร้างพื้นฐาน

องค์กรที่วางแผนโครงสร้างพื้นฐาน AI ควรพิจารณาแนวโน้มประสิทธิภาพ โมเดลที่ทำงานได้เทียบเท่ากันด้วยต้นทุนการประมวลผลที่ต่ำกว่าท้าทายสมมติฐานเกี่ยวกับความต้องการกำลังการผลิต ความแตกต่างระหว่างโครงสร้างพื้นฐานการฝึก (ยังคงใช้การประมวลผลหนัก) และโครงสร้างพื้นฐาน inference (มีประสิทธิภาพมากขึ้นเรื่อย ๆ) อาจขยายกว้างขึ้น การสร้างกำลังการผลิต inference มากเกินไปตามรูปแบบการใช้งานปัจจุบันอาจทำให้องค์กรมีกำลังการผลิตเกินเมื่อประสิทธิภาพปรับปรุงขึ้น

โมเดลจีนยังสร้างการตัดสินใจในการใช้งาน องค์กรหลายแห่งสามารถเข้าถึงความสามารถ AI ของจีนผ่านผู้ให้บริการคลาวด์ตะวันตก รวมโครงสร้างพื้นฐานที่คุ้นเคยกับโมเดลที่มีประสิทธิภาพ ความกังวลเรื่องอธิปไตย ข้อกำหนดด้านกฎระเบียบ และการพิจารณาด้านการแข่งขันล้วนเป็นปัจจัยในการตัดสินใจว่าจะนำโมเดลจีนไปใช้หรือไม่แม้จะมีข้อได้เปรียบด้านประสิทธิภาพ

เศรษฐกิจโครงสร้างพื้นฐาน AI ที่ดูเหมือนจะลงตัวในปี 2024 ซึ่งขนาดการประมวลผลกำหนดความสามารถ ตอนนี้เผชิญคำถามพื้นฐาน DeepSeek พิสูจน์ว่าวิศวกรรมที่ชาญฉลาดสามารถทดแทนการประมวลผลดิบได้ Qwen แสดงให้เห็นว่าประสิทธิภาพโอเพนซอร์สสามารถแข่งขันกับขนาดแบบปิดได้ องค์กรที่สร้างกลยุทธ์ AI รอบกำลังการประมวลผลไม่จำกัดต้องคำนึงถึงทางเลือกที่เน้นประสิทธิภาพเป็นอันดับแรกที่ท้าทายสมมติฐานของพวกเขาเกี่ยวกับสิ่งที่โครงสร้างพื้นฐาน AI ต้องการ

ประเด็นสำคัญ

สำหรับนักกลยุทธ์ด้านโครงสร้างพื้นฐาน: - DeepSeek ฝึก R1 ด้วยงบ 5.6 ล้านดอลลาร์ด้วย GPU H800 จำนวน 2,000 ตัว เทียบกับ 80-100 ล้านดอลลาร์และ GPU H100 จำนวน 16,000 ตัว สำหรับโมเดลตะวันตกที่เทียบเคียงได้ - สถาปัตยกรรม MoE ลดต้นทุนการประมวลผล 30% เทียบกับโมเดล dense; การเพิ่มประสิทธิภาพมาจากการออกแบบซอฟต์แวร์-ฮาร์ดแวร์ร่วมกัน - โมเดลโอเพนซอร์สจากจีนเติบโตจาก 1.2% เป็น 30% ของการใช้งานทั่วโลกในปี 2025; Alibaba รายงานมีโมเดลที่พัฒนาต่อยอดจาก Qwen มากกว่า 170,000 โมเดล

สำหรับทีม AI องค์กร: - Qwen 2.5-Max มีราคา ~0.38 ดอลลาร์ต่อล้านโทเค็น—ถูกกว่าทางเลือกตะวันตกอย่างมากที่ประสิทธิภาพเทียบเคียงกัน - CEO ของ Airbnb อ้างว่าชอบ Qwen ของ Alibaba เพราะมัน "เร็วและถูก"; กระทรวงเศรษฐกิจของญี่ปุ่นเลือก Qwen แทนทางเลือกจากสหรัฐฯ - AWS, Azure และ GCP ให้บริการ DeepSeek แล้ว; การนำไปใช้ในองค์กรครอบคลุม HSBC, Standard Chartered, Saudi Aramco

สำหรับการวางแผนการเงิน: - หากประสิทธิภาพ inference เป็นไปตามรูปแบบการฝึก ผู้ให้บริการคลาวด์อาจลด CapEx จาก 80-100,000 ล้านดอลลาร์เหลือ 65-85,000 ล้านดอลลาร์ต่อปี - NVIDIA สูญเสียมูลค่าตลาด 589,000 ล้านดอลลาร์ในวันเดียวจากการประกาศของ DeepSeek; Nasdaq ลดลง 3.1%, S&P 500 ลดลง 1.5% - Jefferies: DeepSeek "ทำลายความคึกคักของการลงทุน" หลังจากการประกาศใช้จ่ายมากกว่า 60,000 ล้านดอลลาร์แต่ละรายของ Meta และ Microsoft

สำหรับนักวางแผนกำลังการผลิต: - อุตสาหกรรมกำลังเปลี่ยนจาก LLM อเนกประสงค์ขนาดใหญ่ไปสู่โมเดลขนาดเล็กที่ปรับแต่งสำหรับกรณีการใช้งานเฉพาะ - โครงสร้างพื้นฐานการฝึกยังคงใช้การประมวลผลหนัก; โครงสร้างพื้นฐาน inference มีประสิทธิภาพมากขึ้นเรื่อย ๆ—วางแผนแตกต่างกัน - การสร้างกำลังการผลิต inference มากเกินไปตามรูปแบบปัจจุบันเสี่ยงต่อสินทรัพย์ที่ไม่ได้ใช้เมื่อประสิทธิภาพปรับปรุง

สำหรับการวางแผนเชิงกลยุทธ์: - การควบคุมการส่งออกกระตุ้นการคิดสร้างสรรค์; ข้อจำกัดกลายเป็นตัวเร่งสำหรับนวัตกรรมด้านประสิทธิภาพ - สถานการณ์ Jevon's paradox: ประสิทธิภาพเปิดใช้งานแอปพลิเคชันมากขึ้น ในที่สุดขับเคลื่อนความต้องการฮาร์ดแวร์ที่สูงขึ้น - องค์กรต้องคำนึงถึงทางเลือกที่เน้นประสิทธิภาพเป็นอันดับแรกเมื่อวางแผนความต้องการโครงสร้างพื้นฐาน


อ้างอิง

  1. Bain & Company. "DeepSeek: A Game Changer in AI Efficiency?" 2025. https://www.bain.com/insights/deepseek-a-game-changer-in-ai-efficiency/

  2. Bain & Company. "DeepSeek: A Game Changer in AI Efficiency?"

  3. TechCrunch. "DeepSeek 'punctures' AI leaders' spending plans, and what analysts are saying." January 27, 2025. https://techcrunch.com/2025/01/27/deepseek-punctures-tech-spending-plans-and-what-analysts-are-saying/

  4. Gizmochina. "Why U.S. Startups Are Dumping Western AI for China's Open-Source Models." December 9, 2025. https://www.gizmochina.com/2025/12/09/why-u-s-startups-are-dumping-western-ai-for-chinas-open-source-models/

  5. Intuition Labs. "An Overview of Chinese Open-Source LLMs (Sept 2025)." September 2025. https://intuitionlabs.ai/articles/chinese-open-source-llms-2025

  6. iKangai. "The Enterprise AI Shift: How Chinese Models Are Challenging Silicon Valley's Dominance." 2025. https://www.ikangai.com/the-enterprise-ai-shift-how-chinese-models-are-challenging-silicon-valleys-dominance/

  7. iKangai. "The Enterprise AI Shift."

  8. Bain & Company. "DeepSeek: A Game Changer in AI Efficiency?"

  9. IDC Blog. "DeepSeek's AI Innovation: A Shift in AI Model Efficiency and Cost Structure." January 31, 2025. https://blogs.idc.com/2025/01/31/deepseeks-ai-innovation-a-shift-in-ai-model-efficiency-and-cost-structure/

  10. Gizmochina. "Why U.S. Startups Are Dumping Western AI for China's Open-Source Models."

  11. World Economic Forum. "Why China's AI breakthroughs should come as no surprise." June 2025. https://www.weforum.org/stories/2025/06/china-ai-breakthroughs-no-surprise/

  12. Bain & Company. "DeepSeek: A Game Changer in AI Efficiency?"

  13. Gizmochina. "Why U.S. Startups Are Dumping Western AI for China's Open-Source Models."

  14. Gizmochina. "Why U.S. Startups Are Dumping Western AI for China's Open-Source Models."

  15. Gizmochina. "Why U.S. Startups Are Dumping Western AI for China's Open-Source Models."

  16. Intuition Labs. "An Overview of Chinese Open-Source LLMs (Sept 2025)."

  17. Intuition Labs. "An Overview of Chinese Open-Source LLMs (Sept 2025)."

  18. Intuition Labs. "An Overview of Chinese Open-Source LLMs (Sept 2025)."

  19. Intuition Labs. "An Overview of Chinese Open-Source LLMs (Sept 2025)."

  20. TechCrunch. "DeepSeek 'punctures' AI leaders' spending plans."

  21. TechCrunch. "DeepSeek 'punctures' AI leaders' spending plans."

  22. TechCrunch. "DeepSeek 'punctures' AI leaders' spending plans."

  23. Bain & Company. "DeepSeek: A Game Changer in AI Efficiency?"

  24. Bain & Company. "DeepSeek: A Game Changer in AI Efficiency?"

  25. IDC Blog. "DeepSeek's AI Innovation."

  26. Bain & Company. "DeepSeek: A Game Changer in AI Efficiency?"

  27. IDC Blog. "DeepSeek's AI Innovation."

ขอใบเสนอราคา_

แจ้งรายละเอียดโครงการของคุณ เราจะตอบกลับภายใน 72 ชั่วโมง

> TRANSMISSION_COMPLETE

ได้รับคำขอแล้ว_

ขอบคุณสำหรับคำสอบถาม ทีมงานจะตรวจสอบคำขอและติดต่อกลับภายใน 72 ชั่วโมง

QUEUED FOR PROCESSING