AMD MI350 และภูมิทัศน์การแข่งขัน GPU
อัปเดต 11 ธันวาคม 2025
อัปเดตธันวาคม 2025: OpenAI เข้าถือหุ้นสูงถึง 10% ใน AMD เพื่อรับประกันการจัดหา GPU สูงสุด 6 กิกะวัตต์ MI350 ส่งมอบพร้อม HBM3e 288GB (เทียบกับ Blackwell ที่ 180GB) และแบนด์วิดท์ 8TB/s Microsoft Azure รัน Copilot workload ระดับ production บน MI300X Oracle ติดตั้ง superclusters MI300X ขนาด 16,384 GPU ซอฟต์แวร์สแตก ROCm ของ AMD เข้าถึงความพร้อมระดับองค์กร ขณะที่ทางเลือกแทน NVIDIA ได้รับความน่าเชื่อถือมากขึ้น
OpenAI ประกาศความร่วมมือกับ AMD ซึ่งรวมถึงการถือหุ้นสูงสุด 10% ในบริษัทเพื่อรับประกันการจัดหา GPU สูงสุด 6 กิกะวัตต์¹ AMD ลงนามข้อตกลงในเดือนตุลาคม 2025 เพื่อจัดหาชิป AI ให้ Oracle สำหรับโครงสร้างพื้นฐานคลาวด์² Microsoft Azure ขณะนี้รันทั้งโมเดล proprietary และ open-source ใน production บน AMD Instinct MI300X³ ในขณะที่ NVIDIA รักษาส่วนแบ่งตลาด AI GPU 80% ถึง 95% AMD ก็ได้สถาปนาตัวเองเป็นทางเลือกที่น่าเชื่อถือที่องค์กรพิจารณามากขึ้นสำหรับ inference workloads และการเพิ่มประสิทธิภาพต้นทุน⁴
ซีรีส์ MI350 เปิดตัวในไตรมาส 3 ปี 2025 ด้วยสเปคที่ท้าทาย Blackwell ของ NVIDIA บนกระดาษ: หน่วยความจำ HBM3e 288 กิกะไบต์ แบนด์วิดท์ 8 เทราไบต์ต่อวินาที และอ้างว่ามีประสิทธิภาพ AI สูงกว่า accelerators คู่แข่ง 2.2 เท่า⁵ คำถามสำหรับนักวางแผนโครงสร้างพื้นฐานองค์กรคือ ข้อได้เปรียบด้านฮาร์ดแวร์ของ AMD และซอฟต์แวร์สแตกที่พัฒนาขึ้นนั้นคุ้มค่ากับการย้ายจาก ecosystem ที่มั่นคงของ NVIDIA หรือไม่
สเปค MI350 และการวางตำแหน่ง
ซีรีส์ AMD Instinct MI350 มีทรานซิสเตอร์ 185 พันล้านตัวและหน่วยความจำ HBM3e 288 กิกะไบต์⁶ สร้างบนสถาปัตยกรรม AMD CDNA เจเนอเรชัน 4 ซีรีส์ MI350 มาพร้อมการรองรับ datatype ที่ขยายเพิ่มรวมถึง MXFP6 และ MXFP4 สำหรับ AI inference, training และ HPC workloads⁷ แพลตฟอร์ม flagship MI355X ให้ประสิทธิภาพสูงสุดในทางทฤษฎีถึง 4 เท่าเมื่อเทียบกับเจเนอเรชันก่อนหน้า MI300X⁸
ความจุหน่วยความจำเป็นข้อได้เปรียบด้านฮาร์ดแวร์ที่ชัดเจนที่สุดของ AMD หน่วยความจำ HBM3e 288 กิกะไบต์ของ MI355X เกิน NVIDIA Hopper H200 ที่ 141 กิกะไบต์และ Blackwell B200 ที่ 180 กิกะไบต์⁹ แบนด์วิดท์หน่วยความจำถึง 8 เทราไบต์ต่อวินาที เทียบกับ H200 ที่ 4.8 เทราไบต์ต่อวินาทีและ B200 ที่ 7.7 เทราไบต์ต่อวินาที¹⁰
การใช้พลังงานถึง 1,400 วัตต์สำหรับ MI355X ซึ่งเท่ากับความต้องการของ Blackwell Ultra¹¹ โปรไฟล์พลังงานที่ใกล้เคียงกันหมายความว่าความต้องการโครงสร้างพื้นฐานไม่แตกต่างกันอย่างมากระหว่างผู้ผลิตในระดับประสิทธิภาพนี้
AMD ทดสอบ MI355X กับแพลตฟอร์ม NVIDIA B200 และ GB200 โดยวัด training throughput สำหรับ fine-tuning Llama2-70B และ inference throughput บน Llama 3.1-405B¹² การเปรียบเทียบแสดงประสิทธิภาพที่แข่งขันได้ แม้ว่าผลลัพธ์จริงจะขึ้นอยู่กับการเพิ่มประสิทธิภาพซอฟต์แวร์เป็นอย่างมาก
MI350 ส่งมอบให้พันธมิตรและศูนย์ข้อมูล hyperscale ในไตรมาส 3 ปี 2025¹³ วงจรการอัปเดต accelerator ประจำปีของ AMD ดำเนินต่อไปโดยซีรีส์ MI400 ยืนยันแล้วว่าอยู่ในการพัฒนาสำหรับปี 2026¹⁴ Helios AI reference design รวม MI400 GPUs, EPYC Venice CPUs และ Pensando Vulcano NICs ในสถาปัตยกรรม full-rack¹⁵
การนำไปใช้ของผู้ให้บริการคลาวด์เร่งตัวขึ้น
IBM Cloud จะเพิ่ม AMD Instinct MI300X GPUs ในครึ่งแรกของปี 2025¹⁶ ความร่วมมือนี้เปิดใช้การรองรับ AMD accelerators ภายในแพลตฟอร์ม watsonx AI ของ IBM และ Red Hat Enterprise Linux AI inferencing¹⁷ การเน้นองค์กรมุ่งเป้าไปที่ลูกค้าที่ต้องการทางเลือกแทน NVIDIA สำหรับ production AI workloads
Microsoft Azure เปิดตัว MI300X-backed AI clusters ในภูมิภาคสวีเดนและไอร์แลนด์เพื่อรองรับ custom Copilot workloads¹⁸ การที่ Microsoft รัน AMD ใน production สำหรับ proprietary models แสดงให้เห็นว่าความพร้อมของซอฟต์แวร์ถึงความต้องการระดับองค์กรแล้ว
Oracle Cloud Infrastructure's Compute Supercluster instance รองรับ MI300X GPUs สูงสุด 16,384 ตัวในคลัสเตอร์เดียว¹⁹ ขนาดนี้เปิดใช้การ training และ deployment ของโมเดลที่มีพารามิเตอร์หลายร้อยพันล้านตัว²⁰ การติดตั้งของ Oracle เน้นไปที่ healthcare และ genomic AI use cases ที่ความจุหน่วยความจำของ AMD ให้ข้อได้เปรียบ²¹
ชัยชนะของ Vultr และ Oracle Cloud แสดงให้เห็นโมเมนตัมที่เพิ่มขึ้นเบื้องหลังเทคโนโลยี accelerator ของ AMD²² Lenovo, Dell และ SuperMicro ประกาศข้อเสนอที่ใช้ MI300²³ ระบบนิเวศของผู้ผลิตตอนนี้รองรับ AMD ในระดับองค์กร
Cohere ติดตั้ง Command models บน AMD Instinct MI300X ขับเคลื่อน enterprise-grade LLM inference ด้วย throughput สูงและความเป็นส่วนตัวของข้อมูล²⁴ การนำไปใช้โดยผู้ให้บริการ AI models ยืนยันตำแหน่งของ AMD สำหรับ inference workloads
ระบบนิเวศซอฟต์แวร์เติบโตขึ้น
ระบบนิเวศซอฟต์แวร์เคยจำกัดการนำ AMD ไปใช้ในอดีต การฝังรากลึกของ CUDA ทำให้ NVIDIA เป็นตัวเลือกเริ่มต้น สถานการณ์เปลี่ยนแปลงอย่างมากในปี 2025
PyTorch 3.1 เสนอการรองรับ ROCm แบบ native สำหรับ training และ inference²⁵ ไลบรารียอดนิยมรวมถึง DeepSpeed และ Hugging Face Accelerate เพิ่ม performance flags เฉพาะ AMD²⁶ นักพัฒนามีความสะดวกสบายมากขึ้นในการสร้างโดยตรงสำหรับสภาพแวดล้อม MI300X²⁷
ทีม Enterprise AI ย้าย inference workloads ไป AMD เพื่อลดต้นทุนโดยไม่เสียประสิทธิภาพ²⁸ ความแตกต่างของต้นทุนมีความสำคัญมากกว่าสำหรับ inference มากกว่า training เพราะ inference ทำงานอย่างต่อเนื่องและครอบงำค่าใช้จ่ายระยะยาว
CUDA ของ NVIDIA ยังคงมีการนำไปใช้โดยนักพัฒนาที่กว้างขวางกว่าและ tooling ที่พร้อมกว่า²⁹ ประสิทธิภาพจริงในสภาพแวดล้อม production มักเอื้อ NVIDIA เนื่องจากการเพิ่มประสิทธิภาพ ecosystem มากกว่าความสามารถฮาร์ดแวร์ดิบ³⁰ องค์กรต้องชั่งน้ำหนักการประหยัดต้นทุนกับการลงทุนด้านวิศวกรรมที่จำเป็นในการเพิ่มประสิทธิภาพสำหรับ AMD
การเข้าซื้อวิศวกรฮาร์ดแวร์และซอฟต์แวร์ AI จาก Untether AI ของ AMD เพิ่มความสามารถด้าน compiler, kernel development และการออกแบบชิป³¹ การลงทุนเสริมตำแหน่งของ AMD ในตลาด inference ที่คูเมือง CUDA แคบลง³²
พลวัตตลาดและส่วนแบ่ง
NVIDIA รักษาส่วนแบ่งตลาด AI GPU 80% ถึง 95% ในปี 2025³³ ข้อมูลจาก Wells Fargo แสดงว่าส่วนแบ่งของ NVIDIA ใน AI accelerators ยังคงอยู่ระหว่าง 80% ถึง 90%³⁴ NVIDIA ถือครองส่วนแบ่งมากกว่า 90% ในพื้นที่ data center GPU โดยโค้ด foundational AI ส่วนใหญ่สร้างบน CUDA³⁵
รายได้ data center ของ AMD ในไตรมาส 3 ปี 2025 ถึง 4.3 พันล้านดอลลาร์³⁶ รายได้ data center ต่อไตรมาสเดียวของ NVIDIA ณ สิ้นเดือนกรกฎาคม 2025 ถึง 41.1 พันล้านดอลลาร์³⁷ ช่องว่างรายได้แสดงให้เห็นความแตกต่างของขนาดระหว่างผู้นำตลาด
ข้อมูล JPR แสดงว่า NVIDIA ควบคุม 94% ของตลาด discrete GPU ในขณะที่ AMD ควบคุมประมาณ 6%³⁸ ส่วนแบ่งของ AMD ยังคงเป็นอันดับสองที่ห่างไกล แม้ว่าตลาดกำลังขยายตัวอย่างรวดเร็วพอที่ทั้งสองผู้ผลิตจะเติบโต
ส่วนแบ่งตลาดของ AMD ใน datacenter AI GPUs เพิ่มขึ้นอย่างต่อเนื่องตั้งแต่ไตรมาส 1 ปี 2023³⁹ ในไตรมาส 1 ปี 2025 การเปิดตัว Blackwell ครั้งใหญ่ของ NVIDIA เริ่มต้น และด้วยคำตอบของ AMD มาถึงในไตรมาส 3 ปี 2025 ส่วนแบ่งของ AMD ลดลงชั่วคราว⁴⁰ วงจรการแข่งขันจะดำเนินต่อไปเมื่อแต่ละผู้ผลิตออกเจเนอเรชันใหม่
โอกาสเชิงกลยุทธ์สำหรับ AMD
AMD แกะสลักช่องทางในตลาด inference ที่คูเมือง CUDA ของ NVIDIA แคบกว่า⁴¹ Inference จะกลายเป็นตลาดใหญ่กว่า training ในที่สุด ทำให้ AMD มีตำแหน่งที่ดีสำหรับวิถีการเติบโตระยะยาวของตลาด⁴²
แนวทางของ AMD เน้นไปที่โอกาสที่เลือกอย่างมีกลยุทธ์แทนที่จะพยายามเทียบเคียง NVIDIA ในทุกส่วน⁴³ กลยุทธ์นี้เพิ่มส่วนแบ่งของ AMD ในตลาดที่ขยายตัวอย่างรวดเร็วในขณะที่หลีกเลี่ยงการแข่งขันโดยตรงที่ข้อได้เปรียบของ NVIDIA แข็งแกร่งที่สุด⁴⁴
ความร่วมมือกับ OpenAI เป็นการยืนยันครั้งสำคัญ ความมุ่งมั่นที่อาจถึง 200 พันล้านดอลลาร์ของ OpenAI สำหรับ AMD GPUs สูงสุด 6 กิกะวัตต์ส่งสัญญาณความเชื่อมั่นในแผนงานของ AMD⁴⁵ ข้อตกลงนี้ให้ AMD มีลูกค้าระดับ marquee ที่มีอิทธิพลต่อการรับรู้ขององค์กร
กลยุทธ์การกำหนดราคาเชิงรุกของ AMD ตัดราคา NVIDIA แม้ว่าการกำหนดราคาเพียงอย่างเดียวไม่ได้ช่วยให้ AMD เทียบเคียงประสิทธิภาพของ NVIDIA ในการเพิ่มส่วนแบ่งตลาด⁴⁶ การรวมกันของฮาร์ดแวร์ที่แข่งขันได้ ซอฟต์แวร์ที่พัฒนาขึ้น และการกำหนดราคาที่เอื้ออำนวยสร้างโอกาสกับองค์กรที่ใส่ใจต้นทุน
ข้อพิจารณาการติดตั้งระดับองค์กร
องค์กรที่ประเมิน AMD ควรพิจารณาส่วนผสมของ workload Training workloads โดยเฉพาะที่มี CUDA dependencies มาก ยังคงเอื้อ NVIDIA Inference workloads เสนอโอกาสมากกว่าสำหรับการนำ AMD มาใช้ด้วยต้นทุนการเปลี่ยนที่ต่ำกว่า
ข้อได้เปรียบด้านความจุหน่วยความจำมีความสำคัญสำหรับโมเดลขนาดใหญ่ HBM3e 288 กิกะไบต์ของ MI350 ช่วยให้การประมวลผล single-GPU ของโมเดลที่ต้องการ NVIDIA GPUs หลายตัว ข้อได้เปรียบด้านหน่วยความจำลดความซับซ้อนของโครงสร้างพื้นฐานสำหรับองค์กรที่รันโมเดลขนาดใหญ่ที่สุด
ข้อกำหนดการลงทุนซอฟต์แวร์ไม่ควรประเมินต่ำ แม้ว่า ROCm จะพัฒนาขึ้นอย่างมาก ทีมที่คุ้นเคยกับ CUDA จะต้องการเวลาและทรัพยากรในการเพิ่มประสิทธิภาพสำหรับ AMD เส้นโค้งการเรียนรู้ส่งผลต่อ time-to-production สำหรับการติดตั้งใหม่
กลยุทธ์หลายผู้ผลิตให้การลดความเสี่ยง องค์กรที่ qualify ทั้ง NVIDIA และ AMD สามารถเจรจาราคาที่ดีกว่า หลีกเลี่ยงข้อจำกัดด้านอุปทาน และเลือกฮาร์ดแวร์ที่เหมาะสมที่สุดสำหรับแต่ละประเภท workload การลงทุนในการรองรับทั้งสองแพลตฟอร์มคุ้มค่าสำหรับการติดตั้งขนาดใหญ่
การเข้าถึง AMD ผ่านคลาวด์ลดอุปสรรคการนำไปใช้ IBM, Microsoft, Oracle และผู้ให้บริการอื่นเสนอ AMD instances ที่ช่วยให้ทดสอบได้โดยไม่ต้องจัดซื้อฮาร์ดแวร์ องค์กรสามารถตรวจสอบประสิทธิภาพ AMD บน workloads ของตนก่อนที่จะมุ่งมั่นในการซื้อโครงสร้างพื้นฐาน
กรอบการตัดสินใจอย่างรวดเร็ว
การเลือก AMD vs NVIDIA:
| ถ้า Workload ของคุณคือ... | พิจารณา | เหตุผล |
|---|---|---|
| Training ที่มี CUDA dependencies | NVIDIA | ความพร้อมของ ecosystem, tooling |
| Inference ในระดับใหญ่ | AMD MI350 | การประหยัดต้นทุน, ข้อได้เปรียบด้านหน่วยความจำ |
| โมเดลขนาดใหญ่ที่ memory-bound | AMD MI350/355X | 288GB vs 180GB (B200) |
| การลดความเสี่ยงหลายผู้ผลิต | ทั้งคู่ | การกระจายอุปทาน |
| การประเมินผ่านคลาวด์ | AMD (IBM, Azure, Oracle) | ทดสอบโดยไม่ต้องจัดซื้อ |
การเปรียบเทียบสเปค:
| สเปค | AMD MI355X | NVIDIA B200 | NVIDIA H200 |
|---|---|---|---|
| หน่วยความจำ HBM | 288 GB | 180 GB | 141 GB |
| แบนด์วิดท์หน่วยความจำ | 8 TB/s | 7.7 TB/s | 4.8 TB/s |
| TDP | 1,400W | 1,000W | 700W |
| สถาปัตยกรรม | CDNA 4 | Blackwell | Hopper |
| ส่วนแบ่งตลาด | ~6% | ~80-95% | ~80-95% |
ประเด็นสำคัญ
สำหรับสถาปนิกโครงสร้างพื้นฐาน: - AMD MI350 เสนอ HBM3e 288GB—มากกว่า B200 ที่ 180GB ถึง 60% - ซอฟต์แวร์สแตก ROCm พัฒนาขึ้นอย่างมากในปี 2025—PyTorch 3.1 เสนอการรองรับแบบ native - Inference workloads เสนอต้นทุนการเปลี่ยนจาก NVIDIA ต่ำที่สุด - ผู้ให้บริการคลาวด์ (IBM, Azure, Oracle) ช่วยให้ทดสอบได้โดยไม่ต้องจัดซื้อฮาร์ดแวร์
สำหรับทีมจัดซื้อ: - การถือหุ้น 10% ใน AMD ของ OpenAI ส่งสัญญาณความเชื่อมั่นในอุปทานระยะยาว - การกำหนดราคาของ AMD ตัดราคา NVIDIA แต่ไม่ได้แปลงเป็นการเพิ่มส่วนแบ่งตลาดที่เทียบเท่า - กลยุทธ์หลายผู้ผลิตช่วยให้มีอำนาจในการเจรจาที่ดีกว่าและความยืดหยุ่นด้านอุปทาน - ข้อได้เปรียบด้านความจุหน่วยความจำช่วยให้การประมวลผล single-GPU ของโมเดลขนาดใหญ่ขึ้น
สำหรับการวางแผนเชิงกลยุทธ์: - NVIDIA รักษาส่วนแบ่งตลาด 80-95%—AMD เป็นทางเลือกที่น่าเชื่อถือ ไม่ใช่ตัวแทน - ตลาด inference จะเกิน training ในที่สุด—ส่วนเป้าหมายของ AMD - ต้องการการลงทุนซอฟต์แวร์สำหรับการเพิ่มประสิทธิภาพ AMD—รวมในการวิเคราะห์ TCO - ซีรีส์ MI400 ยืนยันสำหรับปี 2026—การมองเห็นแผนงานช่วยการวางแผน
AMD จะยังคงเป็นอันดับสองที่ห่างไกลจาก NVIDIA ในอนาคตอันใกล้⁴⁷ อย่างไรก็ตาม ตลาด AI ที่ใหญ่และเติบโตหมายความว่าแม้แต่ส่วนแบ่งน้อยก็เป็นรายได้มหาศาลและสถาปนา AMD เป็นตัวเลือกที่ใช้งานได้สำหรับองค์กร องค์กรที่พัฒนาความเชี่ยวชาญ AMD จะมีตำแหน่งที่ดีสำหรับการเพิ่มประสิทธิภาพต้นทุนและการกระจายอุปทานเมื่อตลาดพัฒนา
เอกสารอ้างอิง
-
Tech Research Online. "NVIDIA vs AMD (2025): GPUs, AI & Market Share." 2025. https://techresearchonline.com/blog/nvidia-vs-amd-the-gpu-battle-for-ai-dominance/
-
36Kr. "AMD's Aggressive Pricing Stabs Intel but Fails to Outperform NVIDIA." 2025. https://eu.36kr.com/en/p/3541331537719433
-
AMD Newsroom. "AMD Unveils Vision for an Open AI Ecosystem." June 2025. https://www.amd.com/en/newsroom/press-releases/2025-6-12-amd-unveils-vision-for-an-open-ai-ecosystem-detai.html
-
Tech Research Online. "NVIDIA vs AMD (2025)."
-
AMD. "AMD Instinct MI350 Series GPUs." 2025. https://www.amd.com/en/products/accelerators/instinct/mi350.html
-
Kontronn. "AMD Instinct MI350 Officially Announced: 185 Billion Transistors and 288GB HBM
[Content truncated for translation]