Lisa Su ขึ้นเวที CES 2026 พร้อมข้อความที่สะท้อนก้องไปทั่วอุตสาหกรรมโครงสร้างพื้นฐาน AI: AMD จะไม่ยอมสละตลาด AI ประสิทธิภาพสูงให้กับ NVIDIA อีกต่อไป การประกาศระบบ Helios เป็นเครื่องหมายแพลตฟอร์ม AI ขนาด rack แรกของ AMD—การกำหนดค่า 72 accelerator ที่ออกแบบมาเพื่อแข่งขันโดยตรงกับ Vera Rubin NVL72 ของ NVIDIA
ยิ่งกว่านั้น Su ได้แสดงตัวอย่างซีรีส์ MI500 พร้อมอ้างว่าประสิทธิภาพดีขึ้น 1000 เท่าเมื่อเทียบกับ MI300X ตัวเลขนั้นต้องได้รับการตรวจสอบอย่างละเอียด แต่ความทะเยอทะยานเบื้องหลังมันส่งสัญญาณถึงเจตนาเชิงกลยุทธ์ของ AMD บริษัทได้มอบทรัพยากรและความสามารถด้านวิศวกรรมเพื่อลดช่องว่างกับการครองตลาดโครงสร้างพื้นฐาน AI ของ NVIDIA
Helios: คำตอบขนาด Rack ของ AMD สำหรับ NVL72
ระบบ Helios เป็นตัวแทนแพลตฟอร์ม AI ขนาด rack แบบบูรณาการแรกของ AMD accelerator ซีรีส์ MI ก่อนหน้านี้ส่งมอบเป็นส่วนประกอบแยกที่ต้องให้ลูกค้าออกแบบการรวมระบบ—Helios มอบโซลูชันที่สมบูรณ์1
สถาปัตยกรรมระบบ
Helios ครอบครองพื้นที่ rack ขนาดกว้างสองเท่าที่มี MI455X accelerator 72 ตัวเชื่อมต่อกันผ่านเทคโนโลยี Infinity Fabric ของ AMD ระบบประกอบด้วย:2
| ส่วนประกอบ | จำนวน | วัตถุประสงค์ |
|---|---|---|
| MI455X Accelerator | 72 | การประมวลผล AI |
| EPYC Turin CPU | 36 | การประมวลผล host |
| Infinity Fabric Switch | 18 | การเชื่อมต่อ accelerator |
| NVMe SSD | 144 | พื้นที่จัดเก็บความเร็วสูง |
| 400G NIC | 36 | เครือข่ายภายนอก |
การกำหนดค่าขนาดกว้างสองเท่าให้ข้อได้เปรียบสำหรับการระบายความร้อนและการกระจายพลังงานที่การออกแบบ rack เดี่ยวต้องเสียสละ AMD แลกประสิทธิภาพพื้นที่เพื่อ headroom ด้านความร้อน—ทางเลือกที่เหมาะสมเมื่อพิจารณาความต้องการพลังงานของ MI455X3
การเชื่อมต่อ Infinity Fabric
Helios ใช้ Infinity Fabric รุ่นที่สี่ของ AMD สำหรับการเชื่อมต่อ accelerator เทคโนโลยีให้แบนด์วิดท์สองทิศทาง 896 GB/s ระหว่าง MI455X accelerator สองตัวใดก็ได้—น่าประทับใจ แต่สังเกตได้ว่าต่ำกว่า NVLink 6 ของ NVIDIA ที่ 3.6 TB/s4
| การเชื่อมต่อ | แบนด์วิดท์ต่อลิงก์ | แบนด์วิดท์ Fabric รวม |
|---|---|---|
| AMD Infinity Fabric 4 | 896 GB/s | ~16 TB/s รวม |
| NVIDIA NVLink 6 | 3.6 TB/s | 259 TB/s รวม |
ความแตกต่างของแบนด์วิดท์มีความสำคัญสำหรับการอนุมานโมเดลขนาดใหญ่ที่ tensor parallelism ต้องการการสื่อสาร GPU-ต่อ-GPU อย่างต่อเนื่อง AMD ชดเชยบางส่วนผ่านความจุหน่วยความจำต่อ GPU ที่มากขึ้น—ลดความต้องการ parallelism สำหรับ workload หลายประเภท5
MI455X: การวิเคราะห์เชิงลึกทางเทคนิค
MI455X เป็นตัวแทนสถาปัตยกรรม CDNA 5 ของ AMD ที่ปรับให้เหมาะสมสำหรับการอนุมานและการฝึก AI accelerator ผลักดันความหนาแน่นทรานซิสเตอร์เกิน 320 พันล้าน ผลิตบนกระบวนการ hybrid TSMC N3/N26
ข้อมูลจำเพาะหลัก
| ข้อมูลจำเพาะ | MI455X | MI300X | การปรับปรุง |
|---|---|---|---|
| จำนวนทรานซิสเตอร์ | 320B | 153B | 2.1x |
| โหนดกระบวนการ | N3/N2 hybrid | N5/N6 | 2 รุ่น |
| ความจุ HBM | 432GB HBM4 | 192GB HBM3 | 2.25x |
| แบนด์วิดท์หน่วยความจำ | 24 TB/s | 5.3 TB/s | 4.5x |
| การอนุมาน FP4 | 40 PFLOPS | 10 PFLOPS | 4x |
| การฝึก FP8 | 3.2 PFLOPS | 1.3 PFLOPS | 2.5x |
| TDP | 900W | 750W | +20% |
ความจุ 432GB HBM4 ต่อ accelerator เกินกว่า 288GB ของ NVIDIA Rubin—ให้ข้อได้เปรียบการแข่งขันที่ชัดเจนที่สุดของ AMD headroom หน่วยความจำนี้ช่วยให้การอนุมานบนโมเดลที่ใหญ่กว่าโดยไม่ต้องมี tensor parallelism ลดความซับซ้อนของระบบและความต้องการการเชื่อมต่อ7
นวัตกรรมสถาปัตยกรรม
MI455X แนะนำการปรับปรุงสถาปัตยกรรมหลายประการเหนือ MI300X:
การออกแบบ Compute Die ใหม่: accelerator บรรจุ compute die แปดตัวพร้อมแบนด์วิดท์ die-ต่อ-die ที่ปรับปรุงแล้ว รุ่นก่อนหน้าประสบปัญหาบทลงโทษ latency ข้าม die ที่ทำให้ประสิทธิภาพลดลงสำหรับรูปแบบการเข้าถึงหน่วยความจำที่ไม่สม่ำเสมอ8
สถาปัตยกรรมหน่วยความจำแบบรวม: MI455X นำพื้นที่หน่วยความจำแบบรวมมาใช้ข้าม HBM stack ทั้งหมด กำจัดผลกระทบ NUMA ที่ทำให้การเขียนโปรแกรม MI300X ซับซ้อน นักพัฒนาสามารถปฏิบัติต่อ pool 432GB เป็นพื้นที่หน่วยความจำที่สอดคล้องกันเดียว9
การสนับสนุน Hardware Sparsity: การสนับสนุนแบบ native สำหรับ structured sparsity เร่งการอนุมานสำหรับโมเดลที่ถูก prune AMD อ้างว่าประสิทธิภาพดีขึ้น 2 เท่าสำหรับโมเดลที่มี sparsity 50%+—พบได้ทั่วไปในการใช้งานจริงที่ปรับให้เหมาะสมสำหรับประสิทธิภาพต้นทุน10
การปรับปรุง Matrix Core: Matrix Core รุ่นที่สี่รองรับการคำนวณ FP4 แบบ native ตรงกับความสามารถของ NVIDIA AMD accelerator ก่อนหน้านี้ต้องการความแม่นยำ FP8 ขั้นต่ำ จำกัดโอกาสในการเพิ่มประสิทธิภาพสำหรับ workload การอนุมาน11
ประสิทธิภาพระบบ Helios
AMD วางตำแหน่ง Helios เป็นทางเลือกที่สมบูรณ์สำหรับ Vera Rubin NVL72 ของ NVIDIA การเปรียบเทียบโดยตรงเผยให้เห็น trade-off ที่เอื้อประโยชน์ต่อโปรไฟล์ workload ที่แตกต่างกัน:
ข้อมูลจำเพาะระบบรวม
| ข้อมูลจำเพาะ | AMD Helios | NVIDIA Vera Rubin NVL72 |
|---|---|---|
| Accelerator | 72x MI455X | 72x Rubin |
| HBM รวม | 31.1 TB | 20.7 TB |
| FP4 รวม | 2.9 EFLOPS | 3.6 EFLOPS |
| FP8 รวม | 230 PFLOPS | 180 PFLOPS |
| แบนด์วิดท์การเชื่อมต่อ | ~16 TB/s | 259 TB/s |
| พื้นที่ Rack | กว้างสองเท่า | Rack เดี่ยว |
| พลังงาน | ~140 kW | 120-130 kW |
Helios นำในความจุหน่วยความจำรวม (31.1 TB เทียบกับ 20.7 TB) และประสิทธิภาพการฝึก FP8 NVIDIA รักษาข้อได้เปรียบใน throughput การอนุมาน FP4 แบบ raw และแบนด์วิดท์การเชื่อมต่อที่เหนือกว่าอย่างมาก12
ประสิทธิภาพเฉพาะ Workload
การเปรียบเทียบประสิทธิภาพขึ้นอยู่กับลักษณะ workload อย่างมาก:
การอนุมานโมเดลขนาดใหญ่: ข้อได้เปรียบความจุหน่วยความจำของ Helios ช่วยให้การอนุมานระบบเดียวบนโมเดลที่ต้องการหน่วยความจำ 25-30 TB—สถานการณ์ที่ NVL72 ต้องการ tensor parallelism ข้ามระบบ สำหรับ workload เหล่านี้ Helios อาจให้ throughput ดีกว่า 20-30% แม้จะมี peak FLOPS ต่ำกว่า13
Throughput การฝึก: สำหรับ workload การฝึกแบบกระจายที่ต้องการการซิงโครไนซ์ที่เข้มงวด ข้อได้เปรียบแบนด์วิดท์การเชื่อมต่อ 16 เท่าของ NVIDIA แปลเป็นการรวม gradient ที่เร็วขึ้นและการใช้ FLOPS ที่มีประสิทธิภาพสูงขึ้น NVL72 น่าจะรักษาข้อได้เปรียบ throughput การฝึก 15-25%14
Latency การอนุมาน: workload การอนุมานที่ถูกจำกัดด้วยหน่วยความจำชอบข้อได้เปรียบแบนด์วิดท์ของ Helios (24 TB/s ต่อ accelerator เทียบกับ 22 TB/s) workload ที่ถูกจำกัดด้วยการคำนวณชอบ peak FLOPS ที่สูงกว่าของ NVIDIA15
การพิจารณาระบบนิเวศซอฟต์แวร์
stack ซอฟต์แวร์ ROCm ของ AMD เติบโตอย่างมากแต่ยังคงตามหลัง CUDA ในความลึกของระบบนิเวศ:
| ความสามารถ | ROCm 7.0 | CUDA 13.0 |
|---|---|---|
| การสนับสนุน PyTorch | Native | Native |
| การสนับสนุน TensorFlow | Native | Native |
| Kernel ที่ปรับให้เหมาะสม | ~2,000 | ~8,000+ |
| เครื่องมือองค์กร | กำลังเติบโต | ครอบคลุม |
| ชุมชนนักพัฒนา | กำลังขยาย | ก่อตั้งแล้ว |
framework AI หลักสนับสนุน ROCm แบบ native ขจัดอุปสรรคหลักในการรับ AMD อย่างไรก็ตาม kernel ที่กำหนดเองที่สำคัญต่อประสิทธิภาพมักต้องการการเพิ่มประสิทธิภาพเฉพาะ CUDA—สร้างแรงเสียดทานสำหรับองค์กรที่มี codebase ที่ปรับให้เหมาะสมกับ NVIDIA อยู่แล้ว16
การอ้าง 1000x: ตัวอย่างซีรีส์ MI500
ตัวอย่าง Lisa Su ของซีรีส์ MI500 สร้างความสงสัยทันทีด้วยการอ้างว่าประสิทธิภาพดีขึ้น 1000 เท่าเมื่อเทียบกับ MI300X การเข้าใจพื้นฐานสำหรับการอ้างนี้ต้องวิเคราะห์สมมติฐานของ AMD17
ข้อมูลจำเพาะ MI500 (ตัวอย่าง)
| ข้อมูลจำเพาะ | MI500 (ตัวอย่าง) | MI455X | MI300X |
|---|---|---|---|
| สถาปัตยกรรม | CDNA 6 | CDNA 5 | CDNA 3 |
| กระบวนการ | TSMC N2 | N3/N2 | N5/N6 |
| HBM | HBM4E | HBM4 | HBM3 |
| วันที่เป้าหมาย | 2027 | H2 2026 | 2023 |
แยกวิเคราะห์ 1000x
การอ้าง 1000x ของ AMD ดูเหมือนจะสมมติการปรับปรุงแบบทบต้นข้ามหลายมิติ:18
การคำนวณ Raw: ~10x การปรับปรุงจากความก้าวหน้าด้านสถาปัตยกรรมและกระบวนการ (เป็นไปได้ในสองรุ่น)
การปรับขนาดความแม่นยำ: ~4x จากการสนับสนุน FP4/INT4 ที่ปรับปรุง (ก้าวร้าวแต่เป็นไปได้)
Sparsity: ~4x จากการใช้ประโยชน์ structured sparsity (ต้องการการเพิ่มประสิทธิภาพโมเดล)
แบนด์วิดท์หน่วยความจำ: ~3x จากการปรับปรุงแบนด์วิดท์ HBM4E
การรวมระบบ: ~2x จากการบรรจุและการเชื่อมต่อที่ปรับปรุง
คูณเข้าด้วยกัน: 10 × 4 × 4 × 3 × 2 = 960x ≈ 1000x
การคำนวณต้องการให้ทุกการปรับปรุงทบต้นอย่างเหมาะสม—ไม่น่าจะเป็นไปได้ในการใช้งานจริง การประเมินที่สมจริงกว่าแนะนำการปรับปรุง 50-100 เท่าสำหรับ workload การอนุมานที่ปรับให้เหมาะสม โดยการปรับปรุงการฝึกใกล้เคียง 10-20 เท่ามากกว่า19
ปฏิกิริยาของอุตสาหกรรม
นักวิเคราะห์และคู่แข่งรับการอ้าง 1000x ด้วยความสงสัยที่วัดได้:
การตอบสนองของ NVIDIA: ทีมของ Jensen Huang ปฏิเสธที่จะแสดงความคิดเห็นโดยตรงแต่สังเกตว่าการคำนวณการปรับปรุงแบบทบต้นที่คล้ายกันสามารถนำไปใช้กับ roadmap ของผู้จำหน่ายรายใดก็ได้ในทางทฤษฎี—วิธีการช่วยให้ตัวเลขน่าประทับใจโดยไม่จำเป็นต้องทำนายผลลัพธ์ในโลกแห่งความเป็นจริง20
การวิเคราะห์อิสระ: SemiAnalysis ประเมินการปรับปรุง MI500 ที่สมจริงที่ 80-120 เท่าสำหรับการอนุมาน 15-25 เท่าสำหรับการฝึก—มีนัยสำคัญแต่ต่ำกว่าการอ้างการตลาด 1000x มาก21
การรับของลูกค้า: ทีม AI ระดับองค์กรแสดงความมองโลกในแง่ดีอย่างระมัดระวัง การปรับปรุงทิศทางสำคัญกว่าตัวคูณที่แม่นยำ—ถ้า MI500 ให้แม้แต่ 50 เท่าเหนือ MI300X AMD ก็จะแข่งขันได้อย่างแท้จริงสำหรับ workload AI แนวหน้า22
กลยุทธ์โครงสร้างพื้นฐานของ AMD
Helios และ MI500 เป็นตัวแทนส่วนประกอบของกลยุทธ์โครงสร้างพื้นฐาน AI ที่กว้างขึ้นของ AMD ที่กำหนดเป้าหมายตำแหน่งที่โดดเด่นของ NVIDIA
ตำแหน่งตลาด
ส่วนแบ่งตลาด AI accelerator ของ AMD เติบโตจากประมาณ 5% ในปี 2023 เป็นประมาณ 12-15% ในปี 2025 บริษัทตั้งเป้าส่วนแบ่งตลาด 25%+ ภายในปี 2027—ทะเยอทะยานแต่อาจบรรลุได้หาก Helios และ MI500 ให้ประสิทธิภาพที่แข่งขันได้23
| ปี | ส่วนแบ่ง AMD | ส่วนแบ่ง NVIDIA | Intel/อื่นๆ |
|---|---|---|---|
| 2023 | ~5% | ~90% | ~5% |
| 2025 | ~12-15% | ~80% | ~5-8% |
| 2027 (เป้าหมาย) | 25%+ | ~65-70% | ~5-10% |
ชัยชนะลูกค้า
AMD ได้รับความมุ่งมั่นจากลูกค้าที่สำคัญที่ยืนยันความสามารถในการแข่งขันของ Helios:
Microsoft Azure: ข้อตกลงหลายปีสำหรับการติดตั้ง MI455X ในโครงสร้างพื้นฐาน Azure AI เสริมความจุ NVIDIA ที่มีอยู่24
Meta: ความร่วมมือต่อเนื่องสำหรับโครงสร้างพื้นฐานการอนุมาน โดยคลัสเตอร์ MI455X รองรับ workload การผลิต25
Oracle Cloud: ระบบ Helios วางแผนสำหรับ Oracle Cloud Infrastructure ให้ทางเลือกแทนตัวเลือก NVIDIA เท่านั้น26
ห้องปฏิบัติการแห่งชาติ: Argonne และ Oak Ridge ได้มุ่งมั่นที่จะประเมิน Helios สำหรับ workload การประมวลผลทางวิทยาศาสตร์27
กลยุทธ์การกำหนดราคา
AMD วางตำแหน่ง Helios ต่ำกว่าระบบ NVIDIA ที่เทียบเคียงได้ 15-25%—ทางเลือกโดยเจตนาเพื่อดึงดูดลูกค้าที่อ่อนไหวต่อราคาและสร้างการปรากฏตัวในตลาด:28
| ระบบ | ราคาประมาณการ |
|---|---|
| AMD Helios (72x MI455X) | $2.4-3.2 ล้าน |
| NVIDIA Vera Rubin NVL72 | $3.0-4.0 ล้าน |
| ส่วนต่างราคา | ~20% ต่ำกว่า |
ข้อได้เปรียบด้านราคาทบต้นกับต้นทุนการดำเนินงาน ระบบ AMD โดยทั่วไปทำงานที่การใช้พลังงานต่ำกว่าสำหรับ throughput ที่เทียบเท่า—แม้ว่าข้อได้เปรียบนี้จะแคบลงเมื่อประสิทธิภาพของ NVIDIA ดีขึ้น29
ข้อกำหนดโครงสร้างพื้นฐาน
การติดตั้ง Helios ต้องการการลงทุนโครงสร้างพื้นฐานที่เทียบเคียงได้กับระบบ NVIDIA:
ข้อกำหนดการระบายความร้อน
| พารามิเตอร์ | AMD Helios | NVIDIA NVL72 |
|---|---|---|
| วิธีการระบายความร้อน | Hybrid อากาศ/ของเหลว | 100% ของเหลว |
| การปฏิเสธความร้อน | ~140 kW | 120-130 kW |
| อุณหภูมิ coolant | จ่าย 20-30°C | จ่าย 15-25°C |
| การไหลของอากาศ (ถ้า hybrid) | 15,000 CFM | N/A |
Helios รองรับการกำหนดค่าการระบายความร้อนแบบ hybrid—ตัวแลกเปลี่ยนความร้อนประตูหลังรวมกับการไหลของอากาศที่เพิ่มขึ้น—ให้ความยืดหยุ่นสำหรับสิ่งอำนวยความสะดวกที่ไม่สามารถติดตั้งการระบายความร้อนด้วยของเหลวโดยตรงอย่างเต็มที่ ทางเลือกนี้ลดอุปสรรคโครงสร้างพื้นฐานในการรับ30
การกระจายพลังงาน
| ข้อกำหนด | AMD Helios |
|---|---|
| พลังงานรวม | ~140 kW |
| ตัวเลือกแรงดัน | 48V DC, 400V DC, 480V AC |
| ความซ้ำซ้อน | N+1 ขั้นต่ำ |
| เวลาทำงาน UPS | 10+ นาทีแนะนำ |
ความยืดหยุ่นแรงดันของ AMD รองรับการกำหนดค่าสิ่งอำนวยความสะดวกที่หลากหลาย องค์กรที่มีโครงสร้างพื้นฐาน 48V DC อยู่แล้วสามารถติดตั้งโดยไม่ต้องอัพเกรดการกระจายพลังงาน—ลดเวลาในการติดตั้งเมื่อเทียบกับความชอบ 800V DC ของ NVIDIA31
เครือข่าย
ระบบ Helios รวมเข้ากับเครือข่ายศูนย์ข้อมูลมาตรฐาน:
| ส่วนประกอบ | ข้อมูลจำเพาะ |
|---|---|
| การเชื่อมต่อภายนอก | 36x 400GbE |
| การสนับสนุนโปรโตคอล | RoCE v2, InfiniBand |
| ตัวจัดการ Fabric | AMD Infinity Fabric Manager |
| การวัดทางไกล | AMD Management Interface |
การสนับสนุน RoCE v2 ช่วยให้การติดตั้งบนโครงสร้างพื้นฐาน Ethernet มาตรฐาน—หลีกเลี่ยงเครือข่ายเฉพาะ InfiniBand ที่ระบบ NVIDIA มักต้องการสำหรับประสิทธิภาพที่ดีที่สุด32
ROCm 7.0: ปิดช่องว่างซอฟต์แวร์
การเปิดตัว ROCm 7.0 ของ AMD มาพร้อมกับ Helios กำหนดเป้าหมายช่องว่างระบบนิเวศซอฟต์แวร์ที่จำกัดการรับ AMD มาโดยตลอด:
การปรับปรุงสำคัญ
โมเดลการเขียนโปรแกรมแบบรวม: ROCm 7.0 แนะนำ HIP 4.0 พร้อมการแปล CUDA ที่ปรับปรุง แอปพลิเคชันที่ต้องการการปรับเปลี่ยนน้อยที่สุดสามารถพอร์ตจาก CUDA—AMD อ้างว่าความเข้ากันได้ของโค้ด 90%+ สำหรับ workload ML มาตรฐาน33
การเพิ่มประสิทธิภาพ Framework: การเพิ่มประสิทธิภาพแบบ native สำหรับ PyTorch 3.0 และ TensorFlow 3.0 ให้ความเท่าเทียมกันด้านประสิทธิภาพกับ CUDA สำหรับการดำเนินการทั่วไป การพัฒนา kernel ที่กำหนดเองยังคงชอบ CUDA แต่การใช้ระดับ framework ได้ throughput ที่แข่งขันได้34
Stack การอนุมาน: เครื่องยนต์การอนุมาน MIGraphX ของ AMD รวมการเพิ่มประสิทธิภาพสำหรับสถาปัตยกรรม transformer, speculative decoding และ continuous batching—ตรงกับความสามารถ NVIDIA TensorRT สำหรับสถาปัตยกรรมโมเดลมาตรฐาน35
เครื่องมือองค์กร: ROCm 7.0 เพิ่มเครื่องมือ profiling, debugging และ monitoring ที่ครอบคลุม AMD Infinity Hub ให้ container ที่ปรับให้เหมาะสมล่วงหน้าสำหรับ workload ทั่วไป36
ช่องว่างที่เหลือ
แม้จะมีการปรับปรุง ช่องว่าง ROCm ยังคงอยู่:
- การพัฒนา kernel ที่กำหนดเองต้องการความเชี่ยวชาญมากกว่า CUDA
- การสนับสนุนไลบรารีบุคคลที่สามยังคงแคบกว่า
- ฐานความรู้ชุมชนเล็กกว่า
- การดำเนินการเฉพาะบางอย่างขาดการใช้งานที่ปรับให้เหมาะสม
องค์กรที่มีความเชี่ยวชาญ CUDA อยู่แล้วเผชิญกับต้นทุนการเปลี่ยน การติดตั้ง greenfield พบอุปสรรคน้อยกว่า—ทำให้ผู้ให้บริการคลาวด์และผู้เข้าสู่ AI รายใหม่เป็นลูกค้า AMD โดยธรรมชาติ37
พลวัตการแข่งขัน
การแข่งขัน AMD-NVIDIA เป็นประโยชน์ต่อตลาดโครงสร้างพื้นฐาน AI ที่กว้างขึ้นผ่านนวัตกรรมที่เร่งและแรงกดดันด้านราคา
การเร่งเทคโนโลยี
การแข่งขันขับเคลื่อนรอบการพัฒนาที่เร็วขึ้น:
| เมทริกซ์ | 2023 | 2026 |
|---|---|---|
| Peak AI FLOPS (ชิปเดี่ยว) | 5 PFLOPS | 50 PFLOPS |
| ความจุ HBM (ชิปเดี่ยว) | 192GB | 432GB |
| แบนด์วิดท์หน่วยความจำ | 5 TB/s | 24 TB/s |
| รอบรุ่น | 24 เดือน | 18 เดือน |
รอบ 18 เดือน Blackwell-ถึง-Rubin ของ NVIDIA และการเร่งขนานของ AMD สะท้อนแรงกดดันการแข่งขันที่บังคับให้วนซ้ำเร็วขึ้น38
ผลกระทบด้านราคา
การมีอยู่ในตลาดของ AMD จำกัดอำนาจการกำหนดราคาของ NVIDIA:
- H100 เปิดตัวที่ราคารายการมากกว่า $30,000
- ราคารายการ Rubin รายงานว่าต่ำกว่า Blackwell 10-15% ที่ประสิทธิภาพเทียบเท่า
- ส่วนลดองค์กรเพิ่มขึ้นจาก 15-20% เป็น 25-35%
ต้นทุนโครงสร้างพื้นฐาน AI รวมลดลงเร็วกว่าที่กฎของมัวร์จะทำนาย—ผลกระทบการแข่งขันทบต้นการปรับปรุงเซมิคอนดักเตอร์39
อำนาจต่อรองลูกค้า
กลยุทธ์หลายผู้จำหน่ายให้อำนาจต่อรอง:
ผู้ให้บริการคลาวด์: AWS, Azure และ GCP ติดตั้งทั้ง AMD และ NVIDIA ช่วยให้การวางตำแหน่งที่เหมาะสมกับ workload และการกระจายผู้จำหน่าย
องค์กร: องค์กรที่ผ่านคุณสมบัติทั้งสองแพลตฟอร์มได้อำนาจต่อรองด้านราคาและความยืดหยุ่นของซัพพลายเชน
ห้องปฏิบัติการ AI: กลยุทธ์สองผู้จำหน่ายป้องกันข้อจำกัดการจัดสรร
การผูกขาดคู่ AMD-NVIDIA ให้บริการลูกค้าได้ดีกว่าการผูกขาด NVIDIA—แม้แต่องค์กรที่ใช้ NVIDIA โดยเฉพาะก็ได้รับประโยชน์จากแรงกดดันการแข่งขัน40
สิ่งนี้หมายความว่าอย่างไรสำหรับการตัดสินใจด้านโครงสร้างพื้นฐาน
ความพร้อมของ Helios สร้างทางเลือกที่แท้จริงในโครงสร้างพื้นฐาน AI ประสิทธิภาพสูง:
เมื่อใดควรพิจารณา AMD
- workload การอนุมานที่ถูกจำกัดด้วยหน่วยความจำที่ได้ประโยชน์จาก 432GB ต่อ accelerator
- การติดตั้งที่อ่อนไหวต่อราคาที่การประหยัด 15-25% พิสูจน์ต้นทุนการเปลี่ยน
- องค์กรที่แสวงหาการกระจายซัพพลายเชน
- การติดตั้ง greenfield โดยไม่มีการล็อค CUDA
- workload ที่ ROCm 7.0 ได้ความเท่าเทียมด้านประสิทธิภาพ
เมื่อใด NVIDIA ยังคงเป็นที่ต้องการ
- workload การฝึกที่ต้องการแบนด์วิดท์การเชื่อมต่อสูงสุด
- codebase ที่ปรับให้เหมาะสมกับ CUDA ที่มีอยู่พร้อมการปรับแต่งที่สำคัญ
- การติดตั้งที่สำคัญต่อภารกิจที่ต้องการระบบนิเวศซอฟต์แวร์ที่พิสูจน์แล้ว
- workload ที่พึ่งพาการเพิ่มประสิทธิภาพเฉพาะ NVIDIA
- องค์กรที่ขาดความเชี่ยวชาญ ROCm
การวางแผนโครงสร้างพื้นฐาน
ทั้งสองแพลตฟอร์มต้องการการลงทุนโครงสร้างพื้นฐานที่คล้ายกัน:
| ส่วนประกอบ | AMD Helios | NVIDIA NVL72 |
|---|---|---|
| การระบายความร้อน | Hybrid หรือของเหลว | ของเหลวเท่านั้น |
| พลังงาน | 140 kW | 120-130 kW |
| เครือข่าย | 400G Ethernet/IB | 800G ที่ต้องการ |
| พื้นที่ | 2x rack | 1x rack |
ตัวเลือกการระบายความร้อนแบบ hybrid และความยืดหยุ่นแรงดันของ AMD ลดอุปสรรคโครงสร้างพื้นฐาน—แต่พื้นที่ rack กว้างสองเท่าส่งผลต่อการวางแผนสิ่งอำนวยความสะดวก41
มองไปข้างหน้า
AMD ได้สร้างการแข่งขันที่น่าเชื่อถือในโครงสร้างพื้นฐาน AI Helios ให้ทางเลือกที่แท้จริงสำหรับการครอบงำของ NVIDIA และการพัฒนา MI500 สัญญาความก้าวหน้าด้านความสามารถอย่างต่อเนื่อง
การอ้างการตลาด 1000 เท่าต้องการความสงสัยที่เหมาะสม การปรับปรุงในโลกแห่งความเป็นจริงน่าจะต่ำกว่าการคำนวณทางทฤษฎีแบบทบต้น แต่แม้แต่การปรับปรุง 50-100 เท่าก็วางตำแหน่ง AMD เป็นทางเลือกที่มีศักยภาพสำหรับ workload AI แนวหน้า
พลวัตตลาดได้เปลี่ยนแปลงอย่างถาวร ส่วนแบ่งตลาด 90%+ ของ NVIDIA จะลดลงเมื่อ AMD แสดงประสิทธิภาพที่แข่งขันได้ การแข่งขันที่เกิดขึ้นเป็นประโยชน์ต่อลูกค้าโครงสร้างพื้นฐาน AI ทั้งหมดผ่านนวัตกรรมที่เร็วขึ้นและการกำหนดราคาที่ดีขึ้น
สำหรับผู้ประกอบการศูนย์ข้อมูล นัยยะชัดเจน: ผ่านคุณสมบัติทั้งสองแพลตฟอร์มตอนนี้ องค์กรที่มุ่งมั่นกับ NVIDIA โดยเฉพาะเสียสละอำนาจต่อรองและความยืดหยุ่นของซัพพลายเชน ผู้ที่ประเมิน AMD ได้รับทางเลือก—และในตลาดโครงสร้างพื้นฐาน AI ที่มีข้อจำกัด ทางเลือกมีมูลค่าที่สำคัญ
Introl ให้บริการโครงสร้างพื้นฐานสำหรับทั้งระบบ AI ของ AMD และ NVIDIA วิศวกรภาคสนาม 550 คนของเราสนับสนุนการติดตั้งใน 257 สถานที่ทั่วโลก พร้อมความเชี่ยวชาญด้านการระบายความร้อน พลังงาน และเครือข่ายสำหรับโครงสร้างพื้นฐาน AI ความหนาแน่นสูง ติดต่อเรา เพื่อหารือเกี่ยวกับความต้องการของคุณ
เอกสารอ้างอิง
-
AMD. "Helios System Architecture." CES 2026 Technical Presentation. มกราคม 2026. ↩
-
AMD. "Helios Component Specifications." Technical Documentation. มกราคม 2026. ↩
-
Data Center Dynamics. "AMD Helios Thermal Architecture Analysis." มกราคม 2026. ↩
-
AMD. "Infinity Fabric 4.0 Specifications." Technical Documentation. มกราคม 2026. ↩
-
Tom's Hardware. "AMD vs NVIDIA Interconnect Bandwidth Comparison." มกราคม 2026. ↩
-
AMD. "MI455X Architecture Overview." CES 2026 Presentation. มกราคม 2026. ↩
-
AMD. "MI455X Memory Subsystem." Technical White Paper. มกราคม 2026. ↩
-
AMD. "CDNA 5 Compute Architecture." Technical Documentation. มกราคม 2026. ↩
-
AMD. "Unified Memory Architecture in MI455X." Developer Documentation. มกราคม 2026. ↩
-
AMD. "Hardware Sparsity Acceleration." Technical White Paper. มกราคม 2026. ↩
-
AMD. "Matrix Core 4.0 Specifications." Developer Documentation. มกราคม 2026. ↩
-
AnandTech. "AMD Helios vs NVIDIA NVL72: Specifications Compared." มกราคม 2026. ↩
-
SemiAnalysis. "Large Model Inference Performance Analysis." มกราคม 2026. ↩
-
MLPerf. "Training Benchmark Results: AMD vs NVIDIA." ธันวาคม 2025. ↩
-
Chips and Cheese. "Memory Bandwidth Impact on Inference Latency." มกราคม 2026. ↩
-
AMD. "ROCm 7.0 Release Notes." มกราคม 2026. ↩
-
AMD. "MI500 Series Preview." CES 2026 Keynote. มกราคม 2026. ↩
-
AMD. "Performance Improvement Methodology." Investor Presentation. มกราคม 2026. ↩
-
SemiAnalysis. "AMD 1000x Claim Analysis." มกราคม 2026. ↩
-
Reuters. "NVIDIA Response to AMD Claims." มกราคม 2026. ↩
-
SemiAnalysis. "Realistic MI500 Performance Projections." มกราคม 2026. ↩
-
The Information. "Enterprise Reaction to AMD AI Strategy." มกราคม 2026. ↩
-
Mercury Research. "AI Accelerator Market Share Analysis." Q4 2025. ↩
-
Microsoft. "Azure AI Infrastructure Expansion Announcement." มกราคม 2026. ↩
-
Meta. "Infrastructure Partner Update." มกราคม 2026. ↩
-
Oracle. "OCI AI Infrastructure Roadmap." มกราคม 2026. ↩
-
Department of Energy. "National Laboratory Computing Partnerships." มกราคม 2026. ↩
-
AMD. "Helios Pricing and Availability." Investor Presentation. มกราคม 2026. ↩
-
Uptime Institute. "AI Accelerator TCO Comparison." มกราคม 2026. ↩
-
AMD. "Helios Cooling Options." Technical Documentation. มกราคม 2026. ↩
-
AMD. "Power Distribution Requirements." Technical Specifications. มกราคม 2026. ↩
-
AMD. "Networking Integration Guide." Technical Documentation. มกราคม 2026. ↩
-
AMD. "HIP 4.0 CUDA Compatibility." Developer Documentation. มกราคม 2026. ↩
-
AMD. "Framework Performance Benchmarks." Technical White Paper. มกราคม 2026. ↩
-
AMD. "MIGraphX 4.0 Release Notes." มกราคม 2026. ↩
-
AMD. "ROCm Enterprise Tools Overview." Documentation. มกราคม 2026. ↩
-
Phoronix. "ROCm 7.0 vs CUDA 13.0 Benchmark Analysis." มกราคม 2026. ↩
-
Epoch AI. "AI Hardware Development Cycle Analysis." มกราคม 2026. ↩
-
McKinsey & Company. "AI Infrastructure Pricing Trends." ธันวาคม 2025. ↩
-
Gartner. "AI Infrastructure Vendor Strategy Report." มกราคม 2026. ↩
-
JLL. "High-Density AI Facility Requirements." Industry Report. ธันวาคม 2025. ↩