AMD MI350 và bối cảnh cạnh tranh GPU
Cập nhật ngày 11 tháng 12 năm 2025
Cập nhật tháng 12/2025: OpenAI nắm giữ tới 10% cổ phần AMD để đảm bảo nguồn cung GPU lên đến 6GW. MI350 xuất xưởng với 288GB HBM3e (so với 180GB của Blackwell), băng thông 8TB/s. Microsoft Azure đang chạy các workload Copilot trên MI300X trong môi trường production. Oracle triển khai siêu cụm 16.384 GPU MI300X. Phần mềm ROCm của AMD đạt độ trưởng thành doanh nghiệp khi các giải pháp thay thế NVIDIA ngày càng được công nhận.
OpenAI công bố quan hệ đối tác với AMD bao gồm việc nắm giữ tới 10% cổ phần công ty để đảm bảo nguồn cung lên đến sáu gigawatt GPU.¹ AMD ký thỏa thuận vào tháng 10 năm 2025 cung cấp chip AI cho Oracle phục vụ hạ tầng đám mây.² Microsoft Azure hiện chạy cả các mô hình độc quyền và mã nguồn mở trong môi trường production trên AMD Instinct MI300X.³ Trong khi NVIDIA duy trì 80% đến 95% thị trường GPU AI, AMD đã khẳng định vị thế là giải pháp thay thế đáng tin cậy mà các doanh nghiệp ngày càng cân nhắc cho workload inference và tối ưu chi phí.⁴
Dòng MI350 ra mắt trong Q3 2025 với thông số kỹ thuật thách thức Blackwell của NVIDIA trên giấy: 288 gigabyte bộ nhớ HBM3e, băng thông 8 terabyte mỗi giây, và tuyên bố hiệu năng AI gấp 2,2 lần so với các bộ tăng tốc cạnh tranh.⁵ Câu hỏi đặt ra cho các nhà hoạch định hạ tầng doanh nghiệp là liệu lợi thế phần cứng và phần mềm đang cải thiện của AMD có xứng đáng với việc chuyển đổi từ hệ sinh thái đã được thiết lập của NVIDIA hay không.
Thông số kỹ thuật và định vị MI350
Dòng AMD Instinct MI350 có 185 tỷ transistor và 288 gigabyte bộ nhớ HBM3e.⁶ Được xây dựng trên kiến trúc AMD CDNA thế hệ thứ 4, dòng MI350 hỗ trợ mở rộng các kiểu dữ liệu bao gồm MXFP6 và MXFP4 cho workload inference AI, training và HPC.⁷ Nền tảng MI355X hàng đầu mang lại hiệu năng lý thuyết cao nhất gấp 4 lần so với thế hệ MI300X trước đó.⁸
Dung lượng bộ nhớ là lợi thế phần cứng rõ ràng nhất của AMD. 288 gigabyte HBM3e của MI355X vượt qua NVIDIA Hopper H200 với 141 gigabyte và Blackwell B200 với 180 gigabyte.⁹ Băng thông bộ nhớ đạt 8 terabyte mỗi giây so với 4,8 terabyte mỗi giây của H200 và 7,7 terabyte mỗi giây của B200.¹⁰
Công suất tiêu thụ đạt 1.400 watt cho MI355X, tương đương với yêu cầu của Blackwell Ultra.¹¹ Hồ sơ công suất tương tự có nghĩa là yêu cầu hạ tầng không khác biệt đáng kể giữa các nhà cung cấp ở cấp hiệu năng này.
AMD đã thử nghiệm MI355X so với nền tảng NVIDIA B200 và GB200, đo thông lượng training cho việc fine-tuning Llama2-70B và thông lượng inference trên Llama 3.1-405B.¹² Các benchmark cho thấy hiệu năng cạnh tranh, mặc dù kết quả thực tế phụ thuộc nhiều vào tối ưu hóa phần mềm.
MI350 đã được giao cho các đối tác và trung tâm dữ liệu hyperscale trong Q3 2025.¹³ Chu kỳ làm mới bộ tăng tốc hàng năm của AMD tiếp tục với dòng MI400 được xác nhận đang phát triển cho năm 2026.¹⁴ Thiết kế tham chiếu Helios AI tích hợp GPU MI400, CPU EPYC Venice và NIC Pensando Vulcano trong kiến trúc full-rack.¹⁵
Việc áp dụng từ nhà cung cấp đám mây tăng tốc
IBM Cloud sẽ bổ sung GPU AMD Instinct MI300X trong nửa đầu năm 2025.¹⁶ Sự hợp tác cho phép hỗ trợ các bộ tăng tốc AMD trong nền tảng watsonx AI của IBM và inference Red Hat Enterprise Linux AI.¹⁷ Trọng tâm doanh nghiệp nhắm đến khách hàng tìm kiếm giải pháp thay thế NVIDIA cho workload AI production.
Microsoft Azure ra mắt cụm AI dựa trên MI300X tại các vùng Thụy Điển và Ireland để hỗ trợ các workload Copilot tùy chỉnh.¹⁸ Việc Microsoft chạy AMD trong production cho các mô hình độc quyền chứng minh rằng độ trưởng thành phần mềm đã đạt yêu cầu doanh nghiệp.
Oracle Cloud Infrastructure Compute Supercluster instance hỗ trợ tới 16.384 GPU MI300X trong một cụm duy nhất.¹⁹ Quy mô này cho phép training và triển khai các mô hình với hàng trăm tỷ tham số.²⁰ Việc triển khai của Oracle tập trung vào các trường hợp sử dụng AI trong y tế và genomic nơi dung lượng bộ nhớ của AMD mang lại lợi thế.²¹
Các thắng lợi từ Vultr và Oracle Cloud chứng minh động lực ngày càng tăng đằng sau công nghệ bộ tăng tốc của AMD.²² Lenovo, Dell và SuperMicro công bố các sản phẩm dựa trên MI300.²³ Hệ sinh thái nhà cung cấp hiện hỗ trợ AMD ở quy mô doanh nghiệp.
Cohere triển khai các mô hình Command trên AMD Instinct MI300X, cung cấp inference LLM cấp doanh nghiệp với thông lượng cao và bảo mật dữ liệu.²⁴ Việc được các nhà cung cấp mô hình AI áp dụng xác nhận vị thế của AMD cho workload inference.
Hệ sinh thái phần mềm trưởng thành
Hệ sinh thái phần mềm trong lịch sử đã hạn chế việc áp dụng AMD. Sự bám rễ sâu của CUDA khiến NVIDIA trở thành lựa chọn mặc định. Tình hình đã thay đổi đáng kể vào năm 2025.
PyTorch 3.1 cung cấp hỗ trợ ROCm native cho training và inference.²⁵ Các thư viện phổ biến bao gồm DeepSpeed và Hugging Face Accelerate đã thêm các flag hiệu năng dành riêng cho AMD.²⁶ Các nhà phát triển ngày càng thoải mái xây dựng trực tiếp cho môi trường MI300X.²⁷
Các đội AI doanh nghiệp di chuyển workload inference sang AMD để giảm chi phí mà không hy sinh hiệu năng.²⁸ Chênh lệch chi phí quan trọng hơn cho inference so với training vì inference chạy liên tục và chiếm phần lớn chi tiêu dài hạn.
CUDA của NVIDIA vẫn cung cấp sự áp dụng rộng rãi hơn từ nhà phát triển và công cụ trưởng thành hơn.²⁹ Hiệu năng thực tế trong môi trường production thường nghiêng về NVIDIA do tối ưu hóa hệ sinh thái hơn là khả năng phần cứng thuần túy.³⁰ Các tổ chức phải cân nhắc tiết kiệm chi phí so với đầu tư kỹ thuật cần thiết để tối ưu cho AMD.
Việc AMD mua lại các kỹ sư phần cứng và phần mềm AI từ Untether AI tăng cường khả năng compiler, phát triển kernel và thiết kế chip.³¹ Khoản đầu tư củng cố vị thế của AMD trong thị trường inference nơi hào nước của CUDA thu hẹp.³²
Động lực thị trường và thị phần
NVIDIA duy trì 80% đến 95% thị trường GPU AI trong năm 2025.³³ Dữ liệu từ Wells Fargo cho thấy thị phần của NVIDIA trong bộ tăng tốc AI vẫn ở mức 80% đến 90%.³⁴ NVIDIA nắm giữ hơn 90% thị phần trong không gian GPU trung tâm dữ liệu, với hầu hết mã AI nền tảng được xây dựng trên CUDA.³⁵
Doanh thu trung tâm dữ liệu của AMD trong Q3 2025 đạt 4,3 tỷ đô la.³⁶ Doanh thu trung tâm dữ liệu một quý của NVIDIA vào cuối tháng 7 năm 2025 đạt 41,1 tỷ đô la.³⁷ Khoảng cách doanh thu cho thấy sự khác biệt về quy mô giữa các nhà lãnh đạo thị trường.
Dữ liệu JPR cho thấy NVIDIA kiểm soát 94% thị trường GPU rời trong khi AMD kiểm soát khoảng 6%.³⁸ Thị phần của AMD vẫn là số hai xa vời, mặc dù thị trường đang mở rộng đủ nhanh để cả hai nhà cung cấp đều tăng trưởng.
Thị phần của AMD trong GPU AI trung tâm dữ liệu tăng đều đặn kể từ Q1 2023.³⁹ Trong Q1 2025, việc tăng cường Blackwell lớn của NVIDIA bắt đầu, và với câu trả lời của AMD chỉ đến trong Q3 2025, thị phần của AMD tạm thời giảm.⁴⁰ Chu kỳ cạnh tranh sẽ tiếp tục khi mỗi nhà cung cấp phát hành các thế hệ mới.
Cơ hội chiến lược cho AMD
AMD đã tạo ra một thị trường ngách trong lĩnh vực inference nơi hào nước CUDA của NVIDIA hẹp hơn.⁴¹ Inference cuối cùng sẽ trở nên lớn hơn training, định vị AMD cho quỹ đạo tăng trưởng dài hạn của thị trường.⁴²
Cách tiếp cận của AMD tập trung vào các cơ hội được chọn lọc chiến lược thay vì cố gắng sánh ngang với NVIDIA trên tất cả các phân khúc.⁴³ Chiến lược này tăng phần của AMD trong một thị trường đang mở rộng nhanh chóng trong khi tránh cạnh tranh trực tiếp nơi lợi thế của NVIDIA mạnh nhất.⁴⁴
Quan hệ đối tác OpenAI đại diện cho một sự xác nhận lớn. Cam kết tiềm năng 200 tỷ đô la của OpenAI cho tới sáu gigawatt GPU AMD báo hiệu sự tin tưởng vào lộ trình của AMD.⁴⁵ Thỏa thuận cung cấp cho AMD một khách hàng hàng đầu có ảnh hưởng đến nhận thức doanh nghiệp.
Chiến lược định giá tích cực của AMD cắt giảm giá so với NVIDIA, mặc dù định giá đơn thuần không cho phép AMD đạt được thị phần tương đương với NVIDIA.⁴⁶ Sự kết hợp của phần cứng cạnh tranh, phần mềm đang cải thiện và định giá thuận lợi tạo ra cơ hội với các doanh nghiệp quan tâm đến chi phí.
Cân nhắc triển khai doanh nghiệp
Các tổ chức đánh giá AMD nên xem xét hỗn hợp workload của họ. Workload training, đặc biệt là những workload có phụ thuộc CUDA sâu rộng, vẫn nghiêng về NVIDIA. Workload inference mang lại nhiều cơ hội hơn cho việc áp dụng AMD với chi phí chuyển đổi thấp hơn.
Lợi thế dung lượng bộ nhớ quan trọng cho các mô hình lớn. 288 gigabyte của MI350 cho phép xử lý trên một GPU duy nhất các mô hình đòi hỏi nhiều GPU NVIDIA. Lợi thế bộ nhớ giảm độ phức tạp hạ tầng cho các tổ chức chạy các mô hình lớn nhất.
Yêu cầu đầu tư phần mềm không nên bị đánh giá thấp. Mặc dù ROCm đã cải thiện đáng kể, các đội quen với CUDA sẽ cần thời gian và nguồn lực để tối ưu cho AMD. Đường cong học tập ảnh hưởng đến thời gian đưa vào production cho các triển khai mới.
Chiến lược đa nhà cung cấp cung cấp giảm thiểu rủi ro. Các tổ chức đủ điều kiện cho cả NVIDIA và AMD có thể đàm phán giá tốt hơn, tránh ràng buộc nguồn cung và chọn phần cứng tối ưu cho từng loại workload. Đầu tư vào việc hỗ trợ cả hai nền tảng mang lại lợi ích cho các triển khai lớn.
Truy cập AMD dựa trên đám mây giảm rào cản áp dụng. IBM, Microsoft, Oracle và các nhà cung cấp khác cung cấp instance AMD cho phép thử nghiệm mà không cần mua sắm phần cứng. Các tổ chức có thể xác nhận hiệu năng AMD trên workload của họ trước khi cam kết mua hạ tầng.
Khung quyết định nhanh
Lựa chọn AMD vs NVIDIA:
| Nếu Workload Của Bạn Là... | Cân Nhắc | Lý Do |
|---|---|---|
| Training với phụ thuộc CUDA | NVIDIA | Độ trưởng thành hệ sinh thái, công cụ |
| Inference quy mô lớn | AMD MI350 | Tiết kiệm chi phí, lợi thế bộ nhớ |
| Mô hình lớn giới hạn bộ nhớ | AMD MI350/355X | 288GB vs 180GB (B200) |
| Giảm thiểu rủi ro đa nhà cung cấp | Cả hai | Đa dạng hóa nguồn cung |
| Đánh giá dựa trên đám mây | AMD (IBM, Azure, Oracle) | Thử nghiệm không cần mua sắm |
So Sánh Thông Số:
| Thông Số | AMD MI355X | NVIDIA B200 | NVIDIA H200 |
|---|---|---|---|
| Bộ Nhớ HBM | 288 GB | 180 GB | 141 GB |
| Băng Thông Bộ Nhớ | 8 TB/s | 7,7 TB/s | 4,8 TB/s |
| TDP | 1.400W | 1.000W | 700W |
| Kiến Trúc | CDNA 4 | Blackwell | Hopper |
| Thị Phần | ~6% | ~80-95% | ~80-95% |
Những điểm chính
Cho kiến trúc sư hạ tầng: - AMD MI350 cung cấp 288GB HBM3e—nhiều hơn 60% so với 180GB của B200 - Phần mềm ROCm trưởng thành đáng kể vào năm 2025—PyTorch 3.1 cung cấp hỗ trợ native - Workload inference có chi phí chuyển đổi thấp nhất từ NVIDIA - Nhà cung cấp đám mây (IBM, Azure, Oracle) cho phép thử nghiệm mà không cần mua sắm phần cứng
Cho đội mua sắm: - Cổ phần 10% AMD của OpenAI báo hiệu sự tin tưởng nguồn cung dài hạn - Định giá AMD cắt giảm so với NVIDIA nhưng chưa chuyển thành thị phần tương đương - Chiến lược đa nhà cung cấp cho phép đòn bẩy đàm phán tốt hơn và khả năng phục hồi nguồn cung - Lợi thế dung lượng bộ nhớ cho phép xử lý các mô hình lớn hơn trên một GPU
Cho hoạch định chiến lược: - NVIDIA duy trì 80-95% thị phần—AMD là giải pháp thay thế đáng tin cậy, không phải thay thế hoàn toàn - Thị trường inference cuối cùng sẽ vượt training—phân khúc mục tiêu của AMD - Đầu tư phần mềm cần thiết cho tối ưu AMD—đưa vào phân tích TCO - Dòng MI400 được xác nhận cho năm 2026—khả năng nhìn thấy lộ trình cải thiện hoạch định
AMD sẽ vẫn là số hai xa vời so với NVIDIA trong tương lai gần.⁴⁷ Tuy nhiên, thị trường AI lớn và đang phát triển có nghĩa là ngay cả thị phần thiểu số cũng đại diện cho doanh thu đáng kể và thiết lập AMD như một lựa chọn doanh nghiệp khả thi. Các tổ chức phát triển chuyên môn AMD định vị mình để tối ưu chi phí và đa dạng hóa nguồn cung khi thị trường phát triển.
Tài liệu tham khảo
-
Tech Research Online. "NVIDIA vs AMD (2025): GPUs, AI & Market Share." 2025. https://techresearchonline.com/blog/nvidia-vs-amd-the-gpu-battle-for-ai-dominance/
-
36Kr. "AMD's Aggressive Pricing Stabs Intel but Fails to Outperform NVIDIA." 2025. https://eu.36kr.com/en/p/3541331537719433
-
AMD Newsroom. "AMD Unveils Vision for an Open AI Ecosystem." June 2025. https://www.amd.com/en/newsroom/press-releases/2025-6-12-amd-unveils-vision-for-an-open-ai-ecosystem-detai.html
-
Tech Research Online. "NVIDIA vs AMD (2025)."
-
AMD. "AMD Instinct MI350 Series GPUs." 2025. https://www.amd.com/en/products/accelerators/instinct/mi350.html
-
Kontronn. "AMD Instinct MI350 Officially Announced: 185 Billion Transistors and 288GB HBM
[Nội dung bị cắt ngắn cho bản dịch]