AMD MI350 та конкурентний ландшафт GPU
Оновлено 11 грудня 2025 року
Оновлення грудня 2025: OpenAI отримує до 10% частки в AMD для забезпечення постачання GPU на 6 ГВт. MI350 постачається з 288 ГБ HBM3e (проти 180 ГБ у Blackwell), пропускна здатність 8 ТБ/с. Microsoft Azure виконує робочі навантаження Copilot у продакшені на MI300X. Oracle розгортає суперкластери з 16 384 GPU MI300X. Програмний стек ROCm від AMD досягає корпоративної зрілості, оскільки альтернативи NVIDIA набувають довіри.
OpenAI оголосила про партнерство з AMD, яке включає придбання до 10% частки в компанії для забезпечення постачання GPU потужністю до шести гігават.¹ AMD підписала угоду в жовтні 2025 року на постачання AI-чипів для Oracle для їхньої хмарної інфраструктури.² Microsoft Azure тепер запускає як пропрієтарні, так і відкриті моделі в продакшені на AMD Instinct MI300X.³ Хоча NVIDIA утримує від 80% до 95% ринку AI GPU, AMD утвердилася як надійна альтернатива, яку підприємства все частіше розглядають для робочих навантажень інференсу та оптимізації витрат.⁴
Серія MI350 була запущена в третьому кварталі 2025 року зі специфікаціями, які на папері кидають виклик Blackwell від NVIDIA: 288 гігабайт пам'яті HBM3e, пропускна здатність 8 терабайт на секунду та заяви про 2,2-кратну продуктивність AI порівняно з конкурентними прискорювачами.⁵ Питання для планувальників корпоративної інфраструктури полягає в тому, чи виправдовують апаратні переваги AMD та покращений програмний стек перехід від усталеної екосистеми NVIDIA.
Специфікації та позиціонування MI350
Серія AMD Instinct MI350 містить 185 мільярдів транзисторів та 288 гігабайт пам'яті HBM3e.⁶ Побудована на архітектурі AMD CDNA 4-го покоління, серія MI350 забезпечує розширену підтримку типів даних, включаючи MXFP6 та MXFP4 для AI-інференсу, навчання та HPC-навантажень.⁷ Флагманська платформа MI355X забезпечує до 4-кратної пікової теоретичної продуктивності порівняно з попереднім поколінням MI300X.⁸
Обсяг пам'яті забезпечує найочевиднішу апаратну перевагу AMD. 288 гігабайт HBM3e у MI355X перевищують 141 гігабайт NVIDIA Hopper H200 та 180 гігабайт Blackwell B200.⁹ Пропускна здатність пам'яті досягає 8 терабайт на секунду порівняно з 4,8 терабайта на секунду у H200 та 7,7 терабайта на секунду у B200.¹⁰
Споживання енергії досягає 1400 ват для MI355X, що відповідає вимогам Blackwell Ultra.¹¹ Схожі профілі енергоспоживання означають, що вимоги до інфраструктури суттєво не відрізняються між постачальниками на цьому рівні продуктивності.
AMD тестувала MI355X проти платформ NVIDIA B200 та GB200, вимірюючи пропускну здатність навчання для файн-тюнінгу Llama2-70B та пропускну здатність інференсу на Llama 3.1-405B.¹² Бенчмарки показують конкурентну продуктивність, хоча реальні результати значною мірою залежать від програмної оптимізації.
MI350 почала постачатися партнерам та гіпермасштабним дата-центрам у третьому кварталі 2025 року.¹³ Щорічний цикл оновлення прискорювачів AMD продовжується з підтвердженою розробкою серії MI400 на 2026 рік.¹⁴ Еталонний дизайн Helios AI інтегрує GPU MI400, CPU EPYC Venice та мережеві карти Pensando Vulcano в архітектуру повної стійки.¹⁵
Впровадження хмарними провайдерами прискорюється
IBM Cloud додасть GPU AMD Instinct MI300X у першій половині 2025 року.¹⁶ Співпраця забезпечує підтримку прискорювачів AMD у платформі watsonx AI від IBM та інференсу Red Hat Enterprise Linux AI.¹⁷ Корпоративний фокус спрямований на клієнтів, які шукають альтернативи NVIDIA для продакшн AI-навантажень.
Microsoft Azure запустила кластери AI на базі MI300X у регіонах Швеції та Ірландії для підтримки користувацьких навантажень Copilot.¹⁸ Використання Microsoft AMD у продакшені для пропрієтарних моделей демонструє, що програмна зрілість досягла корпоративних вимог.
Oracle Cloud Infrastructure Compute Supercluster підтримує до 16 384 GPU MI300X в одному кластері.¹⁹ Такий масштаб дозволяє навчати та розгортати моделі з сотнями мільярдів параметрів.²⁰ Розгортання Oracle зосереджено на AI для охорони здоров'я та геноміки, де обсяг пам'яті AMD надає переваги.²¹
Перемоги Vultr та Oracle Cloud демонструють зростаючий імпульс за технологією прискорювачів AMD.²² Lenovo, Dell та SuperMicro анонсували рішення на базі MI300.²³ Екосистема постачальників тепер підтримує AMD у корпоративному масштабі.
Cohere розгортає свої моделі Command на AMD Instinct MI300X, забезпечуючи корпоративний LLM-інференс з високою пропускною здатністю та конфіденційністю даних.²⁴ Впровадження провайдерами AI-моделей підтверджує позицію AMD для робочих навантажень інференсу.
Програмна екосистема дозріває
Програмна екосистема історично обмежувала впровадження AMD. Укоріненість CUDA зробила NVIDIA вибором за замовчуванням. Ситуація суттєво змінилася у 2025 році.
PyTorch 3.1 пропонує нативну підтримку ROCm для навчання та інференсу.²⁵ Популярні бібліотеки, включаючи DeepSpeed та Hugging Face Accelerate, додали специфічні для AMD прапорці продуктивності.²⁶ Розробники все більш комфортно створюють безпосередньо для середовищ MI300X.²⁷
Корпоративні AI-команди мігрують робочі навантаження інференсу на AMD для зниження витрат без втрати продуктивності.²⁸ Різниця у вартості має більше значення для інференсу, ніж для навчання, оскільки інференс працює безперервно та домінує в довгострокових витратах.
CUDA від NVIDIA все ще забезпечує ширше впровадження розробниками та більш зрілий інструментарій.²⁹ Реальна продуктивність у продакшн-середовищах часто віддає перевагу NVIDIA через оптимізацію екосистеми, а не через сиру апаратну спроможність.³⁰ Організації повинні зважувати економію витрат проти інженерних інвестицій, необхідних для оптимізації під AMD.
Придбання AMD інженерів з AI-апаратного та програмного забезпечення з Untether AI покращує можливості компілятора, розробки ядер та дизайну чипів.³¹ Інвестиція зміцнює позицію AMD на ринку інференсу, де рів CUDA звужується.³²
Динаміка ринку та частка
NVIDIA утримує від 80% до 95% ринку AI GPU у 2025 році.³³ Дані Wells Fargo показують, що частка NVIDIA в AI-прискорювачах залишається між 80% та 90%.³⁴ NVIDIA утримує понад 90% частки в сегменті GPU для дата-центрів, при цьому більшість базового AI-коду побудована на CUDA.³⁵
Дохід AMD від дата-центрів у третьому кварталі 2025 року досяг 4,3 мільярда доларів.³⁶ Квартальний дохід NVIDIA від дата-центрів на кінець липня 2025 року досяг 41,1 мільярда доларів.³⁷ Розрив у доходах демонструє різницю масштабів між лідерами ринку.
Дані JPR показують, що NVIDIA контролює 94% ринку дискретних GPU, тоді як AMD контролює близько 6%.³⁸ Частка AMD залишається далекою другою, хоча ринок розширюється достатньо швидко, щоб обидва постачальники зростали.
Частка ринку AMD в AI GPU для дата-центрів стабільно зростала з першого кварталу 2023 року.³⁹ У першому кварталі 2025 року розпочався масивний запуск Blackwell від NVIDIA, і оскільки відповідь AMD з'явилася лише в третьому кварталі 2025 року, частка AMD тимчасово знизилася.⁴⁰ Конкурентний цикл продовжиться з випуском кожним постачальником нових поколінь.
Стратегічні можливості для AMD
AMD зайняла нішу на ринку інференсу, де рів CUDA від NVIDIA є вужчим.⁴¹ Інференс з часом стане більшим за навчання, позиціонуючи AMD для довгострокової траєкторії зростання ринку.⁴²
Підхід AMD зосереджується на стратегічно обраних можливостях, а не на спробах відповідати NVIDIA у всіх сегментах.⁴³ Стратегія нарощує частку AMD на ринку, що швидко розширюється, уникаючи прямої конкуренції там, де переваги NVIDIA найсильніші.⁴⁴
Партнерство з OpenAI є важливим підтвердженням. Потенційне зобов'язання OpenAI на 200 мільярдів доларів за до шести гігават GPU AMD сигналізує про впевненість у дорожній карті AMD.⁴⁵ Угода надає AMD знакового клієнта, який впливає на корпоративне сприйняття.
Агресивна цінова стратегія AMD пропонує нижчі ціни за NVIDIA, хоча ціноутворення саме по собі не дозволило AMD досягти відповідних результатів NVIDIA у зростанні частки ринку.⁴⁶ Поєднання конкурентоспроможного апаратного забезпечення, покращеного програмного забезпечення та вигідного ціноутворення створює можливості з підприємствами, чутливими до витрат.
Міркування щодо корпоративного розгортання
Організації, що оцінюють AMD, повинні враховувати свій мікс робочих навантажень. Навантаження на навчання, особливо ті, що мають значні залежності від CUDA, все ще віддають перевагу NVIDIA. Навантаження на інференс пропонують більше можливостей для впровадження AMD з нижчими витратами на перехід.
Переваги в обсязі пам'яті мають значення для великих моделей. 288 гігабайт MI350 дозволяють обробляти на одному GPU моделі, які вимагають кількох GPU NVIDIA. Перевага в пам'яті зменшує складність інфраструктури для організацій, що запускають найбільші моделі.
Вимоги до інвестицій у програмне забезпечення не слід недооцінювати. Хоча ROCm суттєво покращився, командам, звиклим до CUDA, знадобиться час та ресурси для оптимізації під AMD. Крива навчання впливає на час до продакшену для нових розгортань.
Мультивендорні стратегії забезпечують зниження ризиків. Організації, які кваліфікують як NVIDIA, так і AMD, можуть домовлятися про кращі ціни, уникати обмежень постачання та обирати оптимальне апаратне забезпечення для кожного типу навантаження. Інвестиція в підтримку обох платформ окупається для великих розгортань.
Хмарний доступ до AMD знижує бар'єри впровадження. IBM, Microsoft, Oracle та інші провайдери пропонують інстанси AMD, які дозволяють тестування без закупівлі апаратного забезпечення. Організації можуть перевірити продуктивність AMD на своїх навантаженнях перед зобов'язанням щодо придбання інфраструктури.
Швидка структура прийняття рішень
Вибір AMD проти NVIDIA:
| Якщо ваше навантаження... | Розгляньте | Обґрунтування |
|---|---|---|
| Навчання із залежностями від CUDA | NVIDIA | Зрілість екосистеми, інструментарій |
| Інференс у масштабі | AMD MI350 | Економія витрат, перевага в пам'яті |
| Великі моделі з обмеженням пам'яті | AMD MI350/355X | 288 ГБ проти 180 ГБ (B200) |
| Мультивендорне зниження ризиків | Обидва | Диверсифікація постачання |
| Хмарна оцінка | AMD (IBM, Azure, Oracle) | Тестування без закупівлі |
Порівняння специфікацій:
| Специфікація | AMD MI355X | NVIDIA B200 | NVIDIA H200 |
|---|---|---|---|
| Пам'ять HBM | 288 ГБ | 180 ГБ | 141 ГБ |
| Пропускна здатність пам'яті | 8 ТБ/с | 7,7 ТБ/с | 4,8 ТБ/с |
| TDP | 1400 Вт | 1000 Вт | 700 Вт |
| Архітектура | CDNA 4 | Blackwell | Hopper |
| Частка ринку | ~6% | ~80-95% | ~80-95% |
Ключові висновки
Для архітекторів інфраструктури: - AMD MI350 пропонує 288 ГБ HBM3e — на 60% більше, ніж 180 ГБ у B200 - Програмний стек ROCm суттєво дозрів у 2025 році — PyTorch 3.1 пропонує нативну підтримку - Навантаження інференсу пропонують найнижчі витрати на перехід з NVIDIA - Хмарні провайдери (IBM, Azure, Oracle) дозволяють тестування без закупівлі апаратного забезпечення
Для команд закупівель: - 10% частка OpenAI в AMD сигналізує про довгострокову впевненість у постачанні - Ціни AMD нижчі за NVIDIA, але це не призвело до еквівалентного зростання частки ринку - Мультивендорна стратегія забезпечує кращі переговорні позиції та стійкість постачання - Перевага в обсязі пам'яті дозволяє обробку більших моделей на одному GPU
Для стратегічного планування: - NVIDIA утримує 80-95% частки ринку — AMD є надійною альтернативою, а не заміною - Ринок інференсу з часом перевищить навчання — цільовий сегмент AMD - Для оптимізації AMD потрібні інвестиції в програмне забезпечення — враховуйте в аналізі TCO - Серія MI400 підтверджена на 2026 рік — видимість дорожньої карти покращує планування
AMD залишатиметься далекою другою після NVIDIA в осяжному майбутньому.⁴⁷ Однак великий та зростаючий ринок AI означає, що навіть меншість частки становить значний дохід та утверджує AMD як життєздатний корпоративний варіант. Організації, які розвивають експертизу AMD, позиціонують себе для оптимізації витрат та диверсифікації постачання в міру розвитку ринку.
Джерела
-
Tech Research Online. "NVIDIA vs AMD (2025): GPUs, AI & Market Share." 2025. https://techresearchonline.com/blog/nvidia-vs-amd-the-gpu-battle-for-ai-dominance/
-
36Kr. "AMD's Aggressive Pricing Stabs Intel but Fails to Outperform NVIDIA." 2025. https://eu.36kr.com/en/p/3541331537719433
-
AMD Newsroom. "AMD Unveils Vision for an Open AI Ecosystem." June 2025. https://www.amd.com/en/newsroom/press-releases/2025-6-12-amd-unveils-vision-for-an-open-ai-ecosystem-detai.html
-
Tech Research Online. "NVIDIA vs AMD (2025)."
-
AMD. "AMD Instinct MI350 Series GPUs." 2025. https://www.amd.com/en/products/accelerators/instinct/mi350.html
-
Kontronn. "AMD Instinct MI350 Officially Announced: 185 Billion Transistors and 288GB HBM
[Вміст скорочено для перекладу]