AMD MI350 et le paysage concurrentiel des GPU
Mis à jour le 11 décembre 2025
Mise à jour de décembre 2025 : OpenAI prend jusqu'à 10 % de participation dans AMD pour sécuriser un approvisionnement de 6 GW de GPU. Le MI350 est livré avec 288 Go de HBM3e (contre 180 Go pour Blackwell), 8 To/s de bande passante. Microsoft Azure exécute des charges de travail Copilot en production sur MI300X. Oracle déploie des superclusters de 16 384 GPU MI300X. La pile logicielle ROCm d'AMD atteint sa maturité entreprise alors que les alternatives à NVIDIA gagnent en crédibilité.
OpenAI a annoncé un partenariat avec AMD comprenant une prise de participation allant jusqu'à 10 % dans l'entreprise pour sécuriser un approvisionnement allant jusqu'à six gigawatts de GPU.¹ AMD a signé un accord en octobre 2025 pour fournir des puces IA à Oracle pour son infrastructure cloud.² Microsoft Azure exécute désormais des modèles propriétaires et open source en production sur AMD Instinct MI300X.³ Bien que NVIDIA maintienne 80 % à 95 % du marché des GPU IA, AMD s'est établi comme l'alternative crédible que les entreprises considèrent de plus en plus pour les charges de travail d'inférence et l'optimisation des coûts.⁴
La série MI350 a été lancée au T3 2025 avec des spécifications qui défient Blackwell de NVIDIA sur le papier : 288 gigaoctets de mémoire HBM3e, 8 téraoctets par seconde de bande passante, et des revendications de performances IA 2,2x supérieures aux accélérateurs concurrents.⁵ La question pour les planificateurs d'infrastructure d'entreprise est de savoir si les avantages matériels d'AMD et sa pile logicielle en amélioration justifient l'abandon de l'écosystème établi de NVIDIA.
Spécifications et positionnement du MI350
La série AMD Instinct MI350 comprend 185 milliards de transistors et 288 gigaoctets de mémoire HBM3e.⁶ Construite sur l'architecture AMD CDNA de 4e génération, la série MI350 offre une prise en charge étendue des types de données incluant MXFP6 et MXFP4 pour l'inférence IA, l'entraînement et les charges de travail HPC.⁷ La plateforme phare MI355X offre jusqu'à 4x les performances théoriques maximales par rapport à la génération précédente MI300X.⁸
La capacité mémoire constitue l'avantage matériel le plus net d'AMD. Les 288 gigaoctets de HBM3e du MI355X dépassent les 141 gigaoctets du Hopper H200 de NVIDIA et les 180 gigaoctets du Blackwell B200.⁹ La bande passante mémoire atteint 8 téraoctets par seconde contre 4,8 téraoctets par seconde pour le H200 et 7,7 téraoctets par seconde pour le B200.¹⁰
La consommation électrique atteint 1 400 watts pour le MI355X, correspondant aux exigences du Blackwell Ultra.¹¹ Les profils de puissance similaires signifient que les exigences d'infrastructure ne diffèrent pas substantiellement entre les fournisseurs à ce niveau de performance.
AMD a testé le MI355X contre les plateformes NVIDIA B200 et GB200, mesurant le débit d'entraînement pour l'ajustement fin de Llama2-70B et le débit d'inférence sur Llama 3.1-405B.¹² Les benchmarks montrent des performances compétitives, bien que les résultats réels dépendent fortement de l'optimisation logicielle.
Le MI350 a été livré aux partenaires et aux centres de données hyperscale au T3 2025.¹³ Le cycle de rafraîchissement annuel des accélérateurs d'AMD se poursuit avec la série MI400 confirmée pour le développement en 2026.¹⁴ Le design de référence Helios AI intègre les GPU MI400, les CPU EPYC Venice et les NIC Pensando Vulcano dans une architecture full-rack.¹⁵
L'adoption par les fournisseurs cloud s'accélère
IBM Cloud ajoutera les GPU AMD Instinct MI300X au premier semestre 2025.¹⁶ Cette collaboration permet la prise en charge des accélérateurs AMD au sein de la plateforme IA watsonx d'IBM et l'inférence Red Hat Enterprise Linux AI.¹⁷ L'orientation entreprise cible les clients recherchant des alternatives à NVIDIA pour les charges de travail IA en production.
Microsoft Azure a lancé des clusters IA basés sur MI300X dans les régions Suède et Irlande pour prendre en charge les charges de travail Copilot personnalisées.¹⁸ Le fait que Microsoft exécute AMD en production pour des modèles propriétaires démontre que la maturité logicielle a atteint les exigences entreprise.
L'instance Compute Supercluster d'Oracle Cloud Infrastructure prend en charge jusqu'à 16 384 GPU MI300X dans un seul cluster.¹⁹ Cette échelle permet l'entraînement et le déploiement de modèles avec des centaines de milliards de paramètres.²⁰ Le déploiement d'Oracle se concentre sur les cas d'utilisation IA dans la santé et la génomique où la capacité mémoire d'AMD offre des avantages.²¹
Les victoires chez Vultr et Oracle Cloud démontrent un élan croissant derrière la technologie d'accélérateurs d'AMD.²² Lenovo, Dell et SuperMicro ont annoncé des offres basées sur MI300.²³ L'écosystème de fournisseurs prend désormais en charge AMD à l'échelle entreprise.
Cohere déploie ses modèles Command sur AMD Instinct MI300X, alimentant l'inférence LLM de niveau entreprise avec un haut débit et la confidentialité des données.²⁴ L'adoption par les fournisseurs de modèles IA valide la position d'AMD pour les charges de travail d'inférence.
L'écosystème logiciel mûrit
L'écosystème logiciel a historiquement limité l'adoption d'AMD. L'enracinement de CUDA a fait de NVIDIA le choix par défaut. La situation a considérablement changé en 2025.
PyTorch 3.1 offre une prise en charge native de ROCm pour l'entraînement et l'inférence.²⁵ Les bibliothèques populaires incluant DeepSpeed et Hugging Face Accelerate ont ajouté des indicateurs de performance spécifiques à AMD.²⁶ Les développeurs sont de plus en plus à l'aise pour construire directement pour les environnements MI300X.²⁷
Les équipes IA d'entreprise migrent les charges de travail d'inférence vers AMD pour réduire les coûts sans sacrifier les performances.²⁸ Le différentiel de coût importe davantage pour l'inférence que pour l'entraînement car l'inférence fonctionne en continu et domine les dépenses à long terme.
CUDA de NVIDIA offre toujours une adoption plus large par les développeurs et des outils plus matures.²⁹ Les performances réelles dans les environnements de production favorisent souvent NVIDIA en raison de l'optimisation de l'écosystème plutôt que de la capacité matérielle brute.³⁰ Les organisations doivent peser les économies de coûts par rapport à l'investissement en ingénierie requis pour optimiser pour AMD.
L'acquisition par AMD d'ingénieurs matériels et logiciels IA d'Untether AI renforce les capacités de compilateur, de développement de noyaux et de conception de puces.³¹ L'investissement renforce la position d'AMD sur le marché de l'inférence où le fossé CUDA se rétrécit.³²
Dynamique du marché et parts de marché
NVIDIA maintient 80 % à 95 % du marché des GPU IA en 2025.³³ Les données de Wells Fargo montrent que la part de NVIDIA dans les accélérateurs IA reste entre 80 % et 90 %.³⁴ NVIDIA détient plus de 90 % de part de marché dans l'espace GPU datacenter, la plupart du code IA fondamental étant construit sur CUDA.³⁵
Le chiffre d'affaires datacenter d'AMD au T3 2025 a atteint 4,3 milliards de dollars.³⁶ Le chiffre d'affaires datacenter trimestriel de NVIDIA à fin juillet 2025 a atteint 41,1 milliards de dollars.³⁷ L'écart de revenus démontre la différence d'échelle entre les leaders du marché.
Les données JPR montrent que NVIDIA contrôle 94 % du marché des GPU discrets tandis qu'AMD en contrôle environ 6 %.³⁸ La part d'AMD reste un lointain deuxième, bien que le marché se développe assez rapidement pour que les deux fournisseurs croissent.
La part de marché d'AMD dans les GPU IA datacenter a augmenté régulièrement depuis le T1 2023.³⁹ Au T1 2025, la montée en puissance massive de Blackwell de NVIDIA a commencé, et avec la réponse d'AMD n'arrivant qu'au T3 2025, la part d'AMD a temporairement diminué.⁴⁰ Le cycle concurrentiel se poursuivra à mesure que chaque fournisseur lance de nouvelles générations.
Opportunités stratégiques pour AMD
AMD s'est taillé une niche sur le marché de l'inférence où le fossé CUDA de NVIDIA est plus étroit.⁴¹ L'inférence deviendra éventuellement plus importante que l'entraînement, positionnant AMD sur la trajectoire de croissance à long terme du marché.⁴²
L'approche d'AMD se concentre sur des opportunités stratégiquement sélectionnées plutôt que d'essayer d'égaler NVIDIA sur tous les segments.⁴³ Cette stratégie accroît la part d'AMD sur un marché en expansion rapide tout en évitant la concurrence directe là où les avantages de NVIDIA sont les plus forts.⁴⁴
Le partenariat avec OpenAI représente une validation majeure. L'engagement potentiel de 200 milliards de dollars d'OpenAI pour jusqu'à six gigawatts de GPU AMD signale la confiance dans la feuille de route d'AMD.⁴⁵ L'accord fournit à AMD un client de premier plan qui influence les perceptions des entreprises.
La stratégie de prix agressive d'AMD sous-cote NVIDIA, bien que les prix seuls n'aient pas permis à AMD d'égaler les gains de parts de marché de NVIDIA.⁴⁶ La combinaison d'un matériel compétitif, d'un logiciel en amélioration et de prix favorables crée des opportunités avec les entreprises soucieuses des coûts.
Considérations pour le déploiement en entreprise
Les organisations évaluant AMD devraient considérer leur mix de charges de travail. Les charges de travail d'entraînement, en particulier celles avec des dépendances CUDA importantes, favorisent toujours NVIDIA. Les charges de travail d'inférence offrent plus d'opportunités pour l'adoption d'AMD avec des coûts de migration plus faibles.
Les avantages de capacité mémoire comptent pour les grands modèles. Les 288 gigaoctets du MI350 permettent le traitement sur un seul GPU de modèles qui nécessitent plusieurs GPU NVIDIA. L'avantage mémoire réduit la complexité de l'infrastructure pour les organisations exécutant les plus grands modèles.
Les exigences d'investissement logiciel ne doivent pas être sous-estimées. Bien que ROCm se soit considérablement amélioré, les équipes habituées à CUDA auront besoin de temps et de ressources pour optimiser pour AMD. La courbe d'apprentissage affecte le délai de mise en production pour les nouveaux déploiements.
Les stratégies multi-fournisseurs offrent une atténuation des risques. Les organisations qui qualifient à la fois NVIDIA et AMD peuvent négocier de meilleurs prix, éviter les contraintes d'approvisionnement et choisir le matériel optimal pour chaque type de charge de travail. L'investissement dans la prise en charge des deux plateformes est rentable pour les grands déploiements.
L'accès AMD basé sur le cloud réduit les barrières à l'adoption. IBM, Microsoft, Oracle et d'autres fournisseurs proposent des instances AMD qui permettent de tester sans approvisionnement matériel. Les organisations peuvent valider les performances d'AMD sur leurs charges de travail avant de s'engager dans des achats d'infrastructure.
Cadre décisionnel rapide
Sélection AMD vs NVIDIA :
| Si votre charge de travail est... | Considérez | Justification |
|---|---|---|
| Entraînement avec dépendances CUDA | NVIDIA | Maturité de l'écosystème, outillage |
| Inférence à grande échelle | AMD MI350 | Économies de coûts, avantage mémoire |
| Grands modèles limités par la mémoire | AMD MI350/355X | 288 Go vs 180 Go (B200) |
| Atténuation des risques multi-fournisseurs | Les deux | Diversification de l'approvisionnement |
| Évaluation basée sur le cloud | AMD (IBM, Azure, Oracle) | Test sans approvisionnement |
Comparaison des spécifications :
| Spécification | AMD MI355X | NVIDIA B200 | NVIDIA H200 |
|---|---|---|---|
| Mémoire HBM | 288 Go | 180 Go | 141 Go |
| Bande passante mémoire | 8 To/s | 7,7 To/s | 4,8 To/s |
| TDP | 1 400 W | 1 000 W | 700 W |
| Architecture | CDNA 4 | Blackwell | Hopper |
| Part de marché | ~6 % | ~80-95 % | ~80-95 % |
Points clés à retenir
Pour les architectes d'infrastructure : - L'AMD MI350 offre 288 Go de HBM3e — 60 % de plus que les 180 Go du B200 - La pile logicielle ROCm a considérablement mûri en 2025 — PyTorch 3.1 offre une prise en charge native - Les charges de travail d'inférence offrent les coûts de migration les plus bas depuis NVIDIA - Les fournisseurs cloud (IBM, Azure, Oracle) permettent de tester sans approvisionnement matériel
Pour les équipes achats : - La participation de 10 % d'OpenAI dans AMD signale une confiance à long terme dans l'approvisionnement - Les prix d'AMD sous-cotent NVIDIA mais ne se sont pas traduits par des gains équivalents de parts de marché - Une stratégie multi-fournisseurs permet un meilleur levier de négociation et une résilience de l'approvisionnement - L'avantage de capacité mémoire permet le traitement sur un seul GPU de modèles plus grands
Pour la planification stratégique : - NVIDIA maintient 80-95 % de parts de marché — AMD est une alternative crédible, pas un remplacement - Le marché de l'inférence dépassera éventuellement l'entraînement — segment cible d'AMD - Investissement logiciel requis pour l'optimisation AMD — à intégrer dans l'analyse TCO - Série MI400 confirmée pour 2026 — la visibilité de la feuille de route améliore la planification
AMD restera un lointain deuxième derrière NVIDIA dans un avenir prévisible.⁴⁷ Cependant, le marché de l'IA, vaste et en croissance, signifie que même une part minoritaire représente des revenus substantiels et établit AMD comme une option viable pour les entreprises. Les organisations qui développent une expertise AMD se positionnent pour l'optimisation des coûts et la diversification de l'approvisionnement à mesure que le marché évolue.
Références
-
Tech Research Online. "NVIDIA vs AMD (2025): GPUs, AI & Market Share." 2025. https://techresearchonline.com/blog/nvidia-vs-amd-the-gpu-battle-for-ai-dominance/
-
36Kr. "AMD's Aggressive Pricing Stabs Intel but Fails to Outperform NVIDIA." 2025. https://eu.36kr.com/en/p/3541331537719433
-
AMD Newsroom. "AMD Unveils Vision for an Open AI Ecosystem." June 2025. https://www.amd.com/en/newsroom/press-releases/2025-6-12-amd-unveils-vision-for-an-open-ai-ecosystem-detai.html
-
Tech Research Online. "NVIDIA vs AMD (2025)."
-
AMD. "AMD Instinct MI350 Series GPUs." 2025. https://www.amd.com/en/products/accelerators/instinct/mi350.html
-
Kontronn. "AMD Instinct MI350 Officially Announced: 185 Billion Transistors and 288GB HBM
[Contenu tronqué pour la traduction]