Processeurs pour l'infrastructure IA : AMD EPYC, Intel Xeon et NVIDIA Grace
Mis à jour le 11 décembre 2025
Mise à jour de décembre 2025 : La part de marché des processeurs serveur AMD atteint 27,8 % au T3 2025, avec une projection de plus de 40 % d'ici la fin de l'année — Intel à un niveau historiquement bas de 72,2 %. Les processeurs ARM représentent désormais 13,2 % des ventes de serveurs, avec la combinaison NVIDIA Grace Blackwell générant une croissance de 50 % du volume des processeurs serveur ARM. Les EPYC 9005 Turin sont livrés avec jusqu'à 192 cœurs (Zen 5c) et 512 Mo de cache L3. Intel Xeon 6 Granite Rapids se concentre sur l'accélération de l'inférence IA.
La part de marché des processeurs serveur AMD a atteint 27,8 % au T3 2025, avec une projection de dépassement de 40 % d'ici la fin de l'année et potentiellement 50 % en 2026.¹ La part d'Intel est tombée à 72,2 % — la part de marché des processeurs serveur la plus basse jamais enregistrée par l'entreprise.² Les processeurs ARM représentent désormais 13,2 % des ventes totales de serveurs, avec la combinaison NVIDIA Grace Blackwell générant une croissance de 50 % du volume des processeurs serveur ARM.³ Le paysage des processeurs pour l'infrastructure IA évolue plus rapidement qu'à n'importe quel moment des deux dernières décennies.
Les GPU dominent le calcul pour l'entraînement et l'inférence IA, mais les CPU restent essentiels pour l'orchestration, le prétraitement des données, le traitement des requêtes d'inférence et la gestion du plan de contrôle. Le choix du processeur affecte la bande passante mémoire, la connectivité E/S, l'efficacité énergétique et le coût total du système. Les organisations déployant l'IA à grande échelle doivent évaluer la sélection des processeurs avec autant de soin que l'approvisionnement en GPU.
AMD EPYC 9005 Turin : le leader de la densité
AMD a lancé la série EPYC 9005 (nom de code Turin) le 10 octobre 2024, représentant la cinquième génération de processeurs serveur EPYC construits sur l'architecture Zen 5.⁴ AMD les positionne comme les meilleurs processeurs serveur au monde pour les charges de travail entreprise, IA et cloud.⁵
Turin propose deux configurations de cœurs. Les modèles Zen 5 standard atteignent 128 cœurs par socket, construits sur le procédé 4nm de TSMC.⁶ Les variantes denses Zen 5c offrent 192 cœurs par socket utilisant le procédé 3nm de TSMC.⁷ Le modèle phare EPYC 9965 fournit 192 cœurs et 384 threads avec un TDP de 500W.⁸
Les spécifications clés couvrent toute la gamme de produits :
| Référence | Cœurs | Cache L3 | TDP | Prix |
|---|---|---|---|---|
| EPYC 9965 | 192 (Zen 5c) | 384 Mo | 500W | 14 813 $ |
| EPYC 9755 | 128 (Zen 5) | 512 Mo | 500W | 12 984 $ |
| EPYC 9575F | 64 (Zen 5) | 512 Mo | 400W | 10 176 $ |
| EPYC 9015 | 8 (Zen 5) | 32 Mo | 155W | 527 $ |
L'architecture emploie jusqu'à 16 CCD (Core Compute Dies) dans les modèles standard et jusqu'à 12 CCD dans les configurations denses, associés à un die d'E/S central.⁹ Les CCD standard contiennent huit cœurs Zen 5 chacun, tandis que les CCD denses regroupent 16 cœurs Zen 5c.¹⁰
Le support mémoire atteint DDR5-6000 avec ECC sur 12 canaux, contre DDR5-4800 pour la génération précédente.¹¹ La connectivité PCIe fournit jusqu'à 128 lignes Gen5 avec support CXL 1.0 pour les périphériques de Type 1, 2 et 3.¹² Le socket SP5 maintient la compatibilité avec les systèmes Genoa et Bergamo.¹³
Les processeurs Turin offrent une amélioration IPC de 17 % par rapport à la génération précédente avec des chemins de données AVX-512 complets de 512 bits.¹⁴ Ces améliorations se traduisent directement dans les charges de travail de prétraitement des données et de service d'inférence courantes dans l'infrastructure IA.
L'activité data center d'AMD a généré 3,7 milliards de dollars de revenus trimestriels, en croissance de 57 % en glissement annuel.¹⁵ Cette croissance reflète les ventes de processeurs EPYC et de GPU Instinct alors qu'AMD gagne des parts de marché dans les deux catégories.
Intel Xeon 6 Granite Rapids : l'avantage de l'inférence IA
Intel a annoncé la série Xeon 6 Granite Rapids 6900P avec des modèles allant de 72 à 128 cœurs — dépassant enfin le nombre de cœurs d'AMD pour la première fois depuis 2017.¹⁶ Les processeurs utilisent l'architecture P-core Redwood Cove d'Intel sur le nœud de processus Intel 3.¹⁷
Les modèles Granite Rapids-AP (Advanced Performance) utilisent la plateforme Avenue City avec le socket plus grand LGA 7529.¹⁸ Le socket plus grand permet 128 cœurs avec support pour la mémoire DDR5 12 canaux et jusqu'à 192 lignes PCIe 5.0 dans les configurations bi-socket.¹⁹ Le cache L3 atteint un impressionnant 504 mégaoctets sur les références haut de gamme.²⁰
La bande passante mémoire représente un différenciateur clé. Granite Rapids UCC supporte la DDR5 à 6,4 GHz en standard et la mémoire multiplexed rank (MRDIMM) à 8,8 GHz.²¹ Les vitesses mémoire plus élevées bénéficient aux charges de travail d'inférence IA limitées par la mémoire.
L'architecture E/S fournit 136 lignes PCIe 5.0 — contre 128 dans Emerald Rapids — avec support CXL 2.0 Type 3 et jusqu'à 6 liens UPI pour la mise à l'échelle multi-socket.²²
L'avantage distinctif d'Intel réside dans les Advanced Matrix Extensions (AMX), qui accélèrent les charges de travail d'inférence IA.²³ Le moteur matriciel supporte l'accélération AMX FP16 sur les processeurs Xeon 6500P et 6700P.²⁴ Intel revendique 5,5 fois les performances d'inférence IA sur ResNet50 par rapport au concurrent AMD phare à 96 cœurs Genoa.²⁵
Les tests de benchmark confirment l'avantage AMX. Phoronix a documenté des bénéfices massifs de performance IA avec AMX sur Granite Rapids, montrant des améliorations significatives du débit d'inférence par rapport à l'exécution x86 non accélérée.²⁶
Les processeurs Granite Rapids-D ciblent les applications edge computing et réseau avec une disponibilité en 2025.²⁷ Les modèles initiaux atteignent 42 cœurs avec des variantes à 72 cœurs attendues plus tard dans l'année.²⁸ Les variantes SoC intègrent Intel Ethernet avec une performance IA RAN améliorée de 3,2 fois par cœur.²⁹
Les défis de parts de marché d'Intel persistent malgré un matériel compétitif. L'entreprise détient 72,2 % des unités de processeurs serveur mais continue de perdre des parts trimestre après trimestre.³⁰ La part de revenus raconte une histoire différente — AMD capture 37,2 % en mesurant en dollars plutôt qu'en unités, reflétant le succès d'AMD dans les segments à prix plus élevés.³¹
NVIDIA Grace : ARM entre dans le data center
NVIDIA Grace représente le premier processeur data center de l'entreprise, construit sur des cœurs ARM Neoverse V2 spécifiquement pour les charges de travail IA et calcul haute performance.³² L'architecture s'associe aux GPU NVIDIA pour créer des systèmes étroitement couplés qui éliminent les goulots d'étranglement traditionnels de communication CPU-GPU.
Le CPU Grace dispose de 72 cœurs ARM Neoverse V2 haute performance avec 4×128 bits d'unités vectorielles SVE2 par cœur.³³ La hiérarchie de cache comprend 64 Ko de caches L1 d'instructions et de données, 1 Mo de L2 par cœur et 117 Mo de L3 partagé.³⁴ La mémoire atteint 480 Go de LPDDR5X utilisable avec 546 Go/s de bande passante à 250W TDP.³⁵
Le Grace CPU Superchip combine deux CPU Grace connectés via NVLink-C2C, délivrant 144 cœurs ARM avec jusqu'à 1 To/s de bande passante mémoire.³⁶ L'interconnexion atteint 900 Go/s de bande passante entre les deux CPU sur un seul module avec jusqu'à 960 Go de mémoire LPDDR5X.³⁷
NVIDIA revendique que Grace offre 2x les performances par watt, 2x la densité d'intégration et la bande passante mémoire la plus élevée par rapport aux serveurs x86 contemporains.³⁸ Les avantages d'efficacité se cumulent dans les déploiements IA à contraintes énergétiques.
La configuration GB200 NVL72 connecte 36 CPU Grace avec 72 GPU Blackwell dans une conception refroidie par liquide à l'échelle du rack.³⁹ Le système offre une inférence en temps réel 30x plus rapide pour les grands modèles de langage à mille milliards de paramètres par rapport aux générations précédentes.⁴⁰
Grace s'intègre pleinement à l'écosystème logiciel ARM. Le SDK HPC NVIDIA et tous les composants CUDA fournissent des installateurs et conteneurs natifs ARM.⁴¹ Les microservices NVIDIA NIM et les conteneurs NGC sont optimisés pour ARM.⁴² Toutes les principales distributions Linux fonctionnent sans modification.⁴³
L'élan d'ARM dans les data centers s'étend au-delà de NVIDIA. ARM Holdings projette que sa part de marché des processeurs data center passera d'environ 15 % en 2024 à 50 % d'ici la fin de 2025.⁴⁴ Cette projection reflète une croissance agressive des instances ARM cloud-natives et l'adoption de NVIDIA Grace.
Le superchip GB10 Grace Blackwell apporte l'architecture aux formats de bureau pour les développeurs IA, chercheurs et edge computing.⁴⁵ Le système en boîtier fusionne un CPU ARM avec les capacités GPU Blackwell, permettant le développement IA local qui nécessitait auparavant un accès au data center.
Sélection de processeurs selon les charges de travail
La sélection du processeur pour l'infrastructure IA dépend du rôle spécifique au sein de l'architecture de déploiement. Différentes charges de travail favorisent différentes caractéristiques de processeur.
Les charges de travail du plan de contrôle et d'orchestration bénéficient d'un nombre élevé de cœurs et d'une grande capacité mémoire. Les plans de contrôle Kubernetes, les ordonnanceurs de tâches et les systèmes de surveillance évoluent avec les cœurs disponibles. La densité de 192 cœurs d'AMD EPYC offre une marge de manœuvre pour la consolidation. Les canaux mémoire et la capacité importent plus que les performances par cœur pour ces charges de travail.
Les pipelines de prétraitement des données transforment les données brutes en formats prêts pour l'entraînement. Ces charges de travail évoluent souvent avec la bande passante mémoire plutôt qu'avec le calcul. Le support MRDIMM d'Intel à 8,8 GHz offre des avantages en bande passante. L'étape de prétraitement s'exécute souvent sur des systèmes dédiés uniquement CPU alimentant les clusters GPU.
Les charges de travail de service d'inférence présentent l'argument le plus fort pour l'évaluation des processeurs. Bien que les GPU gèrent l'exécution des modèles, les CPU gèrent le routage des requêtes, la tokenisation et l'assemblage des réponses. L'accélération AMX d'Intel permet l'inférence basée sur CPU pour les modèles plus petits, éliminant potentiellement les besoins en GPU pour les charges de travail appropriées. L'avantage de performance 5,5x sur ResNet50 démontre la proposition de valeur.
Les systèmes hôtes GPU nécessitent des processeurs qui évitent de devenir des goulots d'étranglement. Le nombre de lignes PCIe détermine combien de GPU se connectent à chaque socket CPU. Les 128 lignes Gen5 d'EPYC et les 136 lignes de Granite Rapids supportent tous deux les configurations à huit GPU. La bande passante mémoire affecte la rapidité avec laquelle les données sont transférées vers la mémoire GPU pour les lots d'entraînement.
Les déploiements d'inférence en périphérie favorisent l'efficacité énergétique et les E/S intégrées. Granite Rapids-D intègre la connectivité Ethernet pour les appliances d'inférence réseau. L'architecture ARM de Grace fournit le profil d'efficacité que les déploiements en périphérie exigent.
Considérations de planification d'infrastructure
Les dynamiques du marché des processeurs favorisent l'évaluation multi-fournisseurs. Les gains constants de parts de marché d'AMD créent une pression concurrentielle qui profite aux acheteurs. La réponse d'Intel avec Granite Rapids démontre une innovation continue malgré les défis du marché. Le Grace de NVIDIA offre une différenciation pour les architectures centrées sur les GPU.
L'architecture mémoire différencie de plus en plus les plateformes. Le support CXL permet l'expansion mémoire au-delà de la capacité du socket. Les vitesses DDR5 continuent d'augmenter à chaque génération. Les organisations planifiant une infrastructure sur plusieurs années devraient évaluer les feuilles de route mémoire parallèlement aux spécifications des processeurs.
L'efficacité énergétique détermine la densité de déploiement dans les installations à contraintes. La revendication de Grace de 2x les performances par watt mérite validation pour des charges de travail spécifiques. L'avantage énergétique se cumule dans les grands déploiements où les limites des installations contraignent la croissance.
Les exigences de l'écosystème logiciel restreignent les choix pour certaines organisations. La compatibilité x86 reste essentielle pour les charges de travail héritées. L'adoption d'ARM nécessite une validation des applications et potentiellement une recompilation. L'intégration CUDA avec Grace simplifie la transition pour les déploiements centrés sur les GPU.
Les calculs du coût total de possession devraient inclure non seulement le prix du processeur mais aussi les coûts système, la consommation électrique et les licences. Le prix favorable d'AMD au haut de gamme — le 9965 à 192 cœurs à 14 813 $ — est inférieur aux offres comparables d'Intel. Cependant, l'accélération AMX d'Intel peut réduire les besoins en GPU pour l'inférence, affectant l'équation de coût plus large.
Le CPU reste le fondement de l'infrastructure IA même si les GPU captent l'attention. Les organisations qui évaluent la sélection des processeurs avec la même rigueur appliquée à l'approvisionnement en GPU construisent des systèmes plus équilibrés et efficaces. Les dynamiques concurrentielles entre AMD, Intel et NVIDIA garantissent qu'une évaluation minutieuse procure des avantages d'infrastructure significatifs.
Points clés à retenir
Pour l'approvisionnement en serveurs : - AMD EPYC Turin 9965 : 192 cœurs (Zen 5c), 384 Mo L3, 500W TDP à 14 813 $ ; prix favorable vs Intel au haut de gamme - Intel Xeon 6900P : 128 cœurs (Granite Rapids), 504 Mo L3, accélération AMX FP16, support MRDIMM à 8,8 GHz - NVIDIA Grace : 72 cœurs ARM, 480 Go LPDDR5X à 546 Go/s de bande passante, 250W TDP ; 2x perf/watt revendiqué
Pour la planification des charges de travail : - Plan de contrôle/orchestration : favorise un nombre élevé de cœurs (densité AMD 192 cœurs) ; la capacité mémoire importe plus que la vitesse par cœur - Prétraitement des données : évolue avec la bande passante mémoire ; Intel MRDIMM 8,8 GHz offre un avantage - Service d'inférence : Intel AMX offre 5,5x les performances ResNet50 vs AMD ; peut éliminer le besoin de GPU pour les modèles plus petits - Systèmes hôtes GPU : le nombre de lignes PCIe (AMD 128, Intel 136 Ge
[Contenu tronqué pour la traduction]