CPU's voor AI-infrastructuur: AMD EPYC, Intel Xeon en NVIDIA Grace

AMD's marktaandeel voor server-CPU's bereikt 27,8% in Q3 2025, verwacht 40%+ tegen jaareinde—Intel op recordlaag van 72,2%. ARM-processors nu 13,2% van serververkoop met NVIDIA Grace Blackwell als drijvende kracht achter 50% groei. EPYC...

CPU's voor AI-infrastructuur: AMD EPYC, Intel Xeon en NVIDIA Grace

CPU's voor AI-infrastructuur: AMD EPYC, Intel Xeon en NVIDIA Grace

Bijgewerkt 11 december 2025

December 2025 Update: AMD's marktaandeel voor server-CPU's bereikt 27,8% in Q3 2025, verwacht 40%+ tegen jaareinde—Intel op recordlaag van 72,2%. ARM-processors nu 13,2% van serververkoop met NVIDIA Grace Blackwell als drijvende kracht achter 50% groei. EPYC 9005 Turin wordt geleverd met maximaal 192 cores (Zen 5c) en 512MB L3-cache. Intel Xeon 6 Granite Rapids richt zich op AI-inferentieversnelling.

AMD's marktaandeel voor server-CPU's bereikte 27,8% in Q3 2025, met verwachtingen om 40% te overschrijden tegen jaareinde en mogelijk 50% te bereiken in 2026.¹ Intel's aandeel daalde naar 72,2%—het laagste server-CPU-aandeel dat het bedrijf ooit heeft geregistreerd.² ARM-processors vertegenwoordigen nu 13,2% van de totale serververkoop, waarbij NVIDIA's Grace Blackwell-combinatie 50% groei in ARM server-CPU-volume aandrijft.³ Het CPU-landschap voor AI-infrastructuur verschuift sneller dan op enig moment in de afgelopen twee decennia.

GPU's domineren AI-training en inferentie-compute, maar CPU's blijven essentieel voor orkestratie, datavoorbewerking, het afhandelen van inferentieverzoeken en het beheren van het control plane. De keuze van CPU beïnvloedt geheugenbandbreedte, I/O-connectiviteit, energie-efficiëntie en totale systeemkosten. Organisaties die AI op schaal uitrollen, moeten CPU-selectie net zo zorgvuldig evalueren als GPU-inkoop.

AMD EPYC 9005 Turin: de dichtheidskampioen

AMD lanceerde de EPYC 9005-serie (codenaam Turin) op 10 oktober 2024, de vijfde generatie EPYC-serverprocessors gebouwd op Zen 5-architectuur.⁴ AMD positioneert deze als 's werelds beste server-CPU voor enterprise-, AI- en cloudworkloads.⁵

Turin biedt twee core-configuraties. Standaard Zen 5-modellen bereiken 128 cores per socket, gebouwd op TSMC's 4nm-proces.⁶ De dichte Zen 5c-varianten leveren 192 cores per socket met TSMC's 3nm-proces.⁷ Het vlaggenschip EPYC 9965 biedt 192 cores en 384 threads met een TDP van 500W.⁸

Belangrijke specificaties beslaan het volledige productaanbod:

SKU Cores L3-cache TDP Prijs
EPYC 9965 192 (Zen 5c) 384 MB 500W $14.813
EPYC 9755 128 (Zen 5) 512 MB 500W $12.984
EPYC 9575F 64 (Zen 5) 512 MB 400W $10.176
EPYC 9015 8 (Zen 5) 32 MB 155W $527

De architectuur gebruikt maximaal 16 CCD's (Core Compute Dies) in standaardmodellen en maximaal 12 CCD's in dichte configuraties, gecombineerd met een centrale I/O-die.⁹ Standaard CCD's bevatten elk acht Zen 5-cores, terwijl dichte CCD's 16 Zen 5c-cores bevatten.¹⁰

Geheugenondersteuning reikt tot DDR5-6000 met ECC over 12 kanalen, een verbetering ten opzichte van DDR5-4800 in de vorige generatie.¹¹ PCIe-connectiviteit biedt maximaal 128 Gen5-lanes met CXL 1.0-ondersteuning voor Type 1, 2 en 3 apparaten.¹² De SP5-socket behoudt compatibiliteit met Genoa- en Bergamo-systemen.¹³

Turin-processors leveren een IPC-verbetering van 17% ten opzichte van de vorige generatie met volledige 512-bit AVX-512-datapaden.¹⁴ De verbeteringen vertalen zich direct naar datavoorbewerking en inference-serving workloads die gangbaar zijn in AI-infrastructuur.

AMD's datacenteractiviteiten genereerden $3,7 miljard aan kwartaalomzet, een groei van 57% jaar-op-jaar.¹⁵ De groei weerspiegelt zowel EPYC CPU- als Instinct GPU-verkopen terwijl AMD marktaandeel wint in beide categorieën.

Intel Xeon 6 Granite Rapids: het AI-inferentievoordeel

Intel kondigde de Xeon 6 Granite Rapids 6900P-serie aan met modellen van 72 tot 128 cores—voor het eerst sinds 2017 meer dan AMD's core-aantallen.¹⁶ De processors gebruiken Intel's Redwood Cove P-core-architectuur op het Intel 3-procesknooppunt.¹⁷

Granite Rapids-AP (Advanced Performance) modellen gebruiken het Avenue City-platform met de grotere LGA 7529-socket.¹⁸ De grotere socket maakt 128 cores mogelijk met ondersteuning voor 12-kanaals DDR5-geheugen en maximaal 192 PCIe 5.0-lanes in twee-socket configuraties.¹⁹ L3-cache bereikt een indrukwekkende 504 megabytes op topmodellen.²⁰

Geheugenbandbreedte is een belangrijke onderscheidende factor. Granite Rapids UCC ondersteunt DDR5 op 6,4 GHz standaard en multiplexed rank (MRDIMM) geheugen op 8,8 GHz.²¹ De hogere geheugensnelheden komen ten goede aan geheugengebonden AI-inferentieworkloads.

De I/O-architectuur biedt 136 PCIe 5.0-lanes—meer dan 128 in Emerald Rapids—met CXL 2.0 Type 3-ondersteuning en maximaal 6 UPI-links voor multi-socket schaling.²²

Intel's duidelijke voordeel ligt in Advanced Matrix Extensions (AMX), die AI-inferentieworkloads versnellen.²³ De matrix-engine ondersteunt AMX FP16-versnelling op de Xeon 6500P en 6700P processors.²⁴ Intel claimt 5,5 keer de AI-inferentieprestaties in ResNet50 vergeleken met AMD's concurrerende 96-core Genoa-vlaggenschip.²⁵

Benchmarktests bevestigen het AMX-voordeel. Phoronix documenteerde enorme AI-prestatievoordelen met AMX op Granite Rapids, met significante verbeteringen in inferentiedoorvoer ten opzichte van niet-versnelde x86-uitvoering.²⁶

Granite Rapids-D processors richten zich op edge computing en netwerktoepassingen met beschikbaarheid in 2025.²⁷ Initiële modellen bereiken 42 cores met 72-core varianten later in het jaar verwacht.²⁸ De SoC-varianten integreren Intel Ethernet met 3,2 keer verbeterde RAN AI-prestaties per core.²⁹

Intel's uitdagingen op het gebied van marktaandeel blijven bestaan ondanks concurrerende hardware. Het bedrijf houdt 72,2% van de server-CPU-units maar blijft kwartaal na kwartaal marktaandeel verliezen.³⁰ Omzetaandeel vertelt een ander verhaal—AMD pakt 37,2% wanneer gemeten in dollars in plaats van units, wat AMD's succes in hogergeprijsde segmenten weerspiegelt.³¹

NVIDIA Grace: ARM betreedt het datacenter

NVIDIA Grace vertegenwoordigt de eerste datacenter-CPU van het bedrijf, gebouwd op ARM Neoverse V2-cores specifiek voor AI- en high-performance computing workloads.³² De architectuur koppelt aan NVIDIA GPU's om nauw geïntegreerde systemen te creëren die traditionele CPU-GPU communicatieknelpunten elimineren.

De Grace CPU heeft 72 high-performance ARM Neoverse V2-cores met 4×128-bit SVE2 vector-units per core.³³ De cachehiërarchie omvat 64KB L1 instructie- en datacaches, 1MB L2 per core en 117MB gedeelde L3.³⁴ Geheugen bereikt 480GB bruikbaar LPDDR5X met 546GB/s bandbreedte bij 250W TDP.³⁵

De Grace CPU Superchip combineert twee Grace CPU's verbonden via NVLink-C2C, met 144 ARM-cores en tot 1TB/s geheugenbandbreedte.³⁶ De interconnect bereikt 900GB/s bandbreedte tussen de twee CPU's op een enkele module met tot 960GB LPDDR5X-geheugen.³⁷

NVIDIA claimt dat Grace 2x prestaties per watt levert, 2x verpakkingsdichtheid en de hoogste geheugenbandbreedte vergeleken met hedendaagse x86-servers.³⁸ De efficiëntievoordelen stapelen zich op in energiebeperkte AI-implementaties.

De GB200 NVL72-configuratie verbindt 36 Grace CPU's met 72 Blackwell GPU's in een rack-schaal vloeistofgekoeld ontwerp.³⁹ Het systeem levert 30x snellere real-time inferentie voor large language models met biljoenen parameters vergeleken met vorige generaties.⁴⁰

Grace integreert volledig met het ARM-software-ecosysteem. De NVIDIA HPC SDK en alle CUDA-componenten bieden ARM-native installatieprogramma's en containers.⁴¹ NVIDIA NIM-microservices en NGC-containers zijn geoptimaliseerd voor ARM.⁴² Alle grote Linux-distributies draaien zonder aanpassingen.⁴³

ARM's datacentermomentum strekt zich uit voorbij NVIDIA. ARM Holdings verwacht dat zijn datacenter-CPU-marktaandeel zal stijgen van ongeveer 15% in 2024 naar 50% tegen eind 2025.⁴⁴ De projectie weerspiegelt agressieve groei van cloud-native ARM-instances en NVIDIA's Grace-adoptie.

De GB10 Grace Blackwell-superchip brengt de architectuur naar desktop-formfactoren voor AI-ontwikkelaars, onderzoekers en edge computing.⁴⁵ Het system-in-package combineert een ARM CPU met Blackwell GPU-mogelijkheden, waardoor lokale AI-ontwikkeling mogelijk wordt die voorheen datacentertoegang vereiste.

Workload-specifieke CPU-selectie

CPU-selectie voor AI-infrastructuur hangt af van de specifieke rol binnen de deployment-architectuur. Verschillende workloads hebben baat bij verschillende processorkenmerken.

Control plane en orkestratie workloads hebben baat bij hoge core-aantallen en geheugencapaciteit. Kubernetes control planes, job schedulers en monitoringsystemen schalen met beschikbare cores. AMD EPYC's 192-core dichtheid biedt ruimte voor consolidatie. Geheugenkanalen en capaciteit zijn belangrijker dan per-core prestaties voor deze workloads.

Datavoorbewerking pipelines transformeren ruwe data naar training-ready formaten. Deze workloads schalen vaak met geheugenbandbreedte in plaats van compute. Intel's MRDIMM-ondersteuning op 8,8 GHz biedt bandbreedtevoordelen. De voorverwerkingsfase draait vaak op dedicated CPU-only systemen die GPU-clusters voeden.

Inference serving workloads presenteren de sterkste case voor CPU-evaluatie. Terwijl GPU's modeluitvoering afhandelen, beheren CPU's request routing, tokenisatie en response assembly. Intel's AMX-versnelling maakt CPU-gebaseerde inferentie mogelijk voor kleinere modellen, waardoor GPU-vereisten voor geschikte workloads mogelijk worden geëlimineerd. Het 5,5x ResNet50-prestatievoordeel demonstreert de waardepropositie.

GPU-hostsystemen vereisen CPU's die geen knelpunt worden. PCIe-lane-aantallen bepalen hoeveel GPU's verbinding maken met elke CPU-socket. EPYC's 128 Gen5-lanes en Granite Rapids' 136 lanes ondersteunen beide acht-GPU-configuraties. Geheugenbandbreedte beïnvloedt hoe snel data naar GPU-geheugen beweegt voor trainingsbatches.

Edge inferentie deployments geven de voorkeur aan energie-efficiëntie en geïntegreerde I/O. Granite Rapids-D integreert Ethernet-connectiviteit voor netwerk-inferentie-appliances. Grace's ARM-architectuur biedt het efficiëntieprofiel dat edge deployments vereisen.

Overwegingen voor infrastructuurplanning

De CPU-marktdynamiek begunstigt multi-vendor evaluatie. AMD's gestage marktaandeelwinst creëert concurrentiedruk die kopers ten goede komt. Intel's reactie met Granite Rapids toont voortdurende innovatie ondanks marktuitdagingen. NVIDIA's Grace biedt differentiatie voor GPU-centrische architecturen.

Geheugenarchitectuur differentieert platforms in toenemende mate. CXL-ondersteuning maakt geheugenuitbreiding mogelijk voorbij socketcapaciteit. DDR5-snelheden blijven toenemen met elke generatie. Organisaties die meerjarige infrastructuur plannen moeten geheugenroadmaps evalueren naast CPU-specificaties.

Energie-efficiëntie bepaalt deployment-dichtheid in beperkte faciliteiten. Grace's claim van 2x prestaties per watt verdient validatie voor specifieke workloads. Het energievoordeel stapelt zich op bij grote deployments waar faciliteitsbeperkingen groei beperken.

Software-ecosysteemvereisten beperken keuzes voor sommige organisaties. x86-compatibiliteit blijft essentieel voor legacy workloads. ARM-adoptie vereist applicatievalidatie en mogelijk hercompilatie. CUDA-integratie met Grace vereenvoudigt de transitie voor GPU-centrische deployments.

Total cost of ownership-berekeningen moeten niet alleen processorprijzen bevatten, maar ook systeemkosten, energieverbruik en licenties. AMD's gunstige prijsstelling aan de bovenkant—de 192-core 9965 voor $14.813—onderbiedt Intel's vergelijkbare aanbiedingen. Intel's AMX-versnelling kan echter GPU-vereisten voor inferentie verminderen, wat de bredere kostenvergelijking beïnvloedt.

De CPU blijft de basis van AI-infrastructuur, zelfs nu GPU's de aandacht trekken. Organisaties die CPU-selectie evalueren met dezelfde grondigheid als GPU-inkoop bouwen meer gebalanceerde, efficiënte systemen. De concurrentiedynamiek tussen AMD, Intel en NVIDIA zorgt ervoor dat zorgvuldige evaluatie betekenisvolle infrastructuurvoordelen oplevert.

Belangrijkste conclusies

Voor serverinkoop: - AMD EPYC Turin 9965: 192 cores (Zen 5c), 384MB L3, 500W TDP voor $14.813; gunstige prijsstelling vs Intel aan de bovenkant - Intel Xeon 6900P: 128 cores (Granite Rapids), 504MB L3, AMX FP16-versnelling, MRDIMM-ondersteuning op 8,8GHz - NVIDIA Grace: 72 ARM-cores, 480GB LPDDR5X op 546GB/s bandbreedte, 250W TDP; 2x perf/watt geclaimd

Voor workloadplanning: - Control plane/orkestratie: begunstigt hoge core-aantallen (AMD 192-core dichtheid); geheugencapaciteit belangrijker dan per-core snelheid - Datavoorbewerking: schaalt met geheugenbandbreedte; Intel MRDIMM 8,8GHz biedt voordeel - Inference serving: Intel AMX levert 5,5x ResNet50-prestaties vs AMD; kan GPU-vereiste elimineren voor kleinere modellen - GPU-hostsystemen: PCIe-lane-aantallen (AMD 128, Intel 136 Ge

[Inhoud ingekort voor vertaling]

Offerte aanvragen_

Vertel ons over uw project en wij reageren binnen 72 uur.

> TRANSMISSIE_VOLTOOID

Aanvraag Ontvangen_

Bedankt voor uw aanvraag. Ons team zal uw verzoek beoordelen en binnen 72 uur reageren.

IN WACHTRIJ VOOR VERWERKING