CPU untuk infrastruktur AI: AMD EPYC, Intel Xeon, dan NVIDIA Grace

Pangsa pasar CPU server AMD mencapai 27,8% pada Q3 2025, diproyeksikan 40%+ pada akhir tahun—Intel di titik terendah 72,2%. Prosesor ARM kini 13,2% dari penjualan server dengan NVIDIA Grace Blackwell mendorong pertumbuhan 50%. EPYC...

CPU untuk infrastruktur AI: AMD EPYC, Intel Xeon, dan NVIDIA Grace

CPU untuk infrastruktur AI: AMD EPYC, Intel Xeon, dan NVIDIA Grace

Diperbarui 11 Desember 2025

Pembaruan Desember 2025: Pangsa pasar CPU server AMD mencapai 27,8% pada Q3 2025, diproyeksikan melebihi 40% pada akhir tahun—Intel di titik terendah sepanjang sejarah 72,2%. Prosesor ARM kini mencakup 13,2% dari total penjualan server dengan kombinasi NVIDIA Grace Blackwell mendorong pertumbuhan 50% dalam volume CPU server ARM. EPYC 9005 Turin mulai dikirim dengan hingga 192 core (Zen 5c) dan 512MB cache L3. Intel Xeon 6 Granite Rapids fokus pada akselerasi inferensi AI.

Pangsa pasar CPU server AMD mencapai 27,8% pada Q3 2025, diproyeksikan melebihi 40% pada akhir tahun dan berpotensi mencapai 50% pada 2026.¹ Pangsa Intel turun ke 72,2%—pangsa CPU server terendah yang pernah dicatat perusahaan.² Prosesor ARM kini mencakup 13,2% dari total penjualan server, dengan kombinasi NVIDIA Grace Blackwell mendorong pertumbuhan 50% dalam volume CPU server ARM.³ Lanskap CPU untuk infrastruktur AI bergeser lebih cepat dari titik mana pun dalam dua dekade terakhir.

GPU mendominasi komputasi pelatihan dan inferensi AI, tetapi CPU tetap esensial untuk orkestrasi, preprocessing data, melayani permintaan inferensi, dan mengelola control plane. Pilihan CPU memengaruhi bandwidth memori, konektivitas I/O, efisiensi daya, dan total biaya sistem. Organisasi yang menerapkan AI dalam skala besar harus mengevaluasi pemilihan CPU dengan sama cermatnya seperti pengadaan GPU.

AMD EPYC 9005 Turin: pemimpin dalam kepadatan

AMD meluncurkan seri EPYC 9005 (dengan nama kode Turin) pada 10 Oktober 2024, mewakili generasi kelima prosesor server EPYC yang dibangun di atas arsitektur Zen 5.⁴ AMD memposisikan ini sebagai CPU server terbaik di dunia untuk beban kerja enterprise, AI, dan cloud.⁵

Turin menawarkan dua konfigurasi core. Model Zen 5 standar mencapai 128 core per socket yang dibangun di atas proses 4nm TSMC.⁶ Varian Zen 5c yang padat menghadirkan 192 core per socket menggunakan proses 3nm TSMC.⁷ Flagship EPYC 9965 menyediakan 192 core dan 384 thread dengan TDP 500W.⁸

Spesifikasi utama mencakup seluruh lini produk:

SKU Core Cache L3 TDP Harga
EPYC 9965 192 (Zen 5c) 384 MB 500W $14.813
EPYC 9755 128 (Zen 5) 512 MB 500W $12.984
EPYC 9575F 64 (Zen 5) 512 MB 400W $10.176
EPYC 9015 8 (Zen 5) 32 MB 155W $527

Arsitektur menggunakan hingga 16 CCD (Core Compute Dies) pada model standar dan hingga 12 CCD pada konfigurasi padat, dipasangkan dengan die I/O sentral.⁹ CCD standar berisi delapan core Zen 5 masing-masing, sementara CCD padat memuat 16 core Zen 5c.¹⁰

Dukungan memori mencapai DDR5-6000 dengan ECC di 12 channel, naik dari DDR5-4800 pada generasi sebelumnya.¹¹ Konektivitas PCIe menyediakan hingga 128 lane Gen5 dengan dukungan CXL 1.0 untuk perangkat Type 1, 2, dan 3.¹² Socket SP5 mempertahankan kompatibilitas dengan sistem Genoa dan Bergamo.¹³

Prosesor Turin menghadirkan peningkatan IPC 17% dibanding generasi sebelumnya dengan jalur data AVX-512 512-bit penuh.¹⁴ Peningkatan ini langsung berdampak pada beban kerja preprocessing data dan inference serving yang umum di infrastruktur AI.

Bisnis data center AMD menghasilkan pendapatan kuartalan $3,7 miliar, tumbuh 57% year-over-year.¹⁵ Pertumbuhan ini mencerminkan penjualan CPU EPYC dan GPU Instinct karena AMD meraih pangsa di kedua kategori.

Intel Xeon 6 Granite Rapids: keunggulan inferensi AI

Intel mengumumkan seri Xeon 6 Granite Rapids 6900P dengan model yang mencakup 72 hingga 128 core—akhirnya melebihi jumlah core AMD untuk pertama kalinya sejak 2017.¹⁶ Prosesor menggunakan arsitektur P-core Redwood Cove pada node proses Intel 3.¹⁷

Model Granite Rapids-AP (Advanced Performance) menggunakan platform Avenue City dengan socket LGA 7529 yang lebih besar.¹⁸ Socket yang lebih besar memungkinkan 128 core dengan dukungan untuk memori DDR5 12-channel dan hingga 192 lane PCIe 5.0 dalam konfigurasi dua socket.¹⁹ Cache L3 mencapai 504 megabyte yang mengesankan pada SKU tier teratas.²⁰

Bandwidth memori merupakan pembeda utama. Granite Rapids UCC mendukung DDR5 pada 6,4 GHz standar dan memori multiplexed rank (MRDIMM) pada 8,8 GHz.²¹ Kecepatan memori yang lebih tinggi menguntungkan beban kerja inferensi AI yang terbatas memori.

Arsitektur I/O menyediakan 136 lane PCIe 5.0—naik dari 128 di Emerald Rapids—dengan dukungan CXL 2.0 Type 3 dan hingga 6 link UPI untuk skalabilitas multi-socket.²²

Keunggulan khas Intel terletak pada Advanced Matrix Extensions (AMX), yang mempercepat beban kerja inferensi AI.²³ Mesin matriks mendukung akselerasi AMX FP16 pada prosesor Xeon 6500P dan 6700P.²⁴ Intel mengklaim kinerja inferensi AI 5,5 kali lebih tinggi pada ResNet50 dibandingkan dengan flagship Genoa 96-core AMD yang bersaing.²⁵

Pengujian benchmark mengonfirmasi keunggulan AMX. Phoronix mendokumentasikan manfaat kinerja AI yang masif dengan AMX pada Granite Rapids, menunjukkan peningkatan throughput inferensi yang signifikan dibandingkan eksekusi x86 tanpa akselerasi.²⁶

Prosesor Granite Rapids-D menargetkan aplikasi edge computing dan networking dengan ketersediaan pada 2025.²⁷ Model awal mencapai 42 core dengan varian 72-core diharapkan pada akhir tahun.²⁸ Varian SoC mengintegrasikan Intel Ethernet dengan peningkatan kinerja RAN AI 3,2 kali per core.²⁹

Tantangan pangsa pasar Intel tetap ada meskipun hardware yang kompetitif. Perusahaan memegang 72,2% unit CPU server tetapi terus kehilangan pangsa kuartal demi kuartal.³⁰ Pangsa pendapatan menceritakan kisah berbeda—AMD meraih 37,2% ketika diukur dalam dolar daripada unit, mencerminkan kesuksesan AMD di segmen harga lebih tinggi.³¹

NVIDIA Grace: ARM memasuki data center

NVIDIA Grace mewakili CPU data center pertama perusahaan, dibangun di atas core ARM Neoverse V2 khusus untuk beban kerja AI dan high-performance computing.³² Arsitektur ini dipasangkan dengan GPU NVIDIA untuk menciptakan sistem yang terhubung erat yang menghilangkan bottleneck komunikasi CPU-GPU tradisional.

CPU Grace menampilkan 72 core ARM Neoverse V2 berkinerja tinggi dengan 4×128-bit unit vektor SVE2 per core.³³ Hierarki cache mencakup 64KB cache instruksi dan data L1, 1MB L2 per core, dan 117MB L3 bersama.³⁴ Memori mencapai 480GB LPDDR5X yang dapat digunakan dengan bandwidth 546GB/s pada TDP 250W.³⁵

Grace CPU Superchip menggabungkan dua CPU Grace yang terhubung via NVLink-C2C, menghadirkan 144 core ARM dengan bandwidth memori hingga 1TB/s.³⁶ Interkoneksi mencapai bandwidth 900GB/s antara dua CPU pada satu modul dengan memori LPDDR5X hingga 960GB.³⁷

NVIDIA mengklaim Grace menghadirkan kinerja per watt 2x, kepadatan packaging 2x, dan bandwidth memori tertinggi dibandingkan server x86 kontemporer.³⁸ Keunggulan efisiensi berlipat ganda di deployment AI yang terbatas daya.

Konfigurasi GB200 NVL72 menghubungkan 36 CPU Grace dengan 72 GPU Blackwell dalam desain berpendingin cairan skala rak.³⁹ Sistem ini menghadirkan inferensi real-time 30x lebih cepat untuk large language model dengan triliunan parameter dibandingkan generasi sebelumnya.⁴⁰

Grace terintegrasi penuh dengan ekosistem software ARM. NVIDIA HPC SDK dan semua komponen CUDA menyediakan installer dan container native ARM.⁴¹ Layanan mikro NVIDIA NIM dan container NGC dioptimalkan untuk ARM.⁴² Semua distribusi Linux utama berjalan tanpa modifikasi.⁴³

Momentum data center ARM meluas melampaui NVIDIA. ARM Holdings memproyeksikan pangsa pasar CPU data center-nya akan meningkat dari sekitar 15% pada 2024 menjadi 50% pada akhir 2025.⁴⁴ Proyeksi ini mencerminkan pertumbuhan agresif dari instance ARM cloud-native dan adopsi NVIDIA Grace.

Superchip GB10 Grace Blackwell membawa arsitektur ke faktor bentuk desktop untuk pengembang AI, peneliti, dan edge computing.⁴⁵ System-in-package ini menggabungkan CPU ARM dengan kemampuan GPU Blackwell, memungkinkan pengembangan AI lokal yang sebelumnya memerlukan akses data center.

Pemilihan CPU berdasarkan beban kerja

Pemilihan CPU untuk infrastruktur AI bergantung pada peran spesifik dalam arsitektur deployment. Beban kerja yang berbeda lebih cocok dengan karakteristik prosesor yang berbeda.

Beban kerja control plane dan orkestrasi diuntungkan dari jumlah core tinggi dan kapasitas memori. Control plane Kubernetes, job scheduler, dan sistem monitoring berskala dengan core yang tersedia. Kepadatan 192-core AMD EPYC menyediakan ruang untuk konsolidasi. Channel dan kapasitas memori lebih penting daripada kinerja per-core untuk beban kerja ini.

Pipeline preprocessing data mengubah data mentah menjadi format siap pelatihan. Beban kerja ini sering berskala dengan bandwidth memori daripada komputasi. Dukungan MRDIMM Intel pada 8,8 GHz memberikan keunggulan bandwidth. Tahap preprocessing sering berjalan pada sistem khusus CPU yang menyuplai cluster GPU.

Beban kerja inference serving menyajikan kasus terkuat untuk evaluasi CPU. Sementara GPU menangani eksekusi model, CPU mengelola routing permintaan, tokenisasi, dan perakitan respons. Akselerasi AMX Intel memungkinkan inferensi berbasis CPU untuk model yang lebih kecil, berpotensi menghilangkan kebutuhan GPU untuk beban kerja yang sesuai. Keunggulan kinerja ResNet50 5,5x menunjukkan proposisi nilai.

Sistem host GPU membutuhkan CPU yang tidak menjadi bottleneck. Jumlah lane PCIe menentukan berapa banyak GPU yang terhubung ke setiap socket CPU. 128 lane Gen5 EPYC dan 136 lane Granite Rapids keduanya mendukung konfigurasi delapan GPU. Bandwidth memori memengaruhi seberapa cepat data berpindah ke memori GPU untuk batch pelatihan.

Deployment inferensi edge lebih menyukai efisiensi daya dan I/O terintegrasi. Granite Rapids-D mengintegrasikan konektivitas Ethernet untuk appliance inferensi jaringan. Arsitektur ARM Grace menyediakan profil efisiensi yang dibutuhkan deployment edge.

Pertimbangan perencanaan infrastruktur

Dinamika pasar CPU mendukung evaluasi multi-vendor. Kenaikan pangsa AMD yang stabil menciptakan tekanan kompetitif yang menguntungkan pembeli. Respons Intel dengan Granite Rapids menunjukkan inovasi berkelanjutan meskipun ada tantangan pasar. Grace NVIDIA menawarkan diferensiasi untuk arsitektur yang berpusat pada GPU.

Arsitektur memori semakin membedakan platform. Dukungan CXL memungkinkan ekspansi memori melampaui kapasitas socket. Kecepatan DDR5 terus meningkat dengan setiap generasi. Organisasi yang merencanakan infrastruktur multi-tahun harus mengevaluasi roadmap memori bersama spesifikasi CPU.

Efisiensi daya menentukan kepadatan deployment di fasilitas yang terbatas. Klaim kinerja per watt 2x Grace perlu validasi untuk beban kerja spesifik. Keunggulan daya berlipat ganda di deployment besar di mana batasan fasilitas membatasi pertumbuhan.

Persyaratan ekosistem software mempersempit pilihan untuk beberapa organisasi. Kompatibilitas x86 tetap esensial untuk beban kerja legacy. Adopsi ARM memerlukan validasi aplikasi dan berpotensi rekompilasi. Integrasi CUDA dengan Grace menyederhanakan transisi untuk deployment yang berpusat pada GPU.

Perhitungan total cost of ownership harus mencakup tidak hanya harga prosesor tetapi biaya sistem, konsumsi daya, dan lisensi. Harga AMD yang menguntungkan di segmen atas—9965 192-core seharga $14.813—lebih murah dari penawaran Intel yang sebanding. Namun, akselerasi AMX Intel dapat mengurangi kebutuhan GPU untuk inferensi, memengaruhi persamaan biaya yang lebih luas.

CPU tetap menjadi fondasi infrastruktur AI meskipun GPU menarik perhatian. Organisasi yang mengevaluasi pemilihan CPU dengan ketelitian yang sama seperti pengadaan GPU membangun sistem yang lebih seimbang dan efisien. Dinamika kompetitif di AMD, Intel, dan NVIDIA memastikan bahwa evaluasi yang cermat menghasilkan keunggulan infrastruktur yang bermakna.

Poin-poin penting

Untuk pengadaan server: - AMD EPYC Turin 9965: 192 core (Zen 5c), 384MB L3, TDP 500W seharga $14.813; harga menguntungkan vs Intel di segmen atas - Intel Xeon 6900P: 128 core (Granite Rapids), 504MB L3, akselerasi AMX FP16, dukungan MRDIMM pada 8,8GHz - NVIDIA Grace: 72 core ARM, 480GB LPDDR5X dengan bandwidth 546GB/s, TDP 250W; diklaim 2x kinerja/watt

Untuk perencanaan beban kerja: - Control plane/orkestrasi: lebih cocok dengan jumlah core tinggi (kepadatan 192-core AMD); kapasitas memori lebih penting daripada kecepatan per-core - Preprocessing data: berskala dengan bandwidth memori; MRDIMM Intel 8,8GHz memberikan keunggulan - Inference serving: Intel AMX menghadirkan kinerja ResNet50 5,5x vs AMD; dapat menghilangkan kebutuhan GPU untuk model lebih kecil - Sistem host GPU: jumlah lane PCIe (AMD 128, Intel 136 Ge

[Konten dipotong untuk penerjemahan]

Minta Penawaran_

Ceritakan tentang proyek Anda dan kami akan merespons dalam 72 jam.

> TRANSMISSION_COMPLETE

Permintaan Diterima_

Terima kasih atas pertanyaan Anda. Tim kami akan meninjau permintaan Anda dan merespons dalam 72 jam.

QUEUED FOR PROCESSING