AIインフラストラクチャ向けCPU:AMD EPYC、Intel Xeon、NVIDIA Grace
2025年12月11日更新
2025年12月アップデート: AMDのサーバーCPUシェアが2025年第3四半期に27.8%に到達、年末までに40%超を予測—Intelは過去最低の72.2%。ARMプロセッサはサーバー売上の13.2%を占め、NVIDIA Grace Blackwellの組み合わせがARMサーバーCPU出荷量の50%成長を牽引。EPYC 9005 Turinは最大192コア(Zen 5c)と512MB L3キャッシュで出荷開始。Intel Xeon 6 Granite RapidsはAI推論アクセラレーションに注力。
AMDのサーバーCPU市場シェアは2025年第3四半期に27.8%に達し、年末までに40%を超え、2026年には50%に達する可能性がある。¹ Intelのシェアは72.2%に低下—同社が記録した過去最低のサーバーCPUシェアとなった。² ARMプロセッサは現在、サーバー総売上の13.2%を占め、NVIDIAのGrace BlackwellコンビネーションがARMサーバーCPU出荷量の50%成長を牽引している。³ AIインフラストラクチャ向けCPUの状況は、過去20年間のどの時点よりも急速に変化している。
GPUがAIトレーニングと推論コンピューティングを支配しているが、CPUはオーケストレーション、データ前処理、推論リクエストの処理、コントロールプレーンの管理に不可欠である。CPUの選択はメモリ帯域幅、I/O接続性、電力効率、システム総コストに影響する。大規模にAIを展開する組織は、GPU調達と同様にCPU選択を慎重に評価する必要がある。
AMD EPYC 9005 Turin:密度のリーダー
AMDは2024年10月10日にEPYC 9005シリーズ(コードネームTurin)を発売した。これはZen 5アーキテクチャに基づく第5世代EPYCサーバープロセッサである。⁴ AMDはこれらをエンタープライズ、AI、クラウドワークロード向けの世界最高のサーバーCPUと位置付けている。⁵
Turinは2つのコア構成を提供する。標準Zen 5モデルはTSMCの4nmプロセスで製造され、ソケットあたり128コアに達する。⁶ 高密度Zen 5cバリアントはTSMCの3nmプロセスを使用し、ソケットあたり192コアを提供する。⁷ フラッグシップのEPYC 9965は192コアと384スレッドを500W TDPで提供する。⁸
主要仕様は製品スタック全体にわたる:
| SKU | コア数 | L3キャッシュ | TDP | 価格 |
|---|---|---|---|---|
| EPYC 9965 | 192 (Zen 5c) | 384 MB | 500W | $14,813 |
| EPYC 9755 | 128 (Zen 5) | 512 MB | 500W | $12,984 |
| EPYC 9575F | 64 (Zen 5) | 512 MB | 400W | $10,176 |
| EPYC 9015 | 8 (Zen 5) | 32 MB | 155W | $527 |
アーキテクチャは標準モデルで最大16個のCCD(Core Compute Dies)、高密度構成で最大12個のCCDを採用し、中央I/Oダイと組み合わせている。⁹ 標準CCDはそれぞれ8個のZen 5コアを含み、高密度CCDは16個のZen 5cコアを搭載している。¹⁰
メモリサポートは12チャネルでECC付きDDR5-6000に達し、前世代のDDR5-4800から向上した。¹¹ PCIe接続はType 1、2、3デバイス向けCXL 1.0サポートと共に最大128本のGen5レーンを提供する。¹² SP5ソケットはGenoaおよびBergamoシステムとの互換性を維持している。¹³
Turinプロセッサは前世代比17%のIPC向上と完全な512ビットAVX-512データパスを提供する。¹⁴ これらの改善はAIインフラストラクチャで一般的なデータ前処理と推論サービングワークロードに直接反映される。
AMDのデータセンター事業は四半期収益37億ドルを生み出し、前年同期比57%成長した。¹⁵ この成長はAMDが両カテゴリでシェアを獲得する中でのEPYC CPUとInstinct GPUの両方の売上を反映している。
Intel Xeon 6 Granite Rapids:AI推論の優位性
Intelは72から128コアにわたるモデルを持つXeon 6 Granite Rapids 6900Pシリーズを発表し、2017年以来初めてAMDのコア数を超えた。¹⁶ プロセッサはIntel 3プロセスノード上のIntel Redwood Cove Pコアアーキテクチャを使用している。¹⁷
Granite Rapids-AP(Advanced Performance)モデルはより大きなLGA 7529ソケットを持つAvenue Cityプラットフォームを使用している。¹⁸ より大きなソケットにより、128コアと12チャネルDDR5メモリのサポート、2ソケット構成で最大192レーンのPCIe 5.0が可能になる。¹⁹ L3キャッシュは上位SKUで印象的な504メガバイトに達する。²⁰
メモリ帯域幅は重要な差別化要因である。Granite Rapids UCCは標準6.4 GHzのDDR5とマルチプレックスランク(MRDIMM)メモリで8.8 GHzをサポートする。²¹ より高いメモリ速度はメモリバウンドのAI推論ワークロードに有利である。
I/Oアーキテクチャは136本のPCIe 5.0レーンを提供—Emerald Rapidsの128本から増加—CXL 2.0 Type 3サポートとマルチソケットスケーリング用の最大6つのUPIリンクを備えている。²²
Intelの明確な優位性はAdvanced Matrix Extensions(AMX)にあり、AI推論ワークロードを高速化する。²³ マトリックスエンジンはXeon 6500Pおよび6700PプロセッサでAMX FP16アクセラレーションをサポートする。²⁴ Intelは、AMDの競合する96コアGenoaフラッグシップと比較して、ResNet50でAI推論性能が5.5倍になると主張している。²⁵
ベンチマークテストはAMXの優位性を確認している。PhoronixはGranite Rapids上のAMXによる大幅なAI性能向上を文書化し、非アクセラレートx86実行と比較して大幅な推論スループットの改善を示した。²⁶
Granite Rapids-Dプロセッサは2025年にエッジコンピューティングとネットワーキングアプリケーションをターゲットとして利用可能になる。²⁷ 初期モデルは42コアに達し、72コアバリアントは年内後半に予定されている。²⁸ SoCバリアントはIntel Ethernetを統合し、コアあたり3.2倍向上したRAN AI性能を提供する。²⁹
Intelの市場シェアの課題は競争力のあるハードウェアにもかかわらず続いている。同社はサーバーCPUユニットの72.2%を保持しているが、四半期ごとにシェアを失い続けている。³⁰ 収益シェアは異なる状況を示している—AMDはユニットではなくドルで測定すると37.2%を獲得しており、これはAMDが高価格セグメントで成功していることを反映している。³¹
NVIDIA Grace:ARMがデータセンターに参入
NVIDIA Graceは、AIおよびハイパフォーマンスコンピューティングワークロード向けに特別に構築されたARM Neoverse V2コアベースの同社初のデータセンターCPUである。³² このアーキテクチャはNVIDIA GPUとペアリングして、従来のCPU-GPU通信ボトルネックを排除する緊密に結合されたシステムを作成する。
Grace CPUは72個の高性能ARM Neoverse V2コアを搭載し、コアあたり4×128ビットSVE2ベクトルユニットを備えている。³³ キャッシュ階層には64KB L1命令およびデータキャッシュ、コアあたり1MB L2、117MB共有L3が含まれる。³⁴ メモリは250W TDPで546GB/s帯域幅を持つ480GBの使用可能なLPDDR5Xに達する。³⁵
Grace CPUスーパーチップは2つのGrace CPUをNVLink-C2Cで接続し、最大1TB/sのメモリ帯域幅を持つ144個のARMコアを提供する。³⁶ インターコネクトは単一モジュール上で2つのCPU間で900GB/s帯域幅を達成し、最大960GB LPDDR5Xメモリをサポートする。³⁷
NVIDIAはGraceが現代のx86サーバーと比較して2倍の電力効率、2倍のパッケージング密度、最高のメモリ帯域幅を提供すると主張している。³⁸ 効率の優位性は、施設の制限が成長を制約する電力制約のあるAI展開で複合的に効果を発揮する。
GB200 NVL72構成は36個のGrace CPUと72個のBlackwell GPUをラックスケールの液冷設計で接続する。³⁹ このシステムは前世代と比較して、兆パラメータの大規模言語モデルに対して30倍高速なリアルタイム推論を提供する。⁴⁰
GraceはARMソフトウェアエコシステムと完全に統合されている。NVIDIA HPC SDKとすべてのCUDAコンポーネントはARMネイティブのインストーラーとコンテナを提供する。⁴¹ NVIDIA NIMマイクロサービスとNGCコンテナはARM向けに最適化されている。⁴² すべての主要なLinuxディストリビューションは変更なしで動作する。⁴³
ARMのデータセンターでの勢いはNVIDIAを超えて広がっている。ARM Holdingsは、データセンターCPU市場シェアが2024年の約15%から2025年末までに50%に増加すると予測している。⁴⁴ この予測はクラウドネイティブARMインスタンスとNVIDIAのGrace採用からの積極的な成長を反映している。
GB10 Grace Blackwellスーパーチップは、AIデベロッパー、研究者、エッジコンピューティング向けにデスクトップフォームファクタでこのアーキテクチャを提供する。⁴⁵ このシステムインパッケージはARM CPUとBlackwell GPU機能を統合し、以前はデータセンターへのアクセスが必要だったローカルAI開発を可能にする。
ワークロード固有のCPU選択
AIインフラストラクチャのCPU選択は、展開アーキテクチャ内の特定の役割に依存する。異なるワークロードは異なるプロセッサ特性を好む。
コントロールプレーンとオーケストレーションワークロードは、高コア数とメモリ容量から恩恵を受ける。Kubernetesコントロールプレーン、ジョブスケジューラ、監視システムは利用可能なコアに応じてスケールする。AMD EPYCの192コア密度は統合のための余裕を提供する。これらのワークロードではコアあたりの性能よりもメモリチャネルと容量が重要である。
データ前処理パイプラインは生データをトレーニング可能な形式に変換する。これらのワークロードはコンピューティングよりもメモリ帯域幅に応じてスケールすることが多い。IntelのMRDIMMサポート(8.8 GHz)は帯域幅の優位性を提供する。前処理ステージはGPUクラスタに供給する専用CPU専用システムで実行されることが多い。
推論サービングワークロードはCPU評価の最も強力なケースを提示する。GPUがモデル実行を処理する一方で、CPUはリクエストルーティング、トークン化、レスポンス組み立てを管理する。IntelのAMXアクセラレーションは小規模モデル向けのCPUベース推論を可能にし、適切なワークロードではGPU要件を排除できる可能性がある。5.5倍のResNet50性能向上は価値提案を実証している。
GPUホストシステムはボトルネックにならないCPUを必要とする。PCIeレーン数は各CPUソケットに接続できるGPU数を決定する。EPYCの128 Gen5レーンとGranite Rapidsの136レーンはどちらも8-GPU構成をサポートする。メモリ帯域幅はトレーニングバッチ用にGPUメモリにデータを移動する速度に影響する。
エッジ推論展開は電力効率と統合I/Oを好む。Granite Rapids-Dはネットワーク推論アプライアンス向けにEthernet接続を統合している。GraceのARMアーキテクチャはエッジ展開が必要とする効率プロファイルを提供する。
インフラストラクチャ計画の考慮事項
CPU市場のダイナミクスはマルチベンダー評価を有利にする。AMDの着実なシェア拡大は購入者に利益をもたらす競争圧力を生み出している。IntelのGranite Rapidsによる対応は市場の課題にもかかわらず継続的なイノベーションを実証している。NVIDIAのGraceはGPU中心のアーキテクチャに対する差別化を提供する。
メモリアーキテクチャはプラットフォームをますます差別化している。CXLサポートはソケット容量を超えたメモリ拡張を可能にする。DDR5速度は世代ごとに向上し続けている。複数年のインフラストラクチャを計画している組織は、CPU仕様と並行してメモリロードマップを評価すべきである。
電力効率は制約のある施設での展開密度を決定する。Graceの2倍の電力効率の主張は特定のワークロードに対する検証が必要である。電力の優位性は施設の制限が成長を制約する大規模展開で複合的に効果を発揮する。
ソフトウェアエコシステム要件は一部の組織の選択を狭める。x86互換性はレガシーワークロードに不可欠である。ARM採用にはアプリケーション検証と潜在的な再コンパイルが必要である。GraceとのCUDA統合はGPU中心の展開への移行を簡素化する。
総所有コストの計算には、プロセッサ価格だけでなく、システムコスト、消費電力、ライセンスも含めるべきである。AMDのハイエンドでの有利な価格設定—192コア9965が$14,813—はIntelの同等製品を下回っている。ただし、IntelのAMXアクセラレーションは推論用のGPU要件を減らす可能性があり、より広範なコスト方程式に影響する。
GPUが注目を集める中でも、CPUはAIインフラストラクチャの基盤であり続ける。GPU調達と同じ厳密さでCPU選択を評価する組織は、よりバランスの取れた効率的なシステムを構築する。AMD、Intel、NVIDIAにわたる競争ダイナミクスにより、慎重な評価が意味のあるインフラストラクチャ上の優位性をもたらすことが保証されている。
重要なポイント
サーバー調達向け: - AMD EPYC Turin 9965:192コア(Zen 5c)、384MB L3、500W TDPで$14,813;ハイエンドでIntelより有利な価格設定 - Intel Xeon 6900P:128コア(Granite Rapids)、504MB L3、AMX FP16アクセラレーション、8.8GHzでMRDIMMサポート - NVIDIA Grace:72 ARMコア、546GB/s帯域幅で480GB LPDDR5X、250W TDP;2倍の電力効率を主張
ワークロード計画向け: - コントロールプレーン/オーケストレーション:高コア数を好む(AMD 192コア密度);コアあたりの速度よりもメモリ容量が重要 - データ前処理:メモリ帯域幅に応じてスケール;Intel MRDIMM 8.8GHzが優位性を提供 - 推論サービング:Intel AMXはAMDと比較してResNet50性能が5.5倍;小規模モデルではGPU要件を排除できる可能性 - GPUホストシステム:PCIeレーン数(AMD 128、Intel 136 Ge
[翻訳のためコンテンツを省略]