CPUs para infraestrutura de IA: AMD EPYC, Intel Xeon e NVIDIA Grace

A participação de mercado de CPUs para servidores da AMD alcançando 27,8% no Q3 2025, projetada para superar 40% até o final do ano—Intel em mínimo histórico de 72,2%. Processadores ARM agora representam 13,2% das vendas de servidores com NVIDIA Grace Blackwell impulsionando crescimento de 50%. EPYC...

CPUs para infraestrutura de IA: AMD EPYC, Intel Xeon e NVIDIA Grace

CPUs para infraestrutura de IA: AMD EPYC, Intel Xeon e NVIDIA Grace

Atualizado em 11 de dezembro de 2025

Atualização de dezembro de 2025: A participação de mercado de CPUs para servidores da AMD alcançando 27,8% no Q3 2025, projetada para superar 40% até o final do ano—Intel em mínimo histórico de 72,2%. Processadores ARM agora representam 13,2% das vendas de servidores com a combinação NVIDIA Grace Blackwell impulsionando crescimento de 50% no volume de CPUs ARM para servidores. EPYC 9005 Turin sendo comercializado com até 192 núcleos (Zen 5c) e 512MB de cache L3. Intel Xeon 6 Granite Rapids focando em aceleração de inferência de IA.

A participação de mercado de CPUs para servidores da AMD alcançou 27,8% no Q3 2025, projetada para superar 40% até o final do ano e potencialmente atingir 50% em 2026.¹ A participação da Intel caiu para 72,2%—a menor participação de CPUs para servidores que a empresa já registrou.² Processadores ARM agora representam 13,2% do total de vendas de servidores, com a combinação Grace Blackwell da NVIDIA impulsionando crescimento de 50% no volume de CPUs ARM para servidores.³ O cenário de CPUs para infraestrutura de IA está mudando mais rápido do que em qualquer momento das últimas duas décadas.

GPUs dominam o treinamento de IA e computação de inferência, mas CPUs permanecem essenciais para orquestração, pré-processamento de dados, servindo requisições de inferência e gerenciando o plano de controle. A escolha da CPU afeta largura de banda de memória, conectividade de I/O, eficiência energética e custo total do sistema. Organizações implantando IA em escala devem avaliar a seleção de CPU tão cuidadosamente quanto a aquisição de GPU.

AMD EPYC 9005 Turin: o líder em densidade

A AMD lançou a série EPYC 9005 (codinome Turin) em 10 de outubro de 2024, representando a quinta geração de processadores para servidores EPYC construídos na arquitetura Zen 5.⁴ A AMD posiciona estes como a melhor CPU para servidores do mundo para cargas de trabalho empresariais, de IA e na nuvem.⁵

Turin oferece duas configurações de núcleos. Modelos Zen 5 padrão alcançam 128 núcleos por soquete construídos no processo de 4nm da TSMC.⁶ As variantes densas Zen 5c entregam 192 núcleos por soquete usando o processo de 3nm da TSMC.⁷ O modelo topo de linha EPYC 9965 fornece 192 núcleos e 384 threads com TDP de 500W.⁸

As especificações principais abrangem toda a linha de produtos:

SKU Núcleos Cache L3 TDP Preço
EPYC 9965 192 (Zen 5c) 384 MB 500W $14.813
EPYC 9755 128 (Zen 5) 512 MB 500W $12.984
EPYC 9575F 64 (Zen 5) 512 MB 400W $10.176
EPYC 9015 8 (Zen 5) 32 MB 155W $527

A arquitetura emprega até 16 CCDs (Core Compute Dies) em modelos padrão e até 12 CCDs em configurações densas, pareados com um die de I/O central.⁹ CCDs padrão contêm oito núcleos Zen 5 cada, enquanto CCDs densos empacotam 16 núcleos Zen 5c.¹⁰

O suporte a memória alcança DDR5-6000 com ECC através de 12 canais, aumentando de DDR5-4800 na geração anterior.¹¹ A conectividade PCIe fornece até 128 lanes Gen5 com suporte CXL 1.0 para dispositivos Tipo 1, 2 e 3.¹² O soquete SP5 mantém compatibilidade com sistemas Genoa e Bergamo.¹³

Processadores Turin entregam um aumento de 17% em IPC sobre a geração anterior com caminhos de dados AVX-512 completos de 512 bits.¹⁴ As melhorias se traduzem diretamente em cargas de trabalho de pré-processamento de dados e servindo inferência comuns em infraestrutura de IA.

O negócio de data center da AMD gerou $3,7 bilhões em receita trimestral, crescendo 57% ano a ano.¹⁵ O crescimento reflete vendas tanto de CPUs EPYC quanto de GPUs Instinct à medida que a AMD ganha participação em ambas categorias.

Intel Xeon 6 Granite Rapids: a vantagem em inferência de IA

A Intel anunciou a série Xeon 6 Granite Rapids 6900P com modelos variando de 72 a 128 núcleos—finalmente superando a contagem de núcleos da AMD pela primeira vez desde 2017.¹⁶ Os processadores usam a arquitetura P-core Redwood Cove da Intel no nó de processo Intel 3.¹⁷

Modelos Granite Rapids-AP (Advanced Performance) usam a plataforma Avenue City com o soquete maior LGA 7529.¹⁸ O soquete maior permite 128 núcleos com suporte para memória DDR5 de 12 canais e até 192 lanes de PCIe 5.0 em configurações de dois soquetes.¹⁹ O cache L3 alcança impressionantes 504 megabytes nos SKUs de topo de linha.²⁰

A largura de banda de memória representa um diferencial chave. Granite Rapids UCC suporta DDR5 a 6,4 GHz padrão e memória multiplexed rank (MRDIMM) a 8,8 GHz.²¹ As velocidades de memória mais altas beneficiam cargas de trabalho de inferência de IA limitadas por memória.

A arquitetura de I/O fornece 136 lanes PCIe 5.0—aumentando de 128 no Emerald Rapids—com suporte CXL 2.0 Tipo 3 e até 6 links UPI para escalonamento multi-soquete.²²

A vantagem distinta da Intel está nas Advanced Matrix Extensions (AMX), que aceleram cargas de trabalho de inferência de IA.²³ O motor de matriz suporta aceleração AMX FP16 nos processadores Xeon 6500P e 6700P.²⁴ A Intel afirma 5,5 vezes o desempenho de inferência de IA em ResNet50 comparado ao modelo topo de linha Genoa de 96 núcleos concorrente da AMD.²⁵

Testes de benchmark confirmam a vantagem do AMX. Phoronix documentou benefícios massivos de desempenho de IA com AMX no Granite Rapids, mostrando melhorias significativas de throughput de inferência sobre execução x86 não acelerada.²⁶

Processadores Granite Rapids-D visam aplicações de computação de borda e rede com disponibilidade em 2025.²⁷ Modelos iniciais alcançam 42 núcleos com variantes de 72 núcleos esperadas mais tarde no ano.²⁸ As variantes SoC integram Intel Ethernet com desempenho de IA RAN 3,2 vezes melhor por núcleo.²⁹

Os desafios de participação de mercado da Intel persistem apesar do hardware competitivo. A empresa detém 72,2% das unidades de CPU para servidores, mas continua perdendo participação trimestre após trimestre.³⁰ A participação por receita conta uma história diferente—a AMD captura 37,2% quando medido por dólares em vez de unidades, refletindo o sucesso da AMD em segmentos de preço mais alto.³¹

NVIDIA Grace: ARM entra no data center

NVIDIA Grace representa a primeira CPU para data center da empresa, construída em núcleos ARM Neoverse V2 especificamente para cargas de trabalho de IA e computação de alto desempenho.³² A arquitetura se pareia com GPUs NVIDIA para criar sistemas fortemente acoplados que eliminam gargalos tradicionais de comunicação CPU-GPU.

A CPU Grace apresenta 72 núcleos ARM Neoverse V2 de alto desempenho com 4×128-bit unidades vetoriais SVE2 por núcleo.³³ A hierarquia de cache inclui 64KB de caches L1 de instrução e dados, 1MB L2 por núcleo e 117MB de L3 compartilhado.³⁴ A memória alcança 480GB de LPDDR5X utilizável com 546GB/s de largura de banda a 250W TDP.³⁵

O Grace CPU Superchip combina duas CPUs Grace conectadas via NVLink-C2C, entregando 144 núcleos ARM com até 1TB/s de largura de banda de memória.³⁶ A interconexão alcança 900GB/s de largura de banda entre as duas CPUs em um único módulo com até 960GB de memória LPDDR5X.³⁷

A NVIDIA afirma que Grace entrega 2x desempenho por watt, 2x densidade de empacotamento e a maior largura de banda de memória comparado a servidores x86 contemporâneos.³⁸ As vantagens de eficiência se multiplicam em implantações de IA com restrições de energia.

A configuração GB200 NVL72 conecta 36 CPUs Grace com 72 GPUs Blackwell em um design refrigerado a líquido em escala de rack.³⁹ O sistema entrega inferência em tempo real 30x mais rápida para modelos de linguagem de grande escala com trilhões de parâmetros comparado a gerações anteriores.⁴⁰

Grace integra-se completamente com o ecossistema de software ARM. O NVIDIA HPC SDK e todos os componentes CUDA fornecem instaladores e containers nativos ARM.⁴¹ Os microsserviços NVIDIA NIM e containers NGC são otimizados para ARM.⁴² Todas as principais distribuições Linux rodam sem modificação.⁴³

O momentum do ARM em data centers se estende além da NVIDIA. A ARM Holdings projeta que sua participação no mercado de CPUs para data center aumentará de aproximadamente 15% em 2024 para 50% até o final de 2025.⁴⁴ A projeção reflete crescimento agressivo de instâncias ARM nativas de nuvem e a adoção do Grace da NVIDIA.

O superchip GB10 Grace Blackwell traz a arquitetura para fatores de forma desktop para desenvolvedores de IA, pesquisadores e computação de borda.⁴⁵ O system-in-package mescla uma CPU ARM com capacidades de GPU Blackwell, permitindo desenvolvimento de IA local que anteriormente requeria acesso a data center.

Seleção de CPU específica por carga de trabalho

A seleção de CPU para infraestrutura de IA depende do papel específico dentro da arquitetura de implantação. Diferentes cargas de trabalho favorecem diferentes características de processador.

Cargas de trabalho de plano de controle e orquestração se beneficiam de altas contagens de núcleos e capacidade de memória. Planos de controle Kubernetes, agendadores de jobs e sistemas de monitoramento escalam com núcleos disponíveis. A densidade de 192 núcleos do AMD EPYC fornece margem para consolidação. Canais de memória e capacidade importam mais do que desempenho por núcleo para essas cargas de trabalho.

Pipelines de pré-processamento de dados transformam dados brutos em formatos prontos para treinamento. Essas cargas de trabalho frequentemente escalam com largura de banda de memória em vez de computação. O suporte MRDIMM da Intel a 8,8 GHz fornece vantagens de largura de banda. O estágio de pré-processamento frequentemente roda em sistemas dedicados apenas com CPU alimentando clusters de GPU.

Cargas de trabalho de servir inferência apresentam o caso mais forte para avaliação de CPU. Enquanto GPUs lidam com a execução do modelo, CPUs gerenciam roteamento de requisições, tokenização e montagem de resposta. A aceleração AMX da Intel permite inferência baseada em CPU para modelos menores, potencialmente eliminando requisitos de GPU para cargas de trabalho apropriadas. A vantagem de desempenho 5,5x no ResNet50 demonstra a proposta de valor.

Sistemas host de GPU requerem CPUs que evitem se tornar gargalos. Contagens de lanes PCIe determinam quantas GPUs se conectam a cada soquete de CPU. As 128 lanes Gen5 do EPYC e as 136 lanes do Granite Rapids ambos suportam configurações de oito GPUs. A largura de banda de memória afeta quão rapidamente dados se movem para a memória da GPU para lotes de treinamento.

Implantações de inferência de borda favorecem eficiência energética e I/O integrado. Granite Rapids-D integra conectividade Ethernet para appliances de inferência de rede. A arquitetura ARM do Grace fornece o perfil de eficiência que implantações de borda requerem.

Considerações de planejamento de infraestrutura

A dinâmica do mercado de CPU favorece avaliação de múltiplos fornecedores. Os ganhos constantes de participação da AMD criam pressão competitiva que beneficia compradores. A resposta da Intel com Granite Rapids demonstra inovação contínua apesar dos desafios de mercado. O Grace da NVIDIA oferece diferenciação para arquiteturas centradas em GPU.

A arquitetura de memória diferencia cada vez mais as plataformas. O suporte CXL permite expansão de memória além da capacidade do soquete. Velocidades de DDR5 continuam aumentando a cada geração. Organizações planejando infraestrutura multi-ano devem avaliar roadmaps de memória junto com especificações de CPU.

A eficiência energética determina a densidade de implantação em instalações com restrições. A afirmação de 2x desempenho por watt do Grace merece validação para cargas de trabalho específicas. A vantagem de energia se multiplica em grandes implantações onde limites de instalação restringem o crescimento.

Requisitos de ecossistema de software restringem escolhas para algumas organizações. Compatibilidade x86 permanece essencial para cargas de trabalho legadas. A adoção de ARM requer validação de aplicação e potencialmente recompilação. A integração CUDA com Grace simplifica a transição para implantações centradas em GPU.

Cálculos de custo total de propriedade devem incluir não apenas preços de processador, mas custos de sistema, consumo de energia e licenciamento. O preço favorável da AMD no topo de linha—o 9965 de 192 núcleos a $14.813—fica abaixo das ofertas comparáveis da Intel. Entretanto, a aceleração AMX da Intel pode reduzir requisitos de GPU para inferência, afetando a equação de custo mais ampla.

A CPU permanece a fundação da infraestrutura de IA mesmo enquanto GPUs capturam atenção. Organizações que avaliam a seleção de CPU com o mesmo rigor aplicado à aquisição de GPU constroem sistemas mais balanceados e eficientes. A dinâmica competitiva entre AMD, Intel e NVIDIA garante que avaliação cuidadosa produza vantagens significativas de infraestrutura.

Principais conclusões

Para aquisição de servidores: - AMD EPYC Turin 9965: 192 núcleos (Zen 5c), 384MB L3, 500W TDP a $14.813; preço favorável vs Intel no topo de linha - Intel Xeon 6900P: 128 núcleos (Granite Rapids), 504MB L3, aceleração AMX FP16, suporte MRDIMM a 8,8GHz - NVIDIA Grace: 72 núcleos ARM, 480GB LPDDR5X a 546GB/s de largura de banda, 250W TDP; afirma 2x desempenho/watt

Para planejamento de cargas de trabalho: - Plano de controle/orquestração: favorece altas contagens de núcleos (densidade de 192 núcleos AMD); capacidade de memória importa mais que velocidade por núcleo - Pré-processamento de dados: escala com largura de banda de memória; MRDIMM Intel 8,8GHz fornece vantagem - Servir inferência: Intel AMX entrega 5,5x desempenho ResNet50 vs AMD; pode eliminar requisito de GPU para modelos menores - Sistemas host de GPU: contagens de lanes PCIe (AMD 128, Intel 136 Ge

[Conteúdo truncado para tradução]

Solicitar Orçamento_

Conte-nos sobre seu projeto e responderemos em até 72 horas.

> TRANSMISSÃO_CONCLUÍDA

Solicitação Recebida_

Obrigado por sua consulta. Nossa equipe analisará sua solicitação e responderá em até 72 horas.

EM FILA PARA PROCESSAMENTO