AMD MI350 y el panorama competitivo de GPUs
Actualizado el 11 de diciembre de 2025
Actualización de diciembre 2025: OpenAI adquiere hasta el 10% de participación en AMD para asegurar un suministro de 6GW de GPUs. MI350 se distribuye con 288GB HBM3e (frente a los 180GB de Blackwell), 8TB/s de ancho de banda. Microsoft Azure ejecuta cargas de trabajo de producción de Copilot en MI300X. Oracle despliega superclústeres de 16,384 GPUs MI300X. La pila de software ROCm de AMD alcanza madurez empresarial mientras las alternativas a NVIDIA ganan credibilidad.
OpenAI anunció una asociación con AMD que incluye la adquisición de hasta un 10% de participación en la empresa para asegurar el suministro de hasta seis gigavatios de GPUs.¹ AMD firmó un acuerdo en octubre de 2025 para suministrar chips de IA a Oracle para su infraestructura en la nube.² Microsoft Azure ahora ejecuta tanto modelos propietarios como de código abierto en producción con AMD Instinct MI300X.³ Mientras NVIDIA mantiene entre el 80% y el 95% del mercado de GPUs para IA, AMD se ha establecido como la alternativa creíble que las empresas consideran cada vez más para cargas de trabajo de inferencia y optimización de costos.⁴
La serie MI350 se lanzó en el tercer trimestre de 2025 con especificaciones que desafían al Blackwell de NVIDIA en el papel: 288 gigabytes de memoria HBM3e, 8 terabytes por segundo de ancho de banda y afirmaciones de 2.2x de rendimiento en IA sobre aceleradores competidores.⁵ La pregunta para los planificadores de infraestructura empresarial es si las ventajas de hardware de AMD y su mejora en la pila de software justifican el cambio desde el ecosistema establecido de NVIDIA.
Especificaciones y posicionamiento del MI350
La serie AMD Instinct MI350 cuenta con 185 mil millones de transistores y 288 gigabytes de memoria HBM3e.⁶ Construida sobre la arquitectura AMD CDNA de 4ª generación, la serie MI350 ofrece soporte expandido de tipos de datos incluyendo MXFP6 y MXFP4 para inferencia de IA, entrenamiento y cargas de trabajo HPC.⁷ La plataforma insignia MI355X ofrece hasta 4x el rendimiento teórico máximo sobre la generación anterior MI300X.⁸
La capacidad de memoria proporciona la ventaja de hardware más clara de AMD. Los 288 gigabytes de HBM3e del MI355X superan los 141 gigabytes del Hopper H200 de NVIDIA y los 180 gigabytes del Blackwell B200.⁹ El ancho de banda de memoria alcanza 8 terabytes por segundo comparado con los 4.8 terabytes por segundo del H200 y los 7.7 terabytes por segundo del B200.¹⁰
El consumo de energía alcanza 1,400 vatios para el MI355X, igualando los requisitos del Blackwell Ultra.¹¹ Los perfiles de potencia similares significan que los requisitos de infraestructura no difieren sustancialmente entre proveedores en este nivel de rendimiento.
AMD probó el MI355X contra las plataformas B200 y GB200 de NVIDIA, midiendo el rendimiento de entrenamiento para el ajuste fino de Llama2-70B y el rendimiento de inferencia en Llama 3.1-405B.¹² Los benchmarks muestran un rendimiento competitivo, aunque los resultados en el mundo real dependen en gran medida de la optimización del software.
El MI350 se envió a socios y centros de datos hiperescala en el tercer trimestre de 2025.¹³ El ciclo de actualización anual de aceleradores de AMD continúa con la serie MI400 confirmada para desarrollo en 2026.¹⁴ El diseño de referencia Helios AI integra GPUs MI400, CPUs EPYC Venice y NICs Pensando Vulcano en una arquitectura de rack completo.¹⁵
La adopción por proveedores de nube se acelera
IBM Cloud añadirá GPUs AMD Instinct MI300X en la primera mitad de 2025.¹⁶ La colaboración permite el soporte de aceleradores AMD dentro de la plataforma de IA watsonx de IBM y la inferencia de Red Hat Enterprise Linux AI.¹⁷ El enfoque empresarial se dirige a clientes que buscan alternativas a NVIDIA para cargas de trabajo de IA en producción.
Microsoft Azure lanzó clústeres de IA respaldados por MI300X en las regiones de Suecia e Irlanda para soportar cargas de trabajo personalizadas de Copilot.¹⁸ Que Microsoft ejecute AMD en producción para modelos propietarios demuestra que la madurez del software alcanzó los requisitos empresariales.
La instancia Compute Supercluster de Oracle Cloud Infrastructure soporta hasta 16,384 GPUs MI300X en un solo clúster.¹⁹ La escala permite el entrenamiento y despliegue de modelos con cientos de miles de millones de parámetros.²⁰ El despliegue de Oracle se centra en casos de uso de IA para salud y genómica donde la capacidad de memoria de AMD proporciona ventajas.²¹
Las victorias de Vultr y Oracle Cloud demuestran un impulso creciente detrás de la tecnología de aceleradores de AMD.²² Lenovo, Dell y SuperMicro anunciaron ofertas basadas en MI300.²³ El ecosistema de proveedores ahora soporta AMD a escala empresarial.
Cohere despliega sus modelos Command en AMD Instinct MI300X, potenciando la inferencia de LLM de grado empresarial con alto rendimiento y privacidad de datos.²⁴ La adopción por proveedores de modelos de IA valida la posición de AMD para cargas de trabajo de inferencia.
El ecosistema de software madura
El ecosistema de software históricamente limitó la adopción de AMD. El arraigo de CUDA hizo de NVIDIA la opción predeterminada. La situación cambió sustancialmente en 2025.
PyTorch 3.1 ofrece soporte nativo de ROCm para entrenamiento e inferencia.²⁵ Bibliotecas populares incluyendo DeepSpeed y Hugging Face Accelerate añadieron flags de rendimiento específicos para AMD.²⁶ Los desarrolladores se sienten cada vez más cómodos construyendo directamente para entornos MI300X.²⁷
Los equipos de IA empresarial migran cargas de trabajo de inferencia a AMD para reducir costos sin sacrificar rendimiento.²⁸ La diferencia de costo importa más para inferencia que para entrenamiento porque la inferencia se ejecuta continuamente y domina el gasto a largo plazo.
CUDA de NVIDIA todavía proporciona una adopción de desarrolladores más amplia y herramientas más maduras.²⁹ El rendimiento del mundo real en entornos de producción a menudo favorece a NVIDIA debido a la optimización del ecosistema más que a la capacidad bruta del hardware.³⁰ Las organizaciones deben sopesar los ahorros de costos contra la inversión en ingeniería requerida para optimizar para AMD.
La adquisición de AMD de ingenieros de hardware y software de IA de Untether AI mejora las capacidades de compilador, desarrollo de kernel y diseño de chips.³¹ La inversión fortalece la posición de AMD en el mercado de inferencia donde el foso de CUDA se estrecha.³²
Dinámica de mercado y cuota
NVIDIA mantiene del 80% al 95% del mercado de GPUs para IA en 2025.³³ Los datos de Wells Fargo muestran que la cuota de NVIDIA en aceleradores de IA permanece entre el 80% y el 90%.³⁴ NVIDIA posee más del 90% de cuota en el espacio de GPUs para centros de datos, con la mayoría del código fundacional de IA construido sobre CUDA.³⁵
Los ingresos del centro de datos de AMD en el tercer trimestre de 2025 alcanzaron $4.3 mil millones.³⁶ Los ingresos de centro de datos de un solo trimestre de NVIDIA a finales de julio de 2025 alcanzaron $41.1 mil millones.³⁷ La brecha de ingresos demuestra la diferencia de escala entre los líderes del mercado.
Los datos de JPR muestran que NVIDIA controla el 94% del mercado de GPUs discretas mientras AMD controla aproximadamente el 6%.³⁸ La cuota de AMD permanece como un distante segundo lugar, aunque el mercado se está expandiendo lo suficientemente rápido como para que ambos proveedores crezcan.
La cuota de mercado de AMD en GPUs de IA para centros de datos aumentó constantemente desde el primer trimestre de 2023.³⁹ En el primer trimestre de 2025, comenzó la rampa masiva de Blackwell de NVIDIA, y con la respuesta de AMD llegando solo en el tercer trimestre de 2025, la cuota de AMD cayó temporalmente.⁴⁰ El ciclo competitivo continuará a medida que cada proveedor lance nuevas generaciones.
Oportunidades estratégicas para AMD
AMD se labró un nicho en el mercado de inferencia donde el foso de CUDA de NVIDIA es más estrecho.⁴¹ La inferencia eventualmente será más grande que el entrenamiento, posicionando a AMD para la trayectoria de crecimiento a largo plazo del mercado.⁴²
El enfoque de AMD se centra en oportunidades estratégicamente seleccionadas en lugar de intentar igualar a NVIDIA en todos los segmentos.⁴³ La estrategia hace crecer la porción de AMD de un mercado en rápida expansión mientras evita la competencia directa donde las ventajas de NVIDIA son más fuertes.⁴⁴
La asociación con OpenAI representa una validación importante. El compromiso potencial de $200 mil millones de OpenAI por hasta seis gigavatios de GPUs de AMD señala confianza en la hoja de ruta de AMD.⁴⁵ El acuerdo proporciona a AMD un cliente destacado que influye en las percepciones empresariales.
La estrategia de precios agresivos de AMD socava a NVIDIA, aunque los precios solos no han permitido a AMD igualar el rendimiento de NVIDIA en ganancias de cuota de mercado.⁴⁶ La combinación de hardware competitivo, software en mejora y precios favorables crea oportunidades con empresas conscientes de los costos.
Consideraciones de despliegue empresarial
Las organizaciones que evalúan AMD deben considerar su mezcla de cargas de trabajo. Las cargas de trabajo de entrenamiento, particularmente aquellas con extensas dependencias de CUDA, todavía favorecen a NVIDIA. Las cargas de trabajo de inferencia ofrecen más oportunidad para la adopción de AMD con menores costos de cambio.
Las ventajas de capacidad de memoria importan para modelos grandes. Los 288 gigabytes del MI350 permiten el procesamiento en una sola GPU de modelos que requieren múltiples GPUs de NVIDIA. La ventaja de memoria reduce la complejidad de infraestructura para organizaciones que ejecutan los modelos más grandes.
Los requisitos de inversión en software no deben subestimarse. Aunque ROCm mejoró sustancialmente, los equipos acostumbrados a CUDA requerirán tiempo y recursos para optimizar para AMD. La curva de aprendizaje afecta el tiempo de puesta en producción para nuevos despliegues.
Las estrategias multi-proveedor proporcionan mitigación de riesgos. Las organizaciones que califican tanto a NVIDIA como a AMD pueden negociar mejores precios, evitar restricciones de suministro y elegir hardware óptimo para cada tipo de carga de trabajo. La inversión en soportar ambas plataformas se amortiza para despliegues grandes.
El acceso a AMD basado en la nube reduce las barreras de adopción. IBM, Microsoft, Oracle y otros proveedores ofrecen instancias AMD que permiten pruebas sin adquisición de hardware. Las organizaciones pueden validar el rendimiento de AMD en sus cargas de trabajo antes de comprometerse con compras de infraestructura.
Marco de decisión rápida
Selección AMD vs NVIDIA:
| Si tu carga de trabajo es... | Considera | Justificación |
|---|---|---|
| Entrenamiento con dependencias CUDA | NVIDIA | Madurez del ecosistema, herramientas |
| Inferencia a escala | AMD MI350 | Ahorro de costos, ventaja de memoria |
| Modelos grandes limitados por memoria | AMD MI350/355X | 288GB vs 180GB (B200) |
| Mitigación de riesgo multi-proveedor | Ambos | Diversificación de suministro |
| Evaluación basada en la nube | AMD (IBM, Azure, Oracle) | Probar sin adquisición |
Comparación de especificaciones:
| Especificación | AMD MI355X | NVIDIA B200 | NVIDIA H200 |
|---|---|---|---|
| Memoria HBM | 288 GB | 180 GB | 141 GB |
| Ancho de banda de memoria | 8 TB/s | 7.7 TB/s | 4.8 TB/s |
| TDP | 1,400W | 1,000W | 700W |
| Arquitectura | CDNA 4 | Blackwell | Hopper |
| Cuota de mercado | ~6% | ~80-95% | ~80-95% |
Conclusiones clave
Para arquitectos de infraestructura: - AMD MI350 ofrece 288GB HBM3e—60% más que los 180GB del B200 - La pila de software ROCm maduró sustancialmente en 2025—PyTorch 3.1 ofrece soporte nativo - Las cargas de trabajo de inferencia ofrecen los menores costos de cambio desde NVIDIA - Los proveedores de nube (IBM, Azure, Oracle) permiten pruebas sin adquisición de hardware
Para equipos de adquisiciones: - La participación del 10% de OpenAI en AMD señala confianza en el suministro a largo plazo - Los precios de AMD socavan a NVIDIA pero no se han traducido en ganancias equivalentes de cuota de mercado - La estrategia multi-proveedor permite mejor apalancamiento de negociación y resiliencia de suministro - La ventaja de capacidad de memoria permite procesamiento en una sola GPU de modelos más grandes
Para planificación estratégica: - NVIDIA mantiene 80-95% de cuota de mercado—AMD es alternativa creíble, no reemplazo - El mercado de inferencia eventualmente superará al de entrenamiento—segmento objetivo de AMD - Se requiere inversión en software para optimización de AMD—factorizar en análisis de TCO - Serie MI400 confirmada para 2026—la visibilidad de la hoja de ruta mejora la planificación
AMD permanecerá como un distante segundo lugar frente a NVIDIA en el futuro previsible.⁴⁷ Sin embargo, el mercado de IA grande y en crecimiento significa que incluso una cuota minoritaria representa ingresos sustanciales y establece a AMD como una opción empresarial viable. Las organizaciones que desarrollen experiencia en AMD se posicionan para optimización de costos y diversificación de suministro a medida que el mercado evoluciona.
Referencias
-
Tech Research Online. "NVIDIA vs AMD (2025): GPUs, AI & Market Share." 2025. https://techresearchonline.com/blog/nvidia-vs-amd-the-gpu-battle-for-ai-dominance/
-
36Kr. "AMD's Aggressive Pricing Stabs Intel but Fails to Outperform NVIDIA." 2025. https://eu.36kr.com/en/p/3541331537719433
-
AMD Newsroom. "AMD Unveils Vision for an Open AI Ecosystem." June 2025. https://www.amd.com/en/newsroom/press-releases/2025-6-12-amd-unveils-vision-for-an-open-ai-ecosystem-detai.html
-
Tech Research Online. "NVIDIA vs AMD (2025)."
-
AMD. "AMD Instinct MI350 Series GPUs." 2025. https://www.amd.com/en/products/accelerators/instinct/mi350.html
-
Kontronn. "AMD Instinct MI350 Officially Announced: 185 Billion Transistors and 288GB HBM
[Contenido truncado para traducción]