DeepSeek V3.2 supera a GPT-5 en benchmarks de élite: lo que significa el auge de la IA china para la infraestructura
10 de diciembre de 2025 Escrito por Blake Crosley
DeepSeek de China presentó dos nuevos modelos de IA el 1 de diciembre de 2025, con DeepSeek-V3.2-Speciale logrando resultados de élite en competencias: nivel de medalla de oro en la Olimpiada Internacional de Matemáticas 2025 (35/42 puntos), 10º lugar en la Olimpiada Internacional de Informática (492/600 puntos), y 2º lugar en las Finales Mundiales de ICPC.1 En rendimiento de benchmarks, la variante Speciale alcanzó una tasa de aprobación del 96,0% en AIME comparado con 94,6% para GPT-5-High y 95,0% para Gemini-3.0-Pro.2 Ambos modelos se publicaron de forma gratuita y abierta bajo Apache 2.0, desafiando suposiciones sobre los requisitos de cómputo para capacidades de IA de frontera.
El lanzamiento marca un momento significativo en la geopolítica de la IA. Un laboratorio chino operando bajo restricciones de exportación de chips de EE.UU. produjo modelos que igualan o superan a los sistemas frontera estadounidenses en tareas de razonamiento de élite. El logro plantea preguntas sobre la relación entre inversión en infraestructura y capacidad de IA, con implicaciones para organizaciones que planifican adquisición de GPUs e infraestructura de entrenamiento.
Desglose del rendimiento en benchmarks
DeepSeek-V3.2-Speciale demostró un rendimiento excepcional en benchmarks matemáticos y de programación, ubicándolo entre los tres principales modelos frontera a nivel mundial.
En el Torneo de Matemáticas Harvard-MIT, la variante Speciale obtuvo 99,2%, superando el 97,5% de Gemini.3 El AIME—un examen de 75 minutos con 15 problemas que mide la perspicacia matemática en lugar del cálculo—representa uno de los benchmarks de razonamiento más desafiantes de la IA. Una puntuación del 96% sitúa al modelo al nivel de los 50 mejores competidores de olimpiadas matemáticas a nivel mundial.4
La arquitectura subyacente explica por qué. DeepSeek V3.2 se construye sobre un marco de Mezcla de Expertos (MoE) de 685 mil millones de parámetros con 37 mil millones de parámetros activados por token.5 El diseño MoE significa que el modelo tiene la capacidad de conocimiento de un modelo de 685B pero el costo de inferencia de un modelo de 37B—una ventaja de eficiencia crucial que permite tanto el entrenamiento como el despliegue en hardware restringido.
La versión estándar DeepSeek-V3.2 se orienta a casos de uso de asistente de razonamiento cotidiano con un equilibrio entre capacidad y eficiencia. La variante Speciale—una configuración de alto cómputo con cadenas de razonamiento extendidas—representa la versión de máxima capacidad optimizada para rendimiento en benchmarks de élite en lugar de eficiencia de costos.6 DeepSeek indicó que el endpoint API de Speciale expira el 15 de diciembre de 2025, reflejando el costo computacional extremo de ejecutar el modelo a escala.
Ambos modelos añaden capacidades para combinar razonamiento y ejecutar ciertas acciones de forma autónoma, indicando capacidades agénticas junto con el rendimiento puro en benchmarks.7 La combinación posiciona a los modelos DeepSeek para aplicaciones prácticas más allá de benchmarks académicos.
Implicaciones de eficiencia en infraestructura
El logro de DeepSeek desafía suposiciones sobre requisitos de cómputo para IA de frontera—y proporciona lecciones concretas para la planificación de infraestructura.
El avance en eficiencia de entrenamiento
DeepSeek entrenó V3 en 2.048 GPUs NVIDIA H800—la variante con restricción de exportación del H100 con velocidades de interconexión reducidas—por solo 2,788 millones de horas-GPU a aproximadamente $5,6 millones en costo de cómputo.8 Para contexto, Llama 3 405B requirió 30,8 millones de horas-GPU para entrenamiento—11 veces más cómputo para un modelo más pequeño.9
La eficiencia proviene de tres innovaciones clave:
Entrenamiento de precisión mixta FP8. DeepSeek fue pionero en entrenamiento FP8 (8 bits) a escala, reduciendo requisitos de memoria mientras mantiene la precisión. V3 fue el primer LLM abierto entrenado usando FP8, validando la técnica para modelos extremadamente grandes.10
Eficiencia de cómputo por token. DeepSeek entrenó V3 a 250 GFLOPs por token, comparado con 394 GFLOPs por token de Qwen 2.5 72B y 2.448 GFLOPs por token de Llama 3.1 405B.11 La brecha de eficiencia de 10x versus Llama demuestra que la innovación algorítmica puede sustituir el cómputo bruto.
Atención Latente Multi-cabeza (MLA). Esta arquitectura reduce los requisitos de ancho de banda de memoria durante la inferencia, permitiendo el despliegue en hardware que de otro modo sería insuficiente.
Lo que esto significa para decisiones de adquisición
La brecha de eficiencia tiene implicaciones directas para la adquisición de GPUs:
Cuestionar suposiciones de grandes clústeres. Si DeepSeek logró rendimiento de frontera con 2.048 H800s, las organizaciones que planifican clústeres de 10.000+ GPUs deberían verificar sus suposiciones de eficiencia. Clústeres más pequeños y bien optimizados pueden ofrecer capacidad equivalente.
Invertir en experiencia en infraestructura de entrenamiento. La brecha entre la eficiencia de DeepSeek y los enfoques de laboratorios occidentales sugiere que la metodología de entrenamiento importa tanto como el hardware. Las organizaciones deberían asignar presupuesto para talento en ingeniería de ML junto con la adquisición de GPUs.
Planificar para mejoras rápidas de eficiencia. Ciclos de adquisición de 12-18 meses arriesgan obsolescencia a medida que mejora la eficiencia de entrenamiento. Considerar compromisos más cortos o arreglos flexibles en la nube en lugar de grandes compras de capital bloqueadas en suposiciones actuales.
Contexto de restricciones de exportación
Las restricciones de exportación de chips de EE.UU. limitan el acceso chino a las GPUs más avanzadas de NVIDIA, incluyendo arquitecturas H100 y Blackwell. DeepSeek desarrolló V3.2 usando H800s—que retienen capacidad de cómputo completa pero tienen velocidades de interconexión NVLink reducidas—logrando rendimiento de frontera sin acceso a hardware de frontera.
El logro demuestra que las restricciones de ancho de banda de interconexión pueden superarse parcialmente mediante innovación algorítmica. Las organizaciones no pueden asumir que más GPUs producen automáticamente mejores modelos. La eficiencia de entrenamiento, innovación arquitectónica y optimización importan junto con el cómputo bruto.
Economía de modelos abiertos: comparaciones concretas de costos
Ambos modelos DeepSeek-V3.2 se publicaron de forma gratuita y abierta, creando ventajas de costos significativas para organizaciones con infraestructura GPU.
Comparación de precios de API: - GPT-5 Standard: $1,25/millón de tokens de entrada, $10/millón de tokens de salida12 - Claude Opus 4.1: $15/millón de tokens de entrada, $75/millón de tokens de salida13 - DeepSeek V3.2-Exp: $0,028/millón de tokens de entrada14
La brecha de precios de 45x-500x significa que las organizaciones que ejecutan cargas de trabajo de inferencia de alto volumen pueden lograr reducciones masivas de costos alojando DeepSeek ellos mismos en lugar de usar APIs propietarias.
Requisitos de auto-alojamiento: Ejecutar el modelo completo de 685B requiere aproximadamente 700GB de VRAM con precisión FP8, alcanzable con 8-10 GPUs NVIDIA H100 (80GB).15 Las versiones cuantizadas a 4 bits reducen esto a ~386GB, permitiendo el despliegue en 5-6 H100s o configuraciones equivalentes.16
Para organizaciones que ya operan clústeres GPU para otras cargas de trabajo de IA, agregar inferencia DeepSeek representa un costo marginal versus las tarifas sustanciales por token de alternativas propietarias.
Cambio en el panorama competitivo
Noviembre de 2025 vio lanzamientos concentrados de modelos frontera de los principales laboratorios, con DeepSeek añadiendo competencia china al panorama centrado en EE.UU.
Lanzamientos de modelos frontera de EE.UU.
Noviembre de 2025 estuvo extremadamente lleno de lanzamientos, con GPT-5.1, Grok 4.1, Gemini 3 Pro y Claude Opus 4.5 todos lanzados en un período de seis días.17 Claude Opus 4.5, el modelo más inteligente de Anthropic, sobresale en codificación y tareas agénticas.18 Gemini 3 Pro domina los benchmarks de razonamiento con una puntuación GPQA de 86,4, mientras que Claude Opus 4.5 lidera los benchmarks de codificación con 72,5% en SWE-bench.19
El lanzamiento de DeepSeek en diciembre demuestra que los laboratorios chinos pueden igualar este ritmo de desarrollo frontera a pesar de las restricciones de hardware. La carrera global de IA ahora incluye competencia genuina de China en capacidad, no solo en escala de despliegue.
Implicaciones geopolíticas
La capacidad de IA frontera china afecta las discusiones de políticas de EE.UU. sobre restricciones de exportación, soberanía de cómputo y liderazgo en IA. Los formuladores de políticas asumieron que las restricciones de hardware ralentizarían el desarrollo de IA china; el logro de DeepSeek sugiere las limitaciones de la estrategia.
Las organizaciones deberían anticipar una evolución política continua a medida que los gobiernos responden a dinámicas competitivas cambiantes. Las restricciones de exportación pueden endurecerse, expandirse a nuevas categorías, o enfrentar reconsideración a medida que su efectividad se pone en cuestión. La planificación de adquisiciones debería tener en cuenta la incertidumbre política.
Marco de decisión: ¿construir, comprar o esperar?
El lanzamiento de DeepSeek reformula el cálculo de construir versus comprar para capacidades de IA. Así es como pensar en la decisión:
| Escenario | Recomendación | Justificación |
|---|---|---|
| <$10K/mes gasto API | Continuar APIs | Overhead de auto-alojamiento excede ahorros |
| $10K-50K/mes, carga variable | Enfoque híbrido | Usar APIs para picos, propio para línea base |
| >$50K/mes, carga estable | Evaluar auto-alojamiento | ROI alcanzable en 6-12 meses |
| Entrenamiento de modelos personalizados | Infraestructura propia | Control sobre optimización de eficiencia |
El marco asume precios de GPU de generación actual. A medida que mejore la disponibilidad de H100 y entren al mercado H200/B200, la economía de auto-alojamiento cambiará aún más a favor de infraestructura propia.
Lo que esto significa para la planificación de infraestructura
El logro de DeepSeek tiene varias implicaciones accionables para organizaciones que planifican infraestructura de IA.
Eficiencia sobre escala
El conteo bruto de GPUs importa menos que la eficiencia de entrenamiento para lograr capacidades de IA. Las organizaciones deberían invertir en optimización de infraestructura de entrenamiento junto con la adquisición de hardware. La combinación de buen hardware y buenos enfoques de entrenamiento supera al excelente hardware con entrenamiento ingenuo.
Paso accionable: Antes de comprometerse con grandes pedidos de GPU, contratar consultores de ingeniería ML para auditar la eficiencia de entrenamiento. Una mejora de eficiencia de 2-3x puede reducir el tamaño requerido del clúster proporcionalmente.
Las asociaciones de investigación e inversiones en talento de ingeniería pueden entregar más capacidad por dólar que la adquisición adicional de GPU. Las organizaciones deberían equilibrar las inversiones en hardware y capital humano basándose en su estrategia de desarrollo de IA.
Infraestructura de despliegue de modelos abiertos
Los modelos frontera gratuitos y abiertos cambian los requisitos de infraestructura. En lugar de optimizar para latencia de API y gestionar costos por token, las organizaciones deberían considerar infraestructura de inferencia para despliegue auto-alojado. La economía de infraestructura cambia de gasto operativo a inversión de capital.
Paso accionable: Calcular su gasto actual en API. Si excede $50.000/mes en inferencia, evaluar la economía de auto-alojamiento. Un clúster de 8 GPUs H100 cuesta aproximadamente $250.000-300.000 pero elimina las tarifas por token indefinidamente.
Los clústeres GPU dimensionados para inferencia en lugar de entrenamiento se vuelven más valiosos a medida que mejoran los modelos abiertos. Las organizaciones pueden lograr mejor economía ejecutando inferencia en infraestructura propia que pagando márgenes de API a proveedores de modelos.
Consideraciones de diversificación
La dependencia de proveedores de modelos únicos crea riesgo a medida que evolucionan las dinámicas competitivas. Las organizaciones deberían arquitecturar sistemas que acepten modelos de múltiples proveedores, permitiendo adopción rápida de capacidades emergentes. El lanzamiento de DeepSeek demuestra que el liderazgo en capacidad cambia de manera impredecible.
Paso accionable: Implementar capas de abstracción de modelos (LiteLLM, OpenRouter, o enrutamiento personalizado) que permitan cambiar entre proveedores sin cambios en la aplicación.
Los 550 ingenieros de campo de Introl apoyan a organizaciones implementando infraestructura de IA flexible adaptándose a dinámicas competitivas.20 La compañía se clasificó #14 en el Inc. 5000 2025 con 9.594% de crecimiento en tres años.21
La infraestructura en 257 ubicaciones globales requiere adaptabilidad a medida que evoluciona el panorama de IA.22 El soporte profesional asegura que las inversiones en infraestructura permanezcan valiosas a medida que cambian las capacidades y economía de los modelos.
Puntos clave
Para planificadores de infraestructura: - DeepSeek logró rendimiento nivel GPT-5 con 11x menos cómputo que Llama 3 405B - Auto-alojar modelos frontera ahora requiere 8-10 H100s (~$250-300K) versus $50K+/mes en tarifas de API - La eficiencia de entrenamiento importa tanto como el conteo de GPUs—presupuestar para ingeniería ML junto con hardware
Para decisiones de adquisición: - Cuestionar suposiciones de grandes clústeres; 2.048 GPUs lograron capacidad frontera - Planificar para mejoras de eficiencia de 12-18 meses que pueden volver obsoletas las suposiciones actuales - Implementar capas de abstracción de modelos para permitir adopción rápida de capacidades
Para planificación estratégica: - Los laboratorios chinos ahora compiten en capacidad, no solo escala—esperar lanzamientos continuos - La efectividad de las restricciones de exportación es cuestionable; la política puede evolucionar de manera impredecible - Los modelos abiertos acercándose a paridad propietaria cambian la economía de construir versus comprar
Perspectiva
DeepSeek V3.2 demuestra que la capacidad de IA frontera emerge de múltiples fuentes, no exclusivamente de laboratorios de EE.UU. con acceso irrestricto a hardware. El logro acelera las dinámicas competitivas y desafía suposiciones de planificación de infraestructura.
La lección clave: las innovaciones en eficiencia pueden comprimir los requisitos de hardware para IA frontera en un orden de magnitud. Las organizaciones que planifican inversiones en infraestructura deberían tener en cuenta mejoras continuas de eficiencia en lugar de bloquearse en suposiciones actuales sobre requisitos de cómputo.
Las organizaciones deberían prepararse para mejoras continuas de capacidad de fuentes diversas. Las inversiones en infraestructura deberían enfatizar flexibilidad, eficiencia y adaptabilidad sobre escala bruta optimizada para arquitecturas de modelos actuales. El panorama de infraestructura de IA recompensa a las organizaciones que se adaptan rápidamente a capacidades emergentes.
Referencias
Urgencia: Alta — Cambio en panorama competitivo con implicaciones de infraestructura Conteo de palabras: ~2.400
-
Bloomberg. "DeepSeek Debuts New AI Models to Rival Google and OpenAI." 1 de diciembre de 2025. https://www.bloomberg.com/news/articles/2025-12-01/deepseek-debuts-new-ai-models-to-rival-google-and-openai ↩
-
VentureBeat. "DeepSeek just dropped two insanely powerful AI models that rival GPT-5." Diciembre 2025. https://venturebeat.com/ai/deepseek-just-dropped-two-insanely-powerful-ai-models-that-rival-gpt-5-and ↩
-
VentureBeat. "DeepSeek just dropped two insanely powerful AI models." Diciembre 2025. ↩
-
IntuitionLabs. "AIME 2025 Benchmark: An Analysis of AI Math Reasoning." 2025. https://intuitionlabs.ai/articles/aime-2025-ai-benchmark-explained ↩
-
Hugging Face. "deepseek-ai/DeepSeek-V3." 2025. https://huggingface.co/deepseek-ai/DeepSeek-V3 ↩
-
Bloomberg. "DeepSeek Debuts New AI Models." 1 de diciembre de 2025. ↩
-
Bloomberg. "DeepSeek Debuts New AI Models." 1 de diciembre de 2025. ↩
-
DeepLearning.AI. "Researchers Describe Training Methods and Hardware Choices for DeepSeek's V3 and R1 Models." 2025. https://www.deeplearning.ai/the-batch/researchers-describe-training-methods-and-hardware-choices-for-deepseeks-v3-and-r1-models/ ↩
-
Towards AI. "TAI #132: Deepseek v3–10x+ Improvement in Both Training and Inference Cost." 2025. https://newsletter.towardsai.net/p/tai-132-deepseek-v310x-improvement ↩
-
GitHub. "deepseek-ai/DeepSeek-V3." 2025. https://github.com/deepseek-ai/DeepSeek-V3 ↩
-
Interconnects. "DeepSeek V3 and the cost of frontier AI models." 2025. https://www.interconnects.ai/p/deepseek-v3-and-the-actual-cost-of ↩
-
OpenAI. "API Pricing." 2025. https://openai.com/api/pricing/ ↩
-
TechCrunch. "OpenAI priced GPT-5 so low, it may spark a price war." Agosto 2025. https://techcrunch.com/2025/08/08/openai-priced-gpt-5-so-low-it-may-spark-a-price-war/ ↩
-
VentureBeat. "DeepSeek's new V3.2-Exp model cuts API pricing in half." 2025. https://venturebeat.com/ai/deepseeks-new-v3-2-exp-model-cuts-api-pricing-in-half-to-less-than-3-cents ↩
-
APXML. "GPU Requirements Guide for DeepSeek Models." 2025. https://apxml.com/posts/system-requirements-deepseek-models ↩
-
RiseUnion. "DeepSeek-V3/R1 671B Deployment Guide: GPU Requirements." 2025. https://www.theriseunion.com/blog/DeepSeek-V3-R1-671B-GPU-Requirements.html ↩
-
Shakudo. "Top 9 Large Language Models as of December 2025." Diciembre 2025. https://www.shakudo.io/blog/top-9-large-language-models ↩
-
Shakudo. "Top 9 Large Language Models as of December 2025." Diciembre 2025. ↩
-
All About AI. "2025 AI Model Benchmark Report." 2025. https://www.allaboutai.com/resources/ai-statistics/ai-models/ ↩
-
Introl. "Company Overview." Introl. 2025. https://introl.com ↩
-
Inc. "Inc. 5000 2025." Inc. Magazine. 2025. ↩
-
Introl. "Coverage Area." Introl. 2025. https://introl.com/coverage-area ↩