DeepSeek V3.2达到IMO金牌水平推理能力:中国AI匹敌前沿性能

DeepSeek于2025年12月1日发布V3.2和V3.2-Speciale。Speciale变体在IMO 2025基准问题上获得35/42分,以70%更低的推理成本达到Gemini 3 Pro的推理水平。

DeepSeek V3.2达到IMO金牌水平推理能力:中国AI匹敌前沿性能

DeepSeek V3.2达到IMO金牌水平推理能力:中国AI匹敌前沿性能

2025年12月11日

2025年12月更新: DeepSeek于2025年12月1日发布V3.2和V3.2-Speciale。Speciale变体在IMO 2025基准问题上获得35/42分,以70%更低的推理成本达到Gemini 3 Pro的推理水平。


DeepSeek于2025年12月1日发布了两款模型:DeepSeek-V3.2和DeepSeek-V3.2-Speciale。1 Speciale变体在IMO 2025基准问题上获得42分中的35分,达到金牌等效水平,展示了与世界顶级AI系统相匹配的数学推理能力。2

美国出口限制制约了DeepSeek获取尖端NVIDIA GPU的渠道。尽管存在这些限制,该公司继续生产能够与西方替代方案竞争或以显著更低成本超越它们的模型。3 此次发布验证了中国效率优先的AI开发方法。

技术规格

两款V3.2模型均具有6850亿总参数,采用MIT许可证开放权重。4 完整模型权重需要约690GB存储空间。运行模型需要:

  • 多GPU部署:8x H100 80GB GPU,采用张量并行
  • 量化推理:INT4量化将需求降至4x A100 80GB
  • 云API:DeepSeek提供托管推理,价格为$0.70/百万token

模型支持128,000 token上下文窗口,可在单个提示中分析冗长文档、代码库和研究论文。

V3.2-Speciale在工具使用中引入了集成推理。该模型支持工具调用的思考和非思考模式,使其能够在执行操作之前通过多步骤代理工作流进行推理。5 例如,在查询数据库时,Speciale可以在单个推理链中推理查询优化和结果解释,而不是需要多次API调用。

训练过程使用了覆盖1,800多个环境和85,000多条复杂指令的合成数据生成管道。6 合成数据减少了对昂贵人工标注的依赖,同时可以在难以有机收集的场景上进行训练。

基准测试性能

DeepSeek-V3.2-Speciale在多项竞赛基准测试中取得金牌级别成绩:7

基准测试 分数 背景
IMO 2025问题 35/42分 金牌门槛
中国数学奥林匹克 金牌级别 顶级表现类别
IOI 2025问题 492/600分 金牌,相当于第10名
Terminal Bench 2.0 46.4% 超越GPT-5-High (35.2%)

Terminal Bench 2.0结果衡量复杂的编码工作流,包括多文件重构、调试和测试生成。8 DeepSeek在实际软件工程任务上比GPT-5-High高出11个百分点。

注意:这些分数反映的是模仿官方竞赛风格的基准问题,而非2025年实际竞赛活动中的表现。

成本经济学

DeepSeek V3.2定价相比之前的V3.1-Terminus模型降低了70%:9

模型 输入Token 输出Token
DeepSeek V3.2 $0.14/M $0.70/M
V3.1-Terminus(之前) $0.48/M $2.40/M

作为对比,当前西方供应商定价:10

供应商 输入 输出
Claude Sonnet 4 $3.00/M $15.00/M
GPT-4.5 $2.50/M $10.00/M
Gemini 3 Pro $1.25/M $5.00/M
DeepSeek V3.2 $0.14/M $0.70/M

每月处理100亿输出token的组织使用DeepSeek年花费约700万美元,而使用西方替代方案则需要5000-1.5亿美元。11 对于代码生成和长文本内容等输出密集型工作负载,成本差距更大。

基础设施影响

DeepSeek在H800 GPU上训练V3.2,这是针对中国市场的变体,内存带宽降低(2.0TB/s vs H100的3.35TB/s)。12 这一成就表明软件优化可以弥补硬件限制。

关键效率技术:13

混合专家(MoE)架构: 尽管总共有6850亿参数,但每次推理请求仅激活370亿参数。MoE相比同等密集模型减少约30%的计算量。

多头潜在注意力(MLA): 压缩键值缓存需求,减少带宽受限的H800硬件上的内存带宽瓶颈。

FP8混合精度训练: 降低内存需求并加速Hopper架构GPU上的训练。

评估AI基础设施的组织应该认识到,DeepSeek的成功挑战了关于前沿能力计算需求的假设。对于许多工作负载,软件优化可能比单纯积累GPU提供更好的投资回报。14

企业部署

AWS、Azure和Google Cloud均提供DeepSeek模型部署,验证了企业级可靠性。15 超大规模云提供商的可用性消除了可能限制中国来源模型采用的部署障碍。

考虑DeepSeek部署的组织应评估:

  • 数据主权:模型权重是开放的,但API使用会将数据路由通过DeepSeek基础设施
  • 合规要求:某些受监管行业可能限制使用中国模型
  • 性能特征:DeepSeek在推理和编码方面表现出色,但在创意或细腻任务上可能表现不佳

竞争格局

V3.2发布比特朗普政府宣布放宽H200出口限制早一周。16 这一时机凸显了政策悖论:旨在减缓中国AI发展的出口管制可能通过迫使效率改进反而加速了创新。

中国开源模型从2024年底全球使用量的1.2%增长到2025年的近30%。17 这一转变既代表了技术成就,也对假设监管壁垒会保护竞争优势的美国公司造成了市场颠覆。

西方AI公司面临着匹配DeepSeek效率或通过卓越能力证明溢价的压力。2025年11月的发布集群(GPT-5.1、Claude Opus 4.5、Gemini 3 Pro、Grok 4.1)展示了持续的前沿进步,但成本点明显更高。18

Claude Opus 4.5以72.5%的SWE-bench性能领先编码基准,而Gemini 3 Pro达到了LMArena有史以来最高的1501 Elo分数。19 即使DeepSeek缩小了通用差距,西方模型在特定能力上仍保持优势。


关键要点

对于ML工程师: - V3.2-Speciale达到IMO金牌水平(基准问题35/42) - 6850亿参数,128K上下文,MIT许可开放权重 - 需要8x H100 80GB或在4x A100 80GB上进行量化部署

对于基础设施规划者: - 中国模型在出口受限硬件(H800)上展示前沿能力 - 软件优化(MoE、MLA、FP8)弥补硬件限制 - 考虑混合部署:西方模型用于最大能力,DeepSeek用于成本优化

对于战略规划: - 中国开源模型在2025年达到全球使用量的30% - 超大规模云提供商可用性(AWS、Azure、GCP)验证企业部署 - 出口管制可能加速而非阻止中国AI发展


参考文献


如需AI基础设施部署支持,请联系Introl


  1. DeepSeek API Docs. "DeepSeek-V3.2 Release Notes." 2025年12月1日。 

  2. UNU Campus Computing Centre. "Inside DeepSeek End-of-Year AI Breakthrough." 2025年12月。 

  3. Bloomberg. "DeepSeek Debuts New AI Models to Rival Google and OpenAI." 2025年12月1日。 

  4. Simon Willison. "DeepSeek-V3.2 Technical Analysis." 2025年12月1日。 

  5. DeepSeek API Docs. "V3.2 Tool Use with Thinking Mode." 2025年12月。 

  6. Semiconductor Engineering. "DeepSeek New AI Models: V3.2 and V3.2-Speciale." 2025年12月。 

  7. WinBuzzer. "New DeepSeek V3.2 Speciale Model Claims Reasoning Parity with Gemini 3 Pro." 2025年12月1日。 

  8. VentureBeat. "DeepSeek drops two AI models that rival GPT-5 on coding benchmarks." 2025年12月。 

  9. DeepSeek API Docs. "Pricing: V3.2 vs V3.1-Terminus." 2025年12月。 

  10. Artificial Analysis. "LLM Pricing Comparison December 2025." 2025年12月。 

  11. Sebastian Raschka. "A Technical Tour of the DeepSeek Models from V3 to V3.2." 2025年12月。 

  12. DEV Community. "DeepSeek-V3.2 Complete Technical Analysis." 2025年12月。 

  13. DeepSeek. "V3.2 Technical Report: Architecture and Training." 2025年12月。 

  14. CSIS. "Chinese AI Efficiency and Infrastructure Economics." 2025年12月。 

  15. AWS, Azure, Google Cloud. "DeepSeek Model Availability." 2025年12月。 

  16. Semafor. "Trump allows H200 exports to China with 25% surcharge." 2025年12月8日。 

  17. Stanford HAI. "2025 AI Index Report." 2025年。 

  18. Shakudo. "Top 9 Large Language Models as of December 2025." 2025年12月。 

  19. OverChat. "Best AI Models 2025: Claude, Gemini, GPT Compared." 2025年12月。 

Request a Quote_

Tell us about your project and we'll respond within 72 hours.

> TRANSMISSION_COMPLETE

Request Received_

Thank you for your inquiry. Our team will review your request and respond within 72 hours.

QUEUED FOR PROCESSING