DeepSeek V3.2 يحقق مستوى الذهب في IMO: الذكاء الاصطناعي الصيني يضاهي أداء الصدارة
11 ديسمبر 2025
تحديث ديسمبر 2025: أطلقت DeepSeek نموذجي V3.2 وV3.2-Speciale في 1 ديسمبر 2025. حققت نسخة Speciale نتيجة 35/42 في مسائل معيار IMO 2025، مضاهية قدرات التفكير لـ Gemini 3 Pro بتكلفة استدلال أقل بنسبة 70%.
أطلقت DeepSeek نموذجين في 1 ديسمبر 2025: DeepSeek-V3.2 وDeepSeek-V3.2-Speciale.1 حققت نسخة Speciale 35 من 42 نقطة في مسائل معيار IMO 2025، محققة مكانة معادلة للميدالية الذهبية وإظهار قدرات التفكير الرياضي التي تضاهي أفضل أنظمة الذكاء الاصطناعي في العالم.2
تحد قيود التصدير الأمريكية من وصول DeepSeek إلى وحدات معالجة الرسومات NVIDIA المتطورة. على الرغم من هذه القيود، تستمر الشركة في إنتاج نماذج تنافس أو تتفوق على البدائل الغربية بتكاليف أقل بشكل كبير.3 يؤكد الإصدار صحة نهج الصين القائم على الكفاءة أولاً في تطوير الذكاء الاصطناعي.
المواصفات التقنية
يتميز كلا نموذجي V3.2 بـ 685 مليار معامل إجمالي مع أوزان مفتوحة بموجب ترخيص MIT.4 تتطلب أوزان النموذج الكاملة حوالي 690 جيجابايت من التخزين. يتطلب تشغيل النموذج إما:
- النشر متعدد GPU: 8x H100 80GB GPU مع توازي الموتر
- الاستدلال المُكمَّم: يقلل تكميم INT4 المتطلبات إلى 4x A100 80GB
- واجهات API السحابية: تقدم DeepSeek استدلالاً مستضافاً بسعر 0.70$ لكل مليون رمز
تدعم النماذج نوافذ سياق تصل إلى 128,000 رمز، مما يتيح تحليل المستندات الطويلة وقواعد الأكواد والأوراق البحثية في استفسارات فردية.
يقدم V3.2-Speciale التفكير المتكامل ضمن استخدام الأدوات. يدعم النموذج وضعي "التفكير" و"عدم التفكير" لاستدعاءات الأدوات، مما يسمح له بالتفكير عبر سير العمل الوكيلي متعدد الخطوات قبل تنفيذ الإجراءات.5 على سبيل المثال، عند الاستعلام من قاعدة بيانات، يمكن لـ Speciale التفكير في تحسين الاستعلام وتفسير النتائج ضمن سلسلة استدلال واحدة بدلاً من الحاجة إلى استدعاءات API متعددة.
استخدمت عملية التدريب خط أنابيب لتوليد البيانات الاصطناعية يغطي أكثر من 1,800 بيئة وأكثر من 85,000 تعليمات معقدة.6 تقلل البيانات الاصطناعية الاعتماد على التعليقات التوضيحية البشرية المكلفة مع تمكين التدريب على سيناريوهات يصعب جمعها عضوياً.
أداء المعايير
حقق DeepSeek-V3.2-Speciale نتائج بمستوى ذهبي عبر معايير مسابقات متعددة:7
| المعيار | النتيجة | السياق |
|---|---|---|
| مسائل IMO 2025 | 35/42 نقطة | عتبة الميدالية الذهبية |
| أولمبياد الرياضيات الصيني | مستوى ذهبي | فئة الأداء الأعلى |
| مسائل IOI 2025 | 492/600 نقطة | ذهب، معادل للمرتبة 10 |
| Terminal Bench 2.0 | 46.4% | يتفوق على GPT-5-High (35.2%) |
تقيس نتيجة Terminal Bench 2.0 سير عمل البرمجة المعقدة بما في ذلك إعادة هيكلة الملفات المتعددة وتصحيح الأخطاء وتوليد الاختبارات.8 تفوق DeepSeek على GPT-5-High بـ 11 نقطة مئوية في مهام هندسة البرمجيات العملية.
ملاحظة: تعكس هذه النتائج مسائل معيارية على غرار المسابقات الرسمية، وليس الأداء في أحداث المسابقات الفعلية لعام 2025.
اقتصاديات التكلفة
تمثل أسعار DeepSeek V3.2 تخفيضاً بنسبة 70% من نموذج V3.1-Terminus السابق:9
| النموذج | رموز الإدخال | رموز الإخراج |
|---|---|---|
| DeepSeek V3.2 | 0.14$/M | 0.70$/M |
| V3.1-Terminus (السابق) | 0.48$/M | 2.40$/M |
للمقارنة، أسعار مقدمي الخدمات الغربيين الحاليين:10
| المزود | الإدخال | الإخراج |
|---|---|---|
| Claude Sonnet 4 | 3.00$/M | 15.00$/M |
| GPT-4.5 | 2.50$/M | 10.00$/M |
| Gemini 3 Pro | 1.25$/M | 5.00$/M |
| DeepSeek V3.2 | 0.14$/M | 0.70$/M |
المؤسسة التي تعالج 10 مليارات رمز إخراج شهرياً ستنفق حوالي 7 ملايين دولار سنوياً مع DeepSeek مقابل 50-150 مليون دولار مع البدائل الغربية.11 تتسع فجوة التكلفة لأحمال العمل كثيفة الإخراج مثل توليد الأكواد والمحتوى الطويل.
تداعيات البنية التحتية
دربت DeepSeek نموذج V3.2 على وحدات معالجة H800، وهي النسخة المخصصة للصين مع عرض نطاق ذاكرة مخفض (2.0TB/s مقابل 3.35TB/s لـ H100).12 يوضح هذا الإنجاز أن تحسين البرمجيات يمكن أن يعوض قيود الأجهزة.
تقنيات الكفاءة الرئيسية:13
بنية خليط الخبراء (MoE): يتم تفعيل 37 مليار معامل فقط لكل طلب استدلال على الرغم من 685 مليار معامل إجمالي. يقلل MoE الحوسبة بحوالي 30% مقارنة بالنماذج الكثيفة المكافئة.
الانتباه الكامن متعدد الرؤوس (MLA): يضغط متطلبات ذاكرة التخزين المؤقت للمفتاح والقيمة، مما يقلل اختناقات عرض نطاق الذاكرة على أجهزة H800 محدودة النطاق.
التدريب بدقة مختلطة FP8: يقلل متطلبات الذاكرة ويسرع التدريب على وحدات معالجة بنية Hopper.
يجب على المؤسسات التي تقيم البنية التحتية للذكاء الاصطناعي أن تدرك أن نجاح DeepSeek يتحدى الافتراضات حول متطلبات الحوسبة للقدرات المتقدمة. قد يوفر تحسين البرمجيات عائداً على الاستثمار أفضل من تراكم وحدات معالجة الرسومات الخام للعديد من أحمال العمل.14
النشر المؤسسي
تقدم AWS وAzure وGoogle Cloud جميعها نشر نماذج DeepSeek، مما يؤكد الموثوقية على مستوى المؤسسات.15 يزيل توفر مقدمي الخدمات السحابية الفائقة احتكاك النشر الذي قد يحد من اعتماد النماذج ذات الأصل الصيني.
يجب على المؤسسات التي تفكر في نشر DeepSeek تقييم:
- سيادة البيانات: أوزان النموذج مفتوحة، لكن استخدام API يوجه البيانات عبر بنية DeepSeek التحتية
- متطلبات الامتثال: قد تقيد بعض الصناعات المنظمة استخدام النماذج الصينية
- خصائص الأداء: يتفوق DeepSeek في التفكير والبرمجة لكن قد يكون أداؤه أقل في المهام الإبداعية أو الدقيقة
المشهد التنافسي
جاء إصدار V3.2 قبل أسبوع من إعلان إدارة ترامب عن تخفيف قيود تصدير H200.16 يؤكد التوقيت على المفارقة السياسية: ضوابط التصدير المقصود بها إبطاء تطوير الذكاء الاصطناعي الصيني ربما سرعت الابتكار من خلال فرض تحسينات الكفاءة.
نمت النماذج الصينية مفتوحة المصدر من 1.2% من الاستخدام العالمي في أواخر 2024 إلى ما يقرب من 30% في 2025.17 يمثل هذا التحول إنجازاً تقنياً وتعطيلاً للسوق للشركات الأمريكية التي افترضت أن الحواجز التنظيمية ستحمي المزايا التنافسية.
تواجه شركات الذكاء الاصطناعي الغربية ضغطاً لمطابقة كفاءة DeepSeek أو تبرير الأسعار المميزة من خلال قدرات متفوقة. أظهرت مجموعة إصدارات نوفمبر 2025 (GPT-5.1، Claude Opus 4.5، Gemini 3 Pro، Grok 4.1) تقدماً مستمراً في الصدارة ولكن بنقاط سعر أعلى بشكل كبير.18
يتصدر Claude Opus 4.5 معايير البرمجة بأداء 72.5% على SWE-bench، بينما حقق Gemini 3 Pro أعلى نتيجة Elo في LMArena على الإطلاق بـ 1501.19 تحافظ النماذج الغربية على مزايا في قدرات محددة حتى مع تضييق DeepSeek للفجوة العامة.
النقاط الرئيسية
لمهندسي التعلم الآلي: - V3.2-Speciale يحقق مستوى ذهب IMO (35/42 في مسائل المعايير) - 685 مليار معامل، سياق 128K، أوزان مفتوحة بترخيص MIT - يتطلب 8x H100 80GB أو نشر مُكمَّم على 4x A100 80GB
لمخططي البنية التحتية: - النماذج الصينية تظهر قدرات الصدارة على أجهزة مقيدة التصدير (H800) - تحسين البرمجيات (MoE، MLA، FP8) يعوض قيود الأجهزة - فكر في عمليات النشر الهجينة: النماذج الغربية للقدرة القصوى، DeepSeek لتحسين التكلفة
للتخطيط الاستراتيجي: - النماذج الصينية مفتوحة المصدر وصلت إلى 30% من الاستخدام العالمي في 2025 - توفر مقدمي الخدمات السحابية الفائقة (AWS، Azure، GCP) يؤكد النشر المؤسسي - ضوابط التصدير ربما سرعت بدلاً من منع تقدم الذكاء الاصطناعي الصيني
المراجع
لدعم نشر البنية التحتية للذكاء الاصطناعي، تواصل مع Introl.
-
DeepSeek API Docs. "DeepSeek-V3.2 Release Notes." 1 ديسمبر 2025. ↩
-
UNU Campus Computing Centre. "Inside DeepSeek End-of-Year AI Breakthrough." ديسمبر 2025. ↩
-
Bloomberg. "DeepSeek Debuts New AI Models to Rival Google and OpenAI." 1 ديسمبر 2025. ↩
-
Simon Willison. "DeepSeek-V3.2 Technical Analysis." 1 ديسمبر 2025. ↩
-
DeepSeek API Docs. "V3.2 Tool Use with Thinking Mode." ديسمبر 2025. ↩
-
Semiconductor Engineering. "DeepSeek New AI Models: V3.2 and V3.2-Speciale." ديسمبر 2025. ↩
-
WinBuzzer. "New DeepSeek V3.2 Speciale Model Claims Reasoning Parity with Gemini 3 Pro." 1 ديسمبر 2025. ↩
-
VentureBeat. "DeepSeek drops two AI models that rival GPT-5 on coding benchmarks." ديسمبر 2025. ↩
-
DeepSeek API Docs. "Pricing: V3.2 vs V3.1-Terminus." ديسمبر 2025. ↩
-
Artificial Analysis. "LLM Pricing Comparison December 2025." ديسمبر 2025. ↩
-
Sebastian Raschka. "A Technical Tour of the DeepSeek Models from V3 to V3.2." ديسمبر 2025. ↩
-
DEV Community. "DeepSeek-V3.2 Complete Technical Analysis." ديسمبر 2025. ↩
-
DeepSeek. "V3.2 Technical Report: Architecture and Training." ديسمبر 2025. ↩
-
CSIS. "Chinese AI Efficiency and Infrastructure Economics." ديسمبر 2025. ↩
-
AWS, Azure, Google Cloud. "DeepSeek Model Availability." ديسمبر 2025. ↩
-
Semafor. "Trump allows H200 exports to China with 25% surcharge." 8 ديسمبر 2025. ↩
-
Stanford HAI. "2025 AI Index Report." 2025. ↩
-
Shakudo. "Top 9 Large Language Models as of December 2025." ديسمبر 2025. ↩
-
OverChat. "Best AI Models 2025: Claude, Gemini, GPT Compared." ديسمبر 2025. ↩