نماذج الذكاء الاصطناعي مفتوحة المصدر تُقلّص الفجوة: DeepSeek وQwen3 وLlama 4 تضاهي الآن GPT-5
الخلاصة
تقلّصت فجوة الأداء بين نماذج الذكاء الاصطناعي مفتوحة المصدر والنماذج الاحتكارية من 17.5 نقطة مئوية إلى 0.3% فقط على المعايير الرئيسية في عام 2025. أصبحت نماذج DeepSeek V3.2 وQwen3-235B وLlama 4 Scout تنافس الآن GPT-5.2 وClaude Opus 4.5 بجزء بسيط من التكلفة — مع إمكانية الاستضافة الذاتية الكاملة. بالنسبة للمؤسسات التي توازن بين الاعتماد على واجهات برمجة التطبيقات والاستثمار في البنية التحتية، تغيّرت المعادلة جذرياً.
ماذا حدث
يُمثّل ديسمبر 2025 نقطة تحوّل في مشهد نماذج الذكاء الاصطناعي. حققت النماذج اللغوية الكبيرة مفتوحة المصدر تكافؤاً شبه تام مع أقوى الأنظمة الاحتكارية، منهيةً بذلك فترة امتدت لسنوات من هيمنة النماذج المغلقة.
الأرقام تحكي القصة. يُظهر تحليل 94 نموذجاً لغوياً كبيراً رائداً أن النماذج مفتوحة المصدر أصبحت الآن ضمن 0.3 نقطة مئوية من الأنظمة الاحتكارية على معيار MMLU — انخفاضاً من فجوة قدرها 17.5 نقطة قبل عام واحد فقط. على منصة Chatbot Arena، وهي لوحة تصنيف تفضيلات المستخدمين المدعومة بأكثر من 5 ملايين صوت، تقلّصت الفجوة من 8% إلى 1.7% بين يناير 2024 وفبراير 2025. واستمرت هذه الفجوة في التقلّص.
تقود ثلاث عائلات من النماذج مسيرة المصادر المفتوحة:
أُطلق DeepSeek V3.2 في الأول من ديسمبر 2025، محققاً تكافؤاً مع GPT-5 عبر معايير استدلال متعددة. تُفعّل بنية Mixture-of-Experts من المختبر الصيني 37 مليار معامل فقط من أصل 671 مليار معامل لكل رمز، مما يُتيح أداءً متقدماً بتكاليف معقولة.
يُضاهي Qwen3-235B-A22B من Alibaba أداء GPT-4o أو يتفوق عليه في معظم المعايير العامة مع تفعيل 22 مليار معامل فقط من أصل 235 مليار. حقّق تحديث التفكير في يوليو 2025 نتائج رائدة بين نماذج الاستدلال مفتوحة المصدر.
يوفر Llama 4 Scout من Meta نافذة سياق بحجم 10 ملايين رمز — كافية لمعالجة 7,500 صفحة في جلسة واحدة — مع إمكانية التشغيل على وحدة H100 GPU واحدة باستخدام تكميم INT4.
تُمثّل النماذج مفتوحة المصدر الآن 62.8% من السوق من حيث عدد النماذج. حدث التحوّل بسرعة. قبل عامين، كانت النماذج الاحتكارية مهيمنة.
لماذا يُهم هذا الأمر
بالنسبة للمؤسسات التي تبني بنية تحتية للذكاء الاصطناعي، يُعيد هذا التقارب تشكيل حسابات البناء مقابل الشراء.
انقلبت ديناميكيات التكلفة. تبلغ تكلفة DeepSeek V3.2 0.26 دولار لكل مليون رمز مُدخل — أرخص بنحو 10 أضعاف من GPT-5.2 Pro. يُقدّم Mistral Medium 3 90% من أداء Claude Sonnet 3.7 بسعر 0.40 دولار لكل مليون رمز، أرخص بـ 8 أضعاف من GPT-4. تُبلّغ المؤسسات عن عائد استثمار أعلى بنسبة 25% مع مقاربات المصادر المفتوحة مقارنة باستراتيجيات النماذج الاحتكارية فقط.
أصبح التحكم في البيانات ممكناً. تُبقي الاستضافة الذاتية المعلومات الحساسة بالكامل ضمن البنية التحتية للمؤسسة. يمكن لشركات الرعاية الصحية تشغيل استعلامات بيانات المرضى محلياً دون مخاطر انتهاك قانون HIPAA الناتجة عن النقل الخارجي. تحافظ المؤسسات المالية على السيطرة الكاملة على خوارزميات التداول وبيانات العملاء.
توسّعت مرونة النشر. يعمل Mistral Medium 3 على أقل من أربع وحدات GPU. يتسع Llama 4 Scout في وحدة H100 واحدة. يمكن نشر هذه النماذج في بيئات هجينة أو مراكز بيانات محلية أو مواقع طرفية — وهو أمر مستحيل مع الخدمات الاحتكارية المعتمدة على واجهات برمجة التطبيقات فقط.
تلاشى الارتباط بالموردين. لا تصبح النماذج المُستضافة ذاتياً قديمة عندما يُوقف المزودون الإصدارات السابقة. تتحكم المؤسسات في جداول الترقية الخاصة بها، وتحافظ على اتساق النماذج، وتتجنب تقلبات التسعير القائم على الاستخدام التي جعلت أسواق اتفاقيات شراء الطاقة تميل بشكل متزايد لصالح البائعين.
التفاصيل التقنية
مواصفات النماذج
| النموذج | إجمالي المعاملات | المعاملات النشطة | السياق | تكلفة المُدخلات/مليون | تكلفة المُخرجات/مليون |
|---|---|---|---|---|---|
| DeepSeek V3.2 | 671B | 37B | 128K | $0.26 | $0.39 |
| Qwen3-235B | 235B | 22B | 256K | $0.20 | $1.20 |
| Llama 4 Scout | 109B | 17B | 10M | $0.08 | $0.30 |
| Mistral Medium 3 | — | — | 131K | $0.40 | $2.00 |
| Mistral Large 3 | 675B | 41B | 256K | — | — |
أداء المعايير
البرمجة: يُظهر DeepSeek V3.2 كفاءة استثنائية في مهام الوكلاء طويلة الذيل، مدمجاً التفكير مباشرة في استخدام الأدوات. يحقق Qwen3-235B 74.8 على LiveCodeBench v6. حقق Llama 4 Scout 38.1% على LiveCodeBench، متفوقاً على 32.3% لـ GPT-4o.
الاستدلال: يحقق Qwen3-235B 85.7 على AIME'24 و81.5 على AIME'25. في وضع التفكير، يصل إلى 92.3 على AIME25. يحقق DeepSeek V3.2-Speciale تكافؤاً مع Gemini-3.0-Pro وأداء الميدالية الذهبية في IOI 2025 وICPC World Final 2025 وIMO 2025 وCMO 2025.
السياق الطويل: تُتيح نافذة السياق البالغة 10 ملايين رمز في Llama 4 Scout معالجة مستندات قانونية كاملة أو مجموعات أوراق بحثية أو مستودعات برمجية في جلسات فردية.
ابتكارات البنية
يُقدّم DeepSeek V3.2 DeepSeek Sparse Attention (DSA)، محققاً انتباهاً متفرقاً دقيقاً لتحسينات كبيرة في كفاءة السياق الطويل مع الحفاظ على جودة مخرجات النموذج.
يُبدّل وضع التفكير الهجين في DeepSeek V3.1 بين الاستدلال التسلسلي والإجابات المباشرة عبر تغييرات في قالب المحادثة — نموذج واحد يُغطي حالات الاستخدام العامة وتلك التي تتطلب استدلالاً مكثفاً.
تُقدّم مجموعة Ministral من Mistral 3 تسعة نماذج كثيفة بأحجام 3B و8B و14B معامل، كل منها بمتغيرات Base وInstruct وReasoning. يصل نموذج الاستدلال بحجم 14B إلى 85% على AIME 2025، ويعمل على وحدة GPU واحدة.
متطلبات الاستضافة الذاتية
| النموذج | الحد الأدنى للعتاد | الموصى به |
|---|---|---|
| DeepSeek V3.2 | 8x H100 80GB | 16x H100 |
| Qwen3-235B | 8x H100 80GB | 8x H200 |
| Llama 4 Scout | 1x H100 (INT4) | 2x H100 |
| Mistral Medium 3 | 4x GPU | 8x A100/H100 |
| Ministral 3 14B | 1x GPU استهلاكية | 1x A100 |
تُتيح أدوات مثل OpenLLM تشغيل أي نموذج مفتوح المصدر كنقاط نهاية API متوافقة مع OpenAI بأوامر فردية. يُبسّط Ray Serve وHugging Face TGI النشر على Kubernetes.
ما التالي
لا تُظهر قوة دفع المصادر المفتوحة أي علامات على التباطؤ. تُشير كفاءة تدريب DeepSeek — 180 ألف ساعة H800 GPU لكل تريليون رمز — إلى استمرار التكرار السريع. أظهر تحديث التفكير في يوليو 2025 لـ Qwen3 أن تحسينات ما بعد التدريب تستمر في التوسع.
توقّعوا في الربع الأول من 2026: - مزيداً من توسيع نافذة السياق بما يتجاوز 10 ملايين رمز في Llama 4 Scout - تحسين قدرات الوكلاء مع نضوج استخدام الأدوات - نماذج أصغر وأكثر كفاءة تصل إلى أداء الحافة الحالية
بالنسبة للمؤسسات التي لا تزال تُقيّم استراتيجيات واجهات برمجة التطبيقات فقط، تضيق نافذة الارتباط الاحتكاري. مع استخدام 89% من المؤسسات الآن للذكاء الاصطناعي مفتوح المصدر، تحوّل السؤال من "هل" إلى "أي النماذج وبأي سرعة."
منظور Introl
تتطلب الاستضافة الذاتية لنماذج مفتوحة المصدر من الفئة الرائدة بنية تحتية كبيرة من وحدات GPU وأنظمة تبريد فعالة وخبرة تشغيلية. يقوم 550 مهندساً ميدانياً متخصصاً في الحوسبة عالية الأداء لدى Introl بنشر وصيانة مجموعات المسرّعات التي تتطلبها هذه النماذج. تعرّف على المزيد حول منطقة تغطيتنا.
تاريخ النشر: 18 ديسمبر 2025