نماذج الذكاء الاصطناعي مفتوحة المصدر تسد الفجوة: DeepSeek وQwen3 وLlama 4 تضاهي الآن GPT-5

انكمشت فجوة الأداء بين نماذج الذكاء الاصطناعي المفتوحة والمغلقة إلى 0.3%. إليك ما يعنيه ذلك للبنية التحتية للذكاء الاصطناعي في المؤسسات.

نماذج الذكاء الاصطناعي مفتوحة المصدر تسد الفجوة: DeepSeek وQwen3 وLlama 4 تضاهي الآن GPT-5

نماذج الذكاء الاصطناعي مفتوحة المصدر تسد الفجوة: DeepSeek وQwen3 وLlama 4 تضاهي الآن GPT-5

ملخص

انهارت فجوة الأداء بين نماذج الذكاء الاصطناعي مفتوحة المصدر والمملوكة من 17.5 نقطة مئوية إلى 0.3% فقط على المعايير الرئيسية في عام 2025. أصبحت DeepSeek V3.2 وQwen3-235B وLlama 4 Scout الآن تنافس GPT-5.2 وClaude Opus 4.5 بجزء بسيط من التكلفة — مع إمكانية الاستضافة الذاتية الكاملة. بالنسبة للمؤسسات التي توازن بين الاعتماد على واجهات برمجة التطبيقات والاستثمار في البنية التحتية، تغيرت المعادلة بشكل جذري.


ماذا حدث

يمثل ديسمبر 2025 نقطة تحول في مشهد نماذج الذكاء الاصطناعي. حققت نماذج اللغات الكبيرة مفتوحة المصدر تكافؤاً شبه كامل مع أقوى الأنظمة المملوكة، منهيةً فترة استمرت سنوات من هيمنة النماذج المغلقة.

الأرقام تتحدث عن نفسها. يُظهر تحليل 94 نموذج لغوي كبير رائد أن النماذج مفتوحة المصدر أصبحت الآن على بُعد 0.3 نقطة مئوية فقط من الأنظمة المملوكة على معيار MMLU — مقارنة بفجوة 17.5 نقطة قبل عام واحد فقط. على Chatbot Arena، وهو تصنيف التفضيل البشري المدعوم بأكثر من 5 ملايين صوت من المستخدمين، قلّصت نماذج الأوزان المفتوحة الفجوة من 8% إلى 1.7% بين يناير 2024 وفبراير 2025. وهذه الفجوة تستمر في التقلص.

تقود ثلاث عائلات من النماذج موجة المصادر المفتوحة:

DeepSeek V3.2 أُطلق في 1 ديسمبر 2025، محققاً تكافؤاً مع GPT-5 عبر معايير استدلال متعددة. تُفعّل بنية خليط الخبراء للمختبر الصيني 37 مليار فقط من معاملاته البالغة 671 مليار لكل رمز، مما يتيح أداءً متقدماً بتكاليف سلعية.

Qwen3-235B-A22B من Alibaba يُطابق أو يتفوق على GPT-4o في معظم المعايير العامة مع تفعيل 22 مليار فقط من معاملاته البالغة 235 مليار. حقق تحديث التفكير لشهر يوليو 2025 نتائج متطورة بين نماذج الاستدلال مفتوحة المصدر.

Llama 4 Scout من Meta يوفر نافذة سياق تبلغ 10 ملايين رمز — كافية لمعالجة 7,500 صفحة في جلسة واحدة — بينما يعمل على وحدة H100 واحدة مع تكميم INT4.

تمثل النماذج مفتوحة المصدر الآن 62.8% من السوق من حيث عدد النماذج. حدث التحول بسرعة. قبل عامين، كانت النماذج المملوكة مهيمنة.


لماذا هذا مهم

بالنسبة للمؤسسات التي تبني بنية تحتية للذكاء الاصطناعي، يُعيد هذا التقارب تشكيل حسابات البناء مقابل الشراء.

انعكست ديناميكيات التكلفة. تبلغ تكلفة DeepSeek V3.2 0.26 دولار لكل مليون رمز إدخال — أرخص بنحو 10 مرات من GPT-5.2 Pro. يقدم Mistral Medium 3 90% من أداء Claude Sonnet 3.7 بسعر 0.40 دولار لكل مليون رمز، أرخص 8 مرات من GPT-4. تُبلغ المؤسسات عن عائد استثمار أعلى بنسبة 25% مع مناهج المصادر المفتوحة مقارنة باستراتيجيات الملكية الحصرية.

يصبح التحكم في البيانات ممكناً. تحتفظ الاستضافة الذاتية بالمعلومات الحساسة بالكامل داخل البنية التحتية للمؤسسة. يمكن لشركات الرعاية الصحية تشغيل استعلامات بيانات المرضى محلياً دون مخاطر انتهاك HIPAA من النقل الخارجي. تحتفظ المؤسسات المالية بالسيطرة الكاملة على خوارزميات التداول وبيانات العملاء.

تتوسع مرونة النشر. يعمل Mistral Medium 3 على أقل من أربع وحدات GPU. يتسع Llama 4 Scout على H100 واحدة. يمكن نشر هذه النماذج في بيئات هجينة أو مراكز بيانات محلية أو مواقع طرفية — وهو أمر مستحيل مع خدمات API المملوكة فقط.

يتلاشى الارتباط بالمورد. لا تصبح النماذج المستضافة ذاتياً قديمة عندما يتوقف المزودون عن الإصدارات القديمة. تتحكم المؤسسات في جداول الترقية الخاصة بها، وتحافظ على اتساق النموذج، وتتجنب تقلبات التسعير القائمة على الاستخدام التي جعلت أسواق PPA تميل بشكل متزايد لصالح البائعين.


التفاصيل التقنية

مواصفات النماذج

النموذج المعاملات الإجمالية المعاملات النشطة السياق تكلفة الإدخال/م تكلفة الإخراج/م
DeepSeek V3.2 671B 37B 128K $0.26 $0.39
Qwen3-235B 235B 22B 256K $0.20 $1.20
Llama 4 Scout 109B 17B 10M $0.08 $0.30
Mistral Medium 3 131K $0.40 $2.00
Mistral Large 3 675B 41B 256K

أداء المعايير

البرمجة: يُظهر DeepSeek V3.2 كفاءة استثنائية في مهام الوكلاء طويلة الذيل، مدمجاً التفكير مباشرة في استخدام الأدوات. يحقق Qwen3-235B 74.8 على LiveCodeBench v6. وصل Llama 4 Scout إلى 38.1% على LiveCodeBench، متفوقاً على 32.3% لـ GPT-4o.

الاستدلال: يسجل Qwen3-235B 85.7 على AIME'24 و81.5 على AIME'25. في وضع التفكير، يصل إلى 92.3 على AIME25. يحقق DeepSeek V3.2-Speciale تكافؤاً مع Gemini-3.0-Pro وأداء الميدالية الذهبية في IOI 2025 ونهائي ICPC العالمي 2025 وIMO 2025 وCMO 2025.

السياق الطويل: تتيح نافذة السياق البالغة 10 ملايين رمز في Llama 4 Scout معالجة وثائق قانونية كاملة أو مجموعات أوراق بحثية أو مستودعات برمجيات في جلسات واحدة.

ابتكارات معمارية

يقدم DeepSeek V3.2 انتباه DeepSeek المتناثر (DSA)، محققاً انتباهاً متناثراً دقيق الحبيبات لتحسينات كبيرة في كفاءة السياق الطويل مع الحفاظ على جودة مخرجات النموذج.

وضع التفكير الهجين في DeepSeek V3.1 يتبدل بين استدلال سلسلة الأفكار والإجابات المباشرة عبر تغييرات قالب الدردشة — نموذج واحد يغطي حالات الاستخدام العامة والمكثفة في الاستدلال.

مجموعة Ministral من Mistral 3 تقدم تسعة نماذج كثيفة عبر 3B و8B و14B معامل، كل منها في متغيرات Base وInstruct وReasoning. نموذج الاستدلال 14B يصل إلى 85% على AIME 2025، يعمل على GPU واحدة.

متطلبات الاستضافة الذاتية

النموذج الحد الأدنى للأجهزة الموصى به
DeepSeek V3.2 8x H100 80GB 16x H100
Qwen3-235B 8x H100 80GB 8x H200
Llama 4 Scout 1x H100 (INT4) 2x H100
Mistral Medium 3 4x GPU 8x A100/H100
Ministral 3 14B 1x GPU استهلاكية 1x A100

أدوات مثل OpenLLM تتيح تشغيل أي نموذج مفتوح المصدر كنقاط نهاية API متوافقة مع OpenAI بأوامر بسيطة. Ray Serve وHugging Face TGI تُبسّط النشر على Kubernetes.


ماذا بعد

لا تظهر زخم المصادر المفتوحة أي علامات على التباطؤ. كفاءة تدريب DeepSeek — 180 ألف ساعة GPU H800 لكل تريليون رمز — تشير إلى استمرار التكرار السريع. أظهر تحديث التفكير لـ Qwen3 في يوليو 2025 أن تحسينات ما بعد التدريب تستمر في التوسع.

توقع في الربع الأول من 2026: - توسيع إضافي لنافذة السياق بما يتجاوز 10 ملايين رمز لـ Llama 4 Scout - قدرات وكالية محسنة مع نضوج استخدام الأدوات - نماذج أصغر وأكثر كفاءة تصل إلى الأداء المتقدم الحالي

بالنسبة للمؤسسات التي لا تزال تقيّم استراتيجيات API فقط، فإن نافذة الارتباط الملكي تنغلق. مع استخدام 89% من المؤسسات الآن للذكاء الاصطناعي مفتوح المصدر، تحول السؤال من "هل" إلى "أي نماذج وبأي سرعة".


منظور Introl

تتطلب الاستضافة الذاتية لنماذج مفتوحة المصدر من الفئة المتقدمة بنية تحتية كبيرة من وحدات GPU، وأنظمة تبريد فعالة، وخبرة تشغيلية. ينشر 550 مهندس ميداني متخصص في الحوسبة عالية الأداء في Introl ويصونون مجموعات المسرعات التي تتطلبها هذه النماذج. اعرف المزيد عن منطقة تغطيتنا.


تاريخ النشر: 18 ديسمبر 2025

Request a Quote_

Tell us about your project and we'll respond within 72 hours.

> TRANSMISSION_COMPLETE

Request Received_

Thank you for your inquiry. Our team will review your request and respond within 72 hours.

QUEUED FOR PROCESSING