كيف يغير DeepSeek وQwen اقتصاديات البنية التحتية للذكاء الاصطناعي
آخر تحديث: 11 ديسمبر 2025
تحديث ديسمبر 2025: تم تدريب DeepSeek R1 بتكلفة 5.6 مليون دولار باستخدام 2,000 وحدة NVIDIA H800 GPU مقارنة بـ 80-100 مليون دولار و16,000 وحدة H100 للنماذج الغربية المماثلة. نمت النماذج الصينية مفتوحة المصدر من 1.2% إلى ما يقارب 30% من الاستخدام العالمي في 2025. تقدم AWS وAzure وGoogle Cloud الآن خدمات نشر DeepSeek. تختبر أو تنشر HSBC وStandard Chartered وأرامكو السعودية نماذج DeepSeek. تكلفة Qwen 2.5-Max هي 0.38 دولار لكل مليون رمز مقارنة ببدائل غربية أعلى بكثير.
تدّعي DeepSeek أنها درّبت نموذج R1 الخاص بها بتكلفة 5.6 مليون دولار فقط باستخدام 2,000 وحدة NVIDIA H800 GPU.¹ بينما تطلبت النماذج الغربية المماثلة ما بين 80 إلى 100 مليون دولار و16,000 وحدة H100 GPU.² أحدث الإطلاق في يناير 2025، الذي جاء قبل يوم واحد من إعلان OpenAI عن مشروع Stargate بقيمة 500 مليار دولار، خسارة غير مسبوقة في القيمة السوقية لشركة NVIDIA بلغت 589 مليار دولار في يوم واحد.³ انتقلت النماذج الصينية للذكاء الاصطناعي من مجرد فضول إقليمي إلى تحدٍّ عالمي للبنية التحتية في إطلاق منتج واحد.
يستحق ادعاء الكفاءة الفحص الدقيق. نمت النماذج الصينية مفتوحة المصدر من 1.2% من الاستخدام العالمي في أواخر 2024 إلى ما يقارب 30% في 2025.⁴ تفيد Alibaba بوجود أكثر من 170,000 نموذج مشتق مبني على Qwen.⁵ تختبر أو تنشر HSBC وStandard Chartered وأرامكو السعودية الآن نماذج DeepSeek.⁶ تقدم Amazon Web Services وMicrosoft Azure وGoogle Cloud خدمات نشر DeepSeek لعملائها.⁷ قد تتحول اقتصاديات البنية التحتية التي كانت تفضل الإنفاق الرأسمالي الضخم نحو مقاربات تركز على الكفاءة أولاً، مما يغير كيفية تخطيط المؤسسات لاستثماراتها في الذكاء الاصطناعي.
اختراق DeepSeek في الكفاءة
أعادت DeepSeek، وهي شركة مقرها هانغتشو تضم أقل من 200 موظف ومدعومة من صندوق High-Flyer الكمي (بأصول تحت الإدارة تبلغ 8 مليارات دولار)، التفكير في كيفية تدريب النماذج.⁸ بدلاً من الاعتماد على بنية تحتية كثيفة الحوسبة، تستفيد نماذجها من التعلم المعزز وبنيات Mixture-of-Experts لتحسين الأداء مع تقليل المتطلبات الحسابية.⁹
تمثل بنية MoE الجوهر التقني لمكاسب الكفاءة. بدلاً من تفعيل جميع المعلمات لكل طلب استدلال، تفعّل نماذج MoE فقط شبكات الخبراء ذات الصلة. يقلل هذا النهج من التكاليف الحسابية بنسبة تصل إلى 30% مقارنة بالنماذج الكثيفة التقليدية مع الحفاظ على الأداء أو تجاوزه.¹⁰ أثبتت DeepSeek أن التصميم المشترك الفعال للبرمجيات والأجهزة يتيح تدريب النماذج الكبيرة بكفاءة من حيث التكلفة، مما يوازن الفرص للفرق الأصغر.
أثارت قيود التصدير الأمريكية موجة من الابتكار عبر قطاع الذكاء الاصطناعي في الصين.¹¹ محرومين من الوصول إلى أحدث وحدات GPU من NVIDIA، طور الباحثون الصينيون تقنيات لتحقيق نتائج تنافسية بالأجهزة المتاحة. تحول القيد إلى محفز. أذهلت DeepSeek المراقبين العالميين بنموذج ينافس قدرات GPT-4 بجزء بسيط من التكلفة والحوسبة.
تمتد تداعيات البنية التحتية إلى ما هو أبعد من تكاليف التدريب. إذا اتبعت تكاليف الاستدلال منحنيات كفاءة مماثلة، فقد يخفض مزودو الخدمات السحابية الإنفاق الرأسمالي من 80-100 مليار دولار سنوياً إلى 65-85 مليار دولار لكل مزود خدمة سحابية.¹² سيؤثر هذا الانخفاض على الجميع من مصنعي الرقائق إلى مشغلي مراكز البيانات إلى مزودي الطاقة.
Qwen ومنظومة النماذج الصينية
تقدم نماذج Qwen من Alibaba كفاءة تترجم مباشرة إلى اقتصاديات المؤسسات. تكلفة Qwen 2.5-Max حوالي 0.38 دولار لكل مليون رمز، وهي أرخص بكثير من النماذج الغربية المنافسة مع مطابقة أو تجاوز الأداء في عدة معايير.¹³ بالنسبة للمؤسسات التي تعالج مليارات الرموز شهرياً، يحدد فرق التكلفة الربحية.
صرح Brian Chesky الرئيس التنفيذي لشركة Airbnb أن الشركة تفضل Qwen من Alibaba لأنه "سريع ورخيص".¹⁴ اختارت وزارة الاقتصاد اليابانية Qwen على البدائل الأمريكية لتطبيقات معينة.¹⁵ شراكة LVMH مع Alibaba للاستفادة من Qwen وModel Studio لعمليات البيع بالتجزئة الرقمية في الصين.¹⁶ يمتد التبني إلى ما هو أبعد من الشركات الناشئة الحريصة على التكلفة ليشمل مؤسسات كبرى ذات ميزانيات ذكاء اصطناعي كبيرة.
يمثل Qwen 3 واحدة من أشمل عائلات النماذج مفتوحة المصدر التي أُطلقت في 2025. تمتد التشكيلة من 0.5 مليار إلى 110 مليار معلمة، بما في ذلك النماذج الكثيفة والمتناثرة.¹⁷ يتيح النهج التشغيلي المزدوج من خلال وضعي "التفكير" و"عدم التفكير" التبديل الديناميكي بناءً على تعقيد المهمة، مما يخصص الحوسبة حيث تهم ويحافظ على الموارد في غير ذلك.
تضع Baichuan نفسها كالنموذج الصيني الأول للتطبيقات المتخصصة. مبني مع التركيز على القانون والمالية والطب والأدب الصيني الكلاسيكي، يقدم أداءً في المهام ذات الدقة اللغوية والثقافية.¹⁸ من خلال ترميز الموضع ALiBi، يدعم Baichuan التعامل مع السياق الأطول مع استدلال فعال. تضمن المتغيرات المُكمّمة في int8 وint4 النشر على وحدات GPU منخفضة التكلفة من فئة المستهلك.¹⁹
التأثير على استثمارات البنية التحتية الغربية
كشفت ردود فعل وول ستريت عن حالة عدم يقين حقيقية. حذرت Jefferies من أن نهج DeepSeek "يثقب بعض نشوة الإنفاق الرأسمالي" بعد التزامات الإنفاق من Meta وMicrosoft التي تجاوزت 60 مليار دولار لكل منهما.²⁰ اقترح Goldman Sachs أن هذا التطور قد يعيد تشكيل المنافسة من خلال خفض حواجز الدخول.²¹ انخفض مؤشر Nasdaq المركب بنسبة 3.1% بينما انخفض S&P 500 بنسبة 1.5%.²²
يستحضر السيناريو المتفائل مفارقة جيفونز: تؤدي تحسينات الكفاءة إلى استدلال أرخص، مما يحفز اعتماداً أكبر للذكاء الاصطناعي يؤدي في النهاية إلى طلب أعلى على البنية التحتية.²³ تتيح التكاليف المنخفضة تطبيقات كانت غير اقتصادية سابقاً. المزيد من التطبيقات يعني المزيد من الاستدلال. المزيد من الاستدلال يعني في النهاية المزيد من الأجهزة، لكن بنشر أكثر كفاءة.
يشير السيناريو المعتدل إلى أن تكاليف تدريب الذكاء الاصطناعي ستظل مستقرة بينما ينخفض الإنفاق على البنية التحتية للاستدلال بنسبة 30-50%.²⁴ سيخفض مزودو الخدمات السحابية الإنفاق الرأسمالي مع التقاط أحمال عمل ذكاء اصطناعي مماثلة أو أكبر. ستتدفق مكاسب الكفاءة إلى المستخدمين كأسعار أقل بدلاً من مزودي البنية التحتية كهوامش.
قد يؤثر التباطؤ في الإنفاق على البنية التحتية للذكاء الاصطناعي مؤقتاً على صانعي الرقائق ومزودي الأجهزة.²⁵ ومع ذلك، قد تؤدي مكاسب الكفاءة من تحسينات النماذج وخفض التكاليف إلى اعتماد أكبر للذكاء الاصطناعي على المدى الطويل، مما يدفع في النهاية طلباً أعلى على أجهزة الذكاء الاصطناعي. التوقيت مهم: الألم قصير المدى قد يسبق المكاسب طويلة المدى.
التداعيات الاستراتيجية لتخطيط البنية التحتية
يبدو أن الصناعة تتحول بعيداً عن تدريب نماذج اللغة الكبيرة الضخمة لحالات الاستخدام العامة.²⁶ تحل النماذج الأصغر المضبوطة والمخصصة لحالات استخدام محددة بشكل متزايد محل نماذج الحدود العامة الغرض لكثير من التطبيقات. يفضل هذا التحول الاستدلال الفعال على نطاق واسع على عمليات التدريب الضخمة.
يسلط ظهور DeepSeek الضوء على تحول متزايد على مستوى الصناعة من التوسع بالقوة الغاشمة نحو التحسين الذكي.²⁷ يواجه اللاعبون الراسخون بما في ذلك OpenAI وGoogle ضغطاً لاستكشاف تحسينات الكفاءة مع توسع اعتماد الذكاء الاصطناعي عالمياً. يفيد الضغط التنافسي المستخدمين بينما قد يقلل هوامش مزودي البنية التحتية.
يجب على المؤسسات التي تخطط للبنية التحتية للذكاء الاصطناعي مراعاة اتجاهات الكفاءة. تتحدى النماذج التي تؤدي بشكل مماثل بتكلفة حوسبة أقل الافتراضات حول متطلبات السعة. قد يتسع الفرق بين البنية التحتية للتدريب (التي لا تزال كثيفة الحوسبة) والبنية التحتية للاستدلال (الأكثر كفاءة بشكل متزايد). قد يترك البناء الزائد لسعة الاستدلال بناءً على أنماط الاستخدام الحالية المؤسسات بسعة فائضة مع تحسن الكفاءة.
تخلق النماذج الصينية أيضاً قرارات نشر. يمكن للعديد من المؤسسات الآن الوصول إلى قدرات الذكاء الاصطناعي الصينية من خلال مزودي الخدمات السحابية الغربية، مما يجمع بين البنية التحتية المألوفة والنماذج الفعالة. تؤثر مخاوف السيادة والمتطلبات التنظيمية والاعتبارات التنافسية جميعها في ما إذا كان يجب تبني النماذج الصينية على الرغم من مزايا كفاءتها.
يواجه اقتصاد البنية التحتية للذكاء الاصطناعي الذي بدا مستقراً في 2024، حيث حدد حجم الحوسبة القدرة، الآن أسئلة جوهرية. أثبتت DeepSeek أن الهندسة الذكية يمكن أن تحل محل الحوسبة الخام. أظهرت Qwen أن الكفاءة مفتوحة المصدر يمكن أن تنافس الحجم الخاص. يجب على المؤسسات التي بنت استراتيجية الذكاء الاصطناعي حول سعة الحوسبة غير المحدودة الآن مراعاة البدائل التي تركز على الكفاءة أولاً والتي تتحدى افتراضاتها حول ما تتطلبه البنية التحتية للذكاء الاصطناعي.
النقاط الرئيسية
لاستراتيجيي البنية التحتية: - درّبت DeepSeek نموذج R1 بتكلفة 5.6 مليون دولار مع 2,000 وحدة H800 GPU مقابل 80-100 مليون دولار و16,000 وحدة H100 للنماذج الغربية المماثلة - تقلل بنية MoE التكاليف الحسابية بنسبة 30% مقابل النماذج الكثيفة؛ تتدفق مكاسب الكفاءة من التصميم المشترك للبرمجيات والأجهزة - نمت النماذج الصينية مفتوحة المصدر من 1.2% إلى 30% من الاستخدام العالمي في 2025؛ تفيد Alibaba بأكثر من 170,000 نموذج مشتق من Qwen
لفرق الذكاء الاصطناعي المؤسسية: - تكلفة Qwen 2.5-Max حوالي 0.38 دولار/مليون رمز—أرخص بكثير من البدائل الغربية بأداء مماثل - يشير الرئيس التنفيذي لـ Airbnb إلى تفضيل Qwen من Alibaba لأنه "سريع ورخيص"؛ اختارت وزارة الاقتصاد اليابانية Qwen على البدائل الأمريكية - تقدم AWS وAzure وGCP الآن خدمات نشر DeepSeek؛ يمتد التبني المؤسسي ليشمل HSBC وStandard Chartered وأرامكو السعودية
للتخطيط المالي: - إذا اتبعت كفاءة الاستدلال أنماط التدريب، فقد يخفض مزودو الخدمات السحابية الإنفاق الرأسمالي من 80-100 مليار دولار إلى 65-85 مليار دولار سنوياً - خسرت NVIDIA 589 مليار دولار من قيمتها السوقية في يوم واحد بعد إعلان DeepSeek؛ انخفض Nasdaq بنسبة 3.1%، وS&P 500 بنسبة 1.5% - Jefferies: DeepSeek "يثقب نشوة الإنفاق الرأسمالي" بعد التزامات Meta وMicrosoft بأكثر من 60 مليار دولار لكل منهما
لمخططي السعة: - الصناعة تتحول من نماذج LLM العامة الضخمة إلى نماذج أصغر مضبوطة لحالات استخدام محددة - تظل البنية التحتية للتدريب كثيفة الحوسبة؛ البنية التحتية للاستدلال أكثر كفاءة بشكل متزايد—خطط بشكل مختلف - البناء الزائد لسعة الاستدلال بناءً على الأنماط الحالية يخاطر بأصول معطلة مع تحسن الكفاءة
للتخطيط الاستراتيجي: - أثارت قيود التصدير الابتكار؛ تحول القيد إلى محفز لابتكار الكفاءة - سيناريو مفارقة جيفونز: الكفاءة تتيح المزيد من التطبيقات، مما يدفع في النهاية طلباً أعلى على الأجهزة - يجب على المؤسسات مراعاة البدائل التي تركز على الكفاءة أولاً عند تخطيط متطلبات البنية التحتية
المراجع
-
Bain & Company. "DeepSeek: A Game Changer in AI Efficiency?" 2025. https://www.bain.com/insights/deepseek-a-game-changer-in-ai-efficiency/
-
Bain & Company. "DeepSeek: A Game Changer in AI Efficiency?"
-
TechCrunch. "DeepSeek 'punctures' AI leaders' spending plans, and what analysts are saying." January 27, 2025. https://techcrunch.com/2025/01/27/deepseek-punctures-tech-spending-plans-and-what-analysts-are-saying/
-
Gizmochina. "Why U.S. Startups Are Dumping Western AI for China's Open-Source Models." December 9, 2025. https://www.gizmochina.com/2025/12/09/why-u-s-startups-are-dumping-western-ai-for-chinas-open-source-models/
-
Intuition Labs. "An Overview of Chinese Open-Source LLMs (Sept 2025)." September 2025. https://intuitionlabs.ai/articles/chinese-open-source-llms-2025
-
iKangai. "The Enterprise AI Shift: How Chinese Models Are Challenging Silicon Valley's Dominance." 2025. https://www.ikangai.com/the-enterprise-ai-shift-how-chinese-models-are-challenging-silicon-valleys-dominance/
-
iKangai. "The Enterprise AI Shift."
-
Bain & Company. "DeepSeek: A Game Changer in AI Efficiency?"
-
IDC Blog. "DeepSeek's AI Innovation: A Shift in AI Model Efficiency and Cost Structure." January 31, 2025. https://blogs.idc.com/2025/01/31/deepseeks-ai-innovation-a-shift-in-ai-model-efficiency-and-cost-structure/
-
Gizmochina. "Why U.S. Startups Are Dumping Western AI for China's Open-Source Models."
-
World Economic Forum. "Why China's AI breakthroughs should come as no surprise." June 2025. https://www.weforum.org/stories/2025/06/china-ai-breakthroughs-no-surprise/
-
Bain & Company. "DeepSeek: A Game Changer in AI Efficiency?"
-
Gizmochina. "Why U.S. Startups Are Dumping Western AI for China's Open-Source Models."
-
Gizmochina. "Why U.S. Startups Are Dumping Western AI for China's Open-Source Models."