OpenAI وNVIDIA تشكّلان تحالفاً للبنية التحتية بقيمة 100 مليار دولار لبناء مستقبل الذكاء الاصطناعي الحوسبي
تحديث 11 ديسمبر 2025
تمثّل المصافحة بين جينسن هوانغ وسام ألتمان أكثر من مجرد دبلوماسية بين الشركات. فقد أعلنت شركتاهما عن خطاب نوايا لبناء بنية تحتية للذكاء الاصطناعي بقدرة 10 جيجاواط—وهي قدرة حوسبية كافية لتقديم إمكانيات أكبر بمليار مرة من نظام DGX الوحيد الذي سلّمه هوانغ شخصياً إلى مكتب OpenAI قبل تسع سنوات.¹ تخطط NVIDIA لاستثمار ما يصل إلى 100 مليار دولار مع نشر OpenAI لهذه الأنظمة، وهو ما يصفه هوانغ بـ"أكبر مشروع للبنية التحتية للذكاء الاصطناعي في التاريخ".²
تحديث ديسمبر 2025: حتى أوائل ديسمبر، لا تزال الشراكة التاريخية في مرحلة خطاب النوايا. أكدت كوليت كريس، المديرة المالية لشركة NVIDIA، في مؤتمر UBS العالمي للتكنولوجيا أنه "لم نُتمم بعد اتفاقية نهائية".¹³ تستمر مشتريات OpenAI الحالية من وحدات GPU في التدفق عبر شركاء السحابة Microsoft وOracle بينما تتفاوض الشركتان على الشروط النهائية. وأكدت كريس أن العلاقة تظل "شراكة قوية جداً" حيث تعتبر OpenAI شركة NVIDIA "شريكها المفضل" للحوسبة—رغم أن الترتيب المباشر الموضح في سبتمبر لم يُرسَّم بعد.¹⁴
تأتي الشراكة في منعطف حاسم. تخدم OpenAI 700 مليون مستخدم نشط أسبوعياً يولّدون مجتمعين متطلبات حوسبية تفوق معظم مراكز الحوسبة الفائقة الوطنية.³ وفي الوقت نفسه، تَعِد منصة NVIDIA من الجيل القادم Vera Rubin بـ8 إكسافلوبس من أداء الذكاء الاصطناعي و100 تيرابايت من الذاكرة السريعة في حامل واحد—مواصفات تبدو كالخيال العلمي لكنها ستُشغّل أحمال العمل الإنتاجية بدءاً من أواخر 2026.⁴ يخلق التقاء ابتكارات OpenAI في النماذج مع اختراقات NVIDIA في العتاد مشروعاً للبنية التحتية يُعيد تشكيل نظرتنا لاقتصاديات الذكاء الاصطناعي.
عقد من الشراكة يصل إلى نقطة انعطاف
يُقرأ التعاون بين NVIDIA وOpenAI كقصة نشأة من وادي السيليكون. في عام 2016، سلّم هوانغ شخصياً أول حاسوب فائق DGX من NVIDIA إلى مقر OpenAI في سان فرانسيسكو، وهي لحظة خُلّدت في صور أصبحت أيقونية. يتأمل جريج بروكمان، رئيس OpenAI، تلك اللحظة قائلاً: "تمثّل الشراكة قدرة حوسبية أكبر بمليار مرة من ذلك الخادم الأولي".⁵
دفعت الشركتان الحدود معاً عبر قفزات تكنولوجية متعددة. شغّل عتاد NVIDIA تطور سلسلة GPT من OpenAI، من نماذج اللغة المبكرة إلى الظهور الانفجاري لـChatGPT. تطلّب كل جيل قدرة حوسبية أكبر بشكل أُسّي، مما دفع NVIDIA لتسريع دورات تطوير رقائقها بينما حسّنت OpenAI بنى النماذج لتعظيم كفاءة العتاد.
تُرسّم الاتفاقية الجديدة ما اشتبه به مراقبو الصناعة منذ زمن—الشركتان تحتاجان إلى بعضهما البعض. تحتاج OpenAI إلى موارد حوسبية ضخمة لتدريب أنظمة فائقة الذكاء، بينما تستفيد NVIDIA من ابتكارات OpenAI في النماذج التي تُبرز قدرات عتادها. ستقوم الشركتان بـ"تحسين خرائط طريقهما بشكل مشترك لنماذج OpenAI والبنية التحتية"، مما يُشير إلى تعاون تقني عميق يتجاوز ديناميكيات المشتري والمورد البسيطة.⁶
منصة Vera Rubin تُعيد تعريف حدود الحوسبة
تُمثّل منصة NVIDIA Vera Rubin NVL144 CPX قفزة جيلية في تصميم البنية التحتية للذكاء الاصطناعي. يدمج النظام 144 وحدة Rubin CPX GPU، و144 وحدة Rubin GPU، و36 وحدة Vera CPU في تكوين حامل واحد يُقدّم أداء ذكاء اصطناعي أعلى بـ7.5 مرة من أنظمة NVIDIA GB300 NVL72.⁷ الأرقام تُذهل حتى مهندسي البنية التحتية المخضرمين—1.7 بيتابايت في الثانية من عرض نطاق الذاكرة يُمكّن النماذج من معالجة سياقات بملايين الرموز دون تدهور في الأداء.
تُقدّم بنية Rubin CPX دوائر متخصصة مُحسَّنة لآليات الانتباه في نماذج اللغة وأحمال معالجة الفيديو. تتميز كل وحدة Rubin CPX بـ128 جيجابايت من ذاكرة GDDR7 على شريحة واحدة، بينما تُحقق المنصة أداء 50 بيتافلوبس في FP4—تحسن بمقدار 2.5 مرة مقارنة بـ20 بيتافلوبس في Blackwell.⁸ صمّمت NVIDIA هذه الأنظمة خصيصاً لأحمال الاستدلال التي ستُهيمن على اقتصاديات الذكاء الاصطناعي مع انتقال النماذج من البحث إلى الإنتاج.
تُمثّل Vera أول تصميم مُخصص لوحدة CPU من NVIDIA مبني على بنية نواة Olympus الخاصة بها. يَعِد المعالج ذو الـ88 نواة المبني على Arm بضعف أداء وحدة Grace CPU المستخدمة في أنظمة Blackwell الحالية.⁹ يُزيل التكامل المُحكم بين وحدات Vera CPU ووحدات Rubin GPU عبر نظام NVIDIA MGX الاختناقات التقليدية التي تُصيب بنى الحوسبة الموزعة.
اقتصاديات البنية التحتية تُحوّل نماذج أعمال الذكاء الاصطناعي
تكشف الهندسة المالية وراء الشراكة المقترحة كيف تطورت اقتصاديات البنية التحتية للذكاء الاصطناعي. إن التزام NVIDIA المُزمع باستثمار ما يصل إلى 100 مليار دولار تدريجياً مع نشر كل جيجاواط سيُنشئ نموذج تمويل مُبتكر يُوائم حوافز مزود العتاد مع نجاح العميل.¹⁰ إذا تم إتمامه، سيُتيح الترتيب لـOpenAI توسيع البنية التحتية دون نفقات رأسمالية ضخمة مُقدماً بينما تُشارك NVIDIA في خلق القيمة الذي يُمكّنه عتادها.
على نطاق واسع، تَعِد منصة Vera Rubin بـعائد على الاستثمار من 30 إلى 50 ضعفاً، مما قد يُترجم إلى 5 مليارات دولار من الإيرادات من استثمار رأسمالي بـ100 مليون دولار.¹¹ هذه الاقتصاديات تُغيّر جذرياً كيفية تقييم الشركات لقرارات البنية التحتية للذكاء الاصطناعي. تنخفض التكلفة لكل وحدة ذكاء—وهو مقياس تُؤكد عليه كلتا الشركتين—بشكل كبير عندما تُحقق الأنظمة نطاقاً واستخداماً كافيين.
يُشير هيكل الشراكة إلى أن كلتا الشركتين تعلّمتا من دورات الازدهار والانهيار في تعدين العملات المشفرة. بدلاً من بيع العتاد في طلب مُضارباتي، تربط NVIDIA استثمارها بالنشر والاستخدام الفعلي. تكسب OpenAI توسعاً متوقعاً في السعة متوافقاً مع نمو المستخدمين وجداول تطوير النماذج.
التداعيات الإقليمية تُعيد تشكيل جغرافيا مراكز البيانات
يتطلب نشر 10 جيجاواط سعة غير مسبوقة لمراكز البيانات ستُعيد تشكيل خرائط البنية التحتية العالمية. للسياق، 10 جيجاواط تُعادل تقريباً استهلاك الطاقة لـ10 ملايين منزل أو منطقة حضرية كبرى. إيجاد مواقع بطاقة متاحة وسعة تبريد واتصال شبكي على هذا النطاق يُقدّم تحديات هندسية تُنافس التحديات الحوسبية.
يخلق بناء البنية التحتية فرصاً لأسواق مراكز البيانات الإقليمية، خاصة في مناطق آسيا والمحيط الهادئ ذات الشبكات الكهربائية القوية ومزايا التبريد. تُموضع الدول ذات فائض الطاقة المتجددة والبيئات التنظيمية الملائمة نفسها لالتقاط أجزاء من هذا النشر. يُعطي الجدول الزمني للشراكة—أول الأنظمة تعمل في أواخر 2026—لمشغّلي مراكز البيانات والحكومات نافذة ضيقة لإعداد البنية التحتية.
تُصبح خبرة النشر الاحترافية حاسمة على هذا النطاق. الفرق بين المواصفات النظرية والأداء التشغيلي غالباً ما يعود إلى كفاءة التبريد وتوزيع الطاقة وتحسين الترابط. شركات مثل Introl، بخبرتها في نشر مجموعات GPU الضخمة عبر مناطق جغرافية متنوعة، تفهم الفروق الدقيقة التي تُحدد ما إذا كانت هذه الأنظمة ستُقدّم الأداء الموعود.
المنافسة تتسارع لكن نموذج الشراكة يبرز كمُهيمن
يُشير تحالف OpenAI-NVIDIA إلى تحول أوسع في الصناعة نحو شراكات عميقة بين مطوري النماذج ومزودي العتاد. يُمثّل تعاون Anthropic مع Amazon Web Services وتطوير Google الداخلي لـTPUs اختلافات على نفس الموضوع—التقدم في الذكاء الاصطناعي يتطلب تنسيقاً غير مسبوق بين ابتكار البرمجيات والعتاد.
يُضيف موقع Microsoft تعقيداً للمشهد. بصفتها أكبر مستثمر في OpenAI وشريكها السحابي، يجب على Microsoft موازنة استثماراتها في بنية Azure التحتية مع علاقة OpenAI المباشرة مع NVIDIA. تُؤطّر الشركات جهودها على أنها متكاملة، لكن قرارات تخصيص الموارد ستختبر هذا السرد مع انفجار المتطلبات الحوسبية.
تتضح مزايا نموذج الشراكة عند فحص البدائل. بناء سيليكون مُخصص يتطلب سنوات من التطوير ومليارات في الاستثمار مع نتائج غير مؤكدة. الاعتماد فقط على مزودي السحابة يُدخل تراكم هوامش يجعل التدريب واسع النطاق تحدياً اقتصادياً. التعاون المباشر بين OpenAI وNVIDIA يُزيل تكاليف الوسطاء مع تسريع دورات الابتكار.
الجدول الزمني يكشف جدول نشر طموحاً لكنه قابل للتحقيق
يأتي أول جيجاواط من الأنظمة عبر الإنترنت في النصف الثاني من 2026، بالتزامن مع توفر NVIDIA Rubin CPX.¹² يتطلب الجدول الزمني الطموح تنفيذاً متوازياً عبر مسارات عمل متعددة—تصنيع الرقائق، وبناء مراكز البيانات، ونشر البنية التحتية للطاقة، وتحسين البرمجيات. يُقدّم كل عنصر اختناقات محتملة قد تُؤخر رؤية الـ10 جيجاواط الأوسع.
يجب على شركاء تصنيع NVIDIA، بشكل أساسي TSMC، تخصيص سعة كبيرة لإنتاج Rubin. تُضيف تقنيات التغليف المتقدمة المطلوبة لـRubin CPX تعقيداً يتجاوز تصنيع GPU التقليدي. يُصبح تنويع سلسلة التوريد حاسماً لتجنب نقاط الفشل الفردية التي قد تُعرقل جداول النشر.
تتوافق نافذة النشر 2026-2030 مع عدة تحولات تكنولوجية. يتسارع تحديث البنية التحتية للطاقة، خاصة في تكامل الطاقة المتجددة، لتلبية متطلبات مراكز البيانات. تنضج تقنيات الترابط الضوئي للتعامل مع متطلبات عرض النطاق المتزايدة. تُصبح ابتكارات التبريد، من التبريد السائل المباشر إلى أنظمة الغمر، معيارية بدلاً من تجريبية.
التحديات الهندسية تتطلب ابتكاراً عبر المجموعة الكاملة
يُبرز نشر 10 جيجاواط من البنية التحتية للذكاء الاصطناعي تحديات هندسية تدفع التقنيات الحالية إلى حدودها. يتطلب توصيل الطاقة على هذا النطاق التنسيق مع شركات المرافق وربما سعة توليد مُخصصة. حامل Vera Rubin واحد يستهلك ميجاواط من الطاقة يُولّد حرارة لا يستطيع التبريد الهوائي التقليدي تبديدها بكفاءة.
يجب أن تتطور بنية الشبكة لدعم توازي النموذج عبر آلاف وحدات GPU. يعني عرض نطاق الذاكرة البالغ 1.7 بيتابايت في الثانية داخل حامل Vera Rubin أن الشبكات الخارجية تُصبح الاختناق الأساسي للتدريب الموزع. يُعالج استثمار NVIDIA في تقنيات الترابط الضوئي وسيليكون المُبدّلات هذه القيود لكنه يتطلب تصميم نظام دقيقاً.
يُصبح تحسين البرمجيات حاسماً بالقدر نفسه. يجب أن تستخدم نماذج OpenAI بكفاءة الدوائر المتخصصة في Rubin CPX لآليات الانتباه. يُشير التزام الشركتين بتحسين خرائط طريقهما بشكل مشترك إلى تعاون عميق في تقنيات المُجمّعات وتحسين النواة وتطور بنية النماذج. غالباً ما تتجاوز مكاسب الأداء من تحسين البرمجيات تحسينات العتاد على هذا النطاق.
تداعيات السوق تمتد إلى ما وراء المشاركين المباشرين
تمتد آثار الشراكة المتموجة في جميع أنحاء النظام البيئي التكنولوجي. يشهد مزودو تكنولوجيا التبريد طلباً غير مسبوق على حلول التبريد السائل. تُسرّع شركات البنية التحتية للطاقة مشاريع تحديث الشبكة. يُوسّع مصنعو المكونات الضوئية الإنتاج لتلبية متطلبات الترابط.
تشتد حرب المواهب مع توسيع كلتا الشركتين فرقهما الهندسية. يحصل مهندسو البنية التحتية الذين يفهمون تحسين مجموعات GPU على تعويضات مميزة. يُصبح مهندسو البرمجيات ذوو الخبرة في التدريب الموزع لا يُقدَّرون بثمن. تخلق الشراكة آلاف الوظائف ذات الأجور العالية عبر تخصصات ومناطق جغرافية متعددة.
تواجه شركات الذكاء الاصطناعي الأصغر خياراً صارماً—الشراكة مع مزودي السحابة الذين يُضيفون هامشاً على عتاد NVIDIA أو قبول قيود حوسبية تُحدّ من طموحات النماذج. اقتصاديات البنية التحتية للذكاء الاصطناعي تُفضّل النطاق بشكل متزايد، مما يخلق ضغط توحيد طبيعي عبر الصناعة.
خارطة الطريق المستقبلية تُلمّح إلى إيقاع ابتكار مستدام
بينما تُركّز الاتفاقية الحالية على نشر Vera Rubin، تُشير كلتا الشركتين إلى تعاون مستدام يمتد إلى ما بعد 2030. السنوي لـNVIDIA
[تم اقتطاع المحتوى للترجمة]