لقد برزت CoreWeave من أصولها في تعدين العملات المشفرة لتصبح أكثر مزودي البنية التحتية السحابية للذكاء الاصطناعي تخصصاً في العالم، حيث تشغل حواسيب GPU فائقة بنطاق غير مسبوق بينما تقود الابتكار في التبريد السائل ومعماريات bare-metal التي تميزها عن مزودي الخدمات السحابية التقليديين. إن تحول الشركة من تعدين Ethereum في 2017 إلى تشغيل نماذج GPT الخاصة بـ OpenAI يمثل أكثر التغييرات جذرية في Silicon Valley، والذي تم التحقق من صحته من خلال 7.5 مليار دولار في التمويل بالدين بتقييم 19 مليار دولار (مايو 2024) تبعه بيع ثانوي بـ 23 مليار دولار (أكتوبر 2024)، ونمو متفجر في الإيرادات بنسبة 737% في 2024، وتصنيفها ضمن الطبقة العليا في إطار عمل ClusterMAX الجديد من SemiAnalysis؛ يسلط التقرير الضوء على عزل المستأجرين في CoreWeave، ونظام bare-metal Kubernetes، ونضج العمليات.
إن الحاجز التقني الذي بنته CoreWeave يستفيد من معمارية متخصصة محسنة حصرياً للحوسبة المُسرَّعة. بينما يوازن مزودو الخدمات السحابية التقليديون بين أحمال العمل عامة الغرض وحوسبة GPU، بنت CoreWeave كل طبقة في مجموعتها التقنية خصيصاً لتطبيقات الذكاء الاصطناعي و HPC. إن معمارية bare-metal Kubernetes الخاصة بهم تلغي حمل المحاكاة الافتراضية بالكامل، بينما يمكّن التبريد السائل المباشر للرقاقة من تحقيق كثافات رف بقدرة 130 كيلوواط لا يمكن للمرافق المبردة بالهواء مضاهاتها. هذه الميزة المعمارية الأساسية، مقترنة مع الجدولة الواعية للطوبولوجيا وشبكات InfiniBand كأولوية، تحقق ما تقول CoreWeave أنه أكثر من 50% من استخدام Model FLOPS على GPUs من فئة Hopper—أعلى بحوالي 20% من خطوط الأساس لنماذج الأساس العامة وفقاً لمعايير قياس الأداء الداخلية الخاصة بهم.
إن العلاقة التكافلية للشركة مع NVIDIA تتجاوز الشراكات النموذجية مع البائعين، حيث تحتفظ NVIDIA بحصة أسهم تبلغ حوالي 6% اعتباراً من مارس 2025 وتختار CoreWeave باستمرار للنشر الافتتاحي للمعماريات الرائدة. كانت CoreWeave الأولى في التوفر العام لأنظمة GB200 NVL72 (فبراير 2025) والأولى في نشر أنظمة GB300 NVL72 (3 يوليو 2025). ينبشر نشر GB300 بما تصفه NVIDIA كـ "تحسينات تصل إلى 50 ضعفاً في مخرجات استنتاج نماذج التفكير"، رغم أن هذا يمثل تسويق البائع وليس معايير قياس أداء محكمة من قبل الأقران. (إرشادات تسويق NVIDIA؛ معايير قياس الأداء المستقلة في الانتظار.)
تؤكد المقاييس المالية على الطلب السوقي الضخم للبنية التحتية المتخصصة للذكاء الاصطناعي، حيث حققت CoreWeave إيرادات ربعية بقيمة 1.21 مليار دولار (Q2 2025)، والحفاظ على رصيد متعاقد عليه بقيمة 30.1 مليار دولار، وتأمين التزامات العملاء الأساسيين من Microsoft (تمثل 62% من إيرادات 2024)، وOpenAI (عقد يصل إلى 11.9 مليار دولار بالإضافة إلى توسعة بـ 4 مليارات دولار)، وقادة الذكاء الاصطناعي الآخرين الذين يتطلبون مستويات أداء محسنة للتدريب والاستنتاج على نطاق واسع. الطرح العام الأولي في مارس 2025 بسعر 40 دولاراً للسهم جمع حوالي 1.5 مليار دولار، مما جعل CoreWeave شركة عامة موضوعة لالتقاط القيمة مع تسارع الطلب العالمي على حوسبة الذكاء الاصطناعي.
ومع ذلك، تحت هذا النمو المتفجر تكمن مخاطر تنفيذ جوهرية، حيث تحمل CoreWeave أكثر من 11 مليار دولار في الديون مع مصاريف فوائد بقيمة 267 مليون دولار في Q2'25 (مقابل 67 مليون دولار في Q2'24)، مما يعني معدل تشغيل سنوي أكثر من مليار دولار مع نمو الميزانية العمومية. هيكل رؤوس الأموال هذا يتطلب تنفيذاً مثالياً حيث تتسابق الشركة لنشر البنية التحتية قبل منافسة مزودي الخدمات السحابية الكبار. التركيز الشديد للعملاء، مع Microsoft تمثل 62% من إيرادات 2024؛ وأكبر عميلين بـ 77%.
يفحص هذا التحليل المعمق كيف صممت CoreWeave البنية التحتية المتخصصة للذكاء الاصطناعي من المبادئ الأولى، ولماذا تثبت مزاياها التقنية أنها ذات معنى ضد منافسة مزودي الخدمات السحابية الكبار، وما إذا كانت استراتيجية التوسع الجريئة الخاصة بهم يمكن أن تحافظ على القيادة التكنولوجية بينما تتنقل عبر الحقائق كثيفة رؤوس الأموال لبناء بنية تحتية للحوسبة بمقياس exascale. من خلال التوثيق التقني، ومعايير قياس الأداء، والتحليل الصناعي، نكشف كيف وضعت شركة بدأت في تعدين العملات المشفرة في مرآب في New Jersey نفسها كبنية تحتية حاسمة لتطوير الذكاء الاصطناعي—والتحديات المالية التي يمكن أن تؤثر على هذا المسار.
## ميزة CoreWeave: بنية تحتية مصممة خصيصاً لأعباء العمل في AI
الفهم الأساسي لـ CoreWeave—أن أعباء العمل في AI تتطلب بنية تحتية مختلفة جذرياً عن الحوسبة السحابية التقليدية—قاد القرارات المعمارية التي تقدم الآن مزايا أداء قابلة للقياس عبر أعباء العمل في التدريب والضبط الدقيق والاستنتاج. بينما استثمرت الشركات الكبيرة مئات المليارات في التحسين لتطبيقات الويب وقواعد البيانات وبرمجيات المؤسسات، أدركت CoreWeave أن نماذج اللغة الكبيرة والشبكات العصبية تتطلب عرض نطاق ترددي فائق في الذاكرة، وربط بين الشبكات منخفض زمن الاستجابة للغاية، وتبديد حراري مستمر يصعب على مراكز البيانات متعددة الأغراض توفيره باستمرار.
يبدأ التمايز التقني بالتكامل الرأسي الكامل المحسن حصرياً لأعباء العمل في GPU. نهج Kubernetes المعدني الخالص لـ CoreWeave يوفر وصولاً مباشراً للأجهزة إلى موارد GPU وCPU والشبكة والتخزين دون طبقات الافتراض. جدولة الطوبولوجيا المدركة تقلل من زمن استجابة التواصل بين GPU، بينما تقدم شبكة InfiniBand المخصصة اتصالاً بسرعة 400Gb/s لكل GPU. من الجدير بالذكر أن instances GPU من الدرجة الأولى للشركات الكبيرة تقدم الآن أيضاً شبكات عالية عرض النطاق الترددي—instances A3 من Google Cloud تعرض 3.2 Tbps لكل VM، وتوفر ND H100 v5 من Azure اتصالاً بفئة 1.6-3.2 Tbps، وتقدم مجموعات P5 من AWS شبكات instance بسرعة 3200 Gbps مع SR-IOV/EFA. يكمن التمايز أقل في سرعات الروابط الخام وأكثر في طوبولوجيا المجموعة لـ CoreWeave، وتحسين وضع المجدول، والإدارة الحرارية المبردة بالسائل على مستوى الرف.
وفقاً لمعايير NVIDIA المنشورة، حققت Cohere تدريباً أسرع بما يصل إلى 3 مرات على أنظمة GB200 NVL72 من CoreWeave مقارنة بـ GPUs Hopper من الجيل السابق—رغم أن هذا يمثل تحسينات الأجهزة الجيلية بدلاً من مقارنات عبر السحابات. ادعاءات أداء العملاء الأخرى تتداول في النقاشات الصناعية لكنها تفتقر للتحقق العام من الشركات نفسها.
يثبت ابتكار النموذج التجاري أهمية متساوية—من خلال التركيز حصرياً على حوسبة GPU بدلاً من تقديم مئات الخدمات، تستطيع CoreWeave تحسين كل جانب من عملياتها لأعباء العمل في AI. هذا التخصص يمكّن من النشر السريع لأجيال الأجهزة الجديدة (أسابيع مقابل أرباع للسحابات التقليدية)، وعمليات مبسطة مع تقليل الأعباء الإدارية، وعلاقات مباشرة مع عملاء GPU الأصليين الذين يعطون الأولوية للأداء، ونماذج استهلاك مرنة، تشمل instances محجوزة، وعند الطلب، وتسعير فوري ينطلق في أواخر 2025.
تشتد المنافسة من الشركات الكبيرة عند إدراكها للأهمية الاستراتيجية لبنية AI التحتية، مع توسع AWS وGoogle Cloud وMicrosoft Azure جميعاً لعروض GPU مع شبكات محسنة وخيارات معدنية خالصة. ومع ذلك، يخلق النهج المتخصص لـ CoreWeave وميزة المحرك الأول مع أحدث أجهزة NVIDIA تمايزاً. كونها المستلم الوحيد لتصنيف Platinum-tier ClusterMAX من SemiAnalysis اعتباراً من مارس-أبريل 2025، تُظهر CoreWeave قيادة تقنية—رغم أن نظام التصنيف هذا يخطط للتحديثات كل 3-6 أشهر، والديناميكيات التنافسية تستمر في التطور.
من تعدين Ethereum إلى تدريب النماذج الأساسية: قصة النشأة غير المتوقعة
بدأ تحول CoreWeave من عملية تعدين العملات المشفرة إلى قوة عظمى في بنية AI التحتية في عام 2017 عندما أدرك المؤسسون المشاركون Michael Intrator و Brian Venturo و Brannin McBee أن خبرتهم في GPU يمكن أن تخدم أغراضاً أكثر قيمة من حل الألغاز التشفيرية. ركزت العملية في البداية والواقعة في Weehawken، New Jersey على تعدين Ethereum، حيث جمعت آلاف وحدات GPU بينما طورت حلول تبريد مخصصة وبرامج تنظيم ستثبت لاحقاً أنها لا تقدر بثمن لأحمال عمل AI.
وصلت اللحظة المحورية في عام 2019 عندما هدد تحول Ethereum نحو proof-of-stake بجعل تعدين GPU عديم الفائدة بالكامل. بدلاً من تصفية الأصول مثل معظم المعدنين، حدد مؤسسو CoreWeave فرصة سوق ناشئة—توفير حوسبة GPU لباحثي التعلم الآلي الذين واجهوا صعوبة في الوصول للأجهزة على السحابات التقليدية. شملت العملاء الأوائل مؤسسات أكاديمية تحتاج حوسبة متفجرة للتجارب، واستوديوهات المؤثرات البصرية التي تقوم بعرض CGI للأفلام، والشركات الناشئة التي تدرب نماذج رؤية الكمبيوتر.
سرّعت جائحة 2020 من انعطاف CoreWeave حيث دفع العمل عن بُعد الطلب على العرض السحابي بينما حفز في الوقت نفسه تبني AI عبر الصناعات. وقعت الشركة أول عقد مؤسسي كبير لها مع صندوق تحوط يتطلب معالجة متوازية ضخمة لنمذجة المخاطر، مما أكد نموذج العمل خارج نطاق المضاربة بالعملات المشفرة. بحلول نهاية العام، شغلت CoreWeave أكثر من 10,000 GPU تخدم أحمال عمل متنوعة من محاكاة طي البروتين إلى ترميز الفيديو في الوقت الفعلي.
وصل الإنجاز في عام 2022 عندما اختارت OpenAI شركة CoreWeave كشريك بنية تحتية لتدريب نماذج GPT، منجذبة لقدرتهم على نشر آلاف وحدات A100 GPU بسرعة مع شبكة InfiniBand—تكوين محسن للتدريب واسع النطاق. أكدت عمليات النشر الناجحة هندسة CoreWeave على نطاق لم يسبق له مثيل، مما أدى إلى توسيع العقود لتغطي نماذج أساسية إضافية. وفر هذا العميل الأساسي كل من استقرار الإيرادات والمصداقية التقنية التي جذبت رواد AI إضافيين.
أدرك رأس المال المخاطر موقع CoreWeave الاستراتيجي في سلسلة توريد AI، مع قيادة Magnetar Capital لجولة تمويل Series B بقيمة 200 مليون دولار في 2022، تبعها نمو سريع في التقييم. مثل تمويل الدين في مايو 2024 بقيمة 7.5 مليار دولار من Blackstone و Coatue وآخرين بتقييم 19 مليار دولار واحدة من أكثر تسهيلات الائتمان الخاصة شمولية في تاريخ التكنولوجيا، مما مكن من التوسع القوي في البنية التحتية لتلبية الطلب المتفجر.
الحمض النووي الثقافي من تعدين العملات المشفرة—احتضان المخاطر التقنية، والتحسين للكفاءة، وتشغيل الموثوقية 24/7—ترجم بشكل مثالي لمتطلبات بنية AI التحتية. نفس المهندسين الذين عصروا أقصى معدلات الهاش من GPUs يحسنون الآن عمليات tensor، بينما الانضباط المالي المطلوب للربح من أسواق العملات المشفرة المتقلبة يساعد في التنقل في أعمال البنية التحتية كثيفة رأس المال. تُظهر قصة النشأة غير المتوقعة هذه كيف أن الاضطراب التكنولوجي غالباً ما ينبثق من الصناعات المجاورة بدلاً من الراسخين، مع الخارجيين غير المقيدين بالتفكير التقليدي الذين يصممون حلولاً متخصصة من المبادئ الأولى.
الهيكل الرأسمالي المعقد يعكس الفرص والمخاطر على حد سواء.
يعكس الهيكل الرأسمالي لـ CoreWeave كلاً من الفرصة الهائلة في البنية التحتية للـ AI والطبيعة كثيفة رؤوس الأموال للمنافسة على نطاق واسع. يشمل تاريخ التمويل 7.5 مليار دولار في التسهيلات الائتمانية بمعدل فائدة حوالي 14% (مايو 2024)، وإجمالي تمويل الأسهم يتجاوز مليار دولار عبر جولات متعددة، وبيع أسهم ثانوي يقيم الشركة بـ 23 مليار دولار (أكتوبر 2024)، وطرح عام أولي بقيمة 1.5 مليار دولار بسعر 40 دولار للسهم (28 مارس 2025)، مما خلق شركة عامة بقيمة مؤسسية تتجاوز 35 مليار دولار بما في ذلك الدين.
المستثمرون الأساسيون يُظهرون قيمة استراتيجية تتجاوز رأس المال. حصة NVIDIA البالغة حوالي 6%، التي تبلغ قيمتها 900 مليون دولار اعتباراً من مارس 2025 وحوالي 1.6 مليار دولار بحلول مايو، تضمن الوصول التفضيلي لإمدادات GPU أثناء قيود التخصيص بينما توفر التعاون التقني في تحسين الأجهزة/البرمجيات. علاقة Microsoft كعميل تُصادق على CoreWeave كبنية تحتية أساسية، خاصة بالنظر إلى شراكتها الضخمة مع OpenAI التي تتطلب موارد حاسوبية كبيرة. اتحاد المستثمرين، بما في ذلك Fidelity وBlackRock وAltimeter، يجلب مصداقية مؤسسية حاسمة لمبيعات المؤسسات وجولات رأس المال المستقبلية.
التركز في العملاء يُقدم التحقق والمخاطر معاً. مثلت Microsoft حوالي 62% من إيرادات CoreWeave لعام 2024 وفقاً لملفات S-1—اعتماد مكّن من التوسع السريع لكنه يخلق ضعفاً أمام إعادة التفاوض على العقود أو التحولات الاستراتيجية. الطبيعة طويلة المدى لهذه العقود توفر بعض الاستقرار، رغم أن المدد المحددة غير مُفصح عنها علناً (الطلبات عادة من سنتين إلى خمس سنوات). التزام OpenAI بما يصل إلى 11.9 مليار دولار، بالإضافة إلى توسع لاحق بـ 4 مليارات دولار مُفصح عنه في مواد علاقات المستثمرين الخاصة بالشركة، يوفر إيرادات أساسية إضافية. القاعدة الأوسع للعملاء، بما في ذلك IBM والمؤسسات المالية الرائدة، تُظهر توسع السوق خارج المستأجرين الأساسيين الأوليين.
الرصيد المتراكم للإيرادات البالغ 30.1 مليار دولار اعتباراً من الربع الثاني 2025 يوفر رؤية لا مثيل لها لشركة بنية تحتية، مع إيرادات متعاقد عليها تمثل سنوات متعددة من الالتزامات المستقبلية—رغم أن مخاطر التنفيذ تبقى كبيرة بالنظر لتعقيد نشر وتشغيل مئات الآلاف من وحدات GPU عبر عشرات مراكز البيانات. الاعتراف بالإيرادات يعتمد على توفر البنية التحتية، مما يخلق ضغطاً للحفاظ على جداول نشر طموحة مع ضمان الموثوقية التي تطلبها العملاء المؤسسيون.
الأداء المالي يكشف اقتصاديات الوحدة الصعبة للبنية التحتية للـ AI. أظهرت نتائج الربع الثاني 2025 إيرادات بقيمة 1.21 مليار دولار لكن خسائر متسعة، مع مواجهة الشركة لرسوم استهلاك ضخمة على أجهزة سريعة التطور، ومصاريف فوائد تقترب من مليار دولار سنوياً، بالنظر لعبء الدين، وتكاليف تشغيلية تتوسع مع نشر البنية التحتية. المسار نحو الربحية يتطلب تحقيق نطاق أكبر لإطفاء التكاليف الثابتة، وتحسين معدلات الاستخدام، والحفاظ على انضباط التسعير رغم الضغوط التنافسية—توازن دقيق بين النمو والاستدامة.
استحواذ مايو 2025 على Weights & Biases بحوالي 1.7 مليار دولار (وفقاً لـ TechCrunch وتقارير الصناعة، رغم أن الشروط الرسمية تبقى غير مُفصح عنها) يضيف قدرات MLOps بينما يزيد تعقيد التكامل. أُغلقت الصفقة في 5 مايو 2025، مدمجة البنية التحتية مع أدوات تطوير النماذج المُستخدمة من قبل أكثر من 1,400 مؤسسة.
تعزيز الموقع في السوق من خلال التخصص والشراكات.
تعكس الاستراتيجية السوقية لـ CoreWeave النهج التقليدي لمنصات الحوسبة السحابية من خلال تقييد النطاق عمداً لتحقيق عمق لا مثيل له في الحوسبة المُسرَّعة بـ GPU. بينما تقدم AWS أكثر من 200 خدمة عبر كل حمولة عمل يمكن تصورها، توفر CoreWeave بنية تحتية مُركَّزة للحوسبة بـ GPU ومُحسَّنة لتدريب AI والاستنتاج. هذا التخصص يتيح تحسينات معمارية وكفاءات تشغيلية تحققها المنصات المتخصصة مقابل المتطلبات الأوسع للمنصات العامة.
تستمر الديناميكيات التنافسية في التطور بسرعة. حسَّن مقدمو الخدمات الكبار من عروض GPU الخاصة بهم بشكل كبير، حيث تقدم AWS وGoogle Cloud وAzure الآن خيارات شبكات عالية النطاق الترددي ومثيلات bare-metal وتوفر محسَّن لـ GPU. يتركز التميز بشكل متزايد على توفر نطاق المجموعات وتحسين الطوبولوجيا وإدارة الحرارة وتكامل مكدس البرمجيات بدلاً من المواصفات الخام وحدها.
تعزز استراتيجية الشراكات لدى CoreWeave نهجها المُركَّز من خلال التكامل العميق للنظام البيئي. تتجاوز العلاقة مع NVIDIA ديناميكيات العميل والمورد—حصة NVIDIA في الأسهم والاختيار المستمر لـ CoreWeave لإطلاق المعماريات الجديدة (GB200 NVL72 في فبراير 2025، GB300 NVL72 في يوليو 2025) يدل على التوافق الاستراتيجي. الشراكات مع Databricks وHugging Face ومنصات AI أخرى تضمن توافق سير العمل دون حاجة CoreWeave لبناء خدمات منافسة.
يتبع التوسع الجغرافي مراكز ابتكار AI مع التزام بـ 3.5 مليار دولار للبنية التحتية الأوروبية، بما في ذلك مليار جنيه إسترليني لعمليات المملكة المتحدة ومرافق في النرويج والسويد وإسبانيا، مع الاستفادة من الطاقة المتجددة. تشغل الشركة 33 مركز بيانات اعتباراً من 2025 مع حوالي 470 ميجاواط من طاقة IT النشطة وحوالي 2.2 جيجاواط من السعة المتعاقد عليها (الربع الثاني 2025)، مما يضعها في موقع للنمو المستمر.
تنبع الميزة التنافسية المستدامة من التأثيرات المركبة حيث تجذب البنية التحتية المتخصصة العملاء المتطلبين، والطلب المُركَّز يبرر الاستثمار المستمر، والقيادة التقنية تضمن الوصول المبكر للأجهزة الجديدة. هذا يضع CoreWeave في موقع فريد، رغم بقاء مخاطر التنفيذ كبيرة نظراً لمتطلبات رؤوس الأموال والضغوط التنافسية.
البنية التحتية التقنية: هندسة AI على نطاق غير مسبوق
تمتد البصمة الجغرافية لمراكز بيانات CoreWeave عبر 33 منشأة تشغيلية في الولايات المتحدة وأوروبا اعتباراً من 2025، مما يمثل واحداً من أكبر عمليات نشر GPU المتخصصة عالمياً. يشمل التوزيع الجغرافي 28 موقعاً أمريكياً مع عمليات نشر كبرى، مثل منشأة Plano، Texas بقيمة 1.6 مليار دولار، والتي تضم أكثر من 3,500 GPU من طراز H100 في مساحة 454,421 قدم مربع. في مشاركات MLPerf Training v5.0 (يونيو 2025)، حققت CoreWeave و NVIDIA و IBM أكبر معيار مرجعي على الإطلاق باستخدام 2,496 GPU من طراز GB200 لتدريب Llama 3.1 405B في 27.3 دقيقة—أسرع بأكثر من مرتين من أحجام الكتل المماثلة من المشاركين الآخرين.
تمثل البنية التحتية للطاقة عامل تمايز حاسم بسعة نشطة تبلغ حوالي 470 ميجاواط وحوالي 2.2+ جيجاواط متعاقد عليها اعتباراً من الربع الثاني 2025، بما في ذلك منشآت مصممة لكفاءة استثنائية. تقنية التبريد السائل التي تدعم 130 كيلوواط لكل رف—مقارنة بحدود 30 كيلوواط التقليدية للتبريد الهوائي—تتيح نشر تكوينات كثيفة مثل أنظمة NVIDIA GB200 NVL72 التي تحزم 72 GPU لكل رف.
يتمركز أسطول GPU حول أحدث معماريات NVIDIA مع حوالي 250,000 GPU منشور إجمالياً. يشمل التركيب متغيرات H100 في تكوينات SXM5 و PCIe، و GPUs من طراز H200 مع ذاكرة 141GB HBM3e، وعمليات نشر أولية لأنظمة GB200 NVL72. حققت CoreWeave أول توفر عام في السوق لـ GB200 NVL72 (فبراير 2025) وأول نشر لـ GB300 NVL72 (3 يوليو 2025)، محافظة على نمطها في الوصول المبكر لأجهزة NVIDIA الجديدة.
تستخدم العمود الفقري للشبكة NVIDIA Quantum-2 InfiniBand لتوفير 400Gb/s لكل GPU من خلال محولات ConnectX-7 في طوبولوجيات Fat Tree غير المحجوبة، مما يحقق زمن استجابة أقل من المايكروثانية مع إنتاجية عالية، رغم أن سرعات الشبكة الخام تطابق الآن عروض hyperscaler من الطبقة الأولى. يكمن التمايز في تحسين الطوبولوجيا وتكامل المجدول والتكوين المتسق عبر الكتل.
تتمركز معمارية التخزين حول عمليات نشر VAST Data Platform باستخدام معمارية مفككة للتحجيم المستقل. يحقق النظام إنتاجية مستدامة تصل إلى 1 GB/s لكل GPU مع أنماط I/O محسنة تميز قراءات التدريب عن كتابات checkpoint. تقنية LOTA (Local Object Transfer Accelerator) من CoreWeave تخزن البيانات التي يتم الوصول إليها بشكل متكرر على عقد GPU مؤقتاً، مما يقلل حركة مرور الشبكة بينما يحسن الإنتاجية.
مكدس البرمجيات محسّن للأداء على المعدات المكشوفة.
تتخلص بنية Kubernetes المكشوفة من CoreWeave من الحمل الإضافي للمحاكاة الافتراضية عبر تشغيل Kubernetes مباشرة على الأجهزة. يوفر هذا النهج وصولاً مباشراً للأجهزة مع الحفاظ على تعدد المستأجرين من خلال وحدات NVIDIA BlueField DPU. تزعم المعايير الداخلية أن هذا يمكّن من استخدام أكثر من 50% من Model FLOPS على معالجات Hopper GPU—أي أعلى بحوالي 20% من المعايير العامة، رغم أن التحقق المستقل من هذه الأرقام المحددة يبقى محدوداً.
تتجاوز خدمة CoreWeave Kubernetes Service (CKS) إدارة Kubernetes النموذجية بالسماح للعملاء بالتحكم في مكونات طبقة البيانات بينما تدير CoreWeave طبقة التحكم. مُهيأة مسبقاً مع برامج تشغيل GPU، وواجهات الشبكة/التخزين، وإضافات المراقبة، تتكامل CKS مع أدوات تنظيم أعباء العمل بما في ذلك Slurm و KubeFlow و KServe.
يربط SUNK (Slurm on Kubernetes) بين نماذج الحوسبة عالية الأداء والحوسبة السحابية عبر نشر Slurm كموارد Kubernetes مُحتواة، مما يتيح مشاركة الموارد الديناميكية بين وظائف المعالجة المجمعة والخدمات طويلة الأمد. يحقق استخداماً عالياً من خلال الجدولة الواعية بالطوبولوجيا المحسّنة لتكوينات بنية InfiniBand.
تسرّع تقنية Tensorizer نشر النماذج من خلال التسلسل والبث المحسّن، محققة سرعات تحميل نماذج أسرع بـ 5 مرات من النُهج المعيارية وفقاً لمعايير CoreWeave. تمكّن الأداة مفتوحة المصدر من التحميل "صفري النسخ" الذي يبث النماذج جزءاً تلو الآخر بدلاً من تحميل النماذج كاملة في الـ RAM.
عمليات نشر متطورة مع معايير أداء موثقة
تشمل إنجازات البنية التحتية لـ CoreWeave مساهمات MLPerf قابلة للتحقق تُظهر النطاق والأداء. مساهمة MLPerf Training v5.0 في يونيو 2025 باستخدام 2,496 من وحدات GPU من طراز NVIDIA GB200 أكملت تدريب Llama 3.1 405B في 27.3 دقيقة—أكبر مساهمة من أي مزود خدمات سحابية وأسرع بأكثر من مرتين من أحجام العناقيد المماثلة.
يصل أداء الاستنتاج إلى 800 رمز/ثانية على Llama 3.1 405B باستخدام أنظمة GB200 وفقاً لنتائج MLPerf Inference v5.0، مما يُظهر تحسناً بنسبة 2.86x لكل شريحة مقارنة بـ H200. تجمع معمارية GB200 NVL72 بين 72 من وحدات GPU Blackwell مع 36 من وحدات CPU Grace لكل رف، مما يوفر 1.44 exaFLOPS مع 13.5TB من الذاكرة المتصلة بـ NVLink.
وضع نظام تصنيف ClusterMAX من SemiAnalysis شركة CoreWeave فقط في الفئة البلاتينية عند إطلاقه في مارس-أبريل 2025، مع التقييم مقابل AWS و Google Cloud و Azure ومزودين آخرين عبر أكثر من 50 متطلباً تقنياً. هذا التقييم المستقل يؤكد التمايز التقني، رغم أن نظام التصنيف يخطط لتحديثات منتظمة مع تطور المشهد التنافسي.
الشراكات التقنية تُسرع من قدرات المنصة.
تمتد شراكة NVIDIA إلى ما وراء علاقات البائعين التقليدية، حيث تمتلك NVIDIA حصة ملكية تبلغ حوالي 6% بقيمة تقارب 1.6 مليار دولار اعتباراً من مايو 2025. يتجلى هذا التكامل العميق في عمليات النشر المتسقة للوصول أولاً إلى السوق للمعمارات الجديدة وجهود الهندسة المشتركة للتحسينات. تُظهر مشاركات MLPerf المشتركة هذا التعاون التقني.
يستفيد نشر IBM لبنية CoreWeave التحتية لتدريب نموذج Granite من أنظمة GB200 مع شبكات Quantum-2 InfiniBand. تشمل شراكة البنية التحتية مع Dell خوادم PowerEdge XE9712 مع GB200 NVL72 في رفوف مُبردة بالسائل. تُشغل VAST Data التخزين عبر جميع مراكز بيانات CoreWeave من خلال منصة المعمارية المفككة.
يؤدي الاستحواذ على Weights & Biases مقابل حوالي 1.7 مليار دولار (اكتمل في 5 مايو 2025) إلى إنشاء منصة AI متكاملة تجمع بين البنية التحتية وقدرات MLOps. المنصة، التي تستخدمها أكثر من 1,400 مؤسسة بما في ذلك OpenAI و Meta، تحافظ على قابلية التشغيل البيني مع إضافة أدوات تطوير ومراقبة النماذج.
المسار المستقبلي يوازن بين النمو والاستدامة المالية.
تشمل مبادرات CoreWeave المستقبلية عدة تطورات رئيسية. يَعِد نشر GB300 NVL72 (يوليو 2025) بما تسوق له NVIDIA كـ "تحسينات بمقدار 50 ضعفًا في إخراج الاستدلال لنماذج التفكير"، رغم أن هذا يمثل توقعات المورد وليس معايير تم التحقق منها بشكل مستقل. سيوفر إطلاق تأجير Spot GPU في أواخر 2025 حالات قابلة للمقاطعة بتكلفة أقل مع تسعير ديناميكي.
يؤسس التوسع الأوروبي بإجمالي 3.5 مليار دولار سيادة البيانات من خلال مرافق تعمل بالطاقة المتجددة لتلبية متطلبات GDPR. تواصل الشركة التوسع نحو 1.6 جيجاوات من قدرة الطاقة المتعاقد عليها بينما تتوسع في قدرات التبريد السائل لدعم الأجهزة من الجيل التالي.
تتطلب التحديات المالية ملاحة حذرة. مع أكثر من 11 مليار دولار من الديون التي تولد حوالي مليار دولار من مصروفات الفوائد السنوية، يجب على CoreWeave موازنة النمو العدواني مع مسار نحو الربحية. يبقى خطر تركز العملاء مرتفعًا مع استحواذ Microsoft على 62% من إيرادات 2024. أبلغت الشركة عن اتساع الخسائر في الربع الثاني من 2025 رغم تحقيق 1.21 مليار دولار من الإيرادات الربعية.
تبقى الفرصة السوقية كبيرة، مع توقع IDC إنفاقًا سنويًا بقيمة 500 مليار دولار على بنية AI التحتية بحلول 2027. يضع نهج CoreWeave المتخصص ومزاياها التقنية الشركة في موضع لالتقاط قيمة كبيرة، رغم استمرار مخاطر التنفيذ نظرًا لمتطلبات رؤوس الأموال والديناميكيات التنافسية والحاجة لتنويع قاعدة عملائها مع الحفاظ على زخم النمو.
## الخلاصة
لقد قامت CoreWeave بتصميم بنية تحتية متخصصة للذكاء الاصطناعي توفر مزايا قابلة للقياس من خلال معمارية Kubernetes على المعدن المجرد، والتبريد السائل الذي يدعم كثافات رف تصل إلى 130kW، ونشر متسق لأحدث تقنيات NVIDIA كأول من يطرحها في السوق. إن تحولها من تعدين العملات المشفرة إلى أن تصبح المزود الوحيد المصنف بدرجة Platinum في نظام ClusterMAX من SemiAnalysis (حتى مارس 2025) يوضح التنفيذ الناجح لاستراتيجية مركزة. مع الإنجازات القابلة للتحقق بما في ذلك أكبر مساهمة في MLPerf Training—Llama 3.1 405B في 27.3 دقيقة باستخدام 2,496 GPU من طراز GB200—ومتراكمات إيرادات متعاقد عليها بقيمة 30.1 مليار دولار، أثبتت CoreWeave نفسها كبنية تحتية حاسمة لتطوير الذكاء الاصطناعي.
ومع ذلك، فإن الطريق إلى الأمام يتطلب التنقل عبر تحديات جوهرية، بما في ذلك ديون تزيد عن 11 مليار دولار، وتركز العملاء مع Microsoft التي تمثل غالبية إيرادات 2024، والمنافسة من عروض hyperscaler ذات القدرات المتزايدة. بينما تتوسع الشركة نحو حوالي 2.2 جيجاواط من سعة الطاقة المتعاقد عليها وتنشر أنظمة الجيل التالي، ستحدد قدرتها على الحفاظ على الريادة التقنية مع تحقيق الاستدامة المالية ما إذا كان بإمكان عامل التشفير السابق هذا إعادة تشكيل مشهد البنية التحتية للذكاء الاصطناعي بشكل دائم.
البيانات محدثة حتى 15 أغسطس 2025. تشمل المصادر ملفات الشركة ووثائق SEC ومعايير MLPerf والتحليل الصناعي من SemiAnalysis.
المراجع
-
CoreWeave, Inc. — نموذج S‑1 (بيان التسجيل الأولي)، هيئة الأوراق المالية والبورصات الأمريكية، مُقدم في 3 مارس 2025. (تاريخ الإيرادات؛ نمو 737% في 2024؛ خلفية الشركة.) (SEC)
-
CoreWeave, Inc. — نشرة الاكتتاب (نموذج 424B4)، هيئة الأوراق المالية والبورصات الأمريكية، أبريل 2025. (تركز العملاء؛ Microsoft = 62% من إيرادات 2024.) (SEC)
-
CoreWeave — "CoreWeave تعلن عن نتائج قوية للربع الثاني من 2025"، Business Wire/IR، 12 أغسطس 2025. (إيرادات الربع الثاني $1.212B، تراكم طلبات $30.1B؛ ~470 MW نشط، ~2.2 GW متعاقد عليه؛ OpenAI $11.9B + $4B توسع.) (Business Wire)
-
Reuters — "إيرادات CoreWeave تتفوق على التوقعات بفعل ازدهار AI لكن الأسهم تتراجع بسبب خسائر أكبر"، 12 أغسطس 2025. (نتائج الربع الثاني؛ 33 مركز بيانات.) (Reuters)
-
Reuters — "CoreWeave تجمع $7.5 مليار دين بتقييم $19B"، 17 مايو 2024. (ائتمان خاص؛ تقييم $19B.)
-
Reuters — "CoreWeave تختتم بيع أسهم ثانوي بـ $650 مليون... مقيمة بـ $23 مليار"، 13 نوفمبر 2024. (تقييم ثانوي $23B.) (Reuters)
-
SemiAnalysis — "تقديم نظام تقييم أداء GPU السحابي — ClusterMAX (الربع الثاني 2025)"، أبريل 2025. (منهجية ClusterMAX؛ CoreWeave = بلاتينيوم.) (SemiAnalysis)
-
CoreWeave — "Blackwell على نطاق واسع: التوفر العام لـ GB200 NVL72 على CoreWeave"، 4 فبراير 2025. (أول من حقق GA مع GB200 NVL72.) (Reuters)
-
CoreWeave — "أول نشر NVIDIA GB300 NVL72" (مدونة)، 3 يوليو 2025. (أول نشر GB300 NVL72.) (CoreWeave)
-
NVIDIA Developer Blog — "Blackwell Ultra لعصر استدلال AI"، 19 مارس 2025. ("10× TPS لكل مستخدم" + "5× TPS لكل MW" ⇒ "حتى 50× مخرجات"** ادعاء تسويقي.) (NVIDIA Developer)
-
MLCommons — نتائج MLPerf Training v5.0 (2025). (Llama‑3.1 405B 27.3 دقيقة على 2,496 GB200؛ أكبر مشاركة.) (Microsoft Learn)
-
MLCommons — نتائج MLPerf Inference v5.0 (مركز البيانات) (2025). (Llama‑3.1 405B الإنتاجية/زمن الاستجابة تشمل مقارنة GB200 مقابل H200 المستخدمة في ملخصات البائعين.) (Microsoft Learn)
-
AWS — P5 Instances / EFA Networking (وثيقة/مدونة رسمية). (حتى 3,200 Gbps شبكات المثيل على p5 مع EFA/SR‑IOV.) (Amazon Web Services, Inc.)
-
Microsoft Azure — صفحة منتج "ND H100 v5‑Series (معاينة)". (شبكات فئة 1.6–3.2 Tbps.) (AWS Documentation)
-
Google Cloud Blog — "A3 Ultra: 3.2 Tbps من شبكات GPU لكل VM" (مواد إطلاق A3/A3 Ultra). (3.2 Tbps لكل VM.) (Google Cloud)
-
Dell Technologies — "Dell تشحن أول خوادم PowerEdge XE9712 مع NVIDIA GB200 NVL72 إلى CoreWeave"، 20 يونيو 2025. (شريك تسليم على مستوى الرف، مبرد بالسوائل.) (CoreWeave)
-
VAST Data — "أداء AI قابل للتوسع في CoreWeave" (دراسة حالة/صفحة حلول)، 2025. (VAST منتشرة عبر مراكز بيانات CoreWeave؛ هندسة I/O.) (CoreWeave)
-
Weights & Biases — "ننضم إلى CoreWeave" (إعلان الاستحواذ)، 5 مايو 2025. (إنهاء/توقيت صفقة W&B؛ اتجاه التكامل.) (FinTech Weekly - Home Page)
-
Reuters — "CoreWeave ستستثمر $2.2B إضافية في أوروبا، ليصبح المجموع $3.5B"، 5 يونيو 2024. (نطاق/مواقع التوسع الأوروبي.) (Reuters)
-
Investor's Business Daily — "ملف اكتتاب CoreWeave المدعومة من Nvidia يظهر قفزة إيرادات كبيرة... Microsoft 62%؛ حصة Nvidia 6%"، مارس 2025. (يؤكد ~6% حصة NVIDIA المذكورة في الملفات/الصحافة.) (Investors)