وحدات معالجة البيانات وبطاقات الشبكة الذكية: الركيزة الثالثة للحوسبة في مراكز البيانات

يصل سوق وحدات معالجة البيانات وبطاقات الشبكة الذكية إلى 1.11 مليار دولار في عام 2024، ومن المتوقع أن يبلغ 4.44 مليار دولار بحلول عام 2034 (بمعدل نمو سنوي مركب 15%). 50% من مزودي الخدمات السحابية يستخدمون الآن وحدات DPU؛ و35% من تدريب الذكاء الاصطناعي يُنقل إلى وحدات DPU. تقدم BlueField-3 ما يعادل 300 نواة معالج مركزي...

وحدات معالجة البيانات وبطاقات الشبكة الذكية: الركيزة الثالثة للحوسبة في مراكز البيانات

وحدات معالجة البيانات وبطاقات الشبكة الذكية: الركيزة الثالثة للحوسبة في مراكز البيانات

آخر تحديث: 11 ديسمبر 2025

تحديث ديسمبر 2025: يصل سوق وحدات معالجة البيانات وبطاقات الشبكة الذكية إلى 1.11 مليار دولار في عام 2024، ومن المتوقع أن يبلغ 4.44 مليار دولار بحلول عام 2034 (بمعدل نمو سنوي مركب 15%). 50% من مزودي الخدمات السحابية يستخدمون الآن وحدات DPU؛ و35% من مهام تدريب الذكاء الاصطناعي تُنقل إلى وحدات DPU لتحسين الكفاءة والأداء. تقدم BlueField-3 ما يعادل 300 نواة معالج مركزي في نقل الخدمات. تم الإعلان عن BlueField-4 بسرعة 800 جيجابت في الثانية و6 أضعاف قدرة الحوسبة. بدأ شحن AMD Pensando Elba بمنفذين 200GbE مع قابلية البرمجة بلغة P4.

وصل سوق وحدات معالجة البيانات وبطاقات الشبكة الذكية إلى 1.11 مليار دولار في عام 2024 وسينمو إلى 4.44 مليار دولار بحلول عام 2034 بمعدل نمو سنوي مركب يبلغ 14.89%.¹ يعتمد ما يقرب من 50% من مزودي الخدمات السحابية الآن على وحدات DPU لتحسين أعباء العمل.² يتم نقل حوالي 35% من مهام تدريب نماذج الذكاء الاصطناعي إلى وحدات DPU لتحقيق كفاءة وأداء أفضل.³ ينظر قادة الصناعة بشكل متزايد إلى وحدات DPU باعتبارها الركيزة الثالثة للحوسبة إلى جانب وحدات المعالجة المركزية ووحدات معالجة الرسومات - المعالجات المخصصة التي تنقل البيانات بأمان عبر البنية التحتية.⁴

غيّرت مجموعات الذكاء الاصطناعي أنماط حركة البيانات داخل مراكز البيانات. تتدفق معظم حركة البيانات الآن أفقياً (شرق-غرب) بين وحدات GPU أثناء تدريب النماذج وإنشاء نقاط الحفظ بدلاً من التدفق العمودي (شمال-جنوب) بين التطبيقات والإنترنت.⁵ تطورت وحدة DPU من مُسرِّع اختياري إلى بنية تحتية ضرورية تمنع اختناقات وحدة المعالجة المركزية من تقييد استخدام وحدات GPU.⁶ يجب على المؤسسات التي تبني بنية تحتية للذكاء الاصطناعي تقييم اختيار وحدة DPU بنفس الدقة المتبعة في اختيار وحدات GPU والمعالجات المركزية.

NVIDIA BlueField-3: المعيار في البنية التحتية

تمثل NVIDIA BlueField-3 الجيل الثالث من البنية التحتية لمراكز البيانات على شريحة واحدة، مما يمكّن المؤسسات من بناء بنية تحتية لتكنولوجيا المعلومات معرّفة برمجياً ومُسرَّعة بالعتاد من السحابة إلى مركز البيانات الأساسي وصولاً إلى الحافة.⁷ تقوم وحدة DPU ذات الـ 22 مليار ترانزستور بنقل وتسريع وعزل وظائف الشبكات والتخزين والأمان والإدارة المعرّفة برمجياً.⁸

تصل سرعة الاتصال الشبكي إلى 400 جيجابت في الثانية عبر Ethernet أو NDR InfiniBand.⁹ تتراوح تكوينات المنافذ بين 1 أو 2 أو 4 منافذ مع خيارات لمجموعات عرض نطاق متنوعة.¹⁰ تتضمن الذاكرة المدمجة 16 جيجابايت من DDR5 مع خيارات أحجام تشمل بطاقات PCIe نصف الارتفاع نصف الطول وكاملة الارتفاع نصف الطول.¹¹

تقدم BlueField-3 عشرة أضعاف قوة الحوسبة المُسرَّعة مقارنة بالجيل السابق.¹² يتميز مجمع المعالج بـ 16 نواة ARM A78 مع 4 أضعاف تسريع التشفير مقارنة بـ BlueField-2.¹³ تضاعف عرض النطاق الترددي للشبكة بينما تضاعفت قوة الحوسبة أربع مرات وزاد عرض نطاق الذاكرة بنحو 5 أضعاف.¹⁴

يروي معادل الأداء القصة كاملة. تقدم وحدة BlueField-3 DPU واحدة ما يعادل خدمات مركز بيانات تصل إلى 300 نواة معالج مركزي، مما يحرر دورات المعالج القيّمة للتطبيقات الحيوية للأعمال.¹⁵ تبرر نسبة النقل الاستثمار في وحدات DPU للمؤسسات التي تُقيّد فيها سعة المعالج المركزي نشر أعباء العمل.

BlueField-3 هي أول وحدة DPU تدعم الجيل الخامس من PCIe وتوفر تسريعاً متزامناً زمنياً لمركز البيانات.¹⁶ لا يتجاوز الحد الأقصى لاستهلاك الطاقة 150 واط.¹⁷

تمتد حالات الاستخدام عبر مجموعة البنية التحتية الكاملة: البنية التحتية المتقاربة للغاية مع التشفير وسلامة البيانات وإزالة التكرار وفك الضغط والترميز المحو للتخزين؛ جدران الحماية الموزعة وأنظمة كشف/منع التسلل وجذر الثقة والتجزئة الدقيقة ومنع هجمات DDoS للأمان؛ الحوسبة الفائقة السحابية الأصلية مع تعدد المستأجرين وتسريع الاتصالات لأعباء HPC/AI؛ وCloud RAN وبوابات الحافة الافتراضية وتسريع VNF لتطبيقات الاتصالات والحافة.¹⁸

أعلنت NVIDIA عن BlueField-4 كخليفة - منصة بنية تحتية بسرعة 800 جيجابت في الثانية لمصانع الذكاء الاصطناعي الضخمة تقدم 6 أضعاف قدرة الحوسبة مقارنة بـ BlueField-3 مع تسريعات للشبكات وتخزين البيانات والأمن السيبراني.¹⁹

AMD Pensando: خيار مزودي الخدمات الضخمة

استحوذت AMD على Pensando Systems في عام 2022، مما أدخل تقنية DPU القابلة للبرمجة بلغة P4 إلى محفظة AMD لمراكز البيانات.²⁰ تم اعتماد وحدات Pensando DPU على نطاق واسع والتحقق منها واختبارها كحل شبكات أمامي في بعض أكبر مراكز البيانات فائقة النطاق.²¹

وحدة AMD Pensando Elba DPU من الجيل الثاني قابلة للبرمجة بالكامل بلغة P4 ومُحسَّنة للإنتاجية العالية، مما يتيح نقلاً متقدماً لخدمات الشبكات والتخزين والأمان بمعدل خط مزدوج يبلغ 200 جيجابت في الثانية.²²

تحتوي شريحة Elba SoC على 16 نواة ARM Cortex-A72، ووحدتي تحكم في ذاكرة DDR4/DDR5، و32 ممراً من اتصال PCIe Gen3 أو Gen4، وحتى 200GbE مزدوج أو 100GbE رباعي للشبكات، وقدرات نقل التخزين والتشفير.²³

تتمحور البنية حول وحدات معالجة المطابقة (MPUs) حيث يتم تنفيذ البرمجيات في السيليكون وتوفير خدمات المسار السريع المُسرَّعة.²⁴ ترتبط ذاكرة النظام بكل من نوى ARM للأغراض العامة ووحدات MPU المتخصصة بالمجال.²⁵ يتعامل خط أنابيب P4 مع الشبكات والتخزين والقياس عن بُعد وSDN والأمان وإدارة الازدحام وRDMA في وقت واحد دون المساس بالأداء.²⁶

يوفر خط الأنابيب القابل للبرمجة تغليف وفك تغليف نفق VxLAN، وتوجيه IPv4/v6، وقواعد الأمان عديمة الحالة وذات الحالة، وترجمة عناوين الشبكة، وموازنة تحميل الخادم، وخدمات التشفير، ورسم VLAN إلى VPC، ونظير VPC بمعدل الخط.²⁷

تقدم AMD خط أنابيب مرجعي لـ SAI (واجهة تجريد المحول) يعمل بنظام SONiC OS على وحدات Pensando DPU.²⁸ يتيح التكامل الخدمات التي يوفرها SONiC بما في ذلك مجموعة التوجيه وواجهة الإدارة والمراقبة مع الاستفادة من قدرات DPU الكاملة عبر SSDK.²⁹

قدمت AMD وحدة Pensando Salina كخليفة بسرعة 400G مصممة للمنافسة مباشرة مع NVIDIA BlueField-3 في تطبيقات الشبكات الأمامية.³⁰ أصبحت بطاقة Pensando Pollara 400 AI NIC متاحة تجارياً في النصف الأول من عام 2025، محسّنة لشبكات الذكاء الاصطناعي والحوسبة عالية الأداء من خلال قدرات متقدمة تشمل RDMA والتحكم في الازدحام.³¹

تبني وحدة Giglio DPU الأحدث على Elba مع توافق كود المصدر، مما يتيح للعملاء الحاليين اعتماد المنصة الأحدث بأقل تغييرات برمجية.³²

بالنسبة للمؤسسات التي تشغل VMware، تضيق الخيارات العملية إلى NVIDIA BlueField-2 أو AMD Pensando DSC2.³³ يحد دعم نظام VMware البيئي من الخيارات للمؤسسات الملتزمة بمنصة المحاكاة الافتراضية تلك.

Intel IPU E2100: النهج السحابي الأصلي

يقدم محول وحدة معالجة البنية التحتية (IPU) E2100 من Intel تسريع البنية التحتية وتمكين التخزين الافتراضي وميزات أمان محسّنة.³⁴ شريحة E2100 SoC هي منصة تسريع بنية تحتية مُحسَّنة للطاقة والأداء والتوسع.³⁵

تتميز العتاد بخط أنابيب غني لمعالجة الحزم بعرض نطاق 200GbE وتتضمن مُسرِّعات NVMe والضغط والتشفير.³⁶ يسمح مجمع حوسبة ARM Neoverse N1 للبرمجيات المقدمة من العملاء بتنفيذ ميزات تتراوح من خطوط أنابيب معالجة الحزم المعقدة إلى نقل التخزين وإدارة الأجهزة والقياس عن بُعد.³⁷

تحتوي E2100 على 16 نواة ARM Neoverse N1 مع 32 ميجابايت من ذاكرة التخزين المؤقت و3 قنوات من ذاكرة LPDDR4x بسعة 16 جيجابايت بإجمالي 48 جيجابايت.³⁸

تعالج متغيرات الطراز متطلبات النشر المختلفة. تم إطلاق E2100-CCQDA2 في الربع الأول من 2024 بقدرة حرارية 150 واط في تكوين ثنائي المنفذ يدعم معدلات بيانات 200/100/50/25/10GbE عبر PCIe 4.0 في عامل شكل نصف الطول، كامل الارتفاع، فتحة واحدة.³⁹ تم إطلاق E2100-CCQDA2HL في الربع الرابع من 2024 بقدرة حرارية مخفضة 75 واط في نفس تكوين المنفذ المزدوج.⁴⁰

يستخدم الاتصال منافذ QSFP56 التي تدعم كابلات DAC والبصريات وAOC.⁴¹ يتضمن دعم المحاكاة الافتراضية قوائم انتظار أجهزة الآلة الافتراضية (VMDq) وPCI-SIG SR-IOV وRoCEv2/RDMA.⁴²

يعود نسب Intel IPU إلى مشروع Mt Evans المصمم ليعمل مثل AWS Nitro خصيصاً لـ Google Cloud، مع نقل NVMe over Fabric وأمان الشبكة.⁴³ تمثل E2100 التكرار الأول المتاح للعملاء من غير Google.⁴⁴

تشمل حالات الاستخدام فصل وعزل أعباء عمل البنية التحتية، ونقل الشبكات الافتراضية إلى IPU حيث تعالج المُسرِّعات المهام بكفاءة أكبر، واستبدال تخزين القرص المحلي بتخزين افتراضي منفصل.⁴⁵

ديناميكيات السوق وأنماط التبني

ينقسم سوق DPU إلى قطاعات حالات استخدام متميزة. يتصدر نقل أعباء مركز البيانات، مدفوعاً بتوسع مراكز البيانات فائقة النطاق والمتطلبات المتزايدة لأعباء العمل الحاسوبية المعقدة والكثيفة البيانات.⁴⁶ تحتفظ أمريكا الشمالية بأكبر حصة من الإيرادات، مدفوعة بتصاعد تهديدات الأمن السيبراني وتزايد اعتماد أُطر أمان الثقة الصفرية والاستثمارات الكبيرة في البنية التحتية للذكاء الاصطناعي والتعلم الآلي.⁴⁷

تُظهر أنماط التبني توافقاً واضحاً مع أعباء العمل. يركز حوالي 30% من عمليات النشر على أعباء عمل الذكاء الاصطناعي بينما يستهدف 20% بنية أمان الثقة الصفرية.⁴⁸ تشهد وحدات DPU ذات تسريع الأمان المعتمد على العتاد زيادة بنسبة 30% في التبني، مما يعكس أولوية الصناعة على مبادئ الثقة الصفرية.⁴⁹

تدفع أنماط حركة الذكاء الاصطناعي ضرورة DPU. تهيمن حركة البيانات الأفقية (شرق-غرب) بين وحدات GPU أثناء التدريب على اتصالات مجموعات الذكاء الاصطناعي الحديثة.⁵⁰ لا يمكن لوحدة المعالجة المركزية المضيفة معالجة هذه الحركة بمعدل الخط دون أن تصبح عنق زجاجة. تتعامل وحدات DPU مع معالجة الشبكة التي كانت ستستهلك دورات المعالج اللازمة لوظائف التنسيق ومستوى التحكم.

يتميز المشهد التنافسي بثلاثة موردين رئيسيين بمواقع متميزة. تتصدر NVIDIA بتكامل BlueField في نظامها البيئي الأوسع للبنية التحتية للذكاء الاصطناعي وأقوى دعم لـ InfiniBand.⁵¹ تهيمن AMD Pensando على عمليات نشر مزودي الخدمات الضخمة مع نطاق إنتاج مثبت وقابلية البرمجة بلغة P4.⁵² تستهدف Intel البنى السحابية الأصلية بتصميم IPU المستوحى من Nitro.⁵³

تمثل Marvell OCTEON 10 المنافس من الجيل التالي - أول وحدة DPU في الصناعة بتقنية 5 نانومتر مع نوى ARM Neoverse N2 تقدم 3 أضعاف أداء الحوسبة و50% أقل استهلاكاً للطاقة مقارنة بالأجيال السابقة.⁵⁴ توفر مُسرِّعات العتاد المبتكرة للتعلم الآلي/الذكاء الاصطناعي المضمّن تعزيزاً للأداء يبلغ 100 ضعف مقارنة بالاستدلال المعتمد على البرمجيات.⁵⁵

تنفيذ أمان الثقة الصفرية

تمكّن وحدات DPU فرض أمان الثقة الصفرية عند حافة الشبكة دون إشراك وحدات المعالجة المركزية المضيفة.⁵⁶ تضع البنية فرض السياسات عند مصدر البيانات بدلاً من نقاط تجميع الشبكة.

تعمل جدران الحماية L4 مباشرة على وحدة DPU، مما يفرض السياسة قبل وصول الحركة إلى المضيف.⁵⁷ تدعم وحدة BlueField DPU من NVIDIA التجزئة الدقيقة، مما يسمح للمشغلين بتطبيق مبادئ الثقة الصفرية على أعباء عمل GPU دون إشراك وحدة المعالجة المركزية المضيفة.⁵⁸

يُعد نموذج الأمان مهماً بشكل خاص للبنية التحتية للذكاء الاصطناعي متعددة المستأجرين. عندما يتشارك عملاء متعددون في مجموعات GPU، تفرض وحدة DPU العزل بين المستأجرين على مستوى الشبكة.⁵⁹ لا يرى نظام التشغيل المضيف أبداً الحركة المخصصة للمستأجرين الآخرين، مما يقلل من سطح الهجوم.

يُنشئ جذر الثقة التحقق التشفيري من مكونات البنية التحتية.⁶⁰ تتحقق وحدة DPU من البرامج الثابتة وأنظمة التشغيل والتطبيقات قبل السماح بالوصول إلى الشبكة. لا يمكن للمضيفين المخترقين الاتصال بالشبكة دون اجتياز التحقق الذي تفرضه وحدة DPU.

تمكّن وحدات DPU وظائف مراقبة الشبكة والقياس عن بُعد والملاحظة في بيئات الثقة الصفرية الموزعة للغاية عبر مثيلات السحابة والحافة.⁶¹ تمتد الرؤية إلى الحركة المشفرة من خلال فحص TLS المُسرَّع بالعتاد دون عقوبة الأداء المرتبطة بفك التشفير المعتمد على البرمجيات.

تكامل البنية التحتية للذكاء الاصطناعي

تقدم مجموعات الذكاء الاصطناعي متطلبات DPU محددة تختلف عن أعباء عمل مراكز البيانات العامة. ينشئ نمط الحركة الأفقية (شرق-غرب) بين وحدات GPU أثناء التدريب الموزع متطلبات عرض نطاق مستدامة لا تستطيع بطاقات NIC التقليدية التعامل معها دون مساعدة المعالج المركزي.⁶²

تشكل العمليات الجماعية - all-reduce وall-gather والبث - العمود الفقري للاتصالات في التدريب الموزع.⁶³ يمكن لوحدات DPU تسريع هذه العمليات من خلال نقل العتاد، مما يقلل زمن الاستجابة ويحرر حوسبة GPU للتنفيذ الفعلي للنموذج.

يثبت دعم RDMA أنه ضروري لأعباء عمل الذكاء الاصطناعي. تتعامل وحدات DPU مع معالجة RoCEv2 (RDMA عبر Ethernet المتقارب) أو InfiniBand RDMA في العتاد، متجاوزة مكدس شبكة المضيف بالكامل.⁶⁴ يقلل نقل البيانات بدون نسخ بين ذاكرة GPU والشبكة من زمن الاستجابة ويزيد من استخدام عرض النطاق الترددي.

يصبح التحكم في الازدحام حاسماً على نطاق مجموعة الذكاء الاصطناعي. تنفذ وحدات DPU بروتوكول DCQCN (إشعار الازدحام الكمّي لمركز البيانات

طلب عرض سعر_

أخبرنا عن مشروعك وسنرد خلال 72 ساعة.

> TRANSMISSION_COMPLETE

تم استلام الطلب_

شكراً لاستفسارك. سيقوم فريقنا بمراجعة طلبك والرد خلال 72 ساعة.

QUEUED FOR PROCESSING