معالجات البنية التحتية للذكاء الاصطناعي: AMD EPYC وIntel Xeon وNVIDIA Grace
آخر تحديث: 11 ديسمبر 2025
تحديث ديسمبر 2025: حصة AMD في سوق معالجات الخوادم تصل إلى 27.8% في الربع الثالث من 2025، ومن المتوقع أن تتجاوز 40% بنهاية العام—بينما Intel عند أدنى مستوى تاريخي لها 72.2%. معالجات ARM تشكل الآن 13.2% من إجمالي مبيعات الخوادم، مع نمو بنسبة 50% في حجم معالجات خوادم ARM بفضل تقنية NVIDIA Grace Blackwell. معالجات EPYC 9005 Turin متوفرة بما يصل إلى 192 نواة (Zen 5c) وذاكرة L3 بسعة 512 ميجابايت. Intel Xeon 6 Granite Rapids تركز على تسريع استدلال الذكاء الاصطناعي.
وصلت حصة AMD في سوق معالجات الخوادم إلى 27.8% في الربع الثالث من 2025، ومن المتوقع أن تتجاوز 40% بنهاية العام وقد تصل إلى 50% في 2026.¹ انخفضت حصة Intel إلى 72.2%—وهي أدنى حصة سوقية للشركة في تاريخها.² تشكل معالجات ARM الآن 13.2% من إجمالي مبيعات الخوادم، مع نمو بنسبة 50% في حجم معالجات خوادم ARM بفضل تقنية NVIDIA Grace Blackwell.³ يتغير مشهد المعالجات في البنية التحتية للذكاء الاصطناعي بوتيرة أسرع من أي وقت مضى خلال العقدين الماضيين.
تهيمن وحدات معالجة الرسومات (GPUs) على عمليات تدريب واستدلال الذكاء الاصطناعي، لكن المعالجات المركزية (CPUs) تظل ضرورية للتنسيق والمعالجة المسبقة للبيانات وخدمة طلبات الاستدلال وإدارة مستوى التحكم. يؤثر اختيار المعالج على عرض نطاق الذاكرة واتصال المدخلات/المخرجات وكفاءة الطاقة والتكلفة الإجمالية للنظام. يجب على المؤسسات التي تنشر الذكاء الاصطناعي على نطاق واسع تقييم اختيار المعالج بنفس الدقة المتبعة في شراء وحدات GPU.
AMD EPYC 9005 Turin: الرائد في الكثافة
أطلقت AMD سلسلة EPYC 9005 (الاسم الرمزي Turin) في 10 أكتوبر 2024، وهي تمثل الجيل الخامس من معالجات خوادم EPYC المبنية على معمارية Zen 5.⁴ تضع AMD هذه المعالجات كأفضل معالج خادم في العالم لأحمال العمل المؤسسية والذكاء الاصطناعي والحوسبة السحابية.⁵
تقدم Turin تكوينين للنوى. تصل طرازات Zen 5 القياسية إلى 128 نواة لكل مقبس باستخدام عملية تصنيع TSMC بدقة 4 نانومتر.⁶ بينما توفر طرازات Zen 5c عالية الكثافة 192 نواة لكل مقبس باستخدام عملية تصنيع TSMC بدقة 3 نانومتر.⁷ يوفر الطراز الرائد EPYC 9965 عدد 192 نواة و384 خيطاً مع استهلاك طاقة TDP يبلغ 500 واط.⁸
تمتد المواصفات الرئيسية عبر مجموعة المنتجات الكاملة:
| الطراز | النوى | ذاكرة L3 | TDP | السعر |
|---|---|---|---|---|
| EPYC 9965 | 192 (Zen 5c) | 384 ميجابايت | 500 واط | $14,813 |
| EPYC 9755 | 128 (Zen 5) | 512 ميجابايت | 500 واط | $12,984 |
| EPYC 9575F | 64 (Zen 5) | 512 ميجابايت | 400 واط | $10,176 |
| EPYC 9015 | 8 (Zen 5) | 32 ميجابايت | 155 واط | $527 |
تستخدم المعمارية ما يصل إلى 16 CCD (شرائح حوسبة النوى) في الطرازات القياسية وما يصل إلى 12 CCD في التكوينات عالية الكثافة، مقترنة بشريحة إدخال/إخراج مركزية.⁹ تحتوي شرائح CCD القياسية على ثماني نوى Zen 5 لكل منها، بينما تحتوي شرائح CCD عالية الكثافة على 16 نواة Zen 5c.¹⁰
يصل دعم الذاكرة إلى DDR5-6000 مع ECC عبر 12 قناة، ارتفاعاً من DDR5-4800 في الجيل السابق.¹¹ يوفر اتصال PCIe ما يصل إلى 128 ممراً من الجيل الخامس مع دعم CXL 1.0 للأنواع 1 و2 و3.¹² يحافظ مقبس SP5 على التوافق مع أنظمة Genoa وBergamo.¹³
تقدم معالجات Turin تحسيناً بنسبة 17% في IPC مقارنة بالجيل السابق مع مسارات بيانات AVX-512 كاملة بعرض 512 بت.¹⁴ تترجم هذه التحسينات مباشرة إلى أحمال عمل المعالجة المسبقة للبيانات وخدمة الاستدلال الشائعة في البنية التحتية للذكاء الاصطناعي.
حقق قطاع مراكز البيانات في AMD إيرادات فصلية بقيمة 3.7 مليار دولار، بنمو 57% على أساس سنوي.¹⁵ يعكس هذا النمو مبيعات معالجات EPYC ووحدات Instinct GPU مع اكتساب AMD حصة في كلا الفئتين.
Intel Xeon 6 Granite Rapids: ميزة استدلال الذكاء الاصطناعي
أعلنت Intel عن سلسلة Xeon 6 Granite Rapids 6900P بطرازات تتراوح من 72 إلى 128 نواة—متجاوزة أخيراً عدد نوى AMD لأول مرة منذ 2017.¹⁶ تستخدم المعالجات معمارية Redwood Cove P-core على عقدة تصنيع Intel 3.¹⁷
تستخدم طرازات Granite Rapids-AP (الأداء المتقدم) منصة Avenue City مع مقبس LGA 7529 الأكبر.¹⁸ يتيح المقبس الأكبر 128 نواة مع دعم ذاكرة DDR5 بـ 12 قناة وما يصل إلى 192 ممر PCIe 5.0 في تكوينات المقبسين.¹⁹ تصل ذاكرة L3 إلى 504 ميجابايت مثيرة للإعجاب في الطرازات العليا.²⁰
يمثل عرض نطاق الذاكرة عامل تمييز رئيسي. يدعم Granite Rapids UCC ذاكرة DDR5 بتردد 6.4 جيجاهرتز قياسياً وذاكرة MRDIMM (متعددة الرتب) بتردد 8.8 جيجاهرتز.²¹ تفيد سرعات الذاكرة الأعلى أحمال عمل استدلال الذكاء الاصطناعي المحدودة بالذاكرة.
توفر معمارية الإدخال/الإخراج 136 ممر PCIe 5.0—ارتفاعاً من 128 في Emerald Rapids—مع دعم CXL 2.0 النوع 3 وما يصل إلى 6 روابط UPI للتوسع متعدد المقابس.²²
تكمن ميزة Intel المميزة في Advanced Matrix Extensions (AMX)، التي تسرع أحمال عمل استدلال الذكاء الاصطناعي.²³ يدعم محرك المصفوفات تسريع AMX FP16 على معالجات Xeon 6500P و6700P.²⁴ تدعي Intel أداء استدلال ذكاء اصطناعي أعلى بـ 5.5 مرة في ResNet50 مقارنة بمعالج Genoa المنافس من AMD ذي 96 نواة.²⁵
تؤكد اختبارات الأداء ميزة AMX. وثق Phoronix فوائد أداء ذكاء اصطناعي هائلة مع AMX على Granite Rapids، مظهراً تحسينات كبيرة في إنتاجية الاستدلال مقارنة بالتنفيذ غير المسرّع على x86.²⁶
تستهدف معالجات Granite Rapids-D تطبيقات الحوسبة الطرفية والشبكات مع توفرها في 2025.²⁷ تصل الطرازات الأولية إلى 42 نواة مع توقع طرازات بـ 72 نواة لاحقاً خلال العام.²⁸ تدمج طرازات SoC شبكة Intel Ethernet مع تحسين أداء RAN AI بمقدار 3.2 مرة لكل نواة.²⁹
تستمر تحديات حصة Intel السوقية رغم الأجهزة التنافسية. تحتفظ الشركة بـ 72.2% من وحدات معالجات الخوادم لكنها تستمر في خسارة الحصة ربعاً تلو الآخر.³⁰ تروي حصة الإيرادات قصة مختلفة—تستحوذ AMD على 37.2% عند القياس بالدولار بدلاً من الوحدات، مما يعكس نجاح AMD في الشرائح الأعلى سعراً.³¹
NVIDIA Grace: ARM يدخل مركز البيانات
يمثل NVIDIA Grace أول معالج مركز بيانات للشركة، مبني على نوى ARM Neoverse V2 خصيصاً لأحمال عمل الذكاء الاصطناعي والحوسبة عالية الأداء.³² تقترن المعمارية مع وحدات NVIDIA GPU لإنشاء أنظمة متكاملة بإحكام تلغي اختناقات الاتصال التقليدية بين CPU وGPU.
يتميز معالج Grace بـ 72 نواة ARM Neoverse V2 عالية الأداء مع 4 وحدات متجهة SVE2 بعرض 128 بت لكل نواة.³³ يشمل التسلسل الهرمي للذاكرة المخبئية 64 كيلوبايت لذاكرة L1 للتعليمات والبيانات، و1 ميجابايت L2 لكل نواة، و117 ميجابايت L3 مشتركة.³⁴ تصل الذاكرة إلى 480 جيجابايت من LPDDR5X القابلة للاستخدام بعرض نطاق 546 جيجابايت/ثانية عند TDP 250 واط.³⁵
يجمع Grace CPU Superchip بين معالجين Grace متصلين عبر NVLink-C2C، مما يوفر 144 نواة ARM بعرض نطاق ذاكرة يصل إلى 1 تيرابايت/ثانية.³⁶ يحقق الترابط عرض نطاق 900 جيجابايت/ثانية بين المعالجين على وحدة واحدة مع ذاكرة LPDDR5X تصل إلى 960 جيجابايت.³⁷
تدعي NVIDIA أن Grace يقدم ضعف الأداء لكل واط، وضعف كثافة التغليف، وأعلى عرض نطاق للذاكرة مقارنة بخوادم x86 المعاصرة.³⁸ تتضاعف مزايا الكفاءة في عمليات نشر الذكاء الاصطناعي المحدودة بالطاقة.
يربط تكوين GB200 NVL72 بين 36 معالج Grace و72 وحدة Blackwell GPU في تصميم مبرد بالسائل على مستوى الرف.³⁹ يقدم النظام استدلالاً فورياً أسرع بـ 30 مرة لنماذج اللغات الكبيرة ذات تريليون معامل مقارنة بالأجيال السابقة.⁴⁰
يتكامل Grace بالكامل مع منظومة برمجيات ARM. توفر NVIDIA HPC SDK وجميع مكونات CUDA مثبتات وحاويات أصلية لـ ARM.⁴¹ خدمات NVIDIA NIM المصغرة وحاويات NGC محسنة لـ ARM.⁴² تعمل جميع توزيعات Linux الرئيسية دون تعديل.⁴³
يمتد زخم ARM في مراكز البيانات إلى ما وراء NVIDIA. تتوقع ARM Holdings زيادة حصتها في سوق معالجات مراكز البيانات من حوالي 15% في 2024 إلى 50% بنهاية 2025.⁴⁴ يعكس هذا التوقع النمو القوي من خدمات ARM السحابية الأصلية واعتماد NVIDIA Grace.
يجلب GB10 Grace Blackwell superchip المعمارية إلى أجهزة سطح المكتب لمطوري الذكاء الاصطناعي والباحثين والحوسبة الطرفية.⁴⁵ يدمج النظام على شريحة واحدة معالج ARM مع قدرات Blackwell GPU، مما يتيح تطوير ذكاء اصطناعي محلي كان يتطلب سابقاً الوصول إلى مركز بيانات.
اختيار المعالج حسب حمل العمل
يعتمد اختيار المعالج للبنية التحتية للذكاء الاصطناعي على الدور المحدد ضمن بنية النشر. تفضل أحمال العمل المختلفة خصائص معالج مختلفة.
أحمال عمل مستوى التحكم والتنسيق تستفيد من العدد الكبير للنوى وسعة الذاكرة. تتوسع مستويات تحكم Kubernetes ومجدولات المهام وأنظمة المراقبة مع النوى المتاحة. توفر كثافة AMD EPYC البالغة 192 نواة مساحة للدمج. تهم قنوات الذاكرة وسعتها أكثر من أداء كل نواة لهذه الأحمال.
خطوط المعالجة المسبقة للبيانات تحول البيانات الخام إلى صيغ جاهزة للتدريب. غالباً ما تتوسع هذه الأحمال مع عرض نطاق الذاكرة بدلاً من الحوسبة. يوفر دعم Intel لـ MRDIMM بتردد 8.8 جيجاهرتز مزايا في عرض النطاق. غالباً ما تعمل مرحلة المعالجة المسبقة على أنظمة CPU مخصصة تغذي مجموعات GPU.
أحمال عمل خدمة الاستدلال تقدم أقوى حالة لتقييم المعالج. بينما تتعامل GPUs مع تنفيذ النموذج، تدير CPUs توجيه الطلبات والترميز وتجميع الاستجابات. يتيح تسريع Intel AMX الاستدلال القائم على CPU للنماذج الأصغر، مما قد يلغي متطلبات GPU لأحمال العمل المناسبة. توضح ميزة أداء ResNet50 الأعلى بـ 5.5 مرة عرض القيمة.
أنظمة استضافة GPU تتطلب معالجات لا تصبح عنق زجاجة. يحدد عدد ممرات PCIe عدد وحدات GPU التي تتصل بكل مقبس معالج. تدعم 128 ممر Gen5 في EPYC و136 ممر في Granite Rapids تكوينات ثماني وحدات GPU. يؤثر عرض نطاق الذاكرة على سرعة نقل البيانات إلى ذاكرة GPU لدفعات التدريب.
عمليات نشر الاستدلال الطرفي تفضل كفاءة الطاقة والإدخال/الإخراج المتكامل. يدمج Granite Rapids-D اتصال Ethernet لأجهزة الاستدلال الشبكية. توفر معمارية ARM في Grace ملف الكفاءة الذي تتطلبه عمليات النشر الطرفية.
اعتبارات تخطيط البنية التحتية
تفضل ديناميكيات سوق المعالجات تقييم موردين متعددين. تخلق مكاسب AMD المستمرة في الحصة ضغطاً تنافسياً يفيد المشترين. يُظهر رد Intel مع Granite Rapids استمرار الابتكار رغم تحديات السوق. يقدم NVIDIA Grace تمايزاً للمعماريات المتمحورة حول GPU.
تميز معمارية الذاكرة بشكل متزايد بين المنصات. يتيح دعم CXL توسيع الذاكرة إلى ما وراء سعة المقبس. تستمر سرعات DDR5 في الزيادة مع كل جيل. يجب على المؤسسات التي تخطط لبنية تحتية متعددة السنوات تقييم خرائط طريق الذاكرة إلى جانب مواصفات المعالج.
تحدد كفاءة الطاقة كثافة النشر في المرافق المحدودة. تستحق ادعاءات Grace بضعف الأداء لكل واط التحقق لأحمال عمل محددة. تتضاعف ميزة الطاقة عبر عمليات النشر الكبيرة حيث تقيد حدود المرافق النمو.
تضيق متطلبات منظومة البرمجيات الخيارات لبعض المؤسسات. يظل توافق x86 ضرورياً لأحمال العمل القديمة. يتطلب اعتماد ARM التحقق من التطبيقات وربما إعادة الترجمة. يبسط تكامل CUDA مع Grace الانتقال لعمليات النشر المتمحورة حول GPU.
يجب أن تشمل حسابات التكلفة الإجمالية للملكية ليس فقط تسعير المعالج ولكن تكاليف النظام واستهلاك الطاقة والترخيص. يتفوق تسعير AMD المواتي في الفئة العليا—معالج 9965 ذو 192 نواة بسعر $14,813—على عروض Intel المماثلة. ومع ذلك، قد يقلل تسريع Intel AMX من متطلبات GPU للاستدلال، مما يؤثر على معادلة التكلفة الأوسع.
يبقى المعالج أساس البنية التحتية للذكاء الاصطناعي حتى مع استحواذ GPUs على الاهتمام. المؤسسات التي تقيّم اختيار المعالج بنفس الدقة المطبقة على شراء GPU تبني أنظمة أكثر توازناً وكفاءة. تضمن الديناميكيات التنافسية بين AMD وIntel وNVIDIA أن التقييم الدقيق يحقق مزايا بنية تحتية ملموسة.
النقاط الرئيسية
لشراء الخوادم: - AMD EPYC Turin 9965: 192 نواة (Zen 5c)، 384 ميجابايت L3، TDP 500 واط بسعر $14,813؛ تسعير مواتٍ مقارنة بـ Intel في الفئة العليا - Intel Xeon 6900P: 128 نواة (Granite Rapids)، 504 ميجابايت L3، تسريع AMX FP16، دعم MRDIMM بتردد 8.8 جيجاهرتز - NVIDIA Grace: 72 نواة ARM، 480 جيجابايت LPDDR5X بعرض نطاق 546 جيجابايت/ثانية، TDP 250 واط؛ ادعاء ضعف الأداء/واط
لتخطيط أحمال العمل: - مستوى التحكم/التنسيق: يفضل العدد الكبير للنوى (كثافة AMD 192 نواة)؛ سعة الذاكرة أهم من سرعة كل نواة - المعالجة المسبقة للبيانات: تتوسع مع عرض نطاق الذاكرة؛ Intel MRDIMM 8.8 جيجاهرتز توفر ميزة - خدمة الاستدلال: Intel AMX تقدم أداء أعلى بـ 5.5 مرة في ResNet50 مقارنة بـ AMD؛ قد تلغي متطلبات GPU للنماذج الأصغر - أنظمة استضافة GPU: عدد ممرات PCIe (AMD 128، Intel 136 Ge
[تم اقتطاع المحتوى للترجمة]