تطور ذاكرة HBM: من HBM3 إلى HBM4 وحرب ذاكرة الذكاء الاصطناعي
آخر تحديث: 11 ديسمبر 2025
تحديث ديسمبر 2025: تتصدر SK Hynix سوق HBM بحصة 62% في الربع الثاني من 2025 مقابل Micron (21%) وSamsung (17%). ينمو سوق HBM العالمي من 38 مليار دولار في 2025 إلى 58 مليار دولار في 2026. أصدرت JEDEC المواصفات الرسمية لـ HBM4 (أبريل 2025) مضاعفةً عرض الواجهة إلى 2,048 بت مما يتيح سرعة 2 تيرابايت/ثانية لكل مجموعة. تتفوق SK Hynix على Samsung لتصبح أكبر مصنع لذاكرة DRAM في العالم لأول مرة في التاريخ.
تتصدر SK Hynix سوق HBM بحصة 62% في الربع الثاني من 2025، تليها Micron بنسبة 21% وSamsung بنسبة 17%.¹ سينمو سوق HBM العالمي من 38 مليار دولار في 2025 إلى 58 مليار دولار في 2026.² أصدرت JEDEC المواصفات الرسمية لـ HBM4 في أبريل 2025، مضاعفةً عرض الواجهة إلى 2,048 بت ومتيحةً سرعة تصل إلى 2 تيرابايت في الثانية لكل مجموعة.³ تحدد ذاكرة النطاق الترددي العالي (High Bandwidth Memory) السقف الأقصى لأداء مسرّعات الذكاء الاصطناعي—حاجز الذاكرة الذي يحدد حجم النموذج الممكن وسرعة تشغيله.
تمثل أجيال HBM انتصاراً في التصنيع والتغليف. إن تكديس شرائح DRAM عمودياً باستخدام المسارات العابرة للسيليكون (TSVs) وربطها عبر طبقة وسيطة (interposer) بشرائح GPU أو المسرّعات يخلق نطاقاً ترددياً للذاكرة مستحيل التحقيق بتقنيات تغليف DRAM التقليدية. يزيد كل جيل من السعة والنطاق الترددي وارتفاع التكديس بينما يتنافس المصنعون على معدلات الإنتاج وسرعة الاعتماد والعلاقات مع العملاء. أعادت هذه المنافسة تشكيل صناعة الذاكرة، حيث تفوقت SK Hynix على Samsung لتصبح أكبر مصنع لذاكرة DRAM في العالم لأول مرة في التاريخ.
HBM3: أساس الذكاء الاصطناعي الحالي
أسست HBM3، التي قُدمت في 2022، قدرات النطاق الترددي للذاكرة التي مكّنت طفرة الذكاء الاصطناعي الحالية.⁴ ضاعفت البنية عدد القنوات من 8 إلى 16 مقارنة بـ HBM2e، بينما ارتفعت معدلات نقل البيانات إلى 6.4 جيجابت في الثانية.⁵
تقدم أربع مجموعات HBM3 متصلة بمعالج عبر واجهة تعمل بسرعة 6.4 جيجابت في الثانية نطاقاً ترددياً إجمالياً يتجاوز 3.2 تيرابايت في الثانية.⁶ يصل النطاق الترددي للمجموعة الواحدة إلى حوالي 819 جيجابايت في الثانية مع ناقل 1024 بت بسرعة 8 GT/s.⁷
تدعم HBM3 مجموعات من 16 طبقة من شرائح DRAM بسعة 32 جيجابت.⁸ تتيح إمكانية التكديس سعات ذاكرة تصل إلى 24-36 جيجابايت لكل مجموعة حسب كثافة الشريحة وارتفاع التكديس.⁹
تقلل بنية التكديس ثلاثية الأبعاد زمن الاستجابة مقارنة بذاكرة DRAM التقليدية من خلال مسارات إشارة أقصر والوصول المتوازي لعدة شرائح في آن واحد.¹⁰ جعل الجمع بين تحسينات النطاق الترددي والسعة وزمن الاستجابة من HBM3 تقنية الذاكرة التي مكّنت نماذج اللغة الكبيرة القائمة على المحولات (Transformers) على نطاق واسع.
استخدمت وحدة معالجة الرسومات H100 من NVIDIA ذاكرة HBM3، مؤسسةً خط الأساس للأداء الذي استهدفه المنافسون. مكّن النطاق الترددي للذاكرة معدلات استخدام نواة Tensor التي بررت العلاوة السعرية لـ H100 مقارنة بالأجيال السابقة.
HBM3E: دفع الحدود
قدم كبار مصنعي DRAM أجهزة HBM3E بمعدلات بيانات تصل إلى 9.6 جيجابت في الثانية—أسرع بنسبة 50% من HBM3.¹¹ مكّن تحسين النطاق الترددي من تحقيق حوالي 1.2 تيرابايت في الثانية لكل مجموعة، مقتربةً من الحدود العملية لواجهة 1024 بت.¹²
تتصدر SK Hynix الإنتاج الضخم بمجموعات من 12 طبقة تقدم نطاقاً ترددياً يتجاوز 1.2 تيرابايت في الثانية مع الحفاظ على التوافق العكسي مع وحدات تحكم HBM3.¹³ سهّل التوافق العكسي التبني لدى مصنعي المسرّعات الذين يحدّثون مواصفات الذاكرة بين أجيال المنتجات.
أعلنت Micron عن ذاكرة HBM3E بسرعة معالجة 9.6 جيجابت في الثانية لكل دبوس، و24 جيجابايت لكل مكعب من 8 طبقات، ونقل بيانات بسرعة 1.2 تيرابايت في الثانية.¹⁴ زادت السعة لكل مجموعة مع الحفاظ على عرض الواجهة الحالي.
أظهرت Cadence أنظمة ذاكرة HBM3E الفرعية تعمل بسرعة 12.4 جيجابت في الثانية عند الفولتية الاسمية، مع دعم PHY الإنتاجي لسرعات DRAM تصل إلى 10.4 جيجابت في الثانية—1.33 تيرابايت في الثانية لكل جهاز.¹⁵ أظهر العرض التوضيحي مجالاً لسرعات أعلى ضمن مواصفات HBM3E.
تستخدم H200 من NVIDIA ومنتجات Blackwell الأولية ذاكرة HBM3E. وسّعت H200 سعة الذاكرة إلى 141 جيجابايت مقارنة بـ 80 جيجابايت في H100 مع زيادة النطاق الترددي بشكل متناسب. وصلت B200 من Blackwell إلى 192 جيجابايت من HBM3E بنطاق ترددي إجمالي 8 تيرابايت في الثانية.
أظهر الانتقال من HBM3 إلى HBM3E قدرة صناعة الذاكرة على استخلاص أداء إضافي من البنى الحالية. ومع ذلك، تتطلب المكاسب الإضافية التغييرات البنيوية التي تقدمها HBM4.
HBM4: الجيل القادم
أصدرت JEDEC المواصفات الرسمية لـ HBM4 في أبريل 2025.¹⁶ تمثل المواصفات أهم تغيير بنيوي منذ تقديم HBM، حيث تضاعف عرض الواجهة من 1,024 بت إلى 2,048 بت.¹⁷
تدعم HBM4 سرعات نقل تصل إلى 8 جيجابت في الثانية عبر الواجهة الأوسع، مع نطاق ترددي إجمالي يصل إلى 2 تيرابايت في الثانية لكل مجموعة.¹⁸ تحقق وحدة GPU مع 8 أجهزة HBM4 نطاقاً ترددياً إجمالياً للذاكرة يتجاوز 13 تيرابايت في الثانية.¹⁹
تطلب عرض الواجهة الأوسع تغييرات بنيوية في جميع أنحاء النظام الفرعي للذاكرة. تضاعف HBM4 عدد القنوات المستقلة لكل مجموعة إلى 32 مع قناتين زائفتين لكل قناة.²⁰ تنقسم قناة البيانات ذات 2,048 بت إلى 32 قناة بعرض 64 بت أو 64 قناة زائفة بعرض 32 بت، مقارنة بـ 16 قناة بعرض 64 بت في HBM3.²¹
يزداد ارتفاع التكديس إلى 16 شريحة كحد أقصى مع كثافات شرائح DRAM تبلغ 24 جيجابت أو 32 جيجابت، مما يتيح سعات تصل إلى 64 جيجابايت لكل مجموعة.²² تعالج الزيادة في السعة أعداد المعاملات المتنامية للنماذج الأساسية التي تتجاوز حدود الذاكرة الحالية.
تحافظ HBM4 على التوافق العكسي مع وحدات تحكم HBM3، مما يسهل الانتقال لمصنعي المسرّعات.²³ ترفع وحدة تحكم ذاكرة HBM4 من Rambus سرعة الإشارة المدعومة إلى 10.0 جيجابت في الثانية، مما يوفر إنتاجية 2.56 تيرابايت في الثانية لكل جهاز HBM4 بالمعدل الأقصى.²⁴
تشمل تحسينات الموثوقية إدارة التحديث الموجه (DRFM) لتحسين التخفيف من هجمات row-hammer.²⁵ تعالج ميزات RAS المحسّنة (الموثوقية والتوافر وقابلية الصيانة) المخاوف بشأن موثوقية DRAM في درجات الحرارة المرتفعة الشائعة في مسرّعات الذكاء الاصطناعي.
توسع HBM4E المواصفات بشكل أكبر مع معدلات بيانات 10 جيجابت في الثانية، ونطاق ترددي 2.5 تيرابايت في الثانية لكل مجموعة، واستهلاك طاقة يصل إلى 80 واط لكل حزمة.²⁶ تستهدف مواصفات HBM4E الإطار الزمني لعام 2027.
المنافسة بين المصنعين
أكملت SK Hynix تطوير HBM4 واستعدت للتصنيع بكميات كبيرة بحلول أواخر 2025.²⁷ تتجاوز مجموعات HBM4 من SK Hynix مواصفات JEDEC بنسبة 25% في الأداء، حيث تتميز بمعدلات نقل بيانات 10 GT/s مقارنة بالمعيار البالغ 8 GT/s.²⁸ تبدأ الشحنات بالكميات في أوائل 2026 بعد الاعتمادات النهائية من العملاء.²⁹
أصبحت SK Hynix المورد الرئيسي لذاكرة HBM لـ NVIDIA، وهي علاقة دفعت مكاسب حصة الشركة السوقية.³⁰ وضعت شراكة NVIDIA شركة SK Hynix للاستحواذ على غالبية الطلب على ذاكرة الذكاء الاصطناعي عالية القيمة.
بدأت Micron في شحن عينات HBM4 في يونيو 2025، حيث قدمت مجموعات من 12 طبقة بسعة 36 جيجابايت للعملاء الرئيسيين بما في ذلك NVIDIA حسب التقارير.³¹ بحلول الربع الرابع من 2025، أعلنت Micron عن عينات HBM4 تعمل بسرعات تتجاوز 11 جيجابت في الثانية لكل دبوس، مما يوفر أكثر من 2.8 تيرابايت في الثانية لكل مجموعة.³² يستهدف توقيت الإنتاج الضخم السنة التقويمية 2026.³³
حصلت Micron على عقود تصميم مع NVIDIA لوحدات Hopper H200 وBlackwell B200 GPU، مما أدى إلى نمو حصتها السوقية في HBM من حوالي 5% نحو هدف 20-25% بنهاية 2025.³⁴ يؤكد اعتماد NVIDIA تقنية Micron وقدرتها التصنيعية.
تهدف Samsung إلى بدء الإنتاج الضخم لـ HBM4 في النصف الأول من 2026.³⁵ في الربع الثالث من 2025، بدأت Samsung في شحن كميات كبيرة من عينات HBM4 إلى NVIDIA للاعتماد المبكر.³⁶ تُعد Samsung حسب التقارير المورد الرئيسي لـ HBM4 لمسرّع MI450 من AMD.³⁷
انخفضت حصة Samsung السوقية في HBM بشكل حاد من 41% في الربع الثاني من 2024 إلى 17% في الربع الثاني من 2025 حيث كافحت الشركة لاجتياز اختبارات اعتماد NVIDIA.³⁸ ظلت Samsung تعتمد بشكل كبير على شرائح HBM3 من الجيل القديم لمبيعات HBM بينما شحن المنافسون HBM3E.³⁹ يتوقع المحللون أن يتعزز موقف Samsung مع اعتماد قطع HBM3E ودخول HBM4 في التوريد الكامل في 2026.⁴⁰
أعادت منافسة HBM تشكيل صناعة الذاكرة الأوسع. تصدرت SK Hynix لأول مرة في سوق DRAM الإجمالي، حيث استحوذت على 36% من حصة الإيرادات في الربع الأول من 2025 مقارنة بـ 34% لـ Samsung.⁴¹ يعكس انقلاب ريادة Samsung الطويلة حصة HBM المتنامية من إجمالي قيمة DRAM.
خرائط طريق NVIDIA وAMD
تُظهر خريطة طريق NVIDIA الرسمية Rubin مع 8 مواقع HBM4 وRubin Ultra مع 16 موقع HBM4.⁴² يبلغ حجم طبقة Rubin الوسيطة 2,194 مليمتر مربع وتستضيف سعة VRAM تتراوح بين 288 و384 جيجابايت مع نطاق ترددي إجمالي يتراوح بين 16 و32 تيرابايت في الثانية.⁴³ تصل طاقة الشريحة الإجمالية إلى 2,200 واط.⁴⁴
من المتوقع أن تنمو سعة HBM من 80 جيجابايت من HBM2E في A100 إلى 1,024 جيجابايت من HBM4E في Rubin Ultra.⁴⁵ يعكس المسار متطلبات الذاكرة للنماذج التي قد تصل إلى عشرات التريليونات من المعاملات.
يسير إنتاج Rubin على المسار الصحيح للنصف الثاني من 2026.⁴⁶ من المتوقع أن تصدر بطاقات المستهلكين القائمة على هذه البنية في أواخر 2026 أو أوائل 2027.⁴⁷ يضع التوقيت Rubin كخليفة لـ Blackwell Ultra في تشكيلة مراكز البيانات لدى NVIDIA.
أكدت AMD استخدام HBM4 لسلسلة مسرّعات MI400.⁴⁸ يستهدف Instinct MI400 من AMD، الذي سيُطلق في 2026، سعة HBM4 تبلغ 432 جيجابايت مع نطاق ترددي للذاكرة يصل إلى 19.6 تيرابايت في الثانية.⁴⁹ يُعد MI430X أول مسرّع من AMD يستخدم HBM4.⁵⁰
يؤسس جيل HBM4 مستوى أداء جديداً لكلا المصنعين. تمكّن زيادات النطاق الترددي والسعة للذاكرة أحجام النماذج وإنتاجية الاستدلال التي لا تستطيع HBM3E دعمها بكفاءة.
قيد حاجز الذاكرة
يتخلف نمو النطاق الترددي للذاكرة عن نمو القدرة الحاسوبية في مسرّعات الذكاء الاصطناعي. يقيّد "حاجز الذاكرة" مدى فعالية استخدام المسرّعات لمواردها الحاسوبية. يمثل تطور HBM الاستجابة الرئيسية للصناعة لهذا القيد.
تُظهر نماذج اللغة الكبيرة خصائص محدودة بالذاكرة أثناء الاستدلال. تتطلب آلية الانتباه الوصول إلى ذاكرة التخزين المؤقت الكاملة للمفاتيح والقيم (key-value cache) لكل رمز يتم إنشاؤه. يحدد النطاق الترددي للذاكرة سرعة هذا الوصول، مما يؤثر مباشرة على إنتاجية الرموز في الثانية.
تواجه أحمال عمل التدريب قيوداً مختلفة للذاكرة. تتنافس معاملات النموذج والتدرجات وحالات المحسّن والتنشيطات على سعة الذاكرة. يؤثر النطاق الترددي للذاكرة على سرعة نقل البيانات بين وحدات المعالجة أثناء تراكم التدرجات وخطوات التحسين.
يمثل النطاق الترددي البالغ 2 تيرابايت في الثانية لـ HBM4 مقارنة بـ 819 جيجابايت في الثانية لـ HBM3 تحسناً بمقدار 2.4 ضعف.⁵¹ بالاقتران مع زيادات السعة من 36 جيجابايت إلى 64 جيجابايت لكل مجموعة، تعالج HBM4 كلاً من بُعدي النطاق الترددي والسعة لحاجز الذاكرة.
ومع ذلك، تزداد القدرة الحاسوبية بشكل أسرع من النطاق الترددي للذاكرة. يوفر كل جيل من HBM تحسناً بمقدار ضعفين تقريباً في النطاق الترددي بينما تتضاعف القدرة الحاسوبية أيضاً في كل جيل. يتراجع حاجز الذاكرة لكنه لا يختفي أبداً.
تتوقع أجيال HBM المستقبلية—من HBM5 إلى HBM8—استمرار توسيع النطاق الترددي من خلال معدلات بيانات أعلى وواجهات أوسع محتملة.⁵² تمتد خريطة الطريق خلال العقد مع أهداف نطاق ترددي تصل إلى 64 تيرابايت في الثانية لكل نظام.⁵³
اعتبارات تخطيط البنية التحتية
تؤثر قيود توريد HBM على توفر المسرّعات. حدّ نقص HBM من شحنات GPU طوال 2023 و2024. يجب على المؤسسات التي تخطط لعمليات نشر كبيرة أن تفهم أن شراء GPU يعتمد على قدرة مصنعي الذاكرة.
تحدد علاقات الموردين إمكانية الوصول. تخلق علاقة SK Hynix مع NVIDIA، وموقع Samsung مع AMD، وجهود اعتماد Micron الواسعة تعقيداً في سلسلة التوريد. قد يواجه مصنعو المسرّعات من المستوى الثاني فترات انتظار أطول إذا أعطت الذاكرة الأولوية لطلبات مزودي الخدمات السحابية الكبرى.
يخلق الانتقال إلى HBM4 تحولاً جيلياً في أواخر 2026. ستتلقى المؤسسات التي تنشر الآن أنظمة قائمة على HBM3E. أما تلك التي تنتظر Rubin أو MI400 فستكتسب مزايا HBM4. يؤثر التوقيت على تخطيط البنية التحتية متعدد السنوات.