วิวัฒนาการของ HBM: จาก HBM3 สู่ HBM4 และสงครามหน่วยความจำ AI

SK Hynix ครองตลาด HBM ด้วยส่วนแบ่ง 62% ในไตรมาส 2 ปี 2025 เทียบกับ Micron (21%) และ Samsung (17%) ตลาด HBM ทั่วโลกเติบโตจาก 38 พันล้านดอลลาร์ (2025) เป็น 58 พันล้านดอลลาร์ (2026) JEDEC เผยแพร่สเปค HBM4 อย่างเป็นทางการ (เมษายน 2025) เพิ่มอินเทอร์เฟซเป็นสองเท่าที่ 2,048 บิต ทำให้แบนด์วิดท์ถึง 2TB/s ต่อสแตก

วิวัฒนาการของ HBM: จาก HBM3 สู่ HBM4 และสงครามหน่วยความจำ AI

วิวัฒนาการของ HBM: จาก HBM3 สู่ HBM4 และสงครามหน่วยความจำ AI

อัปเดต 11 ธันวาคม 2025

อัปเดตธันวาคม 2025: SK Hynix ครองตลาด HBM ด้วยส่วนแบ่ง 62% ในไตรมาส 2 ปี 2025 เทียบกับ Micron (21%) และ Samsung (17%) ตลาด HBM ทั่วโลกเติบโตจาก 38 พันล้านดอลลาร์ในปี 2025 เป็น 58 พันล้านดอลลาร์ในปี 2026 JEDEC เผยแพร่สเปค HBM4 อย่างเป็นทางการ (เมษายน 2025) เพิ่มอินเทอร์เฟซเป็นสองเท่าที่ 2,048 บิต ทำให้แบนด์วิดท์ถึง 2 เทราไบต์ต่อวินาทีต่อสแตก SK Hynix แซงหน้า Samsung ขึ้นเป็นผู้ผลิต DRAM รายใหญ่ที่สุดในโลกเป็นครั้งแรกในประวัติศาสตร์

SK Hynix ครองตลาด HBM ด้วยส่วนแบ่ง 62% ในไตรมาส 2 ปี 2025 ตามด้วย Micron ที่ 21% และ Samsung ที่ 17%¹ ตลาด HBM ทั่วโลกจะเติบโตจาก 38 พันล้านดอลลาร์ในปี 2025 เป็น 58 พันล้านดอลลาร์ในปี 2026² JEDEC เผยแพร่สเปค HBM4 อย่างเป็นทางการในเดือนเมษายน 2025 เพิ่มความกว้างอินเทอร์เฟซเป็นสองเท่าที่ 2,048 บิต และทำให้แบนด์วิดท์ถึง 2 เทราไบต์ต่อวินาทีต่อสแตก³ High Bandwidth Memory กำหนดเพดานประสิทธิภาพของ AI accelerator—กำแพงหน่วยความจำที่กำหนดว่าโมเดลจะใหญ่ได้แค่ไหนและทำงานได้เร็วเพียงใด

รุ่นต่างๆ ของ HBM เป็นตัวแทนความสำเร็จด้านการผลิตและการแพ็คเกจ การซ้อน DRAM die ในแนวตั้งด้วย through-silicon vias (TSVs) และเชื่อมต่อผ่าน interposer ไปยัง GPU หรือ accelerator die สร้างแบนด์วิดท์หน่วยความจำที่เป็นไปไม่ได้ด้วยการแพ็คเกจ DRAM แบบดั้งเดิม แต่ละรุ่นเพิ่มความจุ แบนด์วิดท์ และความสูงสแตก ขณะที่ผู้ผลิตแข่งขันกันด้าน yield ความเร็วในการผ่านการรับรอง และความสัมพันธ์กับลูกค้า การแข่งขันนี้เปลี่ยนโฉมอุตสาหกรรมหน่วยความจำ โดย SK Hynix แซงหน้า Samsung ขึ้นเป็นผู้ผลิต DRAM รายใหญ่ที่สุดในโลกเป็นครั้งแรกในประวัติศาสตร์

HBM3: รากฐานของ AI ปัจจุบัน

HBM3 เปิดตัวในปี 2022 สร้างความสามารถด้านแบนด์วิดท์หน่วยความจำที่ทำให้เกิดการบูมของ AI ในปัจจุบัน⁴ สถาปัตยกรรมนี้เพิ่มจำนวนช่องสัญญาณเป็นสองเท่าจาก 8 เป็น 16 เมื่อเทียบกับ HBM2e ขณะที่อัตราข้อมูลเพิ่มเป็น 6.4 กิกะบิตต่อวินาที⁵

HBM3 สี่สแตกที่เชื่อมต่อกับโปรเซสเซอร์ผ่านอินเทอร์เฟซที่ทำงานที่ 6.4 กิกะบิตต่อวินาทีให้แบนด์วิดท์รวมกว่า 3.2 เทราไบต์ต่อวินาที⁶ แบนด์วิดท์ของสแตกเดี่ยวถึงประมาณ 819 กิกะไบต์ต่อวินาทีด้วยบัส 8 GT/s 1024 บิต⁷

HBM3 รองรับสแตก 16 ชั้นของ DRAM die ความจุ 32 กิกะบิต⁸ ความสามารถในการซ้อนทำให้ความจุหน่วยความจำถึง 24-36 กิกะไบต์ต่อสแตก ขึ้นอยู่กับความหนาแน่นของ die และความสูงสแตก⁹

สถาปัตยกรรมการซ้อน 3D ลด latency เมื่อเทียบกับ DRAM แบบดั้งเดิมผ่านเส้นทางสัญญาณที่สั้นลงและการเข้าถึง die หลายตัวพร้อมกัน¹⁰ การผสมผสานของการปรับปรุงแบนด์วิดท์ ความจุ และ latency ทำให้ HBM3 เป็นเทคโนโลยีหน่วยความจำที่ทำให้ large language model แบบ transformer ทำงานได้ในระดับใหญ่

GPU H100 ของ NVIDIA ใช้ HBM3 สร้างมาตรฐานประสิทธิภาพที่คู่แข่งต้องการเทียบ แบนด์วิดท์หน่วยความจำทำให้อัตราการใช้งาน tensor core สูงพอที่จะสมเหตุสมผลกับราคาพรีเมียมของ H100 เมื่อเทียบกับรุ่นก่อนหน้า

HBM3E: ผลักดันขีดจำกัด

ผู้ผลิต DRAM รายใหญ่เปิดตัวอุปกรณ์ HBM3E ที่ผลักดันอัตราข้อมูลถึง 9.6 กิกะบิตต่อวินาที—เร็วกว่า HBM3 50%¹¹ การปรับปรุงแบนด์วิดท์ทำให้ได้ประมาณ 1.2 เทราไบต์ต่อวินาทีต่อสแตก ใกล้ถึงขีดจำกัดในทางปฏิบัติของอินเทอร์เฟซ 1024 บิต¹²

SK Hynix นำหน้าการผลิตจำนวนมากด้วยสแตก 12 ชั้นที่ให้แบนด์วิดท์ 1.2+ เทราไบต์ต่อวินาที ขณะที่ยังคงเข้ากันได้กับ HBM3 controller¹³ ความเข้ากันได้ย้อนหลังทำให้ผู้ผลิต accelerator อัปเดตสเปคหน่วยความจำระหว่างรุ่นผลิตภัณฑ์ได้ง่ายขึ้น

Micron ประกาศหน่วยความจำ HBM3E ด้วยความเร็วประมวลผล 9.6 กิกะบิตต่อวินาทีต่อพิน ความจุ 24 กิกะไบต์ต่อคิวบ์ 8 ชั้น และถ่ายโอนข้อมูลที่ 1.2 เทราไบต์ต่อวินาที¹⁴ ความจุต่อสแตกเพิ่มขึ้นขณะที่ยังคงความกว้างอินเทอร์เฟซเดิม

Cadence สาธิตระบบย่อยหน่วยความจำ HBM3E ที่ทำงานที่ 12.4 กิกะบิตต่อวินาทีที่แรงดันไฟฟ้าปกติ โดย production PHY รองรับความเร็ว DRAM ถึง 10.4 กิกะบิตต่อวินาที—1.33 เทราไบต์ต่อวินาทีต่ออุปกรณ์¹⁵ การสาธิตแสดงให้เห็นช่องว่างสำหรับความเร็วที่สูงขึ้นภายในสเปค HBM3E

H200 ของ NVIDIA และผลิตภัณฑ์ Blackwell รุ่นแรกใช้ HBM3E H200 ขยายความจุหน่วยความจำเป็น 141 กิกะไบต์เทียบกับ 80 กิกะไบต์ของ H100 ขณะที่เพิ่มแบนด์วิดท์ตามสัดส่วน Blackwell B200 มี HBM3E 192 กิกะไบต์ที่แบนด์วิดท์รวม 8 เทราไบต์ต่อวินาที

การเปลี่ยนผ่านจาก HBM3 เป็น HBM3E แสดงให้เห็นความสามารถของอุตสาหกรรมหน่วยความจำในการดึงประสิทธิภาพเพิ่มเติมจากสถาปัตยกรรมที่มีอยู่ อย่างไรก็ตาม การเพิ่มประสิทธิภาพต่อไปต้องการการเปลี่ยนแปลงสถาปัตยกรรมที่ HBM4 นำเสนอ

HBM4: รุ่นถัดไป

JEDEC เผยแพร่สเปค HBM4 อย่างเป็นทางการในเดือนเมษายน 2025¹⁶ สเปคนี้เป็นการเปลี่ยนแปลงสถาปัตยกรรมที่สำคัญที่สุดนับตั้งแต่เปิดตัว HBM โดยเพิ่มความกว้างอินเทอร์เฟซเป็นสองเท่าจาก 1,024 บิตเป็น 2,048 บิต¹⁷

HBM4 รองรับความเร็วถ่ายโอนถึง 8 กิกะบิตต่อวินาทีข้ามอินเทอร์เฟซที่กว้างขึ้น โดยแบนด์วิดท์รวมถึง 2 เทราไบต์ต่อวินาทีต่อสแตก¹⁸ GPU ที่มีอุปกรณ์ HBM4 8 ตัวได้แบนด์วิดท์หน่วยความจำรวมกว่า 13 เทราไบต์ต่อวินาที¹⁹

อินเทอร์เฟซที่กว้างขึ้นต้องการการเปลี่ยนแปลงสถาปัตยกรรมทั่วทั้งระบบย่อยหน่วยความจำ HBM4 เพิ่มจำนวนช่องสัญญาณอิสระต่อสแตกเป็นสองเท่าเป็น 32 พร้อม 2 pseudo-channel ต่อช่องสัญญาณ²⁰ ช่องข้อมูล 2,048 บิตแบ่งออกเป็น 32 ช่อง 64 บิต หรือ 64 pseudo-channel 32 บิต เทียบกับ 16 ช่อง 64 บิตของ HBM3²¹

ความสูงสแตกเพิ่มเป็นสูงสุด 16 die โดยความหนาแน่น DRAM die ที่ 24 กิกะบิตหรือ 32 กิกะบิต ทำให้ความจุถึง 64 กิกะไบต์ต่อสแตก²² การเพิ่มความจุตอบสนองจำนวนพารามิเตอร์ที่เพิ่มขึ้นของ foundation model ที่เกินขีดจำกัดหน่วยความจำปัจจุบัน

HBM4 ยังคงเข้ากันได้ย้อนหลังกับ HBM3 controller ทำให้การเปลี่ยนผ่านสำหรับผู้ผลิต accelerator ง่ายขึ้น²³ Rambus HBM4 Memory Controller เพิ่มความเร็วสัญญาณที่รองรับเป็น 10.0 กิกะบิตต่อวินาที ให้ throughput 2.56 เทราไบต์ต่อวินาทีต่ออุปกรณ์ HBM4 ที่อัตราสูงสุด²⁴

การปรับปรุงความน่าเชื่อถือรวมถึง Directed Refresh Management (DRFM) สำหรับการบรรเทา row-hammer ที่ดีขึ้น²⁵ คุณสมบัติ RAS (Reliability, Availability, Serviceability) ที่ปรับปรุงแล้วตอบสนองความกังวลเกี่ยวกับความน่าเชื่อถือของ DRAM ที่อุณหภูมิสูงซึ่งพบได้ทั่วไปใน AI accelerator

HBM4E ขยายสเปคต่อไปด้วยอัตราข้อมูล 10 กิกะบิตต่อวินาที แบนด์วิดท์ 2.5 เทราไบต์ต่อวินาทีต่อสแตก และพลังงานต่อแพ็คเกจถึง 80 วัตต์²⁶ สเปค HBM4E มุ่งเป้าไปที่ช่วงเวลาปี 2027

การแข่งขันของผู้ผลิต

SK Hynix พัฒนา HBM4 เสร็จสมบูรณ์และเตรียมพร้อมสำหรับการผลิตปริมาณมากภายในปลายปี 2025²⁷ สแตก HBM4 ของ SK Hynix เกินสเปค JEDEC 25% ในด้านประสิทธิภาพ โดยมีอัตราถ่ายโอนข้อมูล 10 GT/s เทียบกับมาตรฐาน 8 GT/s²⁸ การจัดส่งปริมาณมากเริ่มต้นในต้นปี 2026 หลังจากผ่านการรับรองจากลูกค้าขั้นสุดท้าย²⁹

SK Hynix กลายเป็นซัพพลายเออร์ HBM หลักของ NVIDIA ซึ่งเป็นความสัมพันธ์ที่ขับเคลื่อนการเติบโตส่วนแบ่งตลาดของบริษัท³⁰ ความร่วมมือกับ NVIDIA ทำให้ SK Hynix ได้รับความต้องการหน่วยความจำ AI มูลค่าสูงส่วนใหญ่

Micron เริ่มจัดส่งตัวอย่าง HBM4 ในเดือนมิถุนายน 2025 โดยให้สแตก 12 ชั้น 36 กิกะไบต์แก่ลูกค้าหลักรวมถึงมีรายงานว่า NVIDIA³¹ ภายในไตรมาส 4 ปี 2025 Micron ประกาศตัวอย่าง HBM4 ที่ทำงานด้วยความเร็วเกิน 11 กิกะบิตต่อวินาทีต่อพิน ให้แบนด์วิดท์กว่า 2.8 เทราไบต์ต่อวินาทีต่อสแตก³² กำหนดเวลาผลิตจำนวนมากมุ่งเป้าปฏิทินปี 2026³³

Micron ได้รับ design win กับ NVIDIA สำหรับ GPU Hopper H200 และ Blackwell B200 ทำให้ส่วนแบ่งตลาด HBM เติบโตจากประมาณ 5% ไปสู่เป้าหมาย 20-25% ภายในสิ้นปี 2025³⁴ การผ่านการรับรองจาก NVIDIA ยืนยันเทคโนโลยีและความสามารถในการผลิตของ Micron

Samsung มุ่งเริ่มผลิต HBM4 จำนวนมากในครึ่งแรกของปี 2026³⁵ ในไตรมาส 3 ปี 2025 Samsung เริ่มจัดส่งตัวอย่าง HBM4 ปริมาณมากให้ NVIDIA สำหรับการรับรองเบื้องต้น³⁶ มีรายงานว่า Samsung เป็นซัพพลายเออร์ HBM4 หลักสำหรับ accelerator MI450 ของ AMD³⁷

ส่วนแบ่งตลาด HBM ของ Samsung ลดลงอย่างมากจาก 41% ในไตรมาส 2 ปี 2024 เหลือ 17% ในไตรมาส 2 ปี 2025 เนื่องจากบริษัทประสบปัญหาในการผ่านการทดสอบรับรองของ NVIDIA³⁸ Samsung ยังคงพึ่งพาชิป HBM3 รุ่นเก่าเป็นส่วนใหญ่สำหรับยอดขาย HBM ขณะที่คู่แข่งจัดส่ง HBM3E³⁹ นักวิเคราะห์คาดการณ์ว่าตำแหน่งของ Samsung จะแข็งแกร่งขึ้นเมื่อชิ้นส่วน HBM3E ผ่านการรับรองและ HBM4 เข้าสู่การจัดส่งเต็มรูปแบบในปี 2026⁴⁰

การแข่งขัน HBM เปลี่ยนโฉมอุตสาหกรรมหน่วยความจำโดยรวม SK Hynix ขึ้นนำเป็นครั้งแรกในตลาด DRAM โดยรวม ครองส่วนแบ่ง 36% ของรายได้ในไตรมาส 1 ปี 2025 เทียบกับ 34% ของ Samsung⁴¹ การกลับตัวของความเป็นผู้นำ Samsung ที่มีมายาวนานสะท้อนส่วนแบ่งที่เพิ่มขึ้นของ HBM ในมูลค่า DRAM รวม

แผนงานของ NVIDIA และ AMD

แผนงานอย่างเป็นทางการของ NVIDIA แสดง Rubin ที่มี 8 ตำแหน่ง HBM4 และ Rubin Ultra ที่มี 16 ตำแหน่ง HBM4⁴² interposer ของ Rubin มีขนาด 2,194 ตารางมิลลิเมตรและรองรับความจุ VRAM 288 ถึง 384 กิกะไบต์พร้อมแบนด์วิดท์รวม 16-32 เทราไบต์ต่อวินาที⁴³ พลังงานชิปรวมถึง 2,200 วัตต์⁴⁴

ความจุ HBM คาดว่าจะเติบโตจาก 80 กิกะไบต์ HBM2E ของ A100 เป็น 1,024 กิกะไบต์ HBM4E สำหรับ Rubin Ultra⁴⁵ แนวโน้มสะท้อนความต้องการหน่วยความจำของโมเดลที่อาจถึงหลายสิบล้านล้านพารามิเตอร์

การผลิต Rubin อยู่ในแผนสำหรับครึ่งหลังของปี 2026⁴⁶ การ์ดสำหรับผู้บริโภคที่ใช้สถาปัตยกรรมนี้คาดว่าจะออกในปลายปี 2026 หรือต้นปี 2027⁴⁷ กำหนดเวลาทำให้ Rubin เป็นรุ่นสืบทอดของ Blackwell Ultra ในไลน์อัป data center ของ NVIDIA

AMD ยืนยัน HBM4 สำหรับ accelerator ซีรีส์ MI400⁴⁸ Instinct MI400 ของ AMD ที่เปิดตัวในปี 2026 มุ่งเป้าความจุ HBM4 432 กิกะไบต์พร้อมแบนด์วิดท์หน่วยความจำถึง 19.6 เทราไบต์ต่อวินาที⁴⁹ MI430X เป็น AMD accelerator ตัวแรกที่ใช้ HBM4⁵⁰

รุ่น HBM4 สร้างระดับประสิทธิภาพใหม่สำหรับผู้ผลิตทั้งสองราย การเพิ่มแบนด์วิดท์และความจุหน่วยความจำทำให้รองรับขนาดโมเดลและ inference throughput ที่ HBM3E ไม่สามารถรองรับได้อย่างมีประสิทธิภาพ

ข้อจำกัดของกำแพงหน่วยความจำ

การเติบโตของแบนด์วิดท์หน่วยความจำช้ากว่าการเติบโตของความสามารถในการคำนวณใน AI accelerator "กำแพงหน่วยความจำ" จำกัดว่า accelerator ใช้ทรัพยากรการคำนวณได้อย่างมีประสิทธิภาพแค่ไหน วิวัฒนาการ HBM เป็นการตอบสนองหลักของอุตสาหกรรมต่อข้อจำกัดนี้

Large language model แสดงลักษณะที่ถูกจำกัดด้วยหน่วยความจำระหว่าง inference กลไก attention ต้องการเข้าถึง key-value cache ทั้งหมดสำหรับแต่ละ token ที่สร้าง แบนด์วิดท์หน่วยความจำกำหนดว่าการเข้าถึงนี้เกิดขึ้นเร็วแค่ไหน ส่งผลโดยตรงต่อ throughput token ต่อวินาที

workload การฝึกเผชิญกับข้อจำกัดหน่วยความจำที่แตกต่างกัน พารามิเตอร์โมเดล gradient optimizer state และ activation แข่งขันกันเพื่อความจุหน่วยความจำ แบนด์วิดท์หน่วยความจำส่งผลต่อความเร็วในการย้ายข้อมูลระหว่างหน่วยประมวลผลระหว่างขั้นตอน gradient accumulation และ optimization

แบนด์วิดท์ 2 เทราไบต์ต่อวินาทีของ HBM4 เทียบกับ 819 กิกะไบต์ต่อวินาทีของ HBM3 เป็นการปรับปรุง 2.4 เท่า⁵¹ รวมกับการเพิ่มความจุจาก 36 กิกะไบต์เป็น 64 กิกะไบต์ต่อสแตก HBM4 ตอบสนองทั้งมิติแบนด์วิดท์และความจุของกำแพงหน่วยความจำ

อย่างไรก็ตาม ความสามารถในการคำนวณเพิ่มขึ้นเร็วกว่าแบนด์วิดท์หน่วยความจำ แต่ละรุ่น HBM ให้การปรับปรุงแบนด์วิดท์ประมาณ 2 เท่าขณะที่การคำนวณก็เพิ่มเป็นสองเท่าในแต่ละรุ่นเช่นกัน กำแพงหน่วยความจำถอยร่นแต่ไม่หายไป

รุ่น HBM ในอนาคต—HBM5 ถึง HBM8—คาดการณ์การเพิ่มแบนด์วิดท์อย่างต่อเนื่องผ่านอัตราข้อมูลที่สูงขึ้นและอินเทอร์เฟซที่อาจกว้างขึ้น⁵² แผนงานขยายไปตลอดทศวรรษด้วยเป้าหมายแบนด์วิดท์ถึง 64 เทราไบต์ต่อวินาทีต่อระบบ⁵³

ข้อพิจารณาในการวางแผนโครงสร้างพื้นฐาน

ข้อจำกัดด้านอุปทาน HBM ส่งผลต่อความพร้อมของ accelerator การขาดแคลน HBM จำกัดการจัดส่ง GPU ตลอดปี 2023 และ 2024 องค์กรที่วางแผนการติดตั้งขนาดใหญ่ควรเข้าใจว่าการจัดซื้อ GPU ขึ้นอยู่กับกำลังการผลิตของผู้ผลิตหน่วยความจำ

ความสัมพันธ์กับผู้ขายกำหนดการเข้าถึง ความสัมพันธ์ระหว่าง SK Hynix กับ NVIDIA ตำแหน่งของ Samsung กับ AMD และความพยายามในการผ่านการรับรองอย่างกว้างขวางของ Micron สร้างความซับซ้อนของ supply chain ผู้ผลิต accelerator ระดับรองอาจเผชิญ lead time ที่ยาวนานขึ้นหากหน่วยความจำให้ความสำคัญกับคำสั่งซื้อของ hyperscaler

การเปลี่ยนผ่าน HBM4 สร้างการเปลี่ยนแปลงรุ่นในปลายปี 2026 องค์กรที่ติดตั้งตอนนี้จะได้รับระบบที่ใช้ HBM3E องค์กรที่รอ Rubin หรือ MI400 จะได้รับข้อได้เปรียบของ HBM4 กำหนดเวลาส่งผลต่อการวางแผนโครงสร้างพื้นฐานหลายปี

ขอใบเสนอราคา_

แจ้งรายละเอียดโครงการของคุณ เราจะตอบกลับภายใน 72 ชั่วโมง

> TRANSMISSION_COMPLETE

ได้รับคำขอแล้ว_

ขอบคุณสำหรับคำสอบถาม ทีมงานจะตรวจสอบคำขอและติดต่อกลับภายใน 72 ชั่วโมง

QUEUED FOR PROCESSING