วัฏจักรหน่วยความจำ AI ครั้งใหญ่: HBM กลายเป็นคอขวดที่สำคัญที่สุดของ AI ได้อย่างไร

วัฏจักรหน่วยความจำ AI ครั้งใหญ่มาถึงแล้ว เมื่อ HBM ขายหมดจนถึงปี 2026 ตลาดรวมมูลค่า 100 พันล้านดอลลาร์ภายในปี 2028 และ GPU สำหรับเกมติดอยู่ในวังวน หน่วยความจำได้กลายเป็นข้อจำกัดด้านโครงสร้างพื้นฐานที่สำคัญที่สุดของ AI

วัฏจักรหน่วยความจำ AI ครั้งใหญ่: HBM กลายเป็นคอขวดที่สำคัญที่สุดของ AI ได้อย่างไร

วัฏจักรหน่วยความจำ AI ครั้งใหญ่: HBM กลายเป็นคอขวดที่สำคัญที่สุดของ AI ได้อย่างไร

กำลังการผลิต High-bandwidth memory ของ Micron ขายหมดตลอดปีปฏิทิน 2026^[1]^ ประโยคเดียวนี้จากการประชุมรายงานผลประกอบการไตรมาส 1 ปีงบประมาณ 2026 ของบริษัท สะท้อนการเปลี่ยนแปลงเชิงโครงสร้างที่กำลังเปลี่ยนโฉมอุตสาหกรรมเซมิคอนดักเตอร์ทั้งหมด วัฏจักรหน่วยความจำ AI ครั้งใหญ่ได้เปลี่ยนจากการคาดการณ์ของนักวิเคราะห์เป็นความเป็นจริงในการดำเนินงาน สร้างความไม่สมดุลระหว่างอุปสงค์และอุปทานอย่างรุนแรงจนการผลิต GPU สำหรับเกมต้องถูกตัดลง 40%^[2]^ ในขณะที่ผู้ผลิตหน่วยความจำรายงานอัตรากำไรสูงสุดเป็นประวัติการณ์เกิน 50%^[3]^

ข้อจำกัดนี้เป็นมากกว่าการหยุดชะงักของอุปทานชั่วคราว อุตสาหกรรมหน่วยความจำได้ผ่านการปรับโครงสร้างครั้งใหญ่ เปลี่ยนจากวัฏจักรขึ้นลงที่เกิดขึ้นมาหลายทศวรรษ ไปสู่ส่วนเพิ่มราคาที่ยั่งยืนซึ่งขับเคลื่อนโดยความต้องการ bandwidth ที่ไม่รู้จักพอของ Generative AI การทำความเข้าใจว่า HBM กลายเป็นคอขวดที่สำคัญของ AI ได้อย่างไร ต้องพิจารณาข้อกำหนดทางเทคนิคที่ขับเคลื่อนอุปสงค์ โครงสร้างตลาดแบบผู้ขายน้อยรายที่ควบคุมอุปทาน และผลกระทบด้านโครงสร้างพื้นฐานที่จะกำหนดเศรษฐศาสตร์ของศูนย์ข้อมูลในอีกหลายปีข้างหน้า

สรุปสั้น

  • กำลังการผลิต HBM ขายหมดจนถึงปี 2026 จากผู้จัดหาหลักทุกราย (SK Hynix, Micron, Samsung)
  • คาดการณ์ตลาดรวม (TAM) จะถึง 100 พันล้านดอลลาร์ภายในปี 2028 เพิ่มขึ้นจาก 35 พันล้านดอลลาร์ในปี 2025 (CAGR ~40%)
  • SK Hynix ครองตลาดด้วยส่วนแบ่ง 62%; NVIDIA คิดเป็น ~90% ของอุปทาน HBM ของพวกเขา
  • NVIDIA ตัดการผลิต GPU สำหรับเกม 30-40% ในครึ่งแรกของปี 2026 เนื่องจากข้อจำกัดของ GDDR7
  • HBM4 เริ่มการผลิตในปี 2026 โดย 16-Hi stacks ตั้งเป้าไตรมาส 4 ปี 2026
  • การรวมตัวของอุตสาหกรรมหน่วยความจำสร้างอำนาจกำหนดราคาที่ไม่เคยมีมาก่อนในประวัติศาสตร์เซมิคอนดักเตอร์

ความจำเป็นทางเทคนิค: ทำไม AI ต้องการ HBM

ความสัมพันธ์ระหว่างประสิทธิภาพของโมเดล AI และ bandwidth ของหน่วยความจำเป็นหนึ่งในข้อจำกัดทางเทคนิคที่สำคัญที่สุดในการประมวลผล Large language models และระบบ Generative AI เผชิญกับคอขวดพื้นฐาน: การย้ายพารามิเตอร์ระหว่างหน่วยความจำและแกนประมวลผลใช้เวลาและพลังงานมากกว่าการดำเนินการทางคณิตศาสตร์จริง^[4]^

หน่วยความจำ GDDR มาตรฐาน ซึ่งออกแบบมาสำหรับเวิร์กโหลดเกมที่มี throughput สูงแต่ latency ยอมรับได้ ไม่สามารถตอบสนองความต้องการ bandwidth ของ AI ได้ High-bandwidth memory แก้ไขข้อจำกัดนี้ผ่านการซ้อนในแนวตั้ง โดยวาง DRAM dies หลายชิ้นซ้อนกันพร้อม through-silicon vias (TSVs) ที่ให้การเชื่อมต่อข้อมูลพร้อมกันนับพัน^[5]^

ตัวเลขบอกเล่าเรื่องราว GPU H100 ของ NVIDIA ใช้ HBM3 80GB ที่มี bandwidth 3.35 TB/s^[6]^ H200 เพิ่มความจุเป็น HBM3e 141GB ที่ 4.8 TB/s^[7]^ Blackwell B200 มี HBM3e 192GB ที่ทำได้ 8.0 TB/s มากกว่า bandwidth ของ H100 ถึงสองเท่า^[8]^ Rubin R100 ที่จะมาถึงจะบรรจุ HBM4 288GB ด้วย bandwidth ประมาณ 13-15 TB/s^[9]^

ความก้าวหน้านี้สะท้อนว่าความต้องการหน่วยความจำของ AI เพิ่มขึ้นเร็วกว่า Moore's Law กฎง่ายๆ สำหรับการให้บริการ large language models ในความแม่นยำ 16-bit: ต้องใช้หน่วยความจำ GPU ประมาณ 2GB ต่อพารามิเตอร์ 1 พันล้านตัว^[10]^ Llama 3 รุ่น 70B ต้องการมากกว่า A100 80GB ตัวเดียว^[11]^ โมเดลที่เข้าใกล้ 1 ล้านล้านพารามิเตอร์ต้องการการกำหนดค่า multi-GPU ที่ความจุ HBM กลายเป็นข้อจำกัดที่ผูกมัด

KV cache นำเสนอความท้าทายด้านหน่วยความจำเพิ่มเติม ระหว่างการ inference transformers จัดเก็บคู่ key-value จากโทเค็นก่อนหน้าเพื่อหลีกเลี่ยงการคำนวณซ้ำ cache นี้เติบโตเป็นเส้นตรงกับความยาว context ใช้ประมาณ 0.5MB ต่อโทเค็นในโมเดล 7B^[12]^ "LLM ที่ต้องการ 60GB สำหรับ weights" มักไม่สามารถทำงานได้อย่างน่าเชื่อถือบน GPU 80GB ที่มี prompts ยาว เพราะการเติบโตของหน่วยความจำขณะทำงาน ไม่ใช่ weights กลายเป็นปัจจัยจำกัด^[13]^

ข้อได้เปรียบของผู้ขายน้อยราย: สามผู้เล่นควบคุม 95%

การทำความเข้าใจวัฏจักรหน่วยความจำครั้งใหญ่ต้องพิจารณาโครงสร้างตลาดที่พัฒนามาหลายทศวรรษของการรวมตัว Samsung, SK Hynix และ Micron ร่วมกันควบคุมการผลิต DRAM ทั่วโลกประมาณ 95%^[14]^ การกระจุกตัวนี้เป็นผลมาจากพลวัตการแข่งขันที่โหดร้ายซึ่งกำจัดผู้เล่นที่อ่อนแอออกไป

ในปี 2009 สิบบริษัทควบคุมตลาด DRAM: Micron, Samsung, Hynix, Infineon, NEC, Hitachi, Mitsubishi, Toshiba, Elpida และ Nanya^[15]^ วัฏจักรขาลงปี 2011 ก่อให้เกิดการรวมตัวครั้งสุดท้าย SK Telecom เข้าซื้อ Hynix ในราคา 3 พันล้านดอลลาร์ในปี 2012^[16]^ Elpida ผู้ผลิต DRAM รายสุดท้ายของญี่ปุ่น ล้มละลายและถูก Micron ซื้อในปี 2013^[17]^ ภายในห้าปี อุตสาหกรรมรวมตัวจากสิบคู่แข่งเหลือสาม

โครงสร้างผู้ขายน้อยรายนี้แสดงออกในพฤติกรรมตลาดที่ประสานกัน ในสัปดาห์ที่ผ่านมา SK Hynix, Samsung และ Micron ประกาศเกือบพร้อมกันหยุดรับคำสั่งซื้อ DDR4 ใหม่^[18]^ นักวิเคราะห์อุตสาหกรรม Moore Morris ระบุว่านี่เป็น "การแตกหักที่น่าตกใจจากแนวปฏิบัติของอุตสาหกรรมมาหลายทศวรรษ" โดยตั้งข้อสังเกตว่า "การที่พวกเขาดำเนินการอย่างประสานกันเช่นนี้ไม่เคยมีมาก่อน"^[19]^ กลุ่มผู้ขายน้อยราย DRAM ควบคุมอุปทานได้อย่างมีประสิทธิภาพในขณะที่อุปสงค์ยังคงแข็งแกร่ง แสดงให้เห็นอำนาจตลาดโดยรวมที่แสดงว่า "อุตสาหกรรมหน่วยความจำไม่ได้เล่นตามกฎเก่าอีกต่อไป"^[20]^

กลุ่ม HBM กระจุกอำนาจนี้มากยิ่งขึ้น SK Hynix ครองตลาดด้วยส่วนแบ่ง 62% ณ ไตรมาส 2 ปี 2025 Micron ตามมาด้วย 21% และ Samsung ตามหลังด้วย 17%^[21]^ ตำแหน่งของ SK Hynix มาจากการเดิมพัน HBM ตั้งแต่เนิ่นๆ และความสัมพันธ์ในฐานะผู้จัดหาหลักของ NVIDIA ปัจจุบันประมาณ 90% ของ HBM ของ NVIDIA มาจาก SK Hynix^[22]^

ผู้จัดหา ส่วนแบ่งตลาด HBM (Q2 2025) ลูกค้าหลัก สถานะปี 2026
SK Hynix 62% NVIDIA (90%) ขายหมด
Micron 21% NVIDIA (แหล่งที่สอง) ขายหมด
Samsung 17% AMD, Google มีปัญหาการรับรองคุณสมบัติ

ตำแหน่งที่สามของ Samsung เป็นการตกต่ำที่น่าทึ่งสำหรับบริษัทที่ครองตลาดหน่วยความจำมานาน SK Hynix แซงหน้า Samsung ในส่วนแบ่งตลาด DRAM โดยรวมในไตรมาส 1 ปี 2025 เป็นครั้งแรกที่ Samsung สูญเสียตำแหน่งผู้นำ^[23]^ ชิ้นส่วน HBM3E ของ Samsung เผชิญความล่าช้าในการรับรองคุณสมบัติกับลูกค้ารายใหญ่ ทำให้คู่แข่งสามารถยึดครองอุปสงค์ AI ระดับพรีเมียมในขณะที่ Samsung ให้บริการกลุ่มที่มีอัตรากำไรต่ำกว่า^[24]^

จุดเปลี่ยน 100 พันล้านดอลลาร์

Micron คาดการณ์ว่าตลาดรวมของ HBM จะถึงประมาณ 100 พันล้านดอลลาร์ภายในปี 2028 เพิ่มขึ้นจากประมาณ 35 พันล้านดอลลาร์ในปี 2025^[25]^ นี่แสดงถึงอัตราการเติบโตเฉลี่ยต่อปีประมาณ 40%^[26]^ จุดสำคัญ 100 พันล้านดอลลาร์มาถึงเร็วกว่าที่คาดการณ์ไว้สองปี; นักวิเคราะห์เดิมคาดการณ์ว่าจะถึงระดับนี้ภายในปี 2030^[27]^

หลายปัจจัยขับเคลื่อนการเร่งตัวนี้ ประการแรก การใช้งาน Generative AI ยังคงเร็วกว่าที่คาดหวัง Hyperscaler หลักทุกรายแข่งกันใช้งานกำลังการ inference สำหรับผลิตภัณฑ์ AI ของตน ในขณะที่การฝึกโมเดลรุ่นถัดไปต้องการคลัสเตอร์ GPU ที่ใหญ่ขึ้นเรื่อยๆ^[28]^ ประการที่สอง ความจุ HBM ต่อ GPU ยังคงเพิ่มขึ้น ความก้าวหน้าจาก 80GB ของ H100 ไปสู่ 288GB ของ Rubin หมายความว่า accelerator แต่ละตัวใช้ HBM มากขึ้น 3.6 เท่า^[29]^ ประการที่สาม ความต้องการหน่วยความจำระดับระบบทวีคูณความต้องการของ GPU แต่ละตัว Blackwell Ultra GB300 ของ NVIDIA คาดว่าจะมี HBM3e สูงสุด 288GB ในขณะที่ Rubin Ultra รุ่นต่างๆ ตั้งเป้า 512GB โดยระบบ NVL576 เต็มรูปแบบอาจต้องใช้ 1TB ต่อโมดูล GPU^[30]^

ตลาดเซมิคอนดักเตอร์ศูนย์ข้อมูลโดยรวมให้บริบท ในปี 2024 ตลาดเซมิคอนดักเตอร์รวมสำหรับศูนย์ข้อมูลถึง 209 พันล้านดอลลาร์ครอบคลุมการประมวลผล หน่วยความจำ เครือข่าย และพลังงาน^[31]^ Yole Group คาดการณ์ว่าจะเติบโตเป็นเกือบ 500 พันล้านดอลลาร์ภายในปี 2030^[32]^ หน่วยความจำเพียงอย่างเดียวเติบโต 78% ในปี 2024 เป็น 170 พันล้านดอลลาร์ ตามด้วยการเพิ่มขึ้นอีกเป็นตัวเลขสองหลักเป็น 200 พันล้านดอลลาร์ในปี 2025^[33]^

ผลประกอบการทางการเงินของ Micron แสดงให้เห็นว่าพลวัตเหล่านี้แปลงเป็นผลการดำเนินงานของบริษัทอย่างไร บริษัทรายงานรายได้ไตรมาส 1 ปีงบประมาณ 2026 ที่ 13.64 พันล้านดอลลาร์ เพิ่มขึ้น 57% เมื่อเทียบกับปีก่อน^[34]^ อัตรากำไรขั้นต้นเพิ่มขึ้นเกิน 50% เพิ่มเป็นสองเท่าจากประมาณ 22% ในปีงบประมาณ 2024^[35]^ การขยายตัวของอัตรากำไรนี้ไม่ได้สะท้อนสภาวะวัฏจักร แต่เป็นการเปลี่ยนแปลงเชิงโครงสร้างในส่วนผสมผลิตภัณฑ์ของบริษัทไปสู่ผลิตภัณฑ์ศูนย์ข้อมูลที่มีอัตรากำไรสูง^[36]^

การแข่งขัน HBM4: 16-Hi Stacks และอนาคต

การแข่งขันระหว่างผู้จัดหาหน่วยความจำตอนนี้มุ่งเน้นที่ HBM4 เทคโนโลยีรุ่นถัดไปที่เข้าสู่การผลิตในปี 2026 SK Hynix พัฒนา HBM4 เป็นรายแรกของโลกและเตรียมการผลิตจำนวนมากเสร็จแล้ว^[37]^ ทั้ง SK Hynix และ Samsung ส่งตัวอย่าง HBM4 ขั้นสุดท้ายที่ชำระเงินแล้วให้ NVIDIA ส่งสัญญาณการเข้าสู่การเจรจาอุปทานที่ขับเคลื่อนด้วยเชิงพาณิชย์^[38]^

HBM4 มีการปรับปรุงอย่างมากเหนือ HBM3e ความเร็วการถ่ายโอนข้อมูลถึง 11 กิกะบิตต่อวินาทีด้วย bandwidth รวมเกิน 2.8 เทราไบต์ต่อวินาที^[39]^ มาตรฐานรวม logic base die ที่ผลิตโดยใช้ process nodes ขั้นสูง โดย SK Hynix ร่วมมือกับ process 12nm ของ TSMC^[40]^ ความร่วมมือนี้ดึงดูด NVIDIA และมีส่วนทำให้ SK Hynix ได้รับสถานะผู้จัดหาหลักสำหรับแพลตฟอร์ม Blackwell Ultra และ Rubin^[41]^

แนวหน้าทางเทคนิคที่ท้าทายกว่าเกี่ยวข้องกับ HBM stacks 16 ชั้น มีรายงานว่า NVIDIA ร้องขอการส่งมอบ 16-Hi HBM ภายในไตรมาส 4 ปี 2026 กระตุ้นการพัฒนาเร่งด่วนที่ผู้จัดหาทั้งสามราย^[42]^ Ahn Ki-hyun รองประธานบริหารของ Korea Semiconductor Industry Association ตั้งข้อสังเกตว่า "การเปลี่ยนจาก 12 เป็น 16 ชั้นยากกว่าจาก 8 เป็น 12 ชั้นในทางเทคนิคมาก"^[43]^

ความยากลำบากมาจากข้อจำกัดความหนาของ wafer HBM 12-Hi ที่มีอยู่ใช้ wafer หนาประมาณ 50 ไมโครเมตร การซ้อน 16 ชั้นต้องลดความหนาเหลือประมาณ 30 ไมโครเมตรในขณะที่รักษาความสมบูรณ์ของโครงสร้างและประสิทธิภาพทางความร้อน^[44]^ ผู้สังเกตการณ์อุตสาหกรรมอธิบายความท้าทายทางเทคนิคว่า "น่ากลัว"^[45]^

รุ่น ชั้น ความจุ Bandwidth การผลิต
HBM3 8-Hi 80GB 3.35 TB/s 2023
HBM3e 12-Hi 141-192GB 4.8-8.0 TB/s 2024-2025
HBM4 12-Hi 288GB 11+ TB/s H2 2026
HBM4E 16-Hi 512GB+ 15+ TB/s ปลายปี 2026-2027

Samsung และ SK Hynix เลื่อนกำหนดการผลิต HBM4 ไปเป็นเดือนกุมภาพันธ์ 2026 เร่งจากไทม์ไลน์ก่อนหน้า^[46]^ Micron คาดว่าจะเข้าสู่การผลิตจำนวนมาก HBM4 ในปี 2026 ตามด้วย HBM4E ในปี 2027-2028^[47]^ รุ่น 16-Hi ซึ่งน่าจะมีแบรนด์ HBM4E อาจมาถึงเร็วสุดปลายปี 2026 ขึ้นอยู่กับการปรับปรุง yield^[48]^

ความเสียหายข้างเคียงของเกม

ผลกระทบต่อผู้บริโภคที่เห็นได้ชัดที่สุดของวัฏจักรหน่วยความจำครั้งใหญ่: NVIDIA วางแผนจะตัดการผลิต GPU RTX 50-series 30-40% ในครึ่งแรกของปี 2026 เนื่องจากการขาดแคลน GDDR7^[49]^ ผู้จัดหาหน่วยความจำให้ความสำคัญกับการจัดสรรสำหรับศูนย์ข้อมูล AI มากกว่า GPU สำหรับผู้บริโภค สร้างผลกระทบต่อเนื่องตลอดตลาดการ์ดจอ^[50]^

พลวัตอุปทานแตกต่างจาก HBM แต่เชื่อมต่อผ่านการจัดสรรกำลังการผลิต การผลิต GDDR7 ถูกลดความสำคัญเพื่อเอื้อประโยชน์ให้ DDR5 ทำให้ราคาหน่วยความจำกราฟิกเพิ่มขึ้น^[51]^ ในปี 2025 เพียงปีเดียว ราคาหน่วยความจำเพิ่มขึ้น 246% และคาดว่าจะเพิ่มขึ้นต่อเนื่องตลอดปี 2026^[52]^

ผลิตภัณฑ์เฉพาะเผชิญการตัดที่รุนแรงที่สุด: GeForce RTX 5070 Ti และ RTX 5060 Ti 16GB ทั้งคู่มี GDDR7 16GB^[53]^ มีเพียง Samsung ที่ผลิตโมดูล GDDR7 3GB ในปริมาณ และถ้า NVIDIA ใช้ชิป 2GB อยู่แล้ว การเปลี่ยนไปใช้โมดูลที่มีความหนาแน่นสูงกว่าจะลด VRAM ทั้งหมดที่มีสำหรับการ์ดจอ Blackwell มาตรฐาน^[54]^

RTX 50 Super series เผชิญความล่าช้าหรืออาจถูกยกเลิก ไทม์ไลน์เดิมตั้งเป้าต้นปี 2026; การคาดการณ์ปัจจุบันแนะนำไตรมาส 3 ปี 2026 เป็นอย่างเร็วที่สุด^[55]^ โมดูล GDDR7 3GB ที่จำเป็นสำหรับการกำหนดค่า Super ไม่มีในปริมาณ^[56]^ ผู้ผลิตหน่วยความจำดิ้นรนที่จะผลิตชิป GDDR7 2GB มาตรฐานให้เพียงพอในขณะที่ขยายไปสู่โมดูล 3GB พร้อมกัน

สำหรับผู้บริโภค นี่แปลงเป็นราคาที่สูงขึ้นและเวลารอที่นานขึ้น โดยเฉพาะในช่วงเทศกาลวันหยุดปลายปี 2026^[57]^ สัญญาจัดหาหน่วยความจำระยะคงที่ทำให้ราคาปี 2025 คงที่ แต่ปี 2026 นำมาซึ่งการเจรจาใหม่ที่ราคาสปอตที่สูงขึ้น^[58]^ AMD เผชิญข้อจำกัดที่คล้ายกันกับ GDDR6 สำหรับกลุ่มผลิตภัณฑ์ Radeon ของตน^[59]^

ลำดับชั้นความสำคัญนี้สะท้อนความเป็นจริงทางเศรษฐกิจ HBM สำหรับ GPU ศูนย์ข้อมูลมีอัตรากำไรสูงกว่าหน่วยความจำกราฟิกสำหรับผู้บริโภคมาก เมื่อข้อจำกัดกำลังการผลิตบังคับให้ตัดสินใจจัดสรร ผู้จัดหาให้บริการลูกค้าที่มีอัตรากำไรสูงกว่าก่อนอย่างมีเหตุผล เกมเป็นความเสียหาย

[เนื้อหาถูกตัดสำหรับการแปล]

ขอใบเสนอราคา_

แจ้งรายละเอียดโครงการของคุณ เราจะตอบกลับภายใน 72 ชั่วโมง

> TRANSMISSION_COMPLETE

ได้รับคำขอแล้ว_

ขอบคุณสำหรับคำสอบถาม ทีมงานจะตรวจสอบคำขอและติดต่อกลับภายใน 72 ชั่วโมง

QUEUED FOR PROCESSING