Еволюція HBM: від HBM3 до HBM4 та війна за пам'ять для ШІ

SK Hynix лідирує на ринку HBM з часткою 62% у Q2 2025 проти Micron (21%) та Samsung (17%). Глобальний ринок HBM зростає з $38 млрд (2025) до $58 млрд (2026). JEDEC випускає офіційну специфікацію HBM4 (квітень 2025), що подвоює інтерфейс до 2048 біт і забезпечує 2 ТБ/с на стек. SK Hynix вперше в історії випереджає Samsung як найбільшого світового виробника DRAM.

Еволюція HBM: від HBM3 до HBM4 та війна за пам'ять для ШІ

Еволюція HBM: від HBM3 до HBM4 та війна за пам'ять для ШІ

Оновлено 11 грудня 2025 року

Оновлення грудня 2025: SK Hynix лідирує на ринку HBM з часткою 62% у Q2 2025 проти Micron (21%) та Samsung (17%). Глобальний ринок HBM зростає з $38 млрд у 2025 році до $58 млрд у 2026 році. JEDEC випустила офіційну специфікацію HBM4 у квітні 2025 року, подвоївши ширину інтерфейсу до 2048 біт і забезпечивши пропускну здатність до 2 терабайт на секунду на стек. SK Hynix вперше в історії випереджає Samsung як найбільшого світового виробника DRAM.

SK Hynix лідирує на ринку HBM з часткою 62% у Q2 2025, за ним Micron з 21% та Samsung з 17%.¹ Глобальний ринок HBM зросте з $38 мільярдів у 2025 році до $58 мільярдів у 2026 році.² JEDEC випустила офіційну специфікацію HBM4 у квітні 2025 року, подвоївши ширину інтерфейсу до 2048 біт і забезпечивши пропускну здатність до 2 терабайт на секунду на стек.³ Пам'ять високої пропускної здатності (High Bandwidth Memory) визначає стелю продуктивності ШІ-прискорювачів — це та стіна пам'яті, яка визначає, наскільки великою може бути модель і наскільки швидко вона може працювати.

Покоління HBM представляють тріумф виробництва та корпусування. Вертикальне укладання кристалів DRAM з наскрізними кремнієвими перемичками (TSV) та їх з'єднання через інтерпозер з кристалами GPU або прискорювачів створює пропускну здатність пам'яті, неможливу при традиційному корпусуванні DRAM. Кожне покоління збільшує ємність, пропускну здатність та висоту стеку, тоді як виробники конкурують за вихід придатних виробів, швидкість кваліфікації та відносини з клієнтами. Ця конкуренція перекроїла індустрію пам'яті, і SK Hynix вперше в історії випередила Samsung як найбільшого світового виробника DRAM.

HBM3: фундамент сучасного ШІ

HBM3, представлена у 2022 році, забезпечила можливості пропускної здатності пам'яті, які уможливили сучасний бум ШІ.⁴ Архітектура подвоїла кількість каналів з 8 до 16 порівняно з HBM2e, тоді як швидкість передачі даних зросла до 6,4 гігабіт на секунду.⁵

Чотири стеки HBM3, підключені до процесора через інтерфейс, що працює на швидкості 6,4 гігабіт на секунду, забезпечують сукупну пропускну здатність понад 3,2 терабайт на секунду.⁶ Пропускна здатність окремого стеку досягає приблизно 819 гігабайт на секунду з 8 GT/s 1024-бітною шиною.⁷

HBM3 підтримує стеки висотою до 16 кристалів DRAM ємністю 32 гігабіти кожен.⁸ Можливість укладання забезпечує ємність пам'яті від 24 до 36 гігабайт на стек залежно від щільності кристалів та висоти стеку.⁹

3D-архітектура укладання зменшує затримку порівняно з традиційною DRAM завдяки коротшим шляхам сигналу та паралельному доступу до кількох кристалів одночасно.¹⁰ Поєднання покращень пропускної здатності, ємності та затримки зробило HBM3 технологією пам'яті, яка уможливила масштабування великих мовних моделей на основі трансформерів.

GPU NVIDIA H100 використовував HBM3, встановивши базовий рівень продуктивності, на який орієнтувалися конкуренти. Пропускна здатність пам'яті забезпечила коефіцієнти використання тензорних ядер, які виправдали цінову премію H100 порівняно з попередніми поколіннями.

HBM3E: розширення меж можливого

Провідні виробники DRAM представили пристрої HBM3E зі швидкістю передачі даних до 9,6 гігабіт на секунду — на 50% швидше за HBM3.¹¹ Покращення пропускної здатності забезпечило приблизно 1,2 терабайт на секунду на стек, наближаючись до практичних меж 1024-бітного інтерфейсу.¹²

SK Hynix лідирує в масовому виробництві зі стеками висотою 12 кристалів, що забезпечують пропускну здатність понад 1,2 терабайт на секунду, залишаючись зворотно сумісними з контролерами HBM3.¹³ Зворотна сумісність спростила впровадження для виробників прискорювачів, що оновлюють специфікації пам'яті між поколіннями продуктів.

Micron анонсувала пам'ять HBM3E зі швидкістю обробки 9,6 гігабіт на секунду на контакт, 24 гігабайти на 8-шаровий куб та швидкістю передачі даних 1,2 терабайт на секунду.¹⁴ Ємність стеку зросла при збереженні існуючої ширини інтерфейсу.

Cadence продемонструвала підсистеми пам'яті HBM3E, що працюють на швидкості 12,4 гігабіт на секунду при номінальній напрузі, з виробничим PHY, що підтримує швидкості DRAM до 10,4 гігабіт на секунду — 1,33 терабайт на секунду на пристрій.¹⁵ Демонстрація показала запас для ще вищих швидкостей у межах специфікації HBM3E.

NVIDIA H200 та початкові продукти Blackwell використовують HBM3E. H200 розширив ємність пам'яті до 141 гігабайта порівняно з 80 гігабайтами H100, пропорційно збільшивши пропускну здатність. Blackwell B200 досяг 192 гігабайт HBM3E із сукупною пропускною здатністю 8 терабайт на секунду.

Перехід від HBM3 до HBM3E продемонстрував здатність індустрії пам'яті витягувати додаткову продуктивність з існуючих архітектур. Однак подальші покращення вимагають архітектурних змін, які вводить HBM4.

HBM4: наступне покоління

JEDEC випустила офіційну специфікацію HBM4 у квітні 2025 року.¹⁶ Специфікація представляє найзначнішу архітектурну зміну з моменту впровадження HBM, подвоюючи ширину інтерфейсу з 1024 біт до 2048 біт.¹⁷

HBM4 підтримує швидкість передачі до 8 гігабіт на секунду через ширший інтерфейс, із загальною пропускною здатністю до 2 терабайт на секунду на стек.¹⁸ GPU з 8 пристроями HBM4 досягає сукупної пропускної здатності пам'яті понад 13 терабайт на секунду.¹⁹

Ширший інтерфейс потребував архітектурних змін у всій підсистемі пам'яті. HBM4 подвоює кількість незалежних каналів на стек до 32 з 2 псевдоканалами на канал.²⁰ 2048-бітний канал даних поділяється на 32 64-бітних канали або 64 32-бітних псевдоканали, порівняно з 16 64-бітними каналами HBM3.²¹

Висота стеку зростає до максимум 16 кристалів з щільністю кристалів DRAM 24 гігабіти або 32 гігабіти, забезпечуючи ємність до 64 гігабайт на стек.²² Збільшення ємності відповідає зростаючій кількості параметрів базових моделей, що перевищують поточні обмеження пам'яті.

HBM4 зберігає зворотну сумісність з контролерами HBM3, полегшуючи перехід для виробників прискорювачів.²³ Контролер пам'яті Rambus HBM4 підвищує підтримувану швидкість сигналізації до 10,0 гігабіт на секунду, забезпечуючи пропускну здатність 2,56 терабайт на секунду на пристрій HBM4 на максимальній швидкості.²⁴

Покращення надійності включають Directed Refresh Management (DRFM) для покращеної боротьби з row-hammer.²⁵ Розширені функції RAS (Reliability, Availability, Serviceability — надійність, доступність, обслуговуваність) вирішують проблеми надійності DRAM при підвищених температурах, характерних для ШІ-прискорювачів.

HBM4E розширює специфікацію зі швидкістю передачі даних 10 гігабіт на секунду, пропускною здатністю 2,5 терабайт на секунду на стек та споживаною потужністю до 80 ват на пакет.²⁶ Специфікація HBM4E орієнтована на 2027 рік.

Конкуренція виробників

SK Hynix завершила розробку HBM4 та підготувалася до великосерійного виробництва наприкінці 2025 року.²⁷ Стеки HBM4 від SK Hynix перевищують специфікації JEDEC на 25% за продуктивністю, забезпечуючи швидкість передачі даних 10 GT/s порівняно зі стандартними 8 GT/s.²⁸ Масові поставки розпочинаються на початку 2026 року після остаточної кваліфікації замовниками.²⁹

SK Hynix стала основним постачальником HBM для NVIDIA — ці відносини забезпечили зростання ринкової частки компанії.³⁰ Партнерство з NVIDIA позиціонувало SK Hynix для захоплення більшої частини високомаржинального попиту на пам'ять для ШІ.

Micron почала поставляти зразки HBM4 у червні 2025 року, надаючи 36-гігабайтні 12-шарові стеки ключовим клієнтам, включаючи, за інформацією, NVIDIA.³¹ До Q4 2025 року Micron оголосила про зразки HBM4, що працюють на швидкостях понад 11 гігабіт на секунду на контакт, забезпечуючи понад 2,8 терабайт на секунду на стек.³² Масове виробництво заплановане на 2026 календарний рік.³³

Micron отримала контракти на постачання для NVIDIA для GPU Hopper H200 та Blackwell B200, збільшуючи частку ринку HBM з приблизно 5% до цільових 20-25% до кінця 2025 року.³⁴ Кваліфікація NVIDIA підтверджує технологію та виробничі можливості Micron.

Samsung планує розпочати масове виробництво HBM4 у першій половині 2026 року.³⁵ У Q3 2025 року Samsung почала поставляти великі обсяги зразків HBM4 до NVIDIA для ранньої кваліфікації.³⁶ За інформацією, Samsung є основним постачальником HBM4 для прискорювача AMD MI450.³⁷

Ринкова частка Samsung на ринку HBM впала з 41% у Q2 2024 до 17% у Q2 2025, оскільки компанія намагалася пройти кваліфікаційні тести NVIDIA.³⁸ Samsung залишалася значною мірою залежною від чіпів HBM3 старшого покоління для продажів HBM, тоді як конкуренти поставляли HBM3E.³⁹ Аналітики прогнозують, що позиція Samsung зміцниться, коли частини HBM3E пройдуть кваліфікацію та HBM4 вийде на повномасштабне постачання у 2026 році.⁴⁰

Конкуренція у сфері HBM перекроїла ширшу індустрію пам'яті. SK Hynix вперше зайняла лідируючу позицію на загальному ринку DRAM, захопивши 36% частки доходів у Q1 2025 порівняно з 34% Samsung.⁴¹ Зміна багаторічного лідерства Samsung відображає зростаючу частку HBM у загальній вартості DRAM.

Дорожні карти NVIDIA та AMD

Офіційна дорожня карта NVIDIA показує Rubin з 8 місцями для HBM4 та Rubin Ultra з 16 місцями для HBM4.⁴² Інтерпозер Rubin має площу 2194 квадратних міліметри та вміщує від 288 до 384 гігабайт VRAM із загальною пропускною здатністю 16-32 терабайти на секунду.⁴³ Загальна потужність чіпа досягає 2200 ват.⁴⁴

Прогнозується, що ємність HBM зросте з 80 гігабайт HBM2E в A100 до 1024 гігабайт HBM4E для Rubin Ultra.⁴⁵ Ця траєкторія відображає вимоги до пам'яті моделей, які можуть досягати десятків трильйонів параметрів.

Виробництво Rubin йде за графіком на другу половину 2026 року.⁴⁶ Споживчі відеокарти на основі цієї архітектури очікуються наприкінці 2026 або на початку 2027 року.⁴⁷ Терміни позиціонують Rubin як наступника Blackwell Ultra в лінійці центрів обробки даних NVIDIA.

AMD підтвердила HBM4 для серії прискорювачів MI400.⁴⁸ AMD Instinct MI400, що виходить у 2026 році, націлений на ємність HBM4 432 гігабайти з пропускною здатністю пам'яті до 19,6 терабайт на секунду.⁴⁹ MI430X — перший прискорювач AMD, що використовує HBM4.⁵⁰

Покоління HBM4 встановлює новий рівень продуктивності для обох виробників. Збільшення пропускної здатності та ємності пам'яті забезпечує розміри моделей та пропускну здатність інференсу, які HBM3E не може ефективно підтримувати.

Обмеження стіни пам'яті

Зростання пропускної здатності пам'яті відстає від зростання обчислювальних можливостей у ШІ-прискорювачах. «Стіна пам'яті» обмежує те, наскільки ефективно прискорювачі використовують свої обчислювальні ресурси. Еволюція HBM є основною відповіддю індустрії на це обмеження.

Великі мовні моделі демонструють характеристики, обмежені пам'яттю, під час інференсу. Механізм уваги вимагає доступу до повного кешу ключ-значення для кожного згенерованого токена. Пропускна здатність пам'яті визначає, наскільки швидко відбувається цей доступ, безпосередньо впливаючи на пропускну здатність у токенах на секунду.

Робочі навантаження навчання стикаються з іншими обмеженнями пам'яті. Параметри моделі, градієнти, стани оптимізатора та активації конкурують за ємність пам'яті. Пропускна здатність пам'яті впливає на те, наскільки швидко дані переміщуються між обчислювальними блоками під час накопичення градієнтів та кроків оптимізації.

Пропускна здатність 2 терабайти на секунду у HBM4 порівняно з 819 гігабайтами на секунду у HBM3 представляє покращення у 2,4 рази.⁵¹ У поєднанні зі збільшенням ємності з 36 гігабайт до 64 гігабайт на стек, HBM4 вирішує проблеми стіни пам'яті як у вимірі пропускної здатності, так і ємності.

Однак обчислювальні можливості зростають швидше, ніж пропускна здатність пам'яті. Кожне покоління HBM забезпечує приблизно 2-кратне покращення пропускної здатності, тоді як обчислювальна потужність також подвоюється з кожним поколінням. Стіна пам'яті відступає, але ніколи не зникає.

Майбутні покоління HBM — від HBM5 до HBM8 — прогнозують продовження масштабування пропускної здатності через вищі швидкості передачі даних та потенційно ширші інтерфейси.⁵² Дорожня карта простягається на десятиліття з цільовими показниками пропускної здатності, що досягають 64 терабайт на секунду на систему.⁵³

Міркування щодо планування інфраструктури

Обмеження постачання HBM впливають на доступність прискорювачів. Дефіцит HBM обмежував поставки GPU протягом 2023 та 2024 років. Організації, що планують великі розгортання, повинні розуміти, що закупівля GPU залежить від виробничих потужностей виробників пам'яті.

Відносини з постачальниками визначають доступ. Відносини SK Hynix з NVIDIA, позиціонування Samsung для AMD та широкі зусилля Micron з кваліфікації створюють складність ланцюга постачання. Виробники прискорювачів другого рівня можуть стикатися з довшими термінами постачання, якщо пам'ять пріоритезується для замовлень гіперскейлерів.

Перехід на HBM4 створює поколіннєвий зсув наприкінці 2026 року. Організації, що розгортаються зараз, отримують системи на базі HBM3E. Ті, хто чекає на Rubin або MI400, отримують переваги HBM4. Терміни впливають на багаторічне планування інфраструктури.

Запросити пропозицію_

Розкажіть про ваш проект і ми відповімо протягом 72 годин.

> ПЕРЕДАЧА_ЗАВЕРШЕНА

Запит отримано_

Дякуємо за ваш запит. Наша команда розгляне його та відповість протягом 72 годин.

В ЧЕРЗІ НА ОБРОБКУ