Суперцикл пам'яті для ШІ: як HBM стала найкритичнішим вузьким місцем штучного інтелекту

Суперцикл пам'яті для ШІ настав. Оскільки HBM розпродана до 2026 року, загальний обсяг ринку досягне 100 мільярдів доларів до 2028 року, а ігрові GPU опинилися під перехресним вогнем, пам'ять стала найкритичнішим інфраструктурним обмеженням для штучного інтелекту.

Суперцикл пам'яті для ШІ: як HBM стала найкритичнішим вузьким місцем штучного інтелекту

Суперцикл пам'яті для ШІ: як HBM стала найкритичнішим вузьким місцем штучного інтелекту

Потужності високошвидкісної пам'яті Micron розпродані до кінця 2026 календарного року.^[1]^ Це єдине речення з телеконференції компанії за результатами першого фіскального кварталу 2026 року відображає структурну трансформацію, що перебудовує всю напівпровідникову галузь. Суперцикл пам'яті для ШІ перейшов від аналітичних прогнозів до операційної реальності, створюючи дисбаланс попиту та пропозиції настільки серйозний, що виробництво ігрових GPU скорочується на 40%^[2]^, тоді як виробники пам'яті повідомляють про рекордну маржу, що перевищує 50%.^[3]^

Це обмеження є чимось більшим, ніж тимчасовий збій у постачанні. Індустрія пам'яті пережила структурне перезавантаження, перейшовши від десятиліть циклічності підйомів і спадів до сталих цінових премій, зумовлених ненаситним апетитом генеративного ШІ до пропускної здатності. Щоб зрозуміти, як HBM стала критичним вузьким місцем ШІ, потрібно дослідити технічні вимоги, що стимулюють попит, олігополістичну структуру ринку, яка контролює пропозицію, та інфраструктурні наслідки, що визначатимуть економіку дата-центрів на роки вперед.

Коротко про головне

  • Потужності HBM розпродані до 2026 року в усіх основних постачальників (SK Hynix, Micron, Samsung)
  • Прогнозується, що загальний обсяг ринку досягне 100 млрд доларів до 2028 року, порівняно з 35 млрд у 2025 році (~40% CAGR)
  • SK Hynix домінує з часткою ринку 62%; NVIDIA споживає ~90% їхніх поставок HBM
  • NVIDIA скорочує виробництво ігрових GPU на 30-40% у першому півріччі 2026 через обмеження GDDR7
  • HBM4 виходить у виробництво в 2026 році, 16-Hi стеки заплановані на четвертий квартал 2026 року
  • Консолідація індустрії пам'яті створює цінову владу, безпрецедентну в історії напівпровідників

Технічний імператив: чому ШІ потребує HBM

Залежність між продуктивністю моделей ШІ та пропускною здатністю пам'яті є одним із найважливіших технічних обмежень у комп'ютерних технологіях. Великі мовні моделі та системи генеративного ШІ стикаються з фундаментальним вузьким місцем: переміщення параметрів між пам'яттю та обчислювальними ядрами споживає більше часу та енергії, ніж самі математичні операції.^[4]^

Стандартна пам'ять GDDR, розроблена для ігрових навантажень із високою пропускною здатністю, але прийнятною затримкою, не може задовольнити вимоги ШІ до пропускної здатності. Високошвидкісна пам'ять вирішує це обмеження через вертикальне укладання, розміщуючи кілька кристалів DRAM один на одному з наскрізними кремнієвими з'єднаннями (TSV), що забезпечують тисячі одночасних з'єднань для передачі даних.^[5]^

Цифри говорять самі за себе. GPU NVIDIA H100 використовує 80 ГБ HBM3 із пропускною здатністю 3,35 ТБ/с.^[6]^ H200 збільшив ємність до 141 ГБ HBM3e при 4,8 ТБ/с.^[7]^ Blackwell B200 має 192 ГБ HBM3e із досягненням 8,0 ТБ/с — більш ніж удвічі більше пропускної здатності H100.^[8]^ Майбутній Rubin R100 матиме 288 ГБ HBM4 з очікуваною пропускною здатністю від 13 до 15 ТБ/с.^[9]^

Ця прогресія відображає те, що вимоги ШІ до пам'яті зростають швидше, ніж закон Мура. Швидке правило для обслуговування великих мовних моделей у 16-бітній точності: приблизно 2 ГБ пам'яті GPU на 1 мільярд параметрів.^[10]^ Варіант Llama 3 на 70B вимагає більше, ніж один 80 ГБ A100.^[11]^ Моделі, що наближаються до 1 трильйона параметрів, потребують конфігурацій із кількома GPU, де ємність HBM стає визначальним обмеженням.

KV-кеш створює додаткову проблему з пам'яттю. Під час інференсу трансформери зберігають пари ключ-значення з попередніх токенів, щоб уникнути повторних обчислень. Цей кеш зростає лінійно з довжиною контексту, споживаючи приблизно 0,5 МБ на токен у моделі на 7B.^[12]^ LLM, якій «потрібно 60 ГБ для ваг», часто не може надійно працювати на 80 ГБ GPU з довгими запитами, оскільки зростання пам'яті під час роботи, а не ваги, стає обмежувальним фактором.^[13]^

Перевага олігополії: три гравці контролюють 95%

Розуміння суперциклу пам'яті вимагає аналізу ринкової структури, що сформувалася за десятиліття консолідації. Samsung, SK Hynix та Micron разом контролюють приблизно 95% світового виробництва DRAM.^[14]^ Ця концентрація стала результатом жорсткої конкурентної динаміки, що усунула слабших гравців.

У 2009 році десять компаній контролювали ринок DRAM: Micron, Samsung, Hynix, Infineon, NEC, Hitachi, Mitsubishi, Toshiba, Elpida та Nanya.^[15]^ Спад 2011 року спричинив остаточну консолідацію. SK Telecom придбала Hynix за 3 мільярди доларів у 2012 році.^[16]^ Elpida, останній японський виробник DRAM, збанкрутувала і була придбана Micron у 2013 році.^[17]^ За п'ять років галузь консолідувалася з десяти конкурентів до трьох.

Ця олігополістична структура проявляється в координованій ринковій поведінці. За останні тижні SK Hynix, Samsung та Micron майже одночасно оголосили про припинення нових замовлень на DDR4.^[18]^ Галузевий аналітик Мур Морріс охарактеризував це як «приголомшливий відхід від десятиліть галузевої практики», зазначивши, що «такі координовані дії є безпрецедентними».^[19]^ Олігополія DRAM ефективно контролювала пропозицію, поки попит залишався стійким, демонструючи колективну ринкову владу, яка показує, що «індустрія пам'яті більше не грає за старими правилами».^[20]^

Сегмент HBM концентрує цю владу ще більше. SK Hynix домінує з часткою ринку 62% станом на другий квартал 2025 року, Micron слідує з 21%, а Samsung відстає з 17%.^[21]^ Позиція SK Hynix зумовлена її ранньою ставкою на HBM та відносинами як основного постачальника NVIDIA. Наразі приблизно 90% HBM NVIDIA надходить від SK Hynix.^[22]^

Постачальник Частка ринку HBM (Q2 2025) Ключовий клієнт Статус на 2026
SK Hynix 62% NVIDIA (90%) Розпродано
Micron 21% NVIDIA (другий постачальник) Розпродано
Samsung 17% AMD, Google Проблеми з кваліфікацією

Третє місце Samsung є помітним падінням для компанії, яка довго домінувала в сегменті пам'яті. SK Hynix випередила Samsung за загальною часткою ринку DRAM у першому кварталі 2025 року — вперше Samsung втратила лідерство.^[23]^ Продукція Samsung HBM3E зіткнулася із затримками кваліфікації у великих клієнтів, що дозволило конкурентам захопити преміальний попит на ШІ, тоді як Samsung обслуговувала сегменти з нижчою маржею.^[24]^

Точка перелому на 100 мільярдів доларів

Micron прогнозує, що загальний обсяг ринку HBM досягне приблизно 100 мільярдів доларів до 2028 року, порівняно з приблизно 35 мільярдами у 2025 році.^[25]^ Це становить середньорічний темп зростання близько 40%.^[26]^ Позначка у 100 мільярдів долларів досягається на два роки раніше, ніж прогнозувалося; аналітики спочатку очікували досягнення цього рівня до 2030 року.^[27]^

Кілька факторів прискорюють це зростання. По-перше, розгортання генеративного ШІ продовжує випереджати очікування. Кожен великий гіперскейлер змагається за розгортання потужностей інференсу для своїх ШІ-продуктів, тоді як навчання моделей наступного покоління вимагає дедалі більших кластерів GPU.^[28]^ По-друге, ємність HBM на GPU продовжує зростати. Прогресія від 80 ГБ H100 до 288 ГБ Rubin означає, що кожен прискорювач споживає в 3,6 рази більше HBM.^[29]^ По-третє, вимоги до пам'яті на рівні системи множать потреби окремих GPU. NVIDIA Blackwell Ultra GB300 має містити до 288 ГБ HBM3e, тоді як варіанти Rubin Ultra націлені на 512 ГБ, а повна система NVL576 потенційно вимагатиме 1 ТБ на модуль GPU.^[30]^

Ширший ринок напівпровідників для дата-центрів надає контекст. У 2024 році загальний обсяг ринку напівпровідників для дата-центрів досяг 209 мільярдів доларів у сегментах обчислень, пам'яті, мереж та живлення.^[31]^ Yole Group прогнозує, що він зросте майже до 500 мільярдів доларів до 2030 року.^[32]^ Тільки пам'ять зросла на 78% у 2024 році до 170 мільярдів доларів, а потім ще на двозначний відсоток до 200 мільярдів у 2025 році.^[33]^

Фінансові результати Micron демонструють, як ця динаміка трансформується в корпоративні показники. Компанія повідомила про дохід за перший фіскальний квартал 2026 року в розмірі 13,64 мільярда доларів, що на 57% більше порівняно з минулим роком.^[34]^ Валова маржа піднялася вище 50%, подвоївшись з приблизно 22% у 2024 фіскальному році.^[35]^ Це розширення маржі відображає не циклічні умови, а структурну трансформацію продуктового міксу компанії в бік високомаржинальних продуктів для дата-центрів.^[36]^

Гонка HBM4: 16-Hi стеки та далі

Конкуренція серед постачальників пам'яті тепер зосереджена на HBM4, технології наступного покоління, що виходить у виробництво в 2026 році. SK Hynix завершила першу у світі розробку HBM4 та підготувала масове виробництво.^[37]^ Як SK Hynix, так і Samsung поставили NVIDIA платні фінальні зразки HBM4, сигналізуючи про вступ у комерційно орієнтовані переговори щодо постачання.^[38]^

HBM4 пропонує суттєві покращення порівняно з HBM3e. Швидкість передачі даних досягає 11 гігабіт на секунду із загальною пропускною здатністю понад 2,8 терабайта на секунду.^[39]^ Стандарт включає логічний базовий кристал, виготовлений за передовими технологічними нормами, де SK Hynix співпрацює з 12-нм процесом TSMC.^[40]^ Ця співпраця виявилася привабливою для NVIDIA і сприяла тому, що SK Hynix отримала статус основного постачальника для платформ Blackwell Ultra та Rubin.^[41]^

Більш складний технічний рубіж пов'язаний із 16-шаровими стеками HBM. Повідомляється, що NVIDIA запросила поставку 16-Hi HBM до четвертого кварталу 2026 року, що спровокувало спринти розробки у всіх трьох постачальників.^[42]^ Ан Кі-хьюн, виконавчий віце-президент Корейської асоціації напівпровідникової промисловості, зазначив, що «перехід від 12 до 16 шарів технічно набагато складніший, ніж від 8 до 12».^[43]^

Складність обумовлена обмеженнями товщини пластин. Існуючі 12-Hi HBM використовують пластини товщиною приблизно 50 мікрометрів. Укладання 16 шарів вимагає зменшення товщини до приблизно 30 мікрометрів при збереженні структурної цілісності та термічних характеристик.^[44]^ Галузеві спостерігачі описують технічні виклики як «величезні».^[45]^

Покоління Шари Ємність Пропускна здатність Виробництво
HBM3 8-Hi 80 ГБ 3,35 ТБ/с 2023
HBM3e 12-Hi 141-192 ГБ 4,8-8,0 ТБ/с 2024-2025
HBM4 12-Hi 288 ГБ 11+ ТБ/с H2 2026
HBM4E 16-Hi 512 ГБ+ 15+ ТБ/с Кінець 2026-2027

Samsung та SK Hynix перенесли графіки виробництва HBM4 на лютий 2026 року, прискоривши попередні терміни.^[46]^ Micron очікує почати масове виробництво HBM4 у 2026 році, а HBM4E — у 2027-2028 роках.^[47]^ Варіанти 16-Hi, які, ймовірно, матимуть бренд HBM4E, можуть з'явитися вже наприкінці 2026 року залежно від покращення виходу придатних.^[48]^

Ігри під перехресним вогнем

Найбільш помітний вплив суперциклу пам'яті на споживачів: NVIDIA планує скоротити виробництво GPU серії RTX 50 на 30-40% у першому півріччі 2026 року через дефіцит GDDR7.^[49]^ Постачальники пам'яті надають пріоритет замовленням для ШІ-дата-центрів над споживчими GPU, створюючи каскадні ефекти на всьому ринку відеокарт.^[50]^

Динаміка постачання відрізняється від HBM, але пов'язана через розподіл виробничих потужностей. Виробництво GDDR7 депріоритизується на користь DDR5, що підвищує ціни на графічну пам'ять.^[51]^ Лише у 2025 році ціни на пам'ять зросли на 246%, і очікується подальше зростання протягом 2026 року.^[52]^

Конкретні продукти зазнають найбільших скорочень: GeForce RTX 5070 Ti та RTX 5060 Ti 16GB, обидва з 16 ГБ GDDR7.^[53]^ Лише Samsung виробляє 3 ГБ модулі GDDR7 у значних обсягах, і якщо NVIDIA вже споживає 2 ГБ чіпи, перехід на модулі більшої ємності зменшує загальний обсяг VRAM, доступний для стандартних графічних карт Blackwell.^[54]^

Серія RTX 50 Super зіткнулася із затримками або потенційним скасуванням. Початкові терміни передбачали початок 2026 року; поточні прогнози вказують на третій квартал 2026 року в кращому випадку.^[55]^ 3 ГБ модулі GDDR7, необхідні для конфігурацій Super, просто недоступні в достатніх обсягах.^[56]^ Виробники пам'яті намагаються виробити достатньо стандартних 2 ГБ чіпів GDDR7, одночасно масштабуючись до 3 ГБ модулів.

Для споживачів це означає вищі ціни та довший час очікування, особливо під час святкового сезону наприкінці 2026 року.^[57]^ Контракти на закупівлю пам'яті з фіксованим терміном утримували ціни 2025 року стабільними, але 2026 рік приносить перегляд умов за підвищеними спотовими цінами.^[58]^ AMD стикається з подібними обмеженнями щодо GDDR6 для своєї лінійки Radeon.^[59]^

Ця ієрархія пріоритетів відображає економічну реальність. HBM для GPU дата-центрів має маржу, що значно перевищує споживчу графічну пам'ять. Коли обмеження потужностей змушують приймати рішення про розподіл, постачальники раціонально обслуговують спочатку клієнтів із вищою маржею. Ігри є побічними жертвами...

[Контент скорочено для перекладу]

Запросити пропозицію_

Розкажіть про ваш проект і ми відповімо протягом 72 годин.

> ПЕРЕДАЧА_ЗАВЕРШЕНА

Запит отримано_

Дякуємо за ваш запит. Наша команда розгляне його та відповість протягом 72 годин.

В ЧЕРЗІ НА ОБРОБКУ