AIメモリスーパーサイクル:HBMがAIの最重要ボトルネックとなった経緯
Micronの高帯域幅メモリ(HBM)の生産能力は2026年末まで完売している。^[1]^ 同社の2026年度第1四半期決算説明会でのこの一文は、半導体業界全体を再編する構造的変革を如実に表している。AIメモリスーパーサイクルはアナリストの予測段階から現実のオペレーションへと移行し、需給の不均衡は極めて深刻で、ゲーミングGPUの生産は40%削減^[2]^に直面する一方、メモリメーカーは50%を超える記録的な利益率を報告している。^[3]^
この制約は一時的な供給の混乱以上のものを意味する。メモリ業界は、数十年にわたる好不況の繰り返しから、生成AIの飽くなき帯域幅への需要が牽引する持続的な需要プレミアムへと、構造的なリセットを経験した。HBMがいかにしてAIの重要なボトルネックとなったかを理解するには、需要を牽引する技術要件、供給を支配する寡占市場構造、そして今後数年間のデータセンター経済を形作るインフラストラクチャへの影響を検討する必要がある。
要約
- HBMの生産能力は、主要サプライヤー(SK Hynix、Micron、Samsung)すべてで2026年まで完売
- 市場TAMは2025年の350億ドルから2028年には1,000億ドルに達する見込み(CAGR約40%)
- SK Hynixが市場シェア62%で支配的地位を占め、NVIDIAは同社のHBM供給の約90%を占める
- NVIDIAはGDDR7の制約により、2026年上半期のゲーミングGPU生産を30-40%削減予定
- HBM4は2026年に量産開始、16層スタックは2026年第4四半期を目標
- メモリ業界の統合により、半導体史上前例のない価格決定力が生まれている
技術的必然性:なぜAIにはHBMが必要なのか
AIモデルの性能とメモリ帯域幅の関係は、コンピューティングにおいて最も重要な技術的制約の一つを表している。大規模言語モデルや生成AIシステムは根本的なボトルネックに直面している:メモリとコンピュートコア間でパラメータを移動させることは、実際の数学的演算よりも多くの時間とエネルギーを消費するのだ。^[4]^
ゲーミングワークロード向けに設計され、高スループットだが許容可能なレイテンシを持つ標準的なGDDRメモリは、AIの帯域幅要件を満たすことができない。HBMは垂直スタッキングによってこの制限に対処し、複数のDRAMダイを積み重ね、シリコン貫通ビア(TSV)により数千の同時データ接続を提供する。^[5]^
数字がその実態を物語っている。NVIDIAのH100 GPUは80GBのHBM3を使用し、3.35 TB/sの帯域幅を実現している。^[6]^ H200は容量を141GBのHBM3eに増加し、4.8 TB/sを達成した。^[7]^ Blackwell B200は192GBのHBM3eを搭載し、8.0 TB/sを実現—H100の帯域幅の2倍以上である。^[8]^ 今後登場するRubin R100は288GBのHBM4を搭載し、推定帯域幅は13-15 TB/sとなる。^[9]^
この進化は、AIのメモリ要件がムーアの法則よりも速くスケールしていることを反映している。大規模言語モデルを16ビット精度で提供するための簡単な目安:10億パラメータあたり約2GBのGPUメモリが必要。^[10]^ Llama 3の70Bバリアントは、単一の80GB A100では足りない。^[11]^ 1兆パラメータに近づくモデルでは、HBM容量が制約要因となるマルチGPU構成が必要となる。
KVキャッシュは追加のメモリ課題を提示する。推論中、Transformerは再計算を避けるために以前のトークンからのキーバリューペアを保存する。このキャッシュはコンテキスト長に比例して線形に増加し、7Bモデルでは1トークンあたり約0.5MBを消費する。^[12]^ 「重みに60GBを必要とするLLM」は、長いプロンプトでは80GB GPUで安定して動作できないことが多い。なぜなら、重みではなく実行時のメモリ増加が制限要因となるからだ。^[13]^
寡占の優位性:3社が95%を支配
メモリスーパーサイクルを理解するには、数十年にわたる統合の結果として進化した市場構造を検討する必要がある。Samsung、SK Hynix、Micronの3社が世界のDRAM生産の約95%を支配している。^[14]^ この集中は、弱いプレイヤーを排除した熾烈な競争力学の結果である。
2009年には、Micron、Samsung、Hynix、Infineon、NEC、日立、三菱、東芝、Elpida、Nanyaの10社がDRAM市場を支配していた。^[15]^ 2011年の下降サイクルが最終的な統合を引き起こした。SK Telecomは2012年にHynixを30億ドルで買収した。^[16]^ 日本最後のDRAMメーカーであるElpidaは破産し、2013年にMicronに買収された。^[17]^ 5年以内に、業界は10社の競合企業から3社に統合された。
この寡占構造は協調的な市場行動として現れている。ここ数週間、SK Hynix、Samsung、Micronはほぼ同時に新規DDR4注文の停止を発表した。^[18]^ 業界アナリストのMoore Morrisはこれを「数十年の業界慣行からの驚くべき逸脱」と特徴づけ、「彼らがこれほど協調的に行動することは前例がない」と指摘した。^[19]^ DRAMの寡占勢力は需要が堅調な中で実質的に供給をコントロールし、「メモリ業界はもはや古いルールでプレイしていない」ことを示す集団的な市場支配力を実証した。^[20]^
HBMセグメントはこの支配力をさらに集中させている。2025年第2四半期時点で、SK Hynixが市場シェア62%で支配的地位を占め、Micronが21%で続き、Samsungが17%で後れを取っている。^[21]^ SK Hynixの地位は、早期のHBMへの賭けと、NVIDIAの主要サプライヤーとしての関係に起因する。現在、NVIDIAのHBMの約90%はSK Hynixから供給されている。^[22]^
| サプライヤー | HBM市場シェア(2025年第2四半期) | 主要顧客 | 2026年の状況 |
|---|---|---|---|
| SK Hynix | 62% | NVIDIA(90%) | 完売 |
| Micron | 21% | NVIDIA(セカンドソース) | 完売 |
| Samsung | 17% | AMD、Google | 認定に課題 |
Samsungの3位という地位は、長らくメモリを支配してきた企業としては驚くべき凋落を表している。SK Hynixは2025年第1四半期にDRAM全体の市場シェアでSamsungを上回り、Samsungがリーダーシップの座を失ったのは初めてのことだった。^[23]^ SamsungのHBM3E製品は主要顧客との認定で遅延に直面し、競合他社がプレミアムなAI需要を獲得する一方、Samsungは低マージンのセグメントに対応することになった。^[24]^
1,000億ドルの転換点
Micronは、HBMの総アドレス可能市場(TAM)が2025年の約350億ドルから2028年には約1,000億ドルに達すると予測している。^[25]^ これは約40%の年平均成長率(CAGR)を表す。^[26]^ 1,000億ドルのマイルストーンは、以前の予測より2年早く到来する。アナリストは当初、このレベルに達するのは2030年と予測していた。^[27]^
この加速にはいくつかの要因がある。第一に、生成AIの展開が引き続き予想を上回っている。すべての主要ハイパースケーラーは、AIプロダクト向けの推論能力の展開と、次世代モデルのトレーニングにさらに大規模なGPUクラスターを必要としている。^[28]^ 第二に、GPU当たりのHBM容量が増加し続けている。H100の80GBからRubinの288GBへの進化は、各アクセラレータが3.6倍のHBMを消費することを意味する。^[29]^ 第三に、システムレベルのメモリ要件が個々のGPUのニーズを複合化する。NVIDIAのBlackwell Ultra GB300は最大288GBのHBM3eを搭載する見込みで、Rubin Ultraバリアントは512GBを目標とし、完全なNVL576システムはGPUモジュールあたり1TBを必要とする可能性がある。^[30]^
より広いデータセンター半導体市場が文脈を提供する。2024年、データセンター向け半導体のTAMは、コンピュート、メモリ、ネットワーキング、電力を合わせて2,090億ドルに達した。^[31]^ Yole Groupはこれが2030年までに約5,000億ドルに成長すると予測している。^[32]^ メモリだけでも2024年に78%成長して1,700億ドルとなり、2025年には二桁成長が続いて2,000億ドルに達した。^[33]^
Micronの業績は、これらのダイナミクスがいかに企業業績に反映されるかを示している。同社は2026年度第1四半期の売上高を136.4億ドルと報告し、前年同期比57%増となった。^[34]^ 粗利益率は50%を超え、2024年度の約22%から倍増した。^[35]^ この利益率の拡大は、景気循環的な状況ではなく、高マージンのデータセンター製品への同社の製品ミックスの構造的変革を反映している。^[36]^
HBM4競争:16層スタックとその先
メモリサプライヤー間の競争は現在、2026年に量産開始予定の次世代技術であるHBM4を中心に展開されている。SK Hynixは世界初のHBM4開発を完了し、量産準備を終えた。^[37]^ SK HynixとSamsungの両社がNVIDIAに有償の最終HBM4サンプルを納入し、商業ベースの供給交渉への参入を示唆している。^[38]^
HBM4はHBM3eに比べて大幅な改善を提供する。データ転送速度は毎秒11ギガビットに達し、総帯域幅は毎秒2.8テラバイトを超える。^[39]^ この規格は、先進的なプロセスノードを使用して製造されるロジックベースダイを組み込んでおり、SK HynixはTSMCの12nmプロセスと提携している。^[40]^ この協業はNVIDIAにとって魅力的であり、SK HynixがBlackwell UltraおよびRubinプラットフォームの主要サプライヤーの地位を確保することに貢献した。^[41]^
より困難な技術的フロンティアは16層HBMスタックに関わる。NVIDIAは報じられるところによると、2026年第4四半期までに16層HBMの納入を要請し、3社すべてのサプライヤーで開発のスプリントを引き起こした。^[42]^ 韓国半導体産業協会の安起鉉(アン・ギヒョン)常務は、「12層から16層への移行は、8層から12層への移行よりも技術的にはるかに困難だ」と指摘した。^[43]^
この困難はウェーハの厚さの制約に起因する。既存の12層HBMは約50マイクロメートルの厚さのウェーハを使用している。16層を積み重ねるには、構造的完全性と熱性能を維持しながら、厚さを約30マイクロメートルに減らす必要がある。^[44]^ 業界関係者は技術的課題を「困難極まりない」と表現している。^[45]^
| 世代 | 層数 | 容量 | 帯域幅 | 量産時期 |
|---|---|---|---|---|
| HBM3 | 8層 | 80GB | 3.35 TB/s | 2023年 |
| HBM3e | 12層 | 141-192GB | 4.8-8.0 TB/s | 2024-2025年 |
| HBM4 | 12層 | 288GB | 11+ TB/s | 2026年下半期 |
| HBM4E | 16層 | 512GB+ | 15+ TB/s | 2026年後半-2027年 |
SamsungとSK HynixはHBM4の量産スケジュールを2026年2月に前倒しし、以前のタイムラインを加速させた。^[46]^ Micronは2026年にHBM4の量産を開始し、2027-2028年にHBM4Eへと続く見込みだ。^[47]^ 16層バリアント(おそらくHBM4Eとしてブランド化される)は、歩留まりの改善次第で2026年後半には登場する可能性がある。^[48]^
ゲーミングへの巻き添え被害
メモリスーパーサイクルの最も目に見える消費者への影響:NVIDIAはGDDR7不足により、2026年上半期のRTX 50シリーズGPU生産を30-40%削減する計画だ。^[49]^ メモリサプライヤーはコンシューマーGPUよりもAIデータセンターへの割り当てを優先し、グラフィックスカード市場全体に連鎖的な影響を及ぼしている。^[50]^
供給のダイナミクスはHBMとは異なるが、製造能力の配分を通じて関連している。GDDR7の生産はDDR5を優先するために後回しにされ、グラフィックスメモリの価格を押し上げている。^[51]^ 2025年だけでもメモリ価格は246%上昇し、2026年を通じてさらなる上昇が予想されている。^[52]^
特定の製品が最も深刻な削減に直面している:GeForce RTX 5070 TiとRTX 5060 Ti 16GBで、どちらも16GBのGDDR7を搭載している。^[53]^ 3GB GDDR7モジュールを量産しているのはSamsungのみで、NVIDIAがすでに2GBチップを消費している場合、より高密度のモジュールへの移行は標準的なBlackwellグラフィックスカードに利用可能な総VRAMを減少させる。^[54]^
RTX 50 Superシリーズは遅延または潜在的なキャンセルに直面している。当初のタイムラインでは2026年初頭を目標としていたが、現在の予測では最短でも2026年第3四半期を示唆している。^[55]^ Super構成に必要な3GB GDDR7モジュールは単に量産体制が整っていない。^[56]^ メモリメーカーは、3GBモジュールへのスケールアップと同時に、標準的な2GB GDDR7チップの十分な生産に苦慮している。
消費者にとって、これは価格の上昇と待ち時間の延長を意味し、特に2026年後半のホリデーシーズンに影響が出る。^[57]^ 固定期間のメモリ調達契約により2025年の価格は安定していたが、2026年は高騰したスポット価格での再交渉となる。^[58]^ AMDもRadeonラインナップ向けのGDDR6で同様の制約に直面している。^[59]^
この優先順位の階層は経済的現実を反映している。データセンターGPU向けのHBMは、コンシューマーグラフィックスメモリをはるかに上回るマージンを生み出す。容量制約により配分の決定を迫られる場合、サプライヤーは合理的により高マージンの顧客を優先的に対応する。ゲーミングは巻き