Supersiklus Memori AI: Bagaimana HBM Menjadi Hambatan Paling Kritis dalam AI
Kapasitas high-bandwidth memory Micron habis terjual hingga tahun kalender 2026.^[1]^ Satu kalimat dari laporan pendapatan fiskal Q1 2026 perusahaan tersebut menangkap transformasi struktural yang membentuk ulang seluruh industri semikonduktor. Supersiklus memori AI telah bergerak dari perkiraan analis menjadi realitas operasional, menciptakan ketidakseimbangan pasokan-permintaan yang begitu parah sehingga produksi GPU gaming menghadapi pemotongan 40%^[2]^ sementara produsen memori melaporkan margin rekor melebihi 50%.^[3]^
Kendala ini lebih dari sekadar gangguan pasokan sementara. Industri memori telah mengalami reset struktural, bertransisi dari siklus naik-turun selama puluhan tahun menjadi premi permintaan berkelanjutan yang didorong oleh kebutuhan bandwidth AI generatif yang tak terpuaskan. Memahami bagaimana HBM menjadi hambatan kritis AI memerlukan pemeriksaan terhadap persyaratan teknis yang mendorong permintaan, struktur pasar oligopolistik yang mengendalikan pasokan, dan implikasi infrastruktur yang akan membentuk ekonomi pusat data selama bertahun-tahun.
Ringkasan
- Kapasitas HBM habis terjual hingga 2026 di semua pemasok utama (SK Hynix, Micron, Samsung)
- TAM pasar diproyeksikan mencapai $100 miliar pada 2028, naik dari $35 miliar pada 2025 (~40% CAGR)
- SK Hynix mendominasi dengan pangsa pasar 62%; NVIDIA menyerap ~90% pasokan HBM mereka
- NVIDIA memotong produksi GPU gaming 30-40% di H1 2026 karena kendala GDDR7
- HBM4 memasuki produksi pada 2026, dengan tumpukan 16-Hi menargetkan Q4 2026
- Konsolidasi industri memori menciptakan kekuatan penetapan harga yang belum pernah terjadi dalam sejarah semikonduktor
Keharusan Teknis: Mengapa AI Membutuhkan HBM
Hubungan antara kinerja model AI dan bandwidth memori merupakan salah satu kendala teknis paling konsekuensial dalam komputasi. Large language model dan sistem AI generatif menghadapi hambatan fundamental: memindahkan parameter antara memori dan inti komputasi menghabiskan lebih banyak waktu dan energi daripada operasi matematika sebenarnya.^[4]^
Memori GDDR standar, yang dirancang untuk beban kerja gaming dengan throughput tinggi tetapi latensi yang dapat diterima, tidak dapat memenuhi persyaratan bandwidth AI. High-bandwidth memory mengatasi keterbatasan ini melalui penumpukan vertikal, menempatkan beberapa die DRAM di atas satu sama lain dengan through-silicon vias (TSV) yang menyediakan ribuan koneksi data simultan.^[5]^
Angka-angka menceritakan kisahnya. GPU H100 NVIDIA menggunakan 80GB HBM3 dengan bandwidth 3,35 TB/s.^[6]^ H200 meningkatkan kapasitas menjadi 141GB HBM3e pada 4,8 TB/s.^[7]^ Blackwell B200 menampilkan 192GB HBM3e yang mencapai 8,0 TB/s, lebih dari dua kali lipat bandwidth H100.^[8]^ Rubin R100 yang akan datang akan mengemas 288GB HBM4 dengan bandwidth diperkirakan antara 13-15 TB/s.^[9]^
Progresi ini mencerminkan persyaratan memori AI yang berkembang lebih cepat dari Hukum Moore. Aturan praktis cepat untuk menyajikan large language model dalam presisi 16-bit: sekitar 2GB memori GPU per 1 miliar parameter.^[10]^ Varian 70B Llama 3 membutuhkan lebih dari satu A100 80GB.^[11]^ Model yang mendekati 1 triliun parameter memerlukan konfigurasi multi-GPU di mana kapasitas HBM menjadi kendala pengikat.
KV cache menghadirkan tantangan memori tambahan. Selama inferensi, transformer menyimpan pasangan key-value dari token sebelumnya untuk menghindari komputasi ulang. Cache ini tumbuh secara linear dengan panjang konteks, mengonsumsi sekitar 0,5MB per token dalam model 7B.^[12]^ "LLM yang membutuhkan 60GB untuk bobot" sering kali tidak dapat berjalan dengan andal pada GPU 80GB dengan prompt panjang karena pertumbuhan memori runtime, bukan bobot, menjadi faktor pembatas.^[13]^
Keuntungan Oligopoli: Tiga Pemain Mengendalikan 95%
Memahami supersiklus memori memerlukan pemeriksaan struktur pasar yang berkembang selama puluhan tahun konsolidasi. Samsung, SK Hynix, dan Micron bersama-sama mengendalikan sekitar 95% produksi DRAM global.^[14]^ Konsentrasi ini dihasilkan dari dinamika kompetitif brutal yang mengeliminasi pemain yang lebih lemah.
Pada 2009, sepuluh perusahaan mengendalikan pasar DRAM: Micron, Samsung, Hynix, Infineon, NEC, Hitachi, Mitsubishi, Toshiba, Elpida, dan Nanya.^[15]^ Siklus turun 2011 memicu konsolidasi akhir. SK Telecom mengakuisisi Hynix seharga $3 miliar pada 2012.^[16]^ Elpida, produsen DRAM terakhir Jepang, bangkrut dan dibeli oleh Micron pada 2013.^[17]^ Dalam lima tahun, industri terkonsolidasi dari sepuluh pesaing menjadi tiga.
Struktur oligopolistik ini termanifestasi dalam perilaku pasar terkoordinasi. Dalam beberapa minggu terakhir, SK Hynix, Samsung, dan Micron membuat pengumuman yang hampir bersamaan menghentikan pesanan DDR4 baru.^[18]^ Analis industri Moore Morris mengkarakterisasi ini sebagai "pemutusan yang mengejutkan dari praktik industri selama puluhan tahun," mencatat bahwa "bagi mereka untuk bertindak dengan cara yang begitu terkoordinasi belum pernah terjadi sebelumnya."^[19]^ Oligopoli DRAM secara efektif mengendalikan pasokan sementara permintaan tetap kuat, menunjukkan kekuatan pasar kolektif yang menunjukkan "industri memori tidak lagi bermain dengan aturan lama."^[20]^
Segmen HBM lebih memusatkan kekuatan ini. SK Hynix mendominasi dengan pangsa pasar 62% per Q2 2025, Micron mengikuti dengan 21%, dan Samsung tertinggal dengan 17%.^[21]^ Posisi SK Hynix berasal dari taruhan HBM awal dan hubungannya sebagai pemasok utama NVIDIA. Saat ini, sekitar 90% HBM NVIDIA berasal dari SK Hynix.^[22]^
| Pemasok | Pangsa Pasar HBM (Q2 2025) | Pelanggan Utama | Status 2026 |
|---|---|---|---|
| SK Hynix | 62% | NVIDIA (90%) | Habis terjual |
| Micron | 21% | NVIDIA (sumber kedua) | Habis terjual |
| Samsung | 17% | AMD, Google | Masalah kualifikasi |
Posisi ketiga Samsung merupakan kejatuhan luar biasa bagi perusahaan yang lama mendominasi memori. SK Hynix melampaui Samsung dalam pangsa pasar DRAM keseluruhan di Q1 2025, pertama kalinya Samsung kehilangan posisi kepemimpinannya.^[23]^ Komponen HBM3E Samsung menghadapi penundaan kualifikasi dengan pelanggan utama, memungkinkan pesaing untuk menangkap permintaan AI premium sementara Samsung melayani segmen dengan margin lebih rendah.^[24]^
Titik Infleksi $100 Miliar
Micron memproyeksikan total addressable market HBM akan mencapai sekitar $100 miliar pada 2028, naik dari sekitar $35 miliar pada 2025.^[25]^ Ini merupakan tingkat pertumbuhan tahunan majemuk mendekati 40%.^[26]^ Tonggak $100 miliar tiba dua tahun lebih awal dari perkiraan sebelumnya; analis awalnya memproyeksikan mencapai level ini pada 2030.^[27]^
Beberapa faktor mendorong akselerasi ini. Pertama, penyebaran AI generatif terus melampaui ekspektasi. Setiap hyperscaler utama berlomba untuk menyebarkan kapasitas inferensi untuk produk AI mereka sementara melatih model generasi berikutnya memerlukan kluster GPU yang semakin besar.^[28]^ Kedua, kapasitas HBM per GPU terus meningkat. Progresi dari 80GB H100 ke 288GB Rubin berarti setiap akselerator mengonsumsi 3,6 kali lebih banyak HBM.^[29]^ Ketiga, persyaratan memori tingkat sistem memperbesar kebutuhan GPU individual. Blackwell Ultra GB300 NVIDIA diharapkan menampilkan hingga 288GB HBM3e, sementara varian Rubin Ultra menargetkan 512GB, dengan sistem NVL576 lengkap berpotensi memerlukan 1TB per modul GPU.^[30]^
Pasar semikonduktor pusat data yang lebih luas memberikan konteks. Pada 2024, total TAM semikonduktor untuk pusat data mencapai $209 miliar di seluruh komputasi, memori, jaringan, dan daya.^[31]^ Yole Group memproyeksikan ini akan tumbuh menjadi hampir $500 miliar pada 2030.^[32]^ Memori saja tumbuh 78% pada 2024 menjadi $170 miliar, diikuti oleh peningkatan dua digit lainnya menjadi $200 miliar pada 2025.^[33]^
Hasil keuangan Micron menunjukkan bagaimana dinamika ini diterjemahkan ke kinerja perusahaan. Perusahaan melaporkan pendapatan fiskal Q1 2026 sebesar $13,64 miliar, peningkatan 57% year-over-year.^[34]^ Margin kotor naik di atas 50%, berlipat ganda dari sekitar 22% di tahun fiskal 2024.^[35]^ Ekspansi margin ini mencerminkan bukan kondisi siklikal tetapi transformasi struktural dalam campuran produk perusahaan menuju produk pusat data dengan margin tinggi.^[36]^
Perlombaan HBM4: Tumpukan 16-Hi dan Seterusnya
Persaingan di antara pemasok memori kini berpusat pada HBM4, teknologi generasi berikutnya yang memasuki produksi pada 2026. SK Hynix menyelesaikan pengembangan HBM4 pertama di dunia dan telah menyelesaikan persiapan produksi massal.^[37]^ Baik SK Hynix maupun Samsung mengirimkan sampel HBM4 akhir berbayar ke NVIDIA, menandakan masuknya ke negosiasi pasokan yang didorong secara komersial.^[38]^
HBM4 menawarkan peningkatan substansial dibanding HBM3e. Kecepatan transfer data mencapai 11 gigabit per detik dengan bandwidth total melebihi 2,8 terabyte per detik.^[39]^ Standar ini menggabungkan die dasar logika yang diproduksi menggunakan node proses canggih, dengan SK Hynix bermitra dengan proses 12nm TSMC.^[40]^ Kolaborasi ini terbukti menarik bagi NVIDIA dan berkontribusi pada SK Hynix yang mendapatkan status pemasok utama untuk platform Blackwell Ultra dan Rubin.^[41]^
Batas teknis yang lebih menantang melibatkan tumpukan HBM 16 lapisan. NVIDIA dilaporkan meminta pengiriman HBM 16-Hi pada Q4 2026, memicu sprint pengembangan di ketiga pemasok.^[42]^ Ahn Ki-hyun, wakil presiden eksekutif Asosiasi Industri Semikonduktor Korea, mencatat bahwa "transisi dari 12 ke 16 lapisan secara teknis jauh lebih sulit daripada dari 8 ke 12."^[43]^
Kesulitan berasal dari kendala ketebalan wafer. HBM 12-Hi yang ada menggunakan wafer dengan ketebalan sekitar 50 mikrometer. Menumpuk 16 lapisan memerlukan pengurangan ketebalan menjadi sekitar 30 mikrometer sambil mempertahankan integritas struktural dan kinerja termal.^[44]^ Pengamat industri menggambarkan tantangan teknis sebagai "sangat berat."^[45]^
| Generasi | Lapisan | Kapasitas | Bandwidth | Produksi |
|---|---|---|---|---|
| HBM3 | 8-Hi | 80GB | 3,35 TB/s | 2023 |
| HBM3e | 12-Hi | 141-192GB | 4,8-8,0 TB/s | 2024-2025 |
| HBM4 | 12-Hi | 288GB | 11+ TB/s | H2 2026 |
| HBM4E | 16-Hi | 512GB+ | 15+ TB/s | Akhir 2026-2027 |
Samsung dan SK Hynix memajukan jadwal produksi HBM4 ke Februari 2026, mempercepat timeline sebelumnya.^[46]^ Micron mengharapkan untuk memasuki produksi massal HBM4 pada 2026, diikuti oleh HBM4E pada 2027-2028.^[47]^ Varian 16-Hi, kemungkinan diberi merek HBM4E, mungkin tiba seawal akhir 2026 tergantung pada peningkatan yield.^[48]^
Kerusakan Kolateral Gaming
Dampak konsumen paling terlihat dari supersiklus memori: NVIDIA berencana memangkas produksi GPU RTX 50-series sebesar 30-40% di H1 2026 karena kekurangan GDDR7.^[49]^ Pemasok memori memprioritaskan alokasi pusat data AI di atas GPU konsumen, menciptakan efek berantai di seluruh pasar kartu grafis.^[50]^
Dinamika pasokan berbeda dari HBM tetapi terhubung melalui alokasi kapasitas manufaktur. Produksi GDDR7 menghadapi deprioritisasi demi DDR5, mendorong harga memori grafis naik.^[51]^ Pada 2025 saja, harga memori meningkat 246%, dengan kenaikan berkelanjutan diharapkan hingga 2026.^[52]^
Produk spesifik menghadapi pemotongan paling tajam: GeForce RTX 5070 Ti dan RTX 5060 Ti 16GB, keduanya menampilkan 16GB GDDR7.^[53]^ Hanya Samsung yang memproduksi modul GDDR7 3GB dalam jumlah besar, dan jika NVIDIA sudah mengonsumsi chip 2GB, beralih ke modul dengan kepadatan lebih tinggi mengurangi total VRAM yang tersedia untuk kartu grafis Blackwell standar.^[54]^
Seri RTX 50 Super menghadapi penundaan atau potensi pembatalan. Timeline asli menargetkan awal 2026; proyeksi saat ini menyarankan Q3 2026 paling cepat.^[55]^ Modul GDDR7 3GB yang diperlukan untuk konfigurasi Super tidak tersedia dalam volume.^[56]^ Produsen memori berjuang untuk memproduksi chip GDDR7 2GB standar yang cukup sambil secara bersamaan meningkatkan skala ke modul 3GB.
Bagi konsumen, ini diterjemahkan menjadi harga lebih tinggi dan waktu tunggu lebih lama, terutama selama musim liburan akhir 2026.^[57]^ Kontrak pengadaan memori jangka tetap menjaga harga 2025 stabil, tetapi 2026 membawa renegosiasi pada harga spot yang meningkat.^[58]^ AMD menghadapi kendala serupa dengan GDDR6 untuk jajaran Radeon-nya.^[59]^
Hierarki prioritas ini mencerminkan realitas ekonomi. HBM untuk GPU pusat data memiliki margin yang jauh melebihi memori grafis konsumen. Ketika kendala kapasitas memaksa keputusan alokasi, pemasok secara rasional melayani pelanggan dengan margin lebih tinggi terlebih dahulu. Gaming merupakan kerusakan kolateral.