한국의 HBM4 모멘트: 삼성과 SK하이닉스가 AI의 문지기가 된 방법
한국의 두 기업이 인공지능 인프라의 미래를 좌우하고 있다. 삼성전자와 SK하이닉스는 모든 최첨단 AI 모델을 구동하는 특수 DRAM인 고대역폭 메모리(HBM)의 전 세계 생산량 90%를 담당한다.1 2026년 2월 HBM4 양산 시작, 60-70% 치솟는 서버 DRAM 가격, 그리고 OpenAI 스타게이트 프로젝트에 월 90만 장 웨이퍼 공급 약속으로 메모리는 범용 부품에서 전략적 국가 자산으로 변모했다.234
2월 혁명: HBM4 도래
2026년 2월은 메모리 기술 역사상 가장 중요한 아키텍처 변혁을 나타낸다. 삼성과 SK하이닉스는 동시에 HBM4 양산을 시작한다.5
기술 사양
| 사양 | HBM3E | HBM4 | 개선 |
|---|---|---|---|
| 인터페이스 폭 | 1024비트 | 2048비트 | 2배 |
| 채널 | 16 | 32 | 2배 |
| 대역폭 | ~1.2 TB/s | 2+ TB/s | ~1.7배 |
| 최대 적층 높이 | 12층 | 16층 | +33% |
| 최대 용량 | 36 GB | 64 GB | +78% |
채널 아키텍처가 16개에서 32개 독립 채널로 확장되어 메모리 작업에서 더 큰 접근 유연성과 병렬성을 제공한다.6
스타게이트 약속: 전 세계 DRAM 생산량의 40%
삼성과 SK하이닉스는 OpenAI의 예상 수요가 월 90만 장의 DRAM 웨이퍼로 성장할 수 있음을 확인했다.7 이 물량은 전 세계 DRAM 총 생산량의 약 40%에 해당한다.8
| 지표 | 현재 산업 | 스타게이트 목표 | 배수 |
|---|---|---|---|
| 월간 웨이퍼 | ~40만 | 90만 | 2.25배 |
| HBM 용량 점유율 | 기준선 | 전 세계 40% | - |
분석가들은 이 약속이 4년간 100조 원(720억 달러) 이상의 추가 수요에 해당한다고 추정한다.9
60-70% 가격 급등
삼성과 SK하이닉스는 2026년 1분기 서버 DRAM 가격을 2025년 4분기 대비 60-70% 인상한다.10 양사는 2~3년 장기 계약을 거부하고 분기별 계약만 요구하고 있다.11
| 기간 | 가격 변동 | 계약 조건 |
|---|---|---|
| 2025년 4분기 | 기준선 | 장기 계약 가능 |
| 2026년 1분기 | +60-70% | 분기별만 |
| 2026년 상반기 | 추가 인상 예상 | 분기별만 |
엔비디아 루빈: 수요 동인
2026년 1분기 양산에 들어가는 엔비디아의 루빈 아키텍처는 왜 HBM4가 전략적으로 중요해졌는지를 보여준다.12
루빈 사양
| 구성 요소 | 루빈 (2026) | 루빈 울트라 (2027) |
|---|---|---|
| HBM 유형 | HBM4 | HBM4E |
| 메모리 용량 | 288 GB | 1 TB |
| 메모리 대역폭 | ~22 TB/s | ~32 TB/s |
| FP4 추론 | 50 PFLOPS | 100 PFLOPS |
600조 원 용인 클러스터
SK하이닉스는 용인 반도체 클러스터 투자를 128조 원(855억 달러)에서 600조 원(4100억 달러)으로 증액할 계획을 발표했다.13
| 지표 | 원래 계획 | 수정 계획 |
|---|---|---|
| 투자 | 128조 원 | 600조 원 |
| 달러 가치 | 855억 $ | 4100억 $ |
| 중점 제품 | HBM3E | HBM4, HBM4E |
이재명 대통령은 2047년까지 반도체 부문에 700조 원(5340억 달러) 이상을 투자하는 청사진을 발표했다.14
전략적 시사점
AI 인프라 운영자
- 메모리 우선 계획: GPU 할당은 HBM 가용성에 의존
- 연장된 일정: 서버 DRAM에 12-18개월 리드타임 계획
- 예산 조정: 60-100% 메모리 비용 증가 반영
AI 산업
HBM 병목 현상은 AI 확장에 대한 가정에 도전한다. 메모리가 배포를 제한할 때 아키텍처 개선을 통한 컴퓨팅 밀도 향상이 단순한 GPU 축적보다 더 실용적일 수 있다.15
핵심 요점
- 2026년 2월: 삼성과 SK하이닉스에서 HBM4 양산 시작
- 전 세계 DRAM의 40%: 스타게이트 프로젝트가 전례 없는 메모리 약속 확보
- 60-70% 가격 인상: 서버 DRAM 비용 급격히 증가
- 600조 원: SK하이닉스의 확장된 용인 투자 계획
- 엔비디아 루빈: 차세대 GPU는 HBM4 필요
참고 문헌
-
TrendForce. "OpenAI's Stargate 900k DRAM Wafers Could Hit 40% of Global Output." 2025년 10월. ↩
-
Sammy Fans. "February 2026 is when Samsung HBM4 arrives." 2025년 12월. ↩
-
KED Global. "Samsung, SK Hynix seek up to 70% server DRAM price hikes." 2026년 1월. ↩
-
OpenAI. "Samsung and SK join OpenAI's Stargate initiative." 2025년 10월. ↩
-
DigiTimes. "Samsung, SK Hynix reportedly accelerate HBM4 production." 2025년 12월. ↩
-
Tom's Hardware. "JEDEC finalizes HBM4 memory standard." 2025년 4월. ↩
-
Tom's Hardware. "OpenAI's Stargate project to consume up to 40% of global DRAM output." 2025년 10월. ↩
-
TrendForce (2025년 10월). ↩
-
CoinCodex. "AI Workloads Are Set to Consume Over 40% of Global RAM Output by 2029." ↩
-
KED Global. ↩
-
DigiTimes. "Samsung, SK Hynix reportedly reject long-term DRAM contracts." 2026년 1월. ↩
-
TweakTown. "NVIDIA's next-gen Rubin GPUs enter production." 2025년 12월. ↩
-
TweakTown. "SK hynix expands investment plan to $410 billion." 2025년 11월. ↩
-
TrendForce. "South Korea to Pour KRW 700 Trillion in Future Chip Industry." 2025년 12월. ↩
-
DeepSeek. "DeepSeek-V3 Technical Report." 2024년 12월. ↩