IBM CEO: 하이퍼스케일러 AI 인프라 투자는 "절대" 수익을 낼 수 없다
2025년 12월 10일 작성자: Blake Crosley
IBM CEO Arvind Krishna는 2025년 12월 3일 하이퍼스케일러 AI 인프라 경제성에 대해 공개적으로 이의를 제기하며, 단순한 계산만으로도 기술 기업들의 대규모 데이터센터 투자가 "절대" 합리적이지 않다는 것이 드러난다고 밝혔다.1 Krishna는 "8조 달러의 CapEx는 이자 비용만 충당하려면 대략 8,000억 달러의 이익이 필요하기 때문에 그런 투자에서 수익을 낼 방법이 절대 없다는 것이 제 견해입니다"라고 말했다.[^2] Krishna는 GPU 감가상각이 가장 과소평가된 리스크라고 주장했다: "5년 안에 모두 사용해야 합니다. 그 시점이 되면 전부 폐기하고 새로 채워야 하니까요."[^3]
Krishna의 발언은 하이퍼스케일러들이 AI 인프라에 전례 없는 자본을 투입하는 시점에 나왔다. 빅4는 2025년에 총 3,800억 달러 이상의 자본 지출을 예상하고 있으며, CreditSights는 누적 CapEx가 2026년까지 6,020억 달러에 달할 것으로 전망한다.[^4]
2025년 하이퍼스케일러 CapEx 약정:
| 기업 | 2025 CapEx | 전년 대비 변화 | AI 집중 분야 |
|---|---|---|---|
| Amazon (AWS) | 1,250억 달러 | +35% | AI/클라우드 인프라 |
| Google (Alphabet) | 910-930억 달러 | +40% | 데이터센터, AI 컴퓨팅 |
| Microsoft | 800-890억 달러 | +25% | Azure AI 인프라 |
| Meta | 700-720억 달러 | +28% | AI 학습 클러스터 |
| 총계 | 3,800억 달러 이상 | +32% | 약 75% AI 관련 |
이 계산에는 근본적인 긴장이 존재한다: 2025년 AI 클라우드 매출은 500-600억 달러에 불과할 것으로 예상되는 반면 CapEx는 3,800억 달러를 초과하여, 투자 대비 매출 비율이 6:1에 달하며 이를 정당화하려면 수년간 세 자릿수 성장이 필요하다.[^5]
Krishna의 주장
Krishna의 비판은 기술 역량보다는 기본적인 재무 수학에 초점을 맞추며, 세 가지 상호 연결된 우려 사항에 집중한다: 이자 비용, 감가상각 일정, AGI 불확실성.
이자 비용 분석
Krishna가 언급한 8조 달러의 누적 CapEx와 8,000억 달러의 필요 이익은 인프라 투자의 이자 부담을 강조한다. 1기가와트의 데이터센터 용량을 구축하는 데 현재 달러 기준으로 약 800억 달러가 소요된다.[^6] AGI를 추구하는 전 세계 총 투자 약정은 100기가와트에 달하며, 가격표는 대략 8조 달러로 설정된다.
현재 금리에서 8조 달러의 자본은 주주 수익 창출 전에 금융 비용만 충당하기 위해 연간 약 8,000억 달러의 이익이 필요하다. 참고로 Microsoft, Google, Amazon, Meta의 2024년 합산 순이익은 약 2,000억 달러였다.[^7] 이 계산에 따르면 AI가 이자만 충당하려면 현재 총 수익성의 4배를 창출해야 한다.
감가상각 시한폭탄
Krishna는 감가상각을 "투자자들이 가장 과소평가하는 계산 부분"이라고 지적했다.[^3] 하이퍼스케일러들은 GPU 인프라를 5-6년에 걸쳐 감가상각하지만, NVIDIA는 이제 이전 2년 주기 대신 매년 새로운 아키텍처를 출시한다.[^8]
GPU 감가상각 현실:
| 지표 | 회계 처리 | 경제적 현실 |
|---|---|---|
| 내용연수 | 5-6년 | 1-3년 |
| 감가상각률 | 연 17-20% | 연 33-100% |
| 잔존가치 | EOL 시점 약 0% | 3년차에 약 0% |
| 아키텍처 주기 | 안정적 가정 | 연간 출시 |
Michael Burry는 Meta, Oracle, Microsoft, Google, Amazon 등의 기업들이 GPU 내용연수를 과대평가하고 감가상각을 과소평가하며, 실제 내용연수는 2-3년이라고 주장했다.[^9] Google 아키텍트에 따르면 데이터센터 GPU는 활용도에 따라 1-3년밖에 지속되지 않을 수 있으며, 이는 노후화보다 열 스트레스에 의한 것이라고 한다.[^10]
통신 버블과의 유사점
기술 인프라 투자는 역사적으로 과잉 공급을 초래해왔다. 광섬유 붐(1995-2000) 동안 기업들은 8,000-9,000만 마일의 광섬유 네트워크를 구축하는 데 약 2조 달러를 지출한 것으로 추정된다.[^11] 2001년까지 95%가 다크 파이버로 남았다—결코 실현되지 않은 수요를 기다리는 미사용 용량이었다.[^12]
통신 버블 vs. AI 인프라:
| 지표 | 통신 (1995-2000) | AI (2023-2025) |
|---|---|---|
| 총 투자 | 약 2조 달러 | 약 6,000억 달러 (2024-2025) |
| 정점 시 활용률 | 5% | 미상 |
| 주가 하락 | 98% (Corning, Ciena) | 미정 |
| 회복 기간 | 5-10년 | 미정 |
Corning 주가는 2002년까지 100달러에서 1달러로 폭락했다. Global Crossing, WorldCom, 360networks가 파산 신청을 했다. 2000년에서 2002년 사이 전 세계 통신 주식은 2조 달러 이상의 시가총액을 잃었다.[^13]
AGI 회의론
Krishna는 현재 아키텍처가 AGI를 달성할 수 있을지 의문을 제기하며, 근본적인 돌파구 없이는 확률이 "약 0-1%"라고 추정했다.[^14] AGI가 요원하다면, AGI 규모의 컴퓨팅을 위해 구축된 인프라는 실제 애플리케이션에 비해 과잉 규모가 될 수 있다.
반론
하이퍼스케일러 경영진은 Krishna의 비판에 대해 실질적인 반론을 제시한다.
수요가 공급을 초과
Amazon CEO Andy Jassy는 용량이 "우리가 실제로 투입하는 속도만큼 빠르게" 소비된다고 밝혔다.[^15] AWS의 AI 사업은 "세 자릿수 전년 대비" 성장으로 운영되며, "진화 초기 단계에서 AWS 자체보다 3배 이상 빠르게" 확장하고 있다.[^16] 2025년 3분기 클라우드 매출 성장은 견조했다: AWS +20%(330억 달러), Azure +40%, Google Cloud +34%(151.5억 달러).[^17]
전 세계 클라우드 인프라 지출은 2025년 2분기에 953억 달러에 달했으며, 이는 4분기 연속 20% 이상 성장을 기록한 것이다.[^18] 수요는 투기적이라기보다 실제로 보인다.
가치 캐스케이드 논거
옹호자들은 GPU 내용연수가 "가치 캐스케이딩"을 통해 연장된다고 주장한다—칩을 학습에서 추론으로, 다시 유틸리티 워크로드로 재활용하는 것이다.[^19] CoreWeave의 CEO는 2020년 빈티지 A100 칩이 여전히 완전히 예약되어 있으며, 최근 출시된 H100은 원래 가격의 95%로 즉시 예약된다고 언급했다.[^20]
학습에는 최신 아키텍처가 필요하지만, 대량이고 수익성 높은 추론 워크로드는 구형 칩에서도 효율적으로 실행된다. 학습에서 추론, 파인튜닝으로의 진행은 경제적 수명을 잠재적으로 5년까지 연장할 수 있다.
전략적 해자
인프라 투자는 후발 주자가 복제할 수 없는 진입장벽을 만든다. Microsoft의 Azure 인프라는 엔터프라이즈 AI 지위를 방어한다. Google의 컴퓨팅 역량은 AI 대안으로부터 검색을 보호한다. Meta의 학습 용량은 소규모 경쟁자들이 따라올 수 없는 파운데이션 모델 개발을 가능하게 한다.
ROI를 넘어선 전략적 가치:
| 기업 | 전략적 필수 요소 | 인프라 역할 |
|---|---|---|
| Microsoft | 엔터프라이즈 AI 리더십 | Azure AI 차별화 |
| 검색 방어 | Gemini 개발 용량 | |
| Amazon | 클라우드 지배력 | AWS 서비스 확장 |
| Meta | 소셜 AI 기능 | Llama 모델 학습 |
장기적 시간 지평
통신 버블의 긍정적 측면은 시사점을 준다: 2000년에 과잉 구축된 광섬유가 YouTube(2005), Netflix 스트리밍(2007), 클라우드 컴퓨팅(2006 이후)을 가능하게 했다.[^21] 과잉 공급으로 인한 저렴한 대역폭이 완전히 새로운 비즈니스 모델을 창출했다.
마찬가지로 AI 인프라 과잉 공급이—실현된다면—GPU 임대 비용을 낮추고 현재 경제성이 없는 AI 애플리케이션을 가능하게 할 것이다. 원래 투자자들이 손실을 입더라도 인프라는 기반이 될 수 있다.
인프라 계획을 위한 의사결정 프레임워크
Krishna의 비판은 AI 인프라 투자를 평가하는 조직에 실행 가능한 시사점을 제공한다.
인프라 전략 매트릭스:
| 시나리오 | Krishna가 옳은 경우 | Krishna가 틀린 경우 |
|---|---|---|
| 자체 인프라 구축 | 좌초 자산, 낮은 ROI | 경쟁 우위 |
| 하이퍼스케일러에서 임대 | 가격 하락, 유연성 유지 | 가격 안정, 용량 확보 |
| 대기 | 낮은 비용으로 진입 | 선점자 이점 상실 |
Krishna가 옳다면
구축보다 임대하는 조직이 옵션 가치를 보존한다. 과잉 공급은 H100 가격을 현재 시간당 2.85-3.50달러에서 시간당 1-2달러로 낮출 것이다.[^22] 유연성 조항이 있는 임대 계약이 장기 약정보다 우수하다.
모니터링할 지표: - 하이퍼스케일러 활용률이 70% 이하로 하락 - GPU 스팟 가격이 분기 대비 20% 이상 하락 - 실적 발표에서 CapEx 가이던스 하향 - 주요 프로젝트 취소 또는 지연
Krishna가 틀리다면
용량을 조기에 확보한 조직이 희소성 프리미엄과 고정 가격의 혜택을 받는다. AI 애플리케이션의 선점자 이점은 시간이 지남에 따라 복리로 증가한다. 인프라 제약은 기존 사업자에게 유리하게 작용한다.
모니터링할 지표: - 2026년까지 지속되는 세 자릿수 AI 매출 성장 - GPU 가격 안정화 또는 상승 - 하이퍼스케일러 CapEx 가이던스 상향 - 신규 아키텍처 출시 지연
헤지 접근법
대부분의 조직은 방향성 베팅보다 헤지해야 한다:
- 현재 수요의 60-70% 임대 - 유연성 보존
- 30-40%에 대해 약정 용량 확보 - 핵심 워크로드의 가용성 보장
- 유연성 조항 협상 - 패널티 없는 확장 권리
- 분기별 모니터링 - 시장 신호에 따라 배분 조정
전문 가이던스
이 정도 규모와 불확실성의 인프라 결정은 경험 있는 관점이 도움이 된다.
Introl의 550명의 현장 엔지니어 네트워크는 구축, 임대, 하이브리드 전략 전반에 걸쳐 AI 인프라 경제성을 평가하는 조직을 지원한다.[^23] 이 회사는 9,594%의 3년 성장률로 2025 Inc. 5000에서 14위를 차지했으며, 이는 인프라 자문 서비스에 대한 수요를 반영한다.[^24]
전 세계 257개 지역에 걸친 전문성은 다양한 시장 조건에서의 인프라 투자에 대한 관점을 제공한다.[^25] Introl은 100,000개 GPU에 달하는 배포를 관리하며, 활용도 최적화 및 비용 관리에 대한 운영 통찰력을 제공한다.[^26]
핵심 요점
인프라 기획자를 위해: - 자본 투입 전 Krishna가 옳은 시나리오와 틀린 시나리오 모두 모델링 - 활용률이 80%를 초과하지 않는 한 자체 인프라보다 유연성 조항이 있는 임대 선호 - 하이퍼스케일러 활용률과 가격 추이를 분기별로 모니터링 - 다년 약정에 해지 조항 포함
재무 분석가를 위해: - 경영진 우려를 나타내는 감가상각 정책 변경 주시 - 5-6년 회계 수명과 1-3년 경제적 현실 비교 - AI 매출 성장률과 CapEx 성장률 비교 추적 - 인프라 집중 포트폴리오의 좌초 자산 리스크 평가
전략 기획자를 위해: - 과잉 공급이 투자자에게 해를 끼치더라도 소비자에게는 이익이 됨을 인식 - 인프라 비용이 30-50% 하락할 경우 후발 주자 이점 고려 - 경쟁사가 과잉 투자하고 손상 차손을 겪을 경우의 경쟁 역학 평가 - 하이브리드 클라우드 아키텍처를 통한 옵션 가치 유지
전망
Krishna의 비판은 업계 열풍 속에서 소수 의견을 대표하지만, 수학적 분석은 진지한 검토를 요구한다. 2025년 3,800억 달러의 CapEx는 정당화하기 위해 전례 없는 매출 창출이 필요하며—이 매출 성장은 낙관적일 수 있는 감가상각 일정에 맞서 수년간 지속되어야 한다.
논쟁의 결론보다 대응이 더 중요하다: 조직은 베팅보다 헤지해야 한다. 임대 유연성을 확보하고, 조건을 협상하고, 신호를 모니터링하고, 옵션 가치를 보존하라. Krishna가 선지자로 판명되든 역발상 투자자로 판명되든, 준비된 조직은 합의된 가정이 아닌 시나리오 분석에 기반한 인프라 결정으로 이익을 얻는다.
Krishna 자신도 인프라 회의론에도 불구하고 언급했듯이: "AI가 엔터프라이즈에서 수조 달러의 생산성을 창출할 것이라고 생각합니다, 이것만은 분명히 해두겠습니다."[^27] 문제는 AI가 가치를 창출하느냐가 아니라, 현재 인프라 투자 수준이 그 가치 창출의 시기와 규모에 맞느냐이다.
참고문헌
[번역을 위해 내용 축약됨]
-
Fortune. "IBM CEO warns there's 'no way' hyperscalers like Google and Amazon will be able to turn a profit at the rate of their data center spending." December 3, 2 ↩