CoreWeave 심층 분석: 전직 암호화폐 채굴업체가 AI의 핵심 클라우드가 된 방법
2025년 12월 8일 업데이트
2025년 12월 업데이트: CoreWeave는 2025년 3월 15억 달러 규모의 IPO를 완료했습니다—2021년 이후 최초의 대형 기술 기업 IPO입니다. 2024년 매출은 737% 성장하여 19억 2천만 달러를 기록했습니다. OpenAI는 총 224억 달러 규모의 계약을 체결했고, Meta는 142억 달러 규모의 계약을 맺었습니다. 현재 32개 이상의 데이터 센터에 걸쳐 25만 대 이상의 GPU를 보유하고 있습니다. GB200 NVL72(2025년 2월)와 GB300 NVL72(2025년 7월)를 상업적으로 최초 배포한 기업입니다. 유럽 확장 투자 약속은 35억 달러에 달합니다. Microsoft의 비중이 미래 매출의 50% 미만으로 떨어지면서 고객 집중도가 개선되고 있습니다.
OpenAI는 다음 단계 인프라 확장을 위해 AWS, Azure, Google Cloud를 선택할 수도 있었습니다. 대신 이 회사는 2025년 3월 CoreWeave와 120억 달러 규모의 계약을 체결했고, 9월에는 105억 달러의 추가 계약을 맺어 5년간 총 224억 달러에 달하는 계약을 성사시켰습니다.¹ Meta도 2031년까지 142억 달러 규모의 인프라 투자를 약속했습니다.² CoreWeave는 2017년 3인 규모의 암호화폐 채굴 사업에서 지구상에서 가장 까다로운 AI 워크로드를 처리하는 230억 달러 규모의 GPU 클라우드 제공업체로 변모했습니다. 이 회사의 부상은 현대 AI의 인프라 요구사항과 하이퍼스케일러들이 복제하기 어려운 아키텍처 결정을 모두 보여줍니다.
이더리움 채굴에서 AI 인프라로
CoreWeave의 기원 이야기는 뉴저지 사무실에서 시작됩니다. 창업자 Michael Intrator, Brian Venturo, Brannin McBee가 이더리움 채굴을 위한 GPU 장비를 조립하던 곳입니다. 암호화폐 붐은 그들에게 GPU 경제학, 열 관리, 고밀도 배포에 관한 중요한 교훈을 가르쳐주었고, 이는 나중에 AI 워크로드에 필수적인 것으로 입증되었습니다. 2022년 이더리움이 지분증명(proof-of-stake)으로 전환하여 GPU 채굴이 필요 없게 되었을 때, CoreWeave는 생성형 AI가 등장하는 시점에 클라우드 컴퓨팅으로 전환했습니다.
타이밍은 놀라울 정도로 좋았습니다. ChatGPT가 2022년 11월에 출시되어 하이퍼스케일러들이 충족할 수 없는 전례 없는 GPU 컴퓨팅 수요를 촉발했습니다. CoreWeave의 기존 GPU 재고와 조달 관계는 AWS, Azure, Google Cloud가 충족할 수 없는 수요를 포착할 수 있는 위치에 회사를 놓았습니다. NVIDIA는 GPU 부족 속에서 할당 결정에 직면하여 경쟁 AI 칩을 개발하는 하이퍼스케일러보다 CoreWeave에 공급을 지원했습니다.³
NVIDIA의 2억 5천만 달러 투자와 지속적인 우선 할당은 양사에 이익이 되는 공생 관계를 만들었습니다. CoreWeave는 경쟁 실리콘을 개발하지 않는 NVIDIA의 최대 GPU 클라우드 고객으로, 재정적 조건 이상으로 전략적으로 가치 있는 파트너십입니다. 이 협정 덕분에 CoreWeave는 Microsoft와 Google조차도 할당을 확보하기 위해 고군분투하던 부족 기간에 GPU 공급을 확보할 수 있었습니다.
매출 성장은 수요 궤적을 반영합니다: 2022년 1,600만 달러에서 2023년 2억 2,900만 달러, 2024년 19억 2천만 달러로 성장했습니다—단일 연도에 737% 증가했습니다.⁴ 2025년 3월 IPO는 시가총액 약 350억 달러에서 15억 달러를 조달했으며, CoreWeave는 2021년의 과열된 시장 이후 최초의 대형 기술 기업 IPO가 되었습니다.
베어메탈의 이점
CoreWeave의 기술 아키텍처는 하이퍼스케일러 접근 방식과 근본적으로 다릅니다. 전통적인 클라우드 제공업체는 GPU 리소스를 가상화하여 지연 시간을 늘리고 사용 가능한 컴퓨팅 용량을 줄이는 하이퍼바이저 계층을 추가합니다. CoreWeave는 Kubernetes를 베어메탈 서버에서 직접 실행하여 전용 하드웨어 성능으로 클라우드와 같은 유연성을 제공합니다.⁵
CoreWeave Kubernetes Service(CKS)는 워크로드와 GPU 하드웨어 사이에 가상 머신이나 하이퍼바이저 없이 클러스터를 배포합니다. 각 노드에 연결된 NVIDIA BlueField Data Processing Units(DPU)는 네트워킹 및 보안 작업을 오프로드하여 GPU가 컴퓨팅에만 집중할 수 있도록 합니다.⁶ DPU 아키텍처는 GPU 활용도를 희생하지 않으면서 사용자 지정 네트워크 정책, 전용 Virtual Private Cloud, 권한 있는 접근 제어를 포함한 고급 보안 기능을 가능하게 합니다.
네트워킹 아키텍처는 분산 AI 훈련에 똑같이 중요합니다. CoreWeave는 수천 개의 GPU에 걸친 집합 연산에 최적화된 논블로킹 팻트리 토폴로지를 갖춘 NVIDIA Quantum-2 InfiniBand 패브릭 위에 백본을 구축했습니다.⁷ NVIDIA의 Scalable Hierarchical Aggregation and Reduction Protocol(SHARP)은 훈련 통신 패턴을 지배하는 그래디언트 동기화를 더욱 가속화합니다. 네트워크는 수만 개의 GPU를 안정적으로 연결하며 6자리 클러스터 규모까지 확장할 수 있는 용량을 갖추고 있습니다.
하이퍼스케일러들은 유사한 GPU 밀도를 시도할 때 구조적 마찰에 직면합니다. 레거시 데이터 센터 설계, 가상화 비용, 전통적인 클라우드 워크로드에 최적화된 네트워크 토폴로지는 CoreWeave의 목적에 맞게 구축된 인프라가 피하는 병목 현상을 만듭니다. AWS와 Azure는 H100을 배포할 수 있지만, 동등한 훈련 시간과 추론 처리량을 달성하려면 생성형 AI가 등장하기 몇 년 전에 내려진 아키텍처 결정을 극복해야 합니다.
AI 시대를 위한 데이터 센터 전략
CoreWeave는 북미와 유럽 전역에 32개 이상의 데이터 센터를 운영하며, 수백 메가와트의 전력 용량으로 25만 대 이상의 GPU를 보유하고 있습니다.⁸ 확장 속도는 2025년 내내 가속화되었으며, H200 GPU를 갖춘 2개의 영국 데이터 센터가 1월에 운영을 시작했고 노르웨이, 스웨덴, 스페인의 유럽 대륙 사이트는 22억 달러의 투자 약속을 받았습니다.
2025년에 개설되는 대부분의 CoreWeave 시설은 기본 수냉 기능을 갖추고 있습니다. 기존 시설의 작은 부분을 개조하는 레거시 운영업체와 달리, CoreWeave는 기초부터 지붕까지 전체 데이터 센터를 수냉 중심으로 설계합니다.⁹ 이 접근 방식은 차세대 GPU 배포에 필요한 130kW 이상의 랙을 지원할 수 있습니다—개조 투자에 관계없이 공랭식 시설이 달성할 수 없는 밀도 수준입니다.
전략적 파트너십은 모든 위치에 자본 지출 없이 CoreWeave의 범위를 확장합니다. Flexential과의 제휴는 추가 시장 전반에 걸쳐 고밀도 코로케이션 용량을 제공합니다.¹⁰ Core Scientific은 연간 약 2억 9천만 달러의 지불금과 함께 12년 계약을 통해 200메가와트의 인프라를 약속했습니다.¹¹ 이러한 계약은 파트너 전체에 자본 요구 사항을 분산시키면서 용량 배포를 가속화합니다.
2025년 2월 GB200 NVL72 배포로 CoreWeave는 NVIDIA의 Blackwell 아키텍처를 상업적으로 제공하는 최초의 클라우드 제공업체가 되었습니다.¹² 2025년 7월에는 Dell 서버를 통해 제공되는 GB300 NVL72(Blackwell Ultra) 시스템의 최초 상업 배포라는 또 다른 이정표를 세웠습니다.¹³ 차세대 하드웨어에 대한 조기 접근은 연속적인 GPU 세대에 걸쳐 강화되는 경쟁 해자를 만듭니다.
하이퍼스케일러 경제학에 도전하는 가격 책정
CoreWeave의 가격 구조는 동등한 GPU 구성에 대해 하이퍼스케일러보다 30-60% 저렴합니다.¹⁴ InfiniBand 네트워킹이 포함된 H100은 CoreWeave에서 GPU 시간당 약 6.16달러인 반면, Azure는 6.98달러, AWS는 인하 후 약 3.90달러입니다.¹⁵ 예약 용량 약정은 온디맨드 요금에서 60%까지 할인을 확대할 수 있습니다.
A100 비교는 더욱 극명합니다: CoreWeave에서 시간당 2.39달러 대 Azure 3.40달러, Google Cloud 3.67달러.¹⁶ 640만 GPU 시간이 필요한 700억 파라미터 모델 훈련 작업의 경우, CoreWeave 비용은 약 3,900만 달러인 반면 AWS 또는 Azure는 4,500-4,800만 달러, Google Cloud는 7,100만 달러입니다.
가격 단순성이 이점을 더합니다. CoreWeave는 GPU, CPU, RAM, 네트워킹을 인스턴스당 시간별 요금으로 번들링하여 용량 계획을 위한 예측 가능한 청구를 제공합니다. 하이퍼스케일러는 컴퓨팅, 스토리지, 데이터 송신, 보조 서비스에 대해 별도로 청구하여 비용 예측을 어렵게 하는 복잡한 청구를 만듭니다. CoreWeave의 송신 요금 제로는 빈번한 데이터 전송이 필요한 AI 워크로드에 대한 상당한 비용 범주를 제거합니다.
하이퍼스케일러는 서비스 생태계 폭에서 이점을 유지합니다. AWS SageMaker, Google Vertex AI, Azure의 AI 플랫폼은 CoreWeave의 인프라 중심 제공에 없는 관리형 서비스, 분석 도구, 사전 구축된 통합을 제공합니다. 기존 클라우드 생태계와의 깊은 통합이 필요한 조직은 통합 복잡성과 운영 오버헤드 감소로 인해 하이퍼스케일러 프리미엄이 정당화될 수 있습니다.
고객 집중도와 다각화
CoreWeave의 고객 집중도는 기회와 취약성을 모두 만들었습니다. Microsoft는 2024년 매출의 62%를 차지했고 2025년 2분기 매출의 71%에 달했습니다—단일 고객에 대한 특이한 의존도입니다.¹⁷ 이 집중도는 ChatGPT의 예상치 못한 성공이 기존 인프라를 압도한 후 OpenAI 워크로드를 처리하기 위한 GPU 용량에 대한 Microsoft의 긴급한 필요에서 비롯되었습니다.
OpenAI와 Meta 계약은 고객 구성을 근본적으로 변화시킵니다. CEO Michael Intrator는 OpenAI, Meta 및 기타 고객들이 사용량을 확대함에 따라 Microsoft가 예상되는 미래 약정 계약 매출의 절반 미만을 차지할 것이라고 언급했습니다.¹⁸ 다각화는 단일 고객 리스크를 줄이는 동시에 CoreWeave의 가치 제안이 Microsoft의 특정 요구 사항을 넘어 확장됨을 보여줍니다.
Cohere, Mistral, Poolside를 포함한 소규모 AI 회사들이 헤드라인 계약을 보완합니다.¹⁹ 이러한 고객들은 CoreWeave의 가격 및 성능 이점이 끌어들이는 더 넓은 AI 개발 커뮤니티를 대표합니다. AI 모델 개발이 소수의 최첨단 연구소를 넘어 확산됨에 따라, 이 중간 시장 세그먼트는 헤드라인 엔터프라이즈 계약만큼 전략적으로 가치 있을 수 있습니다.
Sam Altman은 관계를 명확하게 특징지었습니다: "CoreWeave는 OpenAI의 인프라 포트폴리오에 중요한 추가입니다. Microsoft 및 Oracle과의 상업 계약, 그리고 Stargate에 대한 SoftBank와의 합작 투자를 보완합니다."²⁰ 하이퍼스케일러 관계를 가진 조직도 특정 워크로드에 대해 CoreWeave의 전문 GPU 클라우드가 가치 있다고 판단합니다.
재무 현실과 시장 우려
CoreWeave의 성장에는 상당한 재무적 복잡성이 따릅니다. 회사는 2024년 5월 Blackstone과 Magnetar가 주도한 70억 달러 규모의 민간 채무 시설을 포함하여 12차례의 자금 조달 라운드에서 145억 달러 이상의 부채와 자본을 조달했습니다.²¹ 자본 집약적 모델은 경쟁 포지셔닝을 유지하기 위해 GPU 재고와 데이터 센터 용량에 대한 지속적인 투자가 필요합니다.
순손실은 매출이 737% 성장했음에도 불구하고 2023년 5억 9,400만 달러에서 2024년 8억 6,300만 달러로 확대되었습니다.²² 손실 궤적은 운영 비효율성이 아닌 공격적인 용량 확장을 반영하지만, 투자자들은 성장이 궁극적으로 축적된 부채를 상환하기에 충분한 수익을 창출하는지 면밀히 검토합니다. 이자 비용과 GPU 자산 감가상각이 수익성에 도달하기 전에 상당한 매출을 소비합니다.
시장 우려는 고객 집중도, 경쟁 역학, 현재 수요 수준의 지속 가능성에 초점을 맞춥니다. 일부 분석가들은 비즈니스 모델을 자본 요구 사항이 수익성 있는 규모에 도달하지 않고 지속적으로 확장되는 "GPU 부채 함정"으로 특징짓습니다.²³ NVIDIA의 우선 할당이 이론적으로 다른 파트너로 이동할 수 있어 CoreWeave의 공급 이점을 약화시킬 수 있습니다.
반론은 둔화 조짐이 보이지 않는 AI 인프라 수요에 중점을 둡니다. OpenAI, Anthropic, Google, Meta 및 수십 개의 다른 조직들이 모델 크기가 증가하고 추론 수요가 증가함에 따라 컴퓨팅 용량을 계속 확장하고 있습니다. CoreWeave의 선발 주자 이점, 기술 아키텍처, 고객 관계는 신규 진입자가 쉽게 복제할 수 없는 장벽을 만듭니다. 인프라 구축은 AI의 지속적인 확장에 대한 베팅을 나타냅니다—현재 증거가 뒷받침하는 논제입니다.
GPU 클라우드 환경에서의 경쟁 포지셔닝
GPU 클라우드 시장은 하이퍼스케일러(AWS, Azure, Google Cloud)와 전문 제공업체(CoreWeave, Lambda Labs, Together AI, Hyperbolic) 사이에서 분할됩니다. CoreWeave는 전문 세그먼트의 프리미엄 끝에 위치하여 하이퍼스케일러 요금 이하의 가격을 유지하면서 엔터프라이즈 기능과 대규모 확장을 제공합니다.
Lambda Labs는 경쟁력 있는 H100 가격(GPU 시간당 약 2.99달러)을 제공하지만
[번역을 위해 내용 잘림]