CoreWeave: AI 인프라 혁신 - 암호화폐 채굴 스타트업이 어떻게 230억 달러 규모의 인공지능 중추가 되었나

CoreWeave는 암호화폐 채굴에서 벗어나 230억 달러 규모의 AI 인프라 중추로 전환하며, OpenAI의 기초 모델을 지원하면서 737%의 매출 성장을 달성했습니다.

CoreWeave: AI 인프라 혁신 - 암호화폐 채굴 스타트업이 어떻게 230억 달러 규모의 인공지능 중추가 되었나

CoreWeave는 암호화폐 채굴 출신에서 세계에서 가장 전문화된 AI 클라우드 인프라 제공업체로 성장했으며, 전례 없는 규모의 GPU 슈퍼컴퓨터를 운영하면서 기존 하이퍼스케일러와 차별화되는 액체 냉각 및 베어메탈 아키텍처를 개척하고 있습니다. 2017년 Ethereum 채굴에서 OpenAI의 GPT 모델을 구동하는 것으로의 회사 전환은 실리콘밸리의 가장 극적인 피봇을 나타내며, $75억 부채 조달로 $190억 기업가치 평가(2024년 5월)에 이어 $230억의 세컨더리 세일(2024년 10월), 2024년 폭발적인 737% 매출 성장, 그리고 SemiAnalysis의 새로운 ClusterMAX 프레임워크에서 최고 티어로 평가받은 것으로 검증되었습니다; 리포트는 CoreWeave의 테넌트 격리, 베어메탈 Kubernetes, 그리고 운영 성숙도를 강조합니다.

CoreWeave가 구축한 기술적 해자는 가속 컴퓨팅에만 최적화된 전문 아키텍처를 활용합니다. 기존 클라우드 제공업체들이 범용 워크로드와 GPU 컴퓨팅 간의 균형을 맞추는 반면, CoreWeave는 AI와 HPC 애플리케이션을 위해 스택의 모든 레이어를 목적 기반으로 구축했습니다. 그들의 베어메탈 Kubernetes 아키텍처는 가상화 오버헤드를 완전히 제거하며, 직접 칩 액체 냉각은 공기 냉각 시설이 달성할 수 없는 130킬로와트 랙 밀도를 가능하게 합니다. 토폴로지 인식 스케줄링과 InfiniBand 우선 네트워킹과 결합된 이 근본적인 아키텍처 장점은 CoreWeave가 Hopper급 GPU에서 50% 이상의 Model FLOPS Utilization을 보고하는 결과를 제공하며—이는 그들의 내부 벤치마크에 따르면 공개 파운데이션 모델 베이스라인보다 약 20% 높은 수치입니다.

NVIDIA와의 공생적 관계는 일반적인 벤더 파트너십을 초월하며, NVIDIA는 2025년 3월 기준 약 6%의 지분을 유지하고 있고 획기적인 아키텍처의 첫 배포를 위해 지속적으로 CoreWeave를 선택하고 있습니다. CoreWeave는 GB200 NVL72 시스템의 일반 가용성 첫 제공업체(2025년 2월)였으며 GB300 NVL72 시스템의 첫 배포 업체(2025년 7월 3일)였습니다. GB300 배포는 NVIDIA가 "추론 모델 추론 출력에서 최대 50배 개선"이라고 설명하는 것을 약속하지만, 이는 동료 검토된 벤치마크라기보다는 벤더 마케팅을 나타냅니다. (NVIDIA 마케팅 가이던스; 독립적인 벤치마킹 대기 중.)

재무 지표들은 전문화된 AI 인프라에 대한 엄청난 시장 수요를 보여주며, CoreWeave는 $12억 1천만 분기 매출(2025년 Q2), $301억 계약 백로그 유지, 그리고 대규모 훈련과 추론에 최적화된 성능 수준이 필요한 Microsoft(2024년 매출의 62% 차지), OpenAI($119억 계약에 $40억 확장 추가), 그리고 기타 AI 리더들로부터 앵커 고객 약정을 확보했습니다. 2025년 3월 주당 $40의 IPO는 약 $15억을 조달하여 글로벌 AI 컴퓨팅 수요가 가속화됨에 따라 가치를 포착할 수 있는 위치에 있는 공개회사로 CoreWeave를 설정했습니다.

그러나 이 폭발적인 성장 아래에는 상당한 실행 위험이 있으며, CoreWeave는 2025년 Q2 $2억 6천 7백만의 이자 비용(2024년 Q2 $6천 7백만 대비)으로 $110억 이상의 부채를 보유하고 있어, 대차대조표가 확장됨에 따라 연간 $10억+ 실행률을 의미합니다. 이 자본 구조는 회사가 하이퍼스케일러 경쟁에 앞서 인프라를 배포하기 위해 경쟁하면서 완벽한 실행을 요구합니다. 극단적인 고객 집중도로 Microsoft가 2024년 매출의 62%를 차지하고; 상위 2개 고객이 77%를 차지합니다.

이 심층 분석은 CoreWeave가 어떻게 첫 번째 원리에서 전문화된 AI 인프라를 설계했는지, 그들의 기술적 장점이 하이퍼스케일러 경쟁에 대해 왜 의미있는 것으로 증명되는지, 그리고 그들의 공격적인 확장 전략이 엑사스케일 컴퓨팅 인프라 구축의 자본집약적 현실을 탐색하면서 기술적 리더십을 유지할 수 있는지를 검토합니다. 기술 문서, 성능 벤치마크, 그리고 업계 분석을 통해 우리는 뉴저지 차고에서 암호화폐 채굴을 시작한 회사가 어떻게 인공지능 개발의 중요한 인프라로 자리매김했는지, 그리고 이 궤도에 영향을 미칠 수 있는 재무적 과제들을 드러냅니다.

CoreWeave의 장점: AI 워크로드를 위해 특별히 설계된 인프라

AI 워크로드가 기존 클라우드 컴퓨팅과는 근본적으로 다른 인프라를 요구한다는 CoreWeave의 핵심 통찰력은 현재 트레이닝, 파인튜닝, 추론 워크로드 전반에 걸쳐 측정 가능한 성능 우위를 제공하는 아키텍처 결정을 이끌었습니다. 하이퍼스케일러들이 웹 애플리케이션, 데이터베이스, 엔터프라이즈 소프트웨어 최적화에 수천억 달러를 투자하는 동안, CoreWeave는 대규모 언어 모델과 신경망이 범용 데이터 센터에서 일관성 있게 제공하기 어려운 극도의 메모리 대역폭, 초저지연 인터커넥트, 지속적인 열 분산을 필요로 한다는 점을 인식했습니다.

기술적 차별화는 GPU 워크로드에만 최적화된 완전한 수직 통합에서 시작됩니다. CoreWeave의 베어메탈 Kubernetes 접근 방식은 가상화 레이어 없이 GPU, CPU, 네트워크, 스토리지 리소스에 대한 직접적인 하드웨어 액세스를 제공합니다. 토폴로지 인식 스케줄링은 GPU 간 통신 지연을 최소화하고, 전용 InfiniBand 패브릭은 GPU당 400Gb/s 연결성을 제공합니다. 최고급 하이퍼스케일러 GPU 인스턴스들도 이제 고대역폭 네트워킹을 제공한다는 점은 주목할 만합니다. Google Cloud의 A3 인스턴스는 VM당 3.2 Tbps를 제공하고, Azure의 ND H100 v5는 1.6-3.2 Tbps급 연결성을 제공하며, AWS P5 클러스터는 SR-IOV/EFA와 함께 3200 Gbps 인스턴스 네트워킹을 제공합니다. 차별화는 원시 링크 속도보다는 CoreWeave의 클러스터 토폴로지, 스케줄러 배치 최적화, 그리고 랙 규모의 액체 냉각 열 관리에 있습니다.

NVIDIA의 공식 벤치마크에 따르면, Cohere는 CoreWeave의 GB200 NVL72 시스템에서 이전 세대 Hopper GPU 대비 최대 3배 빠른 트레이닝을 달성했습니다. 하지만 이는 클라우드 간 비교보다는 세대별 하드웨어 개선을 나타냅니다. 다른 고객 성능 주장들이 업계 논의에서 순환하고 있지만 해당 회사들 자체의 공개적인 검증은 부족합니다.

비즈니스 모델 혁신도 똑같이 중요합니다. 수백 개의 서비스를 제공하는 대신 GPU 컴퓨트에만 집중함으로써 CoreWeave는 AI 워크로드를 위해 운영의 모든 측면을 최적화할 수 있습니다. 이러한 전문화는 새로운 하드웨어 세대의 빠른 배포(기존 클라우드의 몇 개월 대신 몇 주), 관리 오버헤드 감소로 인한 간소화된 운영, 성능을 우선시하는 GPU 네이티브 고객과의 직접적인 관계, 그리고 예약 인스턴스, 온디맨드, 2025년 말 출시 예정인 스팟 가격책정을 포함한 유연한 소비 모델을 가능하게 합니다.

AWS, Google Cloud, Microsoft Azure가 모두 개선된 네트워킹과 베어메탈 옵션으로 GPU 제공을 확장하면서 AI 인프라의 전략적 중요성을 인식함에 따라 하이퍼스케일러들의 경쟁이 심화되고 있습니다. 그러나 CoreWeave의 전문화된 접근 방식과 NVIDIA의 최신 하드웨어에서의 선도자 우위가 차별화를 만들어냅니다. 2025년 3-4월 기준으로 SemiAnalysis의 Platinum-tier ClusterMAX 등급을 받은 유일한 기업으로서 CoreWeave는 기술적 리더십을 보여줍니다. 하지만 이 등급 시스템은 3-6개월마다 업데이트를 계획하고 있으며, 경쟁 역학은 계속 발전하고 있습니다.

Ethereum 채굴에서 파운데이션 모델 훈련까지: 예상치 못한 기원 스토리

CoreWeave의 암호화폐 채굴 사업에서 AI 인프라 강자로의 변신은 2017년 공동창립자인 Michael Intrator, Brian Venturo, Brannin McBee가 자신들의 GPU 전문성이 암호화 퍼즐을 푸는 것보다 더 가치 있는 목적으로 활용될 수 있다는 것을 깨달으면서 시작되었다. 뉴저지주 위호컨에 기반을 둔 이 회사는 처음에는 Ethereum 채굴에 집중하여 수천 대의 GPU를 축적하면서 맞춤형 냉각 솔루션과 오케스트레이션 소프트웨어를 개발했는데, 이는 나중에 AI 워크로드에 매우 유용하게 작용했다.

결정적인 순간은 2019년 Ethereum이 지분증명(proof-of-stake)으로의 전환으로 GPU 채굴을 완전히 구식으로 만들겠다고 위협했을 때 찾아왔다. 대부분의 채굴업체들처럼 자산을 청산하는 대신, CoreWeave의 창립자들은 떠오르는 시장 기회를 파악했다—기존 클라우드에서 하드웨어 접근에 어려움을 겪는 머신러닝 연구자들에게 GPU 컴퓨팅을 제공하는 것이었다. 초기 고객들로는 실험을 위한 버스트 컴퓨팅이 필요한 학술 기관들, 영화용 CGI를 렌더링하는 시각효과 스튜디오들, 그리고 컴퓨터 비전 모델을 훈련하는 스타트업들이 있었다.

2020년 팬데믹은 원격 근무가 클라우드 렌더링에 대한 수요를 증가시키는 동시에 산업 전반에 걸쳐 AI 채택을 촉진하면서 CoreWeave의 전환을 가속화했다. 회사는 위험 모델링을 위해 대규모 병렬 처리가 필요한 헤지펀드와 첫 번째 주요 기업 계약을 체결하여, 암호화폐 투기를 넘어선 비즈니스 모델을 검증했다. 연말까지 CoreWeave는 단백질 폴딩 시뮬레이션에서 실시간 비디오 트랜스코딩까지 다양한 워크로드를 서비스하는 10,000개 이상의 GPU를 운영했다.

2022년 OpenAI가 GPT 모델 훈련을 위한 인프라 파트너로 CoreWeave를 선택하면서 돌파구가 찾아왔는데, 이는 InfiniBand 네트워킹을 갖춘 수천 대의 A100 GPU를 신속하게 배포할 수 있는 능력 때문이었다—이는 대규모 훈련에 최적화된 구성이었다. 성공적인 배포는 전례 없는 규모에서 CoreWeave의 아키텍처를 검증했고, 추가적인 파운데이션 모델을 포괄하는 확장 계약으로 이어졌다. 이 핵심 고객은 수익 안정성과 기술적 신뢰성을 동시에 제공하여 추가적인 AI 선구자들을 끌어들였다.

벤처캐피털은 AI 공급망에서 CoreWeave의 전략적 위치를 인식하여, Magnetar Capital이 2022년 2억 달러 규모의 시리즈 B를 주도했고, 이어 급속한 기업가치 성장이 따랐다. 2024년 5월 Blackstone, Coatue 등으로부터 190억 달러 기업가치로 75억 달러를 조달한 채무 파이낸싱은 기술 역사상 가장 광범위한 사모 신용 대출 중 하나를 나타냈으며, 폭발적인 수요를 충족하기 위한 공격적인 인프라 확장을 가능하게 했다.

암호화폐 채굴에서 나온 문화적 DNA—기술적 위험 수용, 효율성 최적화, 24시간 신뢰성 운영—은 AI 인프라 요구사항에 완벽하게 부합했다. GPU에서 최대 해시 레이트를 끌어내던 동일한 엔지니어들이 이제는 텐서 연산을 최적화하고, 변동성이 큰 암호화폐 시장에서 수익을 내기 위해 요구되는 재정적 규율이 자본집약적인 인프라 비즈니스를 운영하는 데 도움이 된다. 이러한 예상치 못한 기원 스토리는 기술적 혁신이 기존 사업자들보다는 인접 산업에서 나오는 경우가 많다는 것을 보여주며, 레거시 사고에 구속받지 않는 아웃사이더들이 원리부터 특화된 솔루션을 설계한다는 것을 입증한다.

복잡한 자본 구조는 기회와 리스크를 모두 반영한다.

CoreWeave의 자본 구조는 AI 인프라의 거대한 기회와 하이퍼스케일에서 경쟁하는 데 필요한 자본 집약적 특성을 모두 반영한다. 자금 조달 이력에는 약 14% 금리의 75억 달러 부채 시설 (2024년 5월), 여러 라운드에 걸쳐 10억 달러를 초과하는 총 지분 투자, 회사를 230억 달러로 평가한 2차 주식 매각 (2024년 10월), 그리고 주당 40달러의 15억 달러 IPO (2025년 3월 28일)가 포함되며, 이를 통해 부채를 포함한 기업 가치가 350억 달러를 초과하는 상장 기업이 탄생했다.

앵커 투자자들은 자본을 넘어선 전략적 가치를 보여준다. NVIDIA의 약 6% 지분은 2025년 3월 기준 9억 달러, 5월에는 거의 16억 달러 가치에 달하며, 할당 제약 상황에서 GPU 공급에 대한 우선적 접근을 보장하는 동시에 하드웨어/소프트웨어 최적화에 대한 기술 협력을 제공한다. Microsoft의 고객 관계는 CoreWeave를 필수 인프라로 검증해주며, 특히 상당한 컴퓨팅 리소스가 필요한 OpenAI와의 대규모 파트너십을 고려할 때 더욱 그렇다. Fidelity, BlackRock, Altimeter를 포함한 투자자 컨소시엄은 기업 영업과 향후 자금 조달에 중요한 기관 신뢰성을 가져다준다.

고객 집중도는 검증과 리스크를 모두 제시한다. S-1 신고서에 따르면 Microsoft는 CoreWeave의 2024년 매출의 약 62%를 차지했는데, 이러한 의존성은 빠른 확장을 가능하게 했지만 계약 재협상이나 전략적 변화에 대한 취약성을 만든다. 이러한 계약의 장기적 특성은 어느 정도 안정성을 제공하지만, 구체적인 기간은 공개적으로 공개되지 않는다 (주문은 일반적으로 2-5년). OpenAI의 최대 119억 달러 약정과 회사의 투자자 관계 자료에 공개된 후속 40억 달러 확장은 추가적인 앵커 매출을 제공한다. IBM과 주요 금융 기관을 포함한 더 넓은 고객 기반은 초기 앵커 테넌트를 넘어선 시장 확장을 보여준다.

2025년 2분기 기준 301억 달러의 매출 백로그는 인프라 회사로서는 전례 없는 가시성을 제공하며, 계약된 매출은 수년간의 선약정을 나타낸다. 하지만 수십 개 데이터센터에 걸쳐 수십만 개의 GPU를 배포하고 운영하는 복잡성을 고려할 때 실행 리스크는 여전히 상당하다. 매출 인식은 인프라 가용성에 달려 있어, 기업 고객이 요구하는 안정성을 보장하면서도 공격적인 배포 일정을 유지해야 하는 압박을 만든다.

재무 성과는 AI 인프라의 도전적인 단위 경제학을 드러낸다. 2025년 2분기 실적은 12억 1천만 달러의 매출을 보였지만 손실은 확대되었으며, 회사는 빠르게 진화하는 하드웨어에 대한 막대한 감가상각비, 부채 부담으로 인한 연간 거의 10억 달러에 달하는 이자 비용, 그리고 인프라 배포에 따라 확장되는 운영 비용에 직면하고 있다. 수익성으로의 경로는 고정 비용을 상각하기 위한 더 큰 규모 달성, 활용률 개선, 경쟁 압박에도 불구하고 가격 규율 유지를 요구하며, 이는 성장과 지속가능성 사이의 미묘한 균형이다.

2025년 5월 Weights & Biases를 약 17억 달러에 인수한 것 (TechCrunch와 업계 보고서에 따르면, 공식 조건은 비공개)은 MLOps 역량을 추가하면서 통합 복잡성을 증가시킨다. 거래는 2025년 5월 5일에 완료되어, 1,400개 이상의 기업이 사용하는 모델 개발 도구와 인프라를 결합했다.

전문성과 파트너십으로 강화된 시장 지위.

CoreWeave의 시장 전략은 의도적으로 범위를 제한하여 GPU 가속 컴퓨팅 분야에서 타의 추종을 불허하는 깊이를 달성함으로써 기존 클라우드 플랫폼 접근 방식을 뒤바꾸고 있습니다. AWS가 모든 상상 가능한 워크로드에 걸쳐 200개 이상의 서비스를 제공하는 반면, CoreWeave는 AI 훈련 및 추론에 최적화된 집중적인 GPU 컴퓨팅 인프라를 제공합니다. 이러한 전문화는 범용 플랫폼이 광범위한 요구사항과 균형을 맞춰야 하는 것과 달리 아키텍처 최적화와 운영 효율성을 가능하게 합니다.

경쟁 역학은 계속해서 빠르게 발전하고 있습니다. 하이퍼스케일러들은 GPU 제공 서비스를 크게 향상시켜, AWS, Google Cloud, Azure가 이제 고대역폭 네트워킹 옵션, 베어메탈 인스턴스, 향상된 GPU 가용성을 제공하고 있습니다. 차별화는 점점 더 단순한 원시 사양보다는 클러스터 규모 가용성, 토폴로지 최적화, 열 관리, 소프트웨어 스택 통합에 중점을 두고 있습니다.

CoreWeave의 파트너십 전략은 깊은 생태계 통합을 통해 집중적인 접근 방식을 증폭시킵니다. NVIDIA와의 관계는 고객-공급업체 역학을 넘어서며, NVIDIA의 지분 투자와 새로운 아키텍처 출시에 CoreWeave를 지속적으로 선택하는 것(2025년 2월 GB200 NVL72, 2025년 7월 GB300 NVL72)은 전략적 일치를 보여줍니다. Databricks, Hugging Face 및 기타 AI 플랫폼과의 파트너십은 CoreWeave가 경쟁 서비스를 구축할 필요 없이 워크플로 호환성을 보장합니다.

지리적 확장은 AI 혁신 허브를 따라 이루어지며, 유럽 인프라에 35억 달러를 투입하고, 영국 운영에 10억 파운드, 노르웨이, 스웨덴, 스페인 시설에 투자하여 재생 에너지를 활용하고 있습니다. 회사는 2025년 현재 33개의 데이터센터를 운영하며 약 470MW의 활성 IT 전력과 약 2.2GW의 계약 용량(2025년 2분기)을 보유하여 지속적인 성장에 대비하고 있습니다.

지속 가능한 경쟁 우위는 전문화된 인프라가 까다로운 고객을 유치하고, 집중된 수요가 지속적인 투자를 정당화하며, 기술적 리더십이 새로운 하드웨어에 대한 조기 접근을 보장하는 복합 효과에서 비롯됩니다. 이는 CoreWeave를 독특하게 위치시키지만, 자본 요구사항과 경쟁 압력을 고려할 때 실행 위험은 여전히 상당합니다.

기술 인프라: 전례 없는 규모의 AI 엔지니어링

CoreWeave의 데이터 센터 설치 기반은 2025년 현재 미국과 유럽 전역의 33개 운영 시설에 걸쳐 있으며, 이는 전 세계적으로 가장 큰 특수 GPU 배포 중 하나를 나타냅니다. 지리적 분포는 주요 배포를 포함하여 28개의 미국 위치를 포함하며, 16억 달러 규모의 텍사스 플라노 시설과 같이 454,421 평방피트에 3,500개 이상의 H100 GPU를 수용하고 있습니다. MLPerf Training v5.0 제출(2025년 6월)에서 CoreWeave, NVIDIA, IBM은 2,496개의 GB200 GPU를 사용하여 Llama 3.1 405B를 27.3분 만에 훈련시키는 사상 최대 규모의 벤치마크를 달성했습니다. 이는 다른 제출자들의 유사한 클러스터 크기보다 2배 이상 빠른 속도입니다.

전력 인프라는 2025년 2분기 현재 약 470 메가와트의 활성 용량과 약 2.2+ 기가와트 이상의 계약 용량을 포함하여 뛰어난 효율성을 위해 설계된 시설들과 함께 중요한 차별화 요소를 나타냅니다. 랙당 130킬로와트를 지원하는 액체 냉각 기술은 기존의 30킬로와트 공냉 한계와 비교하여 랙당 72개의 GPU를 패킹하는 NVIDIA GB200 NVL72 시스템과 같은 고밀도 구성의 배포를 가능하게 합니다.

GPU 플릿은 약 250,000개의 총 GPU가 배포된 NVIDIA의 최신 아키텍처를 중심으로 합니다. 구성에는 SXM5 및 PCIe 구성 모두의 H100 변형, 141GB HBM3e 메모리를 탑재한 H200 GPU, 그리고 GB200 NVL72 시스템의 초기 배포가 포함됩니다. CoreWeave는 GB200 NVL72의 최초 일반 가용성(2025년 2월)과 GB300 NVL72의 최초 배포(2025년 7월 3일)를 달성하여 새로운 NVIDIA 하드웨어에 대한 조기 액세스 패턴을 유지하고 있습니다.

네트워킹 백본은 비블로킹 Fat Tree 토폴로지의 ConnectX-7 어댑터를 통해 GPU당 400Gb/s를 제공하는 NVIDIA Quantum-2 InfiniBand를 사용하며, 이는 높은 처리량으로 마이크로초 미만의 지연 시간을 달성합니다. 하지만 원시 네트워킹 속도는 이제 최상위 하이퍼스케일러 제공업체들과 일치합니다. 차별화는 토폴로지 최적화, 스케줄러 통합, 그리고 클러스터 전반의 일관된 구성에 있습니다.

스토리지 아키텍처는 독립적인 확장을 위한 분해된 아키텍처를 활용하는 VAST Data Platform 배포를 중심으로 합니다. 이 시스템은 체크포인팅 쓰기와 훈련 읽기를 구분하는 최적화된 I/O 패턴으로 GPU당 최대 1GB/s의 지속 처리량을 달성합니다. CoreWeave의 LOTA(Local Object Transfer Accelerator) 기술은 GPU 노드에서 자주 액세스되는 데이터를 캐시하여 네트워크 트래픽을 줄이면서 처리량을 향상시킵니다.

베어 메탈 성능에 최적화된 소프트웨어 스택.

CoreWeave의 베어 메탈 Kubernetes 아키텍처는 하드웨어에서 직접 Kubernetes를 실행하여 가상화 오버헤드를 제거합니다. 이 접근 방식은 NVIDIA BlueField DPU를 통해 멀티 테넌시를 유지하면서 직접적인 하드웨어 액세스를 제공합니다. 내부 벤치마크에 따르면 Hopper GPU에서 50% 이상의 모델 FLOPS 활용률을 달성할 수 있으며, 이는 공개 베이스라인보다 약 20% 높은 수치입니다. 다만 이러한 구체적인 수치에 대한 독립적인 검증은 아직 제한적입니다.

CoreWeave Kubernetes Service (CKS)는 일반적인 관리형 Kubernetes를 넘어서, CoreWeave가 컨트롤 플레인을 관리하면서 고객이 데이터 플레인 구성 요소를 제어할 수 있도록 합니다. GPU 드라이버, 네트워크/스토리지 인터페이스, 관측성 플러그인이 사전 구성된 CKS는 Slurm, KubeFlow, KServe를 포함한 워크로드 오케스트레이션 도구와 통합됩니다.

SUNK (Slurm on Kubernetes)는 Slurm을 컨테이너화된 Kubernetes 리소스로 배포하여 HPC와 클라우드 패러다임을 연결하고, 배치 작업과 장기 실행 서비스 간 동적 리소스 공유를 가능하게 합니다. InfiniBand 패브릭 구성에 최적화된 토폴로지 인식 스케줄링을 통해 높은 활용률을 달성합니다.

Tensorizer 기술은 최적화된 직렬화 및 스트리밍을 통해 모델 배포를 가속화하며, CoreWeave 벤치마크에 따르면 표준 접근 방식보다 5배 빠른 모델 로딩 속도를 달성합니다. 이 오픈 소스 도구는 전체 모델을 RAM에 로드하지 않고 청크별로 모델을 스트리밍하는 "제로 카피" 로딩을 지원합니다.

검증된 성능 벤치마크를 통한 최첨단 배포

CoreWeave의 인프라 성과에는 규모와 성능을 입증하는 검증 가능한 MLPerf 제출이 포함됩니다. 2,496개의 NVIDIA GB200 GPU를 사용한 2025년 6월 MLPerf Training v5.0 제출에서 Llama 3.1 405B 훈련을 27.3분 만에 완료했으며, 이는 클라우드 제공업체 중 가장 큰 규모의 제출이자 비슷한 클러스터 크기보다 2배 이상 빠른 성과입니다.

MLPerf Inference v5.0 결과에 따르면 GB200 시스템을 사용한 Llama 3.1 405B의 추론 성능은 800 tokens/초에 달하며, H200 대비 칩당 2.86배 향상된 성능을 보여줍니다. GB200 NVL72 아키텍처는 랙당 72개의 Blackwell GPU와 36개의 Grace CPU를 결합하여 13.5TB의 NVLink 연결 메모리로 1.44 exaFLOPS를 제공합니다.

SemiAnalysis의 ClusterMAX 등급 시스템은 2025년 3-4월 출시 시 CoreWeave만을 Platinum 등급에 배치했으며, AWS, Google Cloud, Azure 및 기타 제공업체들을 50개 이상의 기술적 요구사항으로 평가했습니다. 이 독립적인 평가는 기술적 차별화를 검증하지만, 경쟁 환경이 발전함에 따라 등급 시스템도 정기적으로 업데이트될 예정입니다.

기술 파트너십이 플랫폼 역량을 가속화합니다.

NVIDIA 파트너십은 일반적인 공급업체 관계를 넘어서며, NVIDIA는 2025년 5월 기준으로 약 16억 달러 가치에 해당하는 약 6%의 지분을 보유하고 있습니다. 이러한 깊은 통합은 새로운 아키텍처의 일관된 선도적 배포와 최적화에 대한 공동 엔지니어링 노력으로 나타납니다. 공동 MLPerf 제출은 이러한 기술적 협력을 보여줍니다.

IBM의 Granite 모델 훈련을 위한 CoreWeave 인프라 배포는 Quantum-2 InfiniBand 네트워킹과 함께 GB200 시스템을 활용합니다. Dell의 인프라 파트너십에는 액체 냉각 랙에 GB200 NVL72가 탑재된 PowerEdge XE9712 서버가 포함됩니다. VAST Data는 분산형 아키텍처 플랫폼을 통해 모든 CoreWeave 데이터센터에서 스토리지를 지원합니다.

약 17억 달러 규모의 Weights & Biases 인수(2025년 5월 5일 완료)는 인프라와 MLOps 기능을 결합한 통합 AI 플랫폼을 구축합니다. OpenAI와 Meta를 포함한 1,400개 이상의 기업이 사용하는 이 플랫폼은 상호 운용성을 유지하면서 모델 개발 및 모니터링 도구를 추가합니다.

미래 궤도는 성장과 재정 지속가능성 간의 균형을 맞춥니다.

CoreWeave의 미래 지향적 이니셔티브에는 여러 핵심 개발 사항이 포함됩니다. GB300 NVL72 배포(2025년 7월)는 NVIDIA가 "추론 모델 추론 출력에서 50배 개선"이라고 마케팅하는 것을 약속하지만, 이는 독립적으로 검증된 벤치마크가 아닌 공급업체 예측을 나타냅니다. 2025년 말에 출시되는 Spot GPU 렌탈은 동적 가격 책정을 통해 더 저렴한 중단 가능한 인스턴스를 제공할 것입니다.

총 35억 달러 규모의 유럽 확장은 GDPR 요구사항을 해결하는 재생에너지 기반 시설을 통해 데이터 주권을 확립합니다. 회사는 차세대 하드웨어를 지원하기 위해 액체 냉각 기능을 확장하는 동시에 1.6기가와트의 계약된 전력 용량을 향해 계속 확장하고 있습니다.

재정적 과제는 신중한 탐색이 필요합니다. 약 10억 달러의 연간 이자 비용을 발생시키는 110억 달러 이상의 부채로, CoreWeave는 공격적인 성장과 수익성으로의 경로 사이에서 균형을 맞춰야 합니다. Microsoft가 2024년 매출의 62%를 차지하는 고객 집중 위험이 여전히 높습니다. 회사는 분기별 12억 1천만 달러의 매출을 달성했음에도 불구하고 2025년 2분기에 손실이 확대되었다고 보고했습니다.

IDC가 2027년까지 연간 5,000억 달러의 AI 인프라 지출을 예측하는 가운데, 시장 기회는 여전히 상당합니다. CoreWeave의 전문화된 접근 방식과 기술적 우위는 상당한 가치를 창출할 수 있는 위치에 있지만, 자본 요구사항, 경쟁 역학, 그리고 성장 모멘텀을 유지하면서 고객 기반을 다변화해야 할 필요성을 고려할 때 실행 위험이 지속됩니다.

## 결론

CoreWeave는 베어메탈 Kubernetes 아키텍처, 130kW 랙 밀도를 지원하는 액체 냉각, 그리고 NVIDIA의 최신 기술을 일관되게 시장 최초로 배포하는 것을 통해 측정 가능한 이점을 제공하는 특화된 AI 인프라를 구축했습니다. 암호화폐 채굴에서 SemiAnalysis의 ClusterMAX 시스템에서 유일한 플래티넘 등급 제공업체가 되기까지의 변화(2025년 3월 기준)는 집중된 전략의 성공적인 실행을 보여줍니다. 2,496개의 GB200 GPU를 사용하여 27.3분 만에 Llama 3.1 405B를 처리한 최대 규모의 MLPerf Training 제출과 301억 달러의 계약된 수익 백로그를 포함한 검증 가능한 성과를 통해, CoreWeave는 AI 개발을 위한 핵심 인프라로 자리매김했습니다.

그러나 앞으로의 길에는 110억 달러 이상의 부채, 2024년 수익의 대부분을 차지하는 Microsoft와의 고객 집중도, 그리고 점점 강력해지는 하이퍼스케일러 서비스와의 경쟁을 포함한 상당한 도전 과제들을 헤쳐나가야 합니다. 회사가 약 2.2기가와트의 계약된 전력 용량으로 확장하고 차세대 시스템을 배포하는 가운데, 재정적 지속가능성을 달성하면서 기술적 리더십을 유지할 수 있는 능력이 이 전 암호화폐 채굴업체가 AI 인프라 환경을 영구적으로 재편할 수 있을지를 결정할 것입니다.

데이터는 2025년 8월 15일까지 기준입니다. 출처에는 회사 제출 서류, SEC 문서, MLPerf 벤치마크, SemiAnalysis의 업계 분석이 포함됩니다.

참고 자료

  • CoreWeave, Inc. — Form S‑1 (초기 등록 신고서), 미국 SEC, 2025년 3월 3일 제출. (매출 이력; 737% 2024년 성장률; 회사 배경.) (SEC)

  • CoreWeave, Inc. — 투자설명서 (Form 424B4), 미국 SEC, 2025년 4월. (고객 집중도; Microsoft = 2024년 매출의 62%.) (SEC)

  • CoreWeave — "CoreWeave Reports Strong Second Quarter 2025 Results", Business Wire/IR, 2025년 8월 12일. (2분기 $1.212B 매출, $30.1B 백로그; ~470 MW 활성, ~2.2 GW 계약; OpenAI $11.9B + $4B확장.) (Business Wire)

  • Reuters — "CoreWeave revenue beats estimates on AI boom but shares fall on bigger loss", 2025년 8월 12일. (2분기 실적; 33개 데이터센터.) (Reuters)

  • Reuters — "CoreWeave raises $7.5 billion in debt at $19B valuation", 2024년 5월 17일. (프라이빗 크레딧; $19B기업가치.)

  • Reuters — "CoreWeave closes $650 million secondary share sale… valued at $23 billion", 2024년 11월 13일. ($23B 세컨더리 기업가치.) (Reuters)

  • SemiAnalysis — "Introducing the Cloud GPU Performance Rating System — ClusterMAX (Q2 2025)", 2025년 4월. (ClusterMAX 방법론; CoreWeave = Platinum.) (SemiAnalysis)

  • CoreWeave — "Blackwell at Scale: General Availability of GB200 NVL72 on CoreWeave", 2025년 2월 4일. (GB200 NVL72로 최초 GA 달성.) (Reuters)

  • CoreWeave — "First NVIDIA GB300 NVL72 Deployment" (블로그), 2025년 7월 3일. (최초 GB300 NVL72배포.) (CoreWeave)

  • NVIDIA Developer Blog — "Blackwell Ultra for the Era of AI Reasoning", 2025년 3월 19일. ("사용자당 10× TPS" + "MW당 5× TPS" ⇒ "최대 50× 출력"** 마케팅 주장.) (NVIDIA Developer)

  • MLCommons — MLPerf Training v5.0 Results (2025). (Llama‑3.1 405B 27.3분 2,496 GB200에서; 최대 규모 제출.) (Microsoft Learn)

  • MLCommons — MLPerf Inference v5.0 (Data Center) Results (2025). (Llama‑3.1 405B 처리량/지연시간 벤더 요약에서 사용된 GB200 vs H200 비교 포함.) (Microsoft Learn)

  • AWS — P5 Instances / EFA Networking (공식 문서/블로그). (EFA/SR‑IOV를 통한 p5에서 최대 3,200 Gbps 인스턴스 네트워킹.) (Amazon Web Services, Inc.)

  • Microsoft Azure — "ND H100 v5‑Series (Preview)" 제품 페이지. (1.6–3.2 Tbps급 네트워킹.) (AWS Documentation)

  • Google Cloud Blog — "A3 Ultra: 3.2 Tbps of GPU networking per VM" (A3/A3 Ultra 출시 자료). (VM당 3.2 Tbps.) (Google Cloud)

  • Dell Technologies — "Dell ships first PowerEdge XE9712 servers with NVIDIA GB200 NVL72 to CoreWeave", 2025년 6월 20일. (랙 스케일, 액체 냉각 배송 파트너.) (CoreWeave)

  • VAST Data — "Scale‑out AI performance at CoreWeave" (사례 연구/솔루션 페이지), 2025년. (CoreWeave DC 전반에 VAST 배포; I/O 아키텍처.) (CoreWeave)

  • Weights & Biases — "We're joining CoreWeave" (인수 발표), 2025년 5월 5일. (W&B 거래 완료/일정; 통합 방향.) (FinTech Weekly - Home Page)

  • Reuters — "CoreWeave to invest an additional $2.2B in Europe, taking total to $3.5B", 2024년 6월 5일. (유럽 확장 규모/위치.) (Reuters)

  • Investor's Business Daily — "Nvidia‑backed CoreWeave's IPO filing shows big revenue jump… Microsoft 62%; Nvidia 6% stake", 2025년 3월. (서류/언론에서 언급된 ~6% NVIDIA 지분 확인.) (Investors)

견적 요청_

프로젝트에 대해 알려주시면 72시간 내에 답변드리겠습니다.

> 전송_완료

요청이 접수되었습니다_

문의해 주셔서 감사합니다. 저희 팀이 요청사항을 검토한 후 72시간 내에 답변드리겠습니다.

처리_대기_중