CoreWeave深度解析:一家前加密货币矿商如何成为AI不可或缺的云服务商

OpenAI选择CoreWeave而非AWS,签下224亿美元基础设施合同。了解这家前加密货币矿商如何成为支撑前沿AI开发的GPU云服务商。

CoreWeave深度解析:一家前加密货币矿商如何成为AI不可或缺的云服务商

CoreWeave深度解析:一家前加密货币矿商如何成为AI不可或缺的云服务商

更新于2025年12月8日

2025年12月更新: CoreWeave于2025年3月完成15亿美元IPO——这是自2021年以来首个重大科技IPO。2024年收入增长737%,达到19.2亿美元。OpenAI签署的合同总价值达224亿美元,Meta签下142亿美元协议。GPU集群现已超过25万块,分布在32个以上的数据中心。该公司率先于2025年2月和7月分别实现GB200 NVL72和GB300 NVL72的商业化部署。欧洲扩张承诺投资达35亿美元。随着微软在未来收入中的占比降至50%以下,客户集中度正在改善。

OpenAI本可以选择AWS、Azure或Google Cloud作为下一阶段基础设施扩张的合作伙伴。然而,该公司于2025年3月与CoreWeave签署了120亿美元的合同,随后在9月又追加了105亿美元的协议,使五年合同总价值达到224亿美元。¹ Meta紧随其后,承诺在2031年前投入142亿美元用于基础设施建设。² CoreWeave从2017年一个三人团队的加密货币挖矿业务,转型为估值230亿美元的GPU云服务商,为全球最具挑战性的AI工作负载提供服务。该公司的崛起既揭示了现代AI的基础设施需求,也展现了超大规模云服务商难以复制的架构决策。

从以太坊挖矿到AI基础设施

CoreWeave的起源故事始于新泽西州的一间办公室,创始人Michael Intrator、Brian Venturo和Brannin McBee在那里组装用于以太坊挖矿的GPU矿机。加密货币繁荣期教会了他们关于GPU经济学、热管理和高密度部署的关键经验,这些后来在AI工作负载中证明至关重要。当以太坊在2022年转向权益证明机制、不再需要GPU挖矿时,CoreWeave恰好在生成式AI兴起之际转型云计算。

时机堪称绝妙。ChatGPT于2022年11月发布,引发了超大规模云服务商无法满足的GPU计算需求井喷。CoreWeave现有的GPU库存和采购关系使其能够捕获AWS、Azure和Google Cloud无法满足的需求。面对GPU短缺期间的分配决策,NVIDIA将供应优先分配给CoreWeave,而非那些正在开发竞争性AI芯片的超大规模云服务商。³

NVIDIA的2.5亿美元投资和持续的优先分配创造了一种互利共生关系。CoreWeave是NVIDIA最大的GPU云客户,且不开发竞争性芯片,这使得合作关系的战略价值超越了财务层面。这种安排使CoreWeave能够在GPU短缺期间获得稳定供应,而当时即使是微软和谷歌也在为分配配额苦苦挣扎。

收入增长反映了需求轨迹:2022年的1600万美元增长到2023年的2.29亿美元,2024年达到19.2亿美元——单年增长737%。⁴ 2025年3月的IPO以接近350亿美元的市值筹集了15亿美元,使CoreWeave成为自2021年市场泡沫以来首个重大科技IPO。

裸金属优势

CoreWeave的技术架构与超大规模云服务商的方案有着根本性差异。传统云服务商将GPU资源虚拟化,增加的虚拟机管理程序层会引入延迟并降低可用计算容量。CoreWeave直接在裸金属服务器上运行Kubernetes,在提供云端灵活性的同时保持专用硬件性能。⁵

CoreWeave Kubernetes Service (CKS) 部署集群时,工作负载与GPU硬件之间没有虚拟机或虚拟机管理程序。连接到每个节点的NVIDIA BlueField数据处理单元(DPU)卸载网络和安全任务,让GPU能够专注于计算。⁶ DPU架构支持高级安全功能,包括自定义网络策略、专用虚拟私有云和特权访问控制,同时不会牺牲GPU利用率。

网络架构对分布式AI训练同样至关重要。CoreWeave在NVIDIA Quantum-2 InfiniBand网络上构建其骨干网络,采用针对数千GPU集体操作优化的无阻塞胖树拓扑。⁷ NVIDIA的可扩展分层聚合和归约协议(SHARP)进一步加速了主导训练通信模式的梯度同步。该网络可靠地连接数万块GPU,并具备扩展至六位数集群规模的能力。

超大规模云服务商在尝试实现类似GPU密度时面临结构性阻力。传统数据中心设计、虚拟化开销以及针对传统云工作负载优化的网络拓扑,都会造成CoreWeave专用基础设施可以避免的瓶颈。AWS和Azure可以部署H100,但要实现同等的训练时间和推理吞吐量,需要克服在生成式AI出现之前数年做出的架构决策。

AI时代的数据中心战略

CoreWeave在北美和欧洲运营32个以上的数据中心,拥有超过25万块GPU和数百兆瓦的电力容量。⁸ 扩张速度在2025年全年加速,两个配备H200 GPU的英国数据中心于1月投入运营,挪威、瑞典和西班牙的欧洲大陆站点获得22亿美元投资承诺。

CoreWeave在2025年开业的大多数设施都具备原生液冷能力。与改造现有设施小部分区域的传统运营商不同,CoreWeave从地基到屋顶都围绕液冷进行设计。⁹ 这种方法能够支持下一代GPU部署所需的130kW以上机架——这是风冷设施无论如何改造都无法达到的密度水平。

战略合作伙伴关系扩展了CoreWeave的覆盖范围,而无需为每个地点进行资本支出。与Flexential的联盟在更多市场提供高密度托管容量。¹⁰ Core Scientific通过12年合同承诺200兆瓦的基础设施,年付款约2.9亿美元。¹¹ 这些安排加速了容量部署,同时将资本需求分散给合作伙伴。

2025年2月的GB200 NVL72部署使CoreWeave成为首家商业化提供NVIDIA Blackwell架构的云服务商。¹² 2025年7月又迎来另一个里程碑——通过Dell服务器首次商业化部署GB300 NVL72(Blackwell Ultra)系统。¹³ 对下一代硬件的早期访问创造了在连续GPU世代中不断增强的竞争壁垒。

挑战超大规模云服务商经济模式的定价

CoreWeave的定价结构在同等GPU配置上始终比超大规模云服务商低30-60%。¹⁴ 配备InfiniBand网络的H100在CoreWeave上每GPU-小时约6.16美元,而Azure为6.98美元,AWS降价后约为3.90美元。¹⁵ 预留容量承诺可将折扣延伸至按需价格的60%。

A100的对比更加明显:CoreWeave每小时2.39美元,Azure为3.40美元,Google Cloud为3.67美元。¹⁶ 对于需要640万GPU-小时的700亿参数模型训练任务,CoreWeave成本约为3900万美元,而AWS或Azure为4500-4800万美元,Google Cloud为7100万美元。

定价简洁性放大了这一优势。CoreWeave将GPU、CPU、内存和网络打包成按实例计算的小时费率,为容量规划提供可预测的账单。超大规模云服务商对计算、存储、数据出口和辅助服务分别收费,复杂的计费使成本预测变得困难。CoreWeave的零数据出口费用消除了AI工作负载中频繁数据传输的重要成本类别。

超大规模云服务商在服务生态系统广度方面保持优势。AWS SageMaker、Google Vertex AI和Azure的AI平台提供托管服务、分析工具和预构建集成,这是CoreWeave以基础设施为中心的产品所缺乏的。需要与现有云生态系统深度集成的组织可能会发现,超大规模云服务商的溢价因降低的集成复杂性和运营开销而物有所值。

客户集中度与多元化

CoreWeave的客户集中度既创造了机遇也带来了脆弱性。微软占2024年收入的62%,2025年第二季度更达到71%——对单一客户的依赖程度非同寻常。¹⁷ 这种集中源于ChatGPT意外成功后,微软急需GPU容量来服务OpenAI工作负载,现有基础设施不堪重负。

OpenAI和Meta的合同从根本上改变了客户结构。CEO Michael Intrator指出,随着OpenAI、Meta和其他客户扩大使用量,微软在预期未来承诺合同收入中的占比将低于一半。¹⁸ 多元化降低了单一客户风险,同时证明CoreWeave的价值主张超越了微软的特定需求。

包括Cohere、Mistral和Poolside在内的小型AI公司补充了头条合同。¹⁹ 这些客户代表了CoreWeave定价和性能优势所吸引的更广泛AI开发社区。随着AI模型开发在少数前沿实验室之外扩散,这一中端市场细分可能与头条企业合同一样具有战略价值。

Sam Altman清晰地描述了这种关系:"CoreWeave是OpenAI基础设施组合的重要补充,与我们同微软和Oracle的商业协议以及与软银在Stargate上的合资企业相辅相成。"²⁰ 即使是与超大规模云服务商有合作关系的组织也发现,CoreWeave专业化的GPU云对特定工作负载很有价值。

财务现实与市场担忧

CoreWeave的增长伴随着相当的财务复杂性。公司通过12轮融资筹集了超过145亿美元的债务和股权,包括2024年5月由Blackstone和Magnetar牵头的70亿美元私人债务融资。²¹ 这种资本密集型模式需要持续投资GPU库存和数据中心容量以维持竞争地位。

净亏损从2023年的5.94亿美元扩大到2024年的8.63亿美元,尽管收入增长了737%。²² 亏损轨迹反映的是积极的产能扩张而非运营低效,但投资者仔细审视增长最终能否产生足够的回报来偿还累积债务。GPU资产的利息支出和折旧在达到盈利之前消耗了大量收入。

市场担忧集中在客户集中度、竞争动态以及当前需求水平的可持续性。一些分析师将这种商业模式描述为"GPU债务陷阱",资本需求持续扩张却无法达到盈利规模。²³ NVIDIA的优先分配理论上可能转向其他合作伙伴,从而削弱CoreWeave的供应优势。

反驳观点的核心是AI基础设施需求毫无放缓迹象。OpenAI、Anthropic、Google、Meta和数十家其他组织随着模型规模增加和推理需求增长,继续扩大计算容量。CoreWeave的先发优势、技术架构和客户关系创造了新进入者难以轻易复制的壁垒。基础设施建设代表了对AI持续扩张的押注——这是当前证据所支持的论点。

GPU云领域的竞争定位

GPU云市场在超大规模云服务商(AWS、Azure、Google Cloud)和专业化供应商(CoreWeave、Lambda Labs、Together AI、Hyperbolic)之间形成细分。CoreWeave定位于专业化细分市场的高端,提供企业级能力和大规模容量,同时保持低于超大规模云服务商的定价。

Lambda Labs提供有竞争力的H100定价(约每GPU-小时2.99美元),但

申请报价_

告诉我们您的项目需求,我们将在72小时内回复。

> 传输完成

请求已收到_

感谢您的咨询。我们的团队将审核您的请求并在72小时内回复。

排队处理中