Phân Tích Chuyên Sâu CoreWeave: Hành Trình Từ Công Ty Đào Tiền Mã Hóa Trở Thành Đám Mây Thiết Yếu Của AI
Cập nhật ngày 8 tháng 12, 2025
Cập nhật tháng 12/2025: CoreWeave hoàn tất IPO trị giá 1,5 tỷ USD vào tháng 3/2025—đợt IPO công nghệ lớn đầu tiên kể từ năm 2021. Doanh thu tăng trưởng 737% đạt 1,92 tỷ USD trong năm 2024. OpenAI ký hợp đồng với tổng giá trị 22,4 tỷ USD, Meta ký thỏa thuận 14,2 tỷ USD. Đội ngũ GPU hiện vượt 250.000 đơn vị tại hơn 32 trung tâm dữ liệu. Là đơn vị đầu tiên triển khai thương mại cả GB200 NVL72 (tháng 2/2025) và GB300 NVL72 (tháng 7/2025). Cam kết mở rộng tại châu Âu đạt 3,5 tỷ USD. Mức độ tập trung khách hàng được cải thiện khi Microsoft giảm xuống dưới 50% doanh thu tương lai.
OpenAI có thể chọn AWS, Azure, hoặc Google Cloud cho giai đoạn mở rộng cơ sở hạ tầng tiếp theo. Thay vào đó, công ty đã ký hợp đồng 12 tỷ USD với CoreWeave vào tháng 3/2025, tiếp theo là thỏa thuận bổ sung 10,5 tỷ USD vào tháng 9, nâng tổng giá trị lên 22,4 tỷ USD trong vòng năm năm.¹ Meta tiếp nối với cam kết cơ sở hạ tầng 14,2 tỷ USD đến năm 2031.² CoreWeave đã chuyển mình từ một công ty đào tiền mã hóa ba người vào năm 2017 thành nhà cung cấp GPU cloud trị giá 23 tỷ USD, phục vụ những khối lượng công việc AI đòi hỏi khắt khe nhất trên thế giới. Sự trỗi dậy của công ty cho thấy cả nhu cầu cơ sở hạ tầng của AI hiện đại lẫn những quyết định kiến trúc mà các nhà cung cấp đám mây lớn khó có thể sao chép.
Từ đào Ethereum đến cơ sở hạ tầng AI
Câu chuyện khởi nguồn của CoreWeave bắt đầu tại một văn phòng ở New Jersey, nơi các nhà sáng lập Michael Intrator, Brian Venturo và Brannin McBee lắp ráp các dàn máy GPU để đào Ethereum. Cơn sốt tiền mã hóa đã dạy họ những bài học quan trọng về kinh tế GPU, quản lý nhiệt và triển khai mật độ cao—những kiến thức sau này chứng minh là thiết yếu cho các khối lượng công việc AI. Khi Ethereum chuyển sang cơ chế proof-of-stake vào năm 2022, loại bỏ nhu cầu đào bằng GPU, CoreWeave chuyển hướng sang điện toán đám mây đúng lúc AI tạo sinh xuất hiện.
Thời điểm đó hóa ra phi thường. ChatGPT ra mắt vào tháng 11/2022, kích hoạt nhu cầu chưa từng có về tài nguyên tính toán GPU mà các nhà cung cấp đám mây lớn không thể đáp ứng. Kho GPU sẵn có và các mối quan hệ mua sắm của CoreWeave đã đặt công ty vào vị thế nắm bắt nhu cầu mà AWS, Azure và Google Cloud không thể đáp ứng. NVIDIA, đối mặt với quyết định phân bổ trong tình trạng thiếu hụt GPU, đã hướng nguồn cung về CoreWeave thay vì các nhà cung cấp đám mây lớn đang phát triển chip AI cạnh tranh.³
Khoản đầu tư 250 triệu USD của NVIDIA và sự phân bổ ưu tiên liên tục đã tạo ra mối quan hệ cộng sinh có lợi cho cả hai công ty. CoreWeave đại diện cho khách hàng GPU cloud lớn nhất của NVIDIA mà không phát triển silicon cạnh tranh, khiến quan hệ đối tác có giá trị chiến lược vượt xa các điều khoản tài chính. Thỏa thuận này cho phép CoreWeave đảm bảo nguồn cung GPU trong thời kỳ thiếu hụt khiến ngay cả Microsoft và Google cũng phải chật vật tìm kiếm phân bổ.
Tăng trưởng doanh thu phản ánh quỹ đạo nhu cầu: 16 triệu USD năm 2022 tăng lên 229 triệu USD năm 2023 và 1,92 tỷ USD năm 2024—tăng 737% chỉ trong một năm.⁴ Đợt IPO tháng 3/2025 huy động được 1,5 tỷ USD với vốn hóa thị trường tiệm cận 35 tỷ USD, biến CoreWeave thành đợt IPO công nghệ lớn đầu tiên kể từ thị trường sôi động năm 2021.
Lợi thế bare-metal
Kiến trúc kỹ thuật của CoreWeave khác biệt căn bản so với cách tiếp cận của các nhà cung cấp đám mây lớn. Các nhà cung cấp đám mây truyền thống ảo hóa tài nguyên GPU, thêm các lớp hypervisor gây ra độ trễ và giảm công suất tính toán khả dụng. CoreWeave chạy Kubernetes trực tiếp trên máy chủ bare-metal, cung cấp sự linh hoạt như đám mây với hiệu suất phần cứng chuyên dụng.⁵
CoreWeave Kubernetes Service (CKS) triển khai các cụm mà không có máy ảo hoặc hypervisor giữa khối lượng công việc và phần cứng GPU. Các Đơn vị Xử lý Dữ liệu (DPU) NVIDIA BlueField gắn với mỗi node giúp giảm tải các tác vụ mạng và bảo mật, giải phóng GPU để tập trung hoàn toàn vào tính toán.⁶ Kiến trúc DPU cho phép các tính năng bảo mật nâng cao bao gồm chính sách mạng tùy chỉnh, Đám mây Riêng Ảo chuyên dụng và kiểm soát truy cập đặc quyền mà không hy sinh mức sử dụng GPU.
Kiến trúc mạng cũng quan trọng không kém cho việc huấn luyện AI phân tán. CoreWeave xây dựng backbone trên nền tảng NVIDIA Quantum-2 InfiniBand với topology fat-tree không chặn, được tối ưu hóa cho các hoạt động tập thể trên hàng nghìn GPU.⁷ Giao thức Tổng hợp và Giảm thiểu Phân cấp Có thể Mở rộng (SHARP) của NVIDIA tiếp tục tăng tốc quá trình đồng bộ gradient chiếm ưu thế trong các mô hình giao tiếp huấn luyện. Mạng kết nối đáng tin cậy hàng chục nghìn GPU với khả năng mở rộng lên quy mô cụm sáu chữ số.
Các nhà cung cấp đám mây lớn đối mặt với ma sát cấu trúc khi cố gắng đạt mật độ GPU tương tự. Thiết kế trung tâm dữ liệu cũ, thuế ảo hóa và topology mạng được tối ưu hóa cho khối lượng công việc đám mây truyền thống tạo ra các nút thắt cổ chai mà cơ sở hạ tầng được xây dựng có mục đích của CoreWeave tránh được. AWS và Azure có thể triển khai H100, nhưng để đạt được thời gian huấn luyện và thông lượng suy luận tương đương đòi hỏi phải vượt qua các quyết định kiến trúc được đưa ra nhiều năm trước khi AI tạo sinh xuất hiện.
Chiến lược trung tâm dữ liệu cho kỷ nguyên AI
CoreWeave vận hành hơn 32 trung tâm dữ liệu trên khắp Bắc Mỹ và châu Âu, chứa hơn 250.000 GPU với công suất điện hàng trăm megawatt.⁸ Tốc độ mở rộng tăng tốc suốt năm 2025, với hai trung tâm dữ liệu tại Vương quốc Anh trang bị GPU H200 đi vào hoạt động vào tháng 1 và các địa điểm lục địa châu Âu tại Na Uy, Thụy Điển và Tây Ban Nha nhận cam kết đầu tư 2,2 tỷ USD.
Hầu hết các cơ sở CoreWeave mở cửa trong năm 2025 đều có khả năng làm mát bằng chất lỏng nguyên bản. Không giống như các nhà điều hành cũ cải tạo các phần nhỏ của cơ sở hiện có, CoreWeave thiết kế toàn bộ trung tâm dữ liệu xoay quanh làm mát bằng chất lỏng từ móng đến mái.⁹ Cách tiếp cận này cho phép hỗ trợ rack 130kW+ cần thiết cho việc triển khai GPU thế hệ tiếp theo—mức mật độ mà các cơ sở làm mát bằng không khí không thể đạt được bất kể đầu tư cải tạo.
Các quan hệ đối tác chiến lược mở rộng phạm vi của CoreWeave mà không cần chi tiêu vốn cho mọi địa điểm. Liên minh Flexential cung cấp công suất colocation mật độ cao trên các thị trường bổ sung.¹⁰ Core Scientific cam kết 200 megawatt cơ sở hạ tầng thông qua hợp đồng 12 năm với khoản thanh toán hàng năm khoảng 290 triệu USD.¹¹ Các thỏa thuận này tăng tốc triển khai công suất trong khi phân bổ yêu cầu vốn cho các đối tác.
Việc triển khai GB200 NVL72 vào tháng 2/2025 đã biến CoreWeave thành nhà cung cấp đám mây đầu tiên cung cấp kiến trúc Blackwell của NVIDIA một cách thương mại.¹² Tháng 7/2025 mang đến một cột mốc khác với lần triển khai thương mại đầu tiên của hệ thống GB300 NVL72 (Blackwell Ultra), được cung cấp thông qua máy chủ Dell.¹³ Quyền truy cập sớm vào phần cứng thế hệ tiếp theo tạo ra các rào cản cạnh tranh được củng cố qua các thế hệ GPU kế tiếp.
Giá cả thách thức kinh tế của các nhà cung cấp đám mây lớn
Cấu trúc giá của CoreWeave liên tục thấp hơn các nhà cung cấp đám mây lớn từ 30-60% cho các cấu hình GPU tương đương.¹⁴ H100 với mạng InfiniBand chạy khoảng 6,16 USD mỗi giờ GPU trên CoreWeave, so với 6,98 USD của Azure và mức giá sau giảm của AWS khoảng 3,90 USD.¹⁵ Cam kết công suất đặt trước có thể mở rộng giảm giá lên đến 60% so với giá theo yêu cầu.
So sánh A100 còn rõ rệt hơn: 2,39 USD mỗi giờ trên CoreWeave so với 3,40 USD trên Azure và 3,67 USD trên Google Cloud.¹⁶ Đối với một công việc huấn luyện mô hình 70 tỷ tham số cần 6,4 triệu giờ GPU, CoreWeave tốn khoảng 39 triệu USD so với 45-48 triệu USD trên AWS hoặc Azure và 71 triệu USD trên Google Cloud.
Sự đơn giản về giá cộng hưởng lợi thế. CoreWeave gộp GPU, CPU, RAM và mạng vào mức giá theo giờ cho mỗi instance, cung cấp hóa đơn có thể dự đoán cho việc lập kế hoạch công suất. Các nhà cung cấp đám mây lớn tính phí riêng cho tính toán, lưu trữ, dữ liệu đi ra và các dịch vụ phụ trợ, tạo ra hóa đơn phức tạp khiến việc dự báo chi phí trở nên khó khăn. Phí dữ liệu đi ra bằng không của CoreWeave loại bỏ một danh mục chi phí đáng kể cho các khối lượng công việc AI cần truyền dữ liệu thường xuyên.
Các nhà cung cấp đám mây lớn vẫn giữ lợi thế về độ rộng của hệ sinh thái dịch vụ. AWS SageMaker, Google Vertex AI và nền tảng AI của Azure cung cấp các dịch vụ được quản lý, công cụ phân tích và tích hợp sẵn mà đề xuất tập trung vào cơ sở hạ tầng của CoreWeave thiếu. Các tổ chức cần tích hợp sâu với hệ sinh thái đám mây hiện có có thể thấy mức phí cao hơn của nhà cung cấp đám mây lớn được biện minh bằng độ phức tạp tích hợp và chi phí vận hành giảm.
Tập trung khách hàng và đa dạng hóa
Sự tập trung khách hàng của CoreWeave tạo ra cả cơ hội và rủi ro. Microsoft chiếm 62% doanh thu năm 2024 và đạt 71% doanh thu quý 2/2025—sự phụ thuộc phi thường vào một khách hàng duy nhất.¹⁷ Sự tập trung này xuất hiện từ nhu cầu cấp bách của Microsoft về công suất GPU để phục vụ khối lượng công việc OpenAI sau khi thành công bất ngờ của ChatGPT làm quá tải cơ sở hạ tầng hiện có.
Các hợp đồng OpenAI và Meta thay đổi căn bản cơ cấu khách hàng. CEO Michael Intrator lưu ý rằng Microsoft sẽ chiếm ít hơn một nửa doanh thu hợp đồng cam kết dự kiến trong tương lai khi OpenAI, Meta và các khách hàng khác mở rộng quy mô sử dụng.¹⁸ Việc đa dạng hóa giảm rủi ro khách hàng đơn lẻ đồng thời chứng minh rằng đề xuất giá trị của CoreWeave mở rộng ra ngoài các yêu cầu cụ thể của Microsoft.
Các công ty AI nhỏ hơn bao gồm Cohere, Mistral và Poolside bổ sung cho các hợp đồng nổi bật.¹⁹ Những khách hàng này đại diện cho cộng đồng phát triển AI rộng lớn hơn mà lợi thế về giá cả và hiệu suất của CoreWeave thu hút. Khi việc phát triển mô hình AI lan rộng ra ngoài một số ít phòng thí nghiệm tiên tiến, phân khúc thị trường trung bình này có thể có giá trị chiến lược tương đương với các hợp đồng doanh nghiệp nổi bật.
Sam Altman mô tả rõ ràng mối quan hệ: "CoreWeave là một bổ sung quan trọng cho danh mục cơ sở hạ tầng của OpenAI, bổ sung cho các thỏa thuận thương mại của chúng tôi với Microsoft và Oracle, cũng như liên doanh với SoftBank về Stargate."²⁰ Ngay cả các tổ chức có quan hệ với nhà cung cấp đám mây lớn cũng thấy GPU cloud chuyên biệt của CoreWeave có giá trị cho các khối lượng công việc cụ thể.
Thực tế tài chính và lo ngại thị trường
Tăng trưởng của CoreWeave đi kèm với độ phức tạp tài chính đáng kể. Công ty đã huy động hơn 14,5 tỷ USD nợ và vốn chủ sở hữu qua 12 vòng gọi vốn, bao gồm khoản nợ tư nhân 7 tỷ USD do Blackstone và Magnetar dẫn đầu vào tháng 5/2024.²¹ Mô hình thâm dụng vốn đòi hỏi đầu tư liên tục vào kho GPU và công suất trung tâm dữ liệu để duy trì vị thế cạnh tranh.
Lỗ ròng mở rộng lên 863 triệu USD năm 2024 từ 594 triệu USD năm 2023, bất chấp tăng trưởng doanh thu 737%.²² Quỹ đạo thua lỗ phản ánh việc mở rộng công suất mạnh mẽ thay vì thiếu hiệu quả vận hành, nhưng các nhà đầu tư xem xét liệu tăng trưởng cuối cùng có tạo ra lợi nhuận đủ để phục vụ nợ tích lũy hay không. Chi phí lãi vay và khấu hao tài sản GPU tiêu thụ doanh thu đáng kể trước khi đạt lợi nhuận.
Lo ngại của thị trường tập trung vào sự tập trung khách hàng, động lực cạnh tranh và tính bền vững của mức nhu cầu hiện tại. Một số nhà phân tích mô tả mô hình kinh doanh như một "bẫy nợ GPU" nơi yêu cầu vốn liên tục mở rộng mà không đạt quy mô sinh lời.²³ Sự phân bổ ưu tiên của NVIDIA về mặt lý thuyết có thể chuyển sang các đối tác khác, làm suy yếu lợi thế nguồn cung của CoreWeave.
Lập luận phản bác tập trung vào nhu cầu cơ sở hạ tầng AI không có dấu hiệu chậm lại. OpenAI, Anthropic, Google, Meta và hàng chục tổ chức khác tiếp tục mở rộng công suất tính toán khi kích thước mô hình tăng và nhu cầu suy luận tăng trưởng. Lợi thế tiên phong, kiến trúc kỹ thuật và quan hệ khách hàng của CoreWeave tạo ra các rào cản mà những người mới vào không thể dễ dàng sao chép. Việc xây dựng cơ sở hạ tầng đại diện cho một đặt cược vào sự mở rộng liên tục của AI—một luận điểm mà bằng chứng hiện tại ủng hộ.
Định vị cạnh tranh trong thị trường GPU cloud
Thị trường GPU cloud phân khúc giữa các nhà cung cấp đám mây lớn (AWS, Azure, Google Cloud) và các nhà cung cấp chuyên biệt (CoreWeave, Lambda Labs, Together AI, Hyperbolic). CoreWeave định vị ở phân khúc cao cấp của nhóm chuyên biệt, cung cấp khả năng doanh nghiệp và quy mô lớn trong khi duy trì giá cả thấp hơn mức của nhà cung cấp đám mây lớn.
Lambda Labs cung cấp giá H100 cạnh tranh (khoảng 2,99 USD mỗi giờ GPU) nhưng