CoreWeave đã phát triển từ nguồn gốc đào cryptocurrency để trở thành nhà cung cấp hạ tầng cloud AI chuyên biệt nhất thế giới, vận hành các siêu máy tính GPU ở quy mô chưa từng có đồng thời tiên phong trong làm mát bằng chất lỏng và kiến trúc bare-metal giúp phân biệt với các hyperscaler truyền thống. Sự chuyển đổi của công ty từ đào Ethereum năm 2017 đến cung cấp năng lượng cho các mô hình GPT của OpenAI đại diện cho sự pivot ấn tượng nhất của Silicon Valley, được xác thực bởi 7.5 tỷ USD tài trợ nợ với định giá 19 tỷ USD (tháng 5/2024) tiếp theo là bán phụ với mức 23 tỷ USD (tháng 10/2024), tăng trưởng doanh thu bùng nổ 737% trong năm 2024, và được xếp hạng trong tầng cao nhất trong framework ClusterMAX mới của SemiAnalysis; báo cáo nhấn mạnh khả năng cô lập tenant, bare‑metal Kubernetes, và độ trưởng thành trong vận hành của CoreWeave.
Rào cản kỹ thuật mà CoreWeave đã xây dựng tận dụng kiến trúc chuyên biệt được tối ưu độc quyền cho accelerated computing. Trong khi các nhà cung cấp cloud truyền thống cân bằng các workload đa mục đích với GPU computing, CoreWeave đã xây dựng có mục đích từng layer trong stack của họ cho các ứng dụng AI và HPC. Kiến trúc bare-metal Kubernetes của họ loại bỏ hoàn toàn overhead ảo hóa, trong khi làm mát bằng chất lỏng trực tiếp đến chip cho phép mật độ rack 130-kilowatt mà các cơ sở làm mát bằng không khí không thể sánh được. Lợi thế kiến trúc cơ bản này, kết hợp với lập lịch nhận biết topology và mạng InfiniBand-first, mang lại điều mà CoreWeave báo cáo là hơn 50% Model FLOPS Utilization trên GPU class Hopper—cao hơn khoảng 20% so với baseline mô hình foundation công khai theo benchmark nội bộ của họ.
Mối quan hệ cộng sinh của công ty với NVIDIA vượt xa các partnership vendor thông thường, với NVIDIA duy trì khoảng 6% cổ phần tính đến tháng 3/2025 và luôn chọn CoreWeave cho các triển khai đầu tiên của các kiến trúc đột phá. CoreWeave là đầu tiên general availability với hệ thống GB200 NVL72 (tháng 2/2025) và đầu tiên triển khai hệ thống GB300 NVL72 (3 tháng 7/2025). Triển khai GB300 hứa hẹn điều mà NVIDIA mô tả là "cải thiện lên đến 50x trong inference output mô hình reasoning," dù điều này đại diện cho marketing vendor hơn là benchmark được đánh giá bởi các chuyên gia. (Hướng dẫn marketing của NVIDIA; benchmark độc lập đang chờ xử lý.)
Các chỉ số tài chính nhấn mạnh nhu cầu thị trường khổng lồ cho hạ tầng AI chuyên biệt, với CoreWeave đạt được 1.21 tỷ USD doanh thu quý (Q2 2025), duy trì 30.1 tỷ USD backlog hợp đồng, và đảm bảo cam kết khách hàng neo từ Microsoft (đại diện cho 62% doanh thu 2024), OpenAI (hợp đồng lên đến 11.9 tỷ USD cộng mở rộng 4 tỷ USD), và các leader AI khác yêu cầu mức hiệu suất được tối ưu cho training và inference quy mô lớn. IPO tháng 3/2025 với giá 40 USD mỗi cổ phiếu đã huy động khoảng 1.5 tỷ USD, thiết lập CoreWeave như một công ty công khai được định vị để nắm bắt giá trị khi nhu cầu AI compute toàn cầu tăng tốc.
Tuy nhiên, bên dưới tăng trưởng bùng nổ này là rủi ro thực thi đáng kể, với CoreWeave mang hơn 11 tỷ USD nợ với chi phí lãi 267 triệu USD trong Q2'25 (so với 67 triệu USD trong Q2'24), ngụ ý một run‑rate hàng năm hơn 1 tỷ USD khi bảng cân đối kế toán mở rộng. Cấu trúc vốn này đòi hỏi thực thi hoàn hảo khi công ty đua để triển khai hạ tầng trước sự cạnh tranh từ hyperscaler. Tập trung khách hàng cực độ, với Microsoft chiếm 62% doanh thu 2024; và hai khách hàng hàng đầu ở 77%.
Phân tích sâu này xem xét cách CoreWeave thiết kế hạ tầng AI chuyên biệt từ các nguyên tắc đầu tiên, tại sao lợi thế kỹ thuật của họ có ý nghĩa chống lại sự cạnh tranh từ hyperscaler, và liệu chiến lược mở rộng tích cực của họ có thể duy trì sự lãnh đạo công nghệ trong khi điều hướng các thực tế đòi hỏi nhiều vốn của việc xây dựng hạ tầng computing exascale. Thông qua tài liệu kỹ thuật, benchmark hiệu suất, và phân tích ngành, chúng tôi tiết lộ cách một công ty bắt đầu đào cryptocurrency trong garage New Jersey định vị mình như hạ tầng quan trọng cho phát triển trí tuệ nhân tạo—và những thách thức tài chính có thể tác động đến quỹ đạo này.
Lợi thế của CoreWeave: Hạ tầng được thiết kế chuyên biệt cho workload AI
Hiểu biết cốt lõi của CoreWeave—rằng các workload AI đòi hỏi hạ tầng khác biệt hoàn toàn so với điện toán đám mây truyền thống—đã thúc đẩy những quyết định kiến trúc mà hiện tại mang lại những lợi thế hiệu suất có thể đo lường được trên các workload training, fine-tuning và inference. Trong khi các hyperscaler đầu tư hàng trăm tỷ đô la để tối ưu hóa cho các ứng dụng web, cơ sở dữ liệu và phần mềm doanh nghiệp, CoreWeave nhận ra rằng các large language model và mạng neural đòi hỏi băng thông bộ nhớ cực cao, kết nối với độ trễ cực thấp, và tản nhiệt bền vững mà các trung tâm dữ liệu đa mục đích khó có thể cung cấp một cách nhất quán.
Sự khác biệt về kỹ thuật bắt đầu từ việc tích hợp theo chiều dọc hoàn toàn được tối ưu hóa độc quyền cho các workload GPU. Cách tiếp cận Kubernetes bare-metal của CoreWeave cung cấp quyền truy cập phần cứng trực tiếp đến các tài nguyên GPU, CPU, mạng và lưu trữ mà không cần các lớp ảo hóa. Việc lập lịch có nhận biết topology của họ giảm thiểu độ trễ giao tiếp giữa các GPU, trong khi fabric InfiniBand chuyên dụng cung cấp kết nối 400Gb/s cho mỗi GPU. Đáng chú ý rằng các GPU instance hàng đầu của hyperscaler hiện cũng cung cấp mạng băng thông cao—các instance A3 của Google Cloud cung cấp 3.2 Tbps mỗi VM, Azure ND H100 v5 cung cấp kết nối lớp 1.6-3.2 Tbps, và các cluster AWS P5 cung cấp mạng instance 3200 Gbps với SR-IOV/EFA. Sự khác biệt ít nằm ở tốc độ kết nối thô và nhiều hơn ở topology cluster của CoreWeave, tối ưu hóa placement scheduler, và quản lý nhiệt làm mát bằng chất lỏng ở quy mô rack.
Theo các benchmark được công bố của NVIDIA, Cohere đạt được training nhanh hơn tới 3x trên các hệ thống GB200 NVL72 của CoreWeave so với GPU thế hệ Hopper trước đó—mặc dù điều này thể hiện các cải tiến phần cứng thế hệ hơn là so sánh cross-cloud. Các tuyên bố hiệu suất khách hàng khác lưu hành trong các thảo luận ngành nhưng thiếu xác minh công khai từ chính các công ty đó.
Sự đổi mới mô hình kinh doanh cũng quan trọng không kém—bằng việc tập trung độc quyền vào GPU compute thay vì cung cấp hàng trăm dịch vụ, CoreWeave có thể tối ưu hóa mọi khía cạnh hoạt động của mình cho các workload AI. Sự chuyên biệt này cho phép triển khai nhanh chóng các thế hệ phần cứng mới (tuần thay vì quý đối với các cloud truyền thống), hoạt động đơn giản hóa với chi phí quản lý giảm, mối quan hệ trực tiếp với các khách hàng GPU-native ưu tiên hiệu suất, và các mô hình tiêu thụ linh hoạt, bao gồm reserved instances, on-demand, và spot pricing ra mắt cuối năm 2025.
Cạnh tranh từ các hyperscaler gia tăng khi họ nhận ra tầm quan trọng chiến lược của hạ tầng AI, với AWS, Google Cloud, và Microsoft Azure đều mở rộng các dịch vụ GPU của họ với mạng cải tiến và các tùy chọn bare-metal. Tuy nhiên, cách tiếp cận chuyên biệt và lợi thế người đi trước với phần cứng mới nhất của NVIDIA của CoreWeave tạo ra sự khác biệt. Là người nhận duy nhất xếp hạng ClusterMAX tầng Platinum của SemiAnalysis tính đến tháng 3-4 năm 2025, CoreWeave thể hiện khả năng lãnh đạo kỹ thuật—mặc dù hệ thống xếp hạng này có kế hoạch cập nhật mỗi 3-6 tháng, và động lực cạnh tranh tiếp tục phát triển.
Từ đào Ethereum đến huấn luyện foundation models: Câu chuyện khởi nguồn bất ngờ
Sự chuyển đổi của CoreWeave từ một hoạt động đào cryptocurrency sang một thế lực hạ tầng AI bắt đầu vào năm 2017 khi các đồng sáng lập Michael Intrator, Brian Venturo và Brannin McBee nhận ra rằng chuyên môn GPU của họ có thể phục vụ các mục đích có giá trị hơn việc giải các bài toán mật mã. Hoạt động có trụ sở tại Weehawken, New Jersey ban đầu tập trung vào đào Ethereum, tích lũy hàng nghìn GPU trong khi phát triển các giải pháp làm mát tùy chỉnh và phần mềm điều phối mà sau này tỏ ra vô cùng quý giá cho các khối lượng công việc AI.
Khoảnh khắc then chốt đến vào năm 2019 khi việc Ethereum chuyển sang proof-of-stake đe dọa làm cho việc đào GPU trở nên lỗi thời hoàn toàn. Thay vì thanh lý tài sản như hầu hết các thợ đào, các sáng lập viên của CoreWeave đã xác định được một cơ hội thị trường đang nổi lên—cung cấp GPU compute cho các nhà nghiên cứu machine learning gặp khó khăn trong việc truy cập phần cứng trên các cloud truyền thống. Khách hàng đầu tiên bao gồm các tổ chức học thuật cần burst computing cho các thí nghiệm, các studio hiệu ứng hình ảnh render CGI cho phim, và các startup huấn luyện các mô hình computer vision.
Đại dịch 2020 đã đẩy nhanh sự chuyển hướng của CoreWeave khi làm việc từ xa thúc đẩy nhu cầu cloud rendering đồng thời thúc đẩy việc áp dụng AI trên các ngành công nghiệp. Công ty ký hợp đồng doanh nghiệp lớn đầu tiên với một hedge fund yêu cầu xử lý song song lớn cho mô hình hóa rủi ro, xác thực mô hình kinh doanh vượt ra ngoài đầu cơ cryptocurrency. Đến cuối năm, CoreWeave vận hành hơn 10,000 GPU phục vụ các khối lượng công việc đa dạng từ mô phỏng protein folding đến transcoding video thời gian thực.
Đột phá đến vào năm 2022 khi OpenAI chọn CoreWeave làm đối tác hạ tầng cho việc huấn luyện mô hình GPT, bị thu hút bởi khả năng triển khai nhanh chóng hàng nghìn GPU A100 với mạng InfiniBand—một cấu hình được tối ưu hóa cho huấn luyện quy mô lớn. Các triển khai thành công đã xác thực kiến trúc của CoreWeave ở quy mô chưa từng có, dẫn đến các hợp đồng mở rộng bao phủ các foundation models bổ sung. Khách hàng neo này cung cấp cả sự ổn định doanh thu và độ tin cậy kỹ thuật thu hút thêm các nhà tiên phong AI.
Venture capital nhận ra vị thế chiến lược của CoreWeave trong chuỗi cung ứng AI, với Magnetar Capital dẫn đầu vòng Series B 200 triệu đô la vào năm 2022, tiếp theo là tăng trưởng định giá nhanh chóng. Khoản tài trợ nợ 7.5 tỷ đô la vào tháng 5/2024 từ Blackstone, Coatue và các bên khác với định giá 19 tỷ đô la đại diện cho một trong những khoản tín dụng tư nhân mở rộng nhất trong lịch sử công nghệ, cho phép mở rộng hạ tầng tích cực để đáp ứng nhu cầu bùng nổ.
DNA văn hóa từ đào cryptocurrency—chấp nhận rủi ro kỹ thuật, tối ưu hóa hiệu quả, vận hành độ tin cậy 24/7—chuyển dịch hoàn hảo sang các yêu cầu hạ tầng AI. Cùng những kỹ sư từng tối ưu hash rate tối đa từ GPU giờ đây tối ưu hóa các phép toán tensor, trong khi kỷ luật tài chính cần thiết để thu lợi nhuận từ thị trường crypto biến động giúp điều hướng kinh doanh hạ tầng thâm dụng vốn. Câu chuyện khởi nguồn bất ngờ này chứng minh rằng sự gián đoạn công nghệ thường nổi lên từ các ngành lân cận thay vì các công ty hiện hữu, với những kẻ ngoại đạo không bị ràng buộc bởi tư duy cũ kiến trúc các giải pháp chuyên biệt từ các nguyên lý đầu tiên.
Cấu trúc vốn phức tạp phản ánh cả cơ hội và rủi ro.
Cấu trúc vốn của CoreWeave phản ánh cả cơ hội khổng lồ trong hạ tầng AI và bản chất thâm dụng vốn của việc cạnh tranh ở quy mô siêu lớn. Lịch sử tài trợ bao gồm 7,5 tỷ đô la trong các khoản vay với lãi suất khoảng 14% (tháng 5/2024), tổng vốn cổ phần vượt quá 1 tỷ đô la qua nhiều vòng gọi vốn, một đợt bán cổ phiếu thứ cấp định giá công ty ở mức 23 tỷ đô la (tháng 10/2024), và IPO 1,5 tỷ đô la với giá 40 đô la/cổ phiếu (28 tháng 3/2025), tạo ra một công ty đại chúng có giá trị doanh nghiệp vượt quá 35 tỷ đô la bao gồm nợ.
Các nhà đầu tư neo đem lại giá trị chiến lược vượt ra ngoài vốn. Cổ phần khoảng 6% của NVIDIA, trị giá 900 triệu đô la tính đến tháng 3/2025 và gần 1,6 tỷ đô la vào tháng 5, đảm bảo quyền tiếp cận ưu tiên với nguồn cung GPU trong thời kỳ hạn chế phân bổ đồng thời cung cấp hợp tác kỹ thuật về tối ưu hóa phần cứng/phần mềm. Mối quan hệ khách hàng của Microsoft xác nhận CoreWeave là hạ tầng thiết yếu, đặc biệt với quan hệ đối tác OpenAI khổng lồ đòi hỏi tài nguyên tính toán đáng kể. Tập đoàn nhà đầu tư, bao gồm Fidelity, BlackRock và Altimeter, mang đến uy tín thể chế quan trọng cho bán hàng doanh nghiệp và các vòng huy động vốn tương lai.
Sự tập trung khách hàng vừa là xác nhận vừa là rủi ro. Microsoft chiếm khoảng 62% doanh thu năm 2024 của CoreWeave theo hồ sơ S-1—sự phụ thuộc cho phép mở rộng nhanh chóng nhưng tạo ra lỗ hổng khi tái đàm phán hợp đồng hoặc thay đổi chiến lược. Tính chất dài hạn của những hợp đồng này mang lại sự ổn định nhất định, mặc dù thời hạn cụ thể không được công bố (đơn hàng thường từ hai đến năm năm). Cam kết của OpenAI lên tới 11,9 tỷ đô la, cộng với mở rộng 4 tỷ đô la tiếp theo được tiết lộ trong tài liệu quan hệ nhà đầu tư của công ty, cung cấp doanh thu neo bổ sung. Cơ sở khách hàng rộng hơn, bao gồm IBM và các tổ chức tài chính hàng đầu, chứng minh sự mở rộng thị trường vượt ra ngoài những khách thuê neo ban đầu.
Dự trữ doanh thu 30,1 tỷ đô la tính đến Q2 2025 mang lại khả năng hiển thị chưa từng có cho một công ty hạ tầng, với doanh thu theo hợp đồng đại diện cho cam kết nhiều năm về phía trước—mặc dù rủi ro thực thi vẫn đáng kể do sự phức tạp trong việc triển khai và vận hành hàng trăm nghìn GPU trên hàng chục trung tâm dữ liệu. Ghi nhận doanh thu phụ thuộc vào tính khả dụng của hạ tầng, tạo áp lực duy trì lịch triển khai tích cực trong khi đảm bảo độ tin cậy mà khách hàng doanh nghiệp yêu cầu.
Hiệu suất tài chính tiết lộ tính kinh tế đơn vị đầy thách thức của hạ tầng AI. Kết quả Q2 2025 cho thấy doanh thu 1,21 tỷ đô la nhưng thua lỗ ngày càng tăng, với công ty đối mặt với các khoản khấu hao lớn trên phần cứng phát triển nhanh chóng, chi phí lãi vay gần 1 tỷ đô la hàng năm do gánh nặng nợ, và chi phí hoạt động tăng theo triển khai hạ tầng. Con đường đến lợi nhuận đòi hỏi đạt được quy mô lớn hơn để phân bổ chi phí cố định, cải thiện tỷ lệ sử dụng, và duy trì kỷ luật giá bất chấp áp lực cạnh tranh—một sự cân bằng tinh tế giữa tăng trưởng và bền vững.
Việc mua lại Weights & Biases vào tháng 5/2025 với giá khoảng 1,7 tỷ đô la (theo TechCrunch và các báo cáo ngành, mặc dù điều khoản chính thức vẫn chưa được tiết lộ) bổ sung khả năng MLOps đồng thời tăng độ phức tạp tích hợp. Thương vụ hoàn tất ngày 5/5/2025, kết hợp hạ tầng với các công cụ phát triển mô hình được 1.400+ doanh nghiệp sử dụng.
Vị thế thị trường được củng cố thông qua chuyên môn hóa và quan hệ đối tác.
Chiến lược thị trường của CoreWeave đảo ngược cách tiếp cận truyền thống của các nền tảng cloud bằng cách cố tình giới hạn phạm vi để đạt được độ sâu vô song trong lĩnh vực điện toán tăng tốc GPU. Trong khi AWS cung cấp hơn 200 dịch vụ cho mọi khối lượng công việc có thể tưởng tượng, CoreWeave tập trung vào cơ sở hạ tầng GPU compute được tối ưu hóa cho training và inference AI. Sự chuyên môn hóa này cho phép tối ưu hóa kiến trúc và hiệu quả vận hành mà các nền tảng tổng quát phải cân bằng với các yêu cầu rộng hơn.
Động lực cạnh tranh tiếp tục phát triển nhanh chóng. Các hyperscaler đã nâng cao đáng kể các dịch vụ GPU của họ, với AWS, Google Cloud, và Azure hiện đang cung cấp các tùy chọn mạng băng thông cao, bare-metal instances, và khả năng cung ứng GPU được cải thiện. Sự khác biệt ngày càng tập trung vào khả năng cung cấp quy mô cluster, tối ưu hóa topology, quản lý nhiệt, và tích hợp software stack thay vì chỉ dựa vào thông số kỹ thuật thô.
Chiến lược đối tác của CoreWeave khuếch đại cách tiếp cận tập trung thông qua tích hợp sâu trong hệ sinh thái. Mối quan hệ với NVIDIA vượt ra ngoài động lực khách hàng-nhà cung cấp—cổ phần của NVIDIA và việc NVIDIA liên tục lựa chọn CoreWeave cho các đợt ra mắt kiến trúc mới (GB200 NVL72 vào tháng 2/2025, GB300 NVL72 vào tháng 7/2025) thể hiện sự liên kết chiến lược. Quan hệ đối tác với Databricks, Hugging Face, và các nền tảng AI khác đảm bảo tương thích workflow mà không cần CoreWeave phải xây dựng các dịch vụ cạnh tranh.
Mở rộng địa lý theo các trung tâm đổi mới AI với 3,5 tỷ USD cam kết cho cơ sở hạ tầng châu Âu, bao gồm 1 tỷ bảng Anh cho hoạt động tại Anh và các cơ sở tại Na Uy, Thụy Điển, và Tây Ban Nha, tận dụng năng lượng tái tạo. Công ty vận hành 33 data center tính đến năm 2025 với khoảng 470 MW công suất IT hoạt động và khoảng 2,2 GW công suất theo hợp đồng (Q2 2025), định vị cho tăng trưởng liên tục.
Lợi thế cạnh tranh bền vững xuất phát từ hiệu ứng tổng hợp nơi cơ sở hạ tầng chuyên biệt thu hút khách hàng khó tính, nhu cầu tập trung biện minh cho đầu tư liên tục, và năng lực kỹ thuật hàng đầu đảm bảo truy cập sớm vào phần cứng mới. Điều này định vị CoreWeave một cách độc đáo, mặc dù rủi ro thực thi vẫn còn đáng kể do yêu cầu vốn và áp lực cạnh tranh.
Hạ tầng kỹ thuật: Phát triển AI ở quy mô chưa từng có
Hệ thống trung tâm dữ liệu của CoreWeave trải dài trên 33 cơ sở hoạt động tại Hoa Kỳ và châu Âu tính đến năm 2025, đại diện cho một trong những triển khai GPU chuyên biệt lớn nhất trên toàn cầu. Phân bố địa lý bao gồm 28 địa điểm tại Hoa Kỳ với các triển khai lớn, chẳng hạn như cơ sở Plano, Texas trị giá 1,6 tỷ đô la, chứa hơn 3.500 GPU H100 trong diện tích 454.421 feet vuông. Trong các bài nộp MLPerf Training v5.0 (tháng 6 năm 2025), CoreWeave, NVIDIA và IBM đã đạt được benchmark lớn nhất từ trước đến nay sử dụng 2.496 GPU GB200 để huấn luyện Llama 3.1 405B trong 27,3 phút—nhanh hơn 2 lần so với các kích thước cluster tương đương từ các nhà nộp khác.
Hạ tầng nguồn điện đại diện cho yếu tố khác biệt quan trọng với khoảng 470 megawatt công suất hoạt động và khoảng 2,2+ gigawatt đã ký hợp đồng tính đến Q2 2025, bao gồm các cơ sở được thiết kế để có hiệu suất đặc biệt. Công nghệ làm mát bằng chất lỏng hỗ trợ 130 kilowatt mỗi rack—so với giới hạn làm mát bằng không khí truyền thống 30 kilowatt—cho phép triển khai các cấu hình dày đặc như hệ thống NVIDIA GB200 NVL72 chứa 72 GPU mỗi rack.
Đội ngũ GPU tập trung vào các kiến trúc mới nhất của NVIDIA với khoảng 250.000 GPU tổng cộng được triển khai. Thành phần bao gồm các biến thể H100 trong cả cấu hình SXM5 và PCIe, GPU H200 với bộ nhớ HBM3e 141GB, và triển khai ban đầu của hệ thống GB200 NVL72. CoreWeave đạt được khả năng sẵn sàng chung đầu tiên ra thị trường của GB200 NVL72 (tháng 2 năm 2025) và triển khai đầu tiên của GB300 NVL72 (ngày 3 tháng 7 năm 2025), duy trì mô hình truy cập sớm vào phần cứng mới của NVIDIA.
Mạng lưới chính sử dụng NVIDIA Quantum-2 InfiniBand cung cấp 400Gb/s mỗi GPU thông qua adapter ConnectX-7 trong topology Fat Tree không chặn, đạt được độ trễ dưới microsecond với thông lượng cao, mặc dù tốc độ mạng thô hiện nay tương đương với các dịch vụ hyperscaler hàng đầu. Sự khác biệt nằm ở việc tối ưu hóa topology, tích hợp scheduler, và cấu hình nhất quán trên các cluster.
Kiến trúc lưu trữ tập trung vào các triển khai VAST Data Platform sử dụng kiến trúc disaggregated để mở rộng độc lập. Hệ thống đạt được thông lượng duy trì lên đến 1 GB/s mỗi GPU với các pattern I/O được tối ưu hóa phân biệt việc đọc huấn luyện với ghi checkpoint. Công nghệ LOTA (Local Object Transfer Accelerator) của CoreWeave cache dữ liệu được truy cập thường xuyên trên các node GPU, giảm lưu lượng mạng đồng thời cải thiện thông lượng.
Stack phần mềm được tối ưu hóa cho hiệu suất bare-metal.
Kiến trúc Kubernetes bare-metal của CoreWeave loại bỏ overhead ảo hóa bằng cách chạy Kubernetes trực tiếp trên phần cứng. Cách tiếp cận này cung cấp quyền truy cập phần cứng trực tiếp trong khi vẫn duy trì khả năng multi-tenancy thông qua NVIDIA BlueField DPU. Các benchmark nội bộ cho rằng điều này cho phép đạt được hơn 50% Model FLOPS Utilization trên GPU Hopper—cao hơn khoảng 20% so với baseline công khai, mặc dù việc xác minh độc lập các con số cụ thể này vẫn còn hạn chế.
CoreWeave Kubernetes Service (CKS) mở rộng ra ngoài phạm vi Kubernetes được quản lý thông thường bằng cách cho phép khách hàng kiểm soát các thành phần data plane trong khi CoreWeave quản lý control plane. Được cấu hình sẵn với GPU driver, giao diện network/storage, và plugin observability, CKS tích hợp với các công cụ điều phối workload bao gồm Slurm, KubeFlow, và KServe.
SUNK (Slurm on Kubernetes) kết nối các mô hình HPC và cloud bằng cách triển khai Slurm như các tài nguyên Kubernetes được container hóa, cho phép chia sẻ tài nguyên động giữa các batch job và dịch vụ chạy lâu dài. Nó đạt được utilization cao thông qua lập lịch nhận biết topology được tối ưu hóa cho cấu hình fabric InfiniBand.
Công nghệ Tensorizer tăng tốc triển khai model thông qua serialization và streaming được tối ưu hóa, đạt được tốc độ tải model nhanh hơn 5 lần so với các cách tiếp cận tiêu chuẩn theo benchmark của CoreWeave. Công cụ open-source này cho phép tải "zero-copy" để stream model theo từng chunk thay vì tải toàn bộ model vào RAM.
Các triển khai tiên tiến với benchmark hiệu suất được xác minh
Những thành tựu hạ tầng của CoreWeave bao gồm các bài nộp MLPerf có thể xác minh được, thể hiện quy mô và hiệu suất. Bài nộp MLPerf Training v5.0 tháng 6 năm 2025 sử dụng 2.496 GPU NVIDIA GB200 đã hoàn thành việc training Llama 3.1 405B trong 27,3 phút—bài nộp lớn nhất của bất kỳ nhà cung cấp cloud nào và nhanh hơn 2x so với các cluster có kích thước tương đương.
Hiệu suất inference đạt 800 token/giây trên Llama 3.1 405B khi sử dụng hệ thống GB200 theo kết quả MLPerf Inference v5.0, cho thấy cải thiện 2,86x trên mỗi chip so với H200. Kiến trúc GB200 NVL72 kết hợp 72 GPU Blackwell với 36 CPU Grace trên mỗi rack, cung cấp 1,44 exaFLOPS với 13,5TB bộ nhớ được kết nối NVLink.
Hệ thống xếp hạng ClusterMAX của SemiAnalysis chỉ đặt CoreWeave vào hạng Platinum khi ra mắt vào tháng 3-4 năm 2025, đánh giá so với AWS, Google Cloud, Azure, và các nhà cung cấp khác trên hơn 50 yêu cầu kỹ thuật. Đánh giá độc lập này xác nhận sự khác biệt về kỹ thuật, mặc dù hệ thống xếp hạng có kế hoạch cập nhật thường xuyên khi bối cảnh cạnh tranh phát triển.
Các mối quan hệ đối tác công nghệ thúc đẩy khả năng nền tảng.
Quan hệ đối tác với NVIDIA vượt ra ngoài mối quan hệ nhà cung cấp thông thường, với NVIDIA nắm giữ khoảng 6% cổ phần trị giá gần 1,6 tỷ USD tính đến tháng 5 năm 2025. Sự tích hợp sâu sắc này thể hiện qua việc triển khai nhất quán các kiến trúc mới đầu tiên ra thị trường và các nỗ lực đồng phát triển trong tối ưu hóa. Các bài nộp MLPerf chung thể hiện sự hợp tác kỹ thuật này.
Việc triển khai hạ tầng CoreWeave của IBM để huấn luyện mô hình Granite tận dụng các hệ thống GB200 với mạng InfiniBand Quantum-2. Quan hệ đối tác hạ tầng với Dell bao gồm các máy chủ PowerEdge XE9712 với GB200 NVL72 trong các rack làm mát bằng chất lỏng. VAST Data cung cấp lưu trữ cho tất cả các trung tâm dữ liệu CoreWeave thông qua nền tảng kiến trúc phân tán.
Việc th收購Weights & Biases với giá khoảng 1,7 tỷ USD (hoàn thành ngày 5 tháng 5 năm 2025) tạo ra một nền tảng AI tích hợp kết hợp hạ tầng với khả năng MLOps. Nền tảng này, được sử dụng bởi 1.400+ doanh nghiệp bao gồm OpenAI và Meta, duy trì khả năng tương tác trong khi bổ sung các công cụ phát triển và giám sát mô hình.
Quỹ đạo tương lai cân bằng tăng trưởng với tính bền vững tài chính.
Các sáng kiến hướng tới tương lai của CoreWeave bao gồm nhiều phát triển quan trọng. Việc triển khai GB300 NVL72 (tháng 7 năm 2025) hứa hẹn điều mà NVIDIA tiếp thị là "cải thiện 50 lần đầu ra suy luận mô hình lý luận," mặc dù điều này thể hiện dự báo của nhà cung cấp hơn là các benchmark được xác minh độc lập. Dịch vụ thuê GPU spot ra mắt cuối năm 2025 sẽ cung cấp các instance có thể gián đoạn chi phí thấp hơn với định giá động.
Mở rộng châu Âu với tổng trị giá 3,5 tỷ đô la thiết lập chủ quyền dữ liệu thông qua các cơ sở được cung cấp năng lượng tái tạo nhằm đáp ứng các yêu cầu GDPR. Công ty tiếp tục mở rộng quy mô hướng tới công suất điện năng theo hợp đồng 1,6 gigawatt đồng thời mở rộng khả năng làm mát bằng chất lỏng để hỗ trợ phần cứng thế hệ tiếp theo.
Các thách thức tài chính đòi hỏi phải điều hướng cẩn thận. Với hơn 11 tỷ đô la nợ tạo ra khoảng 1 tỷ đô la chi phí lãi suất hàng năm, CoreWeave phải cân bằng tăng trưởng tích cực với con đường hướng tới lợi nhuận. Rủi ro tập trung khách hàng vẫn ở mức cao với Microsoft chiếm 62% doanh thu năm 2024. Công ty báo cáo thua lỗ gia tăng trong Q2 năm 2025 bất chấp đạt được doanh thu quý 1,21 tỷ đô la.
Cơ hội thị trường vẫn còn đáng kể, với IDC dự báo chi tiêu cơ sở hạ tầng AI hàng năm 500 tỷ đô la vào năm 2027. Cách tiếp cận chuyên biệt và lợi thế kỹ thuật của CoreWeave định vị họ để nắm bắt giá trị đáng kể, mặc dù rủi ro thực thi vẫn tồn tại do yêu cầu vốn, động lực cạnh tranh và nhu cầu đa dạng hóa cơ sở khách hàng trong khi duy trì đà tăng trưởng.
## Kết luận
CoreWeave đã kiến trúc hạ tầng AI chuyên biệt mang lại những lợi thế có thể đo lường được thông qua kiến trúc Kubernetes bare-metal, làm mát bằng chất lỏng hỗ trợ mật độ rack 130kW, và triển khai nhất quán các công nghệ mới nhất của NVIDIA ra thị trường đầu tiên. Việc chuyển đổi từ đào tiền điện tử để trở thành nhà cung cấp duy nhất được xếp hạng Platinum trong hệ thống ClusterMAX của SemiAnalysis (tính đến tháng 3 năm 2025) cho thấy sự thực thi thành công của một chiến lược tập trung. Với những thành tựu có thể xác minh bao gồm bài nộp MLPerf Training lớn nhất—Llama 3.1 405B trong 27,3 phút sử dụng 2.496 GPU GB200—và 30,1 tỷ đô la doanh thu tồn đọng theo hợp đồng, CoreWeave đã khẳng định vị thế là hạ tầng quan trọng cho phát triển AI.
Tuy nhiên, con đường phía trước đòi hỏi phải điều hướng qua những thách thức đáng kể, bao gồm hơn 11 tỷ đô la nợ, sự tập trung khách hàng với Microsoft đại diện cho phần lớn doanh thu năm 2024, và cạnh tranh từ các dịch vụ hyperscaler ngày càng có năng lực. Khi công ty mở rộng quy mô hướng tới khoảng 2,2 gigawatt công suất điện theo hợp đồng và triển khai các hệ thống thế hệ tiếp theo, khả năng duy trì sự dẫn đầu về kỹ thuật trong khi đạt được tính bền vững tài chính sẽ quyết định liệu công ty đào crypto cũ này có thể định hình lại vĩnh viễn bối cảnh hạ tầng AI hay không.
Dữ liệu cập nhật đến ngày 15 tháng 8 năm 2025. Nguồn bao gồm hồ sơ công ty, tài liệu SEC, benchmark MLPerf, và phân tích ngành từ SemiAnalysis.
Tài liệu tham khảo
-
CoreWeave, Inc. — Form S‑1 (báo cáo đăng ký ban đầu), U.S. SEC, nộp ngày 3 tháng 3, 2025. (Lịch sử doanh thu; tăng trưởng 737% năm 2024; thông tin cơ bản về công ty.) (SEC)
-
CoreWeave, Inc. — Bản cáo bạch (Form 424B4), U.S. SEC, tháng 4, 2025. (Tập trung khách hàng; Microsoft = 62% doanh thu năm 2024.) (SEC)
-
CoreWeave — "CoreWeave công bố kết quả quý hai 2025 mạnh mẽ", Business Wire/IR, 12 tháng 8, 2025. (Q2 doanh thu $1.212B, backlog $30.1B; hoạt động ~470 MW, hợp đồng ~2.2 GW; OpenAI $11.9B + $4B mở rộng.) (Business Wire)
-
Reuters — "Doanh thu CoreWeave vượt ước tính nhờ cơn bùng nổ AI nhưng cổ phiếu giảm do thua lỗ lớn hơn", 12 tháng 8, 2025. (Kết quả Q2; 33 data center.) (Reuters)
-
Reuters — "CoreWeave huy động 7.5 tỷ đô la nợ với định giá 19 tỷ đô la", 17 tháng 5, 2024. (Tín dụng tư nhân; định giá $19B.)
-
Reuters — "CoreWeave hoàn tất bán cổ phiếu thứ cấp 650 triệu đô la... định giá 23 tỷ đô la", 13 tháng 11, 2024. (Định giá thứ cấp $23B.) (Reuters)
-
SemiAnalysis — "Giới thiệu hệ thống đánh giá hiệu suất Cloud GPU — ClusterMAX (Q2 2025)", tháng 4, 2025. (Phương pháp ClusterMAX; CoreWeave = Platinum.) (SemiAnalysis)
-
CoreWeave — "Blackwell ở quy mô lớn: Khả năng sẵn sàng chung của GB200 NVL72 trên CoreWeave", 4 tháng 2, 2025. (Đầu tiên đạt GA với GB200 NVL72.) (Reuters)
-
CoreWeave — "Triển khai NVIDIA GB300 NVL72 đầu tiên" (blog), 3 tháng 7, 2025. (Triển khai GB300 NVL72 đầu tiên.) (CoreWeave)
-
NVIDIA Developer Blog — "Blackwell Ultra cho kỷ nguyên lý luận AI", 19 tháng 3, 2025. ("10× TPS trên mỗi người dùng" + "5× TPS trên MW" ⇒ tuyên bố marketing "lên đến 50× đầu ra"**.) (NVIDIA Developer)
-
MLCommons — Kết quả MLPerf Training v5.0 (2025). (Llama‑3.1 405B 27.3 phút trên 2,496 GB200; bài nộp lớn nhất.) (Microsoft Learn)
-
MLCommons — Kết quả MLPerf Inference v5.0 (Data Center) (2025). (Llama‑3.1 405B throughput/latency bao gồm so sánh GB200 vs H200 được sử dụng trong tóm tắt của nhà cung cấp.) (Microsoft Learn)
-
AWS — P5 Instances / EFA Networking (tài liệu/blog chính thức). (Lên đến 3,200 Gbps mạng instance trên p5 với EFA/SR‑IOV.) (Amazon Web Services, Inc.)
-
Microsoft Azure — Trang sản phẩm "ND H100 v5‑Series (Preview)". (Mạng tầng 1.6–3.2 Tbps.) (AWS Documentation)
-
Google Cloud Blog — "A3 Ultra: 3.2 Tbps mạng GPU trên mỗi VM" (tài liệu ra mắt A3/A3 Ultra). (3.2 Tbps trên mỗi VM.) (Google Cloud)
-
Dell Technologies — "Dell giao server PowerEdge XE9712 đầu tiên với NVIDIA GB200 NVL72 cho CoreWeave", 20 tháng 6, 2025. (Đối tác giao hàng quy mô rack, làm mát bằng chất lỏng.) (CoreWeave)
-
VAST Data — "Hiệu suất AI scale‑out tại CoreWeave" (nghiên cứu tình huống/trang giải pháp), 2025. (VAST được triển khai trên các DC của CoreWeave; kiến trúc I/O.) (CoreWeave)
-
Weights & Biases — "Chúng tôi gia nhập CoreWeave" (thông báo mua lại), 5 tháng 5, 2025. (Thời gian đóng/hoàn tất thương vụ W&B; hướng tích hợp.) (FinTech Weekly - Home Page)
-
Reuters — "CoreWeave đầu tư thêm 2.2 tỷ đô la vào châu Âu, tổng cộng 3.5 tỷ đô la", 5 tháng 6, 2024. (Quy mô/địa điểm mở rộng châu Âu.) (Reuters)
-
Investor's Business Daily — "Hồ sơ IPO của CoreWeave được NVIDIA hỗ trợ cho thấy bước nhảy doanh thu lớn... Microsoft 62%; cổ phần NVIDIA 6%", tháng 3, 2025. (Xác nhận ~6% cổ phần NVIDIA được ghi chú trong hồ sơ/báo chí.) (Investors)