CoreWeave Deep Dive: Bagaimana Mantan Penambang Kripto Menjadi Cloud Esensial untuk AI
Diperbarui 8 Desember 2025
Pembaruan Desember 2025: CoreWeave menyelesaikan IPO senilai $1,5 miliar pada Maret 2025—IPO teknologi besar pertama sejak 2021. Pendapatan tumbuh 737% menjadi $1,92 miliar pada 2024. OpenAI menandatangani kontrak total senilai $22,4 miliar, Meta menyepakati kesepakatan $14,2 miliar. Armada kini melebihi 250.000 GPU di lebih dari 32 pusat data. Pertama yang mengoperasikan GB200 NVL72 (Februari 2025) dan GB300 NVL72 (Juli 2025) secara komersial. Komitmen ekspansi Eropa mencapai $3,5 miliar. Konsentrasi pelanggan membaik seiring Microsoft turun di bawah 50% dari pendapatan masa depan.
OpenAI bisa saja memilih AWS, Azure, atau Google Cloud untuk fase ekspansi infrastruktur berikutnya. Sebaliknya, perusahaan ini menandatangani kontrak $12 miliar dengan CoreWeave pada Maret 2025, diikuti perjanjian tambahan $10,5 miliar pada September, membawa total menjadi $22,4 miliar selama lima tahun.¹ Meta menyusul dengan komitmen infrastruktur $14,2 miliar hingga 2031.² CoreWeave bertransformasi dari operasi penambangan cryptocurrency tiga orang pada 2017 menjadi penyedia GPU cloud senilai $23 miliar yang melayani beban kerja AI paling menuntut di planet ini. Kebangkitan perusahaan ini mengungkapkan baik tuntutan infrastruktur AI modern maupun keputusan arsitektur yang sulit direplikasi oleh hyperscaler.
Dari penambangan Ethereum ke infrastruktur AI
Kisah asal CoreWeave dimulai di sebuah kantor New Jersey di mana para pendiri Michael Intrator, Brian Venturo, dan Brannin McBee merakit rig GPU untuk penambangan Ethereum. Ledakan cryptocurrency mengajarkan mereka pelajaran penting tentang ekonomi GPU, manajemen termal, dan penerapan kepadatan tinggi yang kemudian terbukti esensial untuk beban kerja AI. Ketika Ethereum beralih ke proof-of-stake pada 2022, menghilangkan kebutuhan akan penambangan GPU, CoreWeave beralih ke komputasi cloud tepat saat AI generatif muncul.
Waktunya terbukti luar biasa. ChatGPT diluncurkan pada November 2022, memicu permintaan komputasi GPU yang belum pernah terjadi sebelumnya yang tidak dapat dipenuhi hyperscaler. Inventaris GPU yang sudah ada dan hubungan pengadaan CoreWeave memposisikan perusahaan untuk menangkap permintaan yang tidak dapat dipenuhi AWS, Azure, dan Google Cloud. NVIDIA, menghadapi keputusan alokasi di tengah kelangkaan GPU, mengarahkan pasokan ke CoreWeave daripada hyperscaler yang mengembangkan chip AI pesaing.³
Investasi NVIDIA senilai $250 juta dan alokasi preferensial yang berkelanjutan menciptakan hubungan simbiosis yang menguntungkan kedua perusahaan. CoreWeave mewakili pelanggan GPU cloud terbesar NVIDIA yang tidak mengembangkan silikon kompetitif, menjadikan kemitraan ini bernilai strategis di luar ketentuan finansial. Pengaturan ini memungkinkan CoreWeave mengamankan pasokan GPU selama kelangkaan yang membuat bahkan Microsoft dan Google kesulitan mendapatkan alokasi.
Pertumbuhan pendapatan mencerminkan trajektori permintaan: $16 juta pada 2022 tumbuh menjadi $229 juta pada 2023 dan $1,92 miliar pada 2024—peningkatan 737% dalam satu tahun.⁴ IPO Maret 2025 mengumpulkan $1,5 miliar pada kapitalisasi pasar mendekati $35 miliar, menjadikan CoreWeave IPO teknologi besar pertama sejak pasar yang bergejolak pada 2021.
Keunggulan bare-metal
Arsitektur teknis CoreWeave berbeda secara fundamental dari pendekatan hyperscaler. Penyedia cloud tradisional memvirtualisasi sumber daya GPU, menambahkan lapisan hypervisor yang memperkenalkan latensi dan mengurangi kapasitas komputasi yang tersedia. CoreWeave menjalankan Kubernetes langsung di server bare-metal, menyediakan fleksibilitas seperti cloud dengan performa hardware khusus.⁵
CoreWeave Kubernetes Service (CKS) menerapkan cluster tanpa mesin virtual atau hypervisor antara beban kerja dan hardware GPU. NVIDIA BlueField Data Processing Units (DPU) yang terpasang di setiap node mengalihkan tugas jaringan dan keamanan, membebaskan GPU untuk fokus secara eksklusif pada komputasi.⁶ Arsitektur DPU memungkinkan fitur keamanan canggih termasuk kebijakan jaringan kustom, Virtual Private Cloud khusus, dan kontrol akses istimewa tanpa mengorbankan utilisasi GPU.
Arsitektur jaringan terbukti sama pentingnya untuk pelatihan AI terdistribusi. CoreWeave membangun backbone-nya di atas fabric NVIDIA Quantum-2 InfiniBand dengan topologi fat-tree non-blocking yang dioptimalkan untuk operasi kolektif di ribuan GPU.⁷ Scalable Hierarchical Aggregation and Reduction Protocol (SHARP) dari NVIDIA lebih lanjut mempercepat sinkronisasi gradien yang mendominasi pola komunikasi pelatihan. Jaringan secara andal menghubungkan puluhan ribu GPU dengan kapasitas untuk menskalakan ke ukuran cluster enam digit.
Hyperscaler menghadapi hambatan struktural saat mencoba kepadatan GPU serupa. Desain pusat data warisan, pajak virtualisasi, dan topologi jaringan yang dioptimalkan untuk beban kerja cloud tradisional menciptakan bottleneck yang dihindari oleh infrastruktur purpose-built CoreWeave. AWS dan Azure dapat menerapkan H100, tetapi mencapai time-to-train dan throughput inferensi yang setara memerlukan mengatasi keputusan arsitektur yang dibuat bertahun-tahun sebelum AI generatif muncul.
Strategi pusat data untuk era AI
CoreWeave mengoperasikan lebih dari 32 pusat data di Amerika Utara dan Eropa, menampung lebih dari 250.000 GPU dengan kapasitas daya ratusan megawatt.⁸ Kecepatan ekspansi meningkat sepanjang 2025, dengan dua pusat data UK yang menampilkan GPU H200 mulai beroperasi pada Januari dan situs Eropa kontinental di Norwegia, Swedia, dan Spanyol menerima komitmen investasi $2,2 miliar.
Sebagian besar fasilitas CoreWeave yang dibuka pada 2025 menampilkan kemampuan liquid cooling native. Tidak seperti operator warisan yang meretrofit sebagian kecil fasilitas yang ada, CoreWeave merancang seluruh pusat data seputar liquid cooling dari fondasi hingga atap.⁹ Pendekatan ini memungkinkan dukungan untuk rak 130kW+ yang diperlukan untuk penerapan GPU generasi berikutnya—tingkat kepadatan yang tidak dapat dicapai fasilitas berpendingin udara terlepas dari investasi retrofit.
Kemitraan strategis memperluas jangkauan CoreWeave tanpa memerlukan pengeluaran modal untuk setiap lokasi. Aliansi Flexential menyediakan kapasitas kolokasi kepadatan tinggi di pasar tambahan.¹⁰ Core Scientific berkomitmen 200 megawatt infrastruktur melalui kontrak 12 tahun dengan pembayaran tahunan sekitar $290 juta.¹¹ Pengaturan ini mempercepat penerapan kapasitas sambil menyebarkan persyaratan modal di seluruh mitra.
Penerapan GB200 NVL72 pada Februari 2025 menjadikan CoreWeave penyedia cloud pertama yang menawarkan arsitektur Blackwell NVIDIA secara komersial.¹² Juli 2025 membawa tonggak lain dengan penerapan komersial pertama sistem GB300 NVL72 (Blackwell Ultra), yang dikirimkan melalui server Dell.¹³ Akses awal ke hardware generasi berikutnya menciptakan parit kompetitif yang menguat di seluruh generasi GPU berturut-turut.
Harga yang menantang ekonomi hyperscaler
Struktur harga CoreWeave secara konsisten lebih rendah 30-60% dari hyperscaler untuk konfigurasi GPU yang setara.¹⁴ H100 dengan jaringan InfiniBand berjalan sekitar $6,16 per GPU-jam di CoreWeave, dibandingkan dengan $6,98 Azure dan tarif pasca-pemotongan AWS sekitar $3,90.¹⁵ Komitmen kapasitas terpesan dapat memperpanjang diskon hingga 60% dari tarif on-demand.
Perbandingan A100 terbukti lebih mencolok: $2,39 per jam di CoreWeave versus $3,40 di Azure dan $3,67 di Google Cloud.¹⁶ Untuk pekerjaan pelatihan model 70 miliar parameter yang membutuhkan 6,4 juta GPU-jam, CoreWeave berharga sekitar $39 juta dibandingkan dengan $45-48 juta di AWS atau Azure dan $71 juta di Google Cloud.
Kesederhanaan harga memperbesar keunggulan. CoreWeave menggabungkan GPU, CPU, RAM, dan jaringan ke dalam tarif per jam per instance, menyediakan penagihan yang dapat diprediksi untuk perencanaan kapasitas. Hyperscaler mengenakan biaya terpisah untuk komputasi, penyimpanan, egress data, dan layanan tambahan, menciptakan penagihan kompleks yang membuat proyeksi biaya sulit. Biaya egress nol CoreWeave menghilangkan kategori pengeluaran signifikan untuk beban kerja AI yang memerlukan transfer data yang sering.
Hyperscaler mempertahankan keunggulan dalam keluasan ekosistem layanan. AWS SageMaker, Google Vertex AI, dan platform AI Azure menyediakan layanan terkelola, alat analitik, dan integrasi pre-built yang tidak dimiliki penawaran terfokus infrastruktur CoreWeave. Organisasi yang memerlukan integrasi mendalam dengan ekosistem cloud yang ada mungkin menemukan premi hyperscaler dibenarkan oleh berkurangnya kompleksitas integrasi dan overhead operasional.
Konsentrasi dan diversifikasi pelanggan
Konsentrasi pelanggan CoreWeave menciptakan baik peluang maupun kerentanan. Microsoft menyumbang 62% dari pendapatan 2024 dan mencapai 71% dari pendapatan kuartal kedua 2025—ketergantungan luar biasa pada satu pelanggan.¹⁷ Konsentrasi muncul dari kebutuhan mendesak Microsoft akan kapasitas GPU untuk melayani beban kerja OpenAI setelah kesuksesan tak terduga ChatGPT membanjiri infrastruktur yang ada.
Kontrak OpenAI dan Meta secara fundamental mengubah campuran pelanggan. CEO Michael Intrator mencatat bahwa Microsoft akan mewakili kurang dari setengah pendapatan kontrak komitmen masa depan yang diharapkan seiring OpenAI, Meta, dan pelanggan lain meningkatkan penggunaan mereka.¹⁸ Diversifikasi mengurangi risiko pelanggan tunggal sambil menunjukkan bahwa proposisi nilai CoreWeave melampaui persyaratan spesifik Microsoft.
Perusahaan AI yang lebih kecil termasuk Cohere, Mistral, dan Poolside melengkapi kontrak headline.¹⁹ Pelanggan-pelanggan ini mewakili komunitas pengembangan AI yang lebih luas yang ditarik oleh keunggulan harga dan performa CoreWeave. Seiring pengembangan model AI berkembang biak di luar segelintir lab frontier, segmen pasar menengah ini mungkin terbukti sama berharganya secara strategis seperti kontrak enterprise headline.
Sam Altman mengkarakterisasi hubungan dengan jelas: "CoreWeave adalah tambahan penting untuk portofolio infrastruktur OpenAI, melengkapi kesepakatan komersial kami dengan Microsoft dan Oracle, dan joint venture kami dengan SoftBank di Stargate."²⁰ Bahkan organisasi dengan hubungan hyperscaler menemukan GPU cloud khusus CoreWeave berharga untuk beban kerja tertentu.
Realitas finansial dan kekhawatiran pasar
Pertumbuhan CoreWeave datang dengan kompleksitas finansial yang substansial. Perusahaan mengumpulkan lebih dari $14,5 miliar dalam utang dan ekuitas di 12 putaran pendanaan, termasuk fasilitas utang swasta $7 miliar yang dipimpin oleh Blackstone dan Magnetar pada Mei 2024.²¹ Model intensif modal memerlukan investasi berkelanjutan dalam inventaris GPU dan kapasitas pusat data untuk mempertahankan posisi kompetitif.
Kerugian bersih melebar menjadi $863 juta pada 2024 dari $594 juta pada 2023, meskipun pertumbuhan pendapatan 737%.²² Trajektori kerugian mencerminkan ekspansi kapasitas agresif daripada inefisiensi operasional, tetapi investor memeriksa apakah pertumbuhan akhirnya menghasilkan pengembalian yang cukup untuk melayani utang yang terakumulasi. Beban bunga dan depresiasi aset GPU mengkonsumsi pendapatan substansial sebelum mencapai profitabilitas.
Kekhawatiran pasar fokus pada konsentrasi pelanggan, dinamika kompetitif, dan keberlanjutan tingkat permintaan saat ini. Beberapa analis mengkarakterisasi model bisnis sebagai "jebakan utang GPU" di mana persyaratan modal terus berkembang tanpa mencapai skala yang menguntungkan.²³ Alokasi preferensial NVIDIA secara teoretis dapat bergeser ke mitra lain, merusak keunggulan pasokan CoreWeave.
Argumen tandingan berpusat pada permintaan infrastruktur AI yang tidak menunjukkan tanda-tanda melambat. OpenAI, Anthropic, Google, Meta, dan puluhan organisasi lain terus memperluas kapasitas komputasi seiring ukuran model meningkat dan permintaan inferensi tumbuh. Keunggulan penggerak awal CoreWeave, arsitektur teknis, dan hubungan pelanggan menciptakan hambatan yang tidak dapat dengan mudah direplikasi oleh pendatang baru. Pembangunan infrastruktur mewakili taruhan pada ekspansi berkelanjutan AI—tesis yang didukung oleh bukti saat ini.
Posisi kompetitif di lanskap GPU cloud
Pasar GPU cloud tersegmentasi antara hyperscaler (AWS, Azure, Google Cloud) dan penyedia khusus (CoreWeave, Lambda Labs, Together AI, Hyperbolic). CoreWeave memposisikan di ujung premium segmen khusus, menawarkan kemampuan enterprise dan skala masif sambil mempertahankan harga di bawah tarif hyperscaler.
Lambda Labs menawarkan harga H100 yang kompetitif (sekitar $2,99 per GPU-jam) tetapi o
[Konten dipotong untuk terjemahan]