CoreWeave Diepgaande Analyse: Hoe een Voormalige Cryptominer de Essentiële Cloud voor AI Werd
Bijgewerkt op 8 december 2025
Update december 2025: CoreWeave voltooide een beursgang van $1,5 miljard in maart 2025—de eerste grote tech-IPO sinds 2021. De omzet groeide met 737% naar $1,92 miljard in 2024. OpenAI tekende voor een totale contractwaarde van $22,4 miljard, Meta sloot een deal van $14,2 miljard. Het machinepark omvat nu meer dan 250.000 GPU's verspreid over 32+ datacenters. Als eerste brachten zij zowel GB200 NVL72 (februari 2025) als GB300 NVL72 (juli 2025) commercieel op de markt. De Europese uitbreidingstoezegging bereikt $3,5 miljard. De klantenconcentratie verbetert nu Microsoft onder de 50% van de toekomstige omzet zakt.
OpenAI had kunnen kiezen voor AWS, Azure of Google Cloud voor de volgende fase van infrastructuuruitbreiding. In plaats daarvan tekende het bedrijf in maart 2025 een contract van $12 miljard met CoreWeave, gevolgd door een aanvullende overeenkomst van $10,5 miljard in september, waarmee het totaal op $22,4 miljard over vijf jaar komt.¹ Meta volgde met een infrastructuurtoezegging van $14,2 miljard tot en met 2031.² CoreWeave transformeerde van een cryptocurrency-miningoperatie met drie personen in 2017 naar een GPU-cloudprovider met een waarde van $23 miljard die de meest veeleisende AI-workloads ter wereld bedient. De opkomst van het bedrijf onthult zowel de infrastructuureisen van moderne AI als de architecturale beslissingen die hyperscalers moeilijk kunnen repliceren.
Van Ethereum-mining naar AI-infrastructuur
Het oorsprongsverhaal van CoreWeave begint in een kantoor in New Jersey waar oprichters Michael Intrator, Brian Venturo en Brannin McBee GPU-rigs assembleerden voor Ethereum-mining. De cryptocurrency-boom leerde hen cruciale lessen over GPU-economie, thermisch beheer en high-density implementaties die later essentieel zouden blijken voor AI-workloads. Toen Ethereum in 2022 overstapte naar proof-of-stake, waardoor de behoefte aan GPU-mining wegviel, pivoteerde CoreWeave naar cloud computing precies op het moment dat generatieve AI opkwam.
De timing bleek buitengewoon. ChatGPT lanceerde in november 2022 en veroorzaakte een ongekende vraag naar GPU-rekenkracht die hyperscalers niet konden bevredigen. CoreWeave's bestaande GPU-voorraad en inkooprelaties positioneerden het bedrijf om vraag te vangen die AWS, Azure en Google Cloud niet konden opvangen. NVIDIA, geconfronteerd met allocatiebeslissingen te midden van GPU-tekorten, stuurde voorraad naar CoreWeave in plaats van naar hyperscalers die concurrerende AI-chips ontwikkelden.³
NVIDIA's investering van $250 miljoen en voortdurende preferentiële allocatie creëerden een symbiotische relatie die beide bedrijven ten goede komt. CoreWeave vertegenwoordigt NVIDIA's grootste GPU-cloudklant die geen concurrerend silicium ontwikkelt, waardoor het partnerschap strategisch waardevol is buiten de financiële voorwaarden. De regeling stelde CoreWeave in staat GPU-voorraad veilig te stellen tijdens tekorten die zelfs Microsoft en Google lieten worstelen om allocatie.
De omzetgroei weerspiegelt de vraagtrajectorie: $16 miljoen in 2022 groeide naar $229 miljoen in 2023 en $1,92 miljard in 2024—een stijging van 737% in één jaar.⁴ De beursgang van maart 2025 haalde $1,5 miljard op bij een marktkapitalisatie van bijna $35 miljard, waarmee CoreWeave de eerste grote tech-IPO werd sinds de overspannen markt van 2021.
Het bare-metal voordeel
De technische architectuur van CoreWeave wijkt fundamenteel af van de aanpak van hyperscalers. Traditionele cloudproviders virtualiseren GPU-resources, waarbij hypervisorlagen worden toegevoegd die latentie introduceren en beschikbare rekencapaciteit verminderen. CoreWeave draait Kubernetes rechtstreeks op bare-metal servers, wat cloudachtige flexibiliteit biedt met dedicated hardwareprestaties.⁵
De CoreWeave Kubernetes Service (CKS) implementeert clusters zonder virtuele machines of hypervisors tussen workloads en GPU-hardware. NVIDIA BlueField Data Processing Units (DPU's) die aan elk knooppunt zijn gekoppeld, ontlasten netwerk- en beveiligingstaken, waardoor GPU's zich uitsluitend op berekeningen kunnen concentreren.⁶ De DPU-architectuur maakt geavanceerde beveiligingsfuncties mogelijk, waaronder aangepaste netwerkbeleiden, dedicated Virtual Private Clouds en privileged access controls zonder GPU-benutting op te offeren.
Netwerkarchitectuur blijkt even cruciaal voor gedistribueerde AI-training. CoreWeave bouwde zijn backbone op NVIDIA Quantum-2 InfiniBand-fabric met non-blocking, fat-tree topologie geoptimaliseerd voor collectieve operaties over duizenden GPU's.⁷ NVIDIA's Scalable Hierarchical Aggregation and Reduction Protocol (SHARP) versnelt verder de gradiëntsynchronisatie die de trainingscommunicatiepatronen domineert. Het netwerk verbindt betrouwbaar tienduizenden GPU's met capaciteit om op te schalen naar clustergroottes met zes cijfers.
Hyperscalers ervaren structurele wrijving bij pogingen tot vergelijkbare GPU-dichtheid. Legacy datacenterontwerpen, virtualisatiebelasting en netwerktopologieën geoptimaliseerd voor traditionele cloudworkloads creëren knelpunten die CoreWeave's doelgebouwde infrastructuur vermijdt. AWS en Azure kunnen H100's implementeren, maar het bereiken van equivalente time-to-train en inference-doorvoer vereist het overwinnen van architecturale beslissingen die jaren vóór de opkomst van generatieve AI werden genomen.
Datacenterstrategie voor het AI-tijdperk
CoreWeave exploiteert 32+ datacenters in Noord-Amerika en Europa, met meer dan 250.000 GPU's en honderden megawatt aan stroomcapaciteit.⁸ Het uitbreidingstempo versnelde gedurende 2025, waarbij twee Britse datacenters met H200 GPU's in januari operationeel werden en continentaal-Europese locaties in Noorwegen, Zweden en Spanje $2,2 miljard aan investeringstoezeggingen ontvingen.
De meeste CoreWeave-faciliteiten die in 2025 openen, beschikken over native vloeistofkoeling. In tegenstelling tot legacy-operators die kleine delen van bestaande faciliteiten aanpassen, ontwerpt CoreWeave complete datacenters rond vloeistofkoeling van fundering tot dak.⁹ De aanpak maakt ondersteuning mogelijk voor 130kW+ racks die nodig zijn voor next-generation GPU-implementaties—dichtheidsniveaus die luchtgekoelde faciliteiten niet kunnen bereiken, ongeacht retrofit-investeringen.
Strategische partnerschappen breiden het bereik van CoreWeave uit zonder kapitaaluitgaven voor elke locatie te vereisen. De Flexential-alliantie biedt high-density colocatiecapaciteit in extra markten.¹⁰ Core Scientific committeerde 200 megawatt aan infrastructuur via 12-jarige contracten met jaarlijkse betalingen van ongeveer $290 miljoen.¹¹ Deze regelingen versnellen de capaciteitsuitrol terwijl de kapitaalvereisten over partners worden gespreid.
De GB200 NVL72-implementatie in februari 2025 maakte CoreWeave de eerste cloudprovider die NVIDIA's Blackwell-architectuur commercieel aanbood.¹² Juli 2025 bracht nog een mijlpaal met de eerste commerciële implementatie van GB300 NVL72 (Blackwell Ultra) systemen, geleverd via Dell-servers.¹³ Vroege toegang tot next-generation hardware creëert competitieve grachten die sterker worden over opeenvolgende GPU-generaties.
Prijzen die hyperscaler-economie uitdagen
CoreWeave's prijsstructuur onderbiedt hyperscalers consequent met 30-60% voor equivalente GPU-configuraties.¹⁴ De H100 met InfiniBand-netwerking kost ongeveer $6,16 per GPU-uur bij CoreWeave, vergeleken met Azure's $6,98 en AWS's tarief na verlaging van ongeveer $3,90.¹⁵ Gereserveerde capaciteitstoezeggingen kunnen kortingen tot 60% onder on-demand tarieven opleveren.
De A100-vergelijking is nog opvallender: $2,39 per uur bij CoreWeave versus $3,40 bij Azure en $3,67 bij Google Cloud.¹⁶ Voor een trainingstaak van een 70-miljard-parametermodel dat 6,4 miljoen GPU-uren vereist, kost CoreWeave ongeveer $39 miljoen vergeleken met $45-48 miljoen bij AWS of Azure en $71 miljoen bij Google Cloud.
Prijseenvoud versterkt het voordeel. CoreWeave bundelt GPU, CPU, RAM en netwerking in uurtarieven per instance, wat voorspelbare facturering biedt voor capaciteitsplanning. Hyperscalers rekenen afzonderlijk voor compute, opslag, data-egress en hulpdiensten, wat complexe facturering creëert die kostenprojectie moeilijk maakt. CoreWeave's nul egress-kosten elimineren een significante kostencategorie voor AI-workloads die frequente datatransfers vereisen.
De hyperscalers behouden voordelen in de breedte van het service-ecosysteem. AWS SageMaker, Google Vertex AI en Azure's AI-platform bieden managed services, analytics-tools en voorgebouwde integraties die CoreWeave's infrastructuurgerichte aanbod mist. Organisaties die diepe integratie met bestaande cloud-ecosystemen vereisen, kunnen hyperscaler-premies gerechtvaardigd vinden door verminderde integratiecomplexiteit en operationele overhead.
Klantenconcentratie en diversificatie
CoreWeave's klantenconcentratie creëerde zowel kansen als kwetsbaarheid. Microsoft was goed voor 62% van de omzet in 2024 en bereikte 71% van de omzet in het tweede kwartaal van 2025—een buitengewone afhankelijkheid van één klant.¹⁷ De concentratie ontstond door Microsoft's dringende behoefte aan GPU-capaciteit om OpenAI-workloads te bedienen nadat het onverwachte succes van ChatGPT de bestaande infrastructuur overweldigde.
De OpenAI- en Meta-contracten veranderen de klantenmix fundamenteel. CEO Michael Intrator merkte op dat Microsoft minder dan de helft van de verwachte toekomstige gecommitteerde contractomzet zal vertegenwoordigen naarmate OpenAI, Meta en andere klanten hun gebruik opschalen.¹⁸ De diversificatie vermindert het risico van één klant terwijl wordt aangetoond dat CoreWeave's waardepropositie verder reikt dan de specifieke vereisten van Microsoft.
Kleinere AI-bedrijven waaronder Cohere, Mistral en Poolside vormen een aanvulling op de headlinecontracten.¹⁹ Deze klanten vertegenwoordigen de bredere AI-ontwikkelingsgemeenschap die CoreWeave's prijs- en prestatievoordelen aantrekt. Naarmate AI-modelontwikkeling zich verspreidt buiten een handvol frontier labs, kan dit middenmarktsegment net zo strategisch waardevol blijken als headline enterprise-contracten.
Sam Altman karakteriseerde de relatie duidelijk: "CoreWeave is een belangrijke toevoeging aan OpenAI's infrastructuurportfolio, als aanvulling op onze commerciële deals met Microsoft en Oracle, en onze joint venture met SoftBank voor Stargate."²⁰ Zelfs organisaties met hyperscaler-relaties vinden CoreWeave's gespecialiseerde GPU-cloud waardevol voor specifieke workloads.
Financiële realiteiten en marktzorgen
CoreWeave's groei gaat gepaard met aanzienlijke financiële complexiteit. Het bedrijf haalde meer dan $14,5 miljard op aan schuld en eigen vermogen via 12 financieringsrondes, waaronder een privéschuldfaciliteit van $7 miljard geleid door Blackstone en Magnetar in mei 2024.²¹ Het kapitaalintensieve model vereist continue investeringen in GPU-voorraad en datacentercapaciteit om de concurrentiepositie te behouden.
Nettoverliezen verbreedden naar $863 miljoen in 2024 van $594 miljoen in 2023, ondanks omzetgroei van 737%.²² Het verliestraject weerspiegelt agressieve capaciteitsuitbreiding in plaats van operationele inefficiëntie, maar investeerders onderzoeken nauwkeurig of groei uiteindelijk rendementen genereert die voldoende zijn om de opgebouwde schuld te bedienen. Rentelasten en afschrijvingen op GPU-activa verbruiken substantiële omzet voordat winstgevendheid wordt bereikt.
Marktzorgen richten zich op klantenconcentratie, concurrentiedynamiek en de houdbaarheid van de huidige vraagniveaus. Sommige analisten karakteriseren het bedrijfsmodel als een "GPU-schuldval" waarbij kapitaalvereisten continu uitbreiden zonder winstgevende schaal te bereiken.²³ NVIDIA's preferentiële allocatie zou theoretisch kunnen verschuiven naar andere partners, waardoor CoreWeave's aanbodsvoordeel ondermijnd wordt.
Het tegenargument concentreert zich op de vraag naar AI-infrastructuur die geen tekenen van vertraging vertoont. OpenAI, Anthropic, Google, Meta en tientallen andere organisaties blijven rekencapaciteit uitbreiden naarmate modelgroottes toenemen en inference-vraag groeit. CoreWeave's first-mover voordeel, technische architectuur en klantrelaties creëren barrières die nieuwe toetreders niet gemakkelijk kunnen repliceren. De infrastructuuropbouw vertegenwoordigt een weddenschap op AI's voortdurende expansie—een these die het huidige bewijs ondersteunt.
Concurrentiepositie in het GPU-cloudlandschap
De GPU-cloudmarkt segmenteert tussen hyperscalers (AWS, Azure, Google Cloud) en gespecialiseerde providers (CoreWeave, Lambda Labs, Together AI, Hyperbolic). CoreWeave positioneert zich aan het premium uiteinde van het gespecialiseerde segment, met enterprise-mogelijkheden en massale schaal terwijl de prijzen onder hyperscaler-tarieven blijven.
Lambda Labs biedt concurrerende H100-prijzen (ongeveer $2,99 per GPU-uur) maar o
[Inhoud afgekapt voor vertaling]