CoreWeave im Detail: Wie ein ehemaliger Krypto-Miner zur unverzichtbaren Cloud der KI wurde
Aktualisiert am 8. Dezember 2025
Update Dezember 2025: CoreWeave schloss im März 2025 einen Börsengang über 1,5 Milliarden Dollar ab – der erste große Tech-IPO seit 2021. Der Umsatz wuchs 2024 um 737% auf 1,92 Milliarden Dollar. OpenAI unterzeichnete Verträge im Gesamtwert von 22,4 Milliarden Dollar, Meta schloss einen Deal über 14,2 Milliarden Dollar ab. Die Flotte umfasst mittlerweile über 250.000 GPUs in mehr als 32 Rechenzentren. Als erstes Unternehmen wurden sowohl GB200 NVL72 (Februar 2025) als auch GB300 NVL72 (Juli 2025) kommerziell eingesetzt. Die Investitionszusage für die europäische Expansion erreicht 3,5 Milliarden Dollar. Die Kundenkonzentration verbessert sich, da Microsoft unter 50% des zukünftigen Umsatzes fällt.
OpenAI hätte AWS, Azure oder Google Cloud für die nächste Phase seiner Infrastrukturerweiterung wählen können. Stattdessen unterzeichnete das Unternehmen im März 2025 einen Vertrag über 12 Milliarden Dollar mit CoreWeave, gefolgt von einer zusätzlichen Vereinbarung über 10,5 Milliarden Dollar im September, was insgesamt 22,4 Milliarden Dollar über fünf Jahre ergibt.¹ Meta folgte mit einer Infrastrukturzusage von 14,2 Milliarden Dollar bis 2031.² CoreWeave wandelte sich von einem Drei-Personen-Kryptowährungs-Mining-Betrieb im Jahr 2017 zu einem 23 Milliarden Dollar schweren GPU-Cloud-Anbieter, der die anspruchsvollsten KI-Workloads der Welt bedient. Der Aufstieg des Unternehmens offenbart sowohl die Infrastrukturanforderungen moderner KI als auch die architektonischen Entscheidungen, die Hyperscaler nur schwer replizieren können.
Vom Ethereum-Mining zur KI-Infrastruktur
CoreWeaves Entstehungsgeschichte beginnt in einem Büro in New Jersey, wo die Gründer Michael Intrator, Brian Venturo und Brannin McBee GPU-Rigs für Ethereum-Mining zusammenbauten. Der Kryptowährungsboom lehrte sie entscheidende Lektionen über GPU-Wirtschaftlichkeit, Wärmemanagement und Hochdichte-Deployments, die sich später als essenziell für KI-Workloads erweisen sollten. Als Ethereum 2022 auf Proof-of-Stake umstellte und damit den Bedarf an GPU-Mining eliminierte, schwenkte CoreWeave auf Cloud-Computing um – genau als generative KI aufkam.
Das Timing erwies sich als außergewöhnlich. ChatGPT startete im November 2022 und löste eine beispiellose Nachfrage nach GPU-Compute aus, die die Hyperscaler nicht befriedigen konnten. CoreWeaves bestehender GPU-Bestand und Beschaffungsbeziehungen positionierten das Unternehmen, um Nachfrage zu bedienen, die AWS, Azure und Google Cloud nicht erfüllen konnten. NVIDIA, das angesichts von GPU-Engpässen Allokationsentscheidungen treffen musste, lenkte Lieferungen eher zu CoreWeave als zu Hyperscalern, die konkurrierende KI-Chips entwickelten.³
NVIDIAs Investition von 250 Millionen Dollar und die fortlaufende bevorzugte Allokation schufen eine symbiotische Beziehung, die beiden Unternehmen nutzt. CoreWeave ist NVIDIAs größter GPU-Cloud-Kunde, der keine konkurrierenden Chips entwickelt, was die Partnerschaft über finanzielle Aspekte hinaus strategisch wertvoll macht. Diese Vereinbarung ermöglichte es CoreWeave, GPU-Lieferungen während Engpässen zu sichern, bei denen selbst Microsoft und Google um Zuteilungen kämpften.
Das Umsatzwachstum spiegelt die Nachfrageentwicklung wider: 16 Millionen Dollar im Jahr 2022 wuchsen auf 229 Millionen Dollar im Jahr 2023 und 1,92 Milliarden Dollar im Jahr 2024 – ein Anstieg von 737% in einem einzigen Jahr.⁴ Der Börsengang im März 2025 brachte 1,5 Milliarden Dollar bei einer Marktkapitalisierung von annähernd 35 Milliarden Dollar ein und machte CoreWeave zum ersten großen Tech-IPO seit dem überhitzten Markt von 2021.
Der Bare-Metal-Vorteil
CoreWeaves technische Architektur unterscheidet sich grundlegend von den Ansätzen der Hyperscaler. Traditionelle Cloud-Anbieter virtualisieren GPU-Ressourcen und fügen Hypervisor-Schichten hinzu, die Latenz einführen und die verfügbare Rechenkapazität reduzieren. CoreWeave betreibt Kubernetes direkt auf Bare-Metal-Servern und bietet cloud-ähnliche Flexibilität bei dedizierter Hardware-Performance.⁵
Der CoreWeave Kubernetes Service (CKS) deployt Cluster ohne virtuelle Maschinen oder Hypervisoren zwischen Workloads und GPU-Hardware. An jeden Knoten angeschlossene NVIDIA BlueField Data Processing Units (DPUs) lagern Netzwerk- und Sicherheitsaufgaben aus, sodass sich GPUs ausschließlich auf die Berechnung konzentrieren können.⁶ Die DPU-Architektur ermöglicht erweiterte Sicherheitsfunktionen einschließlich benutzerdefinierter Netzwerkrichtlinien, dedizierter Virtual Private Clouds und privilegierter Zugriffskontrollen, ohne die GPU-Auslastung zu beeinträchtigen.
Die Netzwerkarchitektur erweist sich als ebenso kritisch für verteiltes KI-Training. CoreWeave baute sein Backbone auf NVIDIA Quantum-2 InfiniBand-Fabric mit nicht-blockierender Fat-Tree-Topologie auf, die für kollektive Operationen über Tausende von GPUs hinweg optimiert ist.⁷ NVIDIAs Scalable Hierarchical Aggregation and Reduction Protocol (SHARP) beschleunigt zusätzlich die Gradientensynchronisation, die die Trainingskommunikationsmuster dominiert. Das Netzwerk verbindet zuverlässig Zehntausende von GPUs mit der Kapazität, auf sechsstellige Clustergrößen zu skalieren.
Hyperscaler sehen sich strukturellen Hindernissen gegenüber, wenn sie versuchen, eine ähnliche GPU-Dichte zu erreichen. Legacy-Rechenzentrumsdesigns, Virtualisierungs-Overhead und Netzwerktopologien, die für traditionelle Cloud-Workloads optimiert wurden, schaffen Engpässe, die CoreWeaves zweckgebaute Infrastruktur vermeidet. AWS und Azure können H100s deployen, aber eine vergleichbare Time-to-Train und Inferenz-Durchsatz zu erreichen, erfordert die Überwindung architektonischer Entscheidungen, die Jahre vor dem Aufkommen generativer KI getroffen wurden.
Rechenzentrumsstrategie für das KI-Zeitalter
CoreWeave betreibt mehr als 32 Rechenzentren in Nordamerika und Europa mit über 250.000 GPUs und hunderten Megawatt Stromkapazität.⁸ Das Expansionstempo beschleunigte sich 2025, wobei zwei britische Rechenzentren mit H200-GPUs im Januar in Betrieb gingen und kontinentaleuropäische Standorte in Norwegen, Schweden und Spanien Investitionszusagen von 2,2 Milliarden Dollar erhielten.
Die meisten CoreWeave-Einrichtungen, die 2025 eröffnen, verfügen über native Flüssigkühlungskapazität. Anders als Legacy-Betreiber, die kleine Teile bestehender Einrichtungen nachrüsten, entwirft CoreWeave ganze Rechenzentren von Fundament bis Dach um Flüssigkühlung herum.⁹ Der Ansatz ermöglicht die Unterstützung von 130kW+-Racks, die für GPU-Deployments der nächsten Generation erforderlich sind – Dichtegrade, die luftgekühlte Einrichtungen unabhängig von Nachrüstungsinvestitionen nicht erreichen können.
Strategische Partnerschaften erweitern CoreWeaves Reichweite, ohne Kapitalausgaben für jeden Standort zu erfordern. Die Flexential-Allianz bietet Hochdichte-Colocation-Kapazität in zusätzlichen Märkten.¹⁰ Core Scientific verpflichtete sich zu 200 Megawatt Infrastruktur durch 12-Jahres-Verträge mit jährlichen Zahlungen von etwa 290 Millionen Dollar.¹¹ Diese Vereinbarungen beschleunigen den Kapazitätsausbau und verteilen den Kapitalbedarf auf Partner.
Das GB200 NVL72-Deployment im Februar 2025 machte CoreWeave zum ersten Cloud-Anbieter, der NVIDIAs Blackwell-Architektur kommerziell anbot.¹² Im Juli 2025 folgte ein weiterer Meilenstein mit dem ersten kommerziellen Deployment von GB300 NVL72 (Blackwell Ultra)-Systemen, geliefert über Dell-Server.¹³ Der frühe Zugang zu Hardware der nächsten Generation schafft Wettbewerbsvorteile, die sich über aufeinanderfolgende GPU-Generationen verstärken.
Preise, die die Hyperscaler-Wirtschaftlichkeit herausfordern
CoreWeaves Preisstruktur unterbietet Hyperscaler konstant um 30-60% bei vergleichbaren GPU-Konfigurationen.¹⁴ Die H100 mit InfiniBand-Networking kostet bei CoreWeave etwa 6,16 Dollar pro GPU-Stunde, verglichen mit 6,98 Dollar bei Azure und etwa 3,90 Dollar bei AWS nach Preissenkung.¹⁵ Reservierte Kapazitätszusagen können Rabatte auf bis zu 60% unter den On-Demand-Tarifen ausdehnen.
Der A100-Vergleich ist noch deutlicher: 2,39 Dollar pro Stunde bei CoreWeave gegenüber 3,40 Dollar bei Azure und 3,67 Dollar bei Google Cloud.¹⁶ Für einen Trainingsjob eines 70-Milliarden-Parameter-Modells, der 6,4 Millionen GPU-Stunden erfordert, kostet CoreWeave etwa 39 Millionen Dollar im Vergleich zu 45-48 Millionen Dollar bei AWS oder Azure und 71 Millionen Dollar bei Google Cloud.
Preisliche Einfachheit verstärkt den Vorteil. CoreWeave bündelt GPU, CPU, RAM und Networking in stündlichen Pro-Instanz-Tarifen und ermöglicht vorhersehbare Abrechnung für die Kapazitätsplanung. Hyperscaler berechnen separat für Compute, Storage, Datenausgang und Hilfsdienste, was komplexe Abrechnungen erzeugt, die Kostenprognosen erschweren. CoreWeaves null Egress-Gebühren eliminieren eine bedeutende Ausgabenkategorie für KI-Workloads, die häufige Datentransfers erfordern.
Die Hyperscaler behalten Vorteile in der Breite des Service-Ökosystems. AWS SageMaker, Google Vertex AI und Azures KI-Plattform bieten Managed Services, Analysetools und vorgefertigte Integrationen, die CoreWeaves infrastrukturfokussiertes Angebot nicht hat. Organisationen, die tiefe Integration mit bestehenden Cloud-Ökosystemen benötigen, finden möglicherweise Hyperscaler-Aufpreise durch reduzierte Integrationskomplexität und Betriebsaufwand gerechtfertigt.
Kundenkonzentration und Diversifizierung
CoreWeaves Kundenkonzentration schuf sowohl Chancen als auch Verwundbarkeit. Microsoft machte 62% des Umsatzes 2024 aus und erreichte 71% des Umsatzes im zweiten Quartal 2025 – eine außergewöhnliche Abhängigkeit von einem einzigen Kunden.¹⁷ Die Konzentration entstand aus Microsofts dringendem Bedarf an GPU-Kapazität, um OpenAI-Workloads zu bedienen, nachdem ChatGPTs unerwarteter Erfolg die bestehende Infrastruktur überlastete.
Die OpenAI- und Meta-Verträge verändern den Kundenmix grundlegend. CEO Michael Intrator merkte an, dass Microsoft weniger als die Hälfte des erwarteten zukünftig vertraglich gebundenen Umsatzes ausmachen wird, da OpenAI, Meta und andere Kunden ihre Nutzung skalieren.¹⁸ Die Diversifizierung reduziert das Einzelkundenrisiko und demonstriert gleichzeitig, dass CoreWeaves Wertversprechen über Microsofts spezifische Anforderungen hinausgeht.
Kleinere KI-Unternehmen wie Cohere, Mistral und Poolside ergänzen die Schlagzeilenverträge.¹⁹ Diese Kunden repräsentieren die breitere KI-Entwickler-Community, die CoreWeaves Preis- und Performance-Vorteile anziehen. Da sich die KI-Modellentwicklung über eine Handvoll Frontier-Labs hinaus ausbreitet, könnte sich dieses Mittelmarktsegment als ebenso strategisch wertvoll erweisen wie die großen Unternehmensverträge.
Sam Altman charakterisierte die Beziehung klar: „CoreWeave ist eine wichtige Ergänzung zu OpenAIs Infrastrukturportfolio und ergänzt unsere kommerziellen Deals mit Microsoft und Oracle sowie unser Joint Venture mit SoftBank für Stargate."²⁰ Selbst Organisationen mit Hyperscaler-Beziehungen finden CoreWeaves spezialisierte GPU-Cloud für bestimmte Workloads wertvoll.
Finanzielle Realitäten und Marktbedenken
CoreWeaves Wachstum geht mit erheblicher finanzieller Komplexität einher. Das Unternehmen sammelte über 14,5 Milliarden Dollar an Fremd- und Eigenkapital in 12 Finanzierungsrunden ein, darunter eine 7-Milliarden-Dollar-Private-Debt-Fazilität unter Führung von Blackstone und Magnetar im Mai 2024.²¹ Das kapitalintensive Modell erfordert kontinuierliche Investitionen in GPU-Bestand und Rechenzentrumskapazität, um die Wettbewerbsposition zu halten.
Die Nettoverluste weiteten sich 2024 auf 863 Millionen Dollar aus, von 594 Millionen Dollar im Jahr 2023, trotz eines Umsatzwachstums von 737%.²² Die Verlustentwicklung spiegelt aggressive Kapazitätserweiterung wider, nicht betriebliche Ineffizienz, aber Investoren prüfen genau, ob das Wachstum letztendlich Renditen generiert, die ausreichen, um die angesammelten Schulden zu bedienen. Zinsaufwendungen und Abschreibungen auf GPU-Assets verbrauchen erhebliche Einnahmen, bevor die Rentabilität erreicht wird.
Marktbedenken konzentrieren sich auf Kundenkonzentration, Wettbewerbsdynamik und die Nachhaltigkeit der aktuellen Nachfrageniveaus. Einige Analysten charakterisieren das Geschäftsmodell als „GPU-Schuldenfalle", bei der die Kapitalanforderungen kontinuierlich expandieren, ohne profitables Niveau zu erreichen.²³ NVIDIAs bevorzugte Allokation könnte theoretisch zu anderen Partnern wechseln und CoreWeaves Liefervorteil untergraben.
Das Gegenargument konzentriert sich auf die Nachfrage nach KI-Infrastruktur, die keine Anzeichen einer Verlangsamung zeigt. OpenAI, Anthropic, Google, Meta und Dutzende anderer Organisationen erweitern weiterhin ihre Rechenkapazität, da Modellgrößen zunehmen und die Inferenznachfrage wächst. CoreWeaves First-Mover-Vorteil, technische Architektur und Kundenbeziehungen schaffen Barrieren, die neue Marktteilnehmer nicht leicht replizieren können. Der Infrastrukturausbau stellt eine Wette auf die fortgesetzte Expansion der KI dar – eine These, die aktuelle Evidenz unterstützt.
Wettbewerbspositionierung im GPU-Cloud-Markt
Der GPU-Cloud-Markt segmentiert sich zwischen Hyperscalern (AWS, Azure, Google Cloud) und spezialisierten Anbietern (CoreWeave, Lambda Labs, Together AI, Hyperbolic). CoreWeave positioniert sich am Premium-Ende des spezialisierten Segments und bietet Enterprise-Fähigkeiten und massive Skalierung bei Preisen unterhalb der Hyperscaler-Tarife.
Lambda Labs bietet wettbewerbsfähige H100-Preise (etwa 2,99 Dollar pro GPU-Stunde), aber