CoreWeave en profondeur : Comment un ancien mineur de crypto est devenu le cloud essentiel de l'IA

OpenAI a choisi CoreWeave plutôt qu'AWS pour 22,4 milliards de dollars d'infrastructure. Découvrez comment cet ancien mineur de crypto est devenu le cloud GPU qui alimente le développement de l'IA de pointe.

CoreWeave en profondeur : Comment un ancien mineur de crypto est devenu le cloud essentiel de l'IA

CoreWeave en profondeur : Comment un ancien mineur de crypto est devenu le cloud essentiel de l'IA

Mis à jour le 8 décembre 2025

Mise à jour de décembre 2025 : CoreWeave a réalisé une introduction en bourse de 1,5 milliard de dollars en mars 2025—la première IPO technologique majeure depuis 2021. Le chiffre d'affaires a augmenté de 737 % pour atteindre 1,92 milliard de dollars en 2024. OpenAI a signé pour une valeur totale de contrat de 22,4 milliards de dollars, Meta a conclu un accord de 14,2 milliards de dollars. La flotte dépasse désormais 250 000 GPU répartis dans plus de 32 centres de données. Premier à déployer commercialement les GB200 NVL72 (février 2025) et GB300 NVL72 (juillet 2025). L'engagement d'expansion européenne atteint 3,5 milliards de dollars. La concentration des clients s'améliore alors que Microsoft passe sous les 50 % du chiffre d'affaires futur.

OpenAI aurait pu choisir AWS, Azure ou Google Cloud pour sa prochaine phase d'expansion d'infrastructure. Au lieu de cela, l'entreprise a signé un contrat de 12 milliards de dollars avec CoreWeave en mars 2025, suivi d'un accord supplémentaire de 10,5 milliards de dollars en septembre, portant le total à 22,4 milliards de dollars sur cinq ans.¹ Meta a suivi avec un engagement d'infrastructure de 14,2 milliards de dollars jusqu'en 2031.² CoreWeave est passé d'une opération de minage de cryptomonnaie à trois personnes en 2017 à un fournisseur de cloud GPU de 23 milliards de dollars servant les charges de travail d'IA les plus exigeantes de la planète. L'ascension de l'entreprise révèle à la fois les exigences infrastructurelles de l'IA moderne et les décisions architecturales que les hyperscalers peinent à reproduire.

Du minage d'Ethereum à l'infrastructure IA

L'histoire de CoreWeave commence dans un bureau du New Jersey où les fondateurs Michael Intrator, Brian Venturo et Brannin McBee assemblaient des machines GPU pour le minage d'Ethereum. Le boom des cryptomonnaies leur a enseigné des leçons cruciales sur l'économie des GPU, la gestion thermique et les déploiements haute densité qui s'avéreraient plus tard essentiels pour les charges de travail d'IA. Lorsqu'Ethereum est passé au proof-of-stake en 2022, éliminant le besoin de minage GPU, CoreWeave a pivoté vers le cloud computing juste au moment où l'IA générative émergeait.

Le timing s'est avéré extraordinaire. ChatGPT a été lancé en novembre 2022, déclenchant une demande sans précédent de calcul GPU que les hyperscalers ne pouvaient satisfaire. L'inventaire GPU existant de CoreWeave et ses relations d'approvisionnement ont positionné l'entreprise pour capturer la demande qu'AWS, Azure et Google Cloud ne pouvaient pas satisfaire. NVIDIA, confronté à des décisions d'allocation en pleine pénurie de GPU, a dirigé l'approvisionnement vers CoreWeave plutôt que vers les hyperscalers développant des puces IA concurrentes.³

L'investissement de 250 millions de dollars de NVIDIA et l'allocation préférentielle continue ont créé une relation symbiotique bénéfique pour les deux entreprises. CoreWeave représente le plus grand client cloud GPU de NVIDIA ne développant pas de silicium concurrent, rendant le partenariat stratégiquement précieux au-delà des termes financiers. Cet arrangement a permis à CoreWeave de sécuriser l'approvisionnement en GPU pendant des pénuries qui ont laissé même Microsoft et Google se battre pour l'allocation.

La croissance du chiffre d'affaires reflète la trajectoire de la demande : 16 millions de dollars en 2022 ont atteint 229 millions de dollars en 2023 et 1,92 milliard de dollars en 2024—une augmentation de 737 % en une seule année.⁴ L'introduction en bourse de mars 2025 a levé 1,5 milliard de dollars pour une capitalisation boursière approchant 35 milliards de dollars, faisant de CoreWeave la première IPO technologique majeure depuis le marché effervescent de 2021.

L'avantage du bare-metal

L'architecture technique de CoreWeave diverge fondamentalement des approches des hyperscalers. Les fournisseurs cloud traditionnels virtualisent les ressources GPU, ajoutant des couches d'hyperviseur qui introduisent de la latence et réduisent la capacité de calcul disponible. CoreWeave exécute Kubernetes directement sur des serveurs bare-metal, offrant une flexibilité cloud avec des performances matérielles dédiées.⁵

Le CoreWeave Kubernetes Service (CKS) déploie des clusters sans machines virtuelles ni hyperviseurs entre les charges de travail et le matériel GPU. Les NVIDIA BlueField Data Processing Units (DPU) attachés à chaque nœud déchargent les tâches réseau et sécurité, libérant les GPU pour se concentrer exclusivement sur le calcul.⁶ L'architecture DPU permet des fonctionnalités de sécurité avancées incluant des politiques réseau personnalisées, des Virtual Private Clouds dédiés et des contrôles d'accès privilégiés sans sacrifier l'utilisation des GPU.

L'architecture réseau s'avère tout aussi critique pour l'entraînement distribué de l'IA. CoreWeave a construit son backbone sur le tissu NVIDIA Quantum-2 InfiniBand avec une topologie fat-tree non bloquante optimisée pour les opérations collectives sur des milliers de GPU.⁷ Le protocole NVIDIA Scalable Hierarchical Aggregation and Reduction Protocol (SHARP) accélère davantage la synchronisation des gradients qui domine les schémas de communication d'entraînement. Le réseau connecte de manière fiable des dizaines de milliers de GPU avec une capacité d'évolution vers des clusters à six chiffres.

Les hyperscalers font face à des frictions structurelles lorsqu'ils tentent une densité GPU similaire. Les conceptions de centres de données héritées, la taxe de virtualisation et les topologies réseau optimisées pour les charges de travail cloud traditionnelles créent des goulots d'étranglement que l'infrastructure construite sur mesure de CoreWeave évite. AWS et Azure peuvent déployer des H100, mais atteindre un temps d'entraînement et un débit d'inférence équivalents nécessite de surmonter des décisions architecturales prises des années avant l'émergence de l'IA générative.

Stratégie de centres de données pour l'ère de l'IA

CoreWeave exploite plus de 32 centres de données en Amérique du Nord et en Europe, hébergeant plus de 250 000 GPU avec des centaines de mégawatts de capacité électrique.⁸ Le rythme d'expansion s'est accéléré tout au long de 2025, avec deux centres de données britanniques équipés de GPU H200 devenant opérationnels en janvier et des sites européens continentaux en Norvège, Suède et Espagne recevant des engagements d'investissement de 2,2 milliards de dollars.

La plupart des installations CoreWeave ouvrant en 2025 disposent d'une capacité native de refroidissement liquide. Contrairement aux opérateurs historiques qui modernisent de petites portions d'installations existantes, CoreWeave conçoit des centres de données entiers autour du refroidissement liquide, des fondations au toit.⁹ Cette approche permet de supporter des racks de plus de 130 kW nécessaires pour les déploiements GPU de nouvelle génération—des niveaux de densité que les installations refroidies par air ne peuvent atteindre quel que soit l'investissement de rénovation.

Des partenariats stratégiques étendent la portée de CoreWeave sans nécessiter de dépenses en capital pour chaque emplacement. L'alliance Flexential fournit une capacité de colocation haute densité sur des marchés supplémentaires.¹⁰ Core Scientific a engagé 200 mégawatts d'infrastructure via des contrats de 12 ans avec des paiements annuels d'environ 290 millions de dollars.¹¹ Ces arrangements accélèrent le déploiement de capacité tout en répartissant les besoins en capital entre les partenaires.

Le déploiement du GB200 NVL72 en février 2025 a fait de CoreWeave le premier fournisseur cloud offrant commercialement l'architecture Blackwell de NVIDIA.¹² Juillet 2025 a apporté une autre étape avec le premier déploiement commercial des systèmes GB300 NVL72 (Blackwell Ultra), livrés via des serveurs Dell.¹³ L'accès anticipé au matériel de nouvelle génération crée des avantages concurrentiels qui se renforcent au fil des générations successives de GPU.

Une tarification qui défie l'économie des hyperscalers

La structure tarifaire de CoreWeave est systématiquement inférieure de 30 à 60 % à celle des hyperscalers pour des configurations GPU équivalentes.¹⁴ Le H100 avec réseau InfiniBand coûte environ 6,16 $ par heure-GPU sur CoreWeave, contre 6,98 $ sur Azure et environ 3,90 $ sur AWS après réduction.¹⁵ Les engagements de capacité réservée peuvent étendre les remises jusqu'à 60 % sur les tarifs à la demande.

La comparaison A100 s'avère encore plus frappante : 2,39 $ par heure sur CoreWeave contre 3,40 $ sur Azure et 3,67 $ sur Google Cloud.¹⁶ Pour un travail d'entraînement de modèle à 70 milliards de paramètres nécessitant 6,4 millions d'heures-GPU, CoreWeave coûte environ 39 millions de dollars contre 45-48 millions de dollars sur AWS ou Azure et 71 millions de dollars sur Google Cloud.

La simplicité tarifaire accentue l'avantage. CoreWeave regroupe GPU, CPU, RAM et réseau dans des tarifs horaires par instance, offrant une facturation prévisible pour la planification de capacité. Les hyperscalers facturent séparément le calcul, le stockage, le transfert de données sortantes et les services auxiliaires, créant une facturation complexe qui rend la projection des coûts difficile. L'absence de frais de sortie de données de CoreWeave élimine une catégorie de dépenses significative pour les charges de travail d'IA nécessitant des transferts de données fréquents.

Les hyperscalers conservent des avantages dans l'étendue de l'écosystème de services. AWS SageMaker, Google Vertex AI et la plateforme IA d'Azure fournissent des services gérés, des outils d'analyse et des intégrations pré-construites que l'offre centrée sur l'infrastructure de CoreWeave ne propose pas. Les organisations nécessitant une intégration profonde avec les écosystèmes cloud existants peuvent trouver les primes des hyperscalers justifiées par la réduction de la complexité d'intégration et des frais opérationnels.

Concentration des clients et diversification

La concentration des clients de CoreWeave a créé à la fois une opportunité et une vulnérabilité. Microsoft représentait 62 % du chiffre d'affaires 2024 et a atteint 71 % du chiffre d'affaires du deuxième trimestre 2025—une dépendance extraordinaire envers un seul client.¹⁷ La concentration a émergé du besoin urgent de Microsoft en capacité GPU pour servir les charges de travail OpenAI après que le succès inattendu de ChatGPT a submergé l'infrastructure existante.

Les contrats OpenAI et Meta changent fondamentalement le mix client. Le PDG Michael Intrator a noté que Microsoft représentera moins de la moitié du chiffre d'affaires futur attendu des contrats engagés à mesure qu'OpenAI, Meta et d'autres clients augmentent leur utilisation.¹⁸ La diversification réduit le risque de client unique tout en démontrant que la proposition de valeur de CoreWeave s'étend au-delà des exigences spécifiques de Microsoft.

Des entreprises d'IA plus petites incluant Cohere, Mistral et Poolside complètent les contrats phares.¹⁹ Ces clients représentent la communauté plus large de développement IA que les avantages de prix et de performance de CoreWeave attirent. À mesure que le développement de modèles d'IA se répand au-delà d'une poignée de laboratoires de pointe, ce segment de marché intermédiaire pourrait s'avérer aussi stratégiquement précieux que les contrats d'entreprise majeurs.

Sam Altman a caractérisé la relation clairement : « CoreWeave est un ajout important au portefeuille d'infrastructure d'OpenAI, complétant nos accords commerciaux avec Microsoft et Oracle, et notre joint-venture avec SoftBank sur Stargate. »²⁰ Même les organisations ayant des relations avec des hyperscalers trouvent le cloud GPU spécialisé de CoreWeave précieux pour des charges de travail spécifiques.

Réalités financières et préoccupations du marché

La croissance de CoreWeave s'accompagne d'une complexité financière substantielle. L'entreprise a levé plus de 14,5 milliards de dollars en dette et capitaux propres à travers 12 tours de financement, incluant une facilité de dette privée de 7 milliards de dollars menée par Blackstone et Magnetar en mai 2024.²¹ Le modèle à forte intensité capitalistique nécessite un investissement continu dans l'inventaire GPU et la capacité des centres de données pour maintenir un positionnement concurrentiel.

Les pertes nettes se sont creusées à 863 millions de dollars en 2024 contre 594 millions de dollars en 2023, malgré une croissance du chiffre d'affaires de 737 %.²² La trajectoire des pertes reflète une expansion agressive de capacité plutôt qu'une inefficacité opérationnelle, mais les investisseurs scrutent si la croissance génère finalement des rendements suffisants pour rembourser la dette accumulée. Les charges d'intérêts et l'amortissement des actifs GPU consomment un chiffre d'affaires substantiel avant d'atteindre la rentabilité.

Les préoccupations du marché se concentrent sur la concentration des clients, les dynamiques concurrentielles et la durabilité des niveaux de demande actuels. Certains analystes caractérisent le modèle commercial comme un « piège de dette GPU » où les besoins en capital s'étendent continuellement sans atteindre une échelle rentable.²³ L'allocation préférentielle de NVIDIA pourrait théoriquement se déplacer vers d'autres partenaires, sapant l'avantage d'approvisionnement de CoreWeave.

Le contre-argument se concentre sur la demande d'infrastructure IA qui ne montre aucun signe de ralentissement. OpenAI, Anthropic, Google, Meta et des dizaines d'autres organisations continuent d'étendre leur capacité de calcul à mesure que les tailles de modèles augmentent et que la demande d'inférence croît. L'avantage de premier arrivant de CoreWeave, son architecture technique et ses relations clients créent des barrières que les nouveaux entrants ne peuvent pas facilement reproduire. La construction d'infrastructure représente un pari sur l'expansion continue de l'IA—une thèse que les preuves actuelles soutiennent.

Positionnement concurrentiel dans le paysage du cloud GPU

Le marché du cloud GPU se segmente entre les hyperscalers (AWS, Azure, Google Cloud) et les fournisseurs spécialisés (CoreWeave, Lambda Labs, Together AI, Hyperbolic). CoreWeave se positionne au haut de gamme du segment spécialisé, offrant des capacités entreprise et une échelle massive tout en maintenant des prix inférieurs aux tarifs des hyperscalers.

Lambda Labs offre des prix H100 compétitifs (environ 2,99 $ par heure-GPU) mais

Demander un devis_

Parlez-nous de votre projet et nous vous répondrons sous 72 heures.

> TRANSMISSION_TERMINÉE

Demande reçue_

Merci pour votre demande. Notre équipe examinera votre requête et vous répondra sous 72 heures.

EN ATTENTE DE TRAITEMENT