Le plan de centre de données de 50 milliards de dollars d'Anthropic : un laboratoire d'IA devient constructeur d'infrastructure
10 déc. 2025 Écrit par Blake Crosley
Anthropic a signé un partenariat de 50 milliards de dollars pour un centre de données avec Fluidstack, fournisseur neocloud basé au Royaume-Uni, le 12 novembre 2025, s'engageant à construire des installations au Texas et à New York qui seront opérationnelles courant 2026.[^1] Le projet crée environ 800 emplois permanents et 2 400 emplois dans la construction, marquant le premier effort majeur d'Anthropic pour construire une infrastructure sur mesure plutôt que de s'appuyer sur des fournisseurs cloud.[^2]
Cette annonce représente une pièce d'une stratégie d'infrastructure multi-cloud sans précédent. Anthropic maintient simultanément l'accès au Project Rainier d'AWS (500 000 puces Trainium2 évoluant vers 1 million), aux TPU de Google Cloud (jusqu'à 1 million de puces), et un nouvel engagement de 30 milliards de dollars avec Microsoft Azure accompagné de 15 milliards de dollars d'investissements de NVIDIA et Microsoft.[^3][^4][^5]
Portefeuille d'infrastructure d'Anthropic :
| Partenariat | Engagement | Capacité | Statut |
|---|---|---|---|
| Fluidstack | 50 Mds $ | Centres de données Texas + New York | En ligne 2026 |
| Microsoft Azure | 30 Mds $ + 15 Mds $ d'investissement | Grace Blackwell, Vera Rubin | Actif |
| AWS Project Rainier | Accès à l'infrastructure | 500K→1M puces Trainium2 | Actif |
| Google Cloud | Pluriannuel | Jusqu'à 1M puces TPU, 1+ GW | Actif |
| Total | 95 Mds $+ d'engagements | Multi-gigawatt | 2025-2026 |
Cette approche multi-cloud contraste fortement avec le projet Stargate d'OpenAI — une coentreprise unique de 500 milliards de dollars avec SoftBank, Oracle et MGX visant 10 gigawatts d'ici 2029.[^6] La stratégie distribuée d'Anthropic répartit l'accès au calcul entre plusieurs architectures (NVIDIA, Trainium, TPU) et fournisseurs.
Justification stratégique
L'investissement d'Anthropic dans l'infrastructure répond aux contraintes critiques auxquelles font face les laboratoires d'IA de pointe alors que les modèles évoluent vers l'intelligence artificielle générale.
La couverture multi-architecture
L'entraînement des modèles de pointe nécessite désormais des clusters de dizaines de milliers d'accélérateurs fonctionnant de concert.[^7] Plutôt que de miser sur une seule architecture, Anthropic a sécurisé l'accès à trois plateformes concurrentes :
Comparaison des accélérateurs :
| Architecture | Fournisseur | Points forts | Accès Anthropic |
|---|---|---|---|
| NVIDIA Grace Blackwell | Microsoft Azure | Performance d'entraînement maximale, écosystème | Engagement de 30 Mds $ |
| AWS Trainium2 | Amazon | Efficacité des coûts, silicium personnalisé | 500K→1M puces |
| Google TPU v5 | Google Cloud | Efficacité d'inférence, rapport prix-performance | Jusqu'à 1M puces |
Cette diversification garantit qu'aucun fournisseur unique ne peut contraindre la capacité d'entraînement d'Anthropic. Si l'allocation NVIDIA se resserre, Anthropic déplace les charges de travail vers Trainium ou TPU. Si AWS privilégie d'autres clients, Azure fournit une capacité de secours.
Exigences d'échelle pour Claude
Claude Opus 4.5, lancé en novembre 2025, représente le modèle le plus performant d'Anthropic.[^8] L'entraînement des générations suivantes nécessite des allocations de calcul encore plus importantes. Le Project Rainier démontre l'échelle : le cluster s'étend sur trois États (Pennsylvanie, Indiana, Mississippi), la plupart des puces étant utilisées pour l'inférence tandis que les runs d'entraînement s'exécutent en soirée lorsque la demande d'inférence diminue.[^9]
Anthropic aura accès à plus d'un gigawatt de capacité mise en ligne en 2026 via Google Cloud uniquement.[^10] Combiné aux installations Fluidstack et à l'infrastructure AWS, la capacité totale approche l'échelle multi-gigawatt — une puissance de calcul auparavant disponible uniquement pour les plus grands hyperscalers.
Arbitrage économique
Les prix de location de GPU cloud ont diminué de 8 $/heure (H100, début 2024) à 2,85-3,50 $/heure (fin 2025), mais l'entraînement continu accumule toujours des millions en coûts.[^11] L'infrastructure propriétaire convertit les dépenses d'exploitation variables en investissement en capital avec des caractéristiques économiques différentes.
Économie de l'entraînement à grande échelle :
| Métrique | Location cloud | Infrastructure propriétaire |
|---|---|---|
| 10 000 GPU-mois | 20-25 M$ | 15-18 M$ (amorti) |
| Flexibilité de capacité | Instantanée | Délai de 12-24 mois |
| Choix d'architecture | Dépendant du fournisseur | Auto-déterminé |
| Risque d'actif échoué | Aucun | Significatif |
Le partenariat Fluidstack offre un juste milieu : des installations construites sur mesure pour les charges de travail d'Anthropic sans le risque de propriété totale.
Structure du partenariat
Le partenariat Fluidstack représente un pari calculé sur l'agilité neocloud plutôt que sur l'échelle des hyperscalers.
Pourquoi Fluidstack
Fluidstack, fondé en 2017, a démontré ses capacités plus tôt en 2025 en étant nommé partenaire principal pour un projet d'IA de 1 gigawatt soutenu par le gouvernement français représentant plus de 11 milliards de dollars de dépenses.[^12] Le PDG d'Anthropic, Dario Amodei, a sélectionné Fluidstack pour sa « capacité à agir avec une agilité exceptionnelle, permettant une livraison rapide de gigawatts de puissance ».[^13]
Le modèle neocloud de Fluidstack diffère des approches des hyperscalers : - Rapidité : Des mois plutôt que des années pour la livraison des installations - Personnalisation : Infrastructure optimisée pour les schémas de charge de travail spécifiques d'Anthropic - Économie : Pas de marge d'hyperscaler, répercussion directe des coûts - Flexibilité : Conditions contractuelles adaptées aux exigences des laboratoires d'IA
Stratégie géographique
Les emplacements au Texas et à New York servent des objectifs stratégiques distincts :
Installation du Texas : - Coûts d'énergie plus bas (0,04-0,06 $/kWh contre 0,12 $+ ailleurs) - Environnement réglementaire favorable au développement de centres de données - Proximité de l'infrastructure Stargate existante à Abilene - Objectif principal : Runs d'entraînement à grande échelle
Installation de New York : - Connectivité premium vers les clients du secteur financier - Accès à faible latence aux centres de population du Nord-Est - Proximité des clients entreprise pour les services de l'API Claude - Objectif principal : Service d'inférence, déploiement entreprise
Investissement dans le leadership
Anthropic a embauché Rahul Patil comme CTO en octobre 2025, spécifiquement pour superviser le calcul, l'infrastructure, l'inférence et les opérations d'ingénierie.[^14] Le parcours de Patil en tant que CTO de Stripe signale l'engagement d'Anthropic envers l'infrastructure comme compétence centrale plutôt que fonction externalisée.
Comparaison avec Stargate : deux modèles pour l'infrastructure IA
Le contraste entre la stratégie distribuée d'Anthropic et l'approche concentrée Stargate d'OpenAI révèle des différences philosophiques fondamentales.
Comparaison des stratégies d'infrastructure :
| Dimension | Anthropic | OpenAI Stargate |
|---|---|---|
| Engagement total | 95 Mds $+ (distribué) | 500 Mds $ (concentré) |
| Calendrier | 2025-2026 | Jusqu'en 2029 |
| Architecture | Multi-fournisseurs (NVIDIA, Trainium, TPU) | NVIDIA principalement |
| Propriété | Modèle de partenariat | Coentreprise (40 % chacun SoftBank, OpenAI) |
| Répartition géographique | Multiples installations, 3+ régions cloud | 6+ sites, objectif 10 GW |
| Profil de risque | Plus bas (diversifié) | Plus élevé (concentré) |
Le projet Stargate d'OpenAI a sécurisé près de 7 gigawatts de capacité planifiée sur six sites avec plus de 400 milliards de dollars d'investissements engagés — les mettant sur la bonne voie pour atteindre leur objectif complet de 10 gigawatts et 500 milliards de dollars en avance sur le calendrier.[^15] Cependant, des rapports indiquent que le projet a connu des retards face à des défis d'exécution.[^16]
L'approche d'Anthropic échange l'échelle contre la résilience. Si Stargate rencontre des retards de construction, des difficultés de financement ou des changements technologiques, OpenAI fait face à un risque de concentration. Les engagements distribués d'Anthropic fournissent une capacité de secours auprès de multiples fournisseurs.
Implications pour l'industrie
La stratégie multi-fournisseurs d'Anthropic crée des effets d'entraînement dans l'écosystème de l'infrastructure IA.
Changement des dynamiques concurrentielles
Le paysage des laboratoires d'IA de pointe présente désormais deux philosophies d'infrastructure distinctes : - Concentrée : OpenAI (Stargate), Meta (600 Mds $ de construction interne) - Distribuée : Anthropic (multi-cloud + propriétaire)
Les laboratoires plus petits font face à une pression pour choisir : concourir pour la capacité des hyperscalers contre des rivaux mieux financés, ou accepter un désavantage infrastructurel. Les exigences en capital pour une infrastructure compétitive ont dépassé les capacités de levée de fonds indépendante.
Positionnement des fournisseurs cloud
Les hyperscalers se font concurrence pour la location d'ancrage des laboratoires d'IA tout en construisant une capacité qui pourrait dépasser la demande si les laboratoires construisent leur propre infrastructure. Cette dynamique crée de l'incertitude dans la planification de la capacité :
- AWS : Maintient Anthropic via le Project Rainier mais perd l'exclusivité
- Google Cloud : Sécurise un engagement TPU pluriannuel, valide la stratégie de silicium personnalisé
- Microsoft Azure : Gagne la présence d'Anthropic via un engagement de 30 Mds $+, se diversifie au-delà d'OpenAI
- Oracle : Exclu d'Anthropic, redouble d'efforts sur le partenariat Stargate
Validation du neocloud
La sélection de Fluidstack plutôt que des hyperscalers établis valide le modèle neocloud pour l'infrastructure IA de pointe. D'autres neoclouds (CoreWeave, Lambda, Together) gagnent en crédibilité pour des partenariats similaires. Le secteur neocloud passe de source de capacité alternative à partenaire d'infrastructure stratégique.
Défis d'exécution
Convertir 95 milliards de dollars d'engagements en infrastructure opérationnelle implique un risque d'exécution substantiel sur plusieurs dimensions.
Formation de capital
Le financement divulgué d'Anthropic (~8 Mds $ jusqu'en 2024) est bien en deçà des 95 Mds $+ d'engagements. L'écart de capital nécessite : - Un investissement en capital-risque continu (Google aurait contribué 1 Md $ supplémentaire) - Une croissance des revenus de l'API Claude et des produits entreprise - Des contributions de partenaires stratégiques (10 Mds $ de NVIDIA, 5 Mds $ de Microsoft) - Un financement par dette potentiel une fois les installations opérationnelles
L'engagement représente une aspiration pluriannuelle nécessitant un accès soutenu au capital. Les conditions économiques affectant l'investissement technologique pourraient contraindre la disponibilité du financement.
Coordination multi-fournisseurs
Opérer simultanément sur AWS, Google Cloud, Azure et Fluidstack crée une complexité de coordination : - Différentes API, outils et pratiques opérationnelles - Optimisation du placement des charges de travail entre fournisseurs - Sécurité et conformité dans plusieurs environnements - Attribution et optimisation des coûts entre contrats
Les avantages de la stratégie multi-cloud (résilience, levier de négociation) s'accompagnent d'une surcharge opérationnelle que les approches concentrées évitent.
Exigences de support professionnel
Les 550 ingénieurs terrain d'Introl soutiennent les organisations qui implémentent une infrastructure IA à grande échelle auprès de multiples fournisseurs et architectures.[^17] L'entreprise s'est classée #14 au Inc. 5000 2025 avec une croissance de 9 594 % sur trois ans, reflétant la demande d'expertise en déploiement multi-cloud.[^18]
Les déploiements sur 257 sites mondiaux nécessitent des pratiques opérationnelles cohérentes quel que soit le fournisseur sous-jacent.[^19] Introl gère des déploiements atteignant 100 000 GPU avec plus de 64 000 kilomètres d'infrastructure de réseau de fibre optique.[^20]
Cadre décisionnel pour les planificateurs d'infrastructure
La stratégie d'Anthropic offre des leçons pour les organisations évaluant les approches d'infrastructure IA.
Sélection de stratégie d'infrastructure :
| Votre profil | Approche recommandée | Justification |
|---|---|---|
| <10 M$ de dépenses GPU annuelles | Location hyperscaler | Échelle insuffisante pour une infrastructure dédiée |
| 10-100 M$ de dépenses annuelles | Multi-cloud avec capacité engagée | Équilibre flexibilité et tarification |
| >100 M$ de dépenses annuelles | Hybride propriétaire + location | Optimisation économique à grande échelle |
| Développement IA de pointe | Portefeuille multi-fournisseurs | Assurance de capacité, optionalité d'architecture |
Signaux à surveiller
Surveillez les indicateurs montrant que le modèle distribué d'Anthropic surpasse l'approche concentrée de Stargate (ou vice versa) : - Métriques d'efficacité d'entraînement relatives des versions Claude vs. GPT - Calendriers de déploiement des installations atteignant ou manquant les objectifs - Tendances du coût par token dans la tarification des API - Comparaisons de performance des architectures (NVIDIA vs. Trainium vs. TPU)
Points clés à retenir
Pour les opérateurs d'infrastructure IA : - Les stratégies multi-fournisseurs réduisent le risque de dépendance mais augmentent la complexité opérationnelle - Les partenariats neocloud offrent des avantages de rapidité et de personnalisation par rapport aux hyperscalers - L'infrastructure est devenue
[Contenu tronqué pour la traduction]