Le plan de centre de données de 50 milliards de dollars d'Anthropic : un laboratoire d'IA devient constructeur d'infrastructure

Anthropic rejoint OpenAI dans la construction d'infrastructures propriétaires, redéfinissant les dynamiques entre laboratoires d'IA et hyperscalers.

Le plan de centre de données de 50 milliards de dollars d'Anthropic : un laboratoire d'IA devient constructeur d'infrastructure

Le plan de centre de données de 50 milliards de dollars d'Anthropic : un laboratoire d'IA devient constructeur d'infrastructure

10 déc. 2025 Écrit par Blake Crosley

Anthropic a signé un partenariat de 50 milliards de dollars pour un centre de données avec Fluidstack, fournisseur neocloud basé au Royaume-Uni, le 12 novembre 2025, s'engageant à construire des installations au Texas et à New York qui seront opérationnelles courant 2026.[^1] Le projet crée environ 800 emplois permanents et 2 400 emplois dans la construction, marquant le premier effort majeur d'Anthropic pour construire une infrastructure sur mesure plutôt que de s'appuyer sur des fournisseurs cloud.[^2]

Cette annonce représente une pièce d'une stratégie d'infrastructure multi-cloud sans précédent. Anthropic maintient simultanément l'accès au Project Rainier d'AWS (500 000 puces Trainium2 évoluant vers 1 million), aux TPU de Google Cloud (jusqu'à 1 million de puces), et un nouvel engagement de 30 milliards de dollars avec Microsoft Azure accompagné de 15 milliards de dollars d'investissements de NVIDIA et Microsoft.[^3][^4][^5]

Portefeuille d'infrastructure d'Anthropic :

Partenariat Engagement Capacité Statut
Fluidstack 50 Mds $ Centres de données Texas + New York En ligne 2026
Microsoft Azure 30 Mds $ + 15 Mds $ d'investissement Grace Blackwell, Vera Rubin Actif
AWS Project Rainier Accès à l'infrastructure 500K→1M puces Trainium2 Actif
Google Cloud Pluriannuel Jusqu'à 1M puces TPU, 1+ GW Actif
Total 95 Mds $+ d'engagements Multi-gigawatt 2025-2026

Cette approche multi-cloud contraste fortement avec le projet Stargate d'OpenAI — une coentreprise unique de 500 milliards de dollars avec SoftBank, Oracle et MGX visant 10 gigawatts d'ici 2029.[^6] La stratégie distribuée d'Anthropic répartit l'accès au calcul entre plusieurs architectures (NVIDIA, Trainium, TPU) et fournisseurs.

Justification stratégique

L'investissement d'Anthropic dans l'infrastructure répond aux contraintes critiques auxquelles font face les laboratoires d'IA de pointe alors que les modèles évoluent vers l'intelligence artificielle générale.

La couverture multi-architecture

L'entraînement des modèles de pointe nécessite désormais des clusters de dizaines de milliers d'accélérateurs fonctionnant de concert.[^7] Plutôt que de miser sur une seule architecture, Anthropic a sécurisé l'accès à trois plateformes concurrentes :

Comparaison des accélérateurs :

Architecture Fournisseur Points forts Accès Anthropic
NVIDIA Grace Blackwell Microsoft Azure Performance d'entraînement maximale, écosystème Engagement de 30 Mds $
AWS Trainium2 Amazon Efficacité des coûts, silicium personnalisé 500K→1M puces
Google TPU v5 Google Cloud Efficacité d'inférence, rapport prix-performance Jusqu'à 1M puces

Cette diversification garantit qu'aucun fournisseur unique ne peut contraindre la capacité d'entraînement d'Anthropic. Si l'allocation NVIDIA se resserre, Anthropic déplace les charges de travail vers Trainium ou TPU. Si AWS privilégie d'autres clients, Azure fournit une capacité de secours.

Exigences d'échelle pour Claude

Claude Opus 4.5, lancé en novembre 2025, représente le modèle le plus performant d'Anthropic.[^8] L'entraînement des générations suivantes nécessite des allocations de calcul encore plus importantes. Le Project Rainier démontre l'échelle : le cluster s'étend sur trois États (Pennsylvanie, Indiana, Mississippi), la plupart des puces étant utilisées pour l'inférence tandis que les runs d'entraînement s'exécutent en soirée lorsque la demande d'inférence diminue.[^9]

Anthropic aura accès à plus d'un gigawatt de capacité mise en ligne en 2026 via Google Cloud uniquement.[^10] Combiné aux installations Fluidstack et à l'infrastructure AWS, la capacité totale approche l'échelle multi-gigawatt — une puissance de calcul auparavant disponible uniquement pour les plus grands hyperscalers.

Arbitrage économique

Les prix de location de GPU cloud ont diminué de 8 $/heure (H100, début 2024) à 2,85-3,50 $/heure (fin 2025), mais l'entraînement continu accumule toujours des millions en coûts.[^11] L'infrastructure propriétaire convertit les dépenses d'exploitation variables en investissement en capital avec des caractéristiques économiques différentes.

Économie de l'entraînement à grande échelle :

Métrique Location cloud Infrastructure propriétaire
10 000 GPU-mois 20-25 M$ 15-18 M$ (amorti)
Flexibilité de capacité Instantanée Délai de 12-24 mois
Choix d'architecture Dépendant du fournisseur Auto-déterminé
Risque d'actif échoué Aucun Significatif

Le partenariat Fluidstack offre un juste milieu : des installations construites sur mesure pour les charges de travail d'Anthropic sans le risque de propriété totale.

Structure du partenariat

Le partenariat Fluidstack représente un pari calculé sur l'agilité neocloud plutôt que sur l'échelle des hyperscalers.

Pourquoi Fluidstack

Fluidstack, fondé en 2017, a démontré ses capacités plus tôt en 2025 en étant nommé partenaire principal pour un projet d'IA de 1 gigawatt soutenu par le gouvernement français représentant plus de 11 milliards de dollars de dépenses.[^12] Le PDG d'Anthropic, Dario Amodei, a sélectionné Fluidstack pour sa « capacité à agir avec une agilité exceptionnelle, permettant une livraison rapide de gigawatts de puissance ».[^13]

Le modèle neocloud de Fluidstack diffère des approches des hyperscalers : - Rapidité : Des mois plutôt que des années pour la livraison des installations - Personnalisation : Infrastructure optimisée pour les schémas de charge de travail spécifiques d'Anthropic - Économie : Pas de marge d'hyperscaler, répercussion directe des coûts - Flexibilité : Conditions contractuelles adaptées aux exigences des laboratoires d'IA

Stratégie géographique

Les emplacements au Texas et à New York servent des objectifs stratégiques distincts :

Installation du Texas : - Coûts d'énergie plus bas (0,04-0,06 $/kWh contre 0,12 $+ ailleurs) - Environnement réglementaire favorable au développement de centres de données - Proximité de l'infrastructure Stargate existante à Abilene - Objectif principal : Runs d'entraînement à grande échelle

Installation de New York : - Connectivité premium vers les clients du secteur financier - Accès à faible latence aux centres de population du Nord-Est - Proximité des clients entreprise pour les services de l'API Claude - Objectif principal : Service d'inférence, déploiement entreprise

Investissement dans le leadership

Anthropic a embauché Rahul Patil comme CTO en octobre 2025, spécifiquement pour superviser le calcul, l'infrastructure, l'inférence et les opérations d'ingénierie.[^14] Le parcours de Patil en tant que CTO de Stripe signale l'engagement d'Anthropic envers l'infrastructure comme compétence centrale plutôt que fonction externalisée.

Comparaison avec Stargate : deux modèles pour l'infrastructure IA

Le contraste entre la stratégie distribuée d'Anthropic et l'approche concentrée Stargate d'OpenAI révèle des différences philosophiques fondamentales.

Comparaison des stratégies d'infrastructure :

Dimension Anthropic OpenAI Stargate
Engagement total 95 Mds $+ (distribué) 500 Mds $ (concentré)
Calendrier 2025-2026 Jusqu'en 2029
Architecture Multi-fournisseurs (NVIDIA, Trainium, TPU) NVIDIA principalement
Propriété Modèle de partenariat Coentreprise (40 % chacun SoftBank, OpenAI)
Répartition géographique Multiples installations, 3+ régions cloud 6+ sites, objectif 10 GW
Profil de risque Plus bas (diversifié) Plus élevé (concentré)

Le projet Stargate d'OpenAI a sécurisé près de 7 gigawatts de capacité planifiée sur six sites avec plus de 400 milliards de dollars d'investissements engagés — les mettant sur la bonne voie pour atteindre leur objectif complet de 10 gigawatts et 500 milliards de dollars en avance sur le calendrier.[^15] Cependant, des rapports indiquent que le projet a connu des retards face à des défis d'exécution.[^16]

L'approche d'Anthropic échange l'échelle contre la résilience. Si Stargate rencontre des retards de construction, des difficultés de financement ou des changements technologiques, OpenAI fait face à un risque de concentration. Les engagements distribués d'Anthropic fournissent une capacité de secours auprès de multiples fournisseurs.

Implications pour l'industrie

La stratégie multi-fournisseurs d'Anthropic crée des effets d'entraînement dans l'écosystème de l'infrastructure IA.

Changement des dynamiques concurrentielles

Le paysage des laboratoires d'IA de pointe présente désormais deux philosophies d'infrastructure distinctes : - Concentrée : OpenAI (Stargate), Meta (600 Mds $ de construction interne) - Distribuée : Anthropic (multi-cloud + propriétaire)

Les laboratoires plus petits font face à une pression pour choisir : concourir pour la capacité des hyperscalers contre des rivaux mieux financés, ou accepter un désavantage infrastructurel. Les exigences en capital pour une infrastructure compétitive ont dépassé les capacités de levée de fonds indépendante.

Positionnement des fournisseurs cloud

Les hyperscalers se font concurrence pour la location d'ancrage des laboratoires d'IA tout en construisant une capacité qui pourrait dépasser la demande si les laboratoires construisent leur propre infrastructure. Cette dynamique crée de l'incertitude dans la planification de la capacité :

  • AWS : Maintient Anthropic via le Project Rainier mais perd l'exclusivité
  • Google Cloud : Sécurise un engagement TPU pluriannuel, valide la stratégie de silicium personnalisé
  • Microsoft Azure : Gagne la présence d'Anthropic via un engagement de 30 Mds $+, se diversifie au-delà d'OpenAI
  • Oracle : Exclu d'Anthropic, redouble d'efforts sur le partenariat Stargate

Validation du neocloud

La sélection de Fluidstack plutôt que des hyperscalers établis valide le modèle neocloud pour l'infrastructure IA de pointe. D'autres neoclouds (CoreWeave, Lambda, Together) gagnent en crédibilité pour des partenariats similaires. Le secteur neocloud passe de source de capacité alternative à partenaire d'infrastructure stratégique.

Défis d'exécution

Convertir 95 milliards de dollars d'engagements en infrastructure opérationnelle implique un risque d'exécution substantiel sur plusieurs dimensions.

Formation de capital

Le financement divulgué d'Anthropic (~8 Mds $ jusqu'en 2024) est bien en deçà des 95 Mds $+ d'engagements. L'écart de capital nécessite : - Un investissement en capital-risque continu (Google aurait contribué 1 Md $ supplémentaire) - Une croissance des revenus de l'API Claude et des produits entreprise - Des contributions de partenaires stratégiques (10 Mds $ de NVIDIA, 5 Mds $ de Microsoft) - Un financement par dette potentiel une fois les installations opérationnelles

L'engagement représente une aspiration pluriannuelle nécessitant un accès soutenu au capital. Les conditions économiques affectant l'investissement technologique pourraient contraindre la disponibilité du financement.

Coordination multi-fournisseurs

Opérer simultanément sur AWS, Google Cloud, Azure et Fluidstack crée une complexité de coordination : - Différentes API, outils et pratiques opérationnelles - Optimisation du placement des charges de travail entre fournisseurs - Sécurité et conformité dans plusieurs environnements - Attribution et optimisation des coûts entre contrats

Les avantages de la stratégie multi-cloud (résilience, levier de négociation) s'accompagnent d'une surcharge opérationnelle que les approches concentrées évitent.

Exigences de support professionnel

Les 550 ingénieurs terrain d'Introl soutiennent les organisations qui implémentent une infrastructure IA à grande échelle auprès de multiples fournisseurs et architectures.[^17] L'entreprise s'est classée #14 au Inc. 5000 2025 avec une croissance de 9 594 % sur trois ans, reflétant la demande d'expertise en déploiement multi-cloud.[^18]

Les déploiements sur 257 sites mondiaux nécessitent des pratiques opérationnelles cohérentes quel que soit le fournisseur sous-jacent.[^19] Introl gère des déploiements atteignant 100 000 GPU avec plus de 64 000 kilomètres d'infrastructure de réseau de fibre optique.[^20]

Cadre décisionnel pour les planificateurs d'infrastructure

La stratégie d'Anthropic offre des leçons pour les organisations évaluant les approches d'infrastructure IA.

Sélection de stratégie d'infrastructure :

Votre profil Approche recommandée Justification
<10 M$ de dépenses GPU annuelles Location hyperscaler Échelle insuffisante pour une infrastructure dédiée
10-100 M$ de dépenses annuelles Multi-cloud avec capacité engagée Équilibre flexibilité et tarification
>100 M$ de dépenses annuelles Hybride propriétaire + location Optimisation économique à grande échelle
Développement IA de pointe Portefeuille multi-fournisseurs Assurance de capacité, optionalité d'architecture

Signaux à surveiller

Surveillez les indicateurs montrant que le modèle distribué d'Anthropic surpasse l'approche concentrée de Stargate (ou vice versa) : - Métriques d'efficacité d'entraînement relatives des versions Claude vs. GPT - Calendriers de déploiement des installations atteignant ou manquant les objectifs - Tendances du coût par token dans la tarification des API - Comparaisons de performance des architectures (NVIDIA vs. Trainium vs. TPU)

Points clés à retenir

Pour les opérateurs d'infrastructure IA : - Les stratégies multi-fournisseurs réduisent le risque de dépendance mais augmentent la complexité opérationnelle - Les partenariats neocloud offrent des avantages de rapidité et de personnalisation par rapport aux hyperscalers - L'infrastructure est devenue

[Contenu tronqué pour la traduction]

Demander un devis_

Parlez-nous de votre projet et nous vous répondrons sous 72 heures.

> TRANSMISSION_TERMINÉE

Demande reçue_

Merci pour votre demande. Notre équipe examinera votre requête et vous répondra sous 72 heures.

EN ATTENTE DE TRAITEMENT