Anthropic's datacenterplan van $50 miljard: AI-lab wordt infrastructuurbouwer
10 dec 2025 Geschreven door Blake Crosley
Anthropic tekende op 12 november 2025 een datacenterpartnerschap van $50 miljard met de Britse neocloud-provider Fluidstack, met de toezegging om faciliteiten in Texas en New York te bouwen die in de loop van 2026 operationeel worden.[^1] Het project creëert ongeveer 800 permanente banen en 2.400 bouwbanen, en markeert Anthropic's eerste grote inspanning om eigen infrastructuur te bouwen in plaats van te vertrouwen op cloudproviders.[^2]
De aankondiging vertegenwoordigt één onderdeel van een ongekende multi-cloud infrastructuurstrategie. Anthropic behoudt tegelijkertijd toegang tot AWS Project Rainier (500.000 Trainium2-chips opschalend naar 1 miljoen), Google Cloud TPU's (tot 1 miljoen chips), en een nieuwe Microsoft Azure-toezegging van $30 miljard met $15 miljard aan investeringen van NVIDIA en Microsoft.[^3][^4][^5]
Anthropic's infrastructuurportfolio:
| Partnerschap | Toezegging | Capaciteit | Status |
|---|---|---|---|
| Fluidstack | $50 mld | Texas + New York datacenters | Online 2026 |
| Microsoft Azure | $30 mld + $15 mld investering | Grace Blackwell, Vera Rubin | Actief |
| AWS Project Rainier | Infrastructuurtoegang | 500K→1M Trainium2-chips | Actief |
| Google Cloud | Meerjarig | Tot 1M TPU-chips, 1+ GW | Actief |
| Totaal | $95+ mld toezeggingen | Multi-gigawatt | 2025-2026 |
Deze multi-cloud aanpak staat in schril contrast met OpenAI's Stargate-project—een enkele joint venture van $500 miljard met SoftBank, Oracle en MGX gericht op 10 gigawatt tegen 2029.[^6] Anthropic's gedistribueerde strategie spreidt computertoegang over architecturen (NVIDIA, Trainium, TPU) en providers.
Strategische rationale
Anthropic's infrastructuurinvestering pakt kritieke beperkingen aan waarmee frontier AI-labs worden geconfronteerd naarmate modellen opschalen richting kunstmatige algemene intelligentie.
De multi-architectuur hedge
Het trainen van frontier-modellen vereist nu clusters van tienduizenden accelerators die samen opereren.[^7] In plaats van te wedden op één enkele architectuur, heeft Anthropic toegang verzekerd tot drie concurrerende platforms:
Acceleratorvergelijking:
| Architectuur | Provider | Sterke punten | Anthropic-toegang |
|---|---|---|---|
| NVIDIA Grace Blackwell | Microsoft Azure | Piektrainingsprestaties, ecosysteem | $30 mld toezegging |
| AWS Trainium2 | Amazon | Kostenefficiëntie, custom silicon | 500K→1M chips |
| Google TPU v5 | Google Cloud | Inferentie-efficiëntie, prijs-prestatie | Tot 1M chips |
Deze diversificatie zorgt ervoor dat geen enkele leverancier Anthropic's trainingscapaciteit kan beperken. Als NVIDIA-allocatie krapper wordt, verschuift Anthropic workloads naar Trainium of TPU. Als AWS andere klanten prioriteit geeft, biedt Azure terugvalcapaciteit.
Schaalvereisten voor Claude
Claude Opus 4.5, uitgebracht in november 2025, vertegenwoordigt Anthropic's meest capabele model.[^8] Het trainen van volgende generaties vereist nog grotere computerallocaties. Project Rainier demonstreert de schaal: het cluster strekt zich uit over drie staten (Pennsylvania, Indiana, Mississippi), waarbij de meeste chips worden gebruikt voor inferentie en trainingsruns worden uitgevoerd tijdens avonduren wanneer de inferentievraag daalt.[^9]
Anthropic krijgt toegang tot meer dan één gigawatt aan capaciteit die in 2026 online komt via Google Cloud alleen.[^10] Gecombineerd met Fluidstack-faciliteiten en AWS-infrastructuur nadert de totale capaciteit multi-gigawatt schaal—rekenkracht die voorheen alleen beschikbaar was voor de grootste hyperscalers.
Economische arbitrage
Cloud GPU-huurprijzen zijn gedaald van $8/uur (H100, begin 2024) naar $2,85-3,50/uur (eind 2025), maar continue training accumuleert nog steeds miljoenen aan kosten.[^11] Eigen infrastructuur converteert variabele operationele kosten naar kapitaalinvesteringen met andere economische kenmerken.
Trainingseconomie op schaal:
| Metriek | Cloud huur | Eigen infrastructuur |
|---|---|---|
| 10.000 GPU-maanden | $20-25M | $15-18M (geamortiseerd) |
| Capaciteitsflexibiliteit | Direct | 12-24 maanden doorlooptijd |
| Architectuurkeuze | Providerafhankelijk | Zelfbepaald |
| Stranded asset risico | Geen | Significant |
Het Fluidstack-partnerschap biedt een middenweg: faciliteiten op maat gebouwd voor Anthropic's workloads zonder volledig eigendomsrisico.
Partnerschapsstructuur
Het Fluidstack-partnerschap vertegenwoordigt een berekende gok op neocloud-wendbaarheid boven hyperscaler-schaal.
Waarom Fluidstack
Fluidstack, opgericht in 2017, demonstreerde zijn capaciteiten eerder in 2025 toen het werd aangewezen als primaire partner voor een 1-gigawatt AI-project gesteund door de Franse overheid, goed voor meer dan $11 miljard aan uitgaven.[^12] Anthropic CEO Dario Amodei selecteerde Fluidstack vanwege zijn "vermogen om met uitzonderlijke wendbaarheid te bewegen, waardoor snelle levering van gigawatts aan vermogen mogelijk wordt."[^13]
Fluidstack's neocloud-model verschilt van hyperscaler-benaderingen: - Snelheid: Maanden in plaats van jaren voor faciliteitoplevering - Maatwerk: Infrastructuur geoptimaliseerd voor Anthropic's specifieke workloadpatronen - Economie: Geen hyperscaler-marge, directe kostendoorberekening - Flexibiliteit: Contractvoorwaarden afgestemd op AI-lab vereisten
Geografische strategie
De locaties in Texas en New York dienen verschillende strategische doelen:
Texas-faciliteit: - Lagere stroomkosten ($0,04-0,06/kWh vs. $0,12+ elders) - Gunstige regelgeving voor datacenterontwikkeling - Nabijheid van bestaande Stargate-infrastructuur in Abilene - Primaire focus: Grootschalige trainingsruns
New York-faciliteit: - Premium connectiviteit naar klanten in de financiële sector - Lage latentie toegang tot bevolkingscentra in het noordoosten - Nabijheid van enterprise-klanten voor Claude API-diensten - Primaire focus: Inferentie-serving, enterprise-deployment
Leiderschapsinvestering
Anthropic nam Rahul Patil aan als CTO in oktober 2025, specifiek om toezicht te houden op compute, infrastructuur, inferentie en engineering operations.[^14] Patil's achtergrond als Stripe CTO signaleert Anthropic's commitment aan infrastructuur als kerncompetentie in plaats van uitbestede functie.
Stargate-vergelijking: Twee modellen voor AI-infrastructuur
Het contrast tussen Anthropic's gedistribueerde strategie en OpenAI's geconcentreerde Stargate-aanpak onthult fundamentele filosofische verschillen.
Vergelijking infrastructuurstrategie:
| Dimensie | Anthropic | OpenAI Stargate |
|---|---|---|
| Totale toezegging | $95+ mld (gedistribueerd) | $500 mld (geconcentreerd) |
| Tijdlijn | 2025-2026 | Tot 2029 |
| Architectuur | Multi-vendor (NVIDIA, Trainium, TPU) | NVIDIA-primair |
| Eigendom | Partnerschapsmodel | Joint venture (40% elk SoftBank, OpenAI) |
| Geografische spreiding | Meerdere faciliteiten, 3+ cloud-regio's | 6+ locaties, 10 GW doel |
| Risicoprofiel | Lager (gediversifieerd) | Hoger (geconcentreerd) |
OpenAI's Stargate heeft bijna 7 gigawatt aan geplande capaciteit veiliggesteld over zes locaties met meer dan $400 miljard aan toegezegde investeringen—waarmee ze op koers liggen voor hun volledige 10-gigawatt, $500 miljard doel eerder dan gepland.[^15] Er zijn echter berichten dat het project vertraging heeft opgelopen te midden van uitvoeringsuitdagingen.[^16]
Anthropic's aanpak ruilt schaal in voor weerbaarheid. Als Stargate bouwvertragingen, financieringsuitdagingen of technologische verschuivingen tegenkomt, loopt OpenAI concentratierisico. Anthropic's gedistribueerde toezeggingen bieden terugvalcapaciteit over meerdere providers.
Implicaties voor de industrie
Anthropic's multi-provider strategie creëert rimpeleffecten door het AI-infrastructuur ecosysteem.
Competitieve dynamiek verschuift
Het frontier AI-lab landschap kent nu twee onderscheiden infrastructuurfilosofieën: - Geconcentreerd: OpenAI (Stargate), Meta ($600 mld interne uitbouw) - Gedistribueerd: Anthropic (multi-cloud + eigen)
Kleinere labs staan onder druk om te kiezen: concurreren om hyperscaler-capaciteit tegen beter gefinancierde rivalen, of infrastructuurnadeel accepteren. De kapitaalvereisten voor competitieve infrastructuur zijn geëscaleerd tot voorbij onafhankelijke fondsenwervingscapaciteit.
Positionering cloudproviders
Hyperscalers concurreren om AI-lab ankerklantschap terwijl ze capaciteit bouwen die de vraag kan overschrijden als labs eigen infrastructuur bouwen. De dynamiek creëert onzekerheid in capaciteitsplanning:
- AWS: Behoudt Anthropic via Project Rainier maar verliest exclusiviteit
- Google Cloud: Verzekert meerjarige TPU-toezegging, valideert custom silicon-strategie
- Microsoft Azure: Krijgt Anthropic-aanwezigheid via $30+ mld toezegging, diversifieert voorbij OpenAI
- Oracle: Uitgesloten van Anthropic, verdubbelt inzet op Stargate-partnerschap
Neocloud-validatie
Fluidstack's selectie boven gevestigde hyperscalers valideert het neocloud-model voor frontier AI-infrastructuur. Andere neoclouds (CoreWeave, Lambda, Together) winnen aan geloofwaardigheid voor soortgelijke partnerschappen. De neocloud-sector evolueert van alternatieve capaciteitsbron naar strategische infrastructuurpartner.
Uitvoeringsuitdagingen
Het omzetten van $95 miljard aan toezeggingen naar operationele infrastructuur brengt substantieel uitvoeringsrisico met zich mee over meerdere dimensies.
Kapitaalvorming
Anthropic's bekendgemaakte financiering (~$8 mld tot en met 2024) komt ver tekort voor $95+ mld aan toezeggingen. Het kapitaalgat vereist: - Voortdurende venture-investeringen (Google heeft naar verluidt $1 mld extra bijgedragen) - Omzetgroei van Claude API en enterprise-producten - Strategische partnerbijdragen (NVIDIA's $10 mld, Microsoft's $5 mld) - Mogelijke schuldfinanciering zodra faciliteiten operationeel worden
De toezegging vertegenwoordigt een meerjarige ambitie die aanhoudende kapitaaltoegang vereist. Economische omstandigheden die technologie-investeringen beïnvloeden kunnen de beschikbaarheid van financiering beperken.
Multi-provider coördinatie
Gelijktijdig opereren over AWS, Google Cloud, Azure en Fluidstack creëert coördinatiecomplexiteit: - Verschillende API's, tooling en operationele praktijken - Workload placement optimalisatie over providers - Beveiliging en compliance over meerdere omgevingen - Kostentoewijzing en optimalisatie over contracten
De voordelen van de multi-cloud strategie (weerbaarheid, onderhandelingsvoordeel) komen met operationele overhead die geconcentreerde benaderingen vermijden.
Professionele ondersteuningsvereisten
Introl's 550 field engineers ondersteunen organisaties die grootschalige AI-infrastructuur implementeren over meerdere providers en architecturen.[^17] Het bedrijf stond op #14 in de 2025 Inc. 5000 met 9.594% driejarige groei, wat de vraag naar multi-cloud deployment expertise weerspiegelt.[^18]
Deployments over 257 wereldwijde locaties vereisen consistente operationele praktijken ongeacht de onderliggende provider.[^19] Introl beheert deployments tot 100.000 GPU's met meer dan 40.000 mijl aan glasvezelnetwerkinfrastructuur.[^20]
Beslissingskader voor infrastructuurplanners
Anthropic's strategie biedt lessen voor organisaties die AI-infrastructuurbenaderingen evalueren.
Selectie infrastructuurstrategie:
| Uw profiel | Aanbevolen aanpak | Rationale |
|---|---|---|
| <$10M jaarlijkse GPU-uitgaven | Hyperscaler huur | Onvoldoende schaal voor dedicated infrastructuur |
| $10-100M jaarlijkse uitgaven | Multi-cloud met vastgelegde capaciteit | Balans tussen flexibiliteit en prijsstelling |
| >$100M jaarlijkse uitgaven | Eigen + huur hybride | Economische optimalisatie op schaal |
| Frontier AI-ontwikkeling | Multi-provider portfolio | Capaciteitszekerheid, architectuuroptionaliteit |
Signalen om te monitoren
Let op indicatoren dat Anthropic's gedistribueerde model beter presteert dan Stargate's geconcentreerde aanpak (of vice versa): - Relatieve trainingsefficiëntiemetrieken van Claude vs. GPT releases - Faciliteit deployment-tijdlijnen die doelen halen of missen - Cost-per-token trends in API-prijsstelling - Architectuurprestatievergelijkingen (NVIDIA vs. Trainium vs. TPU)
Belangrijkste conclusies
Voor AI-infrastructuuroperators: - Multi-provider strategieën verminderen afhankelijkheidsrisico maar verhogen operationele complexiteit - Neocloud-partnerschappen bieden snelheids- en maatwerk voordelen boven hyperscalers - Infrastructuur is
[Inhoud afgekapt voor vertaling]