Anthropic's datacenterplan van $50 miljard: AI-lab wordt infrastructuurbouwer

Anthropic volgt OpenAI in het bouwen van eigen infrastructuur en hervormt daarmee de dynamiek tussen AI-labs en hyperscalers.

Anthropic's datacenterplan van $50 miljard: AI-lab wordt infrastructuurbouwer

Anthropic's datacenterplan van $50 miljard: AI-lab wordt infrastructuurbouwer

10 dec 2025 Geschreven door Blake Crosley

Anthropic tekende op 12 november 2025 een datacenterpartnerschap van $50 miljard met de Britse neocloud-provider Fluidstack, met de toezegging om faciliteiten in Texas en New York te bouwen die in de loop van 2026 operationeel worden.[^1] Het project creëert ongeveer 800 permanente banen en 2.400 bouwbanen, en markeert Anthropic's eerste grote inspanning om eigen infrastructuur te bouwen in plaats van te vertrouwen op cloudproviders.[^2]

De aankondiging vertegenwoordigt één onderdeel van een ongekende multi-cloud infrastructuurstrategie. Anthropic behoudt tegelijkertijd toegang tot AWS Project Rainier (500.000 Trainium2-chips opschalend naar 1 miljoen), Google Cloud TPU's (tot 1 miljoen chips), en een nieuwe Microsoft Azure-toezegging van $30 miljard met $15 miljard aan investeringen van NVIDIA en Microsoft.[^3][^4][^5]

Anthropic's infrastructuurportfolio:

Partnerschap Toezegging Capaciteit Status
Fluidstack $50 mld Texas + New York datacenters Online 2026
Microsoft Azure $30 mld + $15 mld investering Grace Blackwell, Vera Rubin Actief
AWS Project Rainier Infrastructuurtoegang 500K→1M Trainium2-chips Actief
Google Cloud Meerjarig Tot 1M TPU-chips, 1+ GW Actief
Totaal $95+ mld toezeggingen Multi-gigawatt 2025-2026

Deze multi-cloud aanpak staat in schril contrast met OpenAI's Stargate-project—een enkele joint venture van $500 miljard met SoftBank, Oracle en MGX gericht op 10 gigawatt tegen 2029.[^6] Anthropic's gedistribueerde strategie spreidt computertoegang over architecturen (NVIDIA, Trainium, TPU) en providers.

Strategische rationale

Anthropic's infrastructuurinvestering pakt kritieke beperkingen aan waarmee frontier AI-labs worden geconfronteerd naarmate modellen opschalen richting kunstmatige algemene intelligentie.

De multi-architectuur hedge

Het trainen van frontier-modellen vereist nu clusters van tienduizenden accelerators die samen opereren.[^7] In plaats van te wedden op één enkele architectuur, heeft Anthropic toegang verzekerd tot drie concurrerende platforms:

Acceleratorvergelijking:

Architectuur Provider Sterke punten Anthropic-toegang
NVIDIA Grace Blackwell Microsoft Azure Piektrainingsprestaties, ecosysteem $30 mld toezegging
AWS Trainium2 Amazon Kostenefficiëntie, custom silicon 500K→1M chips
Google TPU v5 Google Cloud Inferentie-efficiëntie, prijs-prestatie Tot 1M chips

Deze diversificatie zorgt ervoor dat geen enkele leverancier Anthropic's trainingscapaciteit kan beperken. Als NVIDIA-allocatie krapper wordt, verschuift Anthropic workloads naar Trainium of TPU. Als AWS andere klanten prioriteit geeft, biedt Azure terugvalcapaciteit.

Schaalvereisten voor Claude

Claude Opus 4.5, uitgebracht in november 2025, vertegenwoordigt Anthropic's meest capabele model.[^8] Het trainen van volgende generaties vereist nog grotere computerallocaties. Project Rainier demonstreert de schaal: het cluster strekt zich uit over drie staten (Pennsylvania, Indiana, Mississippi), waarbij de meeste chips worden gebruikt voor inferentie en trainingsruns worden uitgevoerd tijdens avonduren wanneer de inferentievraag daalt.[^9]

Anthropic krijgt toegang tot meer dan één gigawatt aan capaciteit die in 2026 online komt via Google Cloud alleen.[^10] Gecombineerd met Fluidstack-faciliteiten en AWS-infrastructuur nadert de totale capaciteit multi-gigawatt schaal—rekenkracht die voorheen alleen beschikbaar was voor de grootste hyperscalers.

Economische arbitrage

Cloud GPU-huurprijzen zijn gedaald van $8/uur (H100, begin 2024) naar $2,85-3,50/uur (eind 2025), maar continue training accumuleert nog steeds miljoenen aan kosten.[^11] Eigen infrastructuur converteert variabele operationele kosten naar kapitaalinvesteringen met andere economische kenmerken.

Trainingseconomie op schaal:

Metriek Cloud huur Eigen infrastructuur
10.000 GPU-maanden $20-25M $15-18M (geamortiseerd)
Capaciteitsflexibiliteit Direct 12-24 maanden doorlooptijd
Architectuurkeuze Providerafhankelijk Zelfbepaald
Stranded asset risico Geen Significant

Het Fluidstack-partnerschap biedt een middenweg: faciliteiten op maat gebouwd voor Anthropic's workloads zonder volledig eigendomsrisico.

Partnerschapsstructuur

Het Fluidstack-partnerschap vertegenwoordigt een berekende gok op neocloud-wendbaarheid boven hyperscaler-schaal.

Waarom Fluidstack

Fluidstack, opgericht in 2017, demonstreerde zijn capaciteiten eerder in 2025 toen het werd aangewezen als primaire partner voor een 1-gigawatt AI-project gesteund door de Franse overheid, goed voor meer dan $11 miljard aan uitgaven.[^12] Anthropic CEO Dario Amodei selecteerde Fluidstack vanwege zijn "vermogen om met uitzonderlijke wendbaarheid te bewegen, waardoor snelle levering van gigawatts aan vermogen mogelijk wordt."[^13]

Fluidstack's neocloud-model verschilt van hyperscaler-benaderingen: - Snelheid: Maanden in plaats van jaren voor faciliteitoplevering - Maatwerk: Infrastructuur geoptimaliseerd voor Anthropic's specifieke workloadpatronen - Economie: Geen hyperscaler-marge, directe kostendoorberekening - Flexibiliteit: Contractvoorwaarden afgestemd op AI-lab vereisten

Geografische strategie

De locaties in Texas en New York dienen verschillende strategische doelen:

Texas-faciliteit: - Lagere stroomkosten ($0,04-0,06/kWh vs. $0,12+ elders) - Gunstige regelgeving voor datacenterontwikkeling - Nabijheid van bestaande Stargate-infrastructuur in Abilene - Primaire focus: Grootschalige trainingsruns

New York-faciliteit: - Premium connectiviteit naar klanten in de financiële sector - Lage latentie toegang tot bevolkingscentra in het noordoosten - Nabijheid van enterprise-klanten voor Claude API-diensten - Primaire focus: Inferentie-serving, enterprise-deployment

Leiderschapsinvestering

Anthropic nam Rahul Patil aan als CTO in oktober 2025, specifiek om toezicht te houden op compute, infrastructuur, inferentie en engineering operations.[^14] Patil's achtergrond als Stripe CTO signaleert Anthropic's commitment aan infrastructuur als kerncompetentie in plaats van uitbestede functie.

Stargate-vergelijking: Twee modellen voor AI-infrastructuur

Het contrast tussen Anthropic's gedistribueerde strategie en OpenAI's geconcentreerde Stargate-aanpak onthult fundamentele filosofische verschillen.

Vergelijking infrastructuurstrategie:

Dimensie Anthropic OpenAI Stargate
Totale toezegging $95+ mld (gedistribueerd) $500 mld (geconcentreerd)
Tijdlijn 2025-2026 Tot 2029
Architectuur Multi-vendor (NVIDIA, Trainium, TPU) NVIDIA-primair
Eigendom Partnerschapsmodel Joint venture (40% elk SoftBank, OpenAI)
Geografische spreiding Meerdere faciliteiten, 3+ cloud-regio's 6+ locaties, 10 GW doel
Risicoprofiel Lager (gediversifieerd) Hoger (geconcentreerd)

OpenAI's Stargate heeft bijna 7 gigawatt aan geplande capaciteit veiliggesteld over zes locaties met meer dan $400 miljard aan toegezegde investeringen—waarmee ze op koers liggen voor hun volledige 10-gigawatt, $500 miljard doel eerder dan gepland.[^15] Er zijn echter berichten dat het project vertraging heeft opgelopen te midden van uitvoeringsuitdagingen.[^16]

Anthropic's aanpak ruilt schaal in voor weerbaarheid. Als Stargate bouwvertragingen, financieringsuitdagingen of technologische verschuivingen tegenkomt, loopt OpenAI concentratierisico. Anthropic's gedistribueerde toezeggingen bieden terugvalcapaciteit over meerdere providers.

Implicaties voor de industrie

Anthropic's multi-provider strategie creëert rimpeleffecten door het AI-infrastructuur ecosysteem.

Competitieve dynamiek verschuift

Het frontier AI-lab landschap kent nu twee onderscheiden infrastructuurfilosofieën: - Geconcentreerd: OpenAI (Stargate), Meta ($600 mld interne uitbouw) - Gedistribueerd: Anthropic (multi-cloud + eigen)

Kleinere labs staan onder druk om te kiezen: concurreren om hyperscaler-capaciteit tegen beter gefinancierde rivalen, of infrastructuurnadeel accepteren. De kapitaalvereisten voor competitieve infrastructuur zijn geëscaleerd tot voorbij onafhankelijke fondsenwervingscapaciteit.

Positionering cloudproviders

Hyperscalers concurreren om AI-lab ankerklantschap terwijl ze capaciteit bouwen die de vraag kan overschrijden als labs eigen infrastructuur bouwen. De dynamiek creëert onzekerheid in capaciteitsplanning:

  • AWS: Behoudt Anthropic via Project Rainier maar verliest exclusiviteit
  • Google Cloud: Verzekert meerjarige TPU-toezegging, valideert custom silicon-strategie
  • Microsoft Azure: Krijgt Anthropic-aanwezigheid via $30+ mld toezegging, diversifieert voorbij OpenAI
  • Oracle: Uitgesloten van Anthropic, verdubbelt inzet op Stargate-partnerschap

Neocloud-validatie

Fluidstack's selectie boven gevestigde hyperscalers valideert het neocloud-model voor frontier AI-infrastructuur. Andere neoclouds (CoreWeave, Lambda, Together) winnen aan geloofwaardigheid voor soortgelijke partnerschappen. De neocloud-sector evolueert van alternatieve capaciteitsbron naar strategische infrastructuurpartner.

Uitvoeringsuitdagingen

Het omzetten van $95 miljard aan toezeggingen naar operationele infrastructuur brengt substantieel uitvoeringsrisico met zich mee over meerdere dimensies.

Kapitaalvorming

Anthropic's bekendgemaakte financiering (~$8 mld tot en met 2024) komt ver tekort voor $95+ mld aan toezeggingen. Het kapitaalgat vereist: - Voortdurende venture-investeringen (Google heeft naar verluidt $1 mld extra bijgedragen) - Omzetgroei van Claude API en enterprise-producten - Strategische partnerbijdragen (NVIDIA's $10 mld, Microsoft's $5 mld) - Mogelijke schuldfinanciering zodra faciliteiten operationeel worden

De toezegging vertegenwoordigt een meerjarige ambitie die aanhoudende kapitaaltoegang vereist. Economische omstandigheden die technologie-investeringen beïnvloeden kunnen de beschikbaarheid van financiering beperken.

Multi-provider coördinatie

Gelijktijdig opereren over AWS, Google Cloud, Azure en Fluidstack creëert coördinatiecomplexiteit: - Verschillende API's, tooling en operationele praktijken - Workload placement optimalisatie over providers - Beveiliging en compliance over meerdere omgevingen - Kostentoewijzing en optimalisatie over contracten

De voordelen van de multi-cloud strategie (weerbaarheid, onderhandelingsvoordeel) komen met operationele overhead die geconcentreerde benaderingen vermijden.

Professionele ondersteuningsvereisten

Introl's 550 field engineers ondersteunen organisaties die grootschalige AI-infrastructuur implementeren over meerdere providers en architecturen.[^17] Het bedrijf stond op #14 in de 2025 Inc. 5000 met 9.594% driejarige groei, wat de vraag naar multi-cloud deployment expertise weerspiegelt.[^18]

Deployments over 257 wereldwijde locaties vereisen consistente operationele praktijken ongeacht de onderliggende provider.[^19] Introl beheert deployments tot 100.000 GPU's met meer dan 40.000 mijl aan glasvezelnetwerkinfrastructuur.[^20]

Beslissingskader voor infrastructuurplanners

Anthropic's strategie biedt lessen voor organisaties die AI-infrastructuurbenaderingen evalueren.

Selectie infrastructuurstrategie:

Uw profiel Aanbevolen aanpak Rationale
<$10M jaarlijkse GPU-uitgaven Hyperscaler huur Onvoldoende schaal voor dedicated infrastructuur
$10-100M jaarlijkse uitgaven Multi-cloud met vastgelegde capaciteit Balans tussen flexibiliteit en prijsstelling
>$100M jaarlijkse uitgaven Eigen + huur hybride Economische optimalisatie op schaal
Frontier AI-ontwikkeling Multi-provider portfolio Capaciteitszekerheid, architectuuroptionaliteit

Signalen om te monitoren

Let op indicatoren dat Anthropic's gedistribueerde model beter presteert dan Stargate's geconcentreerde aanpak (of vice versa): - Relatieve trainingsefficiëntiemetrieken van Claude vs. GPT releases - Faciliteit deployment-tijdlijnen die doelen halen of missen - Cost-per-token trends in API-prijsstelling - Architectuurprestatievergelijkingen (NVIDIA vs. Trainium vs. TPU)

Belangrijkste conclusies

Voor AI-infrastructuuroperators: - Multi-provider strategieën verminderen afhankelijkheidsrisico maar verhogen operationele complexiteit - Neocloud-partnerschappen bieden snelheids- en maatwerk voordelen boven hyperscalers - Infrastructuur is

[Inhoud afgekapt voor vertaling]

Offerte aanvragen_

Vertel ons over uw project en wij reageren binnen 72 uur.

> TRANSMISSIE_VOLTOOID

Aanvraag Ontvangen_

Bedankt voor uw aanvraag. Ons team zal uw verzoek beoordelen en binnen 72 uur reageren.

IN WACHTRIJ VOOR VERWERKING