Anthropics 50-Milliarden-Dollar-Rechenzentrumsplan: KI-Labor wird zum Infrastrukturbauer
- Dez. 2025 Geschrieben von Blake Crosley
Anthropic unterzeichnete am 12. November 2025 eine 50-Milliarden-Dollar-Rechenzentrumspartnerschaft mit dem britischen Neocloud-Anbieter Fluidstack, mit der Verpflichtung, Einrichtungen in Texas und New York zu bauen, die im Laufe des Jahres 2026 in Betrieb gehen werden.[^1] Das Projekt schafft etwa 800 Dauerarbeitsplätze und 2.400 Bauarbeitsplätze und markiert Anthropics ersten großen Schritt zum Aufbau eigener Infrastruktur, anstatt sich auf Cloud-Anbieter zu verlassen.[^2]
Die Ankündigung ist ein Baustein einer beispiellosen Multi-Cloud-Infrastrukturstrategie. Anthropic unterhält gleichzeitig Zugang zu AWS Project Rainier (500.000 Trainium2-Chips, skalierbar auf 1 Million), Google Cloud TPUs (bis zu 1 Million Chips) und einer neuen 30-Milliarden-Dollar-Verpflichtung mit Microsoft Azure samt 15 Milliarden Dollar an Investitionen von NVIDIA und Microsoft.[^3][^4][^5]
Anthropics Infrastruktur-Portfolio:
| Partnerschaft | Verpflichtung | Kapazität | Status |
|---|---|---|---|
| Fluidstack | 50 Mrd. $ | Rechenzentren in Texas + New York | Online 2026 |
| Microsoft Azure | 30 Mrd. $ + 15 Mrd. $ Investition | Grace Blackwell, Vera Rubin | Aktiv |
| AWS Project Rainier | Infrastrukturzugang | 500K→1M Trainium2-Chips | Aktiv |
| Google Cloud | Mehrjährig | Bis zu 1M TPU-Chips, 1+ GW | Aktiv |
| Gesamt | 95+ Mrd. $ Verpflichtungen | Multi-Gigawatt | 2025-2026 |
Dieser Multi-Cloud-Ansatz steht in scharfem Kontrast zu OpenAIs Stargate-Projekt – einem einzelnen 500-Milliarden-Dollar-Joint-Venture mit SoftBank, Oracle und MGX, das bis 2029 10 Gigawatt anstrebt.[^6] Anthropics verteilte Strategie sichert den Compute-Zugang über verschiedene Architekturen (NVIDIA, Trainium, TPU) und Anbieter ab.
Strategische Begründung
Anthropics Infrastrukturinvestition adressiert kritische Einschränkungen, mit denen KI-Labore an der Spitze konfrontiert sind, während Modelle in Richtung künstliche allgemeine Intelligenz skalieren.
Die Multi-Architektur-Absicherung
Das Training von Frontier-Modellen erfordert heute Cluster von Zehntausenden von Beschleunigern, die im Verbund arbeiten.[^7] Anstatt auf eine einzelne Architektur zu setzen, sicherte sich Anthropic Zugang zu drei konkurrierenden Plattformen:
Beschleuniger-Vergleich:
| Architektur | Anbieter | Stärken | Anthropic-Zugang |
|---|---|---|---|
| NVIDIA Grace Blackwell | Microsoft Azure | Spitzen-Trainingsleistung, Ökosystem | 30 Mrd. $ Verpflichtung |
| AWS Trainium2 | Amazon | Kosteneffizienz, Custom Silicon | 500K→1M Chips |
| Google TPU v5 | Google Cloud | Inferenz-Effizienz, Preis-Leistung | Bis zu 1M Chips |
Diese Diversifizierung stellt sicher, dass kein einzelner Lieferant Anthropics Trainingskapazität einschränken kann. Wenn die NVIDIA-Zuteilung knapper wird, verlagert Anthropic Workloads auf Trainium oder TPU. Wenn AWS andere Kunden priorisiert, bietet Azure Ausweichkapazität.
Skalierungsanforderungen für Claude
Claude Opus 4.5, veröffentlicht im November 2025, repräsentiert Anthropics leistungsfähigstes Modell.[^8] Das Training nachfolgender Generationen erfordert noch größere Compute-Zuteilungen. Project Rainier demonstriert die Größenordnung: Der Cluster erstreckt sich über drei Bundesstaaten (Pennsylvania, Indiana, Mississippi), wobei die meisten Chips für Inferenz verwendet werden und Trainingsläufe in den Abendstunden ausgeführt werden, wenn die Inferenz-Nachfrage sinkt.[^9]
Anthropic wird allein durch Google Cloud Zugang zu über einem Gigawatt Kapazität haben, die 2026 online geht.[^10] Kombiniert mit den Fluidstack-Einrichtungen und der AWS-Infrastruktur nähert sich die Gesamtkapazität dem Multi-Gigawatt-Bereich – Rechenleistung, die zuvor nur den größten Hyperscalern zur Verfügung stand.
Wirtschaftliche Arbitrage
Die Mietpreise für Cloud-GPUs sind von 8 $/Stunde (H100, Anfang 2024) auf 2,85-3,50 $/Stunde (Ende 2025) gesunken, aber kontinuierliches Training summiert sich dennoch zu Millionenkosten.[^11] Eigene Infrastruktur wandelt variable Betriebskosten in Kapitalinvestitionen mit anderen wirtschaftlichen Eigenschaften um.
Trainingsökonomie im großen Maßstab:
| Metrik | Cloud-Miete | Eigene Infrastruktur |
|---|---|---|
| 10.000 GPU-Monate | 20-25 Mio. $ | 15-18 Mio. $ (abgeschrieben) |
| Kapazitätsflexibilität | Sofort | 12-24 Monate Vorlaufzeit |
| Architekturwahl | Anbieterabhängig | Selbstbestimmt |
| Stranded-Asset-Risiko | Keines | Erheblich |
Die Fluidstack-Partnerschaft bietet einen Mittelweg: Einrichtungen, die speziell für Anthropics Workloads gebaut werden, ohne das volle Eigentumsrisiko.
Partnerschaftsstruktur
Die Fluidstack-Partnerschaft stellt eine kalkulierte Wette auf Neocloud-Agilität gegenüber Hyperscaler-Größe dar.
Warum Fluidstack
Fluidstack, 2017 gegründet, bewies seine Fähigkeiten Anfang 2025, als es zum Hauptpartner für ein 1-Gigawatt-KI-Projekt ernannt wurde, das von der französischen Regierung unterstützt wird und über 11 Milliarden Dollar an Ausgaben repräsentiert.[^12] Anthropic-CEO Dario Amodei wählte Fluidstack wegen seiner „Fähigkeit, mit außergewöhnlicher Agilität zu handeln und eine schnelle Bereitstellung von Gigawatt an Leistung zu ermöglichen."[^13]
Fluidstacks Neocloud-Modell unterscheidet sich von Hyperscaler-Ansätzen: - Geschwindigkeit: Monate statt Jahre für die Bereitstellung von Einrichtungen - Anpassung: Infrastruktur, die für Anthropics spezifische Workload-Muster optimiert ist - Wirtschaftlichkeit: Keine Hyperscaler-Marge, direkte Kostenweitergabe - Flexibilität: Vertragsbedingungen, die auf die Anforderungen von KI-Laboren zugeschnitten sind
Geografische Strategie
Die Standorte in Texas und New York dienen unterschiedlichen strategischen Zwecken:
Texas-Einrichtung: - Niedrigere Stromkosten (0,04-0,06 $/kWh vs. 0,12 $+ anderswo) - Günstiges regulatorisches Umfeld für Rechenzentrumsentwicklung - Nähe zur bestehenden Stargate-Infrastruktur in Abilene - Hauptfokus: Groß angelegte Trainingsläufe
New York-Einrichtung: - Premium-Konnektivität zu Finanzsektor-Kunden - Niedrige Latenz zum Zugang zu Bevölkerungszentren im Nordosten - Nähe zu Unternehmenskunden für Claude-API-Dienste - Hauptfokus: Inferenz-Bereitstellung, Unternehmenseinsatz
Führungsinvestition
Anthropic stellte Rahul Patil im Oktober 2025 als CTO ein, speziell um Compute, Infrastruktur, Inferenz und Engineering-Betrieb zu beaufsichtigen.[^14] Patils Hintergrund als Stripe-CTO signalisiert Anthropics Engagement für Infrastruktur als Kernkompetenz statt als ausgelagerte Funktion.
Stargate-Vergleich: Zwei Modelle für KI-Infrastruktur
Der Kontrast zwischen Anthropics verteilter Strategie und OpenAIs konzentriertem Stargate-Ansatz offenbart grundlegende philosophische Unterschiede.
Vergleich der Infrastrukturstrategien:
| Dimension | Anthropic | OpenAI Stargate |
|---|---|---|
| Gesamtverpflichtung | 95+ Mrd. $ (verteilt) | 500 Mrd. $ (konzentriert) |
| Zeitrahmen | 2025-2026 | Bis 2029 |
| Architektur | Multi-Vendor (NVIDIA, Trainium, TPU) | NVIDIA-primär |
| Eigentum | Partnerschaftsmodell | Joint Venture (je 40% SoftBank, OpenAI) |
| Geografische Verteilung | Mehrere Einrichtungen, 3+ Cloud-Regionen | 6+ Standorte, 10 GW Ziel |
| Risikoprofil | Niedriger (diversifiziert) | Höher (konzentriert) |
OpenAIs Stargate hat fast 7 Gigawatt geplante Kapazität über sechs Standorte mit über 400 Milliarden Dollar an zugesagten Investitionen gesichert – was sie auf Kurs bringt, ihr volles 10-Gigawatt-500-Milliarden-Dollar-Ziel vor dem Zeitplan zu erreichen.[^15] Allerdings deuten Berichte darauf hin, dass das Projekt angesichts von Ausführungsherausforderungen Verzögerungen erfahren hat.[^16]
Anthropics Ansatz tauscht Größe gegen Resilienz. Wenn Stargate auf Bauverzögerungen, Finanzierungsherausforderungen oder Technologiewechsel trifft, ist OpenAI einem Konzentrationsrisiko ausgesetzt. Anthropics verteilte Verpflichtungen bieten Ausweichkapazität über mehrere Anbieter.
Auswirkungen auf die Branche
Anthropics Multi-Anbieter-Strategie erzeugt Welleneffekte im gesamten KI-Infrastruktur-Ökosystem.
Verschiebung der Wettbewerbsdynamik
Die Landschaft der führenden KI-Labore zeigt nun zwei unterschiedliche Infrastrukturphilosophien: - Konzentriert: OpenAI (Stargate), Meta (600 Mrd. $ interner Ausbau) - Verteilt: Anthropic (Multi-Cloud + Eigentum)
Kleinere Labore stehen unter Druck zu wählen: um Hyperscaler-Kapazität gegen besser finanzierte Rivalen konkurrieren oder Infrastrukturnachteile akzeptieren. Die Kapitalanforderungen für wettbewerbsfähige Infrastruktur sind über die Möglichkeiten unabhängiger Finanzierung hinaus eskaliert.
Positionierung der Cloud-Anbieter
Hyperscaler konkurrieren um Ankermieterschaft von KI-Laboren, während sie Kapazitäten aufbauen, die die Nachfrage übersteigen könnten, wenn Labore eigene Infrastruktur errichten. Die Dynamik schafft Unsicherheit in der Kapazitätsplanung:
- AWS: Behält Anthropic durch Project Rainier, verliert aber Exklusivität
- Google Cloud: Sichert mehrjährige TPU-Verpflichtung, validiert Custom-Silicon-Strategie
- Microsoft Azure: Gewinnt Anthropic-Präsenz durch 30+ Mrd. $ Verpflichtung, diversifiziert über OpenAI hinaus
- Oracle: Von Anthropic ausgeschlossen, verdoppelt Engagement bei Stargate-Partnerschaft
Neocloud-Validierung
Fluidstacks Auswahl gegenüber etablierten Hyperscalern validiert das Neocloud-Modell für Frontier-KI-Infrastruktur. Andere Neoclouds (CoreWeave, Lambda, Together) gewinnen an Glaubwürdigkeit für ähnliche Partnerschaften. Der Neocloud-Sektor wandelt sich von alternativer Kapazitätsquelle zum strategischen Infrastrukturpartner.
Umsetzungsherausforderungen
Die Umwandlung von 95 Milliarden Dollar an Verpflichtungen in betriebsbereite Infrastruktur birgt erhebliches Ausführungsrisiko über mehrere Dimensionen.
Kapitalbeschaffung
Anthropics offengelegte Finanzierung (~8 Mrd. $ bis 2024) liegt weit unter den 95+ Mrd. $ an Verpflichtungen. Die Kapitallücke erfordert: - Fortgesetzte Venture-Investitionen (Google hat Berichten zufolge zusätzlich 1 Mrd. $ beigesteuert) - Umsatzwachstum aus der Claude-API und Enterprise-Produkten - Beiträge strategischer Partner (NVIDIAs 10 Mrd. $, Microsofts 5 Mrd. $) - Potenzielle Fremdfinanzierung, wenn Einrichtungen betriebsbereit werden
Die Verpflichtung stellt eine mehrjährige Ambition dar, die nachhaltigen Kapitalzugang erfordert. Wirtschaftliche Bedingungen, die Technologieinvestitionen beeinflussen, könnten die Finanzierungsverfügbarkeit einschränken.
Multi-Anbieter-Koordination
Der gleichzeitige Betrieb über AWS, Google Cloud, Azure und Fluidstack schafft Koordinationskomplexität: - Unterschiedliche APIs, Tools und Betriebspraktiken - Workload-Platzierungsoptimierung über Anbieter hinweg - Sicherheit und Compliance über mehrere Umgebungen - Kostenzuordnung und -optimierung über Verträge hinweg
Die Vorteile der Multi-Cloud-Strategie (Resilienz, Verhandlungshebel) kommen mit operativem Overhead, den konzentrierte Ansätze vermeiden.
Anforderungen an professionellen Support
Introls 550 Feldingenieure unterstützen Organisationen bei der Implementierung großangelegter KI-Infrastruktur über mehrere Anbieter und Architekturen hinweg.[^17] Das Unternehmen belegte Platz 14 auf der Inc. 5000 Liste 2025 mit 9.594% Dreijahreswachstum, was die Nachfrage nach Multi-Cloud-Deployment-Expertise widerspiegelt.[^18]
Deployments über 257 globale Standorte erfordern konsistente Betriebspraktiken unabhängig vom zugrundeliegenden Anbieter.[^19] Introl verwaltet Deployments von bis zu 100.000 GPUs mit über 40.000 Meilen Glasfaser-Netzwerkinfrastruktur.[^20]
Entscheidungsrahmen für Infrastrukturplaner
Anthropics Strategie bietet Lektionen für Organisationen, die KI-Infrastrukturansätze evaluieren.
Auswahl der Infrastrukturstrategie:
| Ihr Profil | Empfohlener Ansatz | Begründung |
|---|---|---|
| <10 Mio. $ jährliche GPU-Ausgaben | Hyperscaler-Miete | Unzureichende Größe für dedizierte Infrastruktur |
| 10-100 Mio. $ jährliche Ausgaben | Multi-Cloud mit zugesagter Kapazität | Balance zwischen Flexibilität und Preisgestaltung |
| >100 Mio. $ jährliche Ausgaben | Eigentum + Miete Hybrid | Wirtschaftliche Optimierung im großen Maßstab |
| Frontier-KI-Entwicklung | Multi-Anbieter-Portfolio | Kapazitätssicherung, Architekturoptionalität |
Zu beobachtende Signale
Achten Sie auf Indikatoren, dass Anthropics verteiltes Modell Stargates konzentrierten Ansatz übertrifft (oder umgekehrt): - Relative Trainingseffizienz-Metriken aus Claude vs. GPT-Releases - Einhaltung oder Verfehlung von Zeitplänen für Einrichtungsbereitstellungen - Kosten-pro-Token-Trends in der API-Preisgestaltung - Architektur-Leistungsvergleiche (NVIDIA vs. Trainium vs. TPU)
Wichtigste Erkenntnisse
Für KI-Infrastrukturbetreiber: - Multi-Anbieter-Strategien reduzieren Abhängigkeitsrisiken, erhöhen aber die operative Komplexität - Neocloud-Partnerschaften bieten Geschwindigkeits- und Anpassungsvorteile gegenüber Hyperscalern - Infrastruktur ist zu
[Inhalt für Übersetzung gekürzt]