xAI Colossus erreicht 2 GW: 555.000 GPUs, 18 Mrd. USD, größte KI-Anlage

Musks xAI erwirbt drittes Gebäude in Memphis für insgesamt 2 GW Kapazität. 555.000 NVIDIA-GPUs für 18 Milliarden USD machen Colossus zur weltweit größten KI-Trainingsanlage.

xAI Colossus erreicht 2 GW: 555.000 GPUs, 18 Mrd. USD, größte KI-Anlage

xAI Colossus erreicht 2 GW: 555.000 GPUs, 18 Mrd. USD, größte KI-Anlage

1. Januar 2026

Update Januar 2026: Elon Musk gab bekannt, dass xAI ein drittes Gebäude in Memphis erworben hat und damit Colossus auf eine Gesamtkapazität von 2 Gigawatt erweitert. Die Anlage wird 555.000 NVIDIA-GPUs beherbergen, die für etwa 18 Milliarden US-Dollar gekauft wurden – damit ist sie die weltweit größte KI-Trainingsanlage an einem einzelnen Standort.


Zusammenfassung

Die Erweiterung von xAI Colossus auf 2 GW stellt eine beispiellose Konzentration von KI-Rechenleistung dar. Der Einsatz von 555.000 GPUs (18 Mrd. USD) übertrifft jede andere KI-Anlage an einem einzelnen Standort weltweit. Mit Vor-Ort-Gasstromerzeugung und 19-tägigen Bauzeiten demonstriert xAI ein Baumodell, das die üblichen 4 Jahre auf Wochen komprimiert. Infrastrukturplaner müssen sich mit diesem neuen Maßstab für Größe und Geschwindigkeit auseinandersetzen.


Was geschah

Am 30. Dezember 2025 gab Elon Musk bekannt, dass xAI ein drittes Gebäude in der Nähe seines Rechenzentrums Colossus 2 in Memphis, Tennessee, erworben hat.1 Die Erweiterung bringt die Gesamtkapazität des Standorts auf fast 2 Gigawatt.

Colossus-Übersicht:

Anlage Status GPUs Leistung
Colossus 1 In Betrieb 230.000 (inkl. 32K GB200s) ~500 MW
Colossus 2 In Betrieb 550.000 GB200s/GB300s ~1 GW
Gebäude 3 ("MACROHARDRR") Erworben Geplante Erweiterung ~500 MW
Gesamt 555.000+ ~2 GW

Das neue Gebäude liegt neben Colossus 2 bei Southaven, Mississippi, in der Nähe eines Gaskraftwerks, das xAI ebenfalls baut.2

Musk nannte die dritte Struktur "MACROHARDRR" – eine Erweiterung seiner "Macrohard"-Namenskonvention, ein Seitenhieb auf Microsoft.3


Warum es wichtig ist

Beispiellose Größenordnung

Der 2-GW-Colossus-Komplex überragt alle anderen KI-Trainingsanlagen:4

Anlage Leistung GPUs Betreiber
xAI Colossus (Memphis) 2 GW 555.000+ xAI
Meta AI Research Center ~500 MW ~150.000 Meta
Microsoft Azure AI ~400 MW ~100.000+ Microsoft
Google TPU-Cluster ~300 MW TPU v5-Äquivalent Google

Die xAI-Anlage repräsentiert das 4-fache der Leistung des nächstgrößeren dedizierten KI-Trainingsstandorts.

18-Milliarden-Dollar-GPU-Investition

Der Kauf von 555.000 GPUs für etwa 18 Milliarden USD bedeutet:5

  • Durchschnittliche Kosten: ~32.400 USD pro GPU
  • Die Mischung umfasst NVIDIAs neueste: GB200s und GB300s
  • Juli 2025: "Erste Charge von 550k GB200s & GB300s" ging bei Colossus 2 in Betrieb

Zum Vergleich: 18 Mrd. USD übersteigen die jährlichen Investitionsausgaben der meisten Technologieunternehmen und entsprechen etwa 3% der gesamten GPU-Lieferungen von NVIDIA, konzentriert auf einen einzigen Kunden.

Baugeschwindigkeit

NVIDIA-CEO Jensen Huang bezeichnete den ursprünglichen Colossus-Bau als "übermenschlich" – betriebsbereit in 19 Tagen gegenüber dem typischen Zeitrahmen von 4 Jahren.6

Meilenstein Traditionell xAI Colossus
Standortwahl bis Baubeginn 6-12 Monate Wochen
Bau 2-3 Jahre 19 Tage
Stromversorgung 1-2 Jahre Vor-Ort-Erzeugung
GPU-Installation 3-6 Monate Parallel zum Bau

Diese Geschwindigkeit resultiert aus vertikaler Integration: xAI baut seine eigene Stromerzeugung vor Ort, anstatt auf den Netzanschluss zu warten.


Technische Details

Strominfrastruktur

Der Memphis-Standort umgeht traditionelle Versorgungsbeschränkungen durch Vor-Ort-Erzeugung:7

  • Gaskraftwerk im Bau neben dem Rechenzentrum
  • 2 GW Gesamtlast – entspricht der Versorgung von ~1,5 Millionen Haushalten
  • Vermeidet ERCOT-artige Anschlusswarteschlangen
  • Autarke Stromerzeugung und -verbrauch

GPU-Konfiguration

Basierend auf Musks Angaben:8

Generation Anzahl Anmerkungen
GB200 ~520.000 Erste Charge seit Juli 2025 in Betrieb
GB300 ~30.000 Neueste Blackwell-Variante
H100/H200 (Legacy) ~30.000 Ursprüngliche Colossus-1-Installation

Die GB200-NVL72-Konfiguration (72 GPUs pro Rack) deutet auf etwa 7.700+ Compute-Racks bei voller Bereitstellung hin.

Kühlungsanforderungen

2 GW GPU-Rechenleistung erzeugen etwa 1,8 GW Wärme, die abgeführt werden muss:9

  • Flüssigkühlung bei dieser Dichte obligatorisch
  • Geschätzte Kühlkapazität von 50.000+ Gallonen pro Minute
  • Der Standort Memphis bietet Wasserzugang über das Einzugsgebiet des Mississippi

Wettbewerbsauswirkungen

KI-Training-Wettrüsten

Musk erklärte Tage vor der Ankündigung: xAI will "mehr KI-Rechenleistung als alle anderen zusammen" haben.10

Die 2-GW-Anlage unterstützt dieses Ziel:

Unternehmen Geschätzte KI-Trainingskapazität Status
xAI 2 GW (555K GPUs) Größter Einzelstandort
OpenAI/Microsoft ~1,5 GW (verteilt) Azure-Infrastruktur
Google ~1 GW (TPU + GPU) Global verteilt
Meta ~800 MW Mehrere Anlagen
Anthropic ~500 MW AWS + FluidStack

Grok-Modell-Training

Colossus existiert hauptsächlich, um xAIs Grok-Modelle zu trainieren. Die erweiterte Kapazität ermöglicht:11

  • Größere Modell-Parameteranzahlen
  • Schnellere Trainings-Iterationszyklen
  • Parallele Trainingsläufe mehrerer Modelle

xAIs Ziel: insgesamt 1 Million GPUs. Die 555.000 bei Colossus repräsentieren 55% dieses Ziels an einem einzigen Standort.


Nächste Schritte

Zeitplan 2026

  • Q1 2026: Umbau von Gebäude 3 zum Rechenzentrum beginnt
  • Q2-Q3 2026: Zusätzliche GPU-Bereitstellung
  • 2026: Fertigstellung des Gaskraftwerks

Erweiterungspfad

Musk hat Pläne für insgesamt über 1 Million GPUs angedeutet. Mögliche Wege:12

  1. Erweiterung des Memphis-Standorts über 2 GW hinaus (erfordert zusätzliche Energie)
  2. Zweiter Hauptstandort (Ort noch offen)
  3. Erwerb bestehender Rechenzentrumskapazität

Auswirkungen auf die Branche

Das Colossus-Modell – Vor-Ort-Stromerzeugung, komprimierte Zeitpläne, massive Einzelstandort-Skalierung – könnte zur Vorlage für Frontier-KI-Trainingsanlagen werden. Traditionelle Rechenzentrum-Entwicklungszyklen erscheinen unzureichend für die Nachfrage nach KI-Training.


Für großangelegten GPU-Einsatz und Rechenzentrumsinfrastruktur kontaktieren Sie Introl.


Referenzen


  1. Bloomberg. "Musk's xAI to Expand 'Colossus' Data Center, Information Reports." 30. Dezember 2025. https://www.bloomberg.com/news/articles/2025-12-30/musk-s-xai-to-expand-colossus-data-center-information-reports 

  2. SiliconANGLE. "Elon Musk reveals plan to expand xAI's 'Colossus' data center to 2 gigawatts." 30. Dezember 2025. https://siliconangle.com/2025/12/30/elon-musk-reveals-plan-expand-xais-colossus-data-center-2-gigawatts/ 

  3. Benzinga. "Elon Musk Says xAI Purchased Third Building For Massive AI Expansion." Dezember 2025. https://www.benzinga.com/markets/tech/25/12/49642773/elon-musk-says-xai-purchased-third-building-for-massive-ai-expansion-as-company-takes-on-openai-anthropic-property-name-takes-dig-at-microsoft 

  4. Tom's Hardware. "Musk to expand xAI's training capacity to a monstrous 2 gigawatts." Dezember 2025. https://www.tomshardware.com/tech-industry/artificial-intelligence/musk-purchases-third-building-at-memphis-site-to-expand-xais-training-capacity-to-a-monstrous-2-gigawatts-announcement-comes-days-after-musk-vows-to-have-more-ai-compute-than-everyone-else 

  5. Techzine Global. "xAI expands Colossus megadata center to 2 gigawatts." Dezember 2025. https://www.techzine.eu/news/infrastructure/137578/xai-expands-colossus-megadata-center-to-2-gigawatts/ 

  6. SemiAnalysis. "xAI's Colossus 2 - First Gigawatt Datacenter In The World." 2025. https://newsletter.semianalysis.com/p/xais-colossus-2-first-gigawatt-datacenter 

  7. The Edge Malaysia. "Musk's xAI buys building to expand 'colossus' data centre." Dezember 2025. https://theedgemalaysia.com/node/787706 

  8. WebProNews. "Elon Musk's xAI Doubles Colossus Supercomputer to 2GW in Memphis." Dezember 2025. https://www.webpronews.com/elon-musks-xai-doubles-colossus-supercomputer-to-2gw-in-memphis/ 

  9. Yahoo Finance. "Musk's xAI buys third building to expand AI compute power." Dezember 2025. https://finance.yahoo.com/news/musks-xai-buys-third-building-221629820.html 

  10. Stocktwits. "Elon Musk Is Ramping AI Compute At Breakneck Speed." Dezember 2025. https://stocktwits.com/news-articles/markets/equity/elon-musk-is-ramping-ai-compute-at-breakneck-speed/cL7BTsJREzG 

  11. Bloomberg. "xAI Colossus Data Center." Dezember 2025. 

  12. Tom's Hardware. "xAI training capacity expansion." Dezember 2025. 

Angebot anfordern_

Erzählen Sie uns von Ihrem Projekt und wir antworten innerhalb von 72 Stunden.

> ÜBERTRAGUNG_ABGESCHLOSSEN

Anfrage erhalten_

Vielen Dank für Ihre Anfrage. Unser Team wird Ihre Anfrage prüfen und innerhalb von 72 Stunden antworten.

ZUR BEARBEITUNG EINGEREIHT