GPU Cloud-Preise brechen ein: H100-Miete fällt um 64%, da Angebot die Nachfrage erreicht
- Dezember 2025 Verfasst von Blake Crosley
Der GPU-Mietmarkt hat eine dramatische Korrektur erlebt, wobei H100-Preise von 8 Dollar pro Stunde auf 2,85-3,50 Dollar pro Stunde gefallen sind – ein Rückgang von 64% gegenüber den Spitzenwerten Ende 2024.1 Der Silicon Data H100 Rental Index stand im Juni 2025 bei 2,36 Dollar, verglichen mit 3,06 Dollar im September 2024, was einen Rückgang von 23% in weniger als einem Jahr markiert.2 Für Unternehmen, die AI-Infrastruktur planen, schafft der Preisverfall strategische Chancen und wirft gleichzeitig Fragen zur Marktdynamik und zukünftigen Preisentwicklung auf.
AWS senkte die H100-Preise im Juni 2025 um etwa 44% und brachte P5-Instanzen in Einklang mit den Markterwartungen.3 GCPs Spot-H100 läuft jetzt bei 2,25 Dollar (A3-High), während AWS Spot oft bei etwa 2,50 Dollar liegt.4 Langfristige Verpflichtungen können effektive H100-Kosten auf bis zu 1,90-2,10 Dollar pro GPU-Stunde senken.5 Einige aggressive Anbieter bieten H100-Mieten für nur 0,99-1 Dollar pro Stunde an.6
Treiber des Preisrückgangs
Mehrere Faktoren führten zur Marktkorrektur.
Angebotsausweitung
Die H100-Angebotsknappheit, die 2023 und Anfang 2024 prägend war, hat sich erheblich entspannt. Hyperscaler und regionale Rechenzentren haben bedeutende neue Kapazitäten online gebracht.7 Was ein Verkäufermarkt war, beginnt sich zu normalisieren, da die Produktion mit den während der Knappheitsperiode aufgegebenen Bestellungen aufholte.
NVIDIAs Fertigungspartner erweiterten die Produktionskapazitäten während 2024 und 2025. Die Kapazitätsinvestitionen, die während der Knappheitsbedingungen getätigt wurden, liefern nun GPUs in einen Markt mit ausgeglichenerer Angebots- und Nachfragesituation. Der Übergang von Knappheit zu Verfügbarkeit veränderte die Preisdynamik grundlegend.
Wettbewerbsintensität
Über 300 neue Anbieter traten 2025 in den H100 Cloud-Markt ein, was zu aggressivem Preiswettbewerb führte.8 Kleinere, spezialisierte Anbieter wie RunPod und Vast.ai bieten Tarife von nur 1,80-1,87 Dollar pro Stunde.9 Der Wettbewerb zwingt größere Anbieter, die Preise anzugleichen oder Kunden zu verlieren.
Die niedrige Eintrittsbarriere für GPU Cloud-Services ermöglichte schnellen Markteintritt. Organisationen mit Rechenzentrumsaccess und Kapital konnten GPUs kaufen oder leasen und Cloud-Services anbieten. Die fragmentierte Marktstruktur intensiviert den Preiswettbewerb im Vergleich zu traditionellen Cloud-Services mit höheren Barrieren.
Nachfrageentwicklung
AI-Startups haben den Fokus vom Training großer Grundlagenmodelle auf Fine-Tuning bestehender Open-Source-Modelle verlagert, was die Nachfrageintensität für die größten GPU-Cluster reduziert.10 Inference-Workloads haben, obwohl sie schnell wachsen, andere Charakteristika als Training – verteilter, niedrigere Anforderungen pro Instanz und preissensibler.
Die Verfügbarkeit leistungsfähiger Open-Source-Modelle wie Llama, Mistral und DeepSeek reduzierte den Bedarf für teures Training von Grund auf. Organisationen können durch Fine-Tuning anstatt Foundation Model Training wettbewerbsfähige AI-Fähigkeiten erreichen. Die Verschiebung verändert die Zusammensetzung der GPU-Nachfrage.
Marktauswirkungen
Der Preisverfall betrifft verschiedene Marktteilnehmer unterschiedlich.
Infrastrukturinvestoren
Organisationen, die GPUs zu Spitzenpreisen kauften, sehen sich mit herausfordernder Wirtschaftlichkeit konfrontiert. Analysen deuten darauf hin, dass sobald H100-Mietpreise unter 1,65 Dollar pro Stunde fallen, die Erlöse die Investition nicht mehr zurückbringen.11 Preise müssen 2,85 Dollar pro Stunde überschreiten, um die interne Rendite zu schlagen, die Aktienmarktalternativen bieten.12
Die Rentabilitätsschwelle erzeugt Bodendrucks auf die Preise. Anbieter, die den Betrieb bei aktuellen Preisen nicht aufrechterhalten können, werden ausscheiden und schließlich das Angebot stabilisieren. Die Bereinigung kann Quartale dauern, da Betreiber mit verschiedenen Kostenstrukturen konkurrieren.
Cloud-Kunden
Organisationen, die GPU-Kapazität mieten, profitieren direkt von Preisrückgängen. Projekte, die zuvor bei 8 Dollar pro Stunde unwirtschaftlich waren, werden bei 2,50 Dollar pro Stunde machbar. Die Zugänglichkeit ermöglicht breitere AI-Experimente und Deployment.
Jedoch erschwert Preisvolatilität die Planung. Organisationen, die sich zu langfristiger GPU-Kapazität verpflichten, sehen sich Unsicherheit gegenüber, ob aktuelle Preise fairen Wert oder temporäres Überangebot darstellen. Kürzerfristige Verpflichtungen bieten Flexibilität, können aber günstige Preise verpassen, falls sich das Angebot verknappt.
Hyperscaler-Positionierung
IBM CEO Arvind Krishna stellte öffentlich in Frage, ob Hyperscaler AI-Infrastrukturinvestitionen Renditen generieren werden, mit der Aussage "auf keinen Fall" funktioniere die Mathematik bei aktuellen Ausgabenlevels.13 Der GPU-Preisverfall liefert unterstützende Evidenz für Skeptiker und kommt GPU-Verbrauchern zugute.
Amazon CEO Andy Jassy konterte, dass Kapazität "so schnell verbraucht wird, wie wir sie bereitstellen", was anhaltende Nachfrage trotz Preisrückgängen nahelegt.14 Das Volumenwachstum kann Preisrückgänge kompensieren, aber Margen stehen branchenweit unter Druck.
Ausblick auf die nächste Generation
Die H100-Preisentwicklung informiert Erwartungen für neuere GPU-Generationen.
Blackwell-Einführung
NVIDIA Blackwell GPUs haben mit der Auslieferung begonnen, wobei GB200-Systeme Kunden erreichen. Die Next-Generation-Architektur bietet bedeutende Leistungsverbesserungen gegenüber H100. Die anfängliche Blackwell-Verfügbarkeit bleibt begrenzt, mit Premium-Preisen, die Knappheit widerspiegeln.
H100-Preise könnten weiter fallen, da die Blackwell-Verfügbarkeit zunimmt. Organisationen, die mit H100-Leistung zufrieden sind, können von anhaltender Preiserosion profitieren. Diejenigen, die Blackwell-Fähigkeiten benötigen, zahlen Premiums bis zur Angebotsnormalisierung.
Mittelfristige Prognosen
Mittelfristige Prognosen legen einen potentiellen Rückgang von 10-20% nahe, wenn B200 GPUs 2026 breiter eingeführt werden.15 Der Einführungszyklus kann das H100-Muster wiederholen: anfängliche Knappheit mit Premium-Preisen gefolgt von Angebotsausweitung und Preisnormalisierung.
Organisationen sollten GPU-Generationstiming bei der Planung von Infrastrukturinvestitionen berücksichtigen. Das Warten auf neuere Generationen bietet Leistungsvorteile, verzögert aber Deployment. Aktuelle Generationshardware zu fallenden Preisen ermöglicht sofortiges Deployment.
Aktueller Preisvergleich
| Anbieter | H100 On-Demand | H100 Spot | Commitment-Rate |
|---|---|---|---|
| AWS P5 | $3.50/Std. | ~$2.50/Std. | $1.90-2.10/Std. (1J) |
| GCP A3-High | $3.25/Std. | $2.25/Std. | ~$2.00/Std. (1J) |
| Azure ND H100 | $3.40/Std. | ~$2.60/Std. | ~$2.15/Std. (1J) |
| RunPod | $2.39/Std. | $1.87/Std. | N/A |
| Vast.ai | Variabel | $1.80-2.50/Std. | N/A |
| Lambda | $2.49/Std. | N/A | $1.99/Std. (reserviert) |
Preise Stand Dezember 2025. Spot-Preise schwanken je nach Verfügbarkeit.
Entscheidungsrahmen: mieten vs kaufen vs warten
| Szenario | Empfehlung | Begründung |
|---|---|---|
| Variable Workload (<50% Auslastung) | Mieten (spot) | Flexibilität überwiegt Eigentumseinsparungen |
| Stetige Workload (>70% Auslastung) | Eigentumseval | Break-even bei aktuellen Preisen erreichbar |
| >$100K/Monat GPU-Ausgaben | Eigene Infrastruktur | Klarer ROI bei anhaltender Auslastung |
| Unsicherer 12-Monats-Ausblick | Kurzfristige Miete | Stranded Assets vermeiden bei Nachfrageverschiebung |
| Training großer Modelle | Eigentum oder reserviert | Konsistente Kapazität kritisch |
Break-even-Analyse: - H100 Kaufpreis: ~$25,000-30,000 pro GPU - Bei $2.50/Std. Miete: 10,000-12,000 Stunden bis Break-even (~14-16 Monate bei 100% Auslastung) - Bei $1.65/Std. Miete: Anbieter können Investition nicht zurückgewinnen11 - Rentabilitätsschwelle: $2.85/Std. um Aktienmarkt-IRR zu schlagen12
Umsetzbare Schritte: 1. Aktuelle Ausgaben prüfen: Effektive Stundenkosten über alle GPU-Nutzung berechnen 2. Auslastung bewerten: Tatsächliche vs reservierte Kapazitätsnutzung messen 3. Commitment-Optionen evaluieren: 1-Jahres-reservierte Preise vs On-Demand vergleichen 4. Hybrid betrachten: Eigentum für Baseline, Miete für Burst-Kapazität
Professionelle Beratung
Infrastrukturentscheidungen in volatilen Märkten profitieren von erfahrener Perspektive.
Introls 550 Außendienstingenieure unterstützen Organisationen bei der Navigation durch GPU-Infrastruktur-Ökonomie.16 Das Unternehmen rangierte #14 auf der 2025 Inc. 5000 mit 9,594% Dreijahreswachstum.17
Expertise an 257 globalen Standorten bietet Markteinblicke unabhängig von der Geografie.18 Professionelle Beratung hilft Organisationen, informierte Entscheidungen zu treffen, während sich die Preisgestaltung entwickelt.
Wichtige Erkenntnisse
Für Beschaffungsteams: - H100-Preise fielen um 64% von $8/Std. auf $2.85-3.50/Std. - 300+ neue Anbieter intensivieren Wettbewerb - Spot-Preise (GCP $2.25, AWS $2.50) bieten besten Wert für flexible Workloads
Für Infrastrukturplaner: - Break-even für Eigentumt: 14-16 Monate bei 100% Auslastung - Anbieter-Rentabilitätsgrenze: ~$1.65/Std. (Preise werden wahrscheinlich nicht viel weiter fallen) - Commitment-Preise ($1.90-2.10/Std.) schlagen On-Demand um 40%+
Für strategische Planung: - Markt normalisiert sich nach 2023-2024 Knappheit—nicht temporärer Rückgang - Blackwell-Einführung kann H100-Preise 2026 weiter senken - Mietflexibilität wertvoll da Technologie sich schnell entwickelt
Ausblick
Der GPU Cloud-Preisverfall stellt Marktnormalisierung nach den Knappheitsbedingungen von 2023-2024 dar. Organisationen profitieren von dramatisch verbesserter GPU-Zugänglichkeit, die breiteren AI-Deployment ermöglicht. Das Preisumfeld kann anhalten, da Angebotswachstum weiter die Nachfrage trifft, wobei Next-Generation-Einführungen potentiell das Muster erweitern.
Organisationen sollten aktuelle Preise für unmittelbare Anforderungen nutzen und gleichzeitig Flexibilität für Marktentwicklung bewahren. Die erfolgreichsten Strategien balancieren Deployment-Dringlichkeit gegen Markt-Timing-Überlegungen und nutzen Mietflexibilität, um vorzeitige Kapitalverpflichtung in einem sich schnell entwickelnden Markt zu vermeiden.
Referenzen
Dringlichkeit: Hoch — Marktverschiebung mit unmittelbaren Beschaffungsauswirkungen Wortanzahl: ~1,800
-
Thunder Compute. "AI GPU Rental Market Trends December 2025." Dezember 2025. https://www.thundercompute.com/blog/ai-gpu-rental-market-trends ↩
-
Silicon Data. "H100 Rental Market Cools in September." September 2025. https://www.silicondata.com/blog/h100-rental-market-update-september-2025 ↩
-
Thunder Compute. "AI GPU Rental Market Trends December 2025." Dezember 2025. ↩
-
IntuitionLabs. "H100 Rental Prices: A Cloud Cost Comparison." November 2025. https://intuitionlabs.ai/articles/h100-rental-prices-cloud-comparison ↩
-
IntuitionLabs. "H100 Rental Prices: A Cloud Cost Comparison." November 2025. ↩
-
Thunder Compute. "AI GPU Rental Market Trends December 2025." Dezember 2025. ↩
-
Silicon Data. "H100 Rental Market Cools in September." September 2025. ↩
-
Thunder Compute. "AI GPU Rental Market Trends December 2025." Dezember 2025. ↩
-
IntuitionLabs. "H100 Rental Prices: A Cloud Cost Comparison." November 2025. ↩
-
Thunder Compute. "AI GPU Rental Market Trends December 2025." Dezember 2025. ↩
-
Cybernews. "AI boom paradox leads to GPU rental market crash." 2025. https://cybernews.com/tech/gpu-rental-prices-are-crashing/ ↩↩
-
Cybernews. "AI boom paradox leads to GPU rental market crash." 2025. ↩↩
-
Fortune. "IBM CEO warns there's 'no way' hyperscalers will turn a profit." Dezember 2025. https://fortune.com/2025/12/03/ibm-ceo-no-way-hyperscalers-google-amazon-turn-profit-data-center-spending/ ↩
-
CIO Dive. "'We're not dabbling here': AWS backs infrastructure investments." Dezember 2025. https://www.ciodive.com/news/aws-ai-cloud-infrastructure-capacity-microsoft-google/746998/ ↩
-
Thunder Compute. "AI GPU Rental Market Trends December 2025." Dezember 2025. ↩
-
Introl. "Company Overview." Introl. 2025. https://introl.com ↩
-
Inc. "Inc. 5000 2025." Inc. Magazine. 2025. ↩
-
Introl. "Coverage Area." Introl. 2025. https://introl.com/coverage-area ↩