AMD MI350 und die GPU-Wettbewerbslandschaft
Aktualisiert am 11. Dezember 2025
Update Dezember 2025: OpenAI erwirbt bis zu 10% Anteil an AMD, um GPU-Lieferungen von bis zu 6GW zu sichern. MI350 wird mit 288GB HBM3e (gegenüber Blackwells 180GB) und 8TB/s Bandbreite ausgeliefert. Microsoft Azure betreibt produktive Copilot-Workloads auf MI300X. Oracle setzt 16.384-GPU MI300X-Supercluster ein. AMDs ROCm-Software-Stack erreicht Enterprise-Reife, während NVIDIA-Alternativen an Glaubwürdigkeit gewinnen.
OpenAI kündigte eine Partnerschaft mit AMD an, die den Erwerb von bis zu 10% Anteil am Unternehmen beinhaltet, um Lieferungen von bis zu sechs Gigawatt an GPUs zu sichern.¹ AMD unterzeichnete im Oktober 2025 einen Vertrag zur Lieferung von KI-Chips an Oracle für dessen Cloud-Infrastruktur.² Microsoft Azure betreibt nun sowohl proprietäre als auch Open-Source-Modelle produktiv auf AMD Instinct MI300X.³ Während NVIDIA 80% bis 95% des KI-GPU-Marktes hält, etablierte sich AMD als glaubwürdige Alternative, die Unternehmen zunehmend für Inferenz-Workloads und Kostenoptimierung in Betracht ziehen.⁴
Die MI350-Serie wurde im Q3 2025 mit Spezifikationen eingeführt, die NVIDIA's Blackwell auf dem Papier herausfordern: 288 Gigabyte HBM3e-Speicher, 8 Terabyte pro Sekunde Bandbreite und Behauptungen einer 2,2-fachen KI-Leistung gegenüber konkurrierenden Beschleunigern.⁵ Die Frage für Enterprise-Infrastrukturplaner ist, ob AMDs Hardware-Vorteile und der verbesserte Software-Stack den Wechsel von NVIDIAs etabliertem Ökosystem rechtfertigen.
MI350 Spezifikationen und Positionierung
Die AMD Instinct MI350-Serie verfügt über 185 Milliarden Transistoren und 288 Gigabyte HBM3e-Speicher.⁶ Basierend auf der AMD CDNA-Architektur der 4. Generation bietet die MI350-Serie erweiterte Datentyp-Unterstützung einschließlich MXFP6 und MXFP4 für KI-Inferenz, Training und HPC-Workloads.⁷ Die Flaggschiff-Plattform MI355X liefert bis zu 4-fache theoretische Spitzenleistung gegenüber der Vorgängergeneration MI300X.⁸
Die Speicherkapazität bietet AMDs deutlichsten Hardware-Vorteil. Die 288 Gigabyte HBM3e des MI355X übertreffen NVIDIAs Hopper H200 mit 141 Gigabyte und den Blackwell B200 mit 180 Gigabyte.⁹ Die Speicherbandbreite erreicht 8 Terabyte pro Sekunde im Vergleich zu 4,8 Terabyte pro Sekunde beim H200 und 7,7 Terabyte pro Sekunde beim B200.¹⁰
Der Stromverbrauch erreicht 1.400 Watt für den MI355X und entspricht damit den Anforderungen von Blackwell Ultra.¹¹ Die ähnlichen Leistungsprofile bedeuten, dass sich die Infrastrukturanforderungen in dieser Leistungsklasse zwischen den Anbietern nicht wesentlich unterscheiden.
AMD testete den MI355X gegen NVIDIA B200 und GB200-Plattformen und maß den Trainingsdurchsatz für das Fine-Tuning von Llama2-70B sowie den Inferenzdurchsatz bei Llama 3.1-405B.¹² Die Benchmarks zeigen wettbewerbsfähige Leistung, obwohl reale Ergebnisse stark von der Software-Optimierung abhängen.
Der MI350 wurde im Q3 2025 an Partner und Hyperscale-Rechenzentren ausgeliefert.¹³ AMDs jährlicher Beschleuniger-Aktualisierungszyklus setzt sich mit der für 2026 bestätigten MI400-Serie fort.¹⁴ Das Helios AI-Referenzdesign integriert MI400-GPUs, EPYC Venice-CPUs und Pensando Vulcano-NICs in einer Full-Rack-Architektur.¹⁵
Cloud-Provider-Adoption beschleunigt sich
IBM Cloud wird AMD Instinct MI300X-GPUs in der ersten Hälfte von 2025 hinzufügen.¹⁶ Die Zusammenarbeit ermöglicht die Unterstützung von AMD-Beschleunigern innerhalb von IBMs watsonx KI-Plattform und Red Hat Enterprise Linux AI-Inferenz.¹⁷ Der Enterprise-Fokus zielt auf Kunden ab, die Alternativen zu NVIDIA für produktive KI-Workloads suchen.
Microsoft Azure startete MI300X-gestützte KI-Cluster in den Regionen Schweden und Irland zur Unterstützung benutzerdefinierter Copilot-Workloads.¹⁸ Dass Microsoft AMD im Produktivbetrieb für proprietäre Modelle einsetzt, zeigt, dass die Software-Reife Enterprise-Anforderungen erreicht hat.
Die Oracle Cloud Infrastructure Compute Supercluster-Instanz unterstützt bis zu 16.384 MI300X-GPUs in einem einzigen Cluster.¹⁹ Die Skalierung ermöglicht das Training und die Bereitstellung von Modellen mit Hunderten von Milliarden Parametern.²⁰ Oracles Einsatz konzentriert sich auf Gesundheits- und Genomik-KI-Anwendungsfälle, bei denen AMDs Speicherkapazität Vorteile bietet.²¹
Die Gewinne bei Vultr und Oracle Cloud demonstrieren das wachsende Momentum hinter AMDs Beschleunigertechnologie.²² Lenovo, Dell und SuperMicro kündigten MI300-basierte Angebote an.²³ Das Anbieter-Ökosystem unterstützt AMD nun im Enterprise-Maßstab.
Cohere setzt seine Command-Modelle auf AMD Instinct MI300X ein und ermöglicht Enterprise-Grade-LLM-Inferenz mit hohem Durchsatz und Datenschutz.²⁴ Die Adoption durch KI-Modellanbieter validiert AMDs Position für Inferenz-Workloads.
Software-Ökosystem reift heran
Das Software-Ökosystem begrenzte historisch die AMD-Adoption. CUDAs Verankerung machte NVIDIA zur Standardwahl. Die Situation hat sich 2025 wesentlich verändert.
PyTorch 3.1 bietet native ROCm-Unterstützung für Training und Inferenz.²⁵ Beliebte Bibliotheken wie DeepSpeed und Hugging Face Accelerate haben AMD-spezifische Performance-Flags hinzugefügt.²⁶ Entwickler fühlen sich zunehmend wohl dabei, direkt für MI300X-Umgebungen zu entwickeln.²⁷
Enterprise-KI-Teams migrieren Inferenz-Workloads zu AMD, um Kosten zu senken, ohne die Leistung zu beeinträchtigen.²⁸ Der Kostenunterschied ist bei Inferenz wichtiger als beim Training, da Inferenz kontinuierlich läuft und die langfristigen Ausgaben dominiert.
NVIDIAs CUDA bietet immer noch eine breitere Entwicklerakzeptanz und ausgereiftere Werkzeuge.²⁹ Die reale Leistung in Produktionsumgebungen begünstigt oft NVIDIA aufgrund der Ökosystem-Optimierung und nicht der reinen Hardware-Fähigkeit.³⁰ Organisationen müssen die Kosteneinsparungen gegen die erforderliche Engineering-Investition zur Optimierung für AMD abwägen.
AMDs Akquisition von KI-Hardware- und Software-Ingenieuren von Untether AI verbessert die Compiler-, Kernel-Entwicklungs- und Chip-Design-Fähigkeiten.³¹ Die Investition stärkt AMDs Position im Inferenz-Markt, wo CUDAs Burggraben schmaler wird.³²
Marktdynamik und Marktanteile
NVIDIA hält 80% bis 95% des KI-GPU-Marktes im Jahr 2025.³³ Daten von Wells Fargo zeigen, dass NVIDIAs Anteil bei KI-Beschleunigern zwischen 80% und 90% liegt.³⁴ NVIDIA hält über 90% Marktanteil im Rechenzentrum-GPU-Bereich, wobei der Großteil des grundlegenden KI-Codes auf CUDA aufbaut.³⁵
AMDs Rechenzentrumseinnahmen im Q3 2025 erreichten 4,3 Milliarden Dollar.³⁶ NVIDIAs Einzelquartals-Rechenzentrumseinnahmen erreichten bis Ende Juli 2025 41,1 Milliarden Dollar.³⁷ Die Umsatzlücke demonstriert den Größenunterschied zwischen den Marktführern.
JPR-Daten zeigen, dass NVIDIA 94% des diskreten GPU-Marktes kontrolliert, während AMD etwa 6% kontrolliert.³⁸ AMDs Anteil bleibt ein weit abgeschlagener zweiter Platz, obwohl der Markt schnell genug wächst, dass beide Anbieter wachsen.
AMDs Marktanteil bei Rechenzentrum-KI-GPUs stieg seit Q1 2023 stetig an.³⁹ Im Q1 2025 begann NVIDIAs massive Blackwell-Hochlaufphase, und da AMDs Antwort erst im Q3 2025 kam, sank AMDs Anteil vorübergehend.⁴⁰ Der Wettbewerbszyklus wird sich fortsetzen, wenn jeder Anbieter neue Generationen veröffentlicht.
Strategische Chancen für AMD
AMD hat sich eine Nische im Inferenz-Markt geschaffen, wo NVIDIAs CUDA-Burggraben schmaler ist.⁴¹ Inferenz wird schließlich größer als Training werden, was AMD für die langfristige Wachstumstrajektorie des Marktes positioniert.⁴²
AMDs Ansatz konzentriert sich auf strategisch ausgewählte Chancen, anstatt zu versuchen, mit NVIDIA in allen Segmenten gleichzuziehen.⁴³ Die Strategie vergrößert AMDs Anteil an einem schnell wachsenden Markt und vermeidet gleichzeitig direkte Konkurrenz dort, wo NVIDIAs Vorteile am stärksten sind.⁴⁴
Die OpenAI-Partnerschaft stellt eine wichtige Validierung dar. OpenAIs potenzielles 200-Milliarden-Dollar-Engagement für bis zu sechs Gigawatt AMD-GPUs signalisiert Vertrauen in AMDs Roadmap.⁴⁵ Der Deal verschafft AMD einen namhaften Kunden, der die Wahrnehmung im Enterprise-Bereich beeinflusst.
AMDs aggressive Preisstrategie unterbietet NVIDIA, obwohl die Preisgestaltung allein AMD nicht ermöglicht hat, NVIDIAs Leistung bei Marktanteilsgewinnen zu erreichen.⁴⁶ Die Kombination aus wettbewerbsfähiger Hardware, verbesserter Software und günstigen Preisen schafft Chancen bei kostenbewussten Unternehmen.
Enterprise-Einsatzüberlegungen
Organisationen, die AMD evaluieren, sollten ihren Workload-Mix berücksichtigen. Training-Workloads, insbesondere solche mit umfangreichen CUDA-Abhängigkeiten, favorisieren weiterhin NVIDIA. Inferenz-Workloads bieten mehr Möglichkeiten für die AMD-Adoption mit geringeren Wechselkosten.
Speicherkapazitätsvorteile sind wichtig für große Modelle. Die 288 Gigabyte des MI350 ermöglichen die Single-GPU-Verarbeitung von Modellen, die mehrere NVIDIA-GPUs erfordern. Der Speichervorteil reduziert die Infrastrukturkomplexität für Organisationen, die die größten Modelle betreiben.
Die Anforderungen an Software-Investitionen sollten nicht unterschätzt werden. Obwohl sich ROCm erheblich verbessert hat, benötigen Teams, die an CUDA gewöhnt sind, Zeit und Ressourcen zur Optimierung für AMD. Die Lernkurve beeinflusst die Time-to-Production für neue Deployments.
Multi-Vendor-Strategien bieten Risikominderung. Organisationen, die sowohl NVIDIA als auch AMD qualifizieren, können bessere Preise verhandeln, Lieferengpässe vermeiden und die optimale Hardware für jeden Workload-Typ wählen. Die Investition in die Unterstützung beider Plattformen zahlt sich bei großen Deployments aus.
Cloud-basierter AMD-Zugang reduziert Adoptionsbarrieren. IBM, Microsoft, Oracle und andere Anbieter bieten AMD-Instanzen an, die Tests ohne Hardware-Beschaffung ermöglichen. Organisationen können die AMD-Leistung bei ihren Workloads validieren, bevor sie sich zu Infrastrukturkäufen verpflichten.
Schnelles Entscheidungsframework
AMD vs NVIDIA Auswahl:
| Wenn Ihr Workload ist... | Erwägen Sie | Begründung |
|---|---|---|
| Training mit CUDA-Abhängigkeiten | NVIDIA | Ökosystem-Reife, Werkzeuge |
| Inferenz in großem Maßstab | AMD MI350 | Kosteneinsparungen, Speichervorteil |
| Speichergebundene große Modelle | AMD MI350/355X | 288GB vs 180GB (B200) |
| Multi-Vendor-Risikominderung | Beide | Lieferdiversifizierung |
| Cloud-basierte Evaluierung | AMD (IBM, Azure, Oracle) | Test ohne Beschaffung |
Spezifikationsvergleich:
| Spezifikation | AMD MI355X | NVIDIA B200 | NVIDIA H200 |
|---|---|---|---|
| HBM-Speicher | 288 GB | 180 GB | 141 GB |
| Speicherbandbreite | 8 TB/s | 7,7 TB/s | 4,8 TB/s |
| TDP | 1.400W | 1.000W | 700W |
| Architektur | CDNA 4 | Blackwell | Hopper |
| Marktanteil | ~6% | ~80-95% | ~80-95% |
Kernaussagen
Für Infrastrukturarchitekten: - AMD MI350 bietet 288GB HBM3e—60% mehr als B200s 180GB - ROCm-Software-Stack ist 2025 erheblich gereift—PyTorch 3.1 bietet native Unterstützung - Inferenz-Workloads bieten die niedrigsten Wechselkosten von NVIDIA - Cloud-Provider (IBM, Azure, Oracle) ermöglichen Tests ohne Hardware-Beschaffung
Für Beschaffungsteams: - OpenAIs 10% AMD-Anteil signalisiert langfristiges Liefervertrauen - AMD-Preise unterbieten NVIDIA, haben sich aber nicht in entsprechende Marktanteilsgewinne übersetzt - Multi-Vendor-Strategie ermöglicht bessere Verhandlungsposition und Lieferresilienz - Speicherkapazitätsvorteil ermöglicht Single-GPU-Verarbeitung größerer Modelle
Für strategische Planung: - NVIDIA hält 80-95% Marktanteil—AMD ist glaubwürdige Alternative, kein Ersatz - Inferenz-Markt wird schließlich Training übertreffen—AMDs Zielsegment - Software-Investition für AMD-Optimierung erforderlich—in TCO-Analyse einbeziehen - MI400-Serie für 2026 bestätigt—Roadmap-Transparenz verbessert Planung
AMD wird auf absehbare Zeit ein weit abgeschlagener Zweiter hinter NVIDIA bleiben.⁴⁷ Der große und wachsende KI-Markt bedeutet jedoch, dass selbst ein Minderheitsanteil erhebliche Einnahmen darstellt und AMD als praktikable Enterprise-Option etabliert. Organisationen, die AMD-Expertise entwickeln, positionieren sich für Kostenoptimierung und Lieferdiversifizierung, während sich der Markt weiterentwickelt.
Referenzen
-
Tech Research Online. "NVIDIA vs AMD (2025): GPUs, AI & Market Share." 2025. https://techresearchonline.com/blog/nvidia-vs-amd-the-gpu-battle-for-ai-dominance/
-
36Kr. "AMD's Aggressive Pricing Stabs Intel but Fails to Outperform NVIDIA." 2025. https://eu.36kr.com/en/p/3541331537719433
-
AMD Newsroom. "AMD Unveils Vision for an Open AI Ecosystem." June 2025. https://www.amd.com/en/newsroom/press-releases/2025-6-12-amd-unveils-vision-for-an-open-ai-ecosystem-detai.html
-
Tech Research Online. "NVIDIA vs AMD (2025)."
-
AMD. "AMD Instinct MI350 Series GPUs." 2025. https://www.amd.com/en/products/accelerators/instinct/mi350.html
-
Kontronn. "AMD Instinct MI350 Officially Announced: 185 Billion Transistors and 288GB HBM
[Content truncated for translation]