Wie DeepSeek und Qwen die Wirtschaftlichkeit der KI-Infrastruktur verändern
Aktualisiert am 11. Dezember 2025
Update Dezember 2025: DeepSeek R1 wurde für 5,6 Mio. $ auf 2.000 NVIDIA H800-GPUs trainiert – im Vergleich zu 80-100 Mio. $ auf 16.000 H100s für vergleichbare westliche Modelle. Chinesische Open-Source-Modelle wuchsen 2025 von 1,2 % auf fast 30 % der weltweiten Nutzung. AWS, Azure und Google Cloud bieten jetzt DeepSeek-Deployment an. HSBC, Standard Chartered und Saudi Aramco testen oder deployen DeepSeek. Qwen 2.5-Max kostet 0,38 $/M Tokens gegenüber deutlich teureren westlichen Alternativen.
DeepSeek behauptet, sein R1-Modell für nur 5,6 Millionen Dollar mit 2.000 NVIDIA H800-GPUs trainiert zu haben.¹ Vergleichbare westliche Modelle erforderten 80 bis 100 Millionen Dollar und 16.000 H100-GPUs.² Die Veröffentlichung im Januar 2025, einen Tag vor OpenAIs Ankündigung des 500-Milliarden-Dollar-Stargate-Projekts, löste einen beispiellosen Marktkapitalisierungsverlust von 589 Milliarden Dollar an einem einzigen Tag für NVIDIA aus.³ Chinesische KI-Modelle entwickelten sich mit einer einzigen Produkteinführung von einer regionalen Kuriosität zur globalen Infrastruktur-Herausforderung.
Die Effizienzbehauptung verdient eine genauere Untersuchung. Chinesische Open-Source-Modelle wuchsen von 1,2 % der globalen Nutzung Ende 2024 auf fast 30 % im Jahr 2025.⁴ Alibaba meldet mehr als 170.000 auf Qwen aufbauende abgeleitete Modelle.⁵ HSBC, Standard Chartered und Saudi Aramco testen oder deployen jetzt DeepSeek-Modelle.⁶ Amazon Web Services, Microsoft Azure und Google Cloud bieten ihren Kunden DeepSeek-Deployment an.⁷ Die Infrastrukturökonomie, die einst massive Kapitalausgaben begünstigte, könnte sich hin zu effizienzorientierten Ansätzen verschieben, die verändern, wie Organisationen KI-Investitionen planen sollten.
DeepSeeks Effizienz-Durchbruch
DeepSeek, ein in Hangzhou ansässiges Unternehmen mit weniger als 200 Mitarbeitern, unterstützt vom quantitativen Fonds High-Flyer (8 Milliarden Dollar verwaltetes Vermögen), hat das Training von Modellen neu gedacht.⁸ Anstatt sich auf rechenintensive Infrastruktur zu verlassen, nutzen seine Modelle Reinforcement Learning und Mixture-of-Experts-Architekturen, um die Leistung zu verbessern und gleichzeitig den Rechenaufwand zu reduzieren.⁹
Die MoE-Architektur stellt den technischen Kern der Effizienzgewinne dar. Anstatt für jede Inferenzanfrage alle Parameter zu aktivieren, aktivieren MoE-Modelle nur relevante Expertennetzwerke. Der Ansatz reduziert die Rechenkosten im Vergleich zu traditionellen dichten Modellen um bis zu 30 %, während die Leistung beibehalten oder sogar übertroffen wird.¹⁰ DeepSeek demonstrierte, dass effektives Software-Hardware-Co-Design kosteneffizientes Training großer Modelle ermöglicht und damit das Spielfeld für kleinere Teams ebnet.
US-Exportkontrollen lösten eine Welle der Improvisation im chinesischen KI-Sektor aus.¹¹ Da ihnen der Zugang zu den fortschrittlichsten NVIDIA-GPUs verwehrt wurde, entwickelten chinesische Forscher Techniken, um mit verfügbarer Hardware wettbewerbsfähige Ergebnisse zu erzielen. Die Einschränkung wurde zum Katalysator. DeepSeek verblüffte globale Beobachter mit einem Modell, das mit GPT-4-Fähigkeiten zu einem Bruchteil der Kosten und des Rechenaufwands konkurrierte.
Die Auswirkungen auf die Infrastruktur gehen über die Trainingskosten hinaus. Wenn die Inferenzkosten ähnlichen Effizienzkurven folgen, könnten Cloud-Anbieter ihre Kapitalausgaben von 80-100 Milliarden Dollar jährlich auf 65-85 Milliarden Dollar pro Cloud-Service-Provider reduzieren.¹² Die Reduzierung würde jeden betreffen, von Chip-Herstellern über Rechenzentrumsbetreiber bis hin zu Energieversorgern.
Qwen und das chinesische Modell-Ökosystem
Alibabas Qwen-Modelle bieten Effizienz, die sich direkt in Unternehmensökonomie übersetzt. Qwen 2.5-Max kostet etwa 0,38 Dollar pro Million Tokens – deutlich günstiger als konkurrierende westliche Modelle bei gleicher oder besserer Leistung in mehreren Benchmarks.¹³ Für Unternehmen, die monatlich Milliarden von Tokens verarbeiten, bestimmt der Kostenunterschied die Rentabilität.
Airbnb-CEO Brian Chesky erklärte, das Unternehmen bevorzuge Alibabas Qwen, weil es „schnell und günstig" sei.¹⁴ Japans Wirtschaftsministerium wählte Qwen für bestimmte Anwendungen gegenüber US-Alternativen.¹⁵ LVMH ging eine Partnerschaft mit Alibaba ein, um Qwen und Model Studio für digitale Einzelhandelsoperationen in China zu nutzen.¹⁶ Die Akzeptanz geht über kostenbewusste Startups hinaus zu großen Unternehmen mit beträchtlichen KI-Budgets.
Qwen 3 stellt eine der umfassendsten Open-Source-Modellfamilien dar, die 2025 veröffentlicht wurden. Die Palette reicht von 0,5 Milliarden bis 110 Milliarden Parametern, einschließlich sowohl dichter als auch spärlicher Modelle.¹⁷ Ein dualer Betriebsansatz durch „Thinking"- und „Non-Thinking"-Modi wechselt dynamisch basierend auf der Aufgabenkomplexität und weist Rechenleistung dort zu, wo sie benötigt wird, während andernorts Ressourcen geschont werden.
Baichuan positioniert sich als das führende chinesische Modell für domänenspezifische Anwendungen. Mit Fokus auf Recht, Finanzen, Medizin und klassische chinesische Literatur entwickelt, liefert es Leistung bei sprachlich und kulturell nuancierten Aufgaben.¹⁸ Durch ALiBi-Positionskodierung unterstützt Baichuan längere Kontextverarbeitung mit effizienter Inferenz. Quantisierte Varianten in int8 und int4 ermöglichen die Bereitstellung auf kostengünstigeren Consumer-GPUs.¹⁹
Auswirkungen auf westliche Infrastrukturinvestitionen
Die Reaktionen der Wall Street offenbarten echte Unsicherheit. Jefferies warnte, dass DeepSeeks Ansatz „etwas von der Capex-Euphorie durchsticht", die auf Ausgabenverpflichtungen von Meta und Microsoft von jeweils über 60 Milliarden Dollar folgte.²⁰ Goldman Sachs deutete an, dass die Entwicklung den Wettbewerb durch Senkung der Eintrittsbarrieren umgestalten könnte.²¹ Der Nasdaq Composite fiel um 3,1 %, während der S&P 500 um 1,5 % nachgab.²²
Das bullische Szenario beruft sich auf das Jevons-Paradoxon: Effizienzverbesserungen führen zu günstigerer Inferenz, was eine größere KI-Akzeptanz anregt, die letztendlich eine höhere Nachfrage nach Infrastruktur antreibt.²³ Niedrigere Kosten ermöglichen Anwendungen, die zuvor unwirtschaftlich waren. Mehr Anwendungen bedeuten mehr Inferenz. Mehr Inferenz bedeutet schließlich mehr Hardware, nur effizienter eingesetzt.
Das moderate Szenario suggeriert, dass die KI-Trainingskosten stabil bleiben, während die Ausgaben für Inferenz-Infrastruktur um 30-50 % sinken.²⁴ Cloud-Anbieter würden die Kapitalausgaben reduzieren und gleichzeitig ähnliche oder größere KI-Workloads erfassen. Die Effizienzgewinne würden als niedrigere Preise an die Nutzer weitergegeben, anstatt als Margen an die Infrastrukturanbieter.
Eine Verlangsamung der KI-Infrastrukturausgaben könnte Chip-Hersteller und Hardware-Anbieter vorübergehend beeinträchtigen.²⁵ Allerdings könnten Effizienzgewinne durch Modelloptimierungen und Kostenreduzierungen langfristig zu einer noch größeren KI-Akzeptanz führen und letztendlich eine höhere Nachfrage nach KI-Hardware antreiben. Das Timing ist wichtig: Kurzfristige Schmerzen können langfristigen Gewinnen vorausgehen.
Strategische Implikationen für die Infrastrukturplanung
Die Branche scheint sich vom Training massiver Large Language Models für generalistische Anwendungsfälle abzuwenden.²⁶ Kleinere Modelle, die für spezifische Anwendungsfälle feinabgestimmt und angepasst werden, ersetzen zunehmend universelle Frontier-Modelle für viele Anwendungen. Die Verschiebung begünstigt effiziente Inferenz im großen Maßstab gegenüber massiven Trainingsläufen.
Das Aufkommen von DeepSeek unterstreicht eine branchenweite Verschiebung von Brute-Force-Skalierung hin zu intelligenter Optimierung.²⁷ Etablierte Akteure wie OpenAI und Google stehen unter Druck, Effizienzverbesserungen zu erkunden, während die KI-Akzeptanz global skaliert. Der Wettbewerbsdruck kommt den Nutzern zugute, während er potenziell die Margen der Infrastrukturanbieter reduziert.
Organisationen, die KI-Infrastruktur planen, sollten die Effizienztrends berücksichtigen. Modelle, die bei geringeren Rechenkosten vergleichbar performen, stellen Annahmen über Kapazitätsanforderungen infrage. Die Unterscheidung zwischen Trainingsinfrastruktur (nach wie vor rechenintensiv) und Inferenzinfrastruktur (zunehmend effizient) könnte sich vergrößern. Überdimensionierung der Inferenzkapazität basierend auf aktuellen Nutzungsmustern könnte Organisationen mit Überkapazitäten zurücklassen, wenn sich die Effizienz verbessert.
Chinesische Modelle schaffen auch Deployment-Entscheidungen. Viele Unternehmen können jetzt über westliche Cloud-Anbieter auf chinesische KI-Fähigkeiten zugreifen und so vertraute Infrastruktur mit effizienten Modellen kombinieren. Souveränitätsbedenken, regulatorische Anforderungen und wettbewerbliche Überlegungen fließen alle in die Entscheidung ein, ob chinesische Modelle trotz ihrer Effizienzvorteile eingesetzt werden sollen.
Die KI-Infrastrukturwirtschaft, die 2024 noch als geklärt galt – wo Rechenskalierung die Fähigkeit bestimmte – steht jetzt vor fundamentalen Fragen. DeepSeek bewies, dass intelligentes Engineering rohe Rechenleistung ersetzen kann. Qwen demonstrierte, dass Open-Source-Effizienz mit proprietärer Skalierung konkurrieren kann. Die Organisationen, die ihre KI-Strategie um unbegrenzte Rechenkapazität herum aufgebaut haben, müssen jetzt effizienzorientierte Alternativen berücksichtigen, die ihre Annahmen darüber, was KI-Infrastruktur erfordert, infrage stellen.
Wichtige Erkenntnisse
Für Infrastrukturstrategen: - DeepSeek trainierte R1 für 5,6 Mio. $ mit 2.000 H800-GPUs vs. 80-100 Mio. $ und 16.000 H100s für vergleichbare westliche Modelle - MoE-Architektur reduziert Rechenkosten um 30 % gegenüber dichten Modellen; Effizienzgewinne resultieren aus Software-Hardware-Co-Design - Chinesische Open-Source-Modelle wuchsen 2025 von 1,2 % auf 30 % globaler Nutzung; Alibaba meldet 170.000+ Qwen-Derivatmodelle
Für Enterprise-KI-Teams: - Qwen 2.5-Max kostet ~0,38 $/Million Tokens – deutlich günstiger als westliche Alternativen bei vergleichbarer Leistung - Airbnb-CEO nennt die Präferenz für Alibabas Qwen, weil es „schnell und günstig" ist; Japans Wirtschaftsministerium wählte Qwen gegenüber US-Alternativen - AWS, Azure und GCP bieten jetzt DeepSeek-Deployment an; Enterprise-Akzeptanz umfasst HSBC, Standard Chartered, Saudi Aramco
Für die Finanzplanung: - Wenn die Inferenzeffizienz den Trainingsmustern folgt, könnten Cloud-Anbieter CapEx von 80-100 Mrd. $ auf 65-85 Mrd. $ jährlich reduzieren - NVIDIA verlor 589 Mrd. $ Marktkapitalisierung an einem einzigen Tag nach der DeepSeek-Ankündigung; Nasdaq fiel 3,1 %, S&P 500 fiel 1,5 % - Jefferies: DeepSeek „durchsticht Capex-Euphorie" nach Meta- und Microsoft-Ausgabenverpflichtungen von jeweils über 60 Mrd. $
Für Kapazitätsplaner: - Branche schwenkt von massiven generalistischen LLMs zu kleineren, für spezifische Anwendungsfälle feinabgestimmten Modellen um - Trainingsinfrastruktur bleibt rechenintensiv; Inferenzinfrastruktur wird zunehmend effizienter – planen Sie entsprechend unterschiedlich - Überdimensionierung der Inferenzkapazität basierend auf aktuellen Mustern riskiert gestrandete Assets, wenn sich die Effizienz verbessert
Für die strategische Planung: - Exportkontrollen lösten Improvisation aus; Einschränkung wurde zum Katalysator für Effizienzinnovation - Jevons-Paradoxon-Szenario: Effizienz ermöglicht mehr Anwendungen und treibt letztendlich höhere Hardware-Nachfrage - Organisationen müssen effizienzorientierte Alternativen bei der Planung von Infrastrukturanforderungen berücksichtigen
Referenzen
-
Bain & Company. "DeepSeek: A Game Changer in AI Efficiency?" 2025. https://www.bain.com/insights/deepseek-a-game-changer-in-ai-efficiency/
-
Bain & Company. "DeepSeek: A Game Changer in AI Efficiency?"
-
TechCrunch. "DeepSeek 'punctures' AI leaders' spending plans, and what analysts are saying." January 27, 2025. https://techcrunch.com/2025/01/27/deepseek-punctures-tech-spending-plans-and-what-analysts-are-saying/
-
Gizmochina. "Why U.S. Startups Are Dumping Western AI for China's Open-Source Models." December 9, 2025. https://www.gizmochina.com/2025/12/09/why-u-s-startups-are-dumping-western-ai-for-chinas-open-source-models/
-
Intuition Labs. "An Overview of Chinese Open-Source LLMs (Sept 2025)." September 2025. https://intuitionlabs.ai/articles/chinese-open-source-llms-2025
-
iKangai. "The Enterprise AI Shift: How Chinese Models Are Challenging Silicon Valley's Dominance." 2025. https://www.ikangai.com/the-enterprise-ai-shift-how-chinese-models-are-challenging-silicon-valleys-dominance/
-
iKangai. "The Enterprise AI Shift."
-
Bain & Company. "DeepSeek: A Game Changer in AI Efficiency?"
-
IDC Blog. "DeepSeek's AI Innovation: A Shift in AI Model Efficiency and Cost Structure." January 31, 2025. https://blogs.idc.com/2025/01/31/deepseeks-ai-innovation-a-shift-in-ai-model-efficiency-and-cost-structure/
-
Gizmochina. "Why U.S. Startups Are Dumping Western AI for China's Open-Source Models."
-
World Economic Forum. "Why China's AI breakthroughs should come as no surprise." June 2025. https://www.weforum.org/stories/2025/06/china-ai-breakthroughs-no-surprise/
-
Bain & Company. "DeepSeek: A Game Changer in AI Efficiency?"
-
Gizmochina. "Why U.S. Startups Are Dumping Western AI for China's Open-Source Models."
-
Gizmochina. "Why U.S. Startups Are Dumping Western AI for China's Open-Source Models."
[Inhalt für Übersetzung gekürzt]