Hoe DeepSeek en Qwen de economie van AI-infrastructuur veranderen

DeepSeek R1 werd getraind voor $5,6 miljoen op 2.000 H800 GPU's versus $80-100 miljoen op 16.000 H100's voor vergelijkbare Westerse modellen. Chinese open-source modellen groeiden van 1,2% naar bijna 30% van het wereldwijde gebruik in 2025. AWS,...

Hoe DeepSeek en Qwen de economie van AI-infrastructuur veranderen

Hoe DeepSeek en Qwen de economie van AI-infrastructuur veranderen

Bijgewerkt op 11 december 2025

Update december 2025: DeepSeek R1 werd getraind voor $5,6 miljoen op 2.000 H800 GPU's versus $80-100 miljoen op 16.000 H100's voor vergelijkbare Westerse modellen. Chinese open-source modellen groeiden van 1,2% naar bijna 30% van het wereldwijde gebruik in 2025. AWS, Azure en Google Cloud bieden nu DeepSeek-implementatie aan. HSBC, Standard Chartered en Saudi Aramco testen of implementeren DeepSeek. Qwen 2.5-Max kost $0,38/M tokens versus aanzienlijk hogere Westerse alternatieven.

DeepSeek beweert zijn R1-model te hebben getraind voor slechts $5,6 miljoen met 2.000 NVIDIA H800 GPU's.¹ Vergelijkbare Westerse modellen vereisten $80 miljoen tot $100 miljoen en 16.000 H100 GPU's.² De release in januari 2025, getimed één dag voor OpenAI's $500 miljard Stargate-aankondiging, veroorzaakte een ongekend verlies van $589 miljard aan marktkapitalisatie voor NVIDIA in één dag.³ Chinese AI-modellen transformeerden in één productlancering van regionale curiositeit naar wereldwijde infrastructuuruitdaging.

De efficiëntieclaim verdient nadere beschouwing. Chinese open-source modellen groeiden van 1,2% van het wereldwijde gebruik eind 2024 naar bijna 30% in 2025.⁴ Alibaba meldt meer dan 170.000 afgeleide modellen gebouwd op Qwen.⁵ HSBC, Standard Chartered en Saudi Aramco testen of implementeren nu DeepSeek-modellen.⁶ Amazon Web Services, Microsoft Azure en Google Cloud bieden DeepSeek-implementatie aan hun klanten.⁷ De infrastructuureconomie die ooit grote kapitaaluitgaven bevoordeelde, verschuift mogelijk naar efficiency-first benaderingen die veranderen hoe organisaties AI-investeringen moeten plannen.

DeepSeek's efficiëntiedoorbraak

DeepSeek, een in Hangzhou gevestigd bedrijf met minder dan 200 werknemers, gesteund door kwantitatief fonds High-Flyer ($8 miljard aan beheerd vermogen), heeft opnieuw nagedacht over hoe modellen worden getraind.⁸ In plaats van te vertrouwen op rekenintensieve infrastructuur, maken de modellen gebruik van reinforcement learning en Mixture-of-Experts-architecturen om prestaties te verbeteren terwijl de computationele eisen worden verminderd.⁹

De MoE-architectuur vormt de technische kern van de efficiëntiewinst. In plaats van alle parameters te activeren voor elk inferentieverzoek, activeren MoE-modellen alleen relevante expertnetwerken. De aanpak verlaagt de computationele kosten met tot 30% vergeleken met traditionele dense modellen, terwijl de prestaties behouden blijven of overtroffen worden.¹⁰ DeepSeek toonde aan dat effectieve software-hardware co-design kostenefficiënte training van grote modellen mogelijk maakt, waardoor het speelveld gelijker wordt voor kleinere teams.

Amerikaanse exportbeperkingen leidden tot een golf van improvisatie in de Chinese AI-sector.¹¹ Zonder toegang tot de meest geavanceerde NVIDIA GPU's ontwikkelden Chinese onderzoekers technieken om concurrerende resultaten te bereiken met beschikbare hardware. De beperking werd katalysator. DeepSeek verbaasde wereldwijde waarnemers met een model dat concurreerde met GPT-4-capaciteiten tegen een fractie van de kosten en rekenkracht.

De infrastructuurimplicaties reiken verder dan trainingskosten. Als inferentiekosten vergelijkbare efficiëntiecurves volgen, kunnen cloudproviders hun kapitaaluitgaven verlagen van $80-100 miljard jaarlijks naar $65-85 miljard per cloudserviceprovider.¹² De verlaging zou iedereen beïnvloeden, van chipfabrikanten tot datacenteroperators tot energieleveranciers.

Qwen en het Chinese modelecosysteem

Alibaba's Qwen-modellen bieden efficiëntie die zich direct vertaalt naar bedrijfseconomie. Qwen 2.5-Max kost ongeveer $0,38 per miljoen tokens, aanzienlijk goedkoper dan concurrerende Westerse modellen terwijl het gelijke of betere prestaties levert op verschillende benchmarks.¹³ Voor bedrijven die maandelijks miljarden tokens verwerken, bepaalt het kostenverschil de winstgevendheid.

Airbnb CEO Brian Chesky verklaarde dat het bedrijf Alibaba's Qwen prefereert omdat het "snel en goedkoop" is.¹⁴ Het Japanse Ministerie van Economie koos Qwen boven Amerikaanse alternatieven voor bepaalde toepassingen.¹⁵ LVMH ging een partnerschap aan met Alibaba om Qwen en Model Studio in te zetten voor digitale retailoperaties in China.¹⁶ De adoptie strekt zich uit voorbij kostenbewuste startups naar grote ondernemingen met substantiële AI-budgetten.

Qwen 3 vertegenwoordigt een van de meest uitgebreide open-source modelfamilies die in 2025 zijn uitgebracht. Het aanbod varieert van 0,5 miljard tot 110 miljard parameters, inclusief zowel dense als sparse modellen.¹⁷ Een duale operationele benadering via "Thinking" en "Non-Thinking" modi schakelt dynamisch op basis van taakcomplexiteit, wijst rekenkracht toe waar het ertoe doet en bespaart resources waar dat kan.

Baichuan positioneert zich als het belangrijkste Chinese model voor domeinspecifieke toepassingen. Gebouwd met focus op recht, financiën, geneeskunde en klassieke Chinese literatuur, levert het prestaties in linguïstisch en cultureel genuanceerde taken.¹⁸ Door ALiBi positionele encoding ondersteunt Baichuan langere contextverwerking met efficiënte inferentie. Gekwantiseerde varianten in int8 en int4 zorgen voor implementatie op goedkopere consumer-grade GPU's.¹⁹

Impact op Westerse infrastructuurinvesteringen

De reacties van Wall Street onthulden oprechte onzekerheid. Jefferies waarschuwde dat DeepSeek's aanpak "een deel van de capex-euforie doorprikt" na bestedingsverplichtingen van Meta en Microsoft van elk meer dan $60 miljard.²⁰ Goldman Sachs suggereerde dat de ontwikkeling de concurrentie zou kunnen hervormen door de toetredingsdrempels te verlagen.²¹ De Nasdaq-composiet daalde 3,1% terwijl de S&P 500 1,5% daalde.²²

Het bullish scenario roept de paradox van Jevons aan: efficiëntieverbeteringen leiden tot goedkopere inferentie, wat grotere AI-adoptie stimuleert die uiteindelijk hogere vraag naar infrastructuur drijft.²³ Lagere kosten maken voorheen onrendabele toepassingen mogelijk. Meer toepassingen betekenen meer inferentie. Meer inferentie betekent uiteindelijk meer hardware, alleen efficiënter ingezet.

Het gematigde scenario suggereert dat AI-trainingskosten stabiel blijven terwijl de uitgaven voor inferentie-infrastructuur met 30-50% dalen.²⁴ Cloudproviders zouden kapitaaluitgaven verminderen terwijl ze vergelijkbare of grotere AI-workloads verwerken. De efficiëntiewinsten zouden naar gebruikers vloeien als lagere prijzen in plaats van naar infrastructuurproviders als marges.

Een vertraging in AI-infrastructuuruitgaven zou tijdelijk chipmakers en hardwareleveranciers kunnen beïnvloeden.²⁵ Echter, efficiëntiewinsten door modeloptimalisaties en kostenverlaging zouden op lange termijn tot nog grotere AI-adoptie kunnen leiden, wat uiteindelijk hogere vraag naar AI-hardware drijft. De timing is belangrijk: pijn op korte termijn kan winst op lange termijn voorafgaan.

Strategische implicaties voor infrastructuurplanning

De industrie lijkt weg te draaien van het trainen van massieve large language models voor generalistische use cases.²⁶ Kleinere modellen die zijn gefinetuned en aangepast voor specifieke use cases vervangen in toenemende mate general-purpose frontier modellen voor veel toepassingen. De verschuiving bevoordeelt efficiënte inferentie op schaal boven massieve trainingsruns.

De opkomst van DeepSeek benadrukt een groeiende industriebrede verschuiving van brute-force schaling naar intelligente optimalisatie.²⁷ Gevestigde spelers waaronder OpenAI en Google staan onder druk om efficiëntieverbeteringen te verkennen naarmate AI-adoptie wereldwijd schaalt. De concurrentiedruk komt gebruikers ten goede terwijl het mogelijk de marges van infrastructuurproviders vermindert.

Organisaties die AI-infrastructuur plannen moeten rekening houden met de efficiëntietrends. Modellen die vergelijkbaar presteren tegen lagere rekenkosten stellen aannames over capaciteitsvereisten ter discussie. Het onderscheid tussen trainingsinfrastructuur (nog steeds rekenintensief) en inferentie-infrastructuur (steeds efficiënter) kan groter worden. Overmatig bouwen van inferentiecapaciteit op basis van huidige gebruikspatronen kan organisaties achterlaten met overcapaciteit naarmate de efficiëntie verbetert.

Chinese modellen creëren ook implementatiebeslissingen. Veel bedrijven kunnen nu Chinese AI-capaciteiten benaderen via Westerse cloudproviders, waarbij vertrouwde infrastructuur wordt gecombineerd met efficiënte modellen. Soevereiniteitsoverwegingen, regelgevingsvereisten en concurrentieoverwegingen spelen allemaal mee bij de vraag of Chinese modellen moeten worden geadopteerd ondanks hun efficiëntievoordelen.

De AI-infrastructuureconomie die in 2024 gevestigd leek—waar rekenschaal de capaciteit bepaalde—staat nu voor fundamentele vragen. DeepSeek bewees dat slimme engineering kan substitueren voor ruwe rekenkracht. Qwen toonde aan dat open-source efficiëntie kan concurreren met propriëtaire schaal. De organisaties die AI-strategie bouwden rond onbeperkte rekencapaciteit moeten nu rekening houden met efficiency-first alternatieven die hun aannames over wat AI-infrastructuur vereist ter discussie stellen.

Belangrijkste inzichten

Voor infrastructuurstrategen: - DeepSeek trainde R1 voor $5,6 miljoen met 2.000 H800 GPU's versus $80-100 miljoen en 16.000 H100's voor vergelijkbare Westerse modellen - MoE-architectuur verlaagt computationele kosten met 30% versus dense modellen; efficiëntiewinsten komen voort uit software-hardware co-design - Chinese open-source modellen groeiden van 1,2% naar 30% wereldwijd gebruik in 2025; Alibaba meldt 170.000+ Qwen-afgeleide modellen

Voor enterprise AI-teams: - Qwen 2.5-Max kost ~$0,38/miljoen tokens—aanzienlijk goedkoper dan Westerse alternatieven bij vergelijkbare prestaties - Airbnb CEO noemt voorkeur voor Alibaba's Qwen omdat het "snel en goedkoop" is; Japans Ministerie van Economie koos Qwen boven Amerikaanse alternatieven - AWS, Azure en GCP bieden nu DeepSeek-implementatie; enterprise-adoptie omvat HSBC, Standard Chartered, Saudi Aramco

Voor financiële planning: - Als inferentie-efficiëntie trainingspatronen volgt, kunnen cloudproviders CapEx verlagen van $80-100 miljard naar $65-85 miljard jaarlijks - NVIDIA verloor $589 miljard marktkapitalisatie in één dag bij DeepSeek-aankondiging; Nasdaq daalde 3,1%, S&P 500 daalde 1,5% - Jefferies: DeepSeek "doorprikt capex-euforie" na bestedingsverplichtingen van Meta en Microsoft van elk $60 miljard+

Voor capaciteitsplanners: - Industrie draait weg van massieve generalistische LLM's naar kleinere modellen gefinetuned voor specifieke use cases - Trainingsinfrastructuur blijft rekenintensief; inferentie-infrastructuur wordt steeds efficiënter—plan anders - Overmatig bouwen van inferentiecapaciteit op basis van huidige patronen riskeert gestrande activa naarmate efficiëntie verbetert

Voor strategische planning: - Exportbeperkingen leidden tot improvisatie; beperking werd katalysator voor efficiëntie-innovatie - Paradox van Jevons-scenario: efficiëntie maakt meer toepassingen mogelijk, drijft uiteindelijk hogere hardwarevraag - Organisaties moeten rekening houden met efficiency-first alternatieven bij het plannen van infrastructuurvereisten


Referenties

  1. Bain & Company. "DeepSeek: A Game Changer in AI Efficiency?" 2025. https://www.bain.com/insights/deepseek-a-game-changer-in-ai-efficiency/

  2. Bain & Company. "DeepSeek: A Game Changer in AI Efficiency?"

  3. TechCrunch. "DeepSeek 'punctures' AI leaders' spending plans, and what analysts are saying." January 27, 2025. https://techcrunch.com/2025/01/27/deepseek-punctures-tech-spending-plans-and-what-analysts-are-saying/

  4. Gizmochina. "Why U.S. Startups Are Dumping Western AI for China's Open-Source Models." December 9, 2025. https://www.gizmochina.com/2025/12/09/why-u-s-startups-are-dumping-western-ai-for-chinas-open-source-models/

  5. Intuition Labs. "An Overview of Chinese Open-Source LLMs (Sept 2025)." September 2025. https://intuitionlabs.ai/articles/chinese-open-source-llms-2025

  6. iKangai. "The Enterprise AI Shift: How Chinese Models Are Challenging Silicon Valley's Dominance." 2025. https://www.ikangai.com/the-enterprise-ai-shift-how-chinese-models-are-challenging-silicon-valleys-dominance/

  7. iKangai. "The Enterprise AI Shift."

  8. Bain & Company. "DeepSeek: A Game Changer in AI Efficiency?"

  9. IDC Blog. "DeepSeek's AI Innovation: A Shift in AI Model Efficiency and Cost Structure." January 31, 2025. https://blogs.idc.com/2025/01/31/deepseeks-ai-innovation-a-shift-in-ai-model-efficiency-and-cost-structure/

  10. Gizmochina. "Why U.S. Startups Are Dumping Western AI for China's Open-Source Models."

  11. World Economic Forum. "Why China's AI breakthroughs should come as no surprise." June 2025. https://www.weforum.org/stories/2025/06/china-ai-breakthroughs-no-surprise/

  12. Bain & Company. "DeepSeek: A Game Changer in AI Efficiency?"

  13. Gizmochina. "Why U.S. Startups Are Dumping Western AI for China's Open-Source Models."

  14. Gizmochina. "Why U.S. Startups Are Dumping Western AI for China's Open-Source Models."

  15. Gizmochina. "Why U.S. Startups Are Dumping Western AI for China's Open-Source Models."

  16. Intuition Labs. "An Overview of Chinese Open-Source LLMs (Sept 2025)."

  17. Intuition Labs. "An Overview of Chinese Open-Source LLMs (Sept 2025)."

  18. Intuition Labs. "An Overview of Chinese Open-Source LLMs (Sept 2025)."

  19. Intuition Labs. "An Overview of Chinese Open-Source LLMs (Sept 2025)."

  20. TechCrunch. "DeepSeek 'punctures' AI leaders' spending plans."

  21. TechCrunch. "DeepSeek 'punctures' AI leaders' spending plans."

  22. TechCrunch. "DeepSeek 'punctures' AI leaders' spending plans."

  23. Bain & Company. "DeepSeek: A Game Changer in AI Efficiency?"

  24. Bain & Company. "DeepSeek: A Game Changer in AI Efficiency?"

  25. Bain & Company. "DeepSeek: A Game Changer in AI Efficiency?"

  26. IDC Blog. "DeepSeek's AI Innovation."

  27. IDC Blog. "DeepSeek's AI Innovation."

Offerte aanvragen_

Vertel ons over uw project en wij reageren binnen 72 uur.

> TRANSMISSIE_VOLTOOID

Aanvraag Ontvangen_

Bedankt voor uw aanvraag. Ons team zal uw verzoek beoordelen en binnen 72 uur reageren.

IN WACHTRIJ VOOR VERWERKING