Comment DeepSeek et Qwen transforment l'économie de l'infrastructure IA
Mis à jour le 11 décembre 2025
Mise à jour décembre 2025 : DeepSeek R1 a été entraîné pour 5,6 M$ sur 2 000 GPU H800 contre 80-100 M$ sur 16 000 H100 pour des modèles occidentaux comparables. Les modèles open source chinois sont passés de 1,2 % à près de 30 % de l'utilisation mondiale en 2025. AWS, Azure et Google Cloud proposent désormais le déploiement de DeepSeek. HSBC, Standard Chartered et Saudi Aramco testent ou déploient DeepSeek. Qwen 2.5-Max coûte 0,38 $/M de tokens contre des alternatives occidentales nettement plus chères.
DeepSeek affirme avoir entraîné son modèle R1 pour seulement 5,6 millions de dollars en utilisant 2 000 GPU NVIDIA H800.¹ Les modèles occidentaux comparables ont nécessité entre 80 et 100 millions de dollars et 16 000 GPU H100.² La sortie de janvier 2025, programmée un jour avant l'annonce du projet Stargate de 500 milliards de dollars d'OpenAI, a déclenché une perte de capitalisation boursière sans précédent de 589 milliards de dollars en une seule journée pour NVIDIA.³ Les modèles d'IA chinois sont passés du statut de curiosité régionale à celui de défi infrastructurel mondial en un seul lancement de produit.
L'affirmation d'efficacité mérite examen. Les modèles open source chinois sont passés de 1,2 % de l'utilisation mondiale fin 2024 à près de 30 % en 2025.⁴ Alibaba rapporte plus de 170 000 modèles dérivés construits sur Qwen.⁵ HSBC, Standard Chartered et Saudi Aramco testent ou déploient désormais des modèles DeepSeek.⁶ Amazon Web Services, Microsoft Azure et Google Cloud proposent le déploiement de DeepSeek à leurs clients.⁷ L'économie de l'infrastructure qui favorisait autrefois les dépenses d'investissement massives pourrait être en train de s'orienter vers des approches axées sur l'efficacité qui changent la façon dont les organisations devraient planifier leurs investissements en IA.
La percée en efficacité de DeepSeek
DeepSeek, une entreprise basée à Hangzhou comptant moins de 200 employés, soutenue par le fonds quantitatif High-Flyer (8 milliards de dollars d'actifs sous gestion), a repensé la façon dont les modèles sont entraînés.⁸ Au lieu de s'appuyer sur une infrastructure gourmande en calcul, ses modèles exploitent l'apprentissage par renforcement et les architectures Mixture-of-Experts pour améliorer les performances tout en réduisant les exigences computationnelles.⁹
L'architecture MoE représente le cœur technique des gains d'efficacité. Plutôt que d'activer tous les paramètres pour chaque requête d'inférence, les modèles MoE n'activent que les réseaux d'experts pertinents. L'approche réduit les coûts computationnels jusqu'à 30 % par rapport aux modèles denses traditionnels tout en maintenant ou dépassant les performances.¹⁰ DeepSeek a démontré qu'une co-conception logiciel-matériel efficace permet l'entraînement rentable de grands modèles, nivelant le terrain de jeu pour les petites équipes.
Les contrôles à l'exportation américains ont provoqué une vague d'improvisation dans le secteur de l'IA chinois.¹¹ Privés d'accès aux GPU NVIDIA les plus avancés, les chercheurs chinois ont développé des techniques pour obtenir des résultats compétitifs avec le matériel disponible. La contrainte est devenue catalyseur. DeepSeek a stupéfié les observateurs mondiaux avec un modèle rivalisant avec les capacités de GPT-4 pour une fraction du coût et de la puissance de calcul.
Les implications infrastructurelles vont au-delà des coûts d'entraînement. Si les coûts d'inférence suivent des courbes d'efficacité similaires, les fournisseurs cloud pourraient réduire leurs dépenses d'investissement de 80-100 milliards de dollars annuels à 65-85 milliards par fournisseur de services cloud.¹² La réduction affecterait tout le monde, des fabricants de puces aux opérateurs de centres de données en passant par les fournisseurs d'énergie.
Qwen et l'écosystème des modèles chinois
Les modèles Qwen d'Alibaba offrent une efficacité qui se traduit directement en économies pour les entreprises. Qwen 2.5-Max coûte environ 0,38 $ par million de tokens, nettement moins cher que les modèles occidentaux concurrents tout en égalant ou dépassant les performances sur plusieurs benchmarks.¹³ Pour les entreprises traitant des milliards de tokens mensuellement, la différence de coût détermine la rentabilité.
Le PDG d'Airbnb, Brian Chesky, a déclaré que l'entreprise préfère le Qwen d'Alibaba parce qu'il est « rapide et bon marché ».¹⁴ Le ministère japonais de l'Économie a choisi Qwen plutôt que les alternatives américaines pour certaines applications.¹⁵ LVMH s'est associé à Alibaba pour exploiter Qwen et Model Studio pour ses opérations de vente au détail numérique en Chine.¹⁶ L'adoption s'étend au-delà des startups soucieuses des coûts aux grandes entreprises disposant de budgets IA substantiels.
Qwen 3 représente l'une des familles de modèles open source les plus complètes publiées en 2025. La gamme s'étend de 0,5 milliard à 110 milliards de paramètres, incluant à la fois des modèles denses et sparse.¹⁷ Une approche opérationnelle double via les modes « Thinking » et « Non-Thinking » bascule dynamiquement selon la complexité de la tâche, allouant le calcul là où c'est important et conservant les ressources autrement.
Baichuan se positionne comme le premier modèle chinois pour les applications spécifiques à un domaine. Conçu avec un focus sur le droit, la finance, la médecine et la littérature chinoise classique, il offre des performances dans les tâches linguistiquement et culturellement nuancées.¹⁸ Grâce à l'encodage positionnel ALiBi, Baichuan prend en charge la gestion de contextes plus longs avec une inférence efficace. Les variantes quantifiées en int8 et int4 assurent le déploiement sur des GPU grand public moins coûteux.¹⁹
Impact sur les investissements infrastructurels occidentaux
Les réactions de Wall Street ont révélé une véritable incertitude. Jefferies a averti que l'approche de DeepSeek « crève la bulle de l'euphorie des dépenses d'investissement » suite aux engagements de dépenses de Meta et Microsoft dépassant chacun 60 milliards de dollars.²⁰ Goldman Sachs a suggéré que ce développement pourrait remodeler la concurrence en abaissant les barrières à l'entrée.²¹ Le Nasdaq composite a chuté de 3,1 % tandis que le S&P 500 a perdu 1,5 %.²²
Le scénario optimiste invoque le paradoxe de Jevons : les améliorations d'efficacité conduisent à une inférence moins chère, stimulant une adoption accrue de l'IA qui, en fin de compte, génère une demande plus élevée d'infrastructure.²³ Des coûts plus bas permettent des applications auparavant non rentables. Plus d'applications signifie plus d'inférence. Plus d'inférence signifie finalement plus de matériel, simplement déployé plus efficacement.
Le scénario modéré suggère que les coûts d'entraînement de l'IA restent stables tandis que les dépenses d'infrastructure d'inférence diminuent de 30 à 50 %.²⁴ Les fournisseurs cloud réduiraient leurs dépenses d'investissement tout en capturant des charges de travail IA similaires ou supérieures. Les gains d'efficacité iraient aux utilisateurs sous forme de prix plus bas plutôt qu'aux fournisseurs d'infrastructure sous forme de marges.
Un ralentissement des dépenses d'infrastructure IA pourrait temporairement impacter les fabricants de puces et les fournisseurs de matériel.²⁵ Cependant, les gains d'efficacité provenant des optimisations de modèles et des réductions de coûts pourraient conduire à une adoption encore plus grande de l'IA à long terme, augmentant finalement la demande de matériel IA. Le timing compte : la douleur à court terme pourrait précéder le gain à long terme.
Implications stratégiques pour la planification d'infrastructure
L'industrie semble pivoter de l'entraînement de grands modèles de langage massifs pour des cas d'usage généralistes.²⁶ Des modèles plus petits, affinés et personnalisés pour des cas d'usage spécifiques remplacent de plus en plus les modèles frontières à usage général pour de nombreuses applications. Ce changement favorise l'inférence efficace à grande échelle plutôt que les cycles d'entraînement massifs.
L'émergence de DeepSeek met en évidence un changement croissant dans l'industrie, passant du scaling par la force brute à l'optimisation intelligente.²⁷ Les acteurs établis, notamment OpenAI et Google, font face à une pression pour explorer des améliorations d'efficacité à mesure que l'adoption de l'IA se mondialise. La pression concurrentielle bénéficie aux utilisateurs tout en réduisant potentiellement les marges des fournisseurs d'infrastructure.
Les organisations planifiant leur infrastructure IA devraient considérer les tendances d'efficacité. Les modèles qui performent de manière comparable à moindre coût computationnel remettent en question les hypothèses sur les besoins en capacité. La distinction entre l'infrastructure d'entraînement (toujours gourmande en calcul) et l'infrastructure d'inférence (de plus en plus efficace) pourrait s'élargir. Surdimensionner la capacité d'inférence sur la base des schémas d'utilisation actuels pourrait laisser les organisations avec une capacité excédentaire à mesure que l'efficacité s'améliore.
Les modèles chinois créent également des décisions de déploiement. De nombreuses entreprises peuvent désormais accéder aux capacités d'IA chinoises via des fournisseurs cloud occidentaux, combinant infrastructure familière et modèles efficaces. Les préoccupations de souveraineté, les exigences réglementaires et les considérations concurrentielles entrent toutes en jeu pour décider d'adopter ou non les modèles chinois malgré leurs avantages d'efficacité.
L'économie de l'infrastructure IA qui semblait établie en 2024, où l'échelle de calcul déterminait la capacité, fait maintenant face à des questions fondamentales. DeepSeek a prouvé qu'une ingénierie intelligente peut se substituer au calcul brut. Qwen a démontré que l'efficacité open source peut rivaliser avec l'échelle propriétaire. Les organisations qui ont construit leur stratégie IA autour d'une capacité de calcul illimitée doivent maintenant tenir compte d'alternatives axées sur l'efficacité qui remettent en question leurs hypothèses sur ce que l'infrastructure IA nécessite.
Points clés à retenir
Pour les stratèges en infrastructure : - DeepSeek a entraîné R1 pour 5,6 M$ avec 2 000 GPU H800 contre 80-100 M$ et 16 000 H100 pour les modèles occidentaux comparables - L'architecture MoE réduit les coûts computationnels de 30 % par rapport aux modèles denses ; les gains d'efficacité proviennent de la co-conception logiciel-matériel - Les modèles open source chinois sont passés de 1,2 % à 30 % de l'utilisation mondiale en 2025 ; Alibaba rapporte plus de 170 000 modèles dérivés de Qwen
Pour les équipes IA d'entreprise : - Qwen 2.5-Max coûte ~0,38 $/million de tokens — nettement moins cher que les alternatives occidentales à performance comparable - Le PDG d'Airbnb cite sa préférence pour le Qwen d'Alibaba parce qu'il est « rapide et bon marché » ; le ministère japonais de l'Économie a choisi Qwen plutôt que les alternatives américaines - AWS, Azure et GCP proposent désormais le déploiement de DeepSeek ; l'adoption en entreprise couvre HSBC, Standard Chartered, Saudi Aramco
Pour la planification financière : - Si l'efficacité d'inférence suit les schémas d'entraînement, les fournisseurs cloud pourraient réduire leurs CapEx de 80-100 Mds$ à 65-85 Mds$ annuellement - NVIDIA a perdu 589 Mds$ de capitalisation boursière en une seule journée suite à l'annonce de DeepSeek ; le Nasdaq a chuté de 3,1 %, le S&P 500 de 1,5 % - Jefferies : DeepSeek « crève la bulle de l'euphorie des dépenses d'investissement » suite aux engagements de dépenses de Meta et Microsoft de plus de 60 Mds$ chacun
Pour les planificateurs de capacité : - L'industrie pivote des LLM généralistes massifs vers des modèles plus petits affinés pour des cas d'usage spécifiques - L'infrastructure d'entraînement reste gourmande en calcul ; l'infrastructure d'inférence devient de plus en plus efficace — planifiez différemment - Surdimensionner la capacité d'inférence sur la base des schémas actuels risque de créer des actifs bloqués à mesure que l'efficacité s'améliore
Pour la planification stratégique : - Les contrôles à l'exportation ont provoqué l'improvisation ; la contrainte est devenue catalyseur d'innovation en efficacité - Scénario du paradoxe de Jevons : l'efficacité permet plus d'applications, augmentant finalement la demande de matériel - Les organisations doivent tenir compte des alternatives axées sur l'efficacité lors de la planification des besoins en infrastructure
Références
-
Bain & Company. "DeepSeek: A Game Changer in AI Efficiency?" 2025. https://www.bain.com/insights/deepseek-a-game-changer-in-ai-efficiency/
-
Bain & Company. "DeepSeek: A Game Changer in AI Efficiency?"
-
TechCrunch. "DeepSeek 'punctures' AI leaders' spending plans, and what analysts are saying." January 27, 2025. https://techcrunch.com/2025/01/27/deepseek-punctures-tech-spending-plans-and-what-analysts-are-saying/
-
Gizmochina. "Why U.S. Startups Are Dumping Western AI for China's Open-Source Models." December 9, 2025. https://www.gizmochina.com/2025/12/09/why-u-s-startups-are-dumping-western-ai-for-chinas-open-source-models/
-
Intuition Labs. "An Overview of Chinese Open-Source LLMs (Sept 2025)." September 2025. https://intuitionlabs.ai/articles/chinese-open-source-llms-2025
-
iKangai. "The Enterprise AI Shift: How Chinese Models Are Challenging Silicon Valley's Dominance." 2025. https://www.ikangai.com/the-enterprise-ai-shift-how-chinese-models-are-challenging-silicon-valleys-dominance/
-
iKangai. "The Enterprise AI Shift."
-
Bain & Company. "DeepSeek: A Game Changer in AI Efficiency?"
-
IDC Blog. "DeepSeek's AI Innovation: A Shift in AI Model Efficiency and Cost Structure." January 31, 2025. https://blogs.idc.com/2025/01/31/deepseeks-ai-innovation-a-shift-in-ai-model-efficiency-and-cost-structure/
-
Gizmochina. "Why U.S. Startups Are Dumping Western AI for China's Open-Source Models."
-
World Economic Forum. "Why China's AI breakthroughs should come as no surprise." June 2025. https://www.weforum.org/stories/2025/06/china-ai-breakthroughs-no-surprise/
-
Bain & Company. "DeepSeek: A Game Changer in AI Efficiency?"
-
Gizmochina. "Why U.S. Startups Are Dumping Western AI for China's Open-Source Models."
-
Gizmochina. "Why U.S. Startups Are Dumping Western AI for China's Open-Source Models."
-
Gizmochina. "Why U.S. Startups Are Dumping Western AI for China's Open-Source Models."
-
Alibaba Cloud. "LVMH partners with Alibaba Cloud." 2025.
-
Intuition Labs. "An Overview of Chinese Open-Source LLMs (Sept 2025)."
-
Intuition Labs. "An Overview of Chinese Open-Source LLMs (Sept 2025)."
-
Intuition Labs. "An Overview of Chinese Open-Source LLMs (Sept 2025)."
-
TechCrunch. "DeepSeek 'punctures' AI leaders' spending plans."
-
TechCrunch. "DeepSeek 'punctures' AI leaders' spending plans."
-
TechCrunch. "DeepSeek 'punctures' AI leaders' spending plans."
-
IDC Blog. "DeepSeek's AI Innovation."
-
Bain & Company. "DeepSeek: A Game Changer in AI Efficiency?"
-
Bain & Company. "DeepSeek: A Game Changer in AI Efficiency?"
-
IDC Blog. "DeepSeek's AI Innovation."
-
IDC Blog. "DeepSeek's AI Innovation."