DeepSeekとQwenがAIインフラ経済をどう変えるか

DeepSeek R1は2,000台のH800 GPUで560万ドルの訓練コストを達成。西側の同等モデルは16,000台のH100で8,000万〜1億ドルを要した。中国のオープンソースモデルは2025年に世界利用率の1.2%から約30%に成長。AWS、Azure、Google CloudがDeepSeekの展開を提供開始。HSBC、Standard Chartered、Saudi AramcoがDeepSeekをテストまたは導入中。Qwen 2.5-Maxは100万トークンあたり0.38ドルで、西側の代替製品より大幅に安価。

DeepSeekとQwenがAIインフラ経済をどう変えるか

DeepSeekとQwenがAIインフラ経済をどう変えるか

2025年12月11日更新

2025年12月アップデート: DeepSeek R1は2,000台のNVIDIA H800 GPUで560万ドルの訓練コストを達成。西側の同等モデルは16,000台のH100で8,000万〜1億ドルを要した。中国のオープンソースモデルは2025年に世界利用率の1.2%から約30%に成長。AWS、Azure、Google CloudがDeepSeekの展開を提供開始。HSBC、Standard Chartered、Saudi AramcoがDeepSeekをテストまたは導入中。Qwen 2.5-Maxは100万トークンあたり0.38ドルで、西側の代替製品より大幅に安価。

DeepSeekは、2,000台のNVIDIA H800 GPUを使用してR1モデルをわずか560万ドルで訓練したと主張している。¹ 西側の同等モデルは8,000万〜1億ドルと16,000台のH100 GPUを必要とした。² OpenAIの5,000億ドル規模のStargate発表の前日に合わせた2025年1月のリリースは、NVIDIAの時価総額が1日で5,890億ドル減少するという前例のない事態を引き起こした。³ 中国のAIモデルは、単一の製品発表で地域的な好奇心の対象からグローバルなインフラ課題へと変貌を遂げた。

この効率性の主張は検証を要する。中国のオープンソースモデルは、2024年後半の世界利用率1.2%から2025年には約30%に成長した。⁴ Alibabaは、Qwen上に構築された派生モデルが17万以上あると報告している。⁵ HSBC、Standard Chartered、Saudi Aramcoは現在、DeepSeekモデルをテストまたは導入している。⁶ Amazon Web Services、Microsoft Azure、Google Cloudは顧客にDeepSeekの展開を提供している。⁷ かつて大規模な設備投資を有利としていたインフラ経済は、組織がAI投資を計画する方法を変える効率優先のアプローチへとシフトしつつある可能性がある。

DeepSeekの効率性ブレイクスルー

杭州を拠点とし、従業員200人未満のDeepSeekは、クオンツファンドHigh-Flyer(運用資産80億ドル)の支援を受け、モデル訓練の方法を再考した。⁸ 計算集約型のインフラに依存する代わりに、同社のモデルは強化学習とMixture-of-Experts(MoE)アーキテクチャを活用し、計算需要を削減しながら性能を向上させている。⁹

MoEアーキテクチャは効率性向上の技術的核心である。すべての推論リクエストですべてのパラメータを起動するのではなく、MoEモデルは関連するエキスパートネットワークのみを起動する。このアプローチにより、性能を維持または向上させながら、従来の密なモデルと比較して計算コストを最大30%削減できる。¹⁰ DeepSeekは、効果的なソフトウェア・ハードウェア協調設計により、大規模モデルのコスト効率的な訓練が可能になり、小規模チームにも競争の場が開かれることを実証した。

米国の輸出規制は、中国のAIセクター全体で即興的な取り組みの爆発を促した。¹¹ 最先端のNVIDIA GPUへのアクセスを拒否された中国の研究者たちは、利用可能なハードウェアで競争力のある結果を達成する技術を開発した。制約が触媒となった。DeepSeekは、コストと計算量のごく一部でGPT-4の能力に匹敵するモデルで世界の観察者を驚かせた。

インフラへの影響は訓練コストにとどまらない。推論コストが同様の効率曲線をたどれば、クラウドプロバイダーは年間の設備投資を800億〜1,000億ドルから、クラウドサービスプロバイダーあたり650億〜850億ドルに削減できる可能性がある。¹² この削減は、チップメーカーからデータセンター運営者、電力供給者まで、すべての関係者に影響を及ぼす。

Qwenと中国モデルエコシステム

AlibabaのQwenモデルは、企業経済に直接反映される効率性を提供する。Qwen 2.5-Maxは100万トークンあたり約0.38ドルで、複数のベンチマークで性能が同等以上でありながら、競合する西側モデルより大幅に安価である。¹³ 月間数十億トークンを処理する企業にとって、このコスト差は収益性を左右する。

AirbnbのCEO、Brian Cheskyは、同社がAlibabaのQwenを好む理由として「速くて安い」ことを挙げた。¹⁴ 日本の経済産業省は、特定のアプリケーションで米国の代替製品よりもQwenを選択した。¹⁵ LVMHはAlibabaと提携し、中国でのデジタル小売事業にQwenとModel Studioを活用している。¹⁶ 採用は、コスト意識の高いスタートアップにとどまらず、相当なAI予算を持つ大企業にまで広がっている。

Qwen 3は、2025年にリリースされた最も包括的なオープンソースモデルファミリーの一つである。ラインナップは5億から1,100億パラメータにわたり、密なモデルとスパースモデルの両方を含む。¹⁷ 「Thinking」と「Non-Thinking」モードによるデュアル運用アプローチは、タスクの複雑さに応じて動的に切り替わり、必要な場所に計算を割り当て、それ以外ではリソースを節約する。

Baichuanは、ドメイン特化型アプリケーション向けの中国プレミアモデルとして位置づけられている。法律、金融、医療、中国古典文学に焦点を当てて構築され、言語的・文化的にニュアンスのあるタスクで性能を発揮する。¹⁸ ALiBi位置エンコーディングにより、Baichuanは効率的な推論で長いコンテキスト処理をサポートする。int8およびint4の量子化バリアントにより、低コストのコンシューマー向けGPUでの展開が可能である。¹⁹

西側インフラ投資への影響

ウォール街の反応は、真の不確実性を露呈させた。Jefferiesは、DeepSeekのアプローチがMetaとMicrosoftのそれぞれ600億ドル超の支出コミットメントに続く「設備投資の熱狂に穴を開ける」と警告した。²⁰ Goldman Sachsは、この開発が参入障壁を下げることで競争を再形成する可能性があると示唆した。²¹ Nasdaq総合指数は3.1%下落し、S&P 500は1.5%下落した。²²

強気シナリオはジェボンズのパラドックスを援用する:効率性の向上は推論の低コスト化につながり、AI採用の拡大を促し、最終的にインフラへの需要増加をもたらす。²³ 低コスト化により、これまで経済的に成り立たなかったアプリケーションが可能になる。より多くのアプリケーションは、より多くの推論を意味する。より多くの推論は、最終的にはより多くのハードウェアを意味する—ただし、より効率的に展開される。

中程度のシナリオでは、AI訓練コストは安定を維持する一方、推論インフラ支出は30〜50%減少すると示唆されている。²⁴ クラウドプロバイダーは、同等以上のAIワークロードを獲得しながら設備投資を削減することになる。効率性の向上は、インフラプロバイダーのマージンとしてではなく、より低い価格としてユーザーに還元される。

AIインフラ支出の減速は、一時的にチップメーカーやハードウェアプロバイダーに影響を与える可能性がある。²⁵ しかし、モデル最適化とコスト削減による効率性向上は、長期的にはさらに大きなAI採用につながり、最終的にはAIハードウェアへの需要を高める可能性がある。タイミングが重要である:短期的な痛みが長期的な利益に先行するかもしれない。

インフラ計画への戦略的示唆

業界は、汎用ユースケース向けの大規模言語モデルの訓練から方向転換しているように見える。²⁶ 特定のユースケース向けに微調整・カスタマイズされた小規模モデルが、多くのアプリケーションで汎用フロンティアモデルに取って代わりつつある。このシフトは、大規模な訓練実行よりも、スケールでの効率的な推論を有利にする。

DeepSeekの出現は、力任せのスケーリングからインテリジェントな最適化への業界全体のシフトの拡大を浮き彫りにしている。²⁷ OpenAIやGoogleを含む既存プレイヤーは、AI採用がグローバルに拡大する中で効率性改善を模索する圧力に直面している。競争圧力は、インフラプロバイダーのマージンを潜在的に削減しながら、ユーザーに利益をもたらす。

AIインフラを計画する組織は、効率性のトレンドを考慮すべきである。より低い計算コストで同等の性能を発揮するモデルは、キャパシティ要件に関する前提を覆す。訓練インフラ(依然として計算集約的)と推論インフラ(ますます効率的)の区別は拡大する可能性がある。現在の使用パターンに基づいて推論キャパシティを過剰に構築すると、効率性が向上するにつれて余剰キャパシティを抱えることになりかねない。

中国モデルは展開に関する意思決定も生み出す。多くの企業は現在、西側のクラウドプロバイダーを通じて中国のAI能力にアクセスでき、馴染みのあるインフラと効率的なモデルを組み合わせることができる。主権に関する懸念、規制要件、競争上の考慮はすべて、効率性の優位性にもかかわらず中国モデルを採用するかどうかの判断要素となる。

計算スケールが能力を決定するように見えた2024年のAIインフラ経済は、今や根本的な問いに直面している。DeepSeekは、スマートなエンジニアリングが生の計算能力を代替できることを証明した。Qwenは、オープンソースの効率性がプロプライエタリなスケールと競争できることを実証した。無制限の計算能力を前提にAI戦略を構築した組織は、今やAIインフラに何が必要かについての前提を覆す効率優先の代替案を考慮しなければならない。

主要なポイント

インフラ戦略担当者向け: - DeepSeekは2,000台のH800 GPUで560万ドルでR1を訓練。西側の同等モデルは8,000万〜1億ドルと16,000台のH100を要した - MoEアーキテクチャは密なモデルと比較して計算コストを30%削減;効率性向上はソフトウェア・ハードウェア協調設計から生まれる - 中国のオープンソースモデルは2025年に世界利用率1.2%から30%に成長;Alibabaは17万以上のQwen派生モデルを報告

企業AIチーム向け: - Qwen 2.5-Maxは100万トークンあたり約0.38ドル—同等性能で西側代替製品より大幅に安価 - AirbnbのCEOはAlibabaのQwenを「速くて安い」ため好むと発言;日本の経済産業省は米国代替製品よりQwenを選択 - AWS、Azure、GCPがDeepSeekの展開を提供開始;企業採用はHSBC、Standard Chartered、Saudi Aramcoに及ぶ

財務計画向け: - 推論効率が訓練パターンに追随すれば、クラウドプロバイダーは設備投資を年間800億〜1,000億ドルから650億〜850億ドルに削減可能 - NVIDIAはDeepSeek発表で1日で5,890億ドルの時価総額を喪失;Nasdaqは3.1%下落、S&P 500は1.5%下落 - Jefferies:DeepSeekはMetaとMicrosoftのそれぞれ600億ドル超の支出コミットメントに続く「設備投資の熱狂に穴を開ける」

キャパシティプランナー向け: - 業界は大規模な汎用LLMから特定ユースケース向けに微調整された小規模モデルへピボット中 - 訓練インフラは依然として計算集約的;推論インフラはますます効率的—計画を分けて立てるべき - 現在のパターンに基づく推論キャパシティの過剰構築は、効率性向上に伴い座礁資産リスクを招く

戦略計画向け: - 輸出規制が即興を促した;制約が効率性イノベーションの触媒となった - ジェボンズのパラドックスシナリオ:効率性がより多くのアプリケーションを可能にし、最終的にハードウェア需要を高める - 組織はインフラ要件を計画する際に効率優先の代替案を考慮すべき


参考文献

  1. Bain & Company. "DeepSeek: A Game Changer in AI Efficiency?" 2025. https://www.bain.com/insights/deepseek-a-game-changer-in-ai-efficiency/

  2. Bain & Company. "DeepSeek: A Game Changer in AI Efficiency?"

  3. TechCrunch. "DeepSeek 'punctures' AI leaders' spending plans, and what analysts are saying." January 27, 2025. https://techcrunch.com/2025/01/27/deepseek-punctures-tech-spending-plans-and-what-analysts-are-saying/

  4. Gizmochina. "Why U.S. Startups Are Dumping Western AI for China's Open-Source Models." December 9, 2025. https://www.gizmochina.com/2025/12/09/why-u-s-startups-are-dumping-western-ai-for-chinas-open-source-models/

  5. Intuition Labs. "An Overview of Chinese Open-Source LLMs (Sept 2025)." September 2025. https://intuitionlabs.ai/articles/chinese-open-source-llms-2025

  6. iKangai. "The Enterprise AI Shift: How Chinese Models Are Challenging Silicon Valley's Dominance." 2025. https://www.ikangai.com/the-enterprise-ai-shift-how-chinese-models-are-challenging-silicon-valleys-dominance/

  7. iKangai. "The Enterprise AI Shift."

  8. Bain & Company. "DeepSeek: A Game Changer in AI Efficiency?"

  9. IDC Blog. "DeepSeek's AI Innovation: A Shift in AI Model Efficiency and Cost Structure." January 31, 2025. https://blogs.idc.com/2025/01/31/deepseeks-ai-innovation-a-shift-in-ai-model-efficiency-and-cost-structure/

  10. Gizmochina. "Why U.S. Startups Are Dumping Western AI for China's Open-Source Models."

  11. World Economic Forum. "Why China's AI breakthroughs should come as no surprise." June 2025. https://www.weforum.org/stories/2025/06/china-ai-breakthroughs-no-surprise/

  12. Bain & Company. "DeepSeek: A Game Changer in AI Efficiency?"

  13. Gizmochina. "Why U.S. Startups Are Dumping Western AI for China's Open-Source Models."

  14. Gizmochina. "Why

[翻訳のため内容を省略]

お見積り依頼_

プロジェクトについてお聞かせください。72時間以内にご回答いたします。

> TRANSMISSION_COMPLETE

リクエストを受信しました_

お問い合わせありがとうございます。弊社チームがリクエストを確認し、72時間以内に回答いたします。

QUEUED FOR PROCESSING