DeepSeek와 Qwen이 AI 인프라 경제를 어떻게 변화시키는가
2025년 12월 11일 업데이트
2025년 12월 업데이트: DeepSeek R1은 2,000개의 H800 GPU로 560만 달러에 훈련되었으며, 이는 비슷한 성능의 서양 모델이 16,000개의 H100으로 8,000만~1억 달러를 투자한 것과 대비됩니다. 중국 오픈소스 모델의 글로벌 사용량은 2025년에 1.2%에서 거의 30%로 성장했습니다. AWS, Azure, Google Cloud는 현재 DeepSeek 배포를 제공합니다. HSBC, Standard Chartered, Saudi Aramco가 DeepSeek를 테스트 또는 배포 중입니다. Qwen 2.5-Max는 토큰 100만 개당 0.38달러로, 서양 대안들보다 훨씬 저렴합니다.
DeepSeek는 자사의 R1 모델을 2,000개의 NVIDIA H800 GPU를 사용하여 단 560만 달러에 훈련했다고 발표했습니다.¹ 비슷한 성능의 서양 모델들은 8,000만~1억 달러와 16,000개의 H100 GPU가 필요했습니다.² OpenAI의 5,000억 달러 규모 Stargate 발표 하루 전인 2025년 1월에 공개된 이 모델은 NVIDIA의 시가총액이 하루 만에 5,890억 달러 하락하는 전례 없는 사태를 촉발했습니다.³ 중국 AI 모델은 단일 제품 출시로 지역적 호기심 대상에서 글로벌 인프라 과제로 전환되었습니다.
이 효율성 주장은 면밀한 검토가 필요합니다. 중국 오픈소스 모델은 2024년 말 글로벌 사용량의 1.2%에서 2025년 거의 30%로 성장했습니다.⁴ 알리바바는 Qwen 기반으로 170,000개 이상의 파생 모델이 구축되었다고 보고합니다.⁵ HSBC, Standard Chartered, Saudi Aramco가 현재 DeepSeek 모델을 테스트하거나 배포하고 있습니다.⁶ Amazon Web Services, Microsoft Azure, Google Cloud는 고객들에게 DeepSeek 배포를 제공합니다.⁷ 대규모 자본 지출을 선호하던 인프라 경제학이 효율성 우선 접근 방식으로 전환되고 있으며, 이는 조직들이 AI 투자를 계획하는 방식을 변화시킬 수 있습니다.
DeepSeek의 효율성 혁신
항저우에 본사를 둔 DeepSeek는 직원 200명 미만의 회사로, 운용자산 80억 달러 규모의 퀀트 펀드 High-Flyer의 지원을 받아 모델 훈련 방식을 재고했습니다.⁸ 컴퓨팅 집약적 인프라에 의존하는 대신, 이 모델들은 강화학습과 Mixture-of-Experts 아키텍처를 활용하여 계산 요구량을 줄이면서도 성능을 향상시켰습니다.⁹
MoE 아키텍처는 효율성 향상의 기술적 핵심입니다. 모든 추론 요청에 대해 전체 매개변수를 활성화하는 대신, MoE 모델은 관련 전문가 네트워크만 활성화합니다. 이 접근 방식은 성능을 유지하거나 초과하면서 기존 밀집 모델 대비 계산 비용을 최대 30%까지 절감합니다.¹⁰ DeepSeek는 효과적인 소프트웨어-하드웨어 공동 설계가 대규모 모델의 비용 효율적인 훈련을 가능하게 하여 소규모 팀에게도 경쟁의 장을 평준화한다는 것을 입증했습니다.
미국 수출 통제는 중국 AI 분야 전반에 걸쳐 즉흥적인 혁신의 물결을 촉발했습니다.¹¹ 가장 진보된 NVIDIA GPU에 대한 접근이 거부되자, 중국 연구자들은 가용한 하드웨어로 경쟁력 있는 결과를 달성하는 기술을 개발했습니다. 제약이 촉매제가 된 것입니다. DeepSeek는 GPT-4 수준의 성능을 훨씬 적은 비용과 컴퓨팅으로 달성한 모델로 전 세계 관계자들을 놀라게 했습니다.
인프라에 대한 영향은 훈련 비용을 넘어섭니다. 추론 비용이 유사한 효율성 곡선을 따른다면, 클라우드 제공업체들은 연간 자본 지출을 800억~1,000억 달러에서 클라우드 서비스 제공업체당 650억~850억 달러로 줄일 수 있습니다.¹² 이러한 감소는 칩 제조업체부터 데이터센터 운영자, 전력 공급업체까지 모든 관계자에게 영향을 미칩니다.
Qwen과 중국 모델 생태계
알리바바의 Qwen 모델은 기업 경제학에 직접적으로 반영되는 효율성을 제공합니다. Qwen 2.5-Max는 토큰 100만 개당 약 0.38달러로, 여러 벤치마크에서 성능을 일치시키거나 능가하면서도 경쟁 서양 모델들보다 상당히 저렴합니다.¹³ 매월 수십억 개의 토큰을 처리하는 기업들에게 이 비용 차이는 수익성을 결정합니다.
Airbnb CEO Brian Chesky는 회사가 "빠르고 저렴하기" 때문에 알리바바의 Qwen을 선호한다고 밝혔습니다.¹⁴ 일본 경제산업성은 특정 애플리케이션에서 미국 대안 대신 Qwen을 선택했습니다.¹⁵ LVMH는 중국 내 디지털 리테일 운영을 위해 Qwen과 Model Studio를 활용하고자 알리바바와 파트너십을 맺었습니다.¹⁶ 이러한 채택은 비용에 민감한 스타트업을 넘어 상당한 AI 예산을 보유한 대기업까지 확대되고 있습니다.
Qwen 3는 2025년에 출시된 가장 포괄적인 오픈소스 모델 패밀리 중 하나입니다. 이 라인업은 5억에서 1,100억 매개변수에 이르며, 밀집 모델과 희소 모델을 모두 포함합니다.¹⁷ "Thinking"과 "Non-Thinking" 모드를 통한 이중 운영 접근 방식은 작업 복잡성에 따라 동적으로 전환되어, 필요한 곳에 컴퓨팅을 할당하고 그 외에는 자원을 절약합니다.
Baichuan은 도메인 특화 애플리케이션을 위한 최고의 중국 모델로 자리매김하고 있습니다. 법률, 금융, 의료, 중국 고전 문학에 초점을 맞춰 구축되어 언어적, 문화적으로 섬세한 작업에서 뛰어난 성능을 발휘합니다.¹⁸ ALiBi 위치 인코딩을 통해 Baichuan은 효율적인 추론으로 더 긴 컨텍스트 처리를 지원합니다. int8과 int4의 양자화 변형은 저비용 소비자용 GPU에서의 배포를 보장합니다.¹⁹
서양 인프라 투자에 대한 영향
월스트리트의 반응은 진정한 불확실성을 드러냈습니다. Jefferies는 DeepSeek의 접근 방식이 Meta와 Microsoft의 각각 600억 달러 이상 지출 약속에 따른 "자본 지출 열기에 구멍을 냈다"고 경고했습니다.²⁰ Goldman Sachs는 이 발전이 진입 장벽을 낮춤으로써 경쟁 구도를 재편할 수 있다고 제안했습니다.²¹ 나스닥 종합지수는 3.1% 하락했고, S&P 500은 1.5% 떨어졌습니다.²²
낙관적 시나리오는 Jevon의 역설을 인용합니다: 효율성 개선은 더 저렴한 추론으로 이어지고, 이는 더 많은 AI 채택을 촉진하여 궁극적으로 인프라에 대한 더 높은 수요를 이끌어냅니다.²³ 낮은 비용은 이전에는 비경제적이었던 애플리케이션을 가능하게 합니다. 더 많은 애플리케이션은 더 많은 추론을 의미합니다. 더 많은 추론은 결국 더 많은 하드웨어를 의미하며, 단지 더 효율적으로 배포될 뿐입니다.
온건한 시나리오는 AI 훈련 비용은 안정적으로 유지되면서 추론 인프라 지출이 30-50% 감소할 것을 시사합니다.²⁴ 클라우드 제공업체들은 유사하거나 더 많은 AI 워크로드를 처리하면서 자본 지출을 줄일 것입니다. 효율성 향상은 인프라 제공업체의 마진이 아닌 사용자에게 낮은 가격으로 흘러갈 것입니다.
AI 인프라 지출의 둔화는 일시적으로 칩 제조업체와 하드웨어 공급업체에 영향을 미칠 수 있습니다.²⁵ 그러나 모델 최적화와 비용 절감으로 인한 효율성 향상은 장기적으로 더 큰 AI 채택으로 이어져 궁극적으로 AI 하드웨어에 대한 더 높은 수요를 이끌 수 있습니다. 타이밍이 중요합니다: 단기적 고통이 장기적 이득에 선행할 수 있습니다.
인프라 계획을 위한 전략적 함의
업계는 범용 사용 사례를 위한 대규모 대형 언어 모델 훈련에서 벗어나는 방향으로 전환하고 있는 것으로 보입니다.²⁶ 특정 사용 사례에 맞게 미세 조정되고 커스터마이징된 소규모 모델들이 많은 애플리케이션에서 범용 프론티어 모델을 점점 대체하고 있습니다. 이러한 변화는 대규모 훈련 실행보다 규모에 맞는 효율적인 추론을 선호합니다.
DeepSeek의 등장은 무차별적 확장에서 지능적 최적화로의 업계 전반적인 전환을 강조합니다.²⁷ OpenAI와 Google을 포함한 기존 업체들은 AI 채택이 전 세계적으로 확대됨에 따라 효율성 개선을 탐구해야 하는 압박에 직면해 있습니다. 경쟁 압력은 사용자에게 이익이 되면서 잠재적으로 인프라 제공업체의 마진을 감소시킵니다.
AI 인프라를 계획하는 조직들은 효율성 추세를 고려해야 합니다. 더 낮은 컴퓨팅 비용으로 비슷하게 수행하는 모델들은 용량 요구 사항에 대한 가정에 도전합니다. 훈련 인프라(여전히 컴퓨팅 집약적)와 추론 인프라(점점 더 효율적) 간의 구분이 넓어질 수 있습니다. 현재 사용 패턴을 기반으로 추론 용량을 과잉 구축하면 효율성이 향상됨에 따라 조직에 초과 용량이 남을 수 있습니다.
중국 모델은 또한 배포 결정을 야기합니다. 많은 기업들이 이제 서양 클라우드 제공업체를 통해 중국 AI 역량에 접근할 수 있으며, 익숙한 인프라와 효율적인 모델을 결합할 수 있습니다. 주권 우려, 규제 요구 사항, 경쟁적 고려 사항 모두가 효율성 이점에도 불구하고 중국 모델을 채택할지 여부를 결정하는 요소가 됩니다.
컴퓨팅 규모가 역량을 결정한다고 여겨졌던 2024년의 AI 인프라 경제는 이제 근본적인 질문에 직면해 있습니다. DeepSeek는 스마트한 엔지니어링이 원시 컴퓨팅을 대체할 수 있음을 입증했습니다. Qwen은 오픈소스 효율성이 독점적 규모와 경쟁할 수 있음을 보여주었습니다. 무제한 컴퓨팅 용량을 중심으로 AI 전략을 구축한 조직들은 이제 AI 인프라에 필요한 것에 대한 가정에 도전하는 효율성 우선 대안을 고려해야 합니다.
핵심 요약
인프라 전략가를 위해: - DeepSeek는 2,000개의 H800 GPU로 560만 달러에 R1을 훈련했으며, 이는 비슷한 성능의 서양 모델이 16,000개의 H100으로 8,000만~1억 달러를 투자한 것과 대비됩니다 - MoE 아키텍처는 밀집 모델 대비 계산 비용을 30% 절감합니다; 효율성 향상은 소프트웨어-하드웨어 공동 설계에서 비롯됩니다 - 중국 오픈소스 모델은 2025년에 글로벌 사용량의 1.2%에서 30%로 성장했습니다; 알리바바는 170,000개 이상의 Qwen 파생 모델을 보고합니다
기업 AI 팀을 위해: - Qwen 2.5-Max는 토큰 100만 개당 약 0.38달러로, 비슷한 성능에서 서양 대안들보다 상당히 저렴합니다 - Airbnb CEO는 "빠르고 저렴하기" 때문에 알리바바의 Qwen을 선호한다고 언급했습니다; 일본 경제산업성은 미국 대안 대신 Qwen을 선택했습니다 - AWS, Azure, GCP가 현재 DeepSeek 배포를 제공합니다; HSBC, Standard Chartered, Saudi Aramco로 기업 채택이 확대되고 있습니다
재무 계획을 위해: - 추론 효율성이 훈련 패턴을 따른다면, 클라우드 제공업체들은 연간 자본 지출을 800억~1,000억 달러에서 650억~850억 달러로 줄일 수 있습니다 - NVIDIA는 DeepSeek 발표 당일 시가총액 5,890억 달러를 잃었습니다; 나스닥은 3.1%, S&P 500은 1.5% 하락했습니다 - Jefferies: DeepSeek가 Meta와 Microsoft의 각각 600억 달러 이상 지출 약속에 따른 "자본 지출 열기에 구멍을 냈다"
용량 계획자를 위해: - 업계가 대규모 범용 LLM에서 특정 사용 사례에 맞게 미세 조정된 소규모 모델로 전환 중입니다 - 훈련 인프라는 컴퓨팅 집약적으로 유지됩니다; 추론 인프라는 점점 더 효율적입니다—다르게 계획하십시오 - 현재 패턴을 기반으로 추론 용량을 과잉 구축하면 효율성이 향상됨에 따라 좌초 자산 위험이 있습니다
전략 기획을 위해: - 수출 통제가 즉흥적 혁신을 촉발했습니다; 제약이 효율성 혁신의 촉매제가 되었습니다 - Jevon의 역설 시나리오: 효율성이 더 많은 애플리케이션을 가능하게 하여 궁극적으로 더 높은 하드웨어 수요를 이끕니다 - 조직들은 인프라 요구 사항을 계획할 때 효율성 우선 대안을 고려해야 합니다
참고문헌
-
Bain & Company. "DeepSeek: A Game Changer in AI Efficiency?" 2025. https://www.bain.com/insights/deepseek-a-game-changer-in-ai-efficiency/
-
Bain & Company. "DeepSeek: A Game Changer in AI Efficiency?"
-
TechCrunch. "DeepSeek 'punctures' AI leaders' spending plans, and what analysts are saying." January 27, 2025. https://techcrunch.com/2025/01/27/deepseek-punctures-tech-spending-plans-and-what-analysts-are-saying/
-
Gizmochina. "Why U.S. Startups Are Dumping Western AI for China's Open-Source Models." December 9, 2025. https://www.gizmochina.com/2025/12/09/why-u-s-startups-are-dumping-western-ai-for-chinas-open-source-models/
-
Intuition Labs. "An Overview of Chinese Open-Source LLMs (Sept 2025)." September 2025. https://intuitionlabs.ai/articles/chinese-open-source-llms-2025
-
iKangai. "The Enterprise AI Shift: How Chinese Models Are Challenging Silicon Valley's Dominance." 2025. https://www.ikangai.com/the-enterprise-ai-shift-how-chinese-models-are-challenging-silicon-valleys-dominance/
-
iKangai. "The Enterprise AI Shift."
-
Bain & Company. "DeepSeek: A Game Changer in AI Efficiency?"
-
IDC Blog. "DeepSeek's AI Innovation: A Shift in AI Model Efficiency and Cost Structure." January 31, 2025. https://blogs.idc.com/2025/01/31/deepseeks-ai-innovation-a-shift-in-ai-model-efficiency-and-cost-structure/
-
Gizmochina. "Why U.S. Startups Are Dumping Western AI for China's Open-Source Models."
-
World Economic Forum. "Why China's AI breakthroughs should come as no surprise." June 2025. https://www.weforum.org/stories/2025/06/china-ai-breakthroughs-no-surprise/
-
Bain & Company. "DeepSeek: A Game Changer in AI Efficiency?"
-
Gizmochina. "Why U.S. Startups Are Dumping Western AI for China's Open-Source Models."
-
Gizmochina. "Why
[번역을 위해 내용 생략됨]