Bagaimana DeepSeek dan Qwen Mengubah Ekonomi Infrastruktur AI
Diperbarui 11 Desember 2025
Pembaruan Desember 2025: DeepSeek R1 dilatih dengan biaya $5,6 juta menggunakan 2.000 GPU H800, dibandingkan $80-100 juta dengan 16.000 H100 untuk model Barat yang setara. Model open-source Tiongkok tumbuh dari 1,2% menjadi hampir 30% penggunaan global pada tahun 2025. AWS, Azure, dan Google Cloud kini menawarkan deployment DeepSeek. HSBC, Standard Chartered, dan Saudi Aramco sedang menguji atau men-deploy DeepSeek. Qwen 2.5-Max seharga $0,38/juta token dibandingkan alternatif Barat yang jauh lebih mahal.
DeepSeek mengklaim telah melatih model R1-nya hanya dengan $5,6 juta menggunakan 2.000 GPU NVIDIA H800.¹ Model Barat yang setara membutuhkan $80 juta hingga $100 juta dan 16.000 GPU H100.² Peluncuran Januari 2025, yang waktunya tepat satu hari sebelum pengumuman Stargate senilai $500 miliar dari OpenAI, memicu kerugian kapitalisasi pasar sebesar $589 miliar dalam satu hari untuk NVIDIA—yang belum pernah terjadi sebelumnya.³ Model AI Tiongkok bergerak dari sekadar keingintahuan regional menjadi tantangan infrastruktur global dalam satu peluncuran produk.
Klaim efisiensi ini perlu diperiksa lebih lanjut. Model open-source Tiongkok tumbuh dari 1,2% penggunaan global pada akhir 2024 menjadi hampir 30% pada tahun 2025.⁴ Alibaba melaporkan lebih dari 170.000 model turunan yang dibangun di atas Qwen.⁵ HSBC, Standard Chartered, dan Saudi Aramco kini menguji atau men-deploy model DeepSeek.⁶ Amazon Web Services, Microsoft Azure, dan Google Cloud menawarkan deployment DeepSeek kepada pelanggan mereka.⁷ Ekonomi infrastruktur yang dulunya menguntungkan belanja modal besar-besaran mungkin sedang bergeser menuju pendekatan yang mengutamakan efisiensi, yang mengubah cara organisasi seharusnya merencanakan investasi AI.
Terobosan Efisiensi DeepSeek
DeepSeek, perusahaan berbasis di Hangzhou dengan kurang dari 200 karyawan, didukung oleh dana kuantitatif High-Flyer ($8 miliar dalam aset kelolaan), memikirkan ulang cara model dilatih.⁸ Alih-alih mengandalkan infrastruktur yang boros komputasi, modelnya memanfaatkan reinforcement learning dan arsitektur Mixture-of-Experts untuk meningkatkan performa sambil mengurangi tuntutan komputasi.⁹
Arsitektur MoE merupakan inti teknis dari peningkatan efisiensi. Alih-alih mengaktifkan semua parameter untuk setiap permintaan inferensi, model MoE hanya mengaktifkan jaringan expert yang relevan. Pendekatan ini mengurangi biaya komputasi hingga 30% dibandingkan model dense tradisional sambil mempertahankan atau melampaui performa.¹⁰ DeepSeek menunjukkan bahwa desain bersama perangkat lunak-perangkat keras yang efektif memungkinkan pelatihan model besar yang hemat biaya, menyamakan kedudukan untuk tim yang lebih kecil.
Kontrol ekspor AS memicu ledakan improvisasi di seluruh sektor AI Tiongkok.¹¹ Tanpa akses ke GPU NVIDIA paling canggih, para peneliti Tiongkok mengembangkan teknik untuk mencapai hasil yang kompetitif dengan perangkat keras yang tersedia. Keterbatasan menjadi katalis. DeepSeek mengejutkan pengamat global dengan model yang bersaing dengan kemampuan GPT-4 dengan biaya dan komputasi yang jauh lebih kecil.
Implikasi infrastruktur melampaui biaya pelatihan. Jika biaya inferensi mengikuti kurva efisiensi yang serupa, penyedia cloud dapat mengurangi belanja modal dari $80-100 miliar per tahun menjadi $65-85 miliar per penyedia layanan cloud.¹² Pengurangan ini akan mempengaruhi semua pihak, mulai dari produsen chip hingga operator pusat data hingga penyedia listrik.
Qwen dan Ekosistem Model Tiongkok
Model Qwen dari Alibaba menawarkan efisiensi yang langsung diterjemahkan ke ekonomi perusahaan. Qwen 2.5-Max seharga sekitar $0,38 per juta token, jauh lebih murah dari model Barat pesaing sambil menyamai atau melampaui performa pada beberapa benchmark.¹³ Untuk perusahaan yang memproses miliaran token setiap bulan, perbedaan biaya menentukan profitabilitas.
CEO Airbnb Brian Chesky menyatakan perusahaannya lebih memilih Qwen dari Alibaba karena "cepat dan murah."¹⁴ Kementerian Ekonomi Jepang memilih Qwen daripada alternatif AS untuk aplikasi tertentu.¹⁵ LVMH bermitra dengan Alibaba untuk memanfaatkan Qwen dan Model Studio untuk operasi ritel digital di Tiongkok.¹⁶ Adopsi melampaui startup yang sadar biaya ke perusahaan besar dengan anggaran AI yang substansial.
Qwen 3 merepresentasikan salah satu keluarga model open-source paling komprehensif yang dirilis pada tahun 2025. Jajaran produknya mencakup 0,5 miliar hingga 110 miliar parameter, termasuk model dense dan sparse.¹⁷ Pendekatan operasional ganda melalui mode "Thinking" dan "Non-Thinking" beralih secara dinamis berdasarkan kompleksitas tugas, mengalokasikan komputasi di tempat yang penting dan menghemat sumber daya di tempat lain.
Baichuan memposisikan diri sebagai model Tiongkok premier untuk aplikasi domain-spesifik. Dibangun dengan fokus pada hukum, keuangan, kedokteran, dan sastra Tiongkok klasik, model ini memberikan performa dalam tugas-tugas yang bernuansa linguistik dan budaya.¹⁸ Melalui encoding posisi ALiBi, Baichuan mendukung penanganan konteks yang lebih panjang dengan inferensi yang efisien. Varian terkuantisasi dalam int8 dan int4 memastikan deployment pada GPU kelas konsumen berbiaya lebih rendah.¹⁹
Dampak pada Investasi Infrastruktur Barat
Reaksi Wall Street mengungkapkan ketidakpastian yang nyata. Jefferies memperingatkan bahwa pendekatan DeepSeek "menusuk sebagian euforia capex" menyusul komitmen pengeluaran dari Meta dan Microsoft yang masing-masing melebihi $60 miliar.²⁰ Goldman Sachs menyarankan bahwa perkembangan ini dapat membentuk ulang persaingan dengan menurunkan hambatan masuk.²¹ Komposit Nasdaq turun 3,1% sementara S&P 500 turun 1,5%.²²
Skenario bullish menggunakan paradoks Jevon: peningkatan efisiensi mengarah pada inferensi yang lebih murah, memicu adopsi AI yang lebih besar yang pada akhirnya mendorong permintaan infrastruktur yang lebih tinggi.²³ Biaya yang lebih rendah memungkinkan aplikasi yang sebelumnya tidak ekonomis. Lebih banyak aplikasi berarti lebih banyak inferensi. Lebih banyak inferensi pada akhirnya berarti lebih banyak perangkat keras, hanya di-deploy dengan lebih efisien.
Skenario moderat menyarankan biaya pelatihan AI tetap stabil sementara pengeluaran infrastruktur inferensi menurun 30-50%.²⁴ Penyedia cloud akan mengurangi belanja modal sambil menangkap beban kerja AI yang serupa atau lebih besar. Keuntungan efisiensi akan mengalir ke pengguna sebagai harga yang lebih rendah daripada ke penyedia infrastruktur sebagai margin.
Perlambatan dalam pengeluaran infrastruktur AI dapat sementara berdampak pada produsen chip dan penyedia perangkat keras.²⁵ Namun, keuntungan efisiensi dari optimasi model dan pengurangan biaya dapat mengarah pada adopsi AI yang lebih besar dalam jangka panjang, yang pada akhirnya mendorong permintaan perangkat keras AI yang lebih tinggi. Waktu sangat penting: rasa sakit jangka pendek mungkin mendahului keuntungan jangka panjang.
Implikasi Strategis untuk Perencanaan Infrastruktur
Industri tampaknya bergeser dari melatih large language model masif untuk kasus penggunaan generalis.²⁶ Model yang lebih kecil yang di-fine-tune dan dikustomisasi untuk kasus penggunaan spesifik semakin menggantikan model frontier serba guna untuk banyak aplikasi. Pergeseran ini menguntungkan inferensi efisien dalam skala besar daripada pelatihan masif.
Munculnya DeepSeek menyoroti pergeseran industri yang berkembang dari penskalaan brute-force menuju optimisasi cerdas.²⁷ Pemain mapan termasuk OpenAI dan Google menghadapi tekanan untuk mengeksplorasi peningkatan efisiensi seiring AI berkembang secara global. Tekanan kompetitif menguntungkan pengguna sambil berpotensi mengurangi margin penyedia infrastruktur.
Organisasi yang merencanakan infrastruktur AI harus mempertimbangkan tren efisiensi. Model yang berkinerja setara dengan biaya komputasi lebih rendah menantang asumsi tentang kebutuhan kapasitas. Perbedaan antara infrastruktur pelatihan (masih intensif komputasi) dan infrastruktur inferensi (semakin efisien) mungkin melebar. Membangun kapasitas inferensi berlebihan berdasarkan pola penggunaan saat ini dapat membuat organisasi memiliki kapasitas berlebih seiring peningkatan efisiensi.
Model Tiongkok juga menciptakan keputusan deployment. Banyak perusahaan kini dapat mengakses kemampuan AI Tiongkok melalui penyedia cloud Barat, menggabungkan infrastruktur yang familiar dengan model yang efisien. Kekhawatiran kedaulatan, persyaratan regulasi, dan pertimbangan kompetitif semuanya menjadi faktor dalam apakah akan mengadopsi model Tiongkok meskipun keunggulan efisiensinya.
Ekonomi infrastruktur AI yang tampak mapan pada tahun 2024—di mana skala komputasi menentukan kemampuan—kini menghadapi pertanyaan fundamental. DeepSeek membuktikan bahwa rekayasa cerdas dapat menggantikan komputasi mentah. Qwen menunjukkan bahwa efisiensi open-source dapat bersaing dengan skala proprietary. Organisasi yang membangun strategi AI di sekitar kapasitas komputasi tak terbatas kini harus memperhitungkan alternatif yang mengutamakan efisiensi yang menantang asumsi mereka tentang apa yang dibutuhkan infrastruktur AI.
Poin-Poin Utama
Untuk ahli strategi infrastruktur: - DeepSeek melatih R1 dengan $5,6 juta menggunakan 2.000 GPU H800 vs $80-100 juta dan 16.000 H100 untuk model Barat yang setara - Arsitektur MoE mengurangi biaya komputasi 30% vs model dense; keuntungan efisiensi mengalir dari desain bersama perangkat lunak-perangkat keras - Model open-source Tiongkok tumbuh dari 1,2% menjadi 30% penggunaan global pada tahun 2025; Alibaba melaporkan 170.000+ model turunan Qwen
Untuk tim AI perusahaan: - Qwen 2.5-Max seharga ~$0,38/juta token—jauh lebih murah dari alternatif Barat pada performa yang setara - CEO Airbnb menyebut preferensi Qwen dari Alibaba karena "cepat dan murah"; Kementerian Ekonomi Jepang memilih Qwen daripada alternatif AS - AWS, Azure, dan GCP kini menawarkan deployment DeepSeek; adopsi perusahaan mencakup HSBC, Standard Chartered, Saudi Aramco
Untuk perencanaan keuangan: - Jika efisiensi inferensi mengikuti pola pelatihan, penyedia cloud dapat mengurangi CapEx dari $80-100 miliar menjadi $65-85 miliar per tahun - NVIDIA kehilangan kapitalisasi pasar $589 miliar dalam satu hari saat pengumuman DeepSeek; Nasdaq turun 3,1%, S&P 500 turun 1,5% - Jefferies: DeepSeek "menusuk euforia capex" menyusul komitmen pengeluaran Meta dan Microsoft masing-masing $60 miliar+
Untuk perencana kapasitas: - Industri bergeser dari LLM generalis masif ke model yang lebih kecil yang di-fine-tune untuk kasus penggunaan spesifik - Infrastruktur pelatihan tetap intensif komputasi; infrastruktur inferensi semakin efisien—rencanakan secara berbeda - Membangun kapasitas inferensi berlebihan berdasarkan pola saat ini berisiko menghasilkan aset terdampar seiring peningkatan efisiensi
Untuk perencanaan strategis: - Kontrol ekspor memicu improvisasi; keterbatasan menjadi katalis untuk inovasi efisiensi - Skenario paradoks Jevon: efisiensi memungkinkan lebih banyak aplikasi, pada akhirnya mendorong permintaan perangkat keras yang lebih tinggi - Organisasi harus memperhitungkan alternatif yang mengutamakan efisiensi saat merencanakan kebutuhan infrastruktur
Referensi
-
Bain & Company. "DeepSeek: A Game Changer in AI Efficiency?" 2025. https://www.bain.com/insights/deepseek-a-game-changer-in-ai-efficiency/
-
Bain & Company. "DeepSeek: A Game Changer in AI Efficiency?"
-
TechCrunch. "DeepSeek 'punctures' AI leaders' spending plans, and what analysts are saying." January 27, 2025. https://techcrunch.com/2025/01/27/deepseek-punctures-tech-spending-plans-and-what-analysts-are-saying/
-
Gizmochina. "Why U.S. Startups Are Dumping Western AI for China's Open-Source Models." December 9, 2025. https://www.gizmochina.com/2025/12/09/why-u-s-startups-are-dumping-western-ai-for-chinas-open-source-models/
-
Intuition Labs. "An Overview of Chinese Open-Source LLMs (Sept 2025)." September 2025. https://intuitionlabs.ai/articles/chinese-open-source-llms-2025
-
iKangai. "The Enterprise AI Shift: How Chinese Models Are Challenging Silicon Valley's Dominance." 2025. https://www.ikangai.com/the-enterprise-ai-shift-how-chinese-models-are-challenging-silicon-valleys-dominance/
-
iKangai. "The Enterprise AI Shift."
-
Bain & Company. "DeepSeek: A Game Changer in AI Efficiency?"
-
IDC Blog. "DeepSeek's AI Innovation: A Shift in AI Model Efficiency and Cost Structure." January 31, 2025. https://blogs.idc.com/2025/01/31/deepseeks-ai-innovation-a-shift-in-ai-model-efficiency-and-cost-structure/
-
Gizmochina. "Why U.S. Startups Are Dumping Western AI for China's Open-Source Models."
-
World Economic Forum. "Why China's AI breakthroughs should come as no surprise." June 2025. https://www.weforum.org/stories/2025/06/china-ai-breakthroughs-no-surprise/
-
Bain & Company. "DeepSeek: A Game Changer in AI Efficiency?"
-
Gizmochina. "Why U.S. Startups Are Dumping Western AI for China's Open-Source Models."
-
Gizmochina. "Why U.S. Startups Are Dumping Western AI for China's Open-Source Models."
[Konten terpotong untuk terjemahan]