Como DeepSeek e Qwen mudam a economia da infraestrutura de IA

O DeepSeek R1 foi treinado por US$ 5,6M em 2.000 GPUs H800 vs. US$ 80-100M em 16.000 H100s para modelos ocidentais comparáveis. Os modelos chineses de código aberto cresceram de 1,2% para quase 30% do uso global em 2025. AWS,...

Como DeepSeek e Qwen mudam a economia da infraestrutura de IA

Como DeepSeek e Qwen mudam a economia da infraestrutura de IA

Atualizado em 11 de dezembro de 2025

Atualização de dezembro de 2025: O DeepSeek R1 foi treinado por US$ 5,6M em 2.000 GPUs H800 vs. US$ 80-100M em 16.000 H100s para modelos ocidentais comparáveis. Os modelos chineses de código aberto cresceram de 1,2% para quase 30% do uso global em 2025. AWS, Azure e Google Cloud agora oferecem implantação do DeepSeek. HSBC, Standard Chartered e Saudi Aramco estão testando ou implantando o DeepSeek. O Qwen 2.5-Max custa US$ 0,38/M tokens vs. alternativas ocidentais significativamente mais caras.

A DeepSeek afirma ter treinado seu modelo R1 por apenas US$ 5,6 milhões usando 2.000 GPUs NVIDIA H800.¹ Modelos ocidentais comparáveis exigiram de US$ 80 milhões a US$ 100 milhões e 16.000 GPUs H100.² O lançamento em janeiro de 2025, programado para um dia antes do anúncio de US$ 500 bilhões do Stargate pela OpenAI, provocou uma perda sem precedentes de US$ 589 bilhões em valor de mercado da NVIDIA em um único dia.³ Os modelos de IA chineses passaram de curiosidade regional para desafio de infraestrutura global em um único lançamento de produto.

A alegação de eficiência exige análise. Os modelos chineses de código aberto cresceram de 1,2% do uso global no final de 2024 para quase 30% em 2025.⁴ A Alibaba relata mais de 170.000 modelos derivados construídos sobre o Qwen.⁵ HSBC, Standard Chartered e Saudi Aramco agora testam ou implantam modelos DeepSeek.⁶ Amazon Web Services, Microsoft Azure e Google Cloud oferecem implantação do DeepSeek para seus clientes.⁷ A economia de infraestrutura que antes favorecia gastos massivos de capital pode estar mudando para abordagens focadas em eficiência que alteram como as organizações devem planejar investimentos em IA.

O avanço de eficiência do DeepSeek

A DeepSeek, uma empresa sediada em Hangzhou com menos de 200 funcionários, apoiada pelo fundo quantitativo High-Flyer (US$ 8 bilhões em ativos sob gestão), repensou como os modelos são treinados.⁸ Em vez de depender de infraestrutura intensiva em computação, seus modelos aproveitam aprendizado por reforço e arquiteturas Mixture-of-Experts para melhorar o desempenho enquanto reduzem as demandas computacionais.⁹

A arquitetura MoE representa o núcleo técnico dos ganhos de eficiência. Em vez de ativar todos os parâmetros para cada solicitação de inferência, os modelos MoE ativam apenas redes de especialistas relevantes. A abordagem reduz os custos computacionais em até 30% em comparação com modelos densos tradicionais, mantendo ou excedendo o desempenho.¹⁰ O DeepSeek demonstrou que o co-design eficaz de software-hardware permite o treinamento econômico de grandes modelos, nivelando o campo de jogo para equipes menores.

Os controles de exportação dos EUA provocaram uma explosão de improvisação em todo o setor de IA da China.¹¹ Sem acesso às GPUs NVIDIA mais avançadas, os pesquisadores chineses desenvolveram técnicas para alcançar resultados competitivos com o hardware disponível. A restrição tornou-se catalisador. O DeepSeek surpreendeu observadores globais com um modelo que competia com as capacidades do GPT-4 por uma fração do custo e da computação.

As implicações de infraestrutura vão além dos custos de treinamento. Se os custos de inferência seguirem curvas de eficiência semelhantes, os provedores de nuvem podem reduzir os gastos de capital de US$ 80-100 bilhões anuais para US$ 65-85 bilhões por provedor de serviços em nuvem.¹² A redução afetaria todos, desde fabricantes de chips até operadores de data centers e fornecedores de energia.

Qwen e o ecossistema de modelos chineses

Os modelos Qwen da Alibaba oferecem eficiência que se traduz diretamente em economia empresarial. O Qwen 2.5-Max custa aproximadamente US$ 0,38 por milhão de tokens, significativamente mais barato que modelos ocidentais concorrentes, igualando ou superando o desempenho em vários benchmarks.¹³ Para empresas que processam bilhões de tokens mensalmente, a diferença de custo determina a lucratividade.

O CEO do Airbnb, Brian Chesky, declarou que a empresa prefere o Qwen da Alibaba porque é "rápido e barato".¹⁴ O Ministério da Economia do Japão escolheu o Qwen em vez de alternativas americanas para certas aplicações.¹⁵ A LVMH fez parceria com a Alibaba para aproveitar o Qwen e o Model Studio para operações de varejo digital na China.¹⁶ A adoção se estende além de startups conscientes de custos para grandes empresas com orçamentos substanciais de IA.

O Qwen 3 representa uma das famílias de modelos de código aberto mais abrangentes lançadas em 2025. A linha vai de 0,5 bilhão a 110 bilhões de parâmetros, incluindo modelos densos e esparsos.¹⁷ Uma abordagem operacional dupla através dos modos "Thinking" e "Non-Thinking" alterna dinamicamente com base na complexidade da tarefa, alocando computação onde importa e conservando recursos em outros casos.

O Baichuan se posiciona como o principal modelo chinês para aplicações específicas de domínio. Construído com foco em direito, finanças, medicina e literatura chinesa clássica, oferece desempenho em tarefas linguística e culturalmente nuançadas.¹⁸ Através da codificação posicional ALiBi, o Baichuan suporta processamento de contexto mais longo com inferência eficiente. Variantes quantizadas em int8 e int4 garantem implantação em GPUs de consumo de menor custo.¹⁹

Impacto no investimento em infraestrutura ocidental

As reações de Wall Street revelaram genuína incerteza. A Jefferies alertou que a abordagem do DeepSeek "fura parte da euforia de capex" após compromissos de gastos da Meta e Microsoft excedendo US$ 60 bilhões cada.²⁰ O Goldman Sachs sugeriu que o desenvolvimento poderia remodelar a competição ao reduzir as barreiras de entrada.²¹ O Nasdaq Composite caiu 3,1% enquanto o S&P 500 caiu 1,5%.²²

O cenário otimista invoca o paradoxo de Jevons: melhorias de eficiência levam a inferência mais barata, estimulando maior adoção de IA que, em última análise, impulsiona maior demanda por infraestrutura.²³ Custos mais baixos permitem aplicações anteriormente antieconômicas. Mais aplicações significam mais inferência. Mais inferência eventualmente significa mais hardware, apenas implantado de forma mais eficiente.

O cenário moderado sugere que os custos de treinamento de IA permanecem estáveis enquanto os gastos com infraestrutura de inferência diminuem 30-50%.²⁴ Os provedores de nuvem reduziriam os gastos de capital enquanto capturam cargas de trabalho de IA similares ou maiores. Os ganhos de eficiência fluiriam para os usuários como preços mais baixos, em vez de para os provedores de infraestrutura como margens.

Uma desaceleração nos gastos com infraestrutura de IA poderia impactar temporariamente fabricantes de chips e fornecedores de hardware.²⁵ No entanto, os ganhos de eficiência das otimizações de modelos e reduções de custos poderiam levar a uma adoção ainda maior de IA a longo prazo, impulsionando, em última análise, maior demanda por hardware de IA. O timing importa: dor de curto prazo pode preceder ganho de longo prazo.

Implicações estratégicas para planejamento de infraestrutura

A indústria parece estar se afastando do treinamento de grandes modelos de linguagem massivos para casos de uso generalistas.²⁶ Modelos menores ajustados e personalizados para casos de uso específicos substituem cada vez mais modelos de fronteira de propósito geral para muitas aplicações. A mudança favorece inferência eficiente em escala sobre execuções de treinamento massivas.

O surgimento do DeepSeek destaca uma mudança crescente em toda a indústria, de escalonamento por força bruta para otimização inteligente.²⁷ Players estabelecidos, incluindo OpenAI e Google, enfrentam pressão para explorar melhorias de eficiência à medida que a adoção de IA escala globalmente. A pressão competitiva beneficia os usuários enquanto potencialmente reduz as margens dos provedores de infraestrutura.

Organizações planejando infraestrutura de IA devem considerar as tendências de eficiência. Modelos que desempenham de forma comparável com menor custo computacional desafiam suposições sobre requisitos de capacidade. A distinção entre infraestrutura de treinamento (ainda intensiva em computação) e infraestrutura de inferência (cada vez mais eficiente) pode aumentar. Construir em excesso a capacidade de inferência com base nos padrões de uso atuais pode deixar as organizações com capacidade excedente à medida que a eficiência melhora.

Os modelos chineses também criam decisões de implantação. Muitas empresas agora podem acessar capacidades de IA chinesas através de provedores de nuvem ocidentais, combinando infraestrutura familiar com modelos eficientes. Preocupações com soberania, requisitos regulatórios e considerações competitivas influenciam a decisão de adotar modelos chineses, apesar de suas vantagens de eficiência.

A economia de infraestrutura de IA que parecia estabelecida em 2024, onde a escala de computação determinava a capacidade, agora enfrenta questões fundamentais. O DeepSeek provou que engenharia inteligente pode substituir computação bruta. O Qwen demonstrou que eficiência de código aberto pode competir com escala proprietária. As organizações que construíram estratégia de IA em torno de capacidade computacional ilimitada agora devem considerar alternativas focadas em eficiência que desafiam suas suposições sobre o que a infraestrutura de IA requer.

Principais conclusões

Para estrategistas de infraestrutura: - O DeepSeek treinou o R1 por US$ 5,6M com 2.000 GPUs H800 vs US$ 80-100M e 16.000 H100s para modelos ocidentais comparáveis - A arquitetura MoE reduz custos computacionais em 30% vs modelos densos; ganhos de eficiência vêm do co-design software-hardware - Modelos chineses de código aberto cresceram de 1,2% para 30% do uso global em 2025; Alibaba relata mais de 170.000 modelos derivados do Qwen

Para equipes de IA empresarial: - O Qwen 2.5-Max custa ~US$ 0,38/milhão de tokens—significativamente mais barato que alternativas ocidentais com desempenho comparável - O CEO do Airbnb cita preferência pelo Qwen da Alibaba porque é "rápido e barato"; o Ministério da Economia do Japão escolheu o Qwen em vez de alternativas americanas - AWS, Azure e GCP agora oferecem implantação do DeepSeek; adoção empresarial abrange HSBC, Standard Chartered, Saudi Aramco

Para planejamento financeiro: - Se a eficiência de inferência seguir padrões de treinamento, provedores de nuvem podem reduzir CapEx de US$ 80-100B para US$ 65-85B anualmente - A NVIDIA perdeu US$ 589B em valor de mercado em um único dia com o anúncio do DeepSeek; Nasdaq caiu 3,1%, S&P 500 caiu 1,5% - Jefferies: DeepSeek "fura a euforia de capex" após compromissos de gastos de US$ 60B+ cada da Meta e Microsoft

Para planejadores de capacidade: - A indústria está se afastando de LLMs generalistas massivos para modelos menores ajustados para casos de uso específicos - Infraestrutura de treinamento permanece intensiva em computação; infraestrutura de inferência cada vez mais eficiente—planeje de forma diferente - Construir capacidade de inferência em excesso com base nos padrões atuais arrisca ativos ociosos à medida que a eficiência melhora

Para planejamento estratégico: - Controles de exportação provocaram improvisação; restrição tornou-se catalisador para inovação em eficiência - Cenário do paradoxo de Jevons: eficiência permite mais aplicações, impulsionando, em última análise, maior demanda por hardware - Organizações devem considerar alternativas focadas em eficiência ao planejar requisitos de infraestrutura


Referências

  1. Bain & Company. "DeepSeek: A Game Changer in AI Efficiency?" 2025. https://www.bain.com/insights/deepseek-a-game-changer-in-ai-efficiency/

  2. Bain & Company. "DeepSeek: A Game Changer in AI Efficiency?"

  3. TechCrunch. "DeepSeek 'punctures' AI leaders' spending plans, and what analysts are saying." January 27, 2025. https://techcrunch.com/2025/01/27/deepseek-punctures-tech-spending-plans-and-what-analysts-are-saying/

  4. Gizmochina. "Why U.S. Startups Are Dumping Western AI for China's Open-Source Models." December 9, 2025. https://www.gizmochina.com/2025/12/09/why-u-s-startups-are-dumping-western-ai-for-chinas-open-source-models/

  5. Intuition Labs. "An Overview of Chinese Open-Source LLMs (Sept 2025)." September 2025. https://intuitionlabs.ai/articles/chinese-open-source-llms-2025

  6. iKangai. "The Enterprise AI Shift: How Chinese Models Are Challenging Silicon Valley's Dominance." 2025. https://www.ikangai.com/the-enterprise-ai-shift-how-chinese-models-are-challenging-silicon-valleys-dominance/

  7. iKangai. "The Enterprise AI Shift."

  8. Bain & Company. "DeepSeek: A Game Changer in AI Efficiency?"

  9. IDC Blog. "DeepSeek's AI Innovation: A Shift in AI Model Efficiency and Cost Structure." January 31, 2025. https://blogs.idc.com/2025/01/31/deepseeks-ai-innovation-a-shift-in-ai-model-efficiency-and-cost-structure/

  10. Gizmochina. "Why U.S. Startups Are Dumping Western AI for China's Open-Source Models."

  11. World Economic Forum. "Why China's AI breakthroughs should come as no surprise." June 2025. https://www.weforum.org/stories/2025/06/china-ai-breakthroughs-no-surprise/

  12. Bain & Company. "DeepSeek: A Game Changer in AI Efficiency?"

  13. Gizmochina. "Why U.S. Startups Are Dumping Western AI for China's Open-Source Models."

  14. Gizmochina. "Why U.S. Startups Are Dumping Western AI for China's Open-Source Models."

  15. Gizmochina. "Why U.S. Startups Are Dumping Western AI for China's Open-Source Models."

  16. Intuition Labs. "An Overview of Chinese Open-Source LLMs (Sept 2025)."

  17. Intuition Labs. "An Overview of Chinese Open-Source LLMs (Sept 2025)."

  18. Intuition Labs. "An Overview of Chinese Open-Source LLMs (Sept 2025)."

  19. Intuition Labs. "An Overview of Chinese Open-Source LLMs (Sept 2025)."

  20. TechCrunch. "DeepSeek 'punctures' AI leaders' spending plans."

  21. TechCrunch. "DeepSeek 'punctures' AI leaders' spending plans."

  22. TechCrunch. "DeepSeek 'punctures' AI leaders' spending plans."

  23. IDC Blog. "DeepSeek's AI Innovation."

  24. Bain & Company. "DeepSeek: A Game Changer in AI Efficiency?"

  25. IDC Blog. "DeepSeek's AI Innovation."

  26. Bain & Company. "DeepSeek: A Game Changer in AI Efficiency?"

  27. IDC Blog. "DeepSeek's AI Innovation."

Solicitar Orçamento_

Conte-nos sobre seu projeto e responderemos em até 72 horas.

> TRANSMISSÃO_CONCLUÍDA

Solicitação Recebida_

Obrigado por sua consulta. Nossa equipe analisará sua solicitação e responderá em até 72 horas.

EM FILA PARA PROCESSAMENTO