CoreWeave em Profundidade: Como uma Ex-Mineradora de Criptomoedas Se Tornou a Nuvem Essencial da IA

A OpenAI escolheu a CoreWeave em vez da AWS para US$ 22,4 bilhões em infraestrutura. Descubra como esta ex-mineradora de criptomoedas se tornou a nuvem de GPU que impulsiona o desenvolvimento de IA de fronteira.

CoreWeave em Profundidade: Como uma Ex-Mineradora de Criptomoedas Se Tornou a Nuvem Essencial da IA

CoreWeave em Profundidade: Como uma Ex-Mineradora de Criptomoedas Se Tornou a Nuvem Essencial da IA

Atualizado em 8 de dezembro de 2025

Atualização de dezembro de 2025: A CoreWeave concluiu seu IPO de US$ 1,5 bilhão em março de 2025—o primeiro grande IPO de tecnologia desde 2021. A receita cresceu 737% para US$ 1,92 bilhão em 2024. A OpenAI assinou um contrato com valor total de US$ 22,4 bilhões, e a Meta fechou um acordo de US$ 14,2 bilhões. A frota agora excede 250.000 GPUs em mais de 32 data centers. Primeira a implantar comercialmente tanto o GB200 NVL72 (fevereiro de 2025) quanto o GB300 NVL72 (julho de 2025). O compromisso de expansão europeia atinge US$ 3,5 bilhões. A concentração de clientes está melhorando à medida que a Microsoft cai abaixo de 50% da receita futura.

A OpenAI poderia ter escolhido AWS, Azure ou Google Cloud para sua próxima fase de expansão de infraestrutura. Em vez disso, a empresa assinou um contrato de US$ 12 bilhões com a CoreWeave em março de 2025, seguido por um acordo adicional de US$ 10,5 bilhões em setembro, totalizando US$ 22,4 bilhões ao longo de cinco anos.¹ A Meta seguiu com um compromisso de infraestrutura de US$ 14,2 bilhões até 2031.² A CoreWeave se transformou de uma operação de mineração de criptomoedas com três pessoas em 2017 em um provedor de nuvem de GPU avaliado em US$ 23 bilhões, atendendo às cargas de trabalho de IA mais exigentes do planeta. A ascensão da empresa revela tanto as demandas de infraestrutura da IA moderna quanto as decisões arquitetônicas que os hyperscalers lutam para replicar.

Da mineração de Ethereum à infraestrutura de IA

A história de origem da CoreWeave começa em um escritório em Nova Jersey, onde os fundadores Michael Intrator, Brian Venturo e Brannin McBee montavam equipamentos de GPU para mineração de Ethereum. O boom das criptomoedas ensinou-lhes lições críticas sobre economia de GPU, gerenciamento térmico e implantações de alta densidade que mais tarde se provariam essenciais para cargas de trabalho de IA. Quando o Ethereum fez a transição para proof-of-stake em 2022, eliminando a necessidade de mineração por GPU, a CoreWeave pivotou para computação em nuvem justamente quando a IA generativa emergia.

O timing provou ser extraordinário. O ChatGPT foi lançado em novembro de 2022, desencadeando uma demanda sem precedentes por computação em GPU que os hyperscalers não conseguiam satisfazer. O inventário existente de GPUs da CoreWeave e seus relacionamentos de aquisição posicionaram a empresa para capturar a demanda que AWS, Azure e Google Cloud não conseguiam atender. A NVIDIA, enfrentando decisões de alocação em meio à escassez de GPUs, direcionou o fornecimento para a CoreWeave em vez dos hyperscalers que desenvolviam chips de IA concorrentes.³

O investimento de US$ 250 milhões da NVIDIA e a alocação preferencial contínua criaram uma relação simbiótica que beneficia ambas as empresas. A CoreWeave representa o maior cliente de nuvem de GPU da NVIDIA que não desenvolve silício competitivo, tornando a parceria estrategicamente valiosa além dos termos financeiros. O arranjo permitiu que a CoreWeave garantisse fornecimento de GPU durante escassezes que deixaram até a Microsoft e o Google lutando por alocação.

O crescimento da receita reflete a trajetória de demanda: US$ 16 milhões em 2022 cresceram para US$ 229 milhões em 2023 e US$ 1,92 bilhão em 2024—um aumento de 737% em um único ano.⁴ O IPO de março de 2025 levantou US$ 1,5 bilhão com uma capitalização de mercado se aproximando de US$ 35 bilhões, tornando a CoreWeave o primeiro grande IPO de tecnologia desde o mercado efervescente de 2021.

A vantagem do bare-metal

A arquitetura técnica da CoreWeave diverge fundamentalmente das abordagens dos hyperscalers. Provedores de nuvem tradicionais virtualizam recursos de GPU, adicionando camadas de hypervisor que introduzem latência e reduzem a capacidade de computação disponível. A CoreWeave executa Kubernetes diretamente em servidores bare-metal, fornecendo flexibilidade semelhante à nuvem com desempenho de hardware dedicado.⁵

O CoreWeave Kubernetes Service (CKS) implanta clusters sem máquinas virtuais ou hypervisors entre as cargas de trabalho e o hardware de GPU. As Data Processing Units (DPUs) NVIDIA BlueField conectadas a cada nó descarregam tarefas de rede e segurança, liberando as GPUs para focar exclusivamente na computação.⁶ A arquitetura DPU permite recursos avançados de segurança, incluindo políticas de rede personalizadas, Virtual Private Clouds dedicadas e controles de acesso privilegiado sem sacrificar a utilização da GPU.

A arquitetura de rede prova ser igualmente crítica para treinamento distribuído de IA. A CoreWeave construiu seu backbone sobre a malha NVIDIA Quantum-2 InfiniBand com topologia fat-tree sem bloqueio, otimizada para operações coletivas em milhares de GPUs.⁷ O Scalable Hierarchical Aggregation and Reduction Protocol (SHARP) da NVIDIA acelera ainda mais a sincronização de gradientes que domina os padrões de comunicação de treinamento. A rede conecta de forma confiável dezenas de milhares de GPUs com capacidade de escalar para clusters de seis dígitos.

Os hyperscalers enfrentam fricção estrutural ao tentar densidade de GPU semelhante. Designs de data center legados, taxas de virtualização e topologias de rede otimizadas para cargas de trabalho de nuvem tradicionais criam gargalos que a infraestrutura construída especificamente pela CoreWeave evita. AWS e Azure podem implantar H100s, mas alcançar tempo de treinamento e throughput de inferência equivalentes requer superar decisões arquitetônicas tomadas anos antes da IA generativa emergir.

Estratégia de data center para a era da IA

A CoreWeave opera mais de 32 data centers na América do Norte e Europa, abrigando mais de 250.000 GPUs com centenas de megawatts de capacidade de energia.⁸ O ritmo de expansão acelerou ao longo de 2025, com dois data centers no Reino Unido com GPUs H200 tornando-se operacionais em janeiro e sites na Europa continental na Noruega, Suécia e Espanha recebendo compromissos de investimento de US$ 2,2 bilhões.

A maioria das instalações da CoreWeave inauguradas em 2025 apresenta capacidade nativa de resfriamento líquido. Diferente de operadores legados que retrofitam pequenas porções de instalações existentes, a CoreWeave projeta data centers inteiros em torno de resfriamento líquido, da fundação ao teto.⁹ A abordagem permite suporte para racks de 130kW+ necessários para implantações de GPU de próxima geração—níveis de densidade que instalações refrigeradas a ar não conseguem alcançar, independentemente do investimento em retrofit.

Parcerias estratégicas estendem o alcance da CoreWeave sem exigir despesas de capital para cada localização. A aliança com a Flexential fornece capacidade de colocation de alta densidade em mercados adicionais.¹⁰ A Core Scientific comprometeu 200 megawatts de infraestrutura através de contratos de 12 anos com pagamentos anuais de aproximadamente US$ 290 milhões.¹¹ Esses arranjos aceleram a implantação de capacidade enquanto distribuem os requisitos de capital entre parceiros.

A implantação do GB200 NVL72 em fevereiro de 2025 tornou a CoreWeave o primeiro provedor de nuvem a oferecer comercialmente a arquitetura Blackwell da NVIDIA.¹² Julho de 2025 trouxe outro marco com a primeira implantação comercial de sistemas GB300 NVL72 (Blackwell Ultra), entregues através de servidores Dell.¹³ O acesso antecipado a hardware de próxima geração cria barreiras competitivas que se fortalecem a cada geração sucessiva de GPU.

Preços que desafiam a economia dos hyperscalers

A estrutura de preços da CoreWeave consistentemente fica 30-60% abaixo dos hyperscalers para configurações de GPU equivalentes.¹⁴ O H100 com rede InfiniBand custa aproximadamente US$ 6,16 por hora de GPU na CoreWeave, comparado com US$ 6,98 da Azure e a taxa pós-redução da AWS de aproximadamente US$ 3,90.¹⁵ Compromissos de capacidade reservada podem estender descontos para 60% sobre as taxas sob demanda.

A comparação do A100 prova ser ainda mais gritante: US$ 2,39 por hora na CoreWeave versus US$ 3,40 na Azure e US$ 3,67 no Google Cloud.¹⁶ Para um trabalho de treinamento de modelo de 70 bilhões de parâmetros exigindo 6,4 milhões de horas de GPU, a CoreWeave custa aproximadamente US$ 39 milhões comparado com US$ 45-48 milhões na AWS ou Azure e US$ 71 milhões no Google Cloud.

A simplicidade de preços amplifica a vantagem. A CoreWeave agrupa GPU, CPU, RAM e rede em taxas horárias por instância, fornecendo faturamento previsível para planejamento de capacidade. Os hyperscalers cobram separadamente por computação, armazenamento, saída de dados e serviços auxiliares, criando faturamento complexo que dificulta a projeção de custos. As taxas zero de egress da CoreWeave eliminam uma categoria significativa de despesas para cargas de trabalho de IA que requerem transferências frequentes de dados.

Os hyperscalers mantêm vantagens na amplitude do ecossistema de serviços. AWS SageMaker, Google Vertex AI e a plataforma de IA da Azure fornecem serviços gerenciados, ferramentas de análise e integrações pré-construídas que a oferta focada em infraestrutura da CoreWeave não possui. Organizações que requerem integração profunda com ecossistemas de nuvem existentes podem achar os prêmios dos hyperscalers justificados pela complexidade de integração e sobrecarga operacional reduzidas.

Concentração de clientes e diversificação

A concentração de clientes da CoreWeave criou tanto oportunidade quanto vulnerabilidade. A Microsoft representou 62% da receita de 2024 e atingiu 71% da receita do segundo trimestre de 2025—uma dependência extraordinária de um único cliente.¹⁷ A concentração emergiu da necessidade urgente da Microsoft por capacidade de GPU para atender cargas de trabalho da OpenAI após o sucesso inesperado do ChatGPT sobrecarregar a infraestrutura existente.

Os contratos da OpenAI e Meta mudam fundamentalmente o mix de clientes. O CEO Michael Intrator observou que a Microsoft representará menos da metade da receita contratada esperada futura à medida que OpenAI, Meta e outros clientes escalam seu uso.¹⁸ A diversificação reduz o risco de cliente único enquanto demonstra que a proposta de valor da CoreWeave se estende além dos requisitos específicos da Microsoft.

Empresas de IA menores, incluindo Cohere, Mistral e Poolside, complementam os contratos de destaque.¹⁹ Esses clientes representam a comunidade mais ampla de desenvolvimento de IA que as vantagens de preço e desempenho da CoreWeave atraem. À medida que o desenvolvimento de modelos de IA prolifera além de um punhado de laboratórios de fronteira, este segmento de mercado intermediário pode provar ser tão estrategicamente valioso quanto os contratos empresariais de destaque.

Sam Altman caracterizou o relacionamento claramente: "A CoreWeave é uma adição importante ao portfólio de infraestrutura da OpenAI, complementando nossos acordos comerciais com Microsoft e Oracle, e nossa joint venture com a SoftBank no Stargate."²⁰ Mesmo organizações com relacionamentos com hyperscalers consideram a nuvem de GPU especializada da CoreWeave valiosa para cargas de trabalho específicas.

Realidades financeiras e preocupações do mercado

O crescimento da CoreWeave vem com complexidade financeira substancial. A empresa levantou mais de US$ 14,5 bilhões em dívida e capital próprio em 12 rodadas de financiamento, incluindo uma linha de crédito privada de US$ 7 bilhões liderada pela Blackstone e Magnetar em maio de 2024.²¹ O modelo intensivo em capital requer investimento contínuo em inventário de GPU e capacidade de data center para manter o posicionamento competitivo.

Os prejuízos líquidos aumentaram para US$ 863 milhões em 2024, de US$ 594 milhões em 2023, apesar do crescimento de receita de 737%.²² A trajetória de perdas reflete expansão agressiva de capacidade em vez de ineficiência operacional, mas os investidores escrutinam se o crescimento eventualmente gerará retornos suficientes para servir a dívida acumulada. Despesas com juros e depreciação de ativos de GPU consomem receita substancial antes de atingir a lucratividade.

As preocupações do mercado focam na concentração de clientes, dinâmicas competitivas e a sustentabilidade dos níveis de demanda atuais. Alguns analistas caracterizam o modelo de negócios como uma "armadilha de dívida de GPU" onde os requisitos de capital expandem continuamente sem atingir escala lucrativa.²³ A alocação preferencial da NVIDIA poderia teoricamente mudar para outros parceiros, minando a vantagem de fornecimento da CoreWeave.

O contra-argumento centra-se na demanda de infraestrutura de IA que não mostra sinais de desaceleração. OpenAI, Anthropic, Google, Meta e dezenas de outras organizações continuam expandindo a capacidade de computação à medida que os tamanhos dos modelos aumentam e a demanda de inferência cresce. A vantagem de pioneiro da CoreWeave, arquitetura técnica e relacionamentos com clientes criam barreiras que novos entrantes não podem replicar facilmente. A construção de infraestrutura representa uma aposta na expansão contínua da IA—uma tese que as evidências atuais suportam.

Posicionamento competitivo no cenário de nuvem de GPU

O mercado de nuvem de GPU se segmenta entre hyperscalers (AWS, Azure, Google Cloud) e provedores especializados (CoreWeave, Lambda Labs, Together AI, Hyperbolic). A CoreWeave se posiciona no segmento premium dos especializados, oferecendo capacidades empresariais e escala massiva enquanto mantém preços abaixo das taxas dos hyperscalers.

A Lambda Labs oferece preços competitivos de H100 (aproximadamente US$ 2,99 por hora de GPU), mas o

Solicitar Orçamento_

Conte-nos sobre seu projeto e responderemos em até 72 horas.

> TRANSMISSÃO_CONCLUÍDA

Solicitação Recebida_

Obrigado por sua consulta. Nossa equipe analisará sua solicitação e responderá em até 72 horas.

EM FILA PARA PROCESSAMENTO