CoreWeave a fondo: cómo un ex minero de criptomonedas se convirtió en la nube esencial de la IA

OpenAI eligió CoreWeave sobre AWS para $22.4 mil millones en infraestructura. Descubre cómo este ex minero de criptomonedas se convirtió en la nube GPU que impulsa el desarrollo de IA de frontera.

CoreWeave a fondo: cómo un ex minero de criptomonedas se convirtió en la nube esencial de la IA

CoreWeave a fondo: cómo un ex minero de criptomonedas se convirtió en la nube esencial de la IA

Actualizado el 8 de diciembre de 2025

Actualización de diciembre de 2025: CoreWeave completó una OPI de $1.5 mil millones en marzo de 2025, la primera OPI tecnológica importante desde 2021. Los ingresos crecieron un 737% hasta alcanzar $1.92 mil millones en 2024. OpenAI firmó un contrato por un valor total de $22.4 mil millones, y Meta cerró un acuerdo de $14.2 mil millones. La flota ahora supera las 250,000 GPUs en más de 32 centros de datos. Fue el primero en implementar comercialmente tanto GB200 NVL72 (febrero de 2025) como GB300 NVL72 (julio de 2025). El compromiso de expansión europea alcanza los $3.5 mil millones. La concentración de clientes mejora a medida que Microsoft cae por debajo del 50% de los ingresos futuros.

OpenAI podría haber elegido AWS, Azure o Google Cloud para su próxima fase de expansión de infraestructura. En cambio, la empresa firmó un contrato de $12 mil millones con CoreWeave en marzo de 2025, seguido de un acuerdo adicional de $10.5 mil millones en septiembre, elevando el total a $22.4 mil millones en cinco años.¹ Meta siguió con un compromiso de infraestructura de $14.2 mil millones hasta 2031.² CoreWeave pasó de ser una operación de minería de criptomonedas de tres personas en 2017 a convertirse en un proveedor de nube GPU valorado en $23 mil millones que atiende las cargas de trabajo de IA más exigentes del planeta. El ascenso de la empresa revela tanto las demandas de infraestructura de la IA moderna como las decisiones arquitectónicas que los hiperescaladores luchan por replicar.

De la minería de Ethereum a la infraestructura de IA

La historia del origen de CoreWeave comienza en una oficina de Nueva Jersey donde los fundadores Michael Intrator, Brian Venturo y Brannin McBee ensamblaban equipos de GPU para minar Ethereum. El auge de las criptomonedas les enseñó lecciones críticas sobre la economía de las GPU, la gestión térmica y los despliegues de alta densidad que más tarde resultarían esenciales para las cargas de trabajo de IA. Cuando Ethereum hizo la transición a prueba de participación en 2022, eliminando la necesidad de minería con GPU, CoreWeave pivotó hacia la computación en la nube justo cuando emergía la IA generativa.

El momento resultó extraordinario. ChatGPT se lanzó en noviembre de 2022, desencadenando una demanda sin precedentes de cómputo GPU que los hiperescaladores no podían satisfacer. El inventario existente de GPU de CoreWeave y sus relaciones de aprovisionamiento posicionaron a la empresa para capturar la demanda que AWS, Azure y Google Cloud no podían cubrir. NVIDIA, enfrentando decisiones de asignación en medio de la escasez de GPU, dirigió el suministro hacia CoreWeave en lugar de hacia los hiperescaladores que desarrollaban chips de IA competidores.³

La inversión de $250 millones de NVIDIA y la asignación preferencial continua crearon una relación simbiótica que beneficia a ambas empresas. CoreWeave representa el mayor cliente de nube GPU de NVIDIA que no desarrolla silicio competitivo, lo que hace que la asociación sea estratégicamente valiosa más allá de los términos financieros. El acuerdo permitió a CoreWeave asegurar el suministro de GPU durante escaseces que dejaron incluso a Microsoft y Google luchando por conseguir asignaciones.

El crecimiento de los ingresos refleja la trayectoria de la demanda: $16 millones en 2022 crecieron a $229 millones en 2023 y $1.92 mil millones en 2024, un aumento del 737% en un solo año.⁴ La OPI de marzo de 2025 recaudó $1.5 mil millones con una capitalización de mercado que se acercaba a los $35 mil millones, convirtiendo a CoreWeave en la primera OPI tecnológica importante desde el efervescente mercado de 2021.

La ventaja del bare-metal

La arquitectura técnica de CoreWeave diverge fundamentalmente de los enfoques de los hiperescaladores. Los proveedores de nube tradicionales virtualizan los recursos de GPU, añadiendo capas de hipervisor que introducen latencia y reducen la capacidad de cómputo disponible. CoreWeave ejecuta Kubernetes directamente en servidores bare-metal, proporcionando flexibilidad similar a la nube con rendimiento de hardware dedicado.⁵

CoreWeave Kubernetes Service (CKS) despliega clústeres sin máquinas virtuales ni hipervisores entre las cargas de trabajo y el hardware GPU. Las unidades de procesamiento de datos (DPU) NVIDIA BlueField conectadas a cada nodo descargan las tareas de red y seguridad, liberando a las GPU para enfocarse exclusivamente en la computación.⁶ La arquitectura DPU permite funciones de seguridad avanzadas, incluyendo políticas de red personalizadas, nubes privadas virtuales dedicadas y controles de acceso privilegiado sin sacrificar la utilización de GPU.

La arquitectura de red resulta igualmente crítica para el entrenamiento distribuido de IA. CoreWeave construyó su backbone sobre la estructura InfiniBand NVIDIA Quantum-2 con topología fat-tree sin bloqueo, optimizada para operaciones colectivas a través de miles de GPU.⁷ El protocolo de agregación y reducción jerárquica escalable (SHARP) de NVIDIA acelera aún más la sincronización de gradientes que domina los patrones de comunicación del entrenamiento. La red conecta de manera fiable decenas de miles de GPU con capacidad para escalar a clústeres de seis cifras.

Los hiperescaladores enfrentan fricción estructural al intentar densidades de GPU similares. Los diseños heredados de centros de datos, el impuesto de virtualización y las topologías de red optimizadas para cargas de trabajo de nube tradicionales crean cuellos de botella que la infraestructura construida específicamente por CoreWeave evita. AWS y Azure pueden desplegar H100, pero lograr un tiempo de entrenamiento e inferencia equivalentes requiere superar decisiones arquitectónicas tomadas años antes de que emergiera la IA generativa.

Estrategia de centros de datos para la era de la IA

CoreWeave opera más de 32 centros de datos en América del Norte y Europa, albergando más de 250,000 GPU con cientos de megavatios de capacidad de energía.⁸ El ritmo de expansión se aceleró durante 2025, con dos centros de datos en el Reino Unido con GPU H200 que entraron en funcionamiento en enero, y sitios en Europa continental en Noruega, Suecia y España que recibieron compromisos de inversión de $2.2 mil millones.

La mayoría de las instalaciones de CoreWeave que abrieron en 2025 cuentan con capacidad nativa de refrigeración líquida. A diferencia de los operadores heredados que adaptan pequeñas porciones de instalaciones existentes, CoreWeave diseña centros de datos completos en torno a la refrigeración líquida desde los cimientos hasta el techo.⁹ El enfoque permite soportar racks de más de 130kW necesarios para despliegues de GPU de próxima generación, niveles de densidad que las instalaciones refrigeradas por aire no pueden alcanzar independientemente de la inversión en adaptación.

Las asociaciones estratégicas extienden el alcance de CoreWeave sin requerir gastos de capital para cada ubicación. La alianza con Flexential proporciona capacidad de colocación de alta densidad en mercados adicionales.¹⁰ Core Scientific comprometió 200 megavatios de infraestructura a través de contratos de 12 años con pagos anuales de aproximadamente $290 millones.¹¹ Estos acuerdos aceleran el despliegue de capacidad mientras distribuyen los requisitos de capital entre los socios.

El despliegue de GB200 NVL72 en febrero de 2025 convirtió a CoreWeave en el primer proveedor de nube que ofrece comercialmente la arquitectura Blackwell de NVIDIA.¹² Julio de 2025 trajo otro hito con el primer despliegue comercial de sistemas GB300 NVL72 (Blackwell Ultra), entregados a través de servidores Dell.¹³ El acceso temprano al hardware de próxima generación crea fosos competitivos que se fortalecen con las sucesivas generaciones de GPU.

Precios que desafían la economía de los hiperescaladores

La estructura de precios de CoreWeave constantemente subcotiza a los hiperescaladores en un 30-60% para configuraciones de GPU equivalentes.¹⁴ La H100 con red InfiniBand cuesta aproximadamente $6.16 por hora de GPU en CoreWeave, comparado con los $6.98 de Azure y la tarifa reducida de AWS de aproximadamente $3.90.¹⁵ Los compromisos de capacidad reservada pueden extender los descuentos hasta un 60% sobre las tarifas bajo demanda.

La comparación con la A100 resulta aún más marcada: $2.39 por hora en CoreWeave versus $3.40 en Azure y $3.67 en Google Cloud.¹⁶ Para un trabajo de entrenamiento de un modelo de 70 mil millones de parámetros que requiere 6.4 millones de horas de GPU, CoreWeave cuesta aproximadamente $39 millones comparado con $45-48 millones en AWS o Azure y $71 millones en Google Cloud.

La simplicidad de precios amplifica la ventaja. CoreWeave agrupa GPU, CPU, RAM y red en tarifas por hora por instancia, proporcionando facturación predecible para la planificación de capacidad. Los hiperescaladores cobran por separado el cómputo, almacenamiento, transferencia de datos y servicios auxiliares, creando una facturación compleja que dificulta la proyección de costos. Los cargos cero por transferencia de datos de CoreWeave eliminan una categoría de gastos significativa para las cargas de trabajo de IA que requieren transferencias frecuentes de datos.

Los hiperescaladores mantienen ventajas en la amplitud del ecosistema de servicios. AWS SageMaker, Google Vertex AI y la plataforma de IA de Azure proporcionan servicios gestionados, herramientas de análisis e integraciones preconstruidas que la oferta enfocada en infraestructura de CoreWeave carece. Las organizaciones que requieren una integración profunda con ecosistemas de nube existentes pueden encontrar justificadas las primas de los hiperescaladores por la reducción de la complejidad de integración y la sobrecarga operativa.

Concentración de clientes y diversificación

La concentración de clientes de CoreWeave creó tanto oportunidad como vulnerabilidad. Microsoft representó el 62% de los ingresos de 2024 y alcanzó el 71% de los ingresos del segundo trimestre de 2025, una dependencia extraordinaria de un solo cliente.¹⁷ La concentración surgió de la necesidad urgente de Microsoft de capacidad GPU para atender las cargas de trabajo de OpenAI después de que el éxito inesperado de ChatGPT abrumara la infraestructura existente.

Los contratos de OpenAI y Meta cambian fundamentalmente la mezcla de clientes. El CEO Michael Intrator señaló que Microsoft representará menos de la mitad de los ingresos esperados por contratos comprometidos futuros a medida que OpenAI, Meta y otros clientes escalen su uso.¹⁸ La diversificación reduce el riesgo de un solo cliente mientras demuestra que la propuesta de valor de CoreWeave se extiende más allá de los requisitos específicos de Microsoft.

Empresas de IA más pequeñas como Cohere, Mistral y Poolside complementan los contratos principales.¹⁹ Estos clientes representan la comunidad más amplia de desarrollo de IA que las ventajas de precio y rendimiento de CoreWeave atraen. A medida que el desarrollo de modelos de IA prolifera más allá de un puñado de laboratorios de frontera, este segmento de mercado medio puede resultar tan estratégicamente valioso como los contratos empresariales de alto perfil.

Sam Altman caracterizó la relación claramente: "CoreWeave es una adición importante al portafolio de infraestructura de OpenAI, complementando nuestros acuerdos comerciales con Microsoft y Oracle, y nuestra empresa conjunta con SoftBank en Stargate."²⁰ Incluso las organizaciones con relaciones con hiperescaladores encuentran valiosa la nube GPU especializada de CoreWeave para cargas de trabajo específicas.

Realidades financieras y preocupaciones del mercado

El crecimiento de CoreWeave viene con una complejidad financiera sustancial. La empresa recaudó más de $14.5 mil millones en deuda y capital a través de 12 rondas de financiación, incluyendo una línea de deuda privada de $7 mil millones liderada por Blackstone y Magnetar en mayo de 2024.²¹ El modelo intensivo en capital requiere inversión continua en inventario de GPU y capacidad de centros de datos para mantener el posicionamiento competitivo.

Las pérdidas netas se ampliaron a $863 millones en 2024 desde $594 millones en 2023, a pesar del crecimiento de ingresos del 737%.²² La trayectoria de pérdidas refleja una expansión agresiva de capacidad más que ineficiencia operativa, pero los inversores escrutinan si el crecimiento eventualmente genera rendimientos suficientes para servir la deuda acumulada. Los gastos por intereses y la depreciación de activos GPU consumen ingresos sustanciales antes de alcanzar la rentabilidad.

Las preocupaciones del mercado se centran en la concentración de clientes, las dinámicas competitivas y la sostenibilidad de los niveles actuales de demanda. Algunos analistas caracterizan el modelo de negocio como una "trampa de deuda GPU" donde los requisitos de capital se expanden continuamente sin alcanzar una escala rentable.²³ La asignación preferencial de NVIDIA teóricamente podría desplazarse hacia otros socios, socavando la ventaja de suministro de CoreWeave.

El contraargumento se centra en la demanda de infraestructura de IA que no muestra signos de desaceleración. OpenAI, Anthropic, Google, Meta y docenas de otras organizaciones continúan expandiendo la capacidad de cómputo a medida que aumentan los tamaños de los modelos y crece la demanda de inferencia. La ventaja de pionero de CoreWeave, su arquitectura técnica y las relaciones con clientes crean barreras que los nuevos participantes no pueden replicar fácilmente. La construcción de infraestructura representa una apuesta por la expansión continua de la IA, una tesis que la evidencia actual respalda.

Posicionamiento competitivo en el panorama de la nube GPU

El mercado de la nube GPU se segmenta entre hiperescaladores (AWS, Azure, Google Cloud) y proveedores especializados (CoreWeave, Lambda Labs, Together AI, Hyperbolic). CoreWeave se posiciona en el extremo premium del segmento especializado, ofreciendo capacidades empresariales y escala masiva mientras mantiene precios por debajo de las tarifas de los hiperescaladores.

Lambda Labs ofrece precios competitivos de H100 (aproximadamente $2.99 por hora de GPU) pero o

[Contenido truncado para traducción]

Solicitar Cotización_

Cuéntanos sobre tu proyecto y te responderemos en 72 horas.

> TRANSMISIÓN_COMPLETA

Solicitud Recibida_

Gracias por su consulta. Nuestro equipo revisará su solicitud y responderá dentro de 72 horas.

EN COLA PARA PROCESAMIENTO