El plan de centros de datos de $50 mil millones de Anthropic: Un laboratorio de IA se convierte en constructor de infraestructura
10 de diciembre de 2025 Escrito por Blake Crosley
Anthropic firmó una asociación de centros de datos por $50 mil millones con el proveedor neocloud británico Fluidstack el 12 de noviembre de 2025, comprometiéndose a construir instalaciones en Texas y Nueva York que entrarán en operación a lo largo de 2026.[^1] El proyecto crea aproximadamente 800 empleos permanentes y 2,400 empleos de construcción, marcando el primer esfuerzo importante de Anthropic para construir infraestructura personalizada en lugar de depender de proveedores de nube.[^2]
El anuncio representa una pieza de una estrategia de infraestructura multi-nube sin precedentes. Anthropic mantiene simultáneamente acceso a AWS Project Rainier (500,000 chips Trainium2 escalando a 1 millón), TPUs de Google Cloud (hasta 1 millón de chips), y un nuevo compromiso de $30 mil millones con Microsoft Azure con $15 mil millones en inversiones de NVIDIA y Microsoft.[^3][^4][^5]
Portafolio de infraestructura de Anthropic:
| Asociación | Compromiso | Capacidad | Estado |
|---|---|---|---|
| Fluidstack | $50 mil millones | Centros de datos en Texas + Nueva York | En línea 2026 |
| Microsoft Azure | $30 mil millones + inversión de $15 mil millones | Grace Blackwell, Vera Rubin | Activo |
| AWS Project Rainier | Acceso a infraestructura | 500K→1M chips Trainium2 | Activo |
| Google Cloud | Multi-anual | Hasta 1M chips TPU, 1+ GW | Activo |
| Total | $95+ mil millones en compromisos | Multi-gigavatio | 2025-2026 |
Este enfoque multi-nube contrasta marcadamente con el proyecto Stargate de OpenAI—una empresa conjunta única de $500 mil millones con SoftBank, Oracle y MGX que apunta a 10 gigavatios para 2029.[^6] La estrategia distribuida de Anthropic diversifica el acceso a cómputo entre arquitecturas (NVIDIA, Trainium, TPU) y proveedores.
Fundamento estratégico
La inversión en infraestructura de Anthropic aborda restricciones críticas que enfrentan los laboratorios de IA de frontera a medida que los modelos escalan hacia la inteligencia artificial general.
La cobertura multi-arquitectura
Entrenar modelos de frontera ahora requiere clústeres de decenas de miles de aceleradores operando en conjunto.[^7] En lugar de apostar por una sola arquitectura, Anthropic aseguró acceso a través de tres plataformas competidoras:
Comparación de aceleradores:
| Arquitectura | Proveedor | Fortalezas | Acceso de Anthropic |
|---|---|---|---|
| NVIDIA Grace Blackwell | Microsoft Azure | Máximo rendimiento de entrenamiento, ecosistema | Compromiso de $30 mil millones |
| AWS Trainium2 | Amazon | Eficiencia de costos, silicio personalizado | 500K→1M chips |
| Google TPU v5 | Google Cloud | Eficiencia de inferencia, relación precio-rendimiento | Hasta 1M chips |
Esta diversificación asegura que ningún proveedor único pueda restringir la capacidad de entrenamiento de Anthropic. Si la asignación de NVIDIA se reduce, Anthropic traslada cargas de trabajo a Trainium o TPU. Si AWS prioriza otros clientes, Azure proporciona capacidad de respaldo.
Requisitos de escala para Claude
Claude Opus 4.5, lanzado en noviembre de 2025, representa el modelo más capaz de Anthropic.[^8] Entrenar generaciones posteriores requiere asignaciones de cómputo aún mayores. Project Rainier demuestra la escala: el clúster abarca tres estados (Pensilvania, Indiana, Mississippi) con la mayoría de los chips usados para inferencia y ejecuciones de entrenamiento durante las horas nocturnas cuando la demanda de inferencia disminuye.[^9]
Anthropic tendrá acceso a más de un gigavatio de capacidad que entrará en operación en 2026 solo a través de Google Cloud.[^10] Combinado con las instalaciones de Fluidstack y la infraestructura de AWS, la capacidad total se aproxima a la escala de múltiples gigavatios—cómputo previamente disponible solo para los hiperescaladores más grandes.
Arbitraje económico
Los precios de alquiler de GPU en la nube han disminuido de $8/hora (H100, principios de 2024) a $2.85-3.50/hora (finales de 2025), pero el entrenamiento continuo aún acumula millones en costos.[^11] La infraestructura propia convierte gastos operativos variables en inversión de capital con características económicas diferentes.
Economía del entrenamiento a escala:
| Métrica | Alquiler en nube | Infraestructura propia |
|---|---|---|
| 10,000 GPU-meses | $20-25M | $15-18M (amortizado) |
| Flexibilidad de capacidad | Instantánea | Tiempo de espera 12-24 meses |
| Elección de arquitectura | Dependiente del proveedor | Autodeterminada |
| Riesgo de activo varado | Ninguno | Significativo |
La asociación con Fluidstack proporciona un punto intermedio: instalaciones construidas a medida para las cargas de trabajo de Anthropic sin el riesgo total de propiedad.
Estructura de la asociación
La asociación con Fluidstack representa una apuesta calculada por la agilidad neocloud sobre la escala de los hiperescaladores.
Por qué Fluidstack
Fluidstack, fundada en 2017, demostró sus capacidades a principios de 2025 cuando fue nombrada socia principal para un proyecto de IA de 1 gigavatio respaldado por el gobierno francés que representa más de $11 mil millones en gasto.[^12] El CEO de Anthropic, Dario Amodei, seleccionó a Fluidstack por su "capacidad para moverse con agilidad excepcional, permitiendo la entrega rápida de gigavatios de potencia."[^13]
El modelo neocloud de Fluidstack difiere de los enfoques de los hiperescaladores: - Velocidad: Meses en lugar de años para la entrega de instalaciones - Personalización: Infraestructura optimizada para los patrones de carga de trabajo específicos de Anthropic - Economía: Sin margen de hiperescalador, transferencia directa de costos - Flexibilidad: Términos de contrato adaptados a los requisitos de laboratorios de IA
Estrategia geográfica
Las ubicaciones de Texas y Nueva York sirven propósitos estratégicos distintos:
Instalación de Texas: - Menores costos de energía ($0.04-0.06/kWh vs. $0.12+ en otros lugares) - Entorno regulatorio favorable para el desarrollo de centros de datos - Proximidad a la infraestructura existente de Stargate en Abilene - Enfoque principal: Ejecuciones de entrenamiento a gran escala
Instalación de Nueva York: - Conectividad premium con clientes del sector financiero - Acceso de baja latencia a centros de población del noreste - Proximidad a clientes empresariales para servicios de Claude API - Enfoque principal: Servicio de inferencia, despliegue empresarial
Inversión en liderazgo
Anthropic contrató a Rahul Patil como CTO en octubre de 2025, específicamente para supervisar cómputo, infraestructura, inferencia y operaciones de ingeniería.[^14] El trasfondo de Patil como CTO de Stripe señala el compromiso de Anthropic con la infraestructura como competencia central en lugar de función subcontratada.
Comparación con Stargate: Dos modelos para infraestructura de IA
El contraste entre la estrategia distribuida de Anthropic y el enfoque concentrado de Stargate de OpenAI revela diferencias filosóficas fundamentales.
Comparación de estrategias de infraestructura:
| Dimensión | Anthropic | OpenAI Stargate |
|---|---|---|
| Compromiso total | $95+ mil millones (distribuido) | $500 mil millones (concentrado) |
| Cronograma | 2025-2026 | Hasta 2029 |
| Arquitectura | Multi-proveedor (NVIDIA, Trainium, TPU) | NVIDIA-principal |
| Propiedad | Modelo de asociación | Empresa conjunta (40% cada uno SoftBank, OpenAI) |
| Distribución geográfica | Múltiples instalaciones, 3+ regiones de nube | 6+ sitios, objetivo 10 GW |
| Perfil de riesgo | Menor (diversificado) | Mayor (concentrado) |
Stargate de OpenAI ha asegurado casi 7 gigavatios de capacidad planificada en seis sitios con más de $400 mil millones en inversión comprometida—poniéndolos en camino para su objetivo completo de 10 gigavatios y $500 mil millones antes de lo programado.[^15] Sin embargo, informes indican que el proyecto ha enfrentado retrasos en medio de desafíos de ejecución.[^16]
El enfoque de Anthropic intercambia escala por resiliencia. Si Stargate encuentra retrasos en construcción, desafíos de financiamiento o cambios tecnológicos, OpenAI enfrenta riesgo de concentración. Los compromisos distribuidos de Anthropic proporcionan capacidad de respaldo a través de múltiples proveedores.
Implicaciones para la industria
La estrategia multi-proveedor de Anthropic crea efectos en cadena en todo el ecosistema de infraestructura de IA.
Cambio en las dinámicas competitivas
El panorama de laboratorios de IA de frontera ahora presenta dos filosofías de infraestructura distintas: - Concentrada: OpenAI (Stargate), Meta ($600 mil millones en construcción interna) - Distribuida: Anthropic (multi-nube + propia)
Los laboratorios más pequeños enfrentan presión para elegir: competir por capacidad de hiperescaladores contra rivales mejor financiados, o aceptar desventaja de infraestructura. Los requisitos de capital para infraestructura competitiva han escalado más allá de la capacidad de recaudación independiente.
Posicionamiento de proveedores de nube
Los hiperescaladores compiten por la tenencia ancla de laboratorios de IA mientras construyen capacidad que puede exceder la demanda si los laboratorios construyen infraestructura propia. La dinámica crea incertidumbre en la planificación de capacidad:
- AWS: Mantiene a Anthropic a través de Project Rainier pero pierde exclusividad
- Google Cloud: Asegura compromiso multi-anual de TPU, valida estrategia de silicio personalizado
- Microsoft Azure: Gana presencia de Anthropic a través de compromiso de $30+ mil millones, diversifica más allá de OpenAI
- Oracle: Excluido de Anthropic, dobla la apuesta en la asociación con Stargate
Validación de neoclouds
La selección de Fluidstack sobre hiperescaladores establecidos valida el modelo neocloud para infraestructura de IA de frontera. Otros neoclouds (CoreWeave, Lambda, Together) ganan credibilidad para asociaciones similares. El sector neocloud transiciona de fuente de capacidad alternativa a socio estratégico de infraestructura.
Desafíos de ejecución
Convertir $95 mil millones en compromisos en infraestructura operativa implica un riesgo de ejecución sustancial en múltiples dimensiones.
Formación de capital
El financiamiento divulgado de Anthropic (~$8 mil millones hasta 2024) queda muy por debajo de los $95+ mil millones en compromisos. La brecha de capital requiere: - Inversión de riesgo continua (Google supuestamente contribuyó $1 mil millones adicionales) - Crecimiento de ingresos de Claude API y productos empresariales - Contribuciones de socios estratégicos ($10 mil millones de NVIDIA, $5 mil millones de Microsoft) - Potencial financiamiento de deuda cuando las instalaciones estén operativas
El compromiso representa una aspiración multi-anual que requiere acceso sostenido a capital. Las condiciones económicas que afectan la inversión tecnológica podrían restringir la disponibilidad de financiamiento.
Coordinación multi-proveedor
Operar simultáneamente en AWS, Google Cloud, Azure y Fluidstack crea complejidad de coordinación: - Diferentes APIs, herramientas y prácticas operativas - Optimización de ubicación de cargas de trabajo entre proveedores - Seguridad y cumplimiento en múltiples entornos - Atribución de costos y optimización entre contratos
Los beneficios de la estrategia multi-nube (resiliencia, apalancamiento de negociación) vienen con sobrecarga operativa que los enfoques concentrados evitan.
Requisitos de soporte profesional
Los 550 ingenieros de campo de Introl apoyan a organizaciones que implementan infraestructura de IA a gran escala a través de múltiples proveedores y arquitecturas.[^17] La empresa ocupó el puesto #14 en el Inc. 5000 de 2025 con un crecimiento del 9,594% en tres años, reflejando la demanda de experiencia en despliegue multi-nube.[^18]
Los despliegues en 257 ubicaciones globales requieren prácticas operativas consistentes independientemente del proveedor subyacente.[^19] Introl gestiona despliegues que alcanzan 100,000 GPUs con más de 40,000 millas de infraestructura de red de fibra óptica.[^20]
Marco de decisión para planificadores de infraestructura
La estrategia de Anthropic ofrece lecciones para organizaciones que evalúan enfoques de infraestructura de IA.
Selección de estrategia de infraestructura:
| Su perfil | Enfoque recomendado | Fundamento |
|---|---|---|
| <$10M gasto anual en GPU | Alquiler de hiperescalador | Escala insuficiente para infraestructura dedicada |
| $10-100M gasto anual | Multi-nube con capacidad comprometida | Equilibrar flexibilidad con precios |
| >$100M gasto anual | Híbrido propio + alquiler | Optimización económica a escala |
| Desarrollo de IA de frontera | Portafolio multi-proveedor | Aseguramiento de capacidad, opcionalidad de arquitectura |
Señales a monitorear
Observe indicadores de que el modelo distribuido de Anthropic supera el enfoque concentrado de Stargate (o viceversa): - Métricas de eficiencia de entrenamiento relativas de lanzamientos de Claude vs. GPT - Cronogramas de despliegue de instalaciones cumpliendo o incumpliendo objetivos - Tendencias de costo por token en precios de API - Comparaciones de rendimiento de arquitectura (NVIDIA vs. Trainium vs. TPU)
Conclusiones clave
Para operadores de infraestructura de IA: - Las estrategias multi-proveedor reducen el riesgo de dependencia pero aumentan la complejidad operativa - Las asociaciones neocloud ofrecen ventajas de velocidad y personalización sobre los hiperescaladores - La infraestructura se ha convertido en
[Contenido truncado para traducción]