El plan de centros de datos de $50 mil millones de Anthropic: Un laboratorio de IA se convierte en constructor de infraestructura

Anthropic se une a OpenAI en la construcción de infraestructura propia, transformando la dinámica entre laboratorios de IA e hiperescaladores.

El plan de centros de datos de $50 mil millones de Anthropic: Un laboratorio de IA se convierte en constructor de infraestructura

El plan de centros de datos de $50 mil millones de Anthropic: Un laboratorio de IA se convierte en constructor de infraestructura

10 de diciembre de 2025 Escrito por Blake Crosley

Anthropic firmó una asociación de centros de datos por $50 mil millones con el proveedor neocloud británico Fluidstack el 12 de noviembre de 2025, comprometiéndose a construir instalaciones en Texas y Nueva York que entrarán en operación a lo largo de 2026.[^1] El proyecto crea aproximadamente 800 empleos permanentes y 2,400 empleos de construcción, marcando el primer esfuerzo importante de Anthropic para construir infraestructura personalizada en lugar de depender de proveedores de nube.[^2]

El anuncio representa una pieza de una estrategia de infraestructura multi-nube sin precedentes. Anthropic mantiene simultáneamente acceso a AWS Project Rainier (500,000 chips Trainium2 escalando a 1 millón), TPUs de Google Cloud (hasta 1 millón de chips), y un nuevo compromiso de $30 mil millones con Microsoft Azure con $15 mil millones en inversiones de NVIDIA y Microsoft.[^3][^4][^5]

Portafolio de infraestructura de Anthropic:

Asociación Compromiso Capacidad Estado
Fluidstack $50 mil millones Centros de datos en Texas + Nueva York En línea 2026
Microsoft Azure $30 mil millones + inversión de $15 mil millones Grace Blackwell, Vera Rubin Activo
AWS Project Rainier Acceso a infraestructura 500K→1M chips Trainium2 Activo
Google Cloud Multi-anual Hasta 1M chips TPU, 1+ GW Activo
Total $95+ mil millones en compromisos Multi-gigavatio 2025-2026

Este enfoque multi-nube contrasta marcadamente con el proyecto Stargate de OpenAI—una empresa conjunta única de $500 mil millones con SoftBank, Oracle y MGX que apunta a 10 gigavatios para 2029.[^6] La estrategia distribuida de Anthropic diversifica el acceso a cómputo entre arquitecturas (NVIDIA, Trainium, TPU) y proveedores.

Fundamento estratégico

La inversión en infraestructura de Anthropic aborda restricciones críticas que enfrentan los laboratorios de IA de frontera a medida que los modelos escalan hacia la inteligencia artificial general.

La cobertura multi-arquitectura

Entrenar modelos de frontera ahora requiere clústeres de decenas de miles de aceleradores operando en conjunto.[^7] En lugar de apostar por una sola arquitectura, Anthropic aseguró acceso a través de tres plataformas competidoras:

Comparación de aceleradores:

Arquitectura Proveedor Fortalezas Acceso de Anthropic
NVIDIA Grace Blackwell Microsoft Azure Máximo rendimiento de entrenamiento, ecosistema Compromiso de $30 mil millones
AWS Trainium2 Amazon Eficiencia de costos, silicio personalizado 500K→1M chips
Google TPU v5 Google Cloud Eficiencia de inferencia, relación precio-rendimiento Hasta 1M chips

Esta diversificación asegura que ningún proveedor único pueda restringir la capacidad de entrenamiento de Anthropic. Si la asignación de NVIDIA se reduce, Anthropic traslada cargas de trabajo a Trainium o TPU. Si AWS prioriza otros clientes, Azure proporciona capacidad de respaldo.

Requisitos de escala para Claude

Claude Opus 4.5, lanzado en noviembre de 2025, representa el modelo más capaz de Anthropic.[^8] Entrenar generaciones posteriores requiere asignaciones de cómputo aún mayores. Project Rainier demuestra la escala: el clúster abarca tres estados (Pensilvania, Indiana, Mississippi) con la mayoría de los chips usados para inferencia y ejecuciones de entrenamiento durante las horas nocturnas cuando la demanda de inferencia disminuye.[^9]

Anthropic tendrá acceso a más de un gigavatio de capacidad que entrará en operación en 2026 solo a través de Google Cloud.[^10] Combinado con las instalaciones de Fluidstack y la infraestructura de AWS, la capacidad total se aproxima a la escala de múltiples gigavatios—cómputo previamente disponible solo para los hiperescaladores más grandes.

Arbitraje económico

Los precios de alquiler de GPU en la nube han disminuido de $8/hora (H100, principios de 2024) a $2.85-3.50/hora (finales de 2025), pero el entrenamiento continuo aún acumula millones en costos.[^11] La infraestructura propia convierte gastos operativos variables en inversión de capital con características económicas diferentes.

Economía del entrenamiento a escala:

Métrica Alquiler en nube Infraestructura propia
10,000 GPU-meses $20-25M $15-18M (amortizado)
Flexibilidad de capacidad Instantánea Tiempo de espera 12-24 meses
Elección de arquitectura Dependiente del proveedor Autodeterminada
Riesgo de activo varado Ninguno Significativo

La asociación con Fluidstack proporciona un punto intermedio: instalaciones construidas a medida para las cargas de trabajo de Anthropic sin el riesgo total de propiedad.

Estructura de la asociación

La asociación con Fluidstack representa una apuesta calculada por la agilidad neocloud sobre la escala de los hiperescaladores.

Por qué Fluidstack

Fluidstack, fundada en 2017, demostró sus capacidades a principios de 2025 cuando fue nombrada socia principal para un proyecto de IA de 1 gigavatio respaldado por el gobierno francés que representa más de $11 mil millones en gasto.[^12] El CEO de Anthropic, Dario Amodei, seleccionó a Fluidstack por su "capacidad para moverse con agilidad excepcional, permitiendo la entrega rápida de gigavatios de potencia."[^13]

El modelo neocloud de Fluidstack difiere de los enfoques de los hiperescaladores: - Velocidad: Meses en lugar de años para la entrega de instalaciones - Personalización: Infraestructura optimizada para los patrones de carga de trabajo específicos de Anthropic - Economía: Sin margen de hiperescalador, transferencia directa de costos - Flexibilidad: Términos de contrato adaptados a los requisitos de laboratorios de IA

Estrategia geográfica

Las ubicaciones de Texas y Nueva York sirven propósitos estratégicos distintos:

Instalación de Texas: - Menores costos de energía ($0.04-0.06/kWh vs. $0.12+ en otros lugares) - Entorno regulatorio favorable para el desarrollo de centros de datos - Proximidad a la infraestructura existente de Stargate en Abilene - Enfoque principal: Ejecuciones de entrenamiento a gran escala

Instalación de Nueva York: - Conectividad premium con clientes del sector financiero - Acceso de baja latencia a centros de población del noreste - Proximidad a clientes empresariales para servicios de Claude API - Enfoque principal: Servicio de inferencia, despliegue empresarial

Inversión en liderazgo

Anthropic contrató a Rahul Patil como CTO en octubre de 2025, específicamente para supervisar cómputo, infraestructura, inferencia y operaciones de ingeniería.[^14] El trasfondo de Patil como CTO de Stripe señala el compromiso de Anthropic con la infraestructura como competencia central en lugar de función subcontratada.

Comparación con Stargate: Dos modelos para infraestructura de IA

El contraste entre la estrategia distribuida de Anthropic y el enfoque concentrado de Stargate de OpenAI revela diferencias filosóficas fundamentales.

Comparación de estrategias de infraestructura:

Dimensión Anthropic OpenAI Stargate
Compromiso total $95+ mil millones (distribuido) $500 mil millones (concentrado)
Cronograma 2025-2026 Hasta 2029
Arquitectura Multi-proveedor (NVIDIA, Trainium, TPU) NVIDIA-principal
Propiedad Modelo de asociación Empresa conjunta (40% cada uno SoftBank, OpenAI)
Distribución geográfica Múltiples instalaciones, 3+ regiones de nube 6+ sitios, objetivo 10 GW
Perfil de riesgo Menor (diversificado) Mayor (concentrado)

Stargate de OpenAI ha asegurado casi 7 gigavatios de capacidad planificada en seis sitios con más de $400 mil millones en inversión comprometida—poniéndolos en camino para su objetivo completo de 10 gigavatios y $500 mil millones antes de lo programado.[^15] Sin embargo, informes indican que el proyecto ha enfrentado retrasos en medio de desafíos de ejecución.[^16]

El enfoque de Anthropic intercambia escala por resiliencia. Si Stargate encuentra retrasos en construcción, desafíos de financiamiento o cambios tecnológicos, OpenAI enfrenta riesgo de concentración. Los compromisos distribuidos de Anthropic proporcionan capacidad de respaldo a través de múltiples proveedores.

Implicaciones para la industria

La estrategia multi-proveedor de Anthropic crea efectos en cadena en todo el ecosistema de infraestructura de IA.

Cambio en las dinámicas competitivas

El panorama de laboratorios de IA de frontera ahora presenta dos filosofías de infraestructura distintas: - Concentrada: OpenAI (Stargate), Meta ($600 mil millones en construcción interna) - Distribuida: Anthropic (multi-nube + propia)

Los laboratorios más pequeños enfrentan presión para elegir: competir por capacidad de hiperescaladores contra rivales mejor financiados, o aceptar desventaja de infraestructura. Los requisitos de capital para infraestructura competitiva han escalado más allá de la capacidad de recaudación independiente.

Posicionamiento de proveedores de nube

Los hiperescaladores compiten por la tenencia ancla de laboratorios de IA mientras construyen capacidad que puede exceder la demanda si los laboratorios construyen infraestructura propia. La dinámica crea incertidumbre en la planificación de capacidad:

  • AWS: Mantiene a Anthropic a través de Project Rainier pero pierde exclusividad
  • Google Cloud: Asegura compromiso multi-anual de TPU, valida estrategia de silicio personalizado
  • Microsoft Azure: Gana presencia de Anthropic a través de compromiso de $30+ mil millones, diversifica más allá de OpenAI
  • Oracle: Excluido de Anthropic, dobla la apuesta en la asociación con Stargate

Validación de neoclouds

La selección de Fluidstack sobre hiperescaladores establecidos valida el modelo neocloud para infraestructura de IA de frontera. Otros neoclouds (CoreWeave, Lambda, Together) ganan credibilidad para asociaciones similares. El sector neocloud transiciona de fuente de capacidad alternativa a socio estratégico de infraestructura.

Desafíos de ejecución

Convertir $95 mil millones en compromisos en infraestructura operativa implica un riesgo de ejecución sustancial en múltiples dimensiones.

Formación de capital

El financiamiento divulgado de Anthropic (~$8 mil millones hasta 2024) queda muy por debajo de los $95+ mil millones en compromisos. La brecha de capital requiere: - Inversión de riesgo continua (Google supuestamente contribuyó $1 mil millones adicionales) - Crecimiento de ingresos de Claude API y productos empresariales - Contribuciones de socios estratégicos ($10 mil millones de NVIDIA, $5 mil millones de Microsoft) - Potencial financiamiento de deuda cuando las instalaciones estén operativas

El compromiso representa una aspiración multi-anual que requiere acceso sostenido a capital. Las condiciones económicas que afectan la inversión tecnológica podrían restringir la disponibilidad de financiamiento.

Coordinación multi-proveedor

Operar simultáneamente en AWS, Google Cloud, Azure y Fluidstack crea complejidad de coordinación: - Diferentes APIs, herramientas y prácticas operativas - Optimización de ubicación de cargas de trabajo entre proveedores - Seguridad y cumplimiento en múltiples entornos - Atribución de costos y optimización entre contratos

Los beneficios de la estrategia multi-nube (resiliencia, apalancamiento de negociación) vienen con sobrecarga operativa que los enfoques concentrados evitan.

Requisitos de soporte profesional

Los 550 ingenieros de campo de Introl apoyan a organizaciones que implementan infraestructura de IA a gran escala a través de múltiples proveedores y arquitecturas.[^17] La empresa ocupó el puesto #14 en el Inc. 5000 de 2025 con un crecimiento del 9,594% en tres años, reflejando la demanda de experiencia en despliegue multi-nube.[^18]

Los despliegues en 257 ubicaciones globales requieren prácticas operativas consistentes independientemente del proveedor subyacente.[^19] Introl gestiona despliegues que alcanzan 100,000 GPUs con más de 40,000 millas de infraestructura de red de fibra óptica.[^20]

Marco de decisión para planificadores de infraestructura

La estrategia de Anthropic ofrece lecciones para organizaciones que evalúan enfoques de infraestructura de IA.

Selección de estrategia de infraestructura:

Su perfil Enfoque recomendado Fundamento
<$10M gasto anual en GPU Alquiler de hiperescalador Escala insuficiente para infraestructura dedicada
$10-100M gasto anual Multi-nube con capacidad comprometida Equilibrar flexibilidad con precios
>$100M gasto anual Híbrido propio + alquiler Optimización económica a escala
Desarrollo de IA de frontera Portafolio multi-proveedor Aseguramiento de capacidad, opcionalidad de arquitectura

Señales a monitorear

Observe indicadores de que el modelo distribuido de Anthropic supera el enfoque concentrado de Stargate (o viceversa): - Métricas de eficiencia de entrenamiento relativas de lanzamientos de Claude vs. GPT - Cronogramas de despliegue de instalaciones cumpliendo o incumpliendo objetivos - Tendencias de costo por token en precios de API - Comparaciones de rendimiento de arquitectura (NVIDIA vs. Trainium vs. TPU)

Conclusiones clave

Para operadores de infraestructura de IA: - Las estrategias multi-proveedor reducen el riesgo de dependencia pero aumentan la complejidad operativa - Las asociaciones neocloud ofrecen ventajas de velocidad y personalización sobre los hiperescaladores - La infraestructura se ha convertido en

[Contenido truncado para traducción]

Solicitar Cotización_

Cuéntanos sobre tu proyecto y te responderemos en 72 horas.

> TRANSMISIÓN_COMPLETA

Solicitud Recibida_

Gracias por su consulta. Nuestro equipo revisará su solicitud y responderá dentro de 72 horas.

EN COLA PARA PROCESAMIENTO