План дата-центру Anthropic на $50 мільярдів: ШІ-лабораторія стає будівельником інфраструктури
10 грудня 2025 Автор: Blake Crosley
12 листопада 2025 року Anthropic підписала партнерську угоду на $50 мільярдів з британським неохмарним провайдером Fluidstack, взявши на себе зобов'язання побудувати об'єкти в Техасі та Нью-Йорку, які почнуть працювати протягом 2026 року.[^1] Проєкт створить приблизно 800 постійних робочих місць та 2 400 робочих місць у будівництві, що стане першою значною спробою Anthropic створити власну інфраструктуру замість того, щоб покладатися на хмарних провайдерів.[^2]
Це оголошення є частиною безпрецедентної мультихмарної інфраструктурної стратегії. Водночас Anthropic підтримує доступ до AWS Project Rainier (500 000 чипів Trainium2 з масштабуванням до 1 мільйона), TPU Google Cloud (до 1 мільйона чипів) та нової угоди з Microsoft Azure на $30 мільярдів з інвестиціями в $15 мільярдів від NVIDIA та Microsoft.[^3][^4][^5]
Інфраструктурний портфель Anthropic:
| Партнерство | Зобов'язання | Потужність | Статус |
|---|---|---|---|
| Fluidstack | $50 млрд | Дата-центри в Техасі + Нью-Йорку | Запуск 2026 |
| Microsoft Azure | $30 млрд + $15 млрд інвестицій | Grace Blackwell, Vera Rubin | Активний |
| AWS Project Rainier | Доступ до інфраструктури | 500 тис.→1 млн чипів Trainium2 | Активний |
| Google Cloud | Багаторічна угода | До 1 млн чипів TPU, 1+ ГВт | Активний |
| Всього | $95+ млрд зобов'язань | Мульти-гігаватна потужність | 2025-2026 |
Цей мультихмарний підхід різко контрастує з проєктом Stargate від OpenAI — спільним підприємством на $500 мільярдів із SoftBank, Oracle та MGX, що планує досягти 10 гігават до 2029 року.[^6] Розподілена стратегія Anthropic хеджує доступ до обчислювальних потужностей через різні архітектури (NVIDIA, Trainium, TPU) та провайдерів.
Стратегічне обґрунтування
Інвестиції Anthropic в інфраструктуру вирішують критичні обмеження, з якими стикаються передові ШІ-лабораторії в міру масштабування моделей у напрямку штучного загального інтелекту.
Хеджування через мультиархітектуру
Навчання передових моделей тепер вимагає кластерів з десятків тисяч прискорювачів, що працюють узгоджено.[^7] Замість того, щоб робити ставку на одну архітектуру, Anthropic забезпечила доступ до трьох конкуруючих платформ:
Порівняння прискорювачів:
| Архітектура | Провайдер | Переваги | Доступ Anthropic |
|---|---|---|---|
| NVIDIA Grace Blackwell | Microsoft Azure | Пікова продуктивність навчання, екосистема | Угода на $30 млрд |
| AWS Trainium2 | Amazon | Економічна ефективність, власні чипи | 500 тис.→1 млн чипів |
| Google TPU v5 | Google Cloud | Ефективність інференсу, співвідношення ціна-продуктивність | До 1 млн чипів |
Ця диверсифікація гарантує, що жоден постачальник не зможе обмежити навчальні потужності Anthropic. Якщо виділення ресурсів NVIDIA скоротиться, Anthropic перенесе навантаження на Trainium або TPU. Якщо AWS надасть пріоритет іншим клієнтам, Azure забезпечить резервні потужності.
Вимоги до масштабу для Claude
Claude Opus 4.5, випущений у листопаді 2025 року, є найпотужнішою моделлю Anthropic.[^8] Навчання наступних поколінь вимагає ще більших обчислювальних ресурсів. Project Rainier демонструє масштаб: кластер охоплює три штати (Пенсильванія, Індіана, Міссісіпі), причому більшість чипів використовується для інференсу, а навчальні запуски виконуються ввечері, коли попит на інференс падає.[^9]
Anthropic матиме доступ до понад одного гігавата потужностей, які запрацюють у 2026 році лише через Google Cloud.[^10] У поєднанні з об'єктами Fluidstack та інфраструктурою AWS загальна потужність наближається до мульти-гігаватного масштабу — обчислювальні ресурси, які раніше були доступні лише найбільшим гіперскейлерам.
Економічний арбітраж
Ціни на оренду хмарних GPU знизилися з $8/годину (H100, початок 2024) до $2,85-3,50/годину (кінець 2025), але безперервне навчання все одно накопичує мільйони витрат.[^11] Власна інфраструктура перетворює змінні операційні витрати на капітальні інвестиції з іншими економічними характеристиками.
Економіка навчання в масштабі:
| Показник | Хмарна оренда | Власна інфраструктура |
|---|---|---|
| 10 000 GPU-місяців | $20-25 млн | $15-18 млн (амортизовано) |
| Гнучкість потужностей | Миттєва | 12-24 місяці випередження |
| Вибір архітектури | Залежить від провайдера | Самостійно визначається |
| Ризик застарілих активів | Відсутній | Значний |
Партнерство з Fluidstack забезпечує золоту середину: об'єкти, спеціально побудовані для робочих навантажень Anthropic, без повного ризику володіння.
Структура партнерства
Партнерство з Fluidstack є розрахованою ставкою на гнучкість неохмарних провайдерів проти масштабу гіперскейлерів.
Чому Fluidstack
Fluidstack, заснована у 2017 році, продемонструвала свої можливості раніше у 2025 році, коли була названа основним партнером для проєкту ШІ потужністю 1 гігават, підтриманого урядом Франції, з витратами понад $11 мільярдів.[^12] CEO Anthropic Даріо Амодеї обрав Fluidstack за її «здатність рухатися з винятковою гнучкістю, забезпечуючи швидку доставку гігаватів потужності».[^13]
Неохмарна модель Fluidstack відрізняється від підходів гіперскейлерів: - Швидкість: Місяці замість років для введення об'єктів в експлуатацію - Кастомізація: Інфраструктура, оптимізована під конкретні патерни навантаження Anthropic - Економіка: Без маржі гіперскейлера, пряма передача витрат - Гнучкість: Умови контракту, адаптовані до вимог ШІ-лабораторії
Географічна стратегія
Локації в Техасі та Нью-Йорку служать різним стратегічним цілям:
Об'єкт у Техасі: - Нижчі витрати на електроенергію ($0,04-0,06/кВт·год проти $0,12+ в інших місцях) - Сприятливе регуляторне середовище для розвитку дата-центрів - Близькість до існуючої інфраструктури Stargate в Абілені - Основний фокус: Масштабні навчальні запуски
Об'єкт у Нью-Йорку: - Преміальне підключення до клієнтів фінансового сектору - Низька затримка доступу до населених центрів північного сходу - Близькість до корпоративних клієнтів для сервісів Claude API - Основний фокус: Обслуговування інференсу, корпоративне розгортання
Інвестиції в керівництво
У жовтні 2025 року Anthropic найняла Рахула Патіла на посаду CTO спеціально для нагляду за обчислювальними ресурсами, інфраструктурою, інференсом та інженерними операціями.[^14] Досвід Патіла як CTO Stripe сигналізує про прихильність Anthropic до інфраструктури як ключової компетенції, а не аутсорсної функції.
Порівняння зі Stargate: Дві моделі ШІ-інфраструктури
Контраст між розподіленою стратегією Anthropic та концентрованим підходом Stargate від OpenAI розкриває фундаментальні філософські відмінності.
Порівняння інфраструктурних стратегій:
| Параметр | Anthropic | OpenAI Stargate |
|---|---|---|
| Загальні зобов'язання | $95+ млрд (розподілені) | $500 млрд (концентровані) |
| Часові рамки | 2025-2026 | До 2029 |
| Архітектура | Мультивендорна (NVIDIA, Trainium, TPU) | Переважно NVIDIA |
| Власність | Партнерська модель | Спільне підприємство (по 40% SoftBank, OpenAI) |
| Географічне розподілення | Кілька об'єктів, 3+ хмарних регіони | 6+ сайтів, ціль 10 ГВт |
| Профіль ризику | Нижчий (диверсифікований) | Вищий (концентрований) |
Stargate від OpenAI забезпечив майже 7 гігаватів запланованої потужності на шести сайтах з понад $400 мільярдами підтверджених інвестицій — що ставить їх на шлях до досягнення повної цілі в 10 гігават та $500 мільярдів раніше запланованого терміну.[^15] Однак, за деякими повідомленнями, проєкт зіткнувся із затримками через труднощі реалізації.[^16]
Підхід Anthropic обмінює масштаб на стійкість. Якщо Stargate зіткнеться із затримками будівництва, фінансовими труднощами або технологічними змінами, OpenAI стикнеться з ризиком концентрації. Розподілені зобов'язання Anthropic забезпечують резервні потужності у кількох провайдерів.
Наслідки для галузі
Мультипровайдерна стратегія Anthropic створює хвильові ефекти в екосистемі ШІ-інфраструктури.
Зміна конкурентної динаміки
Ландшафт передових ШІ-лабораторій тепер характеризується двома різними інфраструктурними філософіями: - Концентрована: OpenAI (Stargate), Meta (внутрішня розбудова на $600 млрд) - Розподілена: Anthropic (мультихмарна + власна)
Менші лабораторії стоять перед тиском вибору: конкурувати за потужності гіперскейлерів проти краще фінансованих суперників або прийняти інфраструктурну невигідну позицію. Капітальні вимоги для конкурентоспроможної інфраструктури зросли за межі можливостей незалежного залучення коштів.
Позиціонування хмарних провайдерів
Гіперскейлери конкурують за статус ключового орендаря серед ШІ-лабораторій, одночасно нарощуючи потужності, які можуть перевищити попит, якщо лабораторії будуватимуть власну інфраструктуру. Ця динаміка створює невизначеність у плануванні потужностей:
- AWS: Підтримує Anthropic через Project Rainier, але втрачає ексклюзивність
- Google Cloud: Забезпечує багаторічні зобов'язання щодо TPU, підтверджує стратегію власних чипів
- Microsoft Azure: Отримує присутність Anthropic через зобов'язання на $30+ млрд, диверсифікується поза OpenAI
- Oracle: Виключений з Anthropic, подвоює ставку на партнерство Stargate
Валідація неохмарних провайдерів
Вибір Fluidstack замість усталених гіперскейлерів підтверджує неохмарну модель для передової ШІ-інфраструктури. Інші неохмарні провайдери (CoreWeave, Lambda, Together) отримують довіру для подібних партнерств. Неохмарний сектор переходить від альтернативного джерела потужностей до стратегічного інфраструктурного партнера.
Виклики реалізації
Перетворення $95 мільярдів зобов'язань на операційну інфраструктуру пов'язане зі значним ризиком реалізації за кількома напрямками.
Формування капіталу
Оголошене фінансування Anthropic (~$8 млрд до 2024 року) значно не дотягує до $95+ млрд зобов'язань. Капітальний розрив вимагає: - Продовження венчурних інвестицій (повідомляється, що Google додатково вклав $1 млрд) - Зростання доходів від Claude API та корпоративних продуктів - Внесків стратегічних партнерів ($10 млрд від NVIDIA, $5 млрд від Microsoft) - Потенційного боргового фінансування, коли об'єкти стануть операційними
Зобов'язання представляють багаторічні прагнення, що вимагають стійкого доступу до капіталу. Економічні умови, що впливають на технологічні інвестиції, можуть обмежити доступність фінансування.
Координація кількох провайдерів
Одночасна робота через AWS, Google Cloud, Azure та Fluidstack створює складність координації: - Різні API, інструменти та операційні практики - Оптимізація розміщення навантаження між провайдерами - Безпека та відповідність у кількох середовищах - Атрибуція витрат та оптимізація між контрактами
Переваги мультихмарної стратегії (стійкість, переговорний важіль) супроводжуються операційними накладними витратами, яких концентровані підходи уникають.
Вимоги до професійної підтримки
550 польових інженерів Introl підтримують організації, що впроваджують масштабну ШІ-інфраструктуру через кількох провайдерів та архітектури.[^17] Компанія зайняла 14-те місце у рейтингу Inc. 5000 за 2025 рік з 9 594% трирічним зростанням, що відображає попит на експертизу мультихмарного розгортання.[^18]
Розгортання у 257 глобальних локаціях вимагає послідовних операційних практик незалежно від базового провайдера.[^19] Introl керує розгортаннями, що охоплюють 100 000 GPU з понад 40 000 миль волоконно-оптичної мережевої інфраструктури.[^20]
Структура прийняття рішень для планувальників інфраструктури
Стратегія Anthropic пропонує уроки для організацій, що оцінюють підходи до ШІ-інфраструктури.
Вибір інфраструктурної стратегії:
| Ваш профіль | Рекомендований підхід | Обґрунтування |
|---|---|---|
| <$10 млн річних витрат на GPU | Оренда у гіперскейлера | Недостатній масштаб для виділеної інфраструктури |
| $10-100 млн річних витрат | Мультихмарна з гарантованими потужностями | Баланс гнучкості та ціни |
| >$100 млн річних витрат | Гібрид власної + оренда | Економічна оптимізація в масштабі |
| Розробка передового ШІ | Мультипровайдерний портфель | Гарантія потужностей, опціональність архітектури |
Сигнали для моніторингу
Слідкуйте за індикаторами того, що розподілена модель Anthropic перевершує концентрований підхід Stargate (або навпаки): - Відносні показники ефективності навчання з релізів Claude проти GPT - Терміни розгортання об'єктів, що відповідають або не відповідають цілям - Тренди вартості за токен у ціноутворенні API - Порівняння продуктивності архітектур (NVIDIA проти Trainium проти TPU)
Ключові висновки
Для операторів ШІ-інфраструктури: - Мультипровайдерні стратегії зменшують ризик залежності, але збільшують операційну складність - Партнерства з неохмарними провайдерами пропонують переваги швидкості та кастомізації над гіперскейлерами - Інфраструктура стала
[Контент скорочено для перекладу]