Високощільні стійки: конструкції на 100+ кВт для інфраструктури ЦОД штучного інтелекту

Середня вартість AI-стійки у 2025 році — $3,9 млн проти $500 тис. традиційної — зростання у 7 разів. Стійки GB200NVL72 досягають 132 кВт; Blackwell Ultra та Rubin орієнтовані на 250-900 кВт з 576 GPU/стійку до 2026-2027 років. NVIDIA OCP 2025...

Високощільні стійки: конструкції на 100+ кВт для інфраструктури ЦОД штучного інтелекту

Високощільні стійки: конструкції на 100+ кВт для інфраструктури ЦОД штучного інтелекту

Оновлено 11 грудня 2025 року

Оновлення за грудень 2025: Середня вартість AI-стійки у 2025 році становить $3,9 млн проти $500 тис. традиційної — зростання у 7 разів. Стійки GB200NVL72 досягають 132 кВт; Blackwell Ultra та Rubin орієнтовані на 250-900 кВт з 576 GPU на стійку до 2026-2027 років. NVIDIA на OCP 2025 представила конструкції стійок на 1 МВт. Eaton Heavy-Duty SmartRack витримує статичне навантаження до 2 270 кг для AI. Будівництво інфраструктури на 100 кВт коштує $200-300 тис. за стійку.

Середня AI-стійка коштуватиме $3,9 мільйона у 2025 році порівняно з $500 000 для традиційних серверних стійок.¹ Це семикратне зростання вартості відображає фундаментальну трансформацію вимог до стійок, оскільки GPU, що перетинають поріг у 1000 Вт, підвищують щільність потужності стійки понад 100 кВт до 1 МВт.² AI-сервери NVIDIA Blackwell Ultra та Rubin потребуватимуть від 250 до 900 кВт з до 576 GPU на стійку до 2026-2027 років.³ Інфраструктура стійок, що розміщує ці системи, повинна відповідно еволюціонувати з посиленням конструкції, інтеграцією рідинного охолодження та можливостями розподілу електроенергії, які традиційні корпуси ніколи не передбачали.

Ринок стійок для центрів обробки даних прогнозує зростання до $9,41 млрд до 2033 року, оскільки AI-навантаження змінюють вимоги до фізичної інфраструктури.⁴ На відміну від традиційних ЦОД, що обробляють 10-15 кВт на стійку, AI-об'єкти потребують від 40 до 250 кВт на стійку для підтримки обчислювальних вимог машинного навчання.⁵ Організації, що планують AI-інфраструктуру, повинні оцінювати специфікації стійок відносно поточних і прогнозованих вимог GPU, а не застарілих припущень щодо щільності потужності та вантажопідйомності.

Еволюція щільності потужності вимагає нових конструкцій стійок

Стрибок до 100+ кВт на стійку являє собою як еволюцію, так і революцію в інфраструктурі центрів обробки даних.⁶ Традиційні стійки, розраховані на навантаження 5-10 кВт, не можуть безпечно підтримувати сучасні вимоги до потужності GPU-серверів без фундаментальних архітектурних змін.

Поточні діапазони щільності охоплюють широкі сценарії розгортання. Високощільні кластери для AI-тренування вимагають стійок на 40-60 кВт. Навантаження великих мовних моделей потребують щонайменше 70 кВт. Суперкомп'ютерні застосування для національної безпеки та AI-досліджень споживають 100 кВт і більше.⁷ Траєкторія продовжує прискорюватися.

Вимоги систем NVIDIA визначають інфраструктурні орієнтири. Конструкції стійок GB200NVL72, представлені у 2024 році, досягають пікової щільності потужності 132 кВт.⁸ Майбутні системи Blackwell Ultra та Rubin потребуватимуть до 900 кВт з 576 GPU на стійку.⁹ Вступна доповідь NVIDIA на OCP 2025 представила AI-стійки наступного покоління, що вимагають до 1 МВт.¹⁰

Архітектури розподілу електроенергії адаптуються до зростання щільності. Централізація випрямлення перетворює змінний струм на постійний ближче до джерела, потім розподіляє високовольтний постійний струм безпосередньо до стійок, зменшуючи втрати та покращуючи PUE.¹¹ Гіперскейлери, включаючи Meta, Google та Microsoft, розгортають розподіл середньої напруги до 13,8 кВ та архітектури постійного струму вищої напруги на 400 В та 800 В.¹²

Вартісні наслідки є значними. Будівництво нової інфраструктури потужністю 100 кВт коштує $200 000-300 000 за стійку, але забезпечує запас для майбутнього зростання.¹³ Модернізація існуючих об'єктів до щільності 40 кВт коштує $50 000-100 000 за стійку.¹⁴ Масштаб інвестицій вимагає ретельного планування потужностей.

Структурні вимоги для щільних розгортань

Вантажопідйомність стає критичною, оскільки GPU-сервери перевищують масу традиційних серверів. AI-сервери містять щільніші компоненти, більші радіатори та обладнання рідинного охолодження, які застарілі стійки не можуть безпечно підтримувати.

Статична вантажопідйомність повинна враховувати повністю завантажені конфігурації. Eaton випустила корпуси Heavy-Duty SmartRack у жовтні 2024 року спеціально для AI зі статичною вантажопідйомністю до 2 270 кг.¹⁵ Збільшена глибина 137 см вміщує більші AI-сервери, поширені в GPU-розгортаннях.¹⁶ Стандартні стійки, розраховані на навантаження 900-1360 кг, потребують оцінки перед розгортанням AI-серверів.

Навантаження на підлогу вимагає оцінки об'єкта. Вага CDU при заповненні може досягати 3 тонн, що вимагає несучої здатності підлоги 800 кг/м².¹⁷ У поєднанні з вагою серверів та інфраструктурою рідинного охолодження загальне навантаження на підлогу може перевищувати специфікації традиційних центрів обробки даних.

Глибина стійки виходить за межі стандартних розмірів. Сервери NVIDIA HGX та подібні платформи вимагають глибших корпусів, ніж забезпечують стандартні стійки глибиною 107 см.¹⁸ Планування збільшеної глибини впливає на відстань між рядами, планування об'єкта та прокладання кабелів.

Інтеграція теплового управління впливає на структурний дизайн. Потужні стійки генерують теплові потоки, що вимагають безперервних шляхів повітряного потоку.¹⁹ NVIDIA рекомендує розміщувати два сервери внизу, порожній проміжок 3-6U, потім два сервери вгорі для оптимізованих конфігурацій з повітряним охолодженням.²⁰ Компонування стійки безпосередньо впливає на ефективність охолодження.

Вимоги до інтеграції рідинного охолодження

Стійки, що обслуговують AI-навантаження, повинні вміщувати інфраструктуру рідинного охолодження, яку корпуси з повітряним охолодженням ніколи не передбачали. Інтеграція додає складності до вибору стійок та планування об'єкта.

Підтримка холодних пластин вимагає інтеграції колекторів. Пряме охолодження чипів підводить теплоносій до джерел тепла CPU та GPU, відводячи 30-40 кВт на стійку.²¹ Стійки повинні забезпечувати точки кріплення, шляхи прокладання та захист від витоків для розподілу рідини всередині корпусу.

Монтаж теплообмінника на задніх дверях забезпечує гібридне охолодження. Системи RDHx кріпляться до задніх панелей стійок, відводячи до 120 кВт на стійку в найновіших конфігураціях.²² Структурні специфікації стійки повинні підтримувати вагу RDHx та з'єднання трубопроводів.

Сумісність з імерсійним охолодженням забезпечує найвищі щільності. Імерсійне охолодження занурює системи в діелектричну рідину, обробляючи 50-100 кВт при усуненні вентиляторів.²³ Деякі розгортання використовують імерсійні резервуари масштабу стійки замість традиційних корпусів, що вимагає іншого планування об'єкта.

Гібридні архітектури поєднують підходи до охолодження. Типовий дизайн 2025 року передбачає 70% рідинного охолодження та 30% повітряного охолодження, при цьому стійка служить точкою інтеграції.²⁴ Стійки повинні одночасно вміщувати обидва способи охолодження.

Специфікації швидкості потоку визначають охолоджувальну здатність. Галузевий стандарт 1,2 л/хв на кВт при температурі на вході 45°C означає, що стійка на 85 кВт вимагає CDU та теплообмінника, що підтримують потік 102 л/хв з охолодженням до 45°C.²⁵ Трубопроводи стійки не повинні обмежувати необхідні швидкості потоку.

Специфікації OCP Open Rack

Open Compute Project визначає стандарти стійок, оптимізовані для ефективності гіперскейлу. Вимоги AI-навантажень стимулюють подальшу еволюцію специфікацій.

Open Rack V3 (ORV3) заклала основу. Meta визначила та опублікувала базову специфікацію у 2022 році за участі Google та Rittal.²⁶ Ширина 53 см перевищує стандарт EIA 48 см, що дозволяє значно збільшити повітряний потік.²⁷ Специфікації полиці живлення, випрямляча та резервного акумулятора забезпечують інтегрований розподіл електроенергії.

Open Rack Wide (ORW) адресує AI наступного покоління. Meta представила специфікації ORW на OCP 2025 як відкритий стандарт стійки подвійної ширини, оптимізований для вимог потужності, охолодження та обслуговування AI-систем наступного покоління.²⁸ Специфікація являє собою фундаментальний зсув до стандартизованого, взаємосумісного та масштабованого дизайну центрів обробки даних.²⁹

Mt Diablo (Diablo 400) специфікації описують бічні стійки живлення для AI-кластерів. Співавтори — Google, Meta та Microsoft — специфікація визначає розподілені стійки живлення, що виходять за межі традиційних конфігурацій 48 В.³⁰ Delta Electronics представила екосистему "AI Power Cube" на 800 В постійного струму, розроблену спільно з NVIDIA для живлення AI-стійок масштабу 1,1 МВт.³¹

Специфікація Clemente описує обчислювальні лотки, що інтегрують модулі хост-процесорів NVIDIA GB300 у форм-фактори для випадків використання Meta у тренуванні та інференсі AI/ML.³² Специфікація представляє перше розгортання з використанням OCP ORv3 HPR з бічними стійками живлення.

Галузеві впровадження демонструють цінність специфікації. AMD анонсувала еталонну систему масштабу стійки "Helios", побудовану на відкритих стандартах ORW.³³ Підготовка Rittal Open Rack V3 до прямого рідинного охолодження адресує відведення тепла від високопродуктивних обчислень та AI-технологій.³⁴

Рішення вендорів для розгортання AI-стійок

Основні постачальники інфраструктури випустили специфічні для AI продукти стійок протягом 2024-2025 років.

Schneider Electric запустила високощільні стійки NetShelter у червні 2025 року, а потім нові системи стійок, натхненні OCP, що підтримують архітектуру NVIDIA MGX.³⁵ Продукти інтегруються з портфелями розподілу електроенергії та охолодження Schneider.

Eaton Heavy-Duty SmartRack корпуси орієнтовані на AI-розгортання зі статичною вантажопідйомністю 2 270 кг та збільшеною глибиною 137 см.³⁶ Специфікації адресують більші та важчі сервери, поширені в GPU-інфраструктурі.

Supermicro пропонує рішення рідинного охолодження масштабу стійки з потужністю та охолодженням до 100 кВт на стійку, повністю перевірені на рівні системи, стійки та кластера з прискореними термінами поставки.³⁷ Рішення інтегруються з портфелем GPU-серверів Supermicro.

Rittal надає OCP ORV3-сумісні стійки з підготовкою до рідинного охолодження, що адресує вимоги відведення тепла AI-технологій.³⁸ Продукти підтримують інтеграцію прямого рідинного охолодження.

Legrand досягла 24% зростання доходів від портфеля інфраструктури ЦОД, орієнтованого на AI, у першому півріччі 2025 року, здійснивши сім придбань на суму €500 млн річного доходу.³⁹ Дохід компанії від центрів обробки даних прогнозується понад €2 млрд у 2025 році.⁴⁰

Особливості мережевої інфраструктури

AI-кластери вимагають у п'ять разів більшої щільності волоконної інфраструктури порівняно зі звичайними центрами обробки даних.⁴¹ Вибір стійки повинен враховувати щільність кабелів, яку вимагає AI-мережа.

InfiniBand та високошвидкісний Ethernet кабелі вимагають пропускної здатності прокладання. AI-кластери залежать від надвисокопропускних мереж з низькою затримкою (400 Гбіт/с+ Ethernet або InfiniBand XDR) для синхронізації GPU між серверами.⁴² Мережева структура нагадує дизайн суперкомп'ютера з 4-5 разів більшою кількістю волоконних з'єднань на стійку.⁴³

Інтеграція кабельного менеджменту впливає на вибір стійки. Стандартні аксесуари для кабельного менеджменту, розраховані на 10-20 кабелів на стійку, не можуть вмістити сотні високошвидкісних з'єднань, які вимагає AI-мережа. Оцініть пропускну здатність кабельного менеджменту стійки перед закупівлею.

Верхнє проти підпідлогового прокладання впливає на розташування стійок. Щільність AI-кабелів може перевищувати традиційну пропускну здатність фальшпідлоги, що стимулює впровадження верхнього кабельного менеджменту. Висота стійки повинна враховувати верхнє прокладання при збереженні можливості обслуговування.

Планування зростання щільності

Організації, що розгортають AI-інфраструктуру, повинні розраховувати інвестиції в стійки на очікуване зростання, а не на поточні вимоги.

Обізнаність про дорожню карту GPU інформує планування потужностей. Прогресія NVIDIA від H100 (700 Вт) до Blackwell (1000 Вт+) до Rubin (вище) продовжує ескалацію щільності. Стійки, розгорнуті для поточних GPU, повинні вміщувати вимоги до потужності наступного покоління.

Модульний розподіл електроенергії забезпечує поступове збільшення потужності. PDU на стійку проти розподілу шинопроводом впливає на масштабування потужності. Плануйте архітектуру живлення разом з вибором стійки.

Запас охолодження запобігає простою обчислювальних ресурсів. Стійки з можливістю рідинного охолодження навіть для початкових розгортань з повітряним охолодженням забезпечують перехід при зростанні щільності. Додаткова вартість виявляється незначною порівняно із заміною стійки.

Ефективність використання площі накопичується в масштабі. Стійки вищої щільності зменшують загальну кількість стійок для еквівалентної обчислювальної потужності. Менше стійок означає менше площі, коротші кабельні траси та потенційно менші об'єкти.

Глобальні інженерні команди Introl розгортають високощільну інфраструктуру стійок для AI-установок у 257 локаціях, від початкових розгортань GPU-серверів до об'єктів на 100 000 прискорювачів. Вибір стійки безпосередньо впливає на ефективність об'єкта та потужність для майбутніх поколінь GPU.

Інфраструктурний фундамент

Стійки представляють фізичний фундамент для інвестицій в AI-інфраструктуру. Корпус, що розміщує GPU-сервери та мережеве обладнання вартістю $3,9 мільйона, повинен безпечно підтримувати ці інвестиції, забезпечуючи при цьому інфраструктуру подачі електроенергії та охолодження, якої ці системи потребують.

Запросити пропозицію_

Розкажіть про ваш проект і ми відповімо протягом 72 годин.

> ПЕРЕДАЧА_ЗАВЕРШЕНА

Запит отримано_

Дякуємо за ваш запит. Наша команда розгляне його та відповість протягом 72 годин.

В ЧЕРЗІ НА ОБРОБКУ