Рідинне охолодження для ШІ: від периферійного рішення до критичної інфраструктури

Ринок рідинного охолодження стрімко зростає з $2,8 млрд (2025) до понад $21 млрд до 2032 року (CAGR 30%+). Поточні стійки NVIDIA споживають 132 кВт; наступне покоління вимагатиме 240 кВт. GB200 NVL72 забезпечує 25-кратну економію (понад $4 млн щорічно для об'єкта потужністю 50 МВт...

Рідинне охолодження для ШІ: від периферійного рішення до критичної інфраструктури

Рідинне охолодження для ШІ: від периферійного рішення до критичної інфраструктури

Оновлено 11 грудня 2025 року

Оновлення грудня 2025: Ринок рідинного охолодження стрімко зростає з $2,8 млрд (2025) до понад $21 млрд до 2032 року (CAGR понад 30%). Поточні стійки NVIDIA споживають 132 кВт; наступне покоління вимагатиме 240 кВт. GB200 NVL72 забезпечує 25-кратну економію коштів (понад $4 млн щорічно для об'єкта потужністю 50 МВт). Пряме охолодження чипів тепер обробляє до 1600 Вт на компонент. Технологія Accelsius NeuCool охолоджує 4500 Вт на роз'єм GPU за допомогою теплої води об'єкта температурою 40°C.

Глобальний ринок рідинного охолодження зросте з $2,8 млрд у 2025 році до понад $21 млрд до 2032 року, із середньорічним темпом зростання понад 30%.¹ На середину 2025 року перехід від повітряного до рідинного охолодження перейшов від експериментального до операційного етапу.² При повному навантаженні найновіші GPU-сервери на базі NVIDIA потребують 132 кіловати на стійку. Наступне покоління, яке очікується протягом року, вимагатиме 240 кіловат.³ Традиційне повітряне охолодження не здатне відводити тепло за такої щільності. Рідинне охолодження перетворилося з розкоші для гіперскейлерів на обов'язкову вимогу для будь-якої організації, що розгортає інфраструктуру ШІ поточного покоління.

Економіка підтверджує цей перехід. Дата-центри витрачають орієнтовно від $1,9 до $2,8 млн на мегават щорічно на охолодження.⁴ Розгортання систем GB200 NVL72 з рідинним охолодженням дозволяє гіперскейл-дата-центрам досягти 25-кратної економії коштів, що перетворюється на понад $4 млн річної економії для об'єкта потужністю 50 мегават.⁵ Організації, які чинять опір переходу, виявлять, що не можуть розгортати покоління GPU, які визначають можливості ШІ.

Фізика, що рухає переходом

Сервери, оптимізовані для ШІ, та GPU-кластери високої щільності підвищують енергетичну щільність понад 50 кіловат на стійку, досягаючи рівнів, за яких традиційне повітряне охолодження не може забезпечити стабільне або ефективне відведення тепла.⁶ За даними Uptime Institute, середня енергетична щільність стійок дата-центрів зросла на 38% з 2022 по 2024 рік, з найкрутішим зростанням у розгортаннях ШІ та гіперскейлу.⁷ Енергетична щільність, яка раніше максимально становила 15 кіловат, тепер досягає 80–120 кіловат у кластерах ШІ.⁸

Фундаментальна перевага рідинного охолодження полягає в термодинаміці. Маючи майже в 1000 разів більшу щільність, ніж повітря, рідина чудово відводить тепло завдяки кращій теплоємності та теплопровідності.⁹ Ефективно передаючи тепло від високопродуктивних GPU, рідинне охолодження зменшує залежність від енергоємних вентиляторів охолодження. Результат: в середньому 11% зниження споживання енергії сервером при одночасному усуненні 80% вимог до простору традиційної інфраструктури охолодження.¹⁰

Системи повітряного охолодження важко справляються з енергетичною щільністю понад 10–15 кіловат на стійку.¹¹ Багато робочих навантажень ШІ потребують стійок, що працюють на 30–60 кіловат і більше.¹² Розрив між тим, що забезпечує повітряне охолодження, і тим, чого вимагає інфраструктура ШІ, зростає з кожним поколінням GPU.

Пряме охолодження чипів домінує у виробництві

Пряме охолодження чипів швидко стало найпоширенішою формою рідинного охолодження, що розгортається у виробничих середовищах.¹³ Холодні пластини монтуються безпосередньо на процесори, GPU, модулі пам'яті та стабілізатори напруги. Замкнута система циркулює теплоносій через ці пластини, відводячи тепло безпосередньо від джерела.¹⁴

Системи NVIDIA GB200 NVL72 та GB300 NVL72 використовують пряме рідинне охолодження чипів як стандартну конфігурацію.¹⁵ На відміну від випарного або занурювального охолодження, рідинне охолодження NVL72 працює як замкнута система, де теплоносій не випаровується і не потребує заміни, заощаджуючи воду.¹⁶ Архітектура забезпечує у 40 разів вищий потенціал доходу, у 30 разів вищу пропускну здатність, у 25 разів вищу енергоефективність та у 300 разів вищу водоефективність порівняно з традиційними системами повітряного охолодження.¹⁷

Рішення прямого охолодження чипів тепер обробляють до 1600 Вт на компонент, забезпечуючи на 58% вищу щільність серверів порівняно з повітряним охолодженням при одночасному зниженні споживання енергії інфраструктурою на 40%.¹⁸ Система Supermicro DLC-2 з підтримкою NVIDIA HGX B200 захоплює до 98% тепла системи шляхом рідинного охолодження процесорів, GPU, модулів DIMM, комутаторів PCIe, стабілізаторів напруги та блоків живлення, забезпечуючи тиху роботу дата-центру з рівнем шуму лише 50 децибел.¹⁹

Accelsius досягла двох термічних віх із технологією NeuCool: успішне охолодження 4500 Вт на роз'єм GPU та підтримка безпечної температури GPU у повністю завантаженій стійці ШІ потужністю 250 кіловат з використанням теплої води об'єкта температурою 40°C.²⁰ Можливість використовувати теплу воду замість охолодженої зменшує вимоги до інфраструктури охолодження та експлуатаційні витрати.

Занурювальне охолодження масштабується для екстремальної щільності

Занурювальне охолодження занурює сервери в діелектричну рідину, досягаючи понад 100 кіловат на стійку, а в деяких конструкціях — до 250 кіловат.²¹ Такі системи, як GRC ICEraQ, досягають потужності охолодження до 368 кіловат на систему, підтримуючи коефіцієнт ефективності використання енергії нижче 1,03.²² Цей підхід повністю усуває вентилятори та дозволяє операторам розміщувати в 10–15 разів більше обчислювальних потужностей на тій самій площі.²³

Ринок занурювального охолодження дата-центрів досяг $4,87 млрд у 2025 році та зросте до $11,10 млрд до 2030 року із середньорічним темпом зростання 17,91%.²⁴ Однофазні системи утримують найбільшу частку ринку завдяки знайомості з установкою, проте двофазні конструкції перемагають у пілотних проектах, де важливі екстремальна щільність та архітектури без насосів.²⁵

Порівняно з традиційним повітряним охолодженням, однофазне занурювальне охолодження знижує споживання електроенергії майже вдвічі, сприяє зменшенню викидів CO2 до 30% та підтримує до 99% менше споживання води.²⁶ Підвищення ефективності безпосередньо перетворюється на швидший час виходу на дохід для сервісів ШІ. Можливість досягти вищого використання з кожного квадратного метра залишається найсильнішим економічним важелем, що мотивує впровадження гіперскейлерами.²⁷

У травні 2025 року Intel уклала партнерство з Shell Global Solutions для запуску першого сертифікованого Intel рішення занурювального охолодження для процесорів Xeon 4-го та 5-го поколінь, що забезпечує високопродуктивне термічне управління у виробничому масштабі.²⁸ Партнерство сигналізує, що занурювальне охолодження досягло рівнів сертифікації та підтримки, яких вимагають корпоративні розгортання.

Розгортання гіперскейлерів встановлюють стандарт

Кластери Microsoft Azure AI, розгортання Google TPU та вузли навчання моделі LLaMA від Meta — усі перейшли на рідинне охолодження.²⁹ Передовий суперкомп'ютер ШІ від Microsoft, представлений у 2025 році, має виключно стійки з рідинним охолодженням, що підтримують робочі навантаження навчання GPT-Next.³⁰ Зобов'язання гіперскейлерів підтверджують рідинне охолодження як готову до виробництва інфраструктуру, а не експериментальну технологію.

HPE відправила своє перше рішення сімейства NVIDIA Blackwell — GB200 NVL72 — у лютому 2025 року.³¹ HPE побудувала сім із десяти найшвидших суперкомп'ютерів світу, накопичивши глибокий досвід у прямому рідинному охолодженні.³² Референсні архітектури компанії надають плани для корпоративних розгортань.

Референсна архітектура Vertiv для серверів NVIDIA GB200 NVL72 знижує річне споживання енергії на 25%, скорочує вимоги до простору стійок на 75% та зменшує енергетичний слід на 30%.³³ Інфраструктура рідинного охолодження Schneider Electric підтримує до 132 кіловат на стійку для дата-центрів ШІ GB200 NVL72.³⁴ Екосистема постачальників тепер пропонує готові рішення замість вимоги індивідуальної інженерії.

Meta розробила Air-Assisted Liquid Cooling спільно з Microsoft як гібридне, придатне для модернізації рішення.³⁵ Цей підхід дозволив Meta почати інтеграцію рідинного охолодження без повного перероблення існуючої інфраструктури повітряного охолодження, демонструючи прагматичні шляхи переходу для організацій з існуючими об'єктами.

Виклики модернізації залишаються

Модернізація діючого дата-центру для розміщення потужніших процесорів створює значні технічні та логістичні виклики.³⁶ Деякі оператори доходять висновку, що будівництво нових об'єктів простіше, ніж модернізація існуючих.³⁷ Рішення залежить від віку об'єкта, залишкового терміну служби та масштабу запланованих розгортань ШІ.

Рідинне охолодження потребує спеціалізованої інфраструктури, включаючи розподільчі блоки рідини, холодні пластини, резервуари для занурення та насоси теплоносія.³⁸ Модернізація передбачає зміну серверних стійок, додавання систем запобігання протіканням та забезпечення відповідності нормативним вимогам.³⁹ Існуючі об'єкти стикаються з архітектурними та інфраструктурними обмеженнями, яких уникають проекти з нуля.

Нижчі показники впровадження для інфраструктурно-інтенсивних рішень, таких як занурювальне охолодження — 20,4% серед існуючих об'єктів — відображають практичні обмеження.⁴⁰ Ці обмеження включають масштабну модернізацію для розміщення резервуарів, обмежену площу підлоги та труднощі інтеграції з існуючою інфраструктурою живлення та охолодження.⁴¹ Існуючі об'єкти, схоже, більш схильні до впровадження поступових рішень, таких як охолодження рідина-повітря, що уникають повного перероблення інфраструктури.⁴²

Schneider Electric уклала партнерство з NVIDIA щодо трьох референсних проектів модернізації для операторів дата-центрів, які прагнуть покращити продуктивність без перепроектування об'єктів з нуля.⁴³ Проекти визнають, що більшість організацій не можуть будувати нові дата-центри ШІ і мусять працювати в межах існуючих обмежень.

Операційна складність зростає

Оскільки рідинні системи охолоджують лише чипи, додаткове повітряне охолодження все ще обробляє 20–30% загального теплового навантаження.⁴⁴ Гібридні архітектури охолодження вимагають експертизи, якої багатьом організаціям бракує внутрішньо.⁴⁵ Операційний зсув виявляється настільки ж значущим, як і механічна модернізація сама по собі.

Рідинне охолодження вводить нові операційні вимоги: виявлення протікань, гідравлічна надмірність, контроль якості теплоносія та підвищення кваліфікації техніків.⁴⁶ Традиційні команди з експлуатації дата-центрів можуть не мати досвіду роботи з водопроводом, насосами та теплообмінниками у масштабі, якого вимагає інфраструктура ШІ. Дефіцит навичок впливає на терміни розгортання та поточну експлуатацію.

ZutaCore розробила системи прямого рідинного охолодження чипів, що підтримують суперчип GB200, який поєднує процесори NVIDIA Grace ARM з GPU Blackwell.⁴⁷ Рішення третіх сторін розширюють варіанти, але також ускладнюють управління постачальниками та угоди про підтримку.

Проблеми з ланцюгами постачання можуть ускладнити плани гібридного охолодження, потенційно посилені змінами торгової політики.⁴⁸ Стрімке зростання обчислювальної потужності означає, що дата-центри на передовому краї сьогодні можуть швидко відстати.⁴⁹ Проектування об'єктів з потужністю для майбутніх енергетичних щільностей виявляється складним, коли ціль продовжує рухатися.

Регіональні моделі впровадження

Північна Америка лідирує у впровадженні на ринку завдяки виробничим розгортанням гіперскейл-хмарних провайдерів.⁵⁰ Ринок США зросте з $1,09 млрд у 2024 році до $6,39 млрд до 2034 року.⁵¹ Інвестиції гіперскейлерів від AWS, Google та Microsoft стимулюють впровадження, за яким слідують підприємства.

Азійсько-Тихоокеанський регіон демонструє найкрутіше зростання, оскільки Японія, Китай та Південна Корея підтримують кластери ШІ з рідинним охолодженням.⁵² Звичайне повітряне охолодження виявляється економічно невигідним у спекотному та вологому кліматі.⁵³ Занурювальне охолодження пропонує стійкі, ефективні за простором рішення, особливо придатні для регіональних умов. Азійсько-Тихоокеанський регіон лідирує на глобальному ринку занурювального охолодження протягом усього прогнозного періоду.⁵⁴

Географічний розподіл відображає як кліматичні міркування, так і концентрацію інвестицій в інфраструктуру ШІ. Регіони з агресивними програмами розвитку ШІ стимулюють інновації в охолодженні за необхідністю.

Міркування стратегічного планування

Організації, що планують інфраструктуру ШІ, повинні враховувати рідинне охолодження в рішеннях щодо об'єктів та бюджету. Вибір між прямим охолодженням чипів та занурювальним охолодженням залежить від масштабу розгортання, обмежень модернізації та операційних можливостей.

Для нових розгортань рідинне охолодження має бути специфікацією за замовчуванням для будь-якої стійки, що перевищує 30 кіловат. Планування щільності понад 100 кіловат передбачає дорожні карти GPU до 2027 року. Об'єкти, спроектовані сьогодні без інфраструктури рідинного охолодження, стикнуться з дорогою модернізацією або заміною протягом років.

Для існуючих об'єктів чесно оцініть можливість модернізації. Референсні проекти Schneider Electric надають відправні точки, але значна інженерна робота все ще потрібна. Гібридні підходи, що нашаровують рідинне охолодження на інфраструктуру повітряного охолодження, пропонують поступові шляхи вперед.

Запросити пропозицію_

Розкажіть про ваш проект і ми відповімо протягом 72 годин.

> ПЕРЕДАЧА_ЗАВЕРШЕНА

Запит отримано_

Дякуємо за ваш запит. Наша команда розгляне його та відповість протягом 72 годин.

В ЧЕРЗІ НА ОБРОБКУ