Експоненціальне зростання навантажень AI довело охолодження дата-центрів до критичної переломної точки. Оскільки щільність GPU-стійок перевищує 50 кВт—а системи наступного покоління вимагають 100 кВт і більше—традиційне повітряне охолодження досягло своїх фундаментальних фізичних меж. Цей комплексний аналіз розкриває, як індустрія навігує цей тепловий перехід через передові технології рідинного охолодження, забезпечуючи економію енергії на 10-21%, зменшення витрат на охолодження на 40% та створюючи інфраструктуру, необхідну для революції AI.
Коли повітря стає вузьким місцем
Відмова повітряного охолодження при високій щільності не є поступовою—це обрив. При 50кВт на стійку фізика стає невблагосклонною: охолодження вимагає 7,850 кубічних футів за хвилину (CFM) повітряного потоку при температурному перепаді 20°F. Подвоїти це до 100кВт, і вам потрібно 15,700 CFM—створюючи вітри ураганної сили через серверні впуски розміром лише 2-4 квадратних дюйми. Фундаментальне рівняння відведення тепла (Q = 0.318 × CFM × ΔT) розкриває непереборну проблему: зі збільшенням щільності необхідний повітряний потік зростає лінійно, але споживання енергії вентилятором зростає з кубом швидкості вентилятора. 10% збільшення повітряного потоку вимагає на 33% більше енергії вентилятора, створюючи спіраль споживання енергії, яка робить високощільне повітряне охолодження економічно та практично неможливим.
Реальні докази підтверджують ці теоретичні обмеження. Один задокументований випадок показав 250 стійок при лише 6кВт, що піднялися з 72°F до понад 90°F за 75 секунд при відмові охолодження. Традиційні дата-центри, розроблені для середньої щільності стійок 5-10кВт, просто не можуть впоратися із сучасними GPU навантаженнями. Навіть з прогресивним утриманням гарячих/холодних проходів повітряне охолодження важко справляється понад 40кВт, тоді як неутримувані системи зазнають втрат потужності на 20-40% від рециркуляції гарячого повітря. Новий екологічний клас ASHRAE H1, прямо створений для високощільного обладнання, обмежує допустимі температури до 18-22°C—діапазон неможливо підтримувати з повітряним охолодженням в масштабах GPU.
Технології рідинного охолодження трансформують можливе.
Перехід на рідинне охолодження представляє більше, ніж поступове покращення—це фундаментальне переосмислення відведення тепла. Коефіцієнт теплопередачі води в 3500 разів вищий за повітря, що забезпечує потужності охолодження, які роблять стійки 100кВт+ звичайними, а не винятковими.
Пряме охолодження чипів очолює трансформацію, з холодними пластинами з мікроканалами (27-100 мікрон), що кріпляться безпосередньо до процесорів. Працюючи з подачею води при 40°C та зворотом при 50°C, ці системи відводять 70-75% тепла стійки через рідину, зберігаючи частковий PUE 1.02-1.03. Сучасні впровадження підтримують 1.5кВт+ на чип з витратою 13 літрів на хвилину для 9кВт сервера. Решта 25-30% тепла—від пам'яті, накопичувачів та допоміжних компонентів—все ще потребує повітряного охолодження, що робить ці гібридні системи практичним вибором для більшості розгортань.
Імерсійне охолодження розсуває межі далі, занурюючи цілі сервери в діелектричні рідини. Однофазні системи з мінеральними маслами коштують $50-100 за галон і стабільно підтримують 200кВт на стійку. Двофазні системи обіцяють кращу теплопередачу через кипіння та конденсацію, але стикаються з викликами: фторвуглецеві рідини коштують $500-1000 за галон, а припинення виробництва 3M до 2025 року через екологічні побоювання заморозило впровадження. Складність технології—герметичні корпуси, ризики кавітації та регулювання PFAS—обмежує розгортання спеціалізованими застосуваннями.
Блоки розподілу охолоджуючої рідини (CDU) формують основу інфраструктури рідинного охолодження. Сучасні блоки варіюються від 7кВт стійкових систем до гігантів 2000кВт+, як-от CoolIT CHx2000. Провідні постачальники—Vertiv, Schneider Electric, Motivair та CoolIT—пропонують рішення з резервуванням N+1, фільтрацією 50 мікрон та приводами змінної частоти для узгодження навантажень. Ринок CDU, оцінений у $1 мільярд у 2024 році, прогнозується досягти $3.6 мільярдів до 2031 (20.5% CAGR), відображаючи швидке впровадження рідинного охолодження.
Мистецтво та економіка модернізації
Перехід існуючих дата-центрів на рідинне охолодження вимагає ретельної оркестрації. Найуспішніший підхід передбачає поетапну міграцію: починаючи з 1-2 високощільних стійок, розширюючи до ряду, а потім масштабуючи залежно від попиту. З'явилися три основні шляхи модернізації: liquid-to-air CDU, які використовують існуюче кондиціонування повітря, задні теплообмінники, які можуть охолоджувати до 40kW на стійку, та direct-to-chip рішення для максимальної ефективності.
Модифікації інфраструктури представляють основний виклик. Електрична інфраструктура часто стає обмежувальним фактором—об'єкти, розроблені для середніх навантажень 5-10kW, не можуть підтримувати стійки 50kW+ незалежно від можливостей охолодження. Водопостачання потребує ретельного CFD моделювання в підлогових середовищах або надземної установки з піддонами для збору крапель при бетонній конструкції. Навантаження на підлогу, особливо для систем занурення, може перевищувати структурну ємність у старіших об'єктах.
Аналіз витрат виявляє переконливу економіку, незважаючи на високі початкові інвестиції. Дослідження California Energy Commission задокументувало повну систему рідинного охолодження для 1,200 серверів на 17 стійках при загальних витратах $470,557, або $392 за сервер, включаючи модифікації об'єкта. Річна економія енергії 355 MWh ($39,155 при $0.11/kWh) дає 12-річну просту окупність, хоча оптимізовані впровадження досягають 2-5 річної віддачі. Аналіз Schneider Electric показує 14% економії капіталу через 4x ущільнення стійок, тоді як операційна економія включає 10.2% зниження загального енергоспоживання дата-центру та 15.5% покращення Total Usage Effectiveness.
Виклики інтеграції множаться в гібридних середовищах. Навіть "повністю рідинно-охолоджувані" об'єкти потребують 20-30% потужності повітряного охолодження для допоміжних компонентів. Системи управління повинні координувати кілька технологій охолодження, контролюючи як температури входу в стійку, так і умови подачі води. Резервування стає критичним—задні теплообмінники повинні перемикатися на повітряне охолодження при відкритті для обслуговування, тоді як direct-to-chip системи мають менше 10 секунд часу проїзду при повному навантаженні.
Від пілотних проектів до промислового виробництва
Реальні впровадження демонструють зрілість рідинного охолодження. Meta очолює масштабне впровадження, реалізуючи повітряно-рідинне охолодження на площі понад 40 мільйонів квадратних футів дата-центрів. Їхній дизайн стійок Catalina підтримує 140kW з 72 GPU, тоді як розгортання рідинного охолодження по всьому об'єкту планується завершити до початку 2025 року. Трансформація вимагала скасування кількох дата-центрів на стадії будівництва для перепроектування під оптимізацію для AI, очікуючи 31% економії витрат від нової архітектури.
Google з семирічним досвідом роботи з рідинно-охолоджуваними TPU надає найбільш комплексний набір даних в індустрії. Розгортаючи системи замкнутого циклу на понад 2000 TPU Pods у гігаватному масштабі, вони досягли 99.999% uptime, демонструючи в 30 разів вищу теплопровідність порівняно з повітрям. Їхній п'ятого покоління дизайн CDU, Project Deschutes, буде переданий Open Compute Project, прискорюючи впровадження по всій індустрії.
Microsoft розширює межі з двофазним зануреним охолодженням у виробництві, використовуючи діелектричні рідини, що киплять при 122°F—на 50°C нижче за воду. Технологія забезпечує зниження енергоспоживання серверів на 5-15%, одночасно усуваючи охолоджуючі вентилятори. Їхнє зобов'язання щодо зменшення використання води на 95% до 2024 року стимулює інновації в системах замкнутого циклу з нульовим випаровуванням.
Спеціалізовані провайдери, такі як CoreWeave, демонструють рідинне охолодження для AI навантажень. Плануючи розгортання 4,000 GPU до кінця 2024 року, вони досягають щільності стійок 130kW з на 20% кращою утилізацією системи порівняно з конкурентами. Їхні оптимізовані для залізниці дизайни економлять 3.1 мільйона GPU годин завдяки підвищеній надійності, розгортаючи H100 кластери менш ніж за 60 днів.
Задоволення теплових потреб AI прискорювачів
Специфікації GPU показують, чому рідинне охолодження стало обов'язковим. NVIDIA H100 SXM5 працює при 700W TDP, потребуючи рідинного охолодження для оптимальної продуктивності. H200 зберігає той самий енергетичний профіль, при цьому забезпечуючи 141GB HBM3e пам'яті на швидкості 4.8TB/s—в 1.4 рази більше пропускної здатності, що генерує пропорційне тепло. Майбутній B200 зсуває межі ще далі: 1,200W для варіантів з рідинним охолодженням проти 1,000W для повітряного охолодження, з продуктивністю 20 PFLOPS FP4, що вимагає складного термального управління.
GB200 NVL72—що містить 72 Blackwell GPU та 36 Grace CPU в одній стійці—представляє кінцеву точку життєздатності повітряного охолодження. При потужності стійки 140kW він потребує обов'язкового рідинного охолодження через новорозроблені холодні пластини та 250kW CDU. Міркування на рівні системи ускладнюють складність: міжз'єднання NVSwitch додають по 10-15W кожне, тоді як високошвидкісна пам'ять та системи подачі живлення створюють значне додаткове тепло.
Технічний аналіз від JetCool демонструє різкі відмінності в продуктивності: їхня H100 SmartPlate досягає теплового опору 0.021°C/W, працюючи з чіпами на 35°C холоднішими ніж повітряні альтернативи, підтримуючи температури входу 60°C. Це зниження температури теоретично подовжує термін служби GPU в 8 разів, дозволяючи підтримувати максимальну продуктивність—критично важливо для багатотижневих циклів навчання AI.
Дорожня карта до 2030 року
Індустрія знаходиться в точці трансформації, де найкращі практики швидко перетворюються на вимоги. Новий екологічний клас H1 від ASHRAE (рекомендовано 18-22°C) визнає, що традиційні настанови не можуть підтримувати AI навантаження. Стандарти рідинного охолодження Open Compute Project забезпечують сумісність, тоді як їхні Immersion Requirements Rev. 2.10 встановлюють процеси кваліфікації для нових технологій.
Двофазне занурювальне охолодження, незважаючи на поточні виклики, демонструє перспективи для масового впровадження у 2025-2027 роках. Ринкові прогнози показують зростання з $375 мільйонів (2024) до $1,2 мільярда (2032), що обумовлено покращеною теплопередачею, яка дозволяє 1,500W+ на чіп. Інновації як Accelsius NeuCool та альтернативи припиненим 3M рідинам вирішують екологічні проблеми, зберігаючи продуктивність.
AI-оптимізація приносить негайну віддачу. Впровадження Google DeepMind досягло 40% зниження енергії охолодження завдяки навчанню в реальному часі, тоді як Siemens' White Space Cooling Optimization та подібні платформи поширюються. Ці системи передбачають відмови, оптимізують хімію охолоджувача та динамічно адаптуються до патернів навантаження—можливості, які 91% постачальників очікують побачити повсюдно протягом п'яти років.
Утилізація відпрацьованого тепла перетворює зобов'язання на актив. Stockholm Data Parks вже обігрівають 10,000 домогосподарств відпрацьованим теплом дата-центрів, націлюючись на 10% міського опалення до 2035 року. Регулятивний тиск прискорює впровадження: Німеччина вимагає 20% повторного використання тепла до 2028 року, тоді як California Title 24 потребує інфраструктуру утилізації в новому будівництві. Технологія теплових насосів підвищує 30-40°C відпрацьованого тепла до 70-80°C для районного опалення, створюючи потоки доходів з раніше викинутої енергії.
Здійснення переходу
Успішне впровадження рідинного охолодження потребує стратегічного планування в кількох напрямках. Організації повинні почати з простих CDU рідина-повітря для найнижчого бар'єру входу, але спочатку мають оцінити інфраструктуру живлення—недостатня електрична потужність виключає можливість модернізації незалежно від технології охолодження. Початок з пілотних проектів на 1-2 стійки дозволяє набутися досвіду перед масштабуванням, водночас збереження експертизи повітряного охолодження залишається критично важливим для гібридних операцій.
Фінансове моделювання має враховувати цінність всієї системи. Хоча початкові інвестиції становлять від $1,000 до $2,000 за кВт охолоджувальної потужності, операційна економія накопичується: 27% зниження споживання енергії об'єкта в оптимізованих реалізаціях, 30% економія енергії охолодження порівняно з традиційними системами і, що критично важливо, можливість розгортання AI навантажень, які приносять дохід, що неможливо з повітряним охолодженням. Провідні реалізації досягають окупності менше ніж за 2 роки завдяки ретельному проектуванню: уникнення неефективної інтеграції чилера економить 20-30%, а зосередження на застосуваннях з найвищою щільністю максимізує прибутковість.
Технічні команди потребують нових компетенцій. Окрім традиційних знань HVAC, персонал має розуміти хімію охолоджувачів, протоколи реагування на витоки та інтегровані системи управління. Партнерство з постачальниками виявляється необхідним—цілодобова підтримка спеціалізованих компонентів та регулярне профілактичне обслуговування кожні 6 місяців стають операційними необхідностями. Протоколи безпеки розширюються, включаючи поводження з діелектричними рідинами та управління системами під тиском.
Ринкові сигнали демонструють потужну динаміку. Ринок рідинного охолодження дата-центрів зростає з $4.9 млрд (2024) до прогнозованих $21.3 млрд (2030) при CAGR 27.6%. Однофазне охолодження direct-to-chip стає стандартом для AI навантажень до 2025-2026 років, тоді як двофазне занурення досягне масового прийняття до 2027 року. До 2030 року стійки потужністю 1MW потребуватимуть вдосконаленого рідинного охолодження як стандарт, а не виняток.
Висновок
Фізика є очевидною: повітряне охолодження досягло своїх меж. При щільності стійок 50-100 кВт фундаментальні термодинамічні обмеження роблять рідинне охолодження не просто кращим варіантом, а обов'язковим. Цей перехід являє собою найбільш значущу зміну інфраструктури в історії дата-центрів, що вимагає нових навичок, значних інвестицій та операційних перетворень. Проте переваги—10-21% економії енергії, 40% зниження витрат на охолодження, 8-кратне покращення надійності та, що найважливіше, можливість розгортання інфраструктури AI нового покоління—роблять цю еволюцію неминучою. Організації, які оволодіють рідинним охолодженням сьогодні, будуть живити проривні досягнення AI завтрашнього дня—ті, хто зволікає, відстануть, оскільки індустрія прямує до ще вищих обчислювальних щільностей. Ми досягли теплової стіни; рідинне охолодження—це те, як ми її подолаємо.
Література
ACM Digital Library. "Energy-efficient LLM Training in GPU datacenters with Immersion Cooling Systems." Proceedings of the 16th ACM International Conference on Future and Sustainable Energy Systems. 2025. https://dl.acm.org/doi/10.1145/3679240.3734609.
AMAX. "Порівняння конфігурацій NVIDIA Blackwell." 2025. https://www.amax.com/comparing-nvidia-blackwell-configurations/.
———. "Топ-5 міркувань для розгортання NVIDIA Blackwell." 2025. https://www.amax.com/top-5-considerations-for-deploying-nvidia-blackwell/.
arXiv. "[1309.4887] iDataCool: HPC з охолодженням гарячою водою та повторним використанням енергії." 2013. https://ar5iv.labs.arxiv.org/html/1309.4887.
———. "[1709.05077] Трансформація оптимізації охолодження для зеленого дата-центру через глибоке навчання з підкріпленням." 2017. https://ar5iv.labs.arxiv.org/html/1709.05077.
Attom. "Нове оновлення теплових рекомендацій ASHRAE: новий тренд високої щільності." Expert Green Prefab Data Centers. 2025. https://attom.tech/ashraes-new-thermal-guideline-update-a-new-high-density-trend/.
Chilldyne. "Дизайн високопотужного рідинного охолодження: вимоги до рішення прямого охолодження чіпа для стійок 500 kW." Chilldyne | Liquid Cooling. July 29, 2024. https://chilldyne.com/2024/07/29/high-power-liquid-cooling-design-direct-to-chip-solution-requirements-for-500-kw-racks/.
Compass Datacenters. "Що таке охолодження дата-центру?" 2025. https://www.compassdatacenters.com/data-center-cooling/.
Converge Digest. "Meta окреслює модернізацію AI-інфраструктури на OCP Summit 2024." 2024. https://convergedigest.com/meta-outlinesai-infrastructure-upgrades-at-ocp-summit-2024/.
Core Winner LTD. "Комплексний посібник з рідинного охолодження: майбутнє високопродуктивних дата-центрів та AI-розгортань." 2025. https://www.corewinner.com/en/blog/detail/52.
CoreWeave. "Побудова AI-кластерів для підприємств 2025." 2025. https://www.coreweave.com/blog/building-ai-clusters-for-enterprises-2025.
———. "GPU для AI-моделей та інновацій." 2025. https://www.coreweave.com/products/gpu-compute.
Cyber Defense Advisors. "Прогнозоване обслуговування на базі AI: майбутнє надійності дата-центрів." 2025. https://cyberdefenseadvisors.com/ai-driven-predictive-maintenance-the-future-of-data-center-reliability/.
Data Center Catalog. "Meta планує перехід до рідинного охолодження для своєї інфраструктури дата-центрів." 2022. https://datacentercatalog.com/news/2022/meta-plans-shift-to-liquid-cooling-for-its-data-center-infrastructure.
Data Center Dynamics. "Вступ до рідинного охолодження в дата-центрі." 2025. https://www.datacenterdynamics.com/en/analysis/an-introduction-to-liquid-cooling-in-the-data-center/.
———. "Гіперскейлери готуються до стійок 1MW на OCP EMEA; Google оголошує новий CDU." 2025. https://www.datacenterdynamics.com/en/news/hyperscalers-prepare-for-1mw-racks-at-ocp-emea-google-announces-new-cdu/.
———. "Нові рекомендації ASHRAE кидають виклик прагненню до ефективності." 2025. https://www.datacenterdynamics.com/en/opinions/new-ashrae-guidelines-challenge-efficiency-drive/.
———. "CEO NVIDIA підтверджує, що майбутня система буде з рідинним охолодженням." 2025. https://www.datacenterdynamics.com/en/news/nvidias-ceo-confirms-next-dgx-will-be-liquid-cooled/.
———. "Оптимізація ефективності дата-центру з прямим рідинним охолодженням чіпа." 2025. https://www.datacenterdynamics.com/en/opinions/optimizing-data-center-efficiency-with-direct-to-chip-liquid-cooling/.
———. "Двофазне охолодження постраждає від правил EPA та виходу 3M з PFAS 'вічних хімікатів'." 2025. https://www.datacenterdynamics.com/en/news/two-phase-cooling-will-be-hit-by-epa-rules-and-3ms-exit-from-pfas-forever-chemicals/.
Data Center Frontier. "8 трендів, які формуватимуть індустрію дата-центрів у 2025 році." 2025. https://www.datacenterfrontier.com/cloud/article/55253151/8-trends-that-will-shape-the-data-center-industry-in-2025.
———. "Найкращі практики розгортання серверів з рідинним охолодженням у вашому дата-центрі." 2025. https://www.datacenterfrontier.com/sponsored/article/55138161/best-practices-for-deploying-liquid-cooled-servers-in-your-data-center.
———. "Google розробляє нову 'кліматично свідому' технологію охолодження для економії води." 2025. https://www.datacenterfrontier.com/cooling/article/33001080/google-developing-new-climate-conscious-cooling-tech-to-save-water.
———. "Google переходить до рідинного охолодження для обробки AI-даних." 2025. https://www.datacenterfrontier.com/cloud/article/11430207/google-shifts-to-liquid-cooling-for-ai-data-crunching.
———. "Meta планує перехід до рідинного охолодження для своєї інфраструктури дата-центрів." 2025. https://www.datacenterfrontier.com/cooling/article/11436915/meta-plans-shift-to-liquid-cooling-for-its-data-center-infrastructure.
———. "Meta представляє новий дизайн дата-центру для AI-майбутнього." 2025. https://www.datacenterfrontier.com/data-center-design/article/33005296/meta-previews-new-data-center-design-for-an-ai-powered-future.
———. "OCP 2024 у фокусі: Meta представляє AI-стійку з рідинним охолодженням 140 kW; Google розглядає робототехніку для установки GPU гіперскейлерів." 2024. https://www.datacenterfrontier.com/hyperscale/article/55238148/ocp-2024-spotlight-meta-shows-off-140-kw-liquid-cooled-ai-rack-google-eyes-robotics-to-muscle-hyperscaler-gpu-placement.
———. "Розширення меж повітряного охолодження у високощільних середовищах." 2025. https://www.datacenterfrontier.com/special-reports/article/11427279/pushing-the-boundaries-of-air-cooling-in-high-density-environments.
———. "Звіт: Meta планує перехід до рідинного охолодження в AI-орієнтованому редизайні дата-центру." 2025. https://www.datacenterfrontier.com/cooling/article/33004107/report-meta-plans-shift-to-liquid-cooling-in-ai-centric-data-center-redesign.
———. "Важливість рідинного охолодження для Open Compute Project (OCP)." 2025. https://www.datacenterfrontier.com/sponsored/article/55134348/the-importance-of-liquid-cooling-to-the-open-compute-project-ocp.
———. "Утилізація відпрацьованого тепла — наступний крок індустрії дата-центрів до нульової енергії." 2025. https://www.datacenterfrontier.com/voices-of-the-industry/article/11428787/waste-heat-utilization-is-the-data-center-industrys-next-step-toward-net-zero-energy.
———. "Технологія рідинного охолодження HyperCool від ZutaCore для підтримки передових GPU H100 та H200 від NVIDIA для стійкого AI." 2024. https://www.datacenterfrontier.com/press-releases/press-release/33038994/zutacores-hypercool-liquid-cooling-technology-to-support-nvidias-advanced-h100-and-h200-gpus-for-sustainable-ai.
Data Center Knowledge. "Стратегії модернізації дата-центрів." 2025. https://www.datacenterknowledge.com/infrastructure/data-center-retrofit-strategies.
———. "Гібридне охолодження: міст до повного рідинного охолодження в дата-центрах." 2025. https://www.datacenterknowledge.com/cooling/hybrid-cooling-the-bridge-to-full-liquid-cooling-in-data-centers.
Data Centre Review. "Максимальне використання відпрацьованого тепла дата-центру." June 2024. https://datacentrereview.com/2024/06/making-the-most-of-data-centre-waste-heat/.
Datacenters. "Роль CoreWeave в хмарному партнерстві Google та OpenAI перевизначає AI-інфраструктуру." 2025. https://www.datacenters.com/news/coreweave-s-strategic-role-in-google-and-openai-s-cloud-collaboration.
Dell. "Коли переходити від повітряного до рідинного охолодження для вашого дата-центру." 2025. https://www.dell.com/en-us/blog/when-to-move-from-air-cooling-to-liquid-cooling-for-your-data-center/.
Digital Infra Network. "Мегаватний рух Google для AI: перебудова живлення та охолодження." 2025. https://digitalinfranetwork.com/news/google-ocp-400v-liquid-cooling/.
Enconnex. "Рідинне проти повітряного охолодження дата-центру." 2025. https://blog.enconnex.com/data-center-liquid-cooling-vs-air-cooling.
Engineering at Meta. "Відкриті апаратні рішення AI від Meta." October 15, 2024. https://engineering.fb.com/2024/10/15/data-infrastructure/metas-open-ai-hardware-vision/.
Fortune Business Insights. "Ринок двофазного рідинного іммерсійного охолодження дата-центрів, 2032." 2025. https://www.fortunebusinessinsights.com/two-phase-data-center-liquid-immersion-cooling-market-113122.
Google Cloud. "Забезпечення стійок 1 MW IT та рідинного охолодження на OCP EMEA Summit." Google Cloud Blog. 2025. https://cloud.google.com/blog/topics/systems/enabling-1-mw-it-racks-and-liquid-cooling-at-ocp-emea-summit.
GR Cooling. "Дослідження передового рідинного охолодження: іммерсійне проти прямого охолодження чіпа." 2025. https://www.grcooling.com/blog/exploring-advanced-liquid-cooling/.
———. "Двофазне проти однофазного іммерсійного охолодження." 2025. https://www.grcooling.com/blog/two-phase-versus-single-phase-immersion-cooling/.
HDR. "Пряме рідинне охолодження чіпа." 2025. https://www.hdrinc.com/insights/direct-chip-liquid-cooling.
HiRef. "Гібридні кімнати: комбіноване рішення для повітряного та рідинного охолодження в дата-центрах." 2025. https://hiref.com/news/hybrid-rooms-data-centers.
HPCwire. "Затухання H100: NVIDIA рекламує обладнання 2024 року з H200." November 13, 2023. https://www.hpcwire.com/2023/11/13/h100-fading-nvidia-touts-2024-hardware-with-h200/.
IDTechEx. "Управління теплом для дата-центрів 2025-2035: технології, ринки та можливості." 2025. https://www.idtechex.com/en/research-report/thermal-management-for-data-centers/1036.
JetCool. "Пряме рідинне охолодження проти іммерсійного охолодження для дата-центрів." 2025. https://jetcool.com/post/five-reasons-water-cooling-is-better-than-immersion-cooling/.
———. "Система рідинного охолодження для NVIDIA H100 GPU." 2025. https://jetcool.com/h100/.
Maroonmonkeys. "CDU." 2025. https://www.maroonmonkeys.com/motivair/cdu.html.
Microsoft. "Проект Natick Phase 2." 2025. https://natick.research.microsoft.com/.
Microsoft News. "Для охолодження серверів дата-центрів Microsoft використовує киплячу рідину." 2025. https://news.microsoft.com/source/features/innovation/datacenter-liquid-cooling/.
Nortek Data Center Cooling Solutions. "Утилізація відпрацьованого тепла — наступний крок індустрії дата-центрів до нульової енергії." 2025. https://www.nortekdatacenter.com/waste-heat-utilization-is-the-data-center-industrys-next-step-toward-net-zero-energy/.
NVIDIA. "H200 Tensor Core GPU." 2025. https://www.nvidia.com/en-us/data-center/h200/.
Open Compute Project. "Фундація Open Compute Project розширює свою ініціативу відкритих систем для AI." 2025. https://www.opencompute.org/blog/open-compute-project-foundation-expands-its-open-systems-for-ai-initiative.
P&S Intelligence. "Розмір ринку іммерсійного охолодження, частка та аналіз трендів, 2032." 2025. https://www.psmarketresearch.com/market-analysis/immersion-cooling-market.
PR Newswire. "Supermicro представляє AI-суперкластери з рідинним охолодженням масштабу стійки типу plug-and-play для NVIDIA Blackwell та NVIDIA HGX H100/H200." 2024. https://www.prnewswire.com/news-releases/supermicro-introduces-rack-scale-plug-and-play-liquid-cooled-ai-superclusters-for-nvidia-blackwell-and-nvidia-hgx-h100h200--radical-innovations-in-the-ai-era-to-make-liquid-cooling-free-with-a-bonus-302163611.html.
———. "Технологія рідинного охолодження HyperCool від ZutaCore для підтримки передових GPU H100 та H200 від NVIDIA для стійкого AI." 2024. https://www.prnewswire.com/news-releases/zutacores-hypercool-liquid-cooling-technology-to-support-nvidias-advanced-h100-and-h200-gpus-for-sustainable-ai-302087410.html.
Rittal. "Що таке пряме охолодження чіпа — і чи є рідинне охолодження у вашому майбутньому?" 2025. https://www.rittal.com/us-en_US/Company/Rittal-Stories/What-is-Direct-to-Chip-Cooling-and-Is-Liquid-Cooling-in-your-Future.
ScienceDirect. "Рідинне охолодження дата-центрів: необхідність, що стикається з викликами." 2024. https://www.sciencedirect.com/science/article/abs/pii/S1359431124007804.
SemiAnalysis. "Анатомія дата-центру частина 1: електричні системи." October 14, 2024. https://semianalysis.com/2024/10/14/datacenter-anatomy-part-1-electrical/.
———. "Анатомія дата-центру частина 2 — системи охолодження." February 13, 2025. https://semianalysis.com/2025/02/13/datacenter-anatomy-part-2-cooling-systems/.
———. "Багатодата-центрове навчання: амбітний план OpenAI обійти інфраструктуру Google." September 4, 2024. https://semianalysis.com/2024/09/04/multi-datacenter-training-openais/.
TechPowerUp. "Специфікації NVIDIA H100 PCIe 80 GB." TechPowerUp GPU Database. 2025. https://www.techpowerup.com/gpu-specs/h100-pcie-80-gb.c3899.
TechTarget. "Рідинне проти повітряного охолодження в дата-центрі." 2025. https://www.techtarget.com/searchdatacenter/feature/Liquid-cooling-vs-air-cooling-in-the-data-center.
Unisys. "Як провідні розробники LLM підживлюють бум рідинного охолодження." 2025. https://www.unisys.com/blog-post/dws/how-leading-llm-developers-are-fueling-the-liquid-cooling-boom/.
Upsite Technologies. "Як щільність стійки та Delta T впливають на вашу стратегію управління повітряним потоком." 2025. https://www.upsite.com/blog/rack-density-delta-t-impact-airflow-management-strategy/.
———. "Коли модернізувати дата-центр для AI, а коли ні." 2025. https://www.upsite.com/blog/when-to-retrofit-the-data-center-to-accommodate-ai-and-when-not-to/.
Uptime Institute. "Найкращі практики охолодження дата-центрів." 2025. https://journal.uptimeinstitute.com/implementing-data-center-cooling-best-practices/.
———. "Очікування продуктивності рідинного охолодження потребують реальної перевірки." Uptime Institute Blog. 2025. https://journal.uptimeinstitute.com/performance-expectations-of-liquid-cooling-need-a-reality-check/.
Utility Dive. "Прогноз охолодження дата-центрів на 2025 рік." 2025. https://www.utilitydive.com/news/2025-outlook-data-center-cooling-electricity-demand-ai-dual-phase-direct-to-chip-energy-efficiency/738120/.
Vertiv. "Розгортання рідинного охолодження в дата-центрах: встановлення та управління блоками розподілу охолоджуючої рідини (CDU)." 2025. https://www.vertiv.com/en-us/about/news-and-insights/articles/blog-posts/deploying-liquid-cooling-in-data-centers-installing-and-managing-coolant-distribution-units-cdus/.
———. "Варіанти рідинного та іммерсійного охолодження для дата-центрів." 2025. https://www.vertiv.com/en-us/solutions/learn-about/liquid-cooling-options-for-data-centers/.
———. "Варіанти рідинного охолодження для дата-центрів." 2025. https://www.vertiv.com/en-us/solutions/learn-about/liquid-cooling-options-for-data-centers/.
———. "Кількісна оцінка впливу на PUE та споживання енергії при впровадженні рідинного охолодження в дата-центр з повітряним охолодженням." 2025. https://www.vertiv.com/en-emea/about/news-and-insights/articles/blog-posts/quantifying-data-center-pue-when-introducing-liquid-cooling/.
———. "Розуміння прямого охолодження чіпа в HPC-інфраструктурі: глибоке занурення в рідинне охолодження." 2025. https://www.vertiv.com/en-emea/about/news-and-insights/articles/educational-articles/understanding-direct-to-chip-cooling-in-hpc-infrastructure-a-deep-dive-into-liquid-cooling/.
———. "Vertiv™ CoolPhase CDU | Рішення високої щільності." 2025. https://www.vertiv.com/en-us/products-catalog/thermal-management/high-density-solutions/vertiv-coolphase-cdu/.
WGI. "Охолодження AI та дата-центрів." 2025. https://wginc.com/cooling-down-ai-and-data-centers/.