OpenAI та NVIDIA укладають інфраструктурний альянс на $100 мільярдів для побудови обчислювального майбутнього ШІ
Оновлено 11 грудня 2025 року
Рукостискання між Дженсеном Хуангом та Семом Альтманом означає більше, ніж корпоративну дипломатію. Їхні компанії оголосили про протокол про наміри побудувати 10 гігаватів ШІ-інфраструктури — достатньо обчислювальної потужності, щоб забезпечити в мільярд разів більше можливостей, ніж та єдина система DGX, яку Хуанг особисто доставив в офіс OpenAI дев'ять років тому.¹ NVIDIA планує інвестувати до $100 мільярдів, поки OpenAI розгортатиме ці системи, що Хуанг називає «найбільшим ШІ-інфраструктурним проєктом в історії».²
Оновлення за грудень 2025 року: Станом на початок грудня знакове партнерство залишається на стадії протоколу про наміри. Фінансова директорка NVIDIA Колетт Кресс підтвердила на конференції UBS Global Technology Conference, що «ми все ще не уклали остаточну угоду».¹³ Поточні закупівлі GPU компанією OpenAI продовжують надходити через хмарних партнерів Microsoft та Oracle, поки компанії погоджують остаточні умови. Кресс наголосила, що відносини залишаються «дуже міцним партнерством», а OpenAI вважає NVIDIA своїм «пріоритетним партнером» з обчислень — хоча пряму домовленість, окреслену у вересні, ще не оформлено офіційно.¹⁴
Партнерство приходить у критичний момент. OpenAI обслуговує 700 мільйонів активних користувачів на тиждень, які разом генерують обчислювальні потреби, що перевищують більшість національних суперкомп'ютерних центрів.³ Тим часом платформа нового покоління Vera Rubin від NVIDIA обіцяє 8 екзафлопсів продуктивності ШІ та 100 ТБ швидкої пам'яті в одній стійці — специфікації, які звучать як наукова фантастика, але живитимуть виробничі навантаження починаючи з кінця 2026 року.⁴ Конвергенція інновацій OpenAI у сфері моделей з апаратними проривами NVIDIA створює інфраструктурний хід, що змінює наше уявлення про економіку ШІ.
Десятиліття партнерства досягає точки перелому
Співпраця між NVIDIA та OpenAI читається як історія походження Кремнієвої долини. У 2016 році Хуанг особисто доставив перший суперкомп'ютер DGX від NVIDIA до штаб-квартири OpenAI в Сан-Франциско — момент, зафіксований на нині культових фотографіях. Президент OpenAI Грег Брокман розмірковує про той момент: «Партнерство представляє в мільярд разів більше обчислювальної потужності, ніж той початковий сервер».⁵
Компанії разом долали межі через численні технологічні стрибки. Апаратне забезпечення NVIDIA живило еволюцію серії GPT від OpenAI, від ранніх мовних моделей до вибухового дебюту ChatGPT. Кожне покоління вимагало експоненційно більше обчислень, спонукаючи NVIDIA прискорювати цикли розробки чіпів, тоді як OpenAI вдосконалювала архітектури моделей для максимізації ефективності використання апаратного забезпечення.
Нова угода формалізує те, про що галузеві спостерігачі давно здогадувалися — ці компанії потребують одна одну. OpenAI потребує масивних обчислювальних ресурсів для навчання надінтелектуальних систем, тоді як NVIDIA виграє від інновацій OpenAI у сфері моделей, які демонструють можливості її апаратного забезпечення. Компанії будуть «спільно оптимізувати свої дорожні карти для моделей та інфраструктури OpenAI», що передбачає глибоку технічну співпрацю, яка виходить за рамки простої динаміки покупець-постачальник.⁶
Платформа Vera Rubin переосмислює обчислювальні межі
Платформа NVIDIA Vera Rubin NVL144 CPX представляє поколінний стрибок у проєктуванні ШІ-інфраструктури. Система інтегрує 144 GPU Rubin CPX, 144 GPU Rubin та 36 CPU Vera в конфігурації однієї стійки, що забезпечує у 7,5 разів більшу продуктивність ШІ, ніж системи NVIDIA GB300 NVL72.⁷ Цифри вражають навіть досвідчених інфраструктурних інженерів — 1,7 петабайта на секунду пропускної здатності пам'яті дозволяє моделям обробляти контексти в мільйон токенів без деградації продуктивності.
Архітектура Rubin CPX впроваджує спеціалізовані схеми, оптимізовані для механізмів уваги мовних моделей та навантажень з обробки відео. Кожен Rubin CPX має 128 гігабайтів пам'яті GDDR7 на одному кристалі, тоді як платформа досягає 50 петафлопсів продуктивності в FP4 — покращення в 2,5 рази порівняно з 20 петафлопсами Blackwell.⁸ NVIDIA розробила ці системи спеціально для навантажень інференсу, які домінуватимуть в економіці ШІ, коли моделі переходитимуть від досліджень до виробництва.
Vera представляє перший власний дизайн CPU від NVIDIA на базі архітектури ядра Olympus. 88-ядерний процесор на базі Arm обіцяє вдвічі більшу продуктивність порівняно з CPU Grace, що використовується в поточних системах Blackwell.⁹ Тісна інтеграція між CPU Vera та GPU Rubin через систему NVIDIA MGX усуває традиційні вузькі місця, що мучать архітектури розподілених обчислень.
Економіка інфраструктури трансформує бізнес-моделі ШІ
Фінансова інженерія, що стоїть за запропонованим партнерством, розкриває, як еволюціонувала економіка ШІ-інфраструктури. Намір NVIDIA зобов'язатися інвестувати до $100 мільярдів поступово в міру розгортання кожного гігавата створить нову модель фінансування, яка узгоджує стимули постачальника апаратного забезпечення з успіхом клієнта.¹⁰ Якщо буде завершено, така домовленість дозволить OpenAI масштабувати інфраструктуру без масивних попередніх капітальних витрат, тоді як NVIDIA братиме участь у створенні вартості, яку забезпечує її апаратне забезпечення.
У масштабі платформа Vera Rubin обіцяє від 30x до 50x рентабельність інвестицій, потенційно перетворюючи $100 мільйонів капітальних інвестицій на $5 мільярдів виручки.¹¹ Така економіка фундаментально змінює те, як компанії оцінюють рішення щодо ШІ-інфраструктури. Вартість одиниці інтелекту — метрика, яку підкреслюють обидві компанії — драматично падає, коли системи досягають достатнього масштабу та завантаженості.
Структура партнерства свідчить, що обидві компанії винесли уроки з циклів буму та спаду криптомайнінгу. Замість того, щоб продавати апаратне забезпечення під спекулятивний попит, NVIDIA прив'язує свої інвестиції до фактичного розгортання та використання. OpenAI отримує передбачуване розширення потужностей, узгоджене зі зростанням користувачів та графіками розробки моделей.
Регіональні наслідки перекроюють географію дата-центрів
Розгортання 10 гігаватів вимагає безпрецедентної потужності дата-центрів, що перекроїть глобальні карти інфраструктури. Для контексту: 10 гігаватів дорівнює приблизно споживанню електроенергії 10 мільйонів домогосподарств або великої міської агломерації. Пошук локацій з доступною електроенергією, потужністю охолодження та мережевою зв'язністю в такому масштабі створює інженерні виклики, що не поступаються обчислювальним.
Розбудова інфраструктури створює можливості для регіональних ринків дата-центрів, особливо в регіонах APAC з надійними електромережами та перевагами в охолодженні. Країни з надлишком відновлюваної енергії та сприятливим регуляторним середовищем позиціонують себе для захоплення частин цього розгортання. Часові рамки партнерства — перші системи запрацюють наприкінці 2026 року — дають операторам дата-центрів та урядам вузьке вікно для підготовки інфраструктури.
Професійна експертиза розгортання стає критичною в такому масштабі. Різниця між теоретичними специфікаціями та операційною продуктивністю часто зводиться до ефективності охолодження, розподілу електроенергії та оптимізації міжз'єднань. Компанії на кшталт Introl, з досвідом розгортання масивних GPU-кластерів у різних географічних регіонах, розуміють нюанси, що визначають, чи забезпечують ці системи обіцяну продуктивність.
Конкуренція прискорюється, але модель партнерства стає домінантною
Альянс OpenAI-NVIDIA сигналізує про ширший галузевий зсув у бік глибоких партнерств між розробниками моделей та постачальниками апаратного забезпечення. Співпраця Anthropic з Amazon Web Services та внутрішня розробка TPU компанією Google представляють варіації на ту саму тему — прогрес ШІ вимагає безпрецедентної координації між інноваціями в програмному та апаратному забезпеченні.
Позиція Microsoft додає складності ландшафту. Як найбільший інвестор OpenAI та хмарний партнер, Microsoft має балансувати свої інвестиції в інфраструктуру Azure з прямими відносинами OpenAI з NVIDIA. Компанії представляють свої зусилля як взаємодоповнюючі, але рішення щодо розподілу ресурсів перевірятимуть цей наратив, коли обчислювальні потреби вибухнуть.
Переваги партнерської моделі стають очевидними при розгляді альтернативних підходів. Створення власного кремнію вимагає років розробки та мільярдів інвестицій з невизначеними результатами. Покладання виключно на хмарних провайдерів вводить нашарування маржі, що робить масштабне навчання економічно складним. Пряма співпраця між OpenAI та NVIDIA усуває витрати на посередників, одночасно прискорюючи цикли інновацій.
Графік розкриває агресивний, але досяжний план розгортання
Перший гігават систем запускається в другій половині 2026 року, збігаючись з доступністю NVIDIA Rubin CPX.¹² Агресивний графік вимагає паралельного виконання в кількох напрямках — виробництво чіпів, будівництво дата-центрів, розгортання електричної інфраструктури та оптимізація програмного забезпечення. Кожен елемент представляє потенційні вузькі місця, які можуть затримати ширше бачення 10 гігаватів.
Виробничі партнери NVIDIA, насамперед TSMC, повинні виділити значні потужності для виробництва Rubin. Передові технології пакування, необхідні для Rubin CPX, додають складності поза традиційним виробництвом GPU. Диверсифікація ланцюга постачань стає критичною для уникнення єдиних точок відмови, які можуть зірвати графіки розгортання.
Вікно розгортання 2026-2030 збігається з кількома технологічними переходами. Модернізація електричної інфраструктури, особливо в інтеграції відновлюваної енергії, прискорюється для задоволення потреб дата-центрів. Технології оптичних міжз'єднань дозрівають для обробки зрослих вимог до пропускної здатності. Інновації в охолодженні, від прямого рідинного охолодження до імерсійних систем, стають стандартом, а не експериментом.
Інженерні виклики вимагають інновацій по всьому стеку
Розгортання 10 гігаватів ШІ-інфраструктури виявляє інженерні виклики, що доводять поточні технології до меж. Доставка електроенергії в такому масштабі вимагає координації з енергопостачальними компаніями та потенційно виділених генеруючих потужностей. Одна стійка Vera Rubin, що споживає мегавати електроенергії, генерує тепло, яке традиційне повітряне охолодження не може ефективно розсіяти.
Мережева архітектура має еволюціонувати для підтримки паралелізму моделей на тисячах GPU. 1,7 петабайта на секунду пропускної здатності пам'яті в межах стійки Vera Rubin означає, що зовнішня мережа стає основним вузьким місцем для розподіленого навчання. Інвестиції NVIDIA в технології оптичних міжз'єднань та кремній для комутаторів адресують ці обмеження, але вимагають ретельного проєктування систем.
Оптимізація програмного забезпечення стає не менш критичною. Моделі OpenAI повинні ефективно використовувати спеціалізовані схеми в Rubin CPX для механізмів уваги. Зобов'язання компаній спільно оптимізувати свої дорожні карти передбачає глибоку співпрацю над технологіями компіляторів, оптимізацією ядер та еволюцією архітектури моделей. Приріст продуктивності від оптимізації програмного забезпечення часто перевищує апаратні покращення в такому масштабі.
Ринкові наслідки виходять за межі прямих учасників
Хвильові ефекти партнерства поширюються по всій технологічній екосистемі. Постачальники технологій охолодження бачать безпрецедентний попит на рішення рідинного охолодження. Компанії електричної інфраструктури прискорюють проєкти модернізації мереж. Виробники оптичних компонентів масштабують виробництво для задоволення вимог до міжз'єднань.
Боротьба за таланти посилюється, оскільки обидві компанії масштабують інженерні команди. Інженери інфраструктури, які розуміють оптимізацію GPU-кластерів, отримують преміальну компенсацію. Програмні інженери з досвідом у розподіленому навчанні стають безцінними. Партнерство створює тисячі високооплачуваних робочих місць у різних дисциплінах та географіях.
Менші ШІ-компанії стоять перед жорстким вибором — партнерство з хмарними провайдерами, які накручують ціну на апаратне забезпечення NVIDIA, або прийняття обчислювальних обмежень, що лімітують амбіції моделей. Економіка ШІ-інфраструктури все більше надає перевагу масштабу, створюючи природний консолідаційний тиск по всій галузі.
Майбутня дорожня карта натякає на стійкий ритм інновацій
Хоча поточна угода зосереджена на розгортанні Vera Rubin, обидві компанії сигналізують про стійку співпрацю після 2030 року. Щорі
[Контент скорочено для перекладу]