Придбання XConn за $540 млн компанією Marvell сигналізує про консолідацію AI-інтерконектів

Marvell купує XConn за $540 мільйонів, що знаменує велику консолідацію в силіконі комутації CXL/UALink для дата-центрів штучного інтелекту.

Придбання XConn за $540 млн компанією Marvell сигналізує про консолідацію AI-інтерконектів

Придбання XConn за $540 млн компанією Marvell сигналізує про наступну фазу AI-інфраструктури

Marvell Technology зобов'язалася витратити $540 мільйонів на придбання XConn Technologies 6 січня 2026 року, що стало найбільшим придбанням на ринку силікону комутації CXL на сьогоднішній день [1]. Угода приходить, коли дата-центри AI стикаються зі структурною кризою: пропускна здатність пам'яті стала основним вузьким місцем, що обмежує продуктивність кластерів GPU, а традиційні інтерконекти не можуть впоратися з вимогами моделей, що перевищують 100 мільярдів параметрів [2]. З CXL 4.0, що дозволяє пули пам'яті понад 100 терабайт, і UALink 1.0, що обіцяє відкриту альтернативу пропрієтарному NVLink від NVIDIA, рівень інтерконектів став критичним полем битви інфраструктури на 2026 рік і далі [3][4].

Короткий огляд

  • Marvell купує XConn за $540 мільйонів (60% готівкою, 40% акціями), отримуючи лідерство в гібридному силіконі комутації PCIe/CXL [1][5].
  • CXL 4.0 дозволяє пули пам'яті понад 100 ТБ з пропускною здатністю 1,5 ТБ/с через кілька стійок, вирішуючи проблему стіни пам'яті AI [6][7].
  • UALink 1.0 забезпечує 200 Гб/с на лінію для до 1024 прискорювачів, кидаючи виклик домінуванню NVLink від NVIDIA [8][9].
  • Ринок гібридних комутаторів досягне $2,2 мільярда до 2026 року, зростаючи на 12,3% CAGR [10].
  • Продукти PCIe Gen6 та CXL 3.1 починають поставки в середині 2026 року, змушуючи оновлювати інфраструктуру в усіх розгортаннях AI [11][12].

Криза стіни пам'яті, що стимулює інвестиції в інтерконекти

AI-інфраструктура зіткнулася зі структурною стіною. Пропускна здатність пам'яті, міжз'єднання упаковки та управління температурою тепер обмежують продуктивність більше, ніж чиста обчислювальна потужність GPU [13]. CFO SK Hynix підтвердив, що компанія "вже розпродала весь наш запас HBM на 2026 рік", тоді як Micron повідомляє, що потужність пам'яті з високою пропускною здатністю залишається повністю заброньованою протягом 2026 календарного року [14][15].

Цифри малюють чітку картину вузького місця:

Обмеження Статус Вплив
Постачання HBM Розпродано до 2026 TAM $100 млрд прогнозується до 2028 [16]
Упаковка CoWoS "Дуже напружено" за словами CEO TSMC Обмежує виробництво GPU [17]
Ціни на пам'ять Зростання на 50% прогнозується до Q2 2026 Ескалація витрат на інфраструктуру [18]
Серверна пам'ять DDR5 Зростання цін на 30-40% Q4 2025 Можливе подвоєння до 2026 [19]

Традиційні інтерконекти погіршують проблему. Модель з 70B параметрами з контекстом 128K і batch size 32 може вимагати 150+ ГБ лише для KV-кешу [20]. Переміщення даних між прискорювачами з достатньою швидкістю вимагає інтерконектів, що працюють на терабайтах за секунду.

"Справжніми вузькими місцями вже не є самі GPU, а пропускна здатність пам'яті, міжз'єднання упаковки, управління температурою та живлення", — зазначено в аналізі Fusion Worldwide [17].

CXL memory pooling забезпечує одне рішення: зберігання KV-кешу в об'єднаній CXL-пам'яті, зберігаючи гарячі шари в GPU VRAM [20]. Досягаючи прискорення в 3,8 рази порівняно з 200G RDMA та 6,5 разів порівняно з 100G RDMA, CXL драматично скорочує time-to-first-token (TTFT) для робочих навантажень інференсу [21].

Чому Marvell заплатила $540 мільйонів за XConn

XConn Technologies займає унікальну позицію на ринку інтерконектів: компанія розробила перший у галузі гібридний комутатор, що підтримує як CXL, так і PCIe на одному чипі [1][22]. Придбання Marvell націлене на три стратегічні можливості:

Готовий до виробництва технологічний стек

XConn поставляє продукти кількох поколінь:

Продукт Стандарт Статус
Поточні комутатори PCIe 5.0 / CXL 2.0 Серійне виробництво [22]
Apollo 2 PCIe 6.2 / CXL 3.1 Семплінг (запущено березень 2025) [23]
Наступне покоління PCIe 7.0 / CXL 4.0 Розробка [24]

Гібридний комутатор Apollo 2 інтегрує CXL 3.1 та PCIe Gen 6.2 на одному чипі, пропонуючи підтримку найновіших стандартів у міру їх входження у виробництво [23].

Переваги в часі

Придбання закривається на початку 2026 року, позиціонуючи Marvell для захоплення циклу переходу на PCIe Gen6 [5]. PCIe Gen6 подвоює пропускну здатність до 64 Гбіт/с на лінію, але вдвічі скорочує відстань цілісності сигналу, змушуючи проектувальників серверів розгортати ретаймери майже на кожній лінії [25]. Кожен сервер, що поставляється з прискорювачами наступного покоління, потребуватиме цього силікону.

2026 рік також знаменує ранню адаптацію архітектур CXL memory pooling, що вимагає модулів підключення, які дозволяють процесорам "позичати" пам'ять у сусідніх пристроїв [25]. Гібридний підхід XConn вирішує обидві вимоги одночасно.

Структура угоди

Marvell структурує транзакцію як приблизно 60% готівки та 40% акцій, загальною вартістю $540 мільйонів [1][5]. Змішана винагорода сигналізує впевненість у довгостроковій інтеграції при управлінні відтоком готівки.

Метт Мерфі, CEO Marvell, охарактеризував стратегічне обґрунтування: "XConn є лідером інновацій у технології інтерконектів наступного покоління для високопродуктивних обчислювальних та AI-додатків" [1].

CXL 4.0: Memory Pooling у безпрецедентному масштабі

Консорціум CXL випустив CXL 4.0 18 листопада 2025 року, подвоївши пропускну здатність до 128 GT/s з інтеграцією PCIe 7.0 [6][26]. Специфікація вводить можливості, що фундаментально змінюють те, як архітектори AI-інфраструктури проектують системи пам'яті.

Основні технічні досягнення

Функція CXL 3.x CXL 4.0
Пропускна здатність 64 GT/s 128 GT/s [6]
База PCIe PCIe 6.0 PCIe 7.0 [26]
Пропускна здатність об'єднаних портів Н/Д 1,5 ТБ/с [7]
Масштаб пулу пам'яті Одна стійка Кілька стійок (100+ ТБ) [27]

CXL 4.0 вводить Bundled Ports, дозволяючи хостам і пристроям агрегувати кілька фізичних портів в одне логічне підключення [26]. Одне об'єднане з'єднання може забезпечити пропускну здатність 1,5 ТБ/с, зберігаючи спрощену програмну модель [7].

Характеристики затримки

CXL забезпечує доступ із семантикою пам'яті із затримкою в діапазоні 200-500 наносекунд [28]. Для порівняння:

Технологія Типова затримка
Локальна DRAM ~100 нс
CXL-пам'ять 200-500 нс [28]
NVMe-сховище ~100 мікросекунд [28]
Спільний доступ на базі сховища >10 мілісекунд [28]

Затримка 200-500 нс дозволяє динамічний, дрібнозернистий обмін пам'яттю між обчислювальними вузлами, що недосяжно для підходів на основі сховища [28].

Вплив на інфраструктуру

CXL memory pooling зменшила загальну вартість володіння гіперскейлерів приблизно на 15-20% для навантажень з інтенсивним використанням пам'яті [29]. Технологія вирішує проблему memory stranding, дозволяючи невикористаній ємності на одному сервері обслуговувати навантаження на іншому.

Навантаження AI-інференсу, що вимагають сотень терабайт, тепер можуть отримати доступ до спільних пулів пам'яті між стійками з когерентністю кешу [27]. Можливість роботи з кількома стійками представляє фундаментальний зсув від архітектури пам'яті одного сервера, яка домінувала в проектуванні дата-центрів протягом десятиліть.

Часова шкала розгортання

Фаза Часова шкала Можливість
Семплінг силікону CXL 3.1 H1 2026 [12] Швидкості PCIe 6.0, пулінг на стійку
Семплінг продуктів CXL 4.0 Кінець 2026 [7] 128 GT/s, кілька стійок
Виробництво для кількох стійок 2026-2027 [30] Пули 100+ ТБ, повна дезагрегація

AMD оголосила Versal Premium Series Gen 2 як першу FPGA-платформу з підтримкою CXL 3.1 та PCIe Gen6, з очікуваними семплами силікону на початку 2026 року та виробничими одиницями до середини 2026 року [12].

Консорціум Ultra Accelerator Link випустив UALink 1.0 8 квітня 2025 року, встановивши відкритий стандарт для міжз'єднань GPU/прискорювачів, що кидає виклик пропрієтарному NVLink від NVIDIA [8][31]. Консорціум включає AMD, Intel, Google, Microsoft, Meta, Broadcom, Cisco, HPE та AWS, а Apple та Alibaba Cloud приєдналися на рівні ради директорів у січні 2025 року [32][33].

Технічні специфікації

UALink 1.0 забезпечує специфікації, конкурентоспроможні з поточними пропозиціями NVLink від NVIDIA:

Специфікація UALink 1.0 NVLink 4.0 NVLink 5.0
Пропускна здатність на лінію 200 Гб/с [8] 900 ГБ/с сукупно [34] 2538 ГБ/с [34]
Макс. прискорювачів у поді 1024 [9] 256 теоретично, 8 комерційно [35] 576 теоретично, 72 комерційно [35]
Консорціум Відкритий стандарт [31] Пропрієтарний NVIDIA Пропрієтарний NVIDIA

Група з чотирьох ліній утворює "Станцію", пропонуючи максимальну пропускну здатність 800 Гбіт/с двонаправлено [36]. Проектувальники систем можуть масштабувати кількість прискорювачів і пропускну здатність, виділену кожному прискорювачу, незалежно [36].

Конкурентне позиціонування

UALink поєднує елементи з PCI-Express, Infinity Fabric від AMD та модифікованого Ethernet SerDes для створення цільового інтерконекту для фабрик пам'яті прискорювачів [37]. Специфікація досягає "тієї ж сирої швидкості, що й Ethernet, із затримкою PCIe-комутаторів" згідно з матеріалами консорціуму [38].

Функція безпеки UALinkSec забезпечує конфіденційність даних та опціональну цілісність даних, включаючи захист від повторів, підтримуючи шифрування та автентифікацію по всіх протокольних каналах [39].

Часова шкала обладнання

Обладнання UALink 1.0 входить у виробництво у вікні 2026-2027 [40]. AMD та Intel поставлятимуть прискорювачі з підтримкою стандарту, а Astera Labs та Broadcom поставлятимуть сумісні комутатори [40].

Upscale AI націлюється на Q4 2026 для scale-up UALink-комутаторів [41]. Корейський стартап Panmnesia оголосив про доступність семплів PCIe 6.0/CXL 3.2 Fabric Switch, що реалізує маршрутизацію на основі портів для CXL-фабрик [42].

Сучасна AI-інфраструктура все більше вимагає, щоб усі три інтерконектні фабрики працювали одночасно, кожна обслуговуючи окремі функції в кластері [43][44].

Ролі фабрик

Фабрика Основна функція Профіль затримки Багатовендорність
NVLink GPU-до-GPU (лише NVIDIA) Вища, оптимізована для пропускної здатності Ні [45]
UALink Прискорювач-до-прискорювача Вища, оптимізована для пропускної здатності Так [37]
CXL Когерентність CPU-пам'яті, пулінг Нижча (200-500 нс) Так [28]

CXL використовує PCIe SerDes, що призводить до нижчих коефіцієнтів помилок і нижчої затримки з відповідно нижчою пропускною здатністю [44]. NVLink та UALink використовують SerDes у стилі Ethernet, обмінюючи вищі коефіцієнти помилок і затримку на значно вищу пропускну здатність [44].

Шлях конвергенції

CXL вирішує розширення ємності пам'яті та когерентний обмін даними між хостами та прискорювачами [46]. UALink і NVLink (спільно названі "XLink" в галузевих обговореннях) забезпечують прямі, точка-точка з'єднання, оптимізовані для обміну даними прискорювач-прискорювач [46].

Майбутні архітектури, ймовірно, розгортатимуть CXL для пулінгу та обміну пам'яттю між хостами, з віддаленим масштабуванням через UALink та UltraEthernet фабрики [44]. Комутатори, що підтримують як CXL, так і UALink, представляють ймовірну точку консолідації [44].

Придбання XConn компанією Marvell безпосередньо націлене на створення силікону для цих конвергентних комутаторних архітектур.

Імплікації для інфраструктури розгортань 2026 року

Організації, що планують розгортання AI-інфраструктури, стикаються з критичними рішеннями в міру дозрівання технологій інтерконектів. Перехід вимагає координації кількох циклів оновлення одночасно.

Міркування щодо живлення та охолодження

Інтерконекти наступного покоління споживають значну потужність на рівні комутаторів і ретаймерів. Зменшена відстань сигналу PCIe Gen6 змушує додавати додаткові активні компоненти до кожного серверного дизайну [25].

Компонент Вплив на живлення
Ретаймери PCIe Gen6 Потрібні на більшості ліній [25]
CXL-комутатори Нова категорія бюджету живлення
Агрегація об'єднаних портів Помножена потужність портів

Горизонт планування

Команди інфраструктури повинні узгодити кілька технологічних переходів:

Технологія Готовність до виробництва Імплікація для планування
PCIe 6.0 Середина 2026 [12] Потрібне оновлення серверів
CXL 3.1 Середина 2026 [12] Оновлення інфраструктури комутаторів
UALink 1.0 Кінець 2026-2027 [40] Рішення щодо платформи прискорювачів
CXL 4.0 Кінець 2026-2027 [7] Опція архітектури кількох стійок

Міркування щодо прив'язки до вендора

NVLink від NVIDIA залишається пропрієтарним і тісно пов'язаним з обладнанням NVIDIA [45]. Організації, що розгортають прискорювачі не від NVIDIA або шукають багатовендорну гнучкість, повинні оцінити обладнання, сумісне з UALink, що входить у виробництво в 2026-2027 роках [40].

CXL пропонує найширшу екосистему вендорів, з AMD, Intel, Samsung, SK Hynix, Micron та десятками менших вендорів, що поставляють сумісні продукти [47].

Перевага Introl: Розгортання складної інфраструктури інтерконектів

Розгортання цих технологій інтерконектів вимагає спеціалізованої експертизи, що виходить за межі традиційної установки серверів. Кабелювання, конфігурація комутаторів та проектування топології для пулів пам'яті CXL та фабрик UALink вимагають точного виконання в масштабі.

Introl має 550 польових інженерів, що спеціалізуються на високопродуктивних обчислювальних розгортаннях у 257 глобальних локаціях [48]. Установки GPU-кластерів все частіше вимагають інтеграції CXL-комутаторів, управління розміщенням ретаймерів та валідації наскрізної продуктивності фабрики перед передачею у виробництво.

Для організацій, що масштабуються від десятків до тисяч прискорювачів, професійні команди розгортання розуміють нюанси інтерконектів наступного покоління. Волоконно-оптичні з'єднання, що охоплюють понад 40 000 миль, вимагають ретельної уваги до вимог цілісності сигналу, яких вимагають PCIe Gen6 та CXL 3.1 [48][49].

Ключові висновки за ролями

Планувальники інфраструктури

  • Закладіть бюджет на оновлення серверів PCIe Gen6 у 2026 році; ретаймери додають вартість компонентів та живлення
  • Оцініть вендорів CXL-комутаторів зараз; терміни поставки подовжаться в міру зростання попиту
  • Плануйте компонування стійок для багатостійкового CXL-пулінгу, якщо домінують навантаження AI-інференсу з інтенсивним використанням пам'яті

Операційні команди

  • Розвивайте можливості моніторингу CXL-фабрики перед розгортанням
  • Навчайте персонал конфігурації топології UALink для середовищ з прискорювачами не від NVIDIA
  • Встановіть процедури тестування цілісності сигналу для відстаней PCIe Gen6

Стратегічні особи, що приймають рішення

  • Придбання Marvell-XConn сигналізує про консолідацію; очікуйте менше, але більших вендорів інтерконектів
  • UALink забезпечує опціональність проти прив'язки до NVIDIA для закупівель прискорювачів
  • CXL memory pooling може знизити TCO на 15-20% для відповідних навантажень; валідуйте для ваших конкретних застосувань

Погляд у майбутнє: Імператив інтерконектів

Рівень інтерконектів трансформувався з пасивної інфраструктури в активний диференціатор для AI-розгортань. Ставка Marvell на $540 мільйонів на XConn відображає стратегічну важливість контролю над силіконом комутації в міру конвергенції фабрик пам'яті та прискорювачів.

Організації, що розгортають AI-інфраструктуру в 2026 році та далі, повинні розглядати вибір інтерконекту як архітектурне рішення першого порядку. Вибір між пропрієтарним NVLink, відкритим UALink та орієнтованим на пам'ять CXL визначатиме гнучкість, структуру витрат та продуктивність на роки після установки.

Переможці в наступній фазі побудови AI-інфраструктури опанують усі три фабрики одночасно. Ті, хто ставитиметься до інтерконектів як до коммодитизованих компонентів, виявлять, що їхні інвестиції в GPU працюють нижче очікувань, оскільки стіни пам'яті та обмеження пропускної здатності лімітують те, чого можуть досягти їхні прискорювачі.

Запросити пропозицію_

Розкажіть про ваш проект і ми відповімо протягом 72 годин.

> ПЕРЕДАЧА_ЗАВЕРШЕНА

Запит отримано_

Дякуємо за ваш запит. Наша команда розгляне його та відповість протягом 72 годин.

В ЧЕРЗІ НА ОБРОБКУ