Marvell以5.4亿美元收购XConn:AI互连整合信号

Marvell以5.4亿美元收购XConn,标志着AI数据中心CXL/UALink交换芯片领域的重大整合。

Marvell以5.4亿美元收购XConn:AI互连整合信号

Marvell以5.4亿美元收购XConn:标志AI基础设施下一阶段

Marvell Technology于2026年1月6日承诺以5.4亿美元收购XConn Technologies,这是迄今为止CXL交换芯片市场最大的一笔收购[1]。这笔交易发生在AI数据中心面临结构性危机之际:内存带宽已成为限制GPU集群性能的主要瓶颈,传统互连技术无法跟上超过1000亿参数模型的需求[2]。随着CXL 4.0实现100TB以上的内存池,以及UALink 1.0承诺成为NVIDIA专有NVLink的开放替代方案,互连层已成为2026年及以后关键的基础设施战场[3][4]。

摘要

  • Marvell以5.4亿美元收购XConn(60%现金,40%股票),获得PCIe/CXL混合交换芯片领导地位[1][5]。
  • CXL 4.0实现100TB以上内存池,跨多机架带宽达1.5 TB/s,解决AI的内存墙问题[6][7]。
  • UALink 1.0提供每通道200 Gb/s,支持多达1,024个加速器,挑战NVIDIA NVLink的主导地位[8][9]。
  • 混合交换市场到2026年将达到22亿美元,年复合增长率12.3%[10]。
  • PCIe Gen6和CXL 3.1产品于2026年中开始出货,迫使所有AI部署进行基础设施升级[11][12]。

推动互连投资的内存墙危机

AI基础设施已经触及结构性墙。内存带宽、封装互连和热管理现在比原始GPU计算能力更能限制性能[13]。SK Hynix首席财务官确认该公司"已经售罄我们2026年全部HBM供应",而美光报告高带宽内存产能在2026日历年之前已全部预订[14][15]。

这些数据清晰地描绘了瓶颈状况:

限制因素 状态 影响
HBM供应 2026年前售罄 预计2028年TAM达1000亿美元[16]
CoWoS封装 台积电CEO称"非常紧张" 限制GPU产量[17]
内存价格 预计到2026年第二季度上涨50% 基础设施成本上升[18]
DDR5服务器内存 2025年第四季度价格上涨30-40% 到2026年可能翻倍[19]

传统互连使问题更加复杂。一个700亿参数的模型,128K上下文和32批量大小,仅KV缓存就可能需要超过150 GB[20]。以足够的速度在加速器之间移动数据需要以每秒TB级运行的互连。

"真正的瓶颈不再是GPU本身,而是内存带宽、封装互连、热管理和电源供应,"Fusion Worldwide的分析指出[17]。

CXL内存池化提供了一种解决方案:将KV缓存存储在池化的CXL内存中,同时将热层保留在GPU VRAM中[20]。与200G RDMA相比实现3.8倍加速,与100G RDMA相比实现6.5倍加速,CXL大幅减少了推理工作负载的首个令牌时间(TTFT)[21]。

为什么Marvell为XConn支付5.4亿美元

XConn Technologies在互连市场占据独特地位:该公司开发了业界首款在单芯片上同时支持CXL和PCIe的混合交换机[1][22]。Marvell的收购瞄准三个战略能力:

已就绪的生产技术栈

XConn提供跨多代的产品:

产品 标准 状态
当前交换机 PCIe 5.0 / CXL 2.0 生产出货中[22]
Apollo 2 PCIe 6.2 / CXL 3.1 采样中(2025年3月推出)[23]
下一代 PCIe 7.0 / CXL 4.0 开发中[24]

Apollo 2混合交换机在单芯片上集成CXL 3.1和PCIe Gen 6.2,在最新标准进入生产时提供支持[23]。

时机优势

收购于2026年初完成,使Marvell能够抓住PCIe Gen6过渡周期[5]。PCIe Gen6将带宽提高到每通道64 Gbps,但信号完整性距离减半,迫使服务器设计人员在几乎每条通道上部署重定时器[25]。每台配备下一代加速器的服务器都需要这种芯片。

2026年还标志着CXL内存池化架构的早期采用,需要让处理器能够从相邻设备"借用"内存的连接模块[25]。XConn的混合方法同时解决了这两个需求。

交易结构

Marvell将交易结构设定为约60%现金和40%股票,总价值5.4亿美元[1][5]。混合对价表明对长期整合的信心,同时管理现金流出。

Marvell首席执行官Matt Murphy描述了战略理由:"XConn是高性能计算和AI应用下一代互连技术的创新领导者"[1]。

CXL 4.0:前所未有规模的内存池化

CXL联盟于2025年11月18日发布CXL 4.0,将带宽提高到128 GT/s,并集成PCIe 7.0[6][26]。该规范引入的功能从根本上改变了AI基础设施架构师设计内存系统的方式。

核心技术进步

特性 CXL 3.x CXL 4.0
带宽 64 GT/s 128 GT/s[6]
PCIe基础 PCIe 6.0 PCIe 7.0[26]
捆绑端口带宽 N/A 1.5 TB/s[7]
内存池规模 单机架 多机架(100+ TB)[27]

CXL 4.0引入捆绑端口,允许主机和设备将多个物理端口聚合为单个逻辑连接[26]。单个捆绑连接可以提供1.5 TB/s的带宽,同时保持简化的软件模型[7]。

延迟特性

CXL提供内存语义访问,延迟在200-500纳秒范围内[28]。作为比较:

技术 典型延迟
本地DRAM ~100 ns
CXL内存 200-500 ns[28]
NVMe存储 ~100微秒[28]
基于存储的共享 >10毫秒[28]

200-500 ns的延迟使跨计算节点的动态、细粒度内存共享成为可能,这是基于存储的方法无法匹配的[28]。

基础设施影响

CXL内存池化已将超大规模用户在内存密集型工作负载上的总拥有成本降低了约15-20%[29]。该技术通过允许一台服务器上未使用的容量为另一台服务器上的工作负载服务来解决内存闲置问题。

需要数百TB的AI推理工作负载现在可以通过缓存一致性访问跨机架的共享内存池[27]。多机架功能代表了数十年来主导数据中心设计的单服务器内存架构的根本转变。

部署时间表

阶段 时间表 能力
CXL 3.1硅采样 2026年上半年[12] PCIe 6.0速度,每机架池化
CXL 4.0产品采样 2026年末[7] 128 GT/s,多机架
多机架生产 2026-2027[30] 100+ TB池,完全解耦

AMD宣布Versal Premium Series Gen 2是首个支持CXL 3.1和PCIe Gen6的FPGA平台,预计2026年初提供硅样品,2026年中生产[12]。

Ultra Accelerator Link联盟于2025年4月8日发布UALink 1.0,建立了GPU/加速器互连的开放标准,挑战NVIDIA的专有NVLink[8][31]。该联盟包括AMD、Intel、Google、Microsoft、Meta、Broadcom、Cisco、HPE和AWS,Apple和阿里云于2025年1月在董事会级别加入[32][33]。

技术规格

UALink 1.0提供与NVIDIA当前NVLink产品具有竞争力的规格:

规格 UALink 1.0 NVLink 4.0 NVLink 5.0
每通道带宽 200 Gb/s[8] 聚合900 GB/s[34] 2,538 GB/s[34]
Pod中最大加速器数 1,024[9] 理论256,商用8[35] 理论576,商用72[35]
联盟 开放标准[31] NVIDIA专有 NVIDIA专有

四条通道组成一个"站",提供最高800 Gbps双向带宽[36]。系统设计人员可以独立扩展加速器数量和分配给每个加速器的带宽[36]。

竞争定位

UALink结合了PCI-Express、AMD Infinity Fabric和改进的以太网SerDes元素,创建了专门为加速器内存fabric设计的互连[37]。根据联盟材料,该规范实现了"与以太网相同的原始速度和PCIe交换机的延迟"[38]。

安全功能UALinkSec提供数据机密性和可选的数据完整性,包括重放保护,支持所有协议通道的加密和认证[39]。

硬件时间表

UALink 1.0硬件在2026-2027年间进入生产[40]。AMD和Intel将发货支持该标准的加速器,Astera Labs和Broadcom提供兼容交换机[40]。

Upscale AI目标是在2026年第四季度推出扩展UALink交换机[41]。韩国初创公司Panmnesia宣布其PCIe 6.0/CXL 3.2 Fabric交换机样品可用,该交换机为CXL fabric实现基于端口的路由[42]。

现代AI基础设施越来越需要所有三种互连fabric同时运行,每种在集群中服务于不同的功能[43][44]。

Fabric角色

Fabric 主要功能 延迟配置 多厂商
NVLink GPU到GPU(仅NVIDIA) 较高,优化带宽 否[45]
UALink 加速器到加速器 较高,优化带宽 是[37]
CXL CPU-内存一致性,池化 较低(200-500 ns) 是[28]

CXL使用PCIe SerDes,导致较低的错误率和较低的延迟,相应的带宽也较低[44]。NVLink和UALink利用以太网风格的SerDes,用较高的错误率和延迟换取显著更高的带宽[44]。

融合路径

CXL解决内存容量扩展和主机与加速器之间的一致数据共享[46]。UALink和NVLink(在行业讨论中统称为"XLink")提供针对加速器到加速器数据交换优化的直接点对点连接[46]。

未来架构可能会部署CXL用于主机之间的内存池化和共享,通过UALink和UltraEthernet fabric进行远程扩展[44]。同时支持CXL和UALink的交换机代表了可能的整合点[44]。

Marvell收购XConn直接针对为这些融合交换机架构构建芯片。

2026年部署的基础设施影响

规划AI基础设施部署的组织面临着关键决策,因为互连技术正在成熟。过渡需要同时协调多个升级周期。

电源和冷却考虑

下一代互连在交换机和重定时器层面消耗大量功率。PCIe Gen6减少的信号距离迫使在每个服务器设计中增加额外的有源组件[25]。

组件 功率影响
PCIe Gen6重定时器 大多数通道需要[25]
CXL交换机 新的功率预算类别
捆绑端口聚合 端口功率倍增

规划视野

基础设施团队必须协调多个技术过渡:

技术 生产可用性 规划影响
PCIe 6.0 2026年中[12] 需要服务器更新
CXL 3.1 2026年中[12] 交换机基础设施升级
UALink 1.0 2026年末-2027年[40] 加速器平台决策
CXL 4.0 2026年末-2027年[7] 多机架架构选项

厂商锁定考虑

NVIDIA的NVLink保持专有并与NVIDIA硬件紧密耦合[45]。部署非NVIDIA加速器或寻求多厂商灵活性的组织应评估2026-2027年进入生产的UALink兼容硬件[40]。

CXL提供最广泛的供应商生态系统,AMD、Intel、三星、SK Hynix、美光和数十家较小供应商都在发货兼容产品[47]。

Introl优势:部署复杂的互连基础设施

部署这些互连技术需要超越传统服务器安装的专业知识。CXL内存池和UALink fabric的布线、交换机配置和拓扑设计需要大规模精确执行。

Introl在全球257个地点拥有550名专门从事高性能计算部署的现场工程师[48]。GPU集群安装越来越需要集成CXL交换机、管理重定时器放置,以及在生产交付前验证端到端fabric性能。

对于从数十个扩展到数千个加速器的组织,专业部署团队了解下一代互连的细微差别。跨越40,000多英里的光纤连接需要仔细关注PCIe Gen6和CXL 3.1所要求的信号完整性要求[48][49]。

按角色划分的关键要点

基础设施规划人员

  • 为2026年PCIe Gen6服务器更新做预算;重定时器增加组件成本和功耗
  • 现在就评估CXL交换机供应商;随着需求增加,交付周期将延长
  • 如果内存密集型AI推理工作负载占主导,请规划多机架CXL池化的机架布局

运营团队

  • 在部署前开发CXL fabric监控能力
  • 培训员工进行非NVIDIA加速器环境的UALink拓扑配置
  • 建立PCIe Gen6距离的信号完整性测试程序

战略决策者

  • Marvell-XConn收购表明整合;预计互连供应商将变少但规模更大
  • UALink提供针对加速器采购的NVIDIA锁定替代选择
  • CXL内存池化可以为适当的工作负载降低15-20%的TCO;根据您的特定应用进行验证

展望未来:互连势在必行

互连层已从被动基础设施转变为AI部署的主动差异化因素。Marvell对XConn的5.4亿美元押注反映了在内存和加速器fabric融合时控制交换芯片的战略重要性。

2026年及以后部署AI基础设施的组织必须将互连选择视为一级架构决策。在专有NVLink、开放UALink和以内存为中心的CXL之间的选择将在安装后数年内影响灵活性、成本结构和性能。

AI基础设施建设下一阶段的赢家将同时掌握所有三种fabric。那些将互连视为商品化组件的人将发现,随着内存墙和带宽限制限制了加速器所能实现的功能,他们的GPU投资表现不佳。


参考文献

[1] Marvell Technology. "Marvell to Acquire XConn Technologies, Expanding Leadership in AI Data Center Connectivity." Marvell Investor Relations. January 6, 2026. https://investor.marvell.com/news-events/press-releases/detail/1004/marvell-to-acquire-xconn-technologies-expanding-leadership-in-ai-data-center-connectivity

[2] Keysight. "Key Challenges in Scaling AI Data Center Clusters." Keysight Blogs. February 11, 2025. https://www.keysight.com/blogs/en/inds/2025/2/11/key-challenges-in-scaling-ai-data-center-clusters

[3] CXL Consortium. "CXL 4.0 Specification Release." November 18, 2025. https://computeexpresslink.org/

[4] UALink Consortium. "UALink 200G 1.0 Specification Release." April 8, 2025. https://ualinkconsortium.org/

[5] Yahoo Finance. "Marvell to Acquire XConn Technologies, Expanding Leadership in AI Data Center Connectivity." January 6, 2026. https://finance.yahoo.com/news/marvell-acquire-xconn-technologies-expanding-140000224.html

[6] Blocks and Files. "CXL 4.0 doubles bandwidth and stretches memory pooling to multi-rack setups." November 24, 2025. https://blocksandfiles.com/2025/11/24/cxl-4/

[7] Introl. "CXL 4.0 and the Interconnect Wars: How AI Memory Is Reshaping Data Center Architecture." December 2025. https://introl.com/blog/cxl-4-0-specification-interconnect-wars-december-2025

[8] The Register. "UALink debuts its first AI interconnect spec." April 8, 2025. https://www.theregister.com/2025/04/08/ualink_200g_version_1/

[9] Data Center Dynamics. "UALink Consortium releases 200G 1.0 specification for AI accelerator interconnects." April 2025. https://www.datacenterdynamics.com/en/news/ualink-consortium-releases-200g-10-specification-for-ai-accelerator-interconnects/

[10] Grand View Research. "Hybrid Switch Market Report." 2025. Via StockTitan analysis. https://www.stocktitan.net/news/MRVL/marvell-to-acquire-x-conn-technologies-expanding-leadership-in-ai-72p1mhcm3x06.html

[11] Network Computing. "Choosing the Right Interconnect for Tomorrow's AI Applications." 2025. https://www.networkcomputing.com/data-center-networking/choosing-the-right-interconnect-for-tomorrow-s-ai-applications

[12] All About Circuits. "AMD First to Release FPGA Devices With CXL 3.1 and PCIe Gen6." 2025. https://www.allaboutcircuits.com/news/amd-first-release-fpga-devices-with-cxl-3.1-pcie-gen6/

[13] AInvest. "The Critical AI Memory Infrastructure Bottleneck and Its Investment Implications." December 2025. https://www.ainvest.com/news/critical-ai-memory-infrastructure-bottleneck-investment-implications-2512/

[14] Medium. "Memory Supercycle: How AI's HBM Hunger Is Squeezing DRAM." December 2025. https://medium.com/@Elongated_musk/memory-supercycle-how-ais-hbm-hunger-is-squeezing-dram-and-what-to-own-79c316f89586

[15] Introl. "The AI Memory Supercycle: How HBM Became AI's Most Critical Bottleneck." 2026. https://introl.com/blog/ai-memory-supercycle-hbm-2026

[16] Medium. "The Next Five Years of Memory, And Why It Will Decide AI's Pace." 2025. https://medium.com/@Elongated_musk/the-next-five-years-of-memory-and-why-it-will-decide-ais-pace-27c4318fe963

[17] Fusion Worldwide. "Inside the AI Bottleneck: CoWoS, HBM, and 2-3nm Capacity Constraints Through 2027." 2025. https://www.fusionww.com/insights/blog/inside-the-ai-bottleneck-cowos-hbm-and-2-3nm-capacity-constraints-through-2027

[18] Counterpoint Research. Via Catalyst Data Solutions. "Memory Shortage in 2026: How AI Demand Is Reshaping Supply?" https://www.catalystdatasolutionsinc.com/the-lab/ddr5-memory-shortage-2026/

[19] Catalyst Data Solutions. "Memory Shortage in 2026: How AI Demand Is Reshaping Supply?" 2026. https://www.catalystdatasolutionsinc.com/the-lab/ddr5-memory-shortage-2026/

[20] Medium. "CXL: The Secret Weapon to Solving the AI Memory Wall." January 2026. https://medium.com/@tanmaysorte25/cxl-the-secret-weapon-to-solving-the-ai-memory-wall-c22f93e8547d

[21] CXL Consortium. "Overcoming the AI Memory Wall: How CXL Memory Pooling Powers the Next Leap in Scalable AI Computing." 2025. https://computeexpresslink.org/blog/overcoming-the-ai-memory-wall-how-cxl-memory-pooling-powers-the-next-leap-in-scalable-ai-computing-4267/

[22] Data Center Dynamics. "Marvell acquires PCIe and CXL switch provider XConn Technologies for $540m." January 2026. https://www.datacenterdynamics.com/en/news/marvell-acquires-pcie-and-cxl-switch-provider-xconn-technologies-for-540m/

[23] XConn Technologies. "Apollo 2 Hybrid Switch Launch." March 2025. Via Marvell acquisition materials.

[24] CXL Consortium. "CXL Roadmap." 2025. Via VideoCardz. https://videocardz.com/newz/cxl-4-0-spec-moves-to-pcie-7-0-doubles-bandwidth-over-cxl-3-0

[25] Network Computing. "The transition to PCIe Gen 6 is the critical driver for 2026." 2025. https://www.networkcomputing.com/data-center-networking/choosing-the-right-interconnect-for-tomorrow-s-ai-applications

[26] VideoCardz. "CXL 4.0 spec moves to PCIe 7.0, doubles bandwidth over CXL 3.0." November 2025. https://videocardz.com/newz/cxl-4-0-spec-moves-to-pcie-7-0-doubles-bandwidth-over-cxl-3-0

[27] Introl. "CXL 4.0 Infrastructure Planning Guide: Memory Pooling for AI at Scale." 2025. https://introl.com/blog/cxl-4-0-infrastructure-planning-guide-memory-pooling-2025

[28] CXL Consortium. "How CXL Transforms Server Memory Infrastructure." October 2025. https://computeexpresslink.org/wp-content/uploads/2025/10/CXL_Q3-2025-Webinar_FINAL.pdf

[29] KAD. "CXL Goes Mainstream: The Memory Fabric Era in 2026." 2026. https://www.kad8.com/hardware/cxl-opens-a-new-era-of-memory-expansion/

[30] GIGABYTE. "Revolutionizing the AI Factory: The Rise of CXL Memory Pooling." 2025. https://www.gigabyte.com/Article/revolutionizing-the-ai-factory-the-rise-of-cxl-memory-pooling

[31] Network World. "UALink releases inaugural GPU interconnect specification." April 2025. https://www.networkworld.com/article/3957541/ualink-releases-inaugural-gpu-interconnect-specification.html

[32] Blocks and Files. "The Ultra Accelerator Link Consortium has released its first spec." April 9, 2025. https://blocksandfiles.com/2025/04/09/the-ultra-accelerator-link-consortium-has-released-its-first-spec/

[33] The Next Platform. "Key Hyperscalers And Chip Makers Gang Up On Nvidia's NVSwitch Interconnect." May 30, 2024. https://www.nextplatform.com/2024/05/30/key-hyperscalers-and-chip-makers-gang-up-on-nvidias-nvswitch-interconnect/

[34] LoveChip. "UALink vs NVLink: What Is the Difference?" 2025. https://www.lovechip.com/blog/ualink-vs-nvlink-what-is-the-difference-

[35] The Next Platform. "UALink Fires First GPU Interconnect Salvo At Nvidia NVSwitch." April 8, 2025. https://www.nextplatform.com/2025/04/08/ualink-fires-first-gpu-interconnect-salvo-at-nvidia-nvswitch/

[36] Converge Digest. "UALink 1.0 Released for Low-Latency Scale-Up AI Accelerators." 2025. https://convergedigest.com/ualink-1-0-released-for-low-latency-scale-up-ai-accelerators/

[37] NAND Research. "Research Note: UALink Consortium Releases UALink 1.0." 2025. https://nand-research.com/research-note-ualink-consortium-releases-ualink-1-0/

[38] Astera Labs. "Building the Case for UALink: A Dedicated Scale-Up Memory Semantic Fabric." 2025. https://www.asteralabs.com/building-the-case-for-ualink-a-dedicated-scale-up-memory-semantic-fabric/

[39] UALink Consortium. "UALink 1.0 Specification." April 2025. Via Data Center Dynamics. https://www.datacenterdynamics.com/en/news/ualink-consortium-releases-200g-10-specification-for-ai-accelerator-interconnects/

[40] Futuriom. "UALink Offers Fresh Options for AI Networking." April 2025. https://www.futuriom.com/articles/news/ualink-spec-offers-fresh-scale-up-options/2025/04

[41] HPCwire. "Upscale AI Eyes Late 2026 for Scale-Up UALink Switch." December 2, 2025. https://www.hpcwire.com/2025/12/02/upscale-ai-eyes-late-2026-for-scale-up-ualink-switch/

[42] Blocks and Files. "Panmnesia pushes unified memory and interconnect design for AI superclusters." July 18, 2025. https://blocksandfiles.com/2025/07/18/panmnesia-cxl-over-xlink-ai-supercluster-architecture/

[43] Clussys. "Towards Tomorrow's AI Networking: RDMA and IP over CXL Fabric and More." June 18, 2024. https://clussys.github.io/blogs/2024-06-18-ai-networking

[44] Semi Engineering. "CXL Thriving As Memory Link." 2025. https://semiengineering.com/cxl-thriving-as-memory-link/

[45] ServeTheHome. "UALink will be the NVLink Standard Backed by AMD Intel Broadcom Cisco and More." 2024. https://www.servethehome.com/ualink-will-be-the-nvlink-standard-backed-by-amd-intel-broadcom-cisco-and-more/

[46] SlideShare. "Memory over Fabrics: An Open Journey from CXL to UALink in AI Infrastructure." 2025. https://www.slideshare.net/slideshow/memory-over-fabrics-an-open-journey-from-cxl-to-ualink-in-ai-infrastructure/276631394

[47] Wikipedia. "Compute Express Link." https://en.wikipedia.org/wiki/Compute_Express_Link

[48] Introl. "Company Overview." https://introl.com/coverage-area

[49] Rivosinc. "Ultra Ethernet Specification 1.0 – A Game Changer for AI Networking." 2025. https://www.rivosinc.com/resources/blog/ultra-ethernet-specification-1-0-a-game-changer-for-ai-networking

[50] SemiAnalysis. "The New AI Networks | Ultra Ethernet UEC | UALink vs Broadcom Scale Up Ethernet SUE." June 11, 2025. https://semianalysis.com/2025/06/11/the-new-ai-networks-ultra-ethernet-uec-ualink-vs-broadcom-scale-up-ethernet-sue/

[51] APNIC Blog. "Scale-up fabrics." June 3, 2025. https://blog.apnic.net/2025/06/03/scale-up-fabrics/

[52] EE Times. "DRAM Cannot Keep Up With AI Demand." 2025. https://www.eetimes.com/dram-cannot-keep-up-with-ai-demand/

[53] EE Times Asia. "Memory Becoming Chip Industry's Next Bottleneck Amid Strong AI Demand." 2025. https://www.eetasia.com/memory-becoming-chip-industrys-next-bottleneck-amid-strong-ai-demand/

[54] IAEME. "The Evolution of PCI Express: From Gen1 to Gen6 and Beyond." International Journal of Computer Engineering and Technology. 2025. https://iaeme.com/Home/article_id/IJCET_16_01_153

[55] ExoSwan. "Top AI Infrastructure Stocks 2026: Data Center Picks & Shovels." 2026. https://exoswan.com/ai-infrastructure-stocks

申请报价_

告诉我们您的项目需求,我们将在72小时内回复。

> 传输完成

请求已收到_

感谢您的咨询。我们的团队将审核您的请求并在72小时内回复。

排队处理中