MarvellがXConnを5.4億ドルで買収:AIインターコネクト統合の兆し

MarvellがXConnを5億4000万ドルで買収し、AIデータセンター向けCXL/UALinkスイッチングシリコンにおける大規模な統合を示す。

MarvellがXConnを5.4億ドルで買収:AIインターコネクト統合の兆し

MarvellによるXConnの5.4億ドル買収がAIインフラの次のフェーズを示唆

Marvell Technologyは2026年1月6日、XConn Technologiesを5億4000万ドルで買収することを発表し、CXLスイッチングシリコン市場における過去最大の買収となりました[1]。この取引は、AIデータセンターが構造的危機に直面する中で行われました:メモリ帯域幅がGPUクラスターの性能を制限する主要なボトルネックとなり、従来のインターコネクトは1000億パラメータを超えるモデルの要求に対応できなくなっています[2]。CXL 4.0が100テラバイト以上のメモリプールを可能にし、UALink 1.0がNVIDIAの独自規格NVLinkに対するオープンな代替手段を約束する中、インターコネクト層は2026年以降の重要なインフラ戦場として浮上しています[3][4]。

要約

  • MarvellがXConnを5億4000万ドルで買収(60%現金、40%株式)し、ハイブリッドPCIe/CXLスイッチングシリコンのリーダーシップを獲得[1][5]。
  • CXL 4.0は100TB以上のメモリプールを可能にし、複数ラックにわたり1.5 TB/sの帯域幅を提供、AIのメモリウォールに対処[6][7]。
  • UALink 1.0はレーンあたり200 Gb/sを提供し、最大1,024アクセラレータをサポート、NVIDIAのNVLink優位性に挑戦[8][9]。
  • ハイブリッドスイッチ市場は2026年までに22億ドルに達する見込み、CAGR 12.3%で成長[10]。
  • PCIe Gen6およびCXL 3.1製品が2026年中盤に出荷開始、すべてのAI展開でインフラアップグレードが必須に[11][12]。

インターコネクト投資を促すメモリウォール危機

AIインフラは構造的な壁に直面しています。メモリ帯域幅、パッケージングインターコネクト、熱管理が、今やGPUの生の計算能力よりも性能を制約しています[13]。SK HynixのCFOは「2026年のHBM供給はすでに完売」と確認し、Micronは高帯域幅メモリ容量が2026年末まで完全に予約済みであると報告しています[14][15]。

数字はボトルネックの明確な図を描いています:

制約 状況 影響
HBM供給 2026年まで完売 2028年までにTAM 1000億ドルと予測[16]
CoWoSパッケージング TSMCのCEOによると「非常にタイト」 GPU生産を制限[17]
メモリ価格 2026年第2四半期まで50%上昇予測 インフラコスト増大[18]
DDR5サーバーメモリ 2025年第4四半期に30-40%価格上昇 2026年までに倍増の可能性[19]

従来のインターコネクトは問題を悪化させます。128Kコンテキストとバッチサイズ32の700億パラメータモデルは、KVキャッシュだけで150GB以上を必要とする可能性があります[20]。アクセラレータ間で十分な速度でデータを移動するには、毎秒テラバイト単位で動作するインターコネクトが必要です。

「真のボトルネックはもはやGPU自体ではなく、メモリ帯域幅、パッケージングインターコネクト、熱管理、電力供給です」とFusion Worldwideの分析は述べています[17]。

CXLメモリプーリングは解決策を提供します:ホット層をGPU VRAMに保持しながら、KVキャッシュをプールされたCXLメモリに保存します[20]。200G RDMAと比較して3.8倍、100G RDMAと比較して6.5倍の高速化を達成し、CXLは推論ワークロードの最初のトークンまでの時間(TTFT)を劇的に削減します[21]。

なぜMarvellはXConnに5億4000万ドルを支払ったのか

XConn Technologiesはインターコネクト市場で独自のポジションを占めています:同社は単一チップ上でCXLとPCIeの両方をサポートする業界初のハイブリッドスイッチを開発しました[1][22]。Marvellの買収は3つの戦略的能力を対象としています:

生産準備完了の技術スタック

XConnは複数世代にわたる製品を提供しています:

製品 規格 状況
現行スイッチ PCIe 5.0 / CXL 2.0 生産出荷中[22]
Apollo 2 PCIe 6.2 / CXL 3.1 サンプリング中(2025年3月発売)[23]
次世代 PCIe 7.0 / CXL 4.0 開発中[24]

Apollo 2ハイブリッドスイッチはCXL 3.1とPCIe Gen 6.2を単一チップに統合し、最新規格が生産に入る際のサポートを提供します[23]。

タイミングの優位性

買収は2026年初頭にクローズし、MarvellがPCIe Gen6移行サイクルを捉えるポジションを確保します[5]。PCIe Gen6は帯域幅をレーンあたり64 Gbpsに倍増させますが、信号品質距離を半減させ、サーバー設計者はほぼすべてのレーンにリタイマーを配置することを余儀なくされます[25]。次世代アクセラレータを搭載するすべてのサーバーにこのシリコンが必要となります。

2026年はまた、プロセッサが隣接デバイスからメモリを「借りる」ことを可能にする接続モジュールを必要とするCXLメモリプーリングアーキテクチャの早期採用を示します[25]。XConnのハイブリッドアプローチは両方の要件に同時に対応します。

取引構造

Marvellは取引を約60%現金、40%株式として構成し、総額5億4000万ドルと評価しました[1][5]。混合対価は、現金流出を管理しながら長期的な統合への自信を示しています。

MarvellのCEOであるMatt Murphyは戦略的根拠を次のように述べました:「XConnは高性能コンピューティングおよびAIアプリケーション向けの次世代インターコネクト技術のイノベーションリーダーです」[1]。

CXL 4.0:前例のない規模でのメモリプーリング

CXLコンソーシアムは2025年11月18日にCXL 4.0をリリースし、PCIe 7.0統合で帯域幅を128 GT/sに倍増させました[6][26]。この仕様は、AIインフラアーキテクトがメモリシステムを設計する方法を根本的に変える機能を導入しています。

主要な技術的進歩

機能 CXL 3.x CXL 4.0
帯域幅 64 GT/s 128 GT/s[6]
PCIeベース PCIe 6.0 PCIe 7.0[26]
バンドルポート帯域幅 N/A 1.5 TB/s[7]
メモリプール規模 単一ラック マルチラック(100+ TB)[27]

CXL 4.0はバンドルポートを導入し、ホストとデバイスが複数の物理ポートを単一の論理接続に集約できるようにします[26]。単一のバンドル接続は、簡素化されたソフトウェアモデルを維持しながら1.5 TB/sの帯域幅を提供できます[7]。

レイテンシ特性

CXLは200-500ナノ秒の範囲のレイテンシでメモリセマンティックアクセスを提供します[28]。比較のため:

技術 一般的なレイテンシ
ローカルDRAM ~100 ns
CXLメモリ 200-500 ns[28]
NVMeストレージ ~100マイクロ秒[28]
ストレージベースの共有 >10ミリ秒[28]

200-500 nsのレイテンシは、ストレージベースのアプローチでは不可能な、コンピュートノード間での動的で細粒度のメモリ共有を可能にします[28]。

インフラへの影響

CXLメモリプーリングは、メモリ集約型ワークロードにおいてハイパースケーラーの総所有コストを推定15-20%削減しました[29]。この技術は、あるサーバー上の未使用容量が別のサーバー上のワークロードを処理できるようにすることで、メモリの無駄を解消します。

数百テラバイトを必要とするAI推論ワークロードは、キャッシュコヒーレンシを持つラック間の共有メモリプールにアクセスできるようになりました[27]。マルチラック機能は、数十年にわたりデータセンター設計を支配してきた単一サーバーメモリアーキテクチャからの根本的な転換を表しています。

展開タイムライン

フェーズ タイムライン 能力
CXL 3.1シリコンサンプリング 2026年上半期[12] PCIe 6.0速度、ラック単位プーリング
CXL 4.0製品サンプリング 2026年後半[7] 128 GT/s、マルチラック
マルチラック生産 2026-2027[30] 100+ TBプール、完全な分離

AMDはVersal Premium Series Gen 2をCXL 3.1およびPCIe Gen6をサポートする最初のFPGAプラットフォームとして発表し、シリコンサンプルは2026年初頭、生産ユニットは2026年中盤に予定されています[12]。

Ultra Accelerator Linkコンソーシアムは2025年4月8日にUALink 1.0をリリースし、NVIDIAの独自規格NVLinkに挑戦するGPU/アクセラレータインターコネクトのオープン標準を確立しました[8][31]。コンソーシアムにはAMD、Intel、Google、Microsoft、Meta、Broadcom、Cisco、HPE、AWSが含まれ、AppleとAlibaba Cloudは2025年1月に取締役会レベルで参加しました[32][33]。

技術仕様

UALink 1.0はNVIDIAの現行NVLink製品と競争力のある仕様を提供します:

仕様 UALink 1.0 NVLink 4.0 NVLink 5.0
レーンあたり帯域幅 200 Gb/s[8] 集約900 GB/s[34] 2,538 GB/s[34]
Pod内最大アクセラレータ数 1,024[9] 理論256、商用8[35] 理論576、商用72[35]
コンソーシアム オープン標準[31] NVIDIA独自 NVIDIA独自

4レーンのグループが「ステーション」を構成し、最大800 Gbpsの双方向帯域幅を提供します[36]。システム設計者はアクセラレータ数と各アクセラレータに割り当てる帯域幅を独立してスケーリングできます[36]。

競争上のポジショニング

UALinkはPCI-Express、AMDのInfinity Fabric、修正されたEthernet SerDesの要素を組み合わせ、アクセラレータメモリファブリック専用に構築されたインターコネクトを作成しています[37]。コンソーシアムの資料によると、この仕様は「PCIeスイッチのレイテンシでEthernetと同じ生の速度」を実現します[38]。

セキュリティ機能UALinkSecは、リプレイ保護を含むデータの機密性とオプションのデータ整合性を提供し、すべてのプロトコルチャネルにわたる暗号化と認証をサポートします[39]。

ハードウェアタイムライン

UALink 1.0ハードウェアは2026-2027年の期間に生産に入ります[40]。AMDとIntelは標準をサポートするアクセラレータを出荷し、Astera LabsとBroadcomが互換スイッチを提供します[40]。

Upscale AIは2026年第4四半期にスケールアップUALinkスイッチを目標としています[41]。韓国のスタートアップPanmnesiaは、CXLファブリック用のポートベースルーティングを実装するPCIe 6.0/CXL 3.2ファブリックスイッチのサンプル提供を発表しました[42]。

現代のAIインフラは、クラスター内でそれぞれ異なる機能を果たす3つのインターコネクトファブリックすべてが同時に動作することをますます必要としています[43][44]。

ファブリックの役割

ファブリック 主な機能 レイテンシプロファイル マルチベンダー
NVLink GPU間(NVIDIAのみ) 高い、帯域幅最適化 いいえ[45]
UALink アクセラレータ間 高い、帯域幅最適化 はい[37]
CXL CPU-メモリコヒーレンシ、プーリング 低い(200-500 ns) はい[28]

CXLはPCIe SerDesを使用し、対応する低い帯域幅で低いエラー率と低いレイテンシを実現します[44]。NVLinkとUALinkはEthernetスタイルのSerDesを利用し、より高いエラー率とレイテンシと引き換えに大幅に高い帯域幅を実現します[44]。

収束パス

CXLはメモリ容量拡張とホストとアクセラレータ間のコヒーレントなデータ共有に対応します[46]。UALinkとNVLink(業界議論では総称して「XLink」と呼ばれる)は、アクセラレータ間のデータ交換に最適化された直接のポイントツーポイント接続を提供します[46]。

将来のアーキテクチャは、ホスト間のメモリプーリングと共有にCXLを展開し、UALinkおよびUltraEthernetファブリックを介したリモートスケールアウトを行う可能性が高いです[44]。CXLとUALinkの両方をサポートするスイッチが統合ポイントとなる可能性があります[44]。

MarvellのXConn買収は、これらの収束スイッチアーキテクチャ向けのシリコン構築を直接ターゲットとしています。

2026年展開のインフラへの影響

AIインフラ展開を計画する組織は、インターコネクト技術が成熟する中で重要な決定に直面しています。移行には複数のアップグレードサイクルを同時に調整する必要があります。

電力と冷却の考慮事項

次世代インターコネクトはスイッチとリタイマーレベルで大きな電力を消費します。PCIe Gen6の短縮された信号距離は、すべてのサーバー設計に追加のアクティブコンポーネントを強制します[25]。

コンポーネント 電力への影響
PCIe Gen6リタイマー ほとんどのレーンで必要[25]
CXLスイッチ 新しい電力予算カテゴリ
バンドルポート集約 ポート電力が乗算

計画の視野

インフラチームは複数の技術移行を調整する必要があります:

技術 生産可用性 計画への影響
PCIe 6.0 2026年中盤[12] サーバー更新が必要
CXL 3.1 2026年中盤[12] スイッチインフラアップグレード
UALink 1.0 2026年後半-2027年[40] アクセラレータプラットフォーム決定
CXL 4.0 2026年後半-2027年[7] マルチラックアーキテクチャオプション

ベンダーロックインの考慮事項

NVIDIAのNVLinkは独自規格のままであり、NVIDIAハードウェアと密接に結合しています[45]。非NVIDIAアクセラレータを展開する組織やマルチベンダーの柔軟性を求める組織は、2026-2027年に生産に入るUALink互換ハードウェアを評価すべきです[40]。

CXLは最も広いベンダーエコシステムを提供し、AMD、Intel、Samsung、SK Hynix、Micron、および数十の小規模ベンダーが互換製品を出荷しています[47]。

Introlの優位性:複雑なインターコネクトインフラの展開

これらのインターコネクト技術の展開には、従来のサーバー設置を超えた専門知識が必要です。CXLメモリプールとUALinkファブリックのケーブリング、スイッチ構成、トポロジ設計には、大規模な正確な実行が求められます。

Introlは、世界257か所でハイパフォーマンスコンピューティング展開に特化した550人のフィールドエンジニアを維持しています[48]。GPUクラスターの設置には、CXLスイッチの統合、リタイマーの配置管理、生産引き渡し前のエンドツーエンドファブリック性能の検証がますます必要とされています。

数十から数千のアクセラレータにスケーリングする組織にとって、プロフェッショナルな展開チームは次世代インターコネクトのニュアンスを理解しています。40,000マイル以上に及ぶ光ファイバー接続には、PCIe Gen6とCXL 3.1が要求する信号品質要件への慎重な注意が必要です[48][49]。

役割別の重要ポイント

インフラプランナー

  • 2026年のPCIe Gen6サーバー更新の予算を確保;リタイマーはコンポーネントコストと電力を追加
  • CXLスイッチベンダーを今すぐ評価;需要増加に伴いリードタイムが延長
  • メモリ集約型AI推論ワークロードが支配的な場合、マルチラックCXLプーリングのラックレイアウトを計画

運用チーム

  • 展開前にCXLファブリックモニタリング機能を開発
  • 非NVIDIAアクセラレータ環境向けのUALinkトポロジ構成についてスタッフをトレーニング
  • PCIe Gen6距離の信号品質テスト手順を確立

戦略的意思決定者

  • Marvell-XConn買収は統合を示唆;より少ない、より大きなインターコネクトベンダーを予想
  • UALinkはアクセラレータ購入におけるNVIDIAロックインに対するオプション性を提供
  • CXLメモリプーリングは適切なワークロードでTCOを15-20%削減可能;特定のアプリケーションに対して検証

展望:インターコネクトの必須性

インターコネクト層は、受動的なインフラからAI展開の能動的な差別化要因へと変化しました。MarvellのXConnへの5億4000万ドルの賭けは、メモリとアクセラレータファブリックが収束する中でスイッチングシリコンをコントロールすることの戦略的重要性を反映しています。

2026年以降にAIインフラを展開する組織は、インターコネクトの選択を最優先のアーキテクチャ決定として扱う必要があります。独自規格のNVLink、オープンなUALink、メモリ中心のCXLの間の選択は、設置後何年にもわたり柔軟性、コスト構造、性能を形作ります。

AIインフラ構築の次のフェーズでの勝者は、3つのファブリックすべてを同時にマスターするでしょう。インターコネクトをコモディティ化されたコンポーネントとして扱う者は、メモリウォールと帯域幅制約がアクセラレータの達成可能な成果を制限する中で、GPU投資のパフォーマンス不足に気づくことになるでしょう。


参考文献

[1] Marvell Technology. "Marvell to Acquire XConn Technologies, Expanding Leadership in AI Data Center Connectivity." Marvell Investor Relations. January 6, 2026. https://investor.marvell.com/news-events/press-releases/detail/1004/marvell-to-acquire-xconn-technologies-expanding-leadership-in-ai-data-center-connectivity

[2] Keysight. "Key Challenges in Scaling AI Data Center Clusters." Keysight Blogs. February 11, 2025. https://www.keysight.com/blogs/en/inds/2025/2/11/key-challenges-in-scaling-ai-data-center-clusters

[3] CXL Consortium. "CXL 4.0 Specification Release." November 18, 2025. https://computeexpresslink.org/

[4] UALink Consortium. "UALink 200G 1.0 Specification Release." April 8, 2025. https://ualinkconsortium.org/

[5] Yahoo Finance. "Marvell to Acquire XConn Technologies, Expanding Leadership in AI Data Center Connectivity." January 6, 2026. https://finance.yahoo.com/news/marvell-acquire-xconn-technologies-expanding-140000224.html

[6] Blocks and Files. "CXL 4.0 doubles bandwidth and stretches memory pooling to multi-rack setups." November 24, 2025. https://blocksandfiles.com/2025/11/24/cxl-4/

[7] Introl. "CXL 4.0 and the Interconnect Wars: How AI Memory Is Reshaping Data Center Architecture." December 2025. https://introl.com/blog/cxl-4-0-specification-interconnect-wars-december-2025

[8] The Register. "UALink debuts its first AI interconnect spec." April 8, 2025. https://www.theregister.com/2025/04/08/ualink_200g_version_1/

[9] Data Center Dynamics. "UALink Consortium releases 200G 1.0 specification for AI accelerator interconnects." April 2025. https://www.datacenterdynamics.com/en/news/ualink-consortium-releases-200g-10-specification-for-ai-accelerator-interconnects/

[10] Grand View Research. "Hybrid Switch Market Report." 2025. Via StockTitan analysis. https://www.stocktitan.net/news/MRVL/marvell-to-acquire-x-conn-technologies-expanding-leadership-in-ai-72p1mhcm3x06.html

[11] Network Computing. "Choosing the Right Interconnect for Tomorrow's AI Applications." 2025. https://www.networkcomputing.com/data-center-networking/choosing-the-right-interconnect-for-tomorrow-s-ai-applications

[12] All About Circuits. "AMD First to Release FPGA Devices With CXL 3.1 and PCIe Gen6." 2025. https://www.allaboutcircuits.com/news/amd-first-release-fpga-devices-with-cxl-3.1-pcie-gen6/

[13] AInvest. "The Critical AI Memory Infrastructure Bottleneck and Its Investment Implications." December 2025. https://www.ainvest.com/news/critical-ai-memory-infrastructure-bottleneck-investment-implications-2512/

[14] Medium. "Memory Supercycle: How AI's HBM Hunger Is Squeezing DRAM." December 2025. https://medium.com/@Elongated_musk/memory-supercycle-how-ais-hbm-hunger-is-squeezing-dram-and-what-to-own-79c316f89586

[15] Introl. "The AI Memory Supercycle: How HBM Became AI's Most Critical Bottleneck." 2026. https://introl.com/blog/ai-memory-supercycle-hbm-2026

[16] Medium. "The Next Five Years of Memory, And Why It Will Decide AI's Pace." 2025. https://medium.com/@Elongated_musk/the-next-five-years-of-memory-and-why-it-will-decide-ais-pace-27c4318fe963

[17] Fusion Worldwide. "Inside the AI Bottleneck: CoWoS, HBM, and 2-3nm Capacity Constraints Through 2027." 2025. https://www.fusionww.com/insights/blog/inside-the-ai-bottleneck-cowos-hbm-and-2-3nm-capacity-constraints-through-2027

[18] Counterpoint Research. Via Catalyst Data Solutions. "Memory Shortage in 2026: How AI Demand Is Reshaping Supply?" https://www.catalystdatasolutionsinc.com/the-lab/ddr5-memory-shortage-2026/

[19] Catalyst Data Solutions. "Memory Shortage in 2026: How AI Demand Is Reshaping Supply?" 2026. https://www.catalystdatasolutionsinc.com/the-lab/ddr5-memory-shortage-2026/

[20] Medium. "CXL: The Secret Weapon to Solving the AI Memory Wall." January 2026. https://medium.com/@tanmaysorte25/cxl-the-secret-weapon-to-solving-the-ai-memory-wall-c22f93e8547d

[21] CXL Consortium. "Overcoming the AI Memory Wall: How CXL Memory Pooling Powers the Next Leap in Scalable AI Computing." 2025. https://computeexpresslink.org/blog/overcoming-the-ai-memory-wall-how-cxl-memory-pooling-powers-the-next-leap-in-scalable-ai-computing-4267/

[22] Data Center Dynamics. "Marvell acquires PCIe and CXL switch provider XConn Technologies for $540m." January 2026. https://www.datacenterdynamics.com/en/news/marvell-acquires-pcie-and-cxl-switch-provider-xconn-technologies-for-540m/

[23] XConn Technologies. "Apollo 2 Hybrid Switch Launch." March 2025. Via Marvell acquisition materials.

[24] CXL Consortium. "CXL Roadmap." 2025. Via VideoCardz. https://videocardz.com/newz/cxl-4-0-spec-moves-to-pcie-7-0-doubles-bandwidth-over-cxl-3-0

[25] Network Computing. "The transition to PCIe Gen 6 is the critical driver for 2026." 2025. https://www.networkcomputing.com/data-center-networking/choosing-the-right-interconnect-for-tomorrow-s-ai-applications

[26] VideoCardz. "CXL 4.0 spec moves to PCIe 7.0, doubles bandwidth over CXL 3.0." November 2025. https://videocardz.com/newz/cxl-4-0-spec-moves-to-pcie-7-0-doubles-bandwidth-over-cxl-3-0

[27] Introl. "CXL 4.0 Infrastructure Planning Guide: Memory Pooling for AI at Scale." 2025. https://introl.com/blog/cxl-4-0-infrastructure-planning-guide-memory-pooling-2025

[28] CXL Consortium. "How CXL Transforms Server Memory Infrastructure." October 2025. https://computeexpresslink.org/wp-content/uploads/2025/10/CXL_Q3-2025-Webinar_FINAL.pdf

[29] KAD. "CXL Goes Mainstream: The Memory Fabric Era in 2026." 2026. https://www.kad8.com/hardware/cxl-opens-a-new-era-of-memory-expansion/

[30] GIGABYTE. "Revolutionizing the AI Factory: The Rise of CXL Memory Pooling." 2025. https://www.gigabyte.com/Article/revolutionizing-the-ai-factory-the-rise-of-cxl-memory-pooling

[31] Network World. "UALink releases inaugural GPU interconnect specification." April 2025. https://www.networkworld.com/article/3957541/ualink-releases-inaugural-gpu-interconnect-specification.html

[32] Blocks and Files. "The Ultra Accelerator Link Consortium has released its first spec." April 9, 2025. https://blocksandfiles.com/2025/04/09/the-ultra-accelerator-link-consortium-has-released-its-first-spec/

[33] The Next Platform. "Key Hyperscalers And Chip Makers Gang Up On Nvidia's NVSwitch Interconnect." May 30, 2024. https://www.nextplatform.com/2024/05/30/key-hyperscalers-and-chip-makers-gang-up-on-nvidias-nvswitch-interconnect/

[34] LoveChip. "UALink vs NVLink: What Is the Difference?" 2025. https://www.lovechip.com/blog/ualink-vs-nvlink-what-is-the-difference-

[35] The Next Platform. "UALink Fires First GPU Interconnect Salvo At Nvidia NVSwitch." April 8, 2025. https://www.nextplatform.com/2025/04/08/ualink-fires-first-gpu-interconnect-salvo-at-nvidia-nvswitch/

[36] Converge Digest. "UALink 1.0 Released for Low-Latency Scale-Up AI Accelerators." 2025. https://convergedigest.com/ualink-1-0-released-for-low-latency-scale-up-ai-accelerators/

[37] NAND Research. "Research Note: UALink Consortium Releases UALink 1.0." 2025. https://nand-research.com/research-note-ualink-consortium-releases-ualink-1-0/

[38] Astera Labs. "Building the Case for UALink: A Dedicated Scale-Up Memory Semantic Fabric." 2025. https://www.asteralabs.com/building-the-case-for-ualink-a-dedicated-scale-up-memory-semantic-fabric/

[39] UALink Consortium. "UALink 1.0 Specification." April 2025. Via Data Center Dynamics. https://www.datacenterdynamics.com/en/news/ualink-consortium-releases-200g-10-specification-for-ai-accelerator-interconnects/

[40] Futuriom. "UALink Offers Fresh Options for AI Networking." April 2025. https://www.futuriom.com/articles/news/ualink-spec-offers-fresh-scale-up-options/2025/04

[41] HPCwire. "Upscale AI Eyes Late 2026 for Scale-Up UALink Switch." December 2, 2025. https://www.hpcwire.com/2025/12/02/upscale-ai-eyes-late-2026-for-scale-up-ualink-switch/

[42] Blocks and Files. "Panmnesia pushes unified memory and interconnect design for AI superclusters." July 18, 2025. https://blocksandfiles.com/2025/07/18/panmnesia-cxl-over-xlink-ai-supercluster-architecture/

[43] Clussys. "Towards Tomorrow's AI Networking: RDMA and IP over CXL Fabric and More." June 18, 2024. https://clussys.github.io/blogs/2024-06-18-ai-networking

[44] Semi Engineering. "CXL Thriving As Memory Link." 2025. https://semiengineering.com/cxl-thriving-as-memory-link/

[45] ServeTheHome. "UALink will be the NVLink Standard Backed by AMD Intel Broadcom Cisco and More." 2024. https://www.servethehome.com/ualink-will-be-the-nvlink-standard-backed-by-amd-intel-broadcom-cisco-and-more/

[46] SlideShare. "Memory over Fabrics: An Open Journey from CXL to UALink in AI Infrastructure." 2025. https://www.slideshare.net/slideshow/memory-over-fabrics-an-open-journey-from-cxl-to-ualink-in-ai-infrastructure/276631394

[47] Wikipedia. "Compute Express Link." https://en.wikipedia.org/wiki/Compute_Express_Link

[48] Introl. "Company Overview." https://introl.com/coverage-area

[49] Rivosinc. "Ultra Ethernet Specification 1.0 – A Game Changer for AI Networking." 2025. https://www.rivosinc.com/resources/blog/ultra-ethernet-specification-1-0-a-game-changer-for-ai-networking

[50] SemiAnalysis. "The New AI Networks | Ultra Ethernet UEC | UALink vs Broadcom Scale Up Ethernet SUE." June 11, 2025. https://semianalysis.com/2025/06/11/the-new-ai-networks-ultra-ethernet-uec-ualink-vs-broadcom-scale-up-ethernet-sue/

[51] APNIC Blog. "Scale-up fabrics." June 3, 2025. https://blog.apnic.net/2025/06/03/scale-up-fabrics/

[52] EE Times. "DRAM Cannot Keep Up With AI Demand." 2025. https://www.eetimes.com/dram-cannot-keep-up-with-ai-demand/

[53] EE Times Asia. "Memory Becoming Chip Industry's Next Bottleneck Amid Strong AI Demand." 2025. https://www.eetasia.com/memory-becoming-chip-industrys-next-bottleneck-amid-strong-ai-demand/

[54] IAEME. "The Evolution of PCI Express: From Gen1 to Gen6 and Beyond." International Journal of Computer Engineering and Technology. 2025. https://iaeme.com/Home/article_id/IJCET_16_01_153

[55] ExoSwan. "Top AI Infrastructure Stocks 2026: Data Center Picks & Shovels." 2026. https://exoswan.com/ai-infrastructure-stocks

お見積り依頼_

プロジェクトについてお聞かせください。72時間以内にご回答いたします。

> TRANSMISSION_COMPLETE

リクエストを受信しました_

お問い合わせありがとうございます。弊社チームがリクエストを確認し、72時間以内に回答いたします。

QUEUED FOR PROCESSING