CXL-geheugenuitbreiding: De geheugenbarrière doorbreken in AI-datacenters

Microsoft lanceert eerste CXL-uitgeruste cloud-instances in november 2025. CXL 4.0-specificatie verdubbelt bandbreedte naar 128GT/s. CXL-markt geraamd op $15 miljard tegen 2028 ($12 miljard+ DRAM achter CXL). CXL-enabled KV...

CXL-geheugenuitbreiding: De geheugenbarrière doorbreken in AI-datacenters

CXL-geheugenuitbreiding: De geheugenbarrière doorbreken in AI-datacenters

Bijgewerkt op 11 december 2025

Update december 2025: Microsoft lanceert eerste CXL-uitgeruste cloud-instances in november 2025. CXL 4.0-specificatie verdubbelt bandbreedte naar 128GT/s. CXL-markt geraamd op $15 miljard tegen 2028 ($12 miljard+ DRAM achter CXL). CXL-enabled KV-cache levert 21,9x doorvoerverbetering, 60x lager energieverbruik per token. Commerciële CXL-pools bereiken 100TiB in 2025.

Geheugenknelpunten doden AI-prestaties. Grote taalmodellen overschrijden routinematig 80 tot 120GB per GPU alleen al voor KV-cache, wat zelfs de duurste HBM-uitgeruste versnellers overweldigt.¹ Compute Express Link (CXL) geheugenuitbreidingstechnologie pakt de geheugencrisis direct aan door servers toegang te geven tot geheugenpools buiten de CPU-aangesloten DRAM-limieten. Met Microsoft die in november 2025 de eerste CXL-uitgeruste cloud-instances in de industrie lanceert en de CXL 4.0-specificatie die de bandbreedte verdubbelt naar 128GT/s, transformeren gedisaggregeerde geheugenarchitecturen van onderzoeksconcept naar productierealtiteit.²

De markt weerspiegelt de urgentie. CXL-marktomzetprojecties bereiken $15 miljard tegen 2028, waarbij verwacht wordt dat DRAM achter CXL meer dan $12 miljard van dat totaal zal uitmaken.³ Voor organisaties die AI-infrastructuur op schaal inzetten, bepaalt het begrip van CXL-geheugenuitbreidingsmogelijkheden of systemen workloads van de volgende generatie aankunnen zonder constante hardware-upgrades.

Hoe CXL-geheugenuitbreiding daadwerkelijk werkt

CXL functioneert als een cache-coherent interconnectprotocol dat draait over standaard PCIe-fysieke lagen. De technologie behoudt volledige coherentie tussen CPU-caches en externe geheugenapparaten, waardoor applicaties CXL-aangesloten geheugen kunnen benaderen met hetzelfde programmeermodel als lokaal DRAM.⁴ Drie protocolsubtypes behandelen verschillende apparaatinteracties: CXL.io beheert PCIe-achtige transacties, CXL.cache stelt apparaten in staat om hostgeheugen te cachen, en CXL.mem geeft hosts toegang tot apparaat-aangesloten geheugen.⁵

Geheugenuitbreidingsapparaten, aangeduid als CXL Type-3, verbinden DDR5-modules met servers via PCIe-slots of EDSFF-vormfactoren. Moderne CXL-controllers voegen ongeveer 70 nanoseconden latentie toe vergeleken met direct aangesloten DRAM.⁶ Hoewel substantieel, is CXL-geheugenlatentie 20x tot 50x sneller dan NVMe-opslag, wat een kritieke prestatielaag vult tussen snel hostgeheugen en trage schijftoegang.⁷

De specificatie-evolutie versnelde snel. CXL 2.0 introduceerde geheugenpooling, waardoor meerdere hosts toegang krijgen tot gemeenschappelijke geheugenapparaten met verschillende toewijzingen.⁸ CXL 3.0 maakte echt gedeeld geheugen mogelijk, waarbij meerdere hosts tegelijkertijd hetzelfde geheugensegment benaderen met consistente dataweergaven.⁹ De release van CXL 4.0 in november 2025 verdubbelde de bandbreedte van 64GT/s naar 128GT/s met behoud van het 256-byte FLIT-formaat, wat tot 1,536TB/s totale bidirectionele bandbreedte mogelijk maakt op x16-links via de nieuwe bundled ports-functie.¹⁰

Geheugenpooling transformeert servereconomie

Traditionele serverarchitecturen dwingen operators tot moeilijke afwegingen. Geheugenvereisten variëren dramatisch tussen workloads, maar servers worden geleverd met vaste DRAM-configuraties. Geheugen is gemiddeld ongeveer 30% van de serverwaarde in 2022 en projecties duwen dat cijfer boven 40% tegen 2025.¹¹ Organisaties voorzien routinematig te veel geheugen om piekbelastingen aan te kunnen, waardoor duur DRAM onbenut blijft tijdens gemiddelde gebruiksperioden.

CXL-geheugenpooling verandert de vergelijking fundamenteel. Meerdere servers delen toegang tot gecentraliseerde geheugenpools, waarbij capaciteit dynamisch wordt toegewezen op basis van real-time workloadvereisten. Microsoft ontdekte dat het adopteren van CXL-gebaseerde geheugenpooling het totaal benodigde geheugen met ongeveer 10% kon verminderen, wat een 5% reductie in totale serverkosten oplevert.¹² SMART Modular Technologies schat dat het combineren van goedkopere DIMMs met CXL add-in kaarten tot 40% besparingen oplevert voor 1TB-geheugenconfiguraties vergeleken met upgraden naar CPU's die meer RAM ondersteunen.¹³

Hybride DRAM-CXL-systemen behalen 95-100% doorvoer van pure DRAM-opstellingen terwijl geheugenkosten met 50% worden verlaagd door compressie en efficiënte pooling.¹⁴ De economische argumentatie wordt sterker naarmate geheugenprijzen verhoogd blijven doordat HBM-vraag DRAM-productiecapaciteit opslokt. Stijgende DRAM-kosten duwen ondernemingen richting geheugenefficiëntiesoftware en CXL-gebaseerde uitbreidingsoplossingen als alternatieven voor dure geheugenupgrades.¹⁵

AI-inferentieworkloads stimuleren CXL-adoptie

Inferentie van grote taalmodellen creëert de meest urgente vraag naar uitgebreide geheugencapaciteit. KV-cache-opslagvereisten schalen lineair met contextlengte, en moderne modellen die multi-miljoen token-contexten ondersteunen genereren cachegroottes die GPU-geheugen volledig overschrijden. Onderzoek toont aan dat CXL-enabled KV-cachebeheer tot 21,9x doorvoerverbetering, 60x lager energieverbruik per token en 7,3x betere totale kostenefficiëntie levert vergeleken met baseline-implementaties.¹⁶

XConn Technologies en MemVerge demonstreerden op Supercomputing 2025 hoe AI-inferentieworkloads massieve KV-cacheresources dynamisch kunnen offloaden en delen over GPU's en CPU's. De demonstratie behaalde meer dan 5x prestatieverbeteringen vergeleken met SSD-gebaseerde caching of RDMA-gebaseerde KV-cache offloading.¹⁷ Vergeleken met netwerkgebaseerde alternatieven behaalde de CXL-geheugenpool 3,8x versnelling ten opzichte van 200G RDMA en 6,5x versnelling ten opzichte van 100G RDMA voor inferentieworkloads.¹⁸

Commerciële CXL-geheugenpools die 100TiB bereiken werden beschikbaar in 2025, met nog grotere implementaties gepland voor 2026.¹⁹ Astera Labs demonstreerde op OCP Global Summit 2025 hoe Leo CXL Smart Memory Controllers AI-infrastructuurknelpunten elimineren, met 3x gelijktijdige LLM-instances bij hogere doorvoer en 3x lagere latentie met CXL.²⁰ SK Hynix toonde een geheugencentrische AI-machine die meerdere servers en GPU's verbindt zonder traditionele netwerking, met ondersteuning voor gedistribueerde inferentietaken via CXL-pooled geheugentechnologie.²¹

Naast inferentie profiteert CXL-geheugenuitbreiding aanbevelingssystemen, in-memory databases en grafiekanalyses. Micron's H3 Falcon CXL-gebaseerd gedisaggregeerd geheugensysteem levert tot 20x prestatieverbetering voor grafiekdatabases.²² Leo CXL-controllers gecombineerd met AMD EPYC 5e generatie processors bieden 70% prestatieverbetering voor deep learning-aanbevelingsmodellen.²³

Het CXL-controllerlandschap

Drie leveranciers domineren de CXL-geheugencontrollerproductie: Astera Labs, Montage Technology en Microchip. Hun controllers voeden geheugenmodules van elke grote DRAM-fabrikant.

Astera Labs leidt de markt met Leo CXL Smart Memory Controllers die CXL 2.0 ondersteunen met tot 2TB geheugencapaciteit per controller.²⁴ Leo implementeert CXL.mem, CXL.cache en CXL.io-protocollen, voert hardware-interleaving uit om geaggregeerd geheugen aan besturingssystemen te presenteren, en biedt RAS-functies via de COSMOS-managementsuite.²⁵ De A-Series add-in kaarten maken plug-and-play implementatie mogelijk, terwijl E-Series en P-Series implementaties aangepaste integratie ondersteunen. Microsoft Azure's CXL-geheugenpreview van november 2025 gebruikt Leo-controllers, wat de eerste openbare cloudimplementatie van CXL-aangesloten geheugen in de industrie markeert.²⁶

Montage Technology leverde 's werelds eerste CXL Memory eXpander Controller (MXC) en levert momenteel controllers aan Samsung, SK Hynix en andere grote geheugenfabrikanten.²⁷ De CXL 3.1-controller van het bedrijf uit september 2025 (M88MX6852) behaalt dataoverdrachtsnelheden tot 64GT/s op x8-configuraties, integreert dual-channel DDR5 op 8000MT/s snelheden, en voegt slechts 70ns latentie toe.²⁸ Het 25mm x 25mm-pakket ondersteunt zowel EDSFF E3.S als PCIe add-in kaart vormfactoren.²⁹ Zowel Samsung als SK Hynix slaagden voor CXL 2.0-compliancetesting met Montage MXC-chips.³⁰

Microchip betrad CXL met de SMC 1000 8x25G-controller die geheugenuitbreiding en pooling-toepassingen ondersteunt. Het bedrijf integreert CXL-mogelijkheden in zijn bredere geheugenconnectiviteitsportfolio naast geheugenbufferchips en SPD-hubcontrollers.

Geheugenmoduleproducten van grote leveranciers

Samsung's CMM-D (CXL Memory Module - DDR5) serie vertegenwoordigt het productie-CXL-assortiment van het bedrijf. De CMM-D 2.0 biedt 128GB en 256GB capaciteiten met tot 36GB/s bandbreedte, CXL 2.0-compliance en PCIe Gen 5-ondersteuning.³¹ Samsung positioneert CMM-D als complementair aan bestaande lokale DIMMs, en claimt geheugencapaciteitsuitbreiding tot 50% en bandbreedteverhogingen tot 100% terwijl de totale eigendomskosten worden verlaagd.³² Klantsamples werden in 2025 geleverd, met CXL 3.1-varianten gepland voor einde van het jaar.³³

SK Hynix demonstreerde meerdere CXL-geheugenproducten op Supercomputing 2025. De CMM-DDR5 werkt samen met Montage-controllers om geheugencapaciteit uit te breiden, terwijl de CMM-Ax (CXL Memory Module Accelerator) rekenmogelijkheden direct in het geheugen integreert.³⁴ SK Telecom's Petasus AI Cloud implementeerde CMM-Ax, wat praktische AI-infrastructuurtoepassingen demonstreert.³⁵ SK Hynix bereidt zich voor om eigen CXL-controllers te produceren voor CXL 3.0 en 3.1, wat de afhankelijkheid van silicium van derden vermindert.³⁶

Micron rolde CXL 2.0-gebaseerde geheugenuitbreidingsmodules uit met 96GB DDR5-capaciteiten.³⁷ Het bedrijf positioneert CXL-geheugen als kritieke technologie om de kloof met Samsung en SK Hynix in het hoogmarge servergeheugensegment te dichten. Micron's H3 Falcon-systeem combineert CXL-gebaseerd gedisaggregeerd geheugen met het Linux-ondersteunde FAMFS-bestandssysteem voor grafiekdatabase-acceleratie.³⁸

Serverplatformondersteuning van Intel en AMD

AMD EPYC Genoa-processors arriveerden in 2022 met native CXL Type-3 apparaatondersteuning, wat AMD een voorsprong van meerdere jaren gaf op Intel.³⁹ Huidige EPYC 9005 Turin-processors behouden CXL-compatibiliteit over het hele assortiment. Prestatiebenchmarks tonen substantiële winst: Leo CXL-controllers met 5e generatie AMD EPYC leveren 70% prestatieverbeteringen voor aanbevelingsmodellen en maken hybride geheugenarchitecturen mogelijk die 95-100% van native DRAM-prestaties evenaren.⁴⁰

Intel's CXL-reis verliep hobbelijger. Vierde generatie Xeon Scalable "Sapphire Rapids" lanceerde zonder CXL Type-3 apparaatondersteuning ondanks implementatie van het basis CXL-protocol.⁴¹ Officiële Type-3-ondersteuning arriveerde met 5e generatie "Emerald Rapids" ongeveer een jaar geleden. Intel Xeon 6-processors bevatten CXL Flat Memory Mode, een unieke mogelijkheid die de flexibiliteit van de compute-naar-geheugenratio verbetert zonder prestaties op te offeren.⁴² Microsoft benadrukte specifiek Flat Memory Mode-mogelijkheden bij de aankondiging van Azure's CXL-preview.⁴³

Lenovo ThinkSystem V4-servers met Intel Xeon 6-processors ondersteunen CXL 2.0-geheugen in E3.S 2T-vormfactor.⁴⁴ Marktleiders waaronder Dell Technologies, HPE, ASUS en Inventec bouwen platforms afgestemd op CXL 3.0, ter voorbereiding op bredere ecosysteemadoptie.⁴⁵ DRAM achter CXL-projecties bereiken ongeveer 10% van server-DRAM tegen 2029.⁴⁶

CXL 4.0 zet koers naar de multi-rack toekomst

De release van de CXL 4.0-specificatie in november 2025 legt de basis voor werkelijk gedisaggregeerde datacenterarchitecturen. Verdubbeling van de bandbreedte naar 128GT/s via PCIe 7.0 fysieke lagen adresseert prestatiezorgen die eerdere adoptie beperkten.⁴⁷ Bundled ports aggregeren meerdere fysieke verbindingen tot enkele logische aansluitingen, wat 768GB/s bandbreedte in elke richting (1,536TB/s totaal) mogelijk maakt op x16-configuraties terwijl eenvoudige softwaremodellen behouden blijven.⁴⁸

Native x2 linkbreedte-ondersteuning verhoogt fan-out-mogelijkheden voor geheugenpooling-topologieën. Eerdere CXL-versies ondersteunden x2 alleen als fallback-modus voor lane-failures; CXL 4.0 optimaliseert x2 volledig voor prestaties zoals x4 tot en met x16-breedtes.⁴⁹ Uitgebreide reikwijdte-ondersteuning via maximaal vier retimers maakt multi-rack-configuraties mogelijk zonder signaaldegradatie.⁵⁰

CXL 4.0 multi-rack-systemen kunnen eind 2026 tot 2027 worden uitgerold.⁵¹ De specificatie behoudt achterwaartse compatibiliteit met alle eerdere CXL-versies, wat investeringen in bestaande CXL 2.0 en 3.x-apparatuur beschermt.⁵² Met CXL 3.0-ecosysteemrijpheid verwacht in 2025, zullen datacenters beginnen met het adopteren van architecturen waar geheugen en compute disaggregeren, poolen en dynamisch heralloceren tegen 2026.⁵³

Het bouwen van de CXL-infrastructuurstack

Het implementeren van CXL-geheugenuitbreiding vereist ecosysteemcoördinatie naast

[Inhoud afgekapt voor vertaling]

Offerte aanvragen_

Vertel ons over uw project en wij reageren binnen 72 uur.

> TRANSMISSIE_VOLTOOID

Aanvraag Ontvangen_

Bedankt voor uw aanvraag. Ons team zal uw verzoek beoordelen en binnen 72 uur reageren.

IN WACHTRIJ VOOR VERWERKING