Dans un contexte de demande croissante en puissance de calcul pour l’IA et d’accentuation des déséquilibres entre l’offre et la demande de puces de stockage, le CXL (Compute Express Link) passe d’une technologie de niche à un point focal de l’industrie. Samsung Electronics, SK Hynix et Micron Technology ont intensifié leurs investissements, tandis que Google et NVIDIA sont entrés sur le marché pour valider la technologie, faisant de ce secteur le nouvel espace de concurrence majeur dans le domaine du stockage après le HBM.
Samsung a récemment publié un article lors d'une conférence académique de l'IEEE, révélant les dernières avancées de son système de mémoire CXL, « Pangea v2 ». Selon le média coréen Korea Economic Daily, ce système améliore les performances de transfert de données de 10,2 fois par rapport aux méthodes d'interconnexion traditionnelles telles que RDMA, tout en réduisant jusqu'à 96 % les goulets d'étranglement persistants dans les architectures mémoire traditionnelles, ce qui constitue une avancée technologique majeure dans le domaine du CXL.
Du côté de la demande, les géants de la technologie apportent un soutien concret à cette technologie. Selon The Information, Google a commencé à déployer le CXL dans ses centres de données et met en place des contrôleurs pour gérer le trafic de données entre le CPU et de grands pools de mémoire externe. NVIDIA prévoit d'intégrer la norme CXL 3.1 dans son processeur Vera, à lancer à la fin de cette année, une initiative considérée par l'industrie comme le plus grand test pratique du CXL à ce jour.
Bien que la chaleur de l'industrie s'intensifie clairement, la mise en œuvre à grande échelle de CXL fait face à une contrainte clé — cette technologie exige que le CPU, le GPU, la mémoire et les équipements réseau au sein des centres de données soient tous compatibles avec la même norme ; la complexité de la collaboration au sein de l'écosystème interindustriel constitue le seuil le plus difficile à franchir pour sa diffusion.
Samsung "Pangea v2" : performances considérablement améliorées, extension de la mémoire tampon dépassant 5,5 To
Le système "Pangea v2" présenté par Samsung représente les dernières avancées technologiques de l'entreprise dans le domaine du CXL.
Selon Korea Economic Daily, ce système, basé sur la norme CXL 2.0 lancée en 2020 par des entreprises telles qu'Intel et NVIDIA, intègre 22 modules CXL DRAM (CMM-D) en un seul pool de mémoire partagé, permettant à plusieurs serveurs d'accéder à une capacité mémoire maximale de 5,5 To. Samsung a collaboré avec l'entreprise mondiale de conception de semi-conducteurs Marvell et l'entreprise d'infrastructure IA Liquid AI lors du développement.
Sur le plan des performances, la capacité de transfert de données de Pangea v2 est améliorée de 10,2 fois par rapport aux solutions RDMA traditionnelles, avec une réduction des goulots d'étranglement jusqu'à 96 %.
Étant donné que la norme CXL a actuellement été mise à jour à la version 3.2, Samsung indique qu'il prévoit de lancer le « Pangea v3 » basé sur la dernière spécification d'ici 2026.
Les trois principaux fabricants de stockage entrent pleinement sur le marché, accélérant la formation du paysage concurrentiel
SK Hynix accélère également le développement du CXL.
Selon Korea Economic Daily, l'entreprise a lancé son premier DRAM CXL en 2022, puis a introduit en 2023 des produits compatibles avec CXL 2.0, et sa solution de mémoire CMM-DDR5 de 96 Go a été certifiée par les clients en 2025. Park Joon-deok, responsable du marketing DRAM de SK Hynix, a déclaré que l'entreprise poursuivra son leadership technologique avec une deuxième génération de produits prenant en charge CXL 3.0.
Micron a lancé ses propres modules de mémoire CXL en 2024, entrant officiellement sur le marché. Les trois principaux fabricants de stockage ayant achevé leur déploiement, le paysage concurrentiel du segment CXL commence à se dessiner.
Google et NVIDIA confirment la demande ; l'efficacité mémoire pour l'IA devient le moteur principal
La logique centrale qui attire l'attention du marché sur CXL réside dans sa capacité à résoudre efficacement le problème persistant de faible utilisation de la mémoire dans les serveurs IA.
Dans l'architecture actuelle, chaque GPU et CPU dépend d'une mémoire dédiée, avec une utilisation de la mémoire de seulement 20 % à 30 % dans des conditions normales. Le CXL permet à plusieurs GPU et CPU de partager dynamiquement un pool de mémoire unifié, augmentant ainsi considérablement l'efficacité d'utilisation des ressources.
Selon The Information, citant deux employés de Google, Google a été le premier à déployer CXL en production et évalue actuellement comment intégrer plus profondément des pools de mémoire externes dans ses systèmes afin d'accélérer l'accès des processeurs à la mémoire externe.
La CPU Vera d'NVIDIA prendra en charge la norme CXL 3.1, et son déploiement à grande échelle servira de référence essentielle pour déterminer si CXL peut évoluer d'un projet expérimental de quelques entreprises vers une solution fiable pour l'industrie.
Jin Kim, PDG de la startup sud-coréenne Xcena, déclare : « L'infrastructure IA nécessite une grande quantité de mémoire, et la hausse continue des prix de la mémoire oblige nos clients cibles à améliorer l'efficacité d'utilisation de la mémoire. Pour l'instant, aucune autre solution ne peut remplacer le CXL pour améliorer l'efficacité de la mémoire. »
Les barrières de synergie écologique sont élevées, et le calendrier de déploiement reste incertain
CXL fait face à des défis écologiques fondamentaux lors de son déploiement à grande échelle.
L'analyste semi-conducteurs de Bernstein Research, Mark Li, a déclaré : « Pour que le CXL fonctionne correctement, vous avez besoin de compatibilité entre le CPU, le GPU, la mémoire et le logiciel. Très peu d'entreprises maîtrisent simultanément ces produits et peuvent promouvoir une transformation coordonnée ; NVIDIA en est une, et Google en est une autre. »
Historiquement, AMD a lancé des puces serveur compatibles CXL en 2022, suivie par Intel en 2023, mais la mise en œuvre commerciale de ces deux produits a été très limitée. Même si Google a commencé à déployer CXL dans des environnements de production, les ingénieurs du secteur estiment généralement que la technologie CXL actuelle ne satisfait pas encore pleinement tous les besoins des grands fournisseurs de cloud.
Après chaque nouvelle version de la spécification du consortium CXL, les concepteurs de puces doivent consacrer un à deux ans à la refonte de leurs processeurs, suivis par les fabricants de composants qui développent des contrôleurs et des commutateurs compatibles, puis par les fabricants de mémoire qui adaptent leurs modules, et enfin par les constructeurs de serveurs qui effectuent plusieurs mois de tests de compatibilité — cette longue coordination de la chaîne d'approvisionnement constitue le seuil pratique que CXL doit franchir pour s'imposer. La mise en œuvre cette année du CPU Vera d'NVIDIA apportera la réponse la plus pertinente à ce jour pour le marché.
