En el contexto de la demanda continua de potencia de cómputo de IA y la intensificación de la tensión entre la oferta y la demanda de chips de almacenamiento, CXL (Compute Express Link) está pasando de ser una tecnología nicho a convertirse en un foco industrial. Samsung Electronics, SK Hynix y Micron Technology han aumentado sus inversiones, mientras que Google y NVIDIA han entrado para validarla, convirtiendo este sector en la nueva zona de competencia en almacenamiento tras HBM.
Samsung publicó recientemente un artículo en una conferencia académica de la IEEE, revelando los últimos avances en su sistema de memoria CXL, "Pangea v2". Según el medio surcoreano "Korea Economic Daily", este sistema mejora el rendimiento de transferencia de datos hasta 10.2 veces en comparación con tecnologías de interconexión tradicionales como RDMA, y reduce hasta en un 96% los cuellos de botella persistentes en la arquitectura de memoria tradicional, considerándose un importante avance técnico en el campo de CXL.
En el lado de la demanda, los gigantes tecnológicos están brindando respaldo real a esta tecnología. Según The Information, Google ya ha comenzado a implementar CXL en sus centros de datos y está instalando controladores para gestionar el flujo de datos entre la CPU y grandes piscinas de memoria externa. NVIDIA planea admitir el estándar CXL 3.1 en su próxima CPU Vera, que se lanzará a finales de este año, un movimiento considerado por la industria como la prueba práctica más grande de CXL hasta la fecha.
A pesar de que el interés de la industria ha aumentado claramente, la comercialización a gran escala de CXL enfrenta una restricción clave: esta tecnología requiere que la CPU, la GPU, la memoria y los dispositivos de red dentro del centro de datos admitan todos el mismo estándar; la complejidad de la colaboración ecológica entre industrias es el obstáculo más difícil de superar en su camino hacia la adopción.
Samsung "Pangea v2": rendimiento significativamente mejorado, memoria ampliada supera los 5,5 TB
El sistema "Pangea v2" presentado por Samsung representa los últimos avances tecnológicos de la empresa en el campo de CXL.
Según Korea Economic Daily, el sistema se basa en el estándar CXL 2.0 lanzado conjuntamente por empresas como Intel y NVIDIA en 2020, e integra 22 módulos CXL DRAM (CMM-D) en un único pool de memoria compartida, permitiendo que múltiples servidores accedan a una capacidad de memoria de hasta 5,5 TB. Samsung colaboró durante el desarrollo con la empresa global de diseño de semiconductores Marvell y la empresa de infraestructura de IA Liquid AI.
En términos de rendimiento, la capacidad de transmisión de datos de Pangea v2 es 10.2 veces superior a la de los esquemas RDMA tradicionales, con una mejora del 96% en los cuellos de botella.
Dado que el estándar CXL ya ha sido actualizado a la versión 3.2, Samsung indica que planea lanzar dentro de 2026 el "Pangea v3" basado en la última especificación.
Tres grandes fabricantes de almacenamiento entran completamente al mercado, acelerando la formación del panorama competitivo
SK Hynix también acelera el desarrollo de CXL.
Según Korea Economic Daily, la empresa lanzó su primer DRAM CXL en 2022 y siguió con productos compatibles con CXL 2.0 en 2023; su solución de memoria CMM-DDR5 de 96 GB ya ha completado la certificación del cliente en 2025. Park Joon-deok, responsable de marketing de DRAM de SK Hynix, indicó que la empresa continuará manteniendo su liderazgo tecnológico con una segunda generación de productos que admitan CXL 3.0.
Micron Technology lanzó sus propios módulos de memoria CXL en 2024, entrando oficialmente al mercado. Los tres principales fabricantes de almacenamiento han completado sus estrategias, y el panorama competitivo del segmento CXL ha comenzado a tomar forma.
Google y NVIDIA validan la demanda; la eficiencia de memoria en IA se convierte en el impulsor principal
La lógica central detrás de la atención que recibe CXL es que puede resolver eficazmente el problema crónico de baja utilización de memoria en los servidores de IA.
Bajo la arquitectura actual, cada GPU y CPU depende de memoria dedicada, con una utilización de memoria normal del 20% al 30%. CXL permite que múltiples GPU y CPU compartan dinámicamente un pool de memoria unificado, aumentando significativamente la eficiencia del uso de recursos.
Según The Information, citando a dos empleados de Google, Google ha implementado por primera vez CXL en producción y está evaluando cómo integrar más profundamente los pools de memoria externa en sus propios sistemas para acelerar el acceso del procesador a la memoria externa.
La CPU Vera de NVIDIA admitirá el estándar CXL 3.1, y su lanzamiento a gran escala servirá como referencia clave para determinar si CXL puede evolucionar desde un proyecto experimental de pocas empresas hasta una solución confiable para la industria.
Jin Kim, CEO de la startup surcoreana CXL, Xcena, dijo: "La infraestructura de IA requiere una gran cantidad de memoria, y el precio de la memoria sigue aumentando, lo que obliga a nuestros clientes objetivo a mejorar la eficiencia del uso de la memoria; actualmente no existe ninguna otra solución que pueda reemplazar a CXL para mejorar la eficiencia de la memoria."
Los altos obstáculos de colaboración ecológica y la incertidumbre persisten en el cronograma de adopción
CXL enfrenta desafíos ecológicos fundamentales en su implementación a gran escala.
El analista de semiconductores de Bernstein Research, Mark Li, señaló: "Para que CXL funcione correctamente, necesitas que la CPU, la GPU, la memoria y el software sean todos compatibles. Son muy pocas las empresas que pueden controlar simultáneamente estos productos e impulsar cambios colaborativos; NVIDIA es una de ellas, y Google es otra."
Según el historial, AMD lanzó chips de servidor compatibles con CXL en 2022, e Intel lo hizo en 2023, pero la implementación comercial de ambos productos ha sido muy limitada. Aunque Google ya ha comenzado a implementar CXL en entornos de producción, los ingenieros de la industria consideran en general que la tecnología CXL actual aún no satisface completamente todas las necesidades de los grandes proveedores de nube.
Después de que el consorcio CXL defina cada nueva versión de especificación, los diseñadores de chips requieren de uno a dos años para rediseñar los procesadores; luego, los fabricantes de componentes construyen controladores y dispositivos de conmutación compatibles; los fabricantes de almacenamiento modifican los módulos de memoria; y finalmente, los fabricantes de servidores realizan varios meses de pruebas de compatibilidad: esta larga colaboración en la cadena de suministro es el umbral real que CXL debe superar para alcanzar la adopción masiva. La implementación de la CPU Vera de NVIDIA este año proporcionará la respuesta más valiosa hasta la fecha para el mercado.
