AI hesaplama gücü talebinin sürekli artması ve depolama çipleri arz-talep çatışmasının şiddetlenmesi bağlamında, CXL (Compute Express Link) küçük bir teknolojiden endüstriye odak noktası haline gelmektedir. Samsung Electronics, SK Hynix ve Micron Technology sırayla yatırımlarını artırırken, Google ve NVIDIA'nın girişi, bu alanın HBM'den sonra depolama alanında yeni bir rekabet alanı haline geldiğini doğrulamıştır.
Samsung, yakın zamanda IEEE akademik konferansında "Pangea v2" adlı CXL bellek sistemiyle ilgili son gelişmeleri açıkladı. Güney Kore medyası韓國經濟'e göre, bu sistem, RDMA gibi geleneksel bağlantı yöntemlerine kıyasla veri aktarım performansını 10,2 kat artırırken, geleneksel bellek mimarisinde uzun süredir devam eden darboğaz sorunlarını %96 oranında azalttı ve CXL alanında önemli bir teknolojik atılım olarak görülüyor.
Talep tarafında, teknoloji devleri bu teknolojiye gerçek bir destek sağlıyor. The Information'a göre, Google veri merkezlerinde CXL'yi dağıtmaya başlamış ve CPU ile büyük dış bellek havuzları arasındaki veri trafiğini yönetmek için kontrolcüler kurmaya çalışıyor. NVIDIA ise, bu yılın sonlarında çıkarılacak Vera CPU'sunda CXL 3.1 standardını desteklemeyi planlıyor; bu adım sektörde şimdiye kadarki en büyük CXL uygulama testi olarak görülüyor.
Endüstrideki sıcaklık açıkça artmasına rağmen, CXL'in büyük ölçekli ticari kullanımı hala kritik bir kısıtlamayla karşı karşıya—bu teknoloji, veri merkezindeki CPU, GPU, bellek ve ağ cihazlarının tümünün aynı standartı desteklemesini gerektirir; bu, endüstriler arası ekosistem uyumunun karmaşıklığıdır ve benimsemesi için aşılması en zor engeldir.
Samsung "Pangea v2": Performans büyük bir sıçrama yapar, genişletilmiş bellek havuzu 5,5 TB'ı aşar
Samsung, "Pangea v2" sistemini CXL alanında en son teknoloji başarıları olarak sergiledi.
Kore Ekonomisi'ne göre, sistem, Intel, NVIDIA ve diğer şirketlerin 2020 yılında ortak olarak çıkardığı CXL 2.0 standardına dayanıyor ve 22 adet CXL DRAM modülünü (CMM-D) tek bir paylaşılan bellek havuzuna entegre ederek, birden fazla sunucunun en fazla 5,5 TB bellek kapasitesine erişmesini sağlıyor. Samsung, geliştirme sürecinde küresel yarı iletken tasarım şirketi Marvell ve AI altyapı şirketi Liquid AI ile iş birliği yaptı.
Performans açısından, Pangea v2'nin veri aktarım kapasitesi geleneksel RDMA çözümlerine kıyasla 10,2 kat daha yüksek olup, darboğaz iyileştirme oranı %96'ya ulaşmaktadır.
CXL standardı şu anda 3.2 sürümüne kadar geliştirildiğine göre, Samsung, en son standarta dayalı "Pangea v3" ürüünü 2026 yılı içinde piyasaya süreceğini açıkladı.
Üç büyük depolama üreticisi tamamen dahil oldu, rekabet yapısı hızla şekillendi
SK Hynix, CXL araştırmasını aynı şekilde hızlandırıyor.
Kore Ekonomisi'ne göre, şirket 2022 yılında ilk CXL DRAM'ını piyasaya sürdü, 2023 yılında CXL 2.0 ile uyumlu ürünleri takip etti ve CMM-DDR5 96 GB bellek çözümü 2025 yılında müşteri onayı aldı. SK Hynix DRAM pazarlama sorumlusu Park Joon-deok, şirketin CXL 3.0'u destekleyen ikinci nesil ürünlerle teknoloji liderliğini sürdüreceğini söyledi.
Micron, 2024'te kendi CXL bellek modülünü piyasaya sürerek resmen girdi. Üç ana depolama üreticisi sırayla yerleşimini tamamladı ve CXL yarışmasında rekabet yapısı ilk şeklini aldı.
Google ve NVIDIA taleplerini doğruluyor, AI bellek verimliliği temel sürücü haline geliyor
CXL'nin piyasa dikkatini çekmesinin temel nedeni, AI sunucularındaki düşük bellek kullanımını etkili bir şekilde çözebilmesidir.
Mevcut mimari altında, her GPU ve CPU, ayrılmış belleğe bağımlıdır ve normal çalışma koşullarında bellek kullanımı %20 ile %30 arasındadır. CXL, birden fazla GPU ve CPU'nun tek bir bellek havuzunu dinamik olarak paylaşmasını sağlayarak kaynak kullanım verimliliğini büyük ölçüde artırır.
The Information'ın谷歌 iki çalışanından elde ettiği bilgilere göre,谷歌, CXL'yi ilk olarak üretimde kullanmaya başladı ve işlemcinin dış belleğe erişim hızını artırmak için dış bellek havuzlarını daha derin bir şekilde sistemine entegre etme yollarını değerlendiriyor.
NVIDIA Vera CPU, CXL 3.1 standardını destekleyecektir ve büyük ölçekli piyasa girişi, CXL'nin az sayıdaki şirketin deneysel projesinden endüstriye güvenilir bir çözüm haline gelip gelmediğinin önemli bir ölçütü olacaktır.
Güney Koreli CXL startup şirketi Xcena'nın CEO'su Jin Kim, "AI altyapısı büyük bellek gerektirir, bellek fiyatları sürekli yükselmektedir ve bu da hedef müşterilerimizin bellek kullanım verimliliğini artırmaya zorlamaktadır; şu anda CXL'in bellek verimliliğini iyileştirmek için yerini alabilecek başka bir çözüm yoktur."
Ekosistem uyum engelleri yüksektir ve yaygınlaşma zaman çizelgesi hâlâ belirsizdir.
CXL, temel bir ekosistem zorluğuyla büyük ölçekli uygulamaya hazırlanıyor.
Bernstein Research'in yarı iletken analisti Mark Li, "CXL'nin düzgün çalışması için CPU, GPU, bellek ve yazılımın tümü uyumlu olmalıdır. Bu ürünlerin hepsini aynı anda kontrol edip ortak değişimi yönlendirebilen şirketler çok azdır; NVIDIA bunlardan biri, Google ise diğeridir."
Geçmiş verilere göre, AMD 2022 yılında ve Intel 2023 yılında CXL destekli sunucu çiplerini piyasaya sürdü, ancak her iki ürünün de ticari uygulaması oldukça sınırlı kaldı. Google bile üretim ortamlarında CXL’yi kullanmaya başlamış olsa da, sektör mühendisleri, mevcut CXL teknolojisinin büyük bulut sağlayıcılarının tüm ihtiyaçlarını tam olarak karşılamadığını düşünmektedir.
CXL Konsorsiyumu her yeni sürüm standardını belirlediğinde, çip tasarımcıları işlemcileri yeniden tasarlamak için bir ila iki yıl harcıyor, bileşen üreticileri uyumlu kontrolörler ve anahtar cihazlar oluşturuyor, depolama üreticileri bellek modüllerini değiştiriyor, sunucu üreticileri ise aylarca uyumluluk testleri gerçekleştiriyor—bu uzun zincir koordinasyonu, CXL’in yaygınlaşması için aşılması gereken gerçek bir engeldir. NVIDIA'nın bu yıl sunduğu Vera CPU'su, piyasaya kadar verilen en değerli yanıtı sunacaktır.
