Sa ilalim ng patuloy na paglalago ng pangangailangan sa AI computing power at pagpapalala ng pagkakaiba sa suplay at demand ng mga chip sa pag-iimbak, ang CXL (Compute Express Link) ay mula sa isang niche technology ay naging sentro ng industriya. Ang Samsung Electronics, SK Hynix, at Micron Technology ay patuloy na nagpapalakas ng kanilang pagpapalaganap, habang ang Google at NVIDIA ay sumali upang patunayan, gawaing ito ang bagong harapan ng kompetisyon sa larangan ng pag-iimbak pagkatapos ng HBM.
Kabilang sa recent na pagpapakita ng Samsung sa IEEE academic conference, ipinakilala nila ang kanilang CXL memory system na "Pangea v2". Ayon sa Korean media na "Korea Economic Daily", mas mataas ang performance ng data transfer ng sistema ng 10.2 beses kumpara sa tradisyonal na connection methods tulad ng RDMA, at nabawasan nang hanggang 96% ang matagal nang problema sa tradisyonal na memory architecture, na itinuturing na mahalagang teknikal na pag-usbong sa larangan ng CXL.
Sa demand side, ang mga malalaking tech company ay nagbibigay ng real-world endorsement sa teknolohiyang ito. Ayon sa The Information, ang Google ay nagsimula nang i-deploy ang CXL sa kanilang data centers at nagpapalakas ng mga controller upang pamahalaan ang paggalaw ng data sa pagitan ng CPU at malalaking external memory pool. Ang NVIDIA naman ay planong suportahan ang CXL 3.1 standard sa kanilang darating na Vera CPU sa huli ng taon, isang hakbang na itinuturing ng industriya bilang pinakamalaking real-world test ng CXL hanggang sa kasalukuyan.
Bagaman malinaw ang pagtaas ng interes sa industriya, ang malawakang komersyal na paggamit ng CXL ay nagtatagpo ng mahalagang hadlang—ang teknolohiyang ito ay nangangailangan na ang lahat ng CPU, GPU, memorya, at network device sa data center ay sumusuporta sa iisang pamantayan, at ang kumplikadong koordinasyon sa pagitan ng mga ekosistema ay ang pinakamahirap na hadlang sa pagpapalaganap nito.
Samsung "Pangea v2": Malaking pagtaas sa performance, napalawak ang memory pool patungo sa higit sa 5.5TB
Ang sistema na ipinakita ni Samsung na "Pangea v2" ay nagpapakita ng kanilang pinakabagong teknolohiya sa larangan ng CXL.
Ayon sa Korea Economic Daily, batay sa CXL 2.0 standard na ipinakilala noong 2020 ng mga kumpanya tulad ng Intel at NVIDIA, pinagsasama ng sistema ang 22 CXL DRAM modules (CMM-D) sa isang solong shared memory pool na makakasuporta sa maraming server na makakapag-access sa maximum na 5.5TB na memory capacity. Nagtulungan ang Samsung sa pagbuo ng sistema kasama ang global semiconductor design company na Marvell at ang AI infrastructure company na Liquid AI.
Sa antas ng performance, tumataas ng 10.2 beses ang kakayahan ng Pangea v2 sa pagdadala ng data kumpara sa tradisyonal na RDMA, at tumataas ng 96% ang pagpapabuti sa bottleneck.
Dahil ang CXL standard ay kasalukuyang nasa bersyon 3.2, sinabi ng Samsung na plano nilang ilunsad ang "Pangea v3" na batay sa pinakabagong spesipikasyon sa loob ng 2026.
Tatlong pangunahing manufacturer ng storage ay buong pagsali, nagmumula ang pagkakasundo ng kompetisyon
Kasunod din ng SK Hynix ang pagpapabilis ng pag-aaral ng CXL.
Ayon sa Korea Economic Daily, ang kumpanya ay naglunsad ng unang CXL DRAM noong 2022, sumunod ang produkto na kompatibulo sa CXL 2.0 noong 2023, at ang kanilang CMM-DDR5 96GB memory solution ay natapos na ang customer certification noong 2025. Sinabi ni Park Joon-deok, head of DRAM marketing ng SK Hynix, na ang kumpanya ay magpapatuloy sa pagpapanatili ng kanilang teknolohikal na liderato sa pamamagitan ng pangalawang henerasyon ng produkto na suporta sa CXL 3.0.
Ipinakilala ng Micron Technology ang kanilang sariling CXL memory module noong 2024, at pumasok nang opisyal. Matapos ng tatlong pangunahing tagagawa ng storage, natapos na ang kanilang pagkakaroon ng posisyon, at nagsimula nang bumuo ang kompetisyon sa CXL赛道.
Ang Google at NVIDIA ay nag-verify ng demand; ang efficiency ng AI memory ang pangunahing driver
Ang pangunahang lohika kung bakit binabanggit ang CXL ay dahil ito ay epektibong lutasin ang matagal nang problema ng mababang paggamit ng memorya sa AI server.
Sa kasalukuyang arkitektura, bawat GPU at CPU ay nakasalalay sa eksklusibong memorya, at ang paggamit ng memorya ay nasa 20% hanggang 30% lamang sa normal na kondisyon. Ang CXL ay nagpapahintulot sa maraming GPU at CPU na magbahagi nang dinamiko ng isang iisang memory pool, na nagpapataas nang malaki ang efisiyensiya ng paggamit ng mga yunit.
Ayon sa The Information, batay sa impormasyon ng dalawang empleyado ng Google, ang Google ay naging unang nag-deploy ng CXL sa produksyon at kasalukuyang nag-e-evaluate kung paano mas lalalim ang integrasyon ng external memory pool sa kanilang mga sistema upang mabilisain ang pag-access ng processor sa external memory.
Ang英伟达Vera CPU ay magiging suportado ng CXL 3.1, at ang kanyang malawakang pagpasok sa merkado ay magiging mahalagang talaan kung makakapag-ebolusyon ang CXL mula sa mga eksperimentong proyekto ng ilang kumpanya patungo sa isang mapagkakatiwalaang solusyon sa industriya.
Sinabi ni Jin Kim, CEO ng Korean startup Xcena: "Kailangan ng AI infrastructure ng malaking memory, at patuloy na tumataas ang presyo ng memory, na nagpupukaw sa aming target customer na pataasin ang efficiency ng memory gamit. Sa kasalukuyan, wala pang ibang solusyon na makakapalit sa CXL upang mapabuti ang memory efficiency."
mataas ang hadlang sa koordinasyon ng ekosistema, at mayroon pa ring kakaibang takdang panahon sa pagpapalaganap
Ang malawakang pagpapatupad ng CXL ay nakakatagpo ng mga pangunahing hamon sa ekosistema.
Ang analista ng semiconductor ni Bernstein Research, Mark Li, ay nagpapahiwatig: "Upang maging epektibo ang CXL, kailangan mong magkaroon ng kompatibleng CPU, GPU, memorya, at software. Kaunti lamang ang mga kumpanya na kayang kontrolin ang lahat ng mga produktong ito at ipagpatuloy ang kolaboratibong pagbabago—ang NVIDIA ay isa sa mga ito, at ang Google ay ang isa pang isa."
Batay sa kasaysayan, inilabas ng AMD ang server chip na sumusuporta sa CXL noong 2022, at ang Intel noong 2023, ngunit ang komersyal na pagpapatupad ng parehong produkto ay napakalimita. Kahit na ang Google ay nagsimula nang i-deploy ang CXL sa production environment, ang mga inhinyero sa industriya ay nananatiling naniniwala na ang kasalukuyang teknolohiya ng CXL ay hindi pa lubos na nakakasagot sa lahat ng pangangailangan ng mga malalaking cloud service provider.
Pagkatapos ng bawat pagkakataon na matukoy ng CXL Consortium ang bagong bersyon ng spesipikasyon, kailangan ng mga tagagawa ng chip na mag-redesign ng processor sa loob ng isang hanggang dalawang taon, sumunod ang mga tagagawa ng komponente na bumuo ng mga kompatibleng controller at switch device, pagkatapos ay baguhin ng mga tagagawa ng memorya ang kanilang memory modules, at huli ay magpasa ng ilang buwan ng pagsubok sa kompatibilidad ng mga tagagawa ng server—ang mahabang koordinasyon sa supply chain na ito ay ang praktikal na hadlang na kailangang laktawan para sa pagkakaroon ng pangkalahatang paggamit ng CXL. Ang pagpapalabas ng Vera CPU ni NVIDIA sa taong ito ay magbibigay sa merkado ng pinakamalaking batayan na sagot hanggang sa kasalukuyan.
