На тлі постійного зростання попиту на AI-обчислювальну потужність та посилення дисбалансу між попитом і пропозицією на чіпи пам’яті, CXL (Compute Express Link) переходить від нишевої технології до центру уваги галузі. Samsung Electronics, SK Hynix та Micron Technology посилюють свої інвестиції, а Google та NVIDIA вступають у гру, перетворюючи цей сектор на новий політ конкуренції в сфері пам’яті після HBM.
Недавно Samsung опублікувала статтю на академічній конференції IEEE, в якій розкрила останні досягнення своєї системи пам’яті CXL «Pangea v2». За повідомленням корейських ЗМІ «Корейська економіка», продуктивність передачі даних цієї системи вища в 10,2 рази порівняно з традиційними методами з’єднання, такими як RDMA, а також зменшує тривалі проблеми з обмеженнями в традиційній архітектурі пам’яті до 96%, що вважається важливим технологічним проривом у галузі CXL.
З боку попиту технологічні гіганти надають цій технології реальне підтвердження. За даними The Information, Google вже розпочав розгортання CXL у центрах обробки даних і встановлює контролери для управління потоками даних між CPU та великою зовнішньою пам’яттю. NVIDIA планує підтримати стандарт CXL 3.1 у своєму CPU Vera, який буде запущений у кінці цього року — цей крок вважається найбільшим на сьогодні практичним тестуванням CXL.
Незважаючи на явне зростання інтересу в галузі, масове комерційне впровадження CXL стикається з ключовими обмеженнями — ця технологія вимагає, щоб у центрі обробки даних CPU, GPU, пам’ять та мережеві пристрої підтримували один і той самий стандарт, а складність міжгалузевої екосистемної взаємодії є найважчим бар’єром на шляху до її поширення.
Samsung "Pangea v2": значне збільшення продуктивності, розширений пул пам’яті понад 5,5 ТБ
Система "Pangea v2", продемонстрована Samsung, є найновішим досягненням компанії в галузі CXL.
За повідомленням «Корейської економіки», ця система, заснована на стандарті CXL 2.0, запровадженому компаніями Intel, NVIDIA та іншими у 2020 році, об’єднує 22 модулі CXL DRAM (CMM-D) у єдиний спільний пул пам’яті, що дозволяє кільком серверам отримувати доступ до об’єму пам’яті до 5,5 ТБ. Samsung співпрацювала з глобальною компанією з проектування напівпровідників Marvell та компанією з інфраструктури штучного інтелекту Liquid AI під час розробки.
На рівні продуктивності пропускна здатність передачі даних Pangea v2 у 10,2 раза вища, ніж у традиційних рішеннях RDMA, а вдосконалення обмежень досягає 96%.
Оскільки стандарт CXL наразі оновлено до версії 3.2, Samsung повідомив про плани випуску «Pangea v3» на основі останніх специфікацій у 2026 році.
Три провідні виробники сховищ повністю ввійшли на ринок, конкуренційна ситуація прискорюється
SK Hynix також прискорює розробку CXL.
За повідомленням «Корейської економіки», компанія випустила перший CXL DRAM у 2022 році, а в 2023 році представила продукт, сумісний із CXL 2.0; її рішення CMM-DDR5 об’ємом 96 ГБ було сертифіковане клієнтами у 2025 році. Парк Джун-Док, керівник з маркетингу DRAM SK Hynix, зазначив, що компанія продовжить підтримувати технологічне лідерство за допомогою другого покоління продуктів із підтримкою CXL 3.0.
Micron Technology випустила власні модулі пам’яті CXL у 2024 році, офіційно увійшовши на ринок. Три основні виробники пам’яті завершили свої розгорнуті стратегії, і конкуренційна картина на ринку CXL почала формуватися.
Google та NVIDIA підтверджують попит, ефективність пам’яті ШІ стає ключовим драйвером
Основна логіка, через яку CXL звернув на себе увагу ринку, полягає в тому, що він ефективно вирішує проблему низької використовуваності пам’яті в AI-серверах.
У поточній архітектурі кожен GPU та CPU залежать від власної пам’яті, і при нормальному режимі роботи використання пам’яті становить лише 20–30%. CXL дозволяє кільком GPU та CPU динамічно ділити єдиний пул пам’яті, що значно підвищує ефективність використання ресурсів.
За даними The Information, двоє співробітників Google повідомили, що Google першою впровадила CXL у виробництво і зараз оцінює, як глибше інтегрувати зовнішні пули пам’яті до своїх систем, щоб прискорити доступ процесора до зовнішньої пам’яті.
Процесор Vera від NVIDIA підтримуватиме стандарт CXL 3.1, і його масовий вихід на ринок стане важливим показником для оцінки того, чи зможе CXL перетворитися з експериментального проекту декількох компаній у надійне галузеве рішення.
Генеральний директор корейської стартап-компанії Xcena Джин Кім сказав: «Інфраструктура ШІ вимагає великої кількості пам’яті, ціни на пам’ять постійно зростають, що змушує наших цільових клієнтів підвищувати ефективність використання пам’яті; наразі немає інших рішень, які могли б замінити CXL для покращення ефективності пам’яті».
Високі бар’єри екосистемної синергії, терміни масового впровадження залишаються невизначеними
CXL стикається з фундаментальними екосистемними викликами при масштабному впровадженні.
Аналітик з напівпровідників від Bernstein Research Марк Лі зазначив: «Щоб CXL працював коректно, вам потрібно, щоб CPU, GPU, пам’ять та програмне забезпечення були сумісні. Дуже мало компаній можуть одночасно контролювати ці продукти й стимулювати спільну зміну; NVIDIA — одна з них, а Google — інша».
З історичних даних видно, що AMD випустила серверні чіпи з підтримкою CXL у 2022 році, а Intel — у 2023 році, але комерційне застосування обох продуктів було дуже обмеженим. Навіть якщо Google вже почав впроваджувати CXL у виробничих середовищах, інженери галузі вважають, що сучасна технологія CXL ще не повністю задовольняє всі потреби великих хмарних провайдерів.
Після кожного визначення нової версії специфікації консорціумом CXL, виробники чіпів витрачають один-два роки на переробку процесорів, постачальники компонентів створюють сумісні контролери та комутаційні пристрої, виробники пам’яті модифікують модулі пам’яті, а виробники серверів проводять місяці тестування на сумісність — ця довга координація ланцюга постачання є реальним бар’єром, який потрібно подолати для поширення CXL. Реалізація Vera CPU від NVIDIA цього року надасть ринку найбільш цінну на сьогодні відповідь.
