AI計算能力の需要が継続的に拡大し、ストレージチップの需給矛盾が深刻化する中、CXL(Compute Express Link)はニッチな技術から業界の注目焦点へと移行している。サムスン電子、SKハニックス、マイクロン・テクノロジーが次々と投資を強化し、グーグルとNVIDIAが参入して検証を進めていることから、この分野はHBMに続くストレージ領域における新たな競争の場となっている。
サムスンは最近のIEEE学術会議で、CXLメモリシステム「Pangea v2」の最新進展を発表しました。韓国メディア『韓国経済』の報道によると、このシステムはRDMAなどの従来のインターコネクト方式と比較してデータ転送性能が10.2倍向上し、従来のメモリアーキテクチャに長年存在していたボトルネック問題を最大96%低減したとされ、CXL分野における重要な技術的ブレークスルーと見られています。
需要側では、テクノロジー大手がこの技術に現実的な裏付けを提供しています。The Informationによると、グーグルはデータセンターでCXLの導入を開始し、CPUと大規模な外部メモリプール間のデータトラフィックを管理するためのコントローラーの設置を進めています。一方、NVIDIAは今年後半にリリース予定のVera CPUでCXL 3.1標準をサポートする計画であり、これは業界でこれまで最大規模のCXL実用検証と見なされています。
業界の関心が明らかに高まっている一方で、CXLの大規模商用化には重要な制約が存在する——この技術は、データセンター内のCPU、GPU、メモリ、ネットワーク機器がすべて同一の標準をサポートすることを要求しており、業界横断的なエコシステムの連携の複雑さが、その普及における最大の障壁となっている。
サムスン「Pangea v2」:パフォーマンスが大幅に向上し、拡張メモリプールが5.5TBを超える
サムスンが提示した「Pangea v2」システムは、同社がCXL分野で達成した最新の技術成果を示しています。
『韓国経済』の報道によると、このシステムは、インテルやNVIDIAなどの企業が2020年に共同で発表したCXL 2.0標準に基づいており、22個のCXL DRAMモジュール(CMM-D)を単一の共有メモリプールに統合し、複数のサーバーが最大5.5TBのメモリ容量にアクセスできるようにします。サムスンは開発プロセスで、世界的な半導体設計企業のMarvellおよびAIインフラ企業のLiquid AIと協力しました。
パフォーマンス面で、Pangea v2のデータ転送能力は従来のRDMAソリューションと比較して10.2倍向上し、ボトルネックの改善率は最大96%です。
CXL標準が現在バージョン3.2に進化したことを受けて、サムスンは2026年内に最新仕様に基づく「Pangea v3」をリリースする計画であると表明しました。
主要な3社のストレージベンダーが全面参入し、競争構図が急速に形成されつつある
SKハイニックスもCXLの開発を加速しています。
『韓国経済』の報道によると、同社は2022年に初のCXL DRAMを発表し、2023年にはCXL 2.0に対応する製品を追加でリリースしました。CMM-DDR5 96GBメモリソリューションは2025年に顧客認証を完了しています。SKハイニックスDRAMマーケティング責任者の朴俊徳氏は、同社はCXL 3.0をサポートする第2世代製品で技術的リーダーシップを継続すると述べています。
マイクロンは2024年に自社開発のCXLメモリモジュールを発表し、正式に参入。主要な3社のストレージメーカーが次々と布局を完了し、CXL分野の競争構図が初步的に形成された。
グーグル、NVIDIAが需要を検証、AIメモリ効率が主要な駆動要因に
CXLが市場の注目を集める核心的なロジックは、AIサーバーにおけるメモリ利用率の低さという長期的な課題を効果的に解決できることにある。
現在のアーキテクチャでは、各GPUおよびCPUは専用メモリに依存しており、通常の運用条件下でのメモリ利用率は20%~30%に過ぎません。CXLにより、複数のGPUおよびCPUが統合されたメモリプールを動的に共有でき、リソース利用効率が大幅に向上します。
The Informationがグーグルの従業員2人の情報として報じたところによると、グーグルはCXLを最初に生産環境に導入し、プロセッサが外部メモリにアクセスする速度を向上させるために、外部メモリプールをより深く自社システムに統合する方法を評価中である。
NVIDIAのVera CPUはCXL 3.1標準をサポートし、その大規模な市場投入は、CXLが少数企業の実験プロジェクトから業界信頼のソリューションへと進化できるかを測る重要な指標となる。
韓国のCXLスタートアップXcenaのCEO、Jin Kimは、「AIインフラは大量のメモリを必要とし、メモリ価格の継続的な上昇により、私たちのターゲット顧客はメモリ利用効率を向上させる必要があります。現在、CXLに代わるメモリ効率を改善する他の手段は存在しません。」
エコシステムの相互連携による障壁が高く、普及スケジュールには依然として不確実性が残っている
CXLの大規模導入は根本的なエコシステムの課題に直面している。
ベルンスタインリサーチの半導体アナリスト、マーク・リーは、「CXLを正常に動作させるには、CPU、GPU、メモリ、ソフトウェアのすべてが互換性を備える必要がある。これらの製品を同時に統括し、協調的な変革を推進できる企業は非常に限られており、NVIDIAとGoogleがその一例である。」
歴史的な記録によると、AMDは2022年、インテルは2023年にCXL対応のサーバーチップをそれぞれ発表しましたが、両製品の商業的実装はいずれも限定的でした。グーグルが生産環境でCXLを導入し始めたにもかかわらず、業界のエンジニアたちは、現在のCXL技術が大手クラウドサービスプロバイダーのすべての要件を完全に満たしていないと広く認識しています。
CXLコンソーシアムが新しいバージョンの仕様を確定するたびに、チップ設計企業は1〜2年かけてプロセッサを再設計し、部品メーカーは互換性のあるコントローラーとスイッチデバイスを構築し、ストレージメーカーはメモリモジュールを改造し、サーバーメーカーはさらに数ヶ月にわたって互換性テストを実施する——この長いサプライチェーンの協調は、CXLが普及するために乗り越えなければならない現実の障壁である。NVIDIAのVera CPUが今年実現するかどうかは、市場にこれまでで最も参考価値の高い答えを提供するだろう。
