Diante da demanda contínua por poder de computação em IA e da intensificação da discrepância entre oferta e demanda de chips de armazenamento, o CXL (Compute Express Link) está passando de uma tecnologia nicho para o centro das atenções da indústria. A Samsung Electronics, a SK Hynix e a Micron Technology aumentaram seus investimentos, enquanto o Google e a NVIDIA entraram no mercado para validação, transformando este setor no novo campo de competição no ramo de armazenamento após o HBM.
A Samsung recentemente publicou um artigo na conferência acadêmica da IEEE, revelando os últimos avanços em seu sistema de memória CXL, "Pangea v2". Segundo a mídia sul-coreana "Korea Economic Daily", o sistema aumenta o desempenho de transmissão de dados em 10,2 vezes em comparação com tecnologias tradicionais de interconexão como RDMA, além de reduzir em até 96% os gargalos persistentes na arquitetura de memória tradicional, sendo considerado uma importante inovação tecnológica no campo do CXL.
Na demanda, grandes empresas de tecnologia estão fornecendo validação prática para esta tecnologia. Segundo o The Information, o Google já começou a implementar CXL em seus data centers e está instalando controladores para gerenciar o tráfego de dados entre a CPU e grandes pools de memória externa. A NVIDIA planeja suportar o padrão CXL 3.1 em seu próximo CPU Vera, previsto para ser lançado ainda este ano, uma iniciativa considerada pelo setor como o maior teste prático de CXL até agora.
Apesar do aumento significativo do interesse do setor, a adoção em larga escala do CXL ainda enfrenta uma limitação crítica — essa tecnologia exige que CPU, GPU, memória e dispositivos de rede dentro de um data center suportem todos o mesmo padrão; a complexidade da colaboração ecológica entre setores é o obstáculo mais difícil de superar em seu caminho de adoção.
Samsung "Pangea v2": desempenho significativamente aprimorado, pool de memória expandido ultrapassa 5,5 TB
O sistema "Pangea v2" apresentado pela Samsung representa os mais recentes avanços tecnológicos da empresa na área de CXL.
Segundo o Korea Economic Daily, o sistema baseia-se no padrão CXL 2.0, lançado em 2020 por empresas como Intel e NVIDIA, e integra 22 módulos CXL DRAM (CMM-D) em um único pool de memória compartilhada, permitindo que múltiplos servidores acessem até 5,5 TB de capacidade de memória. A Samsung colaborou com a empresa global de design de semicondutores Marvell e a empresa de infraestrutura de IA Liquid AI durante o desenvolvimento.
Em termos de desempenho, a capacidade de transmissão de dados do Pangea v2 é 10,2 vezes superior às soluções tradicionais de RDMA, com uma melhoria de até 96% no gargalo.
Dado que o padrão CXL já foi atualizado para a versão 3.2, a Samsung afirmou planejar lançar o "Pangea v3" baseado na nova especificação dentro de 2026.
Três grandes fabricantes de armazenamento entram totalmente no mercado, acelerando a formação do cenário competitivo
SK Hynix também está acelerando o desenvolvimento de CXL.
Segundo o Korea Economic Daily, a empresa lançou seu primeiro DRAM CXL em 2022 e, em 2023, introduziu produtos compatíveis com CXL 2.0; sua solução de memória CMM-DDR5 de 96 GB já foi certificada por clientes em 2025. Park Joon-deok, responsável por marketing de DRAM da SK Hynix, afirmou que a empresa continuará a liderar tecnologicamente com seu segundo produto suportando CXL 3.0.
Micron Technology lançou seus próprios módulos de memória CXL em 2024, entrando oficialmente no mercado. As três principais fabricantes de armazenamento concluíram suas estratégias, e o cenário competitivo da tecnologia CXL começou a se formar.
Google e NVIDIA validam a demanda; a eficiência de memória AI torna-se o principal impulsionador
A lógica central por trás do CXL atrair a atenção do mercado é sua capacidade de resolver eficazmente o problema crônico de baixa utilização de memória em servidores de IA.
Na arquitetura atual, cada GPU e CPU depende de memória dedicada, com utilização de memória de apenas 20% a 30% em condições normais. O CXL permite que múltiplas GPUs e CPUs compartilhem dinamicamente um pool de memória unificado, aumentando significativamente a eficiência do uso de recursos.
Segundo informações de dois funcionários do Google, citadas pelo The Information, o Google já implementou o CXL em produção e está avaliando como integrar mais profundamente pools de memória externa em seus próprios sistemas para acelerar o acesso do processador à memória externa.
O CPU Vera da NVIDIA suportará o padrão CXL 3.1, e seu lançamento em larga escala servirá como referência importante para avaliar se o CXL poderá evoluir de um projeto experimental de poucas empresas para uma solução confiável da indústria.
Jin Kim, CEO da startup sul-coreana CXL, Xcena, disse: "A infraestrutura de IA exige grande quantidade de memória, e os preços da memória continuam subindo, o que obriga nossos clientes-alvo a aumentar a eficiência do uso da memória; atualmente, não há nenhuma outra solução capaz de substituir o CXL para melhorar a eficiência da memória."
Barreiras de sinergia ecológica elevadas, cronograma de adoção ainda incerto
O grande lançamento do CXL enfrenta desafios ecológicos fundamentais.
O analista de semicondutores da Bernstein Research, Mark Li, apontou: "Para que o CXL funcione corretamente, você precisa de CPU, GPU, memória e software todos compatíveis. Poucas empresas conseguem controlar simultaneamente esses produtos e impulsionar mudanças colaborativas; a NVIDIA é uma delas, e o Google é outra."
Historicamente, a AMD lançou chips de servidor compatíveis com CXL em 2022, seguida pela Intel em 2023, mas a adoção comercial de ambos os produtos foi muito limitada. Mesmo com o Google já começando a implantar CXL em ambientes de produção, engenheiros da indústria geralmente consideram que a tecnologia CXL atual ainda não atende completamente a todas as necessidades dos grandes provedores de nuvem.
Após cada nova versão do padrão ser definida pelo consórcio CXL, os projetistas de chips precisam gastar de um a dois anos para redesenhar os processadores; os fornecedores de componentes, em seguida, constroem controladores e dispositivos de comutação compatíveis; os fabricantes de armazenamento modificam os módulos de memória; e os fabricantes de servidores realizam meses de testes de compatibilidade — essa longa colaboração na cadeia de suprimentos é o obstáculo prático que o CXL precisa superar para se tornar amplamente adotado. A implementação da CPU Vera da NVIDIA este ano fornecerá a resposta mais valiosa até agora para o mercado.
