No futuro você colocará memória no PCI EXPRESS, pelo menos nos servidores
O que é CXL (e PCIe 5.0)
Let's learn more about the world's most important manufactured product. Meaningful insight, timely analysis, and an occasional investment idea.
www.fabricatedknowledge.com
O gargalo é simples. No modelo Von Neumann de computação
1 , a estrutura padrão dos computadores atuais, um computador recebe informações da memória, processa-as e coloca a solução de volta na memória.
O problema é que a busca de dados da memória para a CPU sempre foi mais lenta e, portanto, um gargalo. À medida que os processadores se tornaram mais rápidos, as taxas de memória não. Abaixo está um gráfico da lacuna de memória e processador.
CXL é um
protocolo para conectar chips. É importante ressaltar que o CXL terá coerência e uma maneira de uma CPU ou acelerador se comunicar pela malha para falar com a memória fora de seu rack de servidor. Ao habilitar isso, você pode criar pools de computação, aceleração e memória, e tudo funcionará em uma grande matriz paralela. Esse é o sonho, pelo menos.
Estamos um pouco longe desse sonho, mas estamos começando o processo de algumas tecnologias-chave e capacitadores da topologia de data center mais provável no futuro. A parte crítica sobre a adoção do CXL é que a especificação 2.0 está efetivamente emparelhada com a especificação PCIe 5.0, e já que estamos prestes a começar a implantar o PCIe 5.0 no data center. Este é o início da curva de adoção do CXL.
CXL vem em três sabores diferentes; CXL.io, CXL.cache e CXL.memory. CXL.io é efetivamente PCIe 5.0, CXL.cache é focado em aceleradores capazes de acessar a memória em pool e CXL.memory é focado em oferecer configurações de memória em pool.
O FUTURO DA MEMÓRIA DO SISTEMA É PRINCIPALMENTE CXL
What is the most expensive component that hyperscalers and cloud builders put into their X86 servers? It is the GPU accelerator, correct. So let’s ask
www.nextplatform.com
Como Omura aponta no gráfico acima, outro problema é que a contagem de núcleos nas CPUs está se expandindo mais rapidamente do que a largura de banda da memória; . E, finalmente, além de alguns projetos científicos, não há como agregar memória e mover a computação para mais perto dela para que possa ser processada no local, o que limita o desempenho geral dos sistemas. Gen Z da Hewlett Packard Enterprise, OpenCAPI da IBM e CCIX da Xilinx e do coletivo Arm eram todos candidatos a memória convergente e transporte de E/S, mas claramente o CXL da Intel emergiu como o padrão que todos seguirão em o longo prazo.
“O CXL está ganhando muita força e está trabalhando basicamente com todos os principais hiperescaladores em suas arquiteturas, ajudando-os a descobrir como implantarão essa tecnologia”, diz Omura. Daí a aquisição da Tanzanite, cujo valor não foi divulgado, que foi concluída no final de maio.
Com o chip SLIC, a Marvell poderá ajudar a indústria a criar fatores de forma DIMM padrão com controladores de expansão CXL, bem como módulos de memória expandida mais gordos e altos que são maiores que os fatores de forma DIMM. (A IBM fez o último com várias gerações de seus servidores Power Systems e seus "Centauros" caseiros: controladores de memória em buffer.)
A primeira coisa que a memória CXL fará é abrir a largura de banda da memória nos controladores DRAM e PCI-Express nos processadores modernos, diz Omura. E nós concordamos.
Se você tem um sistema hoje e tem uma largura de banda definida em seus slots de memória, pode aumentar a capacidade adicionando dois DIMMs por canal de memória, mas cada DIMM obtém metade da largura de banda de memória. Mas com a adição de DIMMs de memória CXL ao sistema usando o chip SLIC, você pode usar uma parte significativa do barramento PCI-Express para adicionar mais canais de memória ao sistema. É certo que a largura de banda que sai dos slots PCI-Express 5.0 não é tão alta e a latência não é tão baixa quanto com os controladores DRAM no chip, mas funciona.
E em algum momento, quando o PCI-Express 6.0 estiver fora, pode não haver necessidade de controladores de memória DDR5 ou DDR6 em certas classes de processadores, e os controladores DDR podem se transformar em peças exóticas tanto quanto a memória empilhada HBM é exótica e apenas para especial casos de uso. A esperança para a memória CXL sobre PCI-Express 5.0 e 6. 0 não será muito pior (se for o caso) do que passar pelos links NUMA para um soquete adjacente em um sistema de vários soquetes, e pode ser ainda menos incômodo, uma vez que as portas CXL são literalmente as principais portas de memória em sistemas e DDR e HBM são as memórias especializadas e exóticas que são usadas apenas quando necessário. Pelo menos é o que pensamos que pode acontecer.
A expansão da memória CXL é apenas o primeiro estágio dessa evolução. Não demorará muito para que os chips CXL, como o SLIC da Marvell, sejam usados para criar pools de memória compartilhada em diversos – e muitas vezes incompatíveis – mecanismos de computação e, ainda mais adiante, podemos esperar que haja infraestrutura de comutação CXL que crie um malha combinável entre diferentes tipos de dispositivos de memória e diferentes tipos de mecanismos de computação. Assim:
E então, daqui a alguns anos, como já falamos várias vezes, teremos a verdadeira capacidade de composição dentro dos racks do datacenter, e não apenas para GPUs e flash trabalhando em PCI-Express. Mas em computação, memória e armazenamento de todos os tipos.