A pura confusão em torno dessa situação de SSD é o exemplo perfeito da evolução da arquitetura versus revolução
Enquanto a internet explode em uma guerra verbal entre todos, parece que existe um fio comum aparecendo praticamente em toda parte e essa é a pura confusão na situação do SSD. Basicamente, em todos os aspectos, é apenas confusão. É bastante compreensível, porque, além do mais, quando os SSDs se tornaram populares nos PCs e começaram a ver os primeiros aumentos além dos HDDs, não havia muito cuidado ou pensamento sobre os dispositivos de armazenamento. Quem se importa, eles seguram seus jogos e é isso.
Mas, nos últimos anos, algo começou a acontecer. Enquanto nossas GPUs continuavam melhorando, nossas CPUs continuavam melhorando, tudo continuava melhorando, algo estranho ocorreu. Os SSDs também estavam ficando muito mais rápidos, mas o que estava acontecendo era que os jogos não estavam mais carregando mais rápido. Eles fizeram no começo, por que não agora?
E isso leva a uma declaração simples que Cerny fez durante sua apresentação.
Evolução vs. Revolução
Embora tenha havido essa verdadeira revolução no POTENCIAL throughput de dados dos SSDs, nunca houve uma revolução igual na ARQUITETURA para apoiar essa revolução. Então você começou a ver essa parede gigante parando para impedir qualquer avanço com potencial de taxa de transferência do PC.
Basta ir a essa seção de comentários e assistir a pura confusão sobre o que diabos está acontecendo. O estado mais bonito é a culpa dos desenvolvedores. "Programação com HDDs em mente". Eu já ouvi isso muitas vezes em muitos lugares também, mas ... Não. Não há código mágico que os desenvolvedores tenham ignorado por algum motivo estranho que de alguma forma faria o processo de carregamento de dados passar de 30 segundos para 3 segundos nos SSDs de PC . Eles estão aguardando 10 anos para que os consoles tenham SSDs.
Então, por que o PS5 poderá carregar jogos em um segundo? Que tipo de código especial a Sony desenvolveu que será executado? (Lol desculpe teve que). Na realidade, não tem nada a ver com software, mas tudo a ver com hardware.
No mundo dos PCs, apesar de ter SSDs há mais de 10 anos, nenhum fabricante de hardware decidiu fazer algo que auxiliasse a CPU na tarefa de carregar dados. Ainda é 100% dependente da CPU para lidar com tudo.
E esse era o ponto que Cerny estava fazendo. Com essa revolução no potencial de taxa de transferência de dados, deve haver uma revolução igual na arquitetura para acompanhar os dados que chegam.
Infelizmente, quando os dados são retirados do disco, eles não são lançados para a RAM imediatamente e estão prontos. Garoto, isso não seria ótimo. Mas não. Muitas coisas têm que acontecer com esses dados antes que possam ser lançados na RAM ou nos caches da CPU ou nos GPU ou onde quer que esteja o local final. E como todos os dados precisam ser trabalhados, algo precisa ser trabalhado. Que em PCs agora é a CPU.
Infelizmente, as CPUs são como a esposa da casa. Todo mundo quer que eles façam tudo por eles. Executar minha AI executar meu áudio executar meus scripts de jogos executar meus comandos de API decodificar esse remapeamento que acompanha as entradas do jogador blá blá blá. É um dispositivo muito ocupado e, ao contrário de uma GPU que tem milhares de pequenos trabalhadores fazendo tudo juntos como uma máquina bem lubrificada, geralmente tem 8 trabalhadores fazendo todas essas coisas diferentes.
Portanto, uma coisa para a qual absolutamente não há espaço é descompactar e tudo o mais que acontece com um arquivo depois que ele é retirado do SSD. Ele fica sobrecarregado extremamente rápido e simplesmente não pode mais continuar, porque tem toda essa fábrica de trabalhos na fila e uma quantidade muito pequena de trabalhadores para fazer tudo.
É aí que entra o complexo de E / S. Como Cerny declarou descompactar 5,5 GB / s, se você deixasse inteiramente para a CPU, esse processo sozinho levaria 9 núcleos Zen2 atuais para lidar com a carga de trabalho (existem apenas 8 núcleos Zen2 em CPU PS5 / Series X inteira). O processo de direcionar os dados para onde ir depois da descompressão levaria novamente mais 1-2 núcleos Zen2 se esse processo fosse deixado apenas para a CPU (você vai aqui, vai lá, vai lá). Portanto, agora temos a necessidade de 10 a 11 núcleos Zen2 apenas para lidar com a parte inicial do fluxo de dados para uma carga de dados de 5,5 GB / s. Então você tem outro ou dois núcleos Zen2 para E / S SSD, mapeamento de memória e coerência, que são outras etapas pelas quais os dados podem ser executados antes de estarem totalmente prontos para serem colocados em qualquer cache ou endereço de memória, uma vez que estejam totalmente desagregados.
E essa é a revolução na arquitetura que o espaço do PC ainda não recebeu. Não há absolutamente nenhum hardware que já foi construído para lidar com o fluxo de dados.
A revolução da taxa de transferência de dados nunca foi alcançada com uma revolução adequada da arquitetura.
Isso ficará claro quando os novos consoles forem lançados e eles carregarão tudo dentro de 1 a 3 segundos, enquanto os PCs ainda levarão de 20 a 60 segundos para carregar os mesmos jogos. Precisa dessa revolução. Quando isso ocorrerá? Eu não faço ideia. Tenho a sensação de que a AMD está realmente trabalhando em algum silício de E / S customizado nos próximos Zen3s e é por isso que não suporta placas-mãe atuais, mas pode estar errado por lá. Se os fabricantes de CPU não o fizerem, quem o fará. Fabricantes de placas-mãe? Eles poderiam colocar os descompressores e DMAs em algum lugar perto das portas NVMe certamente. Ou talvez haja espaço nos próprios SSDs para colocar o hardware necessário? Quem sabe. Mas, para que todos se beneficiem, é necessário que haja famílias inteiras de processadores para que todos possam receber o benefício. Digite Intel / AMD.
De qualquer forma. Desabafo. Só queria lançar isso lá fora, porque na verdade é um exemplo muito público do que Cerny estava falando. Evolução vs. Revolução.