Consegue me explicar como vai funcionar esse infinity cache ? E por que ele reduz a carga da memória.
Eu entendi que é um storage que fica bem próximo da gpu com dados do jogo que fica acessível para todos os shaders da gpu. Só não entendi como é um "game changer".
Consegue me explicar como vai funcionar esse infinity cache ? E por que ele reduz a carga da memória.
Eu entendi que é um storage que fica bem próximo da gpu com dados do jogo que fica acessível para todos os shaders da gpu. Só não entendi como é um "game changer".
Além do dito pelo amigo acima, tem a velocidade de transmissão e latência: Um ALU leva em média 2ns para acessar a cache L2, enquanto que esse tempo vai para a casa dos 100ns quando se acessa os chips GDDR, então em altas taxas de FPS ou resolução essa latência é fundamental ser a mínima possível.
Por fim, a carga na memória não vai ser reduzida, o funcionamento do cache vai continuar da forma que sempre foi, a diferença é que agora ela será 32x maior, ao menos no L2, pois no L1 teremos mudanças caso o infinity cache utilize uma patente recém descoberta. A GPU poderá reconfigurar adaptativamente o cache, ou seja, a cache L1 poderá ser compartilhada ou privada de acordo com a latência alvo, no caso o tipo de arranjo da cache L1 será sempre o com menor latência: Se mais de um WGP (cluster de CUs) usava o mesmo dado em um pool diferente de L1, agora a GPU cuidará de descobrir isso e unir estas duas partições L1, removendo a redundância, diminuindo a latência e aumentando a velocidade/vazão de acesso.
O impacto dessa implementação é de apenas 0,09mm² por núcleo, o que no caso da BigNavi seria uma área de 7,2mm² para essa interligação de L1, e o retorno seria algo entre 22% e 52% a mais de performance E redução de 49% no consumo. (não da GPU toda, refiro-me à hierarquia de caches).
Atualmente o RDNA1 tem 4 blocos de cache L1, de 128KB cada, onde eles são compartilhados por um grupo de 10 CUs, ou seja, um CU pode ter acesso a um máximo de 128KB de L1 na RDNA1, e caso o grupo 4 precise do mesmo dado que o grupo 1 está processando ele precisará de uma cópia dele em sua cache L1. No RDNA2 isso será diferente, pois dependendo de cada caso um WGP pode ter até 512KB de L1 para ele, e caso mais de um WGP precise do mesmo dado ele acessará o L1 de forma compartilhada. No caso, o grupo agora é dinâmico: Dependendo da tarefa eu posso ter um grupo com 80CUs acessando os 512KB de L1 como posso ter 20 grupos de 4CUs acessando 25KB de L1, ou ter um grupo com 3CUs e outros com 7CUs, 20CUs e 50CUs... deu para entender? O arranjo agora é completamente dinâmico e quem dita a forma de organização e acesso é a latência
Se mais cache é bom, por que não apareceram CPUs e GPUs com tamanhos assim antes? Simples, caches são um problema: Ocupam muito espaço, são caríssimas, consomem muito e esquentam por demais. Se for grande demais aumenta a latência (perde-se tempo buscando o dado) e se for pequena demais também (o dado não cabe). Só para se ter noção, dos 74mm² do Chiplet/CCD do Zen2 e Zen3, ~42mm² é o que todas as caches ocupam junto, e desse montante ~32mm² equivalem aos 32MB da L3.
Não é só ter mais que é melhor, é preciso analisar como sua arquitetura funciona para definir um tamanho apropriado: O Zen2 mesmo perde mais tempo pegando um dado de sua cache L3 que o Zen1, mas como ele faz isso de forma mais rápida, com mais paralelismo e vários estágios do seu pipeline são mais largoa, rápidoa e eficientea essa penalidade é mitigada e transforma-se rapidamente em vantagem, ou seja, o acesso ao cache é mais lento mas no final do todo a CPU é muito mais rápida com o dobro de cache. Então tem todo um P&D para se aumentar a cache, e o custo do produto final é levado em consideração o tempo todo.
Além do dito pelo amigo acima, tem a velocidade de transmissão e latência: Um ALU leva em média 2ns para acessar a cache L2, enquanto que esse tempo vai para a casa dos 100ns quando se acessa os chips GDDR, então em altas taxas de FPS ou resolução essa latência é fundamental ser a mínima possível.
Por fim, a carga na memória não vai ser reduzida, o funcionamento do cache vai continuar da forma que sempre foi, a diferença é que agora ela será 32x maior, ao menos no L2, pois no L1 teremos mudanças caso o infinity cache utilize uma patente recém descoberta. A GPU poderá reconfigurar adaptativamente o cache, ou seja, a cache L1 poderá ser compartilhada ou privada de acordo com a latência alvo, no caso o tipo de arranjo da cache L1 será sempre o com menor latência: Se mais de um WGP (cluster de CUs) usava o mesmo dado em um pool diferente de L1, agora a GPU cuidará de descobrir isso e unir estas duas partições L1, removendo a redundância, diminuindo a latência e aumentando a velocidade/vazão de acesso.
O impacto dessa implementação é de apenas 0,09mm² por núcleo, o que no caso da BigNavi seria uma área de 7,2mm² para essa interligação de L1, e o retorno seria algo entre 22% e 52% a mais de performance E redução de 49% no consumo. (não da GPU toda, refiro-me à hierarquia de caches).
Atualmente o RDNA1 tem 4 blocos de cache L1, de 128KB cada, onde eles são compartilhados por um grupo de 10 CUs, ou seja, um CU pode ter acesso a um máximo de 128KB de L1 na RDNA1, e caso o grupo 4 precise do mesmo dado que o grupo 1 está processando ele precisará de uma cópia dele em sua cache L1. No RDNA2 isso será diferente, pois dependendo de cada caso um WGP pode ter até 512KB de L1 para ele, e caso mais de um WGP precise do mesmo dado ele acessará o L1 de forma compartilhada. No caso, o grupo agora é dinâmico: Dependendo da tarefa eu posso ter um grupo com 80CUs acessando os 512KB de L1 como posso ter 20 grupos de 4CUs acessando 25KB de L1, ou ter um grupo com 3CUs e outros com 7CUs, 20CUs e 50CUs... deu para entender? O arranjo agora é completamente dinâmico e quem dita a forma de organização e acesso é a latência
Se mais cache é bom, por que não apareceram CPUs e GPUs com tamanhos assim antes? Simples, caches são um problema: Ocupam muito espaço, são caríssimas, consomem muito e esquentam por demais. Se for grande demais aumenta a latência (perde-se tempo buscando o dado) e se for pequena demais também (o dado não cabe). Só para se ter noção, dos 74mm² do Chiplet/CCD do Zen2 e Zen3, ~42mm² é o que todas as caches ocupam junto, e desse montante ~32mm² equivalem aos 32MB da L3.
Não é só ter mais que é melhor, é preciso analisar como sua arquitetura funciona para definir um tamanho apropriado: O Zen2 mesmo perde mais tempo pegando um dado de sua cache L3 que o Zen1, mas como ele faz isso de forma mais rápida, com mais paralelismo e vários estágios do seu pipeline são mais largoa, rápidoa e eficientea essa penalidade é mitigada e transforma-se rapidamente em vantagem, ou seja, o acesso ao cache é mais lento mas no final do todo a CPU é muito mais rápida com o dobro de cache. Então tem todo um P&D para se aumentar a cache, e o custo do produto final é levado em consideração o tempo todo.
Na prática você acredita que a RDNA1 foi um preview de algo muito maior melhor que viria em sequência?
A RDNA1 seria um teste beta da nova arquitetura?
Na prática você acredita que a RDNA1 foi um preview de algo muito maior melhor que viria em sequência?
A RDNA1 seria um teste beta da nova arquitetura?
Sim, da mesma maneira que o Zen1 foi em relação ao Zen2: O RDNA1 ainda usa alguns fundamentos e formas de funcionar do GCN, não foi uma transição completa e tem áreas que precisaram ser evoluídas e aparentam ser propositalmente fracas (como apenas um Hardware Scheduler e poucos VGPRs). O RDNA2 será uma mudança grande e ao mesmo tempo complementar em cima do RDNA1, então a nível de uArch espero algo muito bom, e a performance por watt tende a seguir o mesmo caminho. Agora se isso vai ser convertido em desempenho real, bem, isso é o que todos esperamos.
Acho que todos monitores G-sync (básico ou ultimate) são compatível com FreeSync.
FreeSync é aberto e sempre foi, não tem motivo pra um fabricante não colocar esse recurso no monitor se ele já gastou $ pra por o G-sync (básico ou ultimate).
Obs: G-sync básico e ultimate são diferente de G-sync compatible.
Nenhum dos dois a princípio.
Um monitor Freesync vai funcionar apenas com AMD, a menos que ele faça parte da lista G-Sync compatível.
Um monitor G-Sync vai funcionar apenas com nvidia, a menos que seja um com o firmware novo que permite abrir para AMD, ou seja ultimate/básico.
Basicamente, se quiser usar a "outra marca" vai ter que conferir o modelo do monitor.
Ou procurar um monitor que tenha ambos explicitamente.
OBS: digo isso porque os monitores novos provavelmente serão compatíveis com os 2, mas tem muito monitor antigo que não vai ser. Por isso tomem cuidado.
Sim, da mesma maneira que o Zen1 foi em relação ao Zen2: O RDNA1 ainda usa alguns fundamentos e formas de funcionar do GCN, não foi uma transição completa e tem áreas que precisaram ser evoluídas e aparentam ser propositalmente fracas (como apenas um Hardware Scheduler e poucos VGPRs). O RDNA2 será uma mudança grande e ao mesmo tempo complementar em cima do RDNA1, então a nível de uArch espero algo muito bom, e a performance por watt tende a seguir o mesmo caminho. Agora se isso vai ser convertido em desempenho real, bem, isso é o que todos esperamos.
Concordo em partes, no caso das amperes houve a mudança de arquitetura, no caso da AMD não tem isso, ou seja, estão dobrando/triplicando os números dentro da mesma arquitetura com diversos aperfeiçoamentos, não tem como sair coisa ruim daí.
Em um cenário hipotético que seria impossível, imagine que dobrassem os números da geração 2xxx sem alterar a arquitetura, provavelmente o desempenho iria escalonar muito mais que com a mudança de arquitetura...
Nenhum dos dois a princípio.
Um monitor Freesync vai funcionar apenas com AMD, a menos que ele faça parte da lista G-Sync compatível.
Um monitor G-Sync vai funcionar apenas com nvidia, a menos que seja um com o firmware novo que permite abrir para AMD, ou seja ultimate/básico.
Basicamente, se quiser usar a "outra marca" vai ter que conferir o modelo do monitor.
Ou procurar um monitor que tenha ambos explicitamente.
OBS: digo isso porque os monitores novos provavelmente serão compatíveis com os 2, mas tem muito monitor antigo que não vai ser. Por isso tomem cuidado.
Sim, a placa vai funcionar tranquilamente. Se quiser, vai poder habilitar o V-Sync convencional também.
Só vai perder a função G-Sync (sincronia adaptativa) e caso tenha, ULMB.
Acho que todos monitores G-sync (básico ou ultimate) são compatível com FreeSync.
FreeSync é aberto e sempre foi, não tem motivo pra um fabricante não colocar esse recurso no monitor se ele já gastou $ pra por o G-sync (básico ou ultimate).
Obs: G-sync básico e ultimate são diferente de G-sync compatible.
Nenhum dos dois a princípio.
Um monitor Freesync vai funcionar apenas com AMD, a menos que ele faça parte da lista G-Sync compatível.
Um monitor G-Sync vai funcionar apenas com nvidia, a menos que seja um com o firmware novo que permite abrir para AMD, ou seja ultimate/básico.
Basicamente, se quiser usar a "outra marca" vai ter que conferir o modelo do monitor.
Ou procurar um monitor que tenha ambos explicitamente.
OBS: digo isso porque os monitores novos provavelmente serão compatíveis com os 2, mas tem muito monitor antigo que não vai ser. Por isso tomem cuidado.
TODO monitor freesync "funciona" com nvidia série 1000 ou superior, contudo como eles não foram testados pela nvidia ela não garante que vai funcionar corretamente, fica a cargo do usuário tentar (no caso pode-se pesquisar em foruns antes), os "g-sync compatível" foram testados e funcionam 100%.
Não existe atualização de firmware que faça o módulo g-sync ser compatível com AMD, monitor "apenas g-sync" não funciona com AMD. Não confundir com "g-sync compatível" esses monitores não tem o módulo g-sync, eles tem o vesa adaptarive sync que por sua vez é compatível com freesync e atualmente a nvidia liberou o g-sync tbm.
É confuso, mas resumindo todo monitor freesync potencialmente funciona com o nvidia (nem que seja de maneira insatisfatória) e nenhum monitor com o módulo g-sync funciona com amd.
TODO monitor freesync "funciona" com nvidia série 1000 ou superior, contudo como eles não foram testados pela nvidia ela não garante que vai funcionar corretamente, fica a cargo do usuário tentar (no caso pode-se pesquisar em foruns antes), os "g-sync compatível" foram testados e funcionam 100%.
O problema é o "funciona" entre aspas. Já temos uma cacetada de problemas com monitores testados, imagina comprar um que não esteja na lista...prefiro dizer que não roda, já que alguém poderia seguir um conselho e se lascar nessa.
Não existe atualização de firmware que faça o módulo g-sync ser compatível com AMD, monitor "apenas g-sync" não funciona com AMD. Não confundir com "g-sync compatível" esses monitores não tem o módulo g-sync, eles tem o vesa adaptarive sync que por sua vez é compatível com freesync e atualmente a nvidia liberou o g-sync tbm.
It seems that NVIDIA definitely is loosing up on the topic, this round offering support for HDMI-VRR and adaptive sync over HDMI and/or display port. Existing screens do not get the function - future ...
É confuso, mas resumindo todo monitor freesync potencialmente funciona com o nvidia (nem que seja de maneira insatisfatória) e nenhum monitor com o módulo g-sync funciona com amd.
Discussão esta rolando solto aqui .. Vejo pessoas do lado verde incomodadas demais com a AMD.
Creio q a AMD tem grandes possibilidades de crescer no mercado de GPU, estão usando a mesma estratégia que a linha Ryzen fez com a Intel
A RX 5700XT tinha apenas 9,75TFLOPS em RDNA1 na mesma litografia de 7nm.
Estimam que a Big Navi terá 22 ou mais TFLOPS na mesma litografia de 7nm com aprimoramentos gigantescos.
O escalonamento dentro da mesma litografia não é um tanto quanto linear?
A RX 5600XT tem 7,19 TFLOPS (26% menos teraflops) e desempenho 20-25% inferior a 5700XT, são placas da mesma arquitetura e litografia.
Permanecendo na mesma litografia e dobrando ou triplicando o número de Teraflops, refinando a arquitetura e incrementando novas tecnologias, a probabilidade do salto de performance crescer linearmente com os números da GPU é elevada.
A RX 5700XT tinha apenas 9,75TFLOPS em RDNA1 na mesma litografia de 7nm.
Estimam que a Big Navi terá 22 ou mais TFLOPS na mesma litografia de 7nm com aprimoramentos gigantescos.
O escalonamento dentro da mesma litografia não é um tanto quanto linear?
A RX 5600XT tem 7,19 TFLOPS (26% menos teraflops) e desempenho 20-25% inferior a 5700XT, são placas da mesma arquitetura e litografia.
Permanecendo na mesma litografia e dobrando ou triplicando o número de Teraflops, refinando a arquitetura e incrementando novas tecnologias, a probabilidade do salto de performance crescer linearmente com os números da GPU é elevada.
- Não é a mesma arquitetura, tem mudanças importantes
- Nem tudo escalou da mesma forma (basta olhar pra largura de banda)
Pode ter um aumento quase linear? Pode, mas são necessárias otimizações do ponto de vista da largura de banda. As novas placas da nvidia não tiveram um desempenho linear em jogos porque muitas coisas não escalaram junto com os Cuda Cores.
- Não é a mesma arquitetura, tem mudanças importantes
- Nem tudo escalou da mesma forma (basta olhar pra largura de banda)
Pode ter um aumento quase linear? Pode, mas são necessárias otimizações do ponto de vista da largura de banda. As novas placas da nvidia não tiveram um desempenho linear em jogos porque muitas coisas não escalaram junto com os Cuda Cores.
Qual foi o motivo para deletarem o tópico da Nvidia ? Sério mesmo estou por fora, a única coisa que fiquei sabendo foi que alguns modelos de placas sairam com pequenos problemas no banco de capacitores que fazem a filtragem da tensão para o gpu, o que é bem noraml se tratando de novas tecnologias.
Qual foi o motivo para deletarem o tópico da Nvidia ? Sério mesmo estou por fora, a única coisa que fiquei sabendo foi que alguns modelos de placas sairam com pequenos problemas no banco de capacitores que fazem a filtragem da tensão para o gpu, o que é bem noraml se tratando de novas tecnologias.
Qual foi o motivo para deletarem o tópico da Nvidia ? Sério mesmo estou por fora, a única coisa que fiquei sabendo foi que alguns modelos de placas sairam com pequenos problemas no banco de capacitores que fazem a filtragem da tensão para o gpu, o que é bem noraml se tratando de novas tecnologias.
Ultimamente tá aparecendo uma galera aqui no fórum q não aceita q as pessoas tenham condições de vida diferente e fica querendo se meter na vida do pessoal ditando oq pode ou não comprar, tanto aqui como no tópico das RTX já apareceram alguns FISCAIS DE BOLSO ALHEIO chamando de trouxa quem paga mais de 6k em uma placa de video, lá no tópico das RTX3000 virou uma zona de guerra pq as placas estavam aparecendo em pré-venda por valores acima de 5,2k e a galera ficava esperando até as 4hr pra boletar uma na loja q explode, os q não conseguiam boletar acabava pegando em outra loja por valores acima de 6k, em alguns casos tinha quem optava em comprar a RTX3090 por mais de 12k, pois ela era mais facil de encontrar, nisso começou a aparecer os fiscais de bolso alheio chamando todo mundo de trouxa e varias outras coisas, q era por causa dessas pessoas q os valores de hardware estão esse absurdo no Brasil, como se o dólar acima de R$5,50 não fosse nada
Todo dia era essas tretas por causa de pessoas q tinham e tem condições de comprar a placa, tinha algumas tretas por causa de Vram e capacitores mas era td técnico oq faz parte do fórum e do tópico, mas essas tretas por causa de quem comprava as placas foi foda, pior q já apareceu alguns fiscais aqui nesse tópico e lá no tópico da Steam tá aparecendo uns chamando de trouxa quem paga mais de R$200 em um jogo q é por isso q jogo no Brasil é caro
quero jogar Red dead 2 no ulra 60 fps , torcendo para amd vir bem poderosa , sempre usei nvidia mas ta na hora de mudar , eu gosto muito do Ant alising TAA da nvidia por nao perder fps quando ativado , a AMD usa alising parecido? Msaa é bem pesado mesmo na 2080 .