[TÓPICO DEDICADO] NAVI - próxima geração de GPUs da AMD

manotroll

know-it-all Member
Registrado
31/01/2010
11,340
3,911
43
34
teresopolis
Consegue me explicar como vai funcionar esse infinity cache ? E por que ele reduz a carga da memória.

Eu entendi que é um storage que fica bem próximo da gpu com dados do jogo que fica acessível para todos os shaders da gpu. Só não entendi como é um "game changer".
por que o cache usa menos ciclos pra leitura escrita diferente da ram
leia aqui pra vc entender como funciona os ciclos de acesso
 

dayllann

Shy Member
Registrado
10/12/2006
1,771
5,687
0
Gensyoko
Consegue me explicar como vai funcionar esse infinity cache ? E por que ele reduz a carga da memória.

Eu entendi que é um storage que fica bem próximo da gpu com dados do jogo que fica acessível para todos os shaders da gpu. Só não entendi como é um "game changer".
Além do dito pelo amigo acima, tem a velocidade de transmissão e latência: Um ALU leva em média 2ns para acessar a cache L2, enquanto que esse tempo vai para a casa dos 100ns quando se acessa os chips GDDR, então em altas taxas de FPS ou resolução essa latência é fundamental ser a mínima possível.

Por fim, a carga na memória não vai ser reduzida, o funcionamento do cache vai continuar da forma que sempre foi, a diferença é que agora ela será 32x maior, ao menos no L2, pois no L1 teremos mudanças caso o infinity cache utilize uma patente recém descoberta. A GPU poderá reconfigurar adaptativamente o cache, ou seja, a cache L1 poderá ser compartilhada ou privada de acordo com a latência alvo, no caso o tipo de arranjo da cache L1 será sempre o com menor latência: Se mais de um WGP (cluster de CUs) usava o mesmo dado em um pool diferente de L1, agora a GPU cuidará de descobrir isso e unir estas duas partições L1, removendo a redundância, diminuindo a latência e aumentando a velocidade/vazão de acesso.

O impacto dessa implementação é de apenas 0,09mm² por núcleo, o que no caso da BigNavi seria uma área de 7,2mm² para essa interligação de L1, e o retorno seria algo entre 22% e 52% a mais de performance E redução de 49% no consumo. (não da GPU toda, refiro-me à hierarquia de caches).

Atualmente o RDNA1 tem 4 blocos de cache L1, de 128KB cada, onde eles são compartilhados por um grupo de 10 CUs, ou seja, um CU pode ter acesso a um máximo de 128KB de L1 na RDNA1, e caso o grupo 4 precise do mesmo dado que o grupo 1 está processando ele precisará de uma cópia dele em sua cache L1. No RDNA2 isso será diferente, pois dependendo de cada caso um WGP pode ter até 512KB de L1 para ele, e caso mais de um WGP precise do mesmo dado ele acessará o L1 de forma compartilhada. No caso, o grupo agora é dinâmico: Dependendo da tarefa eu posso ter um grupo com 80CUs acessando os 512KB de L1 como posso ter 20 grupos de 4CUs acessando 25KB de L1, ou ter um grupo com 3CUs e outros com 7CUs, 20CUs e 50CUs... deu para entender? O arranjo agora é completamente dinâmico e quem dita a forma de organização e acesso é a latência ;)

Se mais cache é bom, por que não apareceram CPUs e GPUs com tamanhos assim antes? Simples, caches são um problema: Ocupam muito espaço, são caríssimas, consomem muito e esquentam por demais. Se for grande demais aumenta a latência (perde-se tempo buscando o dado) e se for pequena demais também (o dado não cabe). Só para se ter noção, dos 74mm² do Chiplet/CCD do Zen2 e Zen3, ~42mm² é o que todas as caches ocupam junto, e desse montante ~32mm² equivalem aos 32MB da L3.

Não é só ter mais que é melhor, é preciso analisar como sua arquitetura funciona para definir um tamanho apropriado: O Zen2 mesmo perde mais tempo pegando um dado de sua cache L3 que o Zen1, mas como ele faz isso de forma mais rápida, com mais paralelismo e vários estágios do seu pipeline são mais largoa, rápidoa e eficientea essa penalidade é mitigada e transforma-se rapidamente em vantagem, ou seja, o acesso ao cache é mais lento mas no final do todo a CPU é muito mais rápida com o dobro de cache. Então tem todo um P&D para se aumentar a cache, e o custo do produto final é levado em consideração o tempo todo.
 

Pedro Igor

Banido
Banido
17/06/2016
588
464
0
26
Além do dito pelo amigo acima, tem a velocidade de transmissão e latência: Um ALU leva em média 2ns para acessar a cache L2, enquanto que esse tempo vai para a casa dos 100ns quando se acessa os chips GDDR, então em altas taxas de FPS ou resolução essa latência é fundamental ser a mínima possível.

Por fim, a carga na memória não vai ser reduzida, o funcionamento do cache vai continuar da forma que sempre foi, a diferença é que agora ela será 32x maior, ao menos no L2, pois no L1 teremos mudanças caso o infinity cache utilize uma patente recém descoberta. A GPU poderá reconfigurar adaptativamente o cache, ou seja, a cache L1 poderá ser compartilhada ou privada de acordo com a latência alvo, no caso o tipo de arranjo da cache L1 será sempre o com menor latência: Se mais de um WGP (cluster de CUs) usava o mesmo dado em um pool diferente de L1, agora a GPU cuidará de descobrir isso e unir estas duas partições L1, removendo a redundância, diminuindo a latência e aumentando a velocidade/vazão de acesso.

O impacto dessa implementação é de apenas 0,09mm² por núcleo, o que no caso da BigNavi seria uma área de 7,2mm² para essa interligação de L1, e o retorno seria algo entre 22% e 52% a mais de performance E redução de 49% no consumo. (não da GPU toda, refiro-me à hierarquia de caches).

Atualmente o RDNA1 tem 4 blocos de cache L1, de 128KB cada, onde eles são compartilhados por um grupo de 10 CUs, ou seja, um CU pode ter acesso a um máximo de 128KB de L1 na RDNA1, e caso o grupo 4 precise do mesmo dado que o grupo 1 está processando ele precisará de uma cópia dele em sua cache L1. No RDNA2 isso será diferente, pois dependendo de cada caso um WGP pode ter até 512KB de L1 para ele, e caso mais de um WGP precise do mesmo dado ele acessará o L1 de forma compartilhada. No caso, o grupo agora é dinâmico: Dependendo da tarefa eu posso ter um grupo com 80CUs acessando os 512KB de L1 como posso ter 20 grupos de 4CUs acessando 25KB de L1, ou ter um grupo com 3CUs e outros com 7CUs, 20CUs e 50CUs... deu para entender? O arranjo agora é completamente dinâmico e quem dita a forma de organização e acesso é a latência ;)

Se mais cache é bom, por que não apareceram CPUs e GPUs com tamanhos assim antes? Simples, caches são um problema: Ocupam muito espaço, são caríssimas, consomem muito e esquentam por demais. Se for grande demais aumenta a latência (perde-se tempo buscando o dado) e se for pequena demais também (o dado não cabe). Só para se ter noção, dos 74mm² do Chiplet/CCD do Zen2 e Zen3, ~42mm² é o que todas as caches ocupam junto, e desse montante ~32mm² equivalem aos 32MB da L3.

Não é só ter mais que é melhor, é preciso analisar como sua arquitetura funciona para definir um tamanho apropriado: O Zen2 mesmo perde mais tempo pegando um dado de sua cache L3 que o Zen1, mas como ele faz isso de forma mais rápida, com mais paralelismo e vários estágios do seu pipeline são mais largoa, rápidoa e eficientea essa penalidade é mitigada e transforma-se rapidamente em vantagem, ou seja, o acesso ao cache é mais lento mas no final do todo a CPU é muito mais rápida com o dobro de cache. Então tem todo um P&D para se aumentar a cache, e o custo do produto final é levado em consideração o tempo todo.
Na prática você acredita que a RDNA1 foi um preview de algo muito maior melhor que viria em sequência?
A RDNA1 seria um teste beta da nova arquitetura?
 

dayllann

Shy Member
Registrado
10/12/2006
1,771
5,687
0
Gensyoko
Na prática você acredita que a RDNA1 foi um preview de algo muito maior melhor que viria em sequência?
A RDNA1 seria um teste beta da nova arquitetura?
Sim, da mesma maneira que o Zen1 foi em relação ao Zen2: O RDNA1 ainda usa alguns fundamentos e formas de funcionar do GCN, não foi uma transição completa e tem áreas que precisaram ser evoluídas e aparentam ser propositalmente fracas (como apenas um Hardware Scheduler e poucos VGPRs). O RDNA2 será uma mudança grande e ao mesmo tempo complementar em cima do RDNA1, então a nível de uArch espero algo muito bom, e a performance por watt tende a seguir o mesmo caminho. Agora se isso vai ser convertido em desempenho real, bem, isso é o que todos esperamos.
 

RHBH

know-it-all Member
Registrado
20/04/2008
6,483
9,822
41
São Paulo / SP
Uma dúvida, é possível ativar o freesync em monitores G-sync ou apenas o contrário é válido?

Acho que todos monitores G-sync (básico ou ultimate) são compatível com FreeSync.

FreeSync é aberto e sempre foi, não tem motivo pra um fabricante não colocar esse recurso no monitor se ele já gastou $ pra por o G-sync (básico ou ultimate).

Obs: G-sync básico e ultimate são diferente de G-sync compatible.
 

O_Sani

Fiscal de Pizza
Registrado
19/09/2020
2,037
22,582
0
34
Uma dúvida, é possível ativar o freesync em monitores G-sync ou apenas o contrário é válido?
Nenhum dos dois a princípio.
Um monitor Freesync vai funcionar apenas com AMD, a menos que ele faça parte da lista G-Sync compatível.
Um monitor G-Sync vai funcionar apenas com nvidia, a menos que seja um com o firmware novo que permite abrir para AMD, ou seja ultimate/básico.

Basicamente, se quiser usar a "outra marca" vai ter que conferir o modelo do monitor.
Ou procurar um monitor que tenha ambos explicitamente.


OBS: digo isso porque os monitores novos provavelmente serão compatíveis com os 2, mas tem muito monitor antigo que não vai ser. Por isso tomem cuidado.
 
Última edição:
  • Curtir
Reações: dayllann

RHBH

know-it-all Member
Registrado
20/04/2008
6,483
9,822
41
São Paulo / SP
Sim, da mesma maneira que o Zen1 foi em relação ao Zen2: O RDNA1 ainda usa alguns fundamentos e formas de funcionar do GCN, não foi uma transição completa e tem áreas que precisaram ser evoluídas e aparentam ser propositalmente fracas (como apenas um Hardware Scheduler e poucos VGPRs). O RDNA2 será uma mudança grande e ao mesmo tempo complementar em cima do RDNA1, então a nível de uArch espero algo muito bom, e a performance por watt tende a seguir o mesmo caminho. Agora se isso vai ser convertido em desempenho real, bem, isso é o que todos esperamos.

É aquela história, no papel tudo é lindo, mas as coisas nem sempre tendem a escalar perfeitamente no mundo real.

Basta olhar as especificações das Ampere, são sensacionais no papel, mais que o dobro de CUDA Cores, na prática não chegou nem a +50% de desempenho.

Então eu ainda to um pouco cético da AMD possuir uma placa que bate na 3090, mas quem sabe uma surpresa boa aconteça.
 

Pedro Igor

Banido
Banido
17/06/2016
588
464
0
26
É aquela história, no papel tudo é lindo, mas as coisas nem sempre tendem a escalar perfeitamente no mundo real.

Basta olhar as especificações das Ampere, são sensacionais no papel, mais que o dobro de CUDA Cores, na prática não chegou nem a +50% de desempenho.

Então eu ainda to um pouco cético da AMD possuir uma placa que bate na 3090, mas quem sabe uma surpresa boa aconteça.
Concordo em partes, no caso das amperes houve a mudança de arquitetura, no caso da AMD não tem isso, ou seja, estão dobrando/triplicando os números dentro da mesma arquitetura com diversos aperfeiçoamentos, não tem como sair coisa ruim daí.
Em um cenário hipotético que seria impossível, imagine que dobrassem os números da geração 2xxx sem alterar a arquitetura, provavelmente o desempenho iria escalonar muito mais que com a mudança de arquitetura...

Nenhum dos dois a princípio.
Um monitor Freesync vai funcionar apenas com AMD, a menos que ele faça parte da lista G-Sync compatível.
Um monitor G-Sync vai funcionar apenas com nvidia, a menos que seja um com o firmware novo que permite abrir para AMD, ou seja ultimate/básico.

Basicamente, se quiser usar a "outra marca" vai ter que conferir o modelo do monitor.
Ou procurar um monitor que tenha ambos explicitamente.


OBS: digo isso porque os monitores novos provavelmente serão compatíveis com os 2, mas tem muito monitor antigo que não vai ser. Por isso tomem cuidado.
Será que o Dell S2716DGR QHD 144hz G-Sync aceita o freesync?
Edit: acabei de ver que não kkkk
 

Chinuw

Active Member
Registrado
21/03/2020
61
44
0
25
Esse é um dos que não é :confused:
Eu tenho um Lg 1440p 144hz que tbm é Gsync, o Freesync não vai funcionar mas mesmo assim consigo usar uma Gpu Amd tranquilamente né?
 

O_Sani

Fiscal de Pizza
Registrado
19/09/2020
2,037
22,582
0
34
Eu tenho um Lg 1440p 144hz que tbm é Gsync, o Freesync não vai funcionar mas mesmo assim consigo usar uma Gpu Amd tranquilamente né?
Sim, a placa vai funcionar tranquilamente. Se quiser, vai poder habilitar o V-Sync convencional também.
Só vai perder a função G-Sync (sincronia adaptativa) e caso tenha, ULMB.
 
  • Curtir
Reações: Chinuw

Ferras

know-it-all Member
Registrado
19/01/2014
1,600
6,365
0
Acho que todos monitores G-sync (básico ou ultimate) são compatível com FreeSync.

FreeSync é aberto e sempre foi, não tem motivo pra um fabricante não colocar esse recurso no monitor se ele já gastou $ pra por o G-sync (básico ou ultimate).

Obs: G-sync básico e ultimate são diferente de G-sync compatible.
Nenhum dos dois a princípio.
Um monitor Freesync vai funcionar apenas com AMD, a menos que ele faça parte da lista G-Sync compatível.
Um monitor G-Sync vai funcionar apenas com nvidia, a menos que seja um com o firmware novo que permite abrir para AMD, ou seja ultimate/básico.

Basicamente, se quiser usar a "outra marca" vai ter que conferir o modelo do monitor.
Ou procurar um monitor que tenha ambos explicitamente.


OBS: digo isso porque os monitores novos provavelmente serão compatíveis com os 2, mas tem muito monitor antigo que não vai ser. Por isso tomem cuidado.
Disney né?

TODO monitor freesync "funciona" com nvidia série 1000 ou superior, contudo como eles não foram testados pela nvidia ela não garante que vai funcionar corretamente, fica a cargo do usuário tentar (no caso pode-se pesquisar em foruns antes), os "g-sync compatível" foram testados e funcionam 100%.

Não existe atualização de firmware que faça o módulo g-sync ser compatível com AMD, monitor "apenas g-sync" não funciona com AMD. Não confundir com "g-sync compatível" esses monitores não tem o módulo g-sync, eles tem o vesa adaptarive sync que por sua vez é compatível com freesync e atualmente a nvidia liberou o g-sync tbm.

É confuso, mas resumindo todo monitor freesync potencialmente funciona com o nvidia (nem que seja de maneira insatisfatória) e nenhum monitor com o módulo g-sync funciona com amd.
 
  • Curtir
Reações: Pedro Igor

RHBH

know-it-all Member
Registrado
20/04/2008
6,483
9,822
41
São Paulo / SP

O_Sani

Fiscal de Pizza
Registrado
19/09/2020
2,037
22,582
0
34

Tá aí uma gíria que não conheço por ser estrangeiro. Poderia explicar?

TODO monitor freesync "funciona" com nvidia série 1000 ou superior, contudo como eles não foram testados pela nvidia ela não garante que vai funcionar corretamente, fica a cargo do usuário tentar (no caso pode-se pesquisar em foruns antes), os "g-sync compatível" foram testados e funcionam 100%.

O problema é o "funciona" entre aspas. Já temos uma cacetada de problemas com monitores testados, imagina comprar um que não esteja na lista...prefiro dizer que não roda, já que alguém poderia seguir um conselho e se lascar nessa.

Não existe atualização de firmware que faça o módulo g-sync ser compatível com AMD, monitor "apenas g-sync" não funciona com AMD. Não confundir com "g-sync compatível" esses monitores não tem o módulo g-sync, eles tem o vesa adaptarive sync que por sua vez é compatível com freesync e atualmente a nvidia liberou o g-sync tbm.

Existe sim, mas são poucos. Se não existissem eu não teria comentado sobre.


É confuso, mas resumindo todo monitor freesync potencialmente funciona com o nvidia (nem que seja de maneira insatisfatória) e nenhum monitor com o módulo g-sync funciona com amd.
É confuso mesmo, pra todo mundo.
 
Última edição:
  • Curtir
Reações: R4v3N e Pedro Igor

Gustavohdcarioca

Active Member
Registrado
10/04/2020
75
93
0
32
Discussão esta rolando solto aqui .. Vejo pessoas do lado verde incomodadas demais com a AMD.
Creio q a AMD tem grandes possibilidades de crescer no mercado de GPU, estão usando a mesma estratégia que a linha Ryzen fez com a Intel
 

Pedro Igor

Banido
Banido
17/06/2016
588
464
0
26
A RX 5700XT tinha apenas 9,75TFLOPS em RDNA1 na mesma litografia de 7nm.
Estimam que a Big Navi terá 22 ou mais TFLOPS na mesma litografia de 7nm com aprimoramentos gigantescos.
O escalonamento dentro da mesma litografia não é um tanto quanto linear?
A RX 5600XT tem 7,19 TFLOPS (26% menos teraflops) e desempenho 20-25% inferior a 5700XT, são placas da mesma arquitetura e litografia.

Permanecendo na mesma litografia e dobrando ou triplicando o número de Teraflops, refinando a arquitetura e incrementando novas tecnologias, a probabilidade do salto de performance crescer linearmente com os números da GPU é elevada.
 
Última edição:

O_Sani

Fiscal de Pizza
Registrado
19/09/2020
2,037
22,582
0
34
A RX 5700XT tinha apenas 9,75TFLOPS em RDNA1 na mesma litografia de 7nm.
Estimam que a Big Navi terá 22 ou mais TFLOPS na mesma litografia de 7nm com aprimoramentos gigantescos.
O escalonamento dentro da mesma litografia não é um tanto quanto linear?
A RX 5600XT tem 7,19 TFLOPS (26% menos teraflops) e desempenho 20-25% inferior a 5700XT, são placas da mesma arquitetura e litografia.

Permanecendo na mesma litografia e dobrando ou triplicando o número de Teraflops, refinando a arquitetura e incrementando novas tecnologias, a probabilidade do salto de performance crescer linearmente com os números da GPU é elevada.
Tem duas questões importantes:

- Não é a mesma arquitetura, tem mudanças importantes
- Nem tudo escalou da mesma forma (basta olhar pra largura de banda)

Pode ter um aumento quase linear? Pode, mas são necessárias otimizações do ponto de vista da largura de banda. As novas placas da nvidia não tiveram um desempenho linear em jogos porque muitas coisas não escalaram junto com os Cuda Cores.
 
  • Curtir
Reações: Pedro Igor

Pedro Igor

Banido
Banido
17/06/2016
588
464
0
26
Tem duas questões importantes:

- Não é a mesma arquitetura, tem mudanças importantes
- Nem tudo escalou da mesma forma (basta olhar pra largura de banda)

Pode ter um aumento quase linear? Pode, mas são necessárias otimizações do ponto de vista da largura de banda. As novas placas da nvidia não tiveram um desempenho linear em jogos porque muitas coisas não escalaram junto com os Cuda Cores.
Então tu acredita que o principal gargalo seria a largura de banda?
O infinity cache não vem para minimizar isso?
 

O_Sani

Fiscal de Pizza
Registrado
19/09/2020
2,037
22,582
0
34
Então tu acredita que o principal gargalo seria a largura de banda?
O infinity cache não vem para minimizar isso?
Espero que sim, só conseguiremos saber isso dia 28. Aí teremos a confirmação das especificações e de como foi projetada a uARCH.
 
  • Curtir
Reações: Pedro Igor

Barney

no taxes
Registrado
01/10/2007
2,831
802
0
Qual foi o motivo para deletarem o tópico da Nvidia ? Sério mesmo estou por fora, a única coisa que fiquei sabendo foi que alguns modelos de placas sairam com pequenos problemas no banco de capacitores que fazem a filtragem da tensão para o gpu, o que é bem noraml se tratando de novas tecnologias.
 

Morello

know-it-all Member
Registrado
06/09/2012
1,845
1,594
0
Qual foi o motivo para deletarem o tópico da Nvidia ? Sério mesmo estou por fora, a única coisa que fiquei sabendo foi que alguns modelos de placas sairam com pequenos problemas no banco de capacitores que fazem a filtragem da tensão para o gpu, o que é bem noraml se tratando de novas tecnologias.
O número de posts de usuários brigando superou muito o número de posts com discussão técnica.
 
  • Curtir
Reações: Barney

Mugiwara Luffy

know-it-all Member
Registrado
17/12/2008
2,505
2,700
0
37
Barueri
Qual foi o motivo para deletarem o tópico da Nvidia ? Sério mesmo estou por fora, a única coisa que fiquei sabendo foi que alguns modelos de placas sairam com pequenos problemas no banco de capacitores que fazem a filtragem da tensão para o gpu, o que é bem noraml se tratando de novas tecnologias.
Ultimamente tá aparecendo uma galera aqui no fórum q não aceita q as pessoas tenham condições de vida diferente e fica querendo se meter na vida do pessoal ditando oq pode ou não comprar, tanto aqui como no tópico das RTX já apareceram alguns FISCAIS DE BOLSO ALHEIO chamando de trouxa quem paga mais de 6k em uma placa de video, lá no tópico das RTX3000 virou uma zona de guerra pq as placas estavam aparecendo em pré-venda por valores acima de 5,2k e a galera ficava esperando até as 4hr pra boletar uma na loja q explode, os q não conseguiam boletar acabava pegando em outra loja por valores acima de 6k, em alguns casos tinha quem optava em comprar a RTX3090 por mais de 12k, pois ela era mais facil de encontrar, nisso começou a aparecer os fiscais de bolso alheio chamando todo mundo de trouxa e varias outras coisas, q era por causa dessas pessoas q os valores de hardware estão esse absurdo no Brasil, como se o dólar acima de R$5,50 não fosse nada :shrug:

Todo dia era essas tretas por causa de pessoas q tinham e tem condições de comprar a placa, tinha algumas tretas por causa de Vram e capacitores mas era td técnico oq faz parte do fórum e do tópico, mas essas tretas por causa de quem comprava as placas foi foda, pior q já apareceu alguns fiscais aqui nesse tópico e lá no tópico da Steam tá aparecendo uns chamando de trouxa quem paga mais de R$200 em um jogo q é por isso q jogo no Brasil é caro
 

Salim_muchiba

know-it-all Member
Registrado
22/10/2016
776
445
0
39
Campo Grande
quero jogar Red dead 2 no ulra 60 fps , torcendo para amd vir bem poderosa , sempre usei nvidia mas ta na hora de mudar , eu gosto muito do Ant alising TAA da nvidia por nao perder fps quando ativado , a AMD usa alising parecido? Msaa é bem pesado mesmo na 2080 .
 

Users who are viewing this thread