[TÓPICO DEDICADO] NAVI - próxima geração de GPUs da AMD

FabianoSR

know-it-all Member
Registrado
21/11/2009
2,450
2,339
18
São Paulo
Para isso é preciso ter bom senso do que está lendo e ter conhecimento sobre o assunto ou ir atrás da opinião de alguém que saiba disso.

O caso da mineração foi fácil de desmentir, um chinês mostrou que já estava com a placa em mãos e disse que ela ela mais forte, mas não provou. Depois de ser questionado sobre o desempenho, números e qual o hash ele usou simplesmente ele sumiu. Hoje já sabemos que ele inventou isso de propósito, pois ele tem uma mining farm de RTX e para ter mais placas quis induzir as pessoas a levar Radeons para casa e assim ter mais Geforce para ele.

Quanto ao rival do SAM por parte da NVIDIA, vem pegadinha por ai, anotem o que eu digo :)

Resumindo tudo é o que você disse, o que gera a notícia é justamente esse imediatismo de informar antes de se apurar o informado, logo ser cético é o melhor nesses casos que soarem absurdos.
--- Post duplo é unido automaticamente: ---


Não para o SAM, o CPU acessa os 256MB da GPU a uma velocidade padronizada pela PCI-PEG, então no PCIE 3.0 o SAM funcionaria a 14GB/s, enquanto que no PCE 4.0 o SAM funcionará a 28GB/s, e essa velocidade pode parecer boa o suficiente mas não é. Logo permitir o funcionamento de um RBAR em uma quantidade de 16GB de memória da GPU a uma velocidade de "apenas" 14GB/s seria possível, mas nem um pouco recomendável (poderia até render perda de desempenho).
A implementação do SAM da NVIDIA é via software. E o da AMD? É via hardware ou software?
 

RHBH

know-it-all Member
Registrado
20/04/2008
6,483
9,822
41
São Paulo / SP
A implementação do SAM da NVIDIA é via software. E o da AMD? É via hardware ou software?

A da AMD habilita na BIOS.

Da Nvidia será via driver.

Em teoria a da AMD é melhor pois não vai ter o "driver overhead"
 
  • Curtir
Reações: kamalh

kamalh

Esner Mining Ltda
Registrado
01/10/2006
8,370
6,415
42
34
Contagem - MG
A implementação do SAM da NVIDIA é via software. E o da AMD? É via hardware ou software?
Basicamente os dois são via software.

Mas o da AMD é otimizado com BIOS para trabalhar na plataforma Ryzen + Big Navi, Nvidia está correndo atrás de dar um jeito de fazer funcionar de forma genérica via driver.
 

dayllann

Shy Member
Registrado
10/12/2006
1,771
5,680
0
Gensyoko
Gente, nenhum dos dois é 100% via driver, mas ambos dependem do driver, e não tem como dentro do ambiente do SO você modificar algo desse nível: A mudança precisa ser feita na hora do POST, e é por isso que a BIOS precisa oferecer o suporte. Para o SBAR funcionar é preciso que:
1) A placa-mãe permita que o BAR seja redimensionado;
2) A BIOS permita que o CPU acesse uma memória além dos 256MB da GPU;
3) O S.O. permita que a CPU possa acessar uma memória além dos 256MB da GPU;
4) A GPU permita que a CPU possa acessar sua memória além dos 256MB;
5) O driver ofereça suporte à CPU acessar a memória além dos 256MB da GPU.

No caso, é todo um conjunto BIOS/mobo+SO+GPU+Driver. Segundo a especificação da PCI-SEG qualquer placa-mãe pcie 3.0 pode ter seu BAR redimensionado (etapa 1), basta o fabricante permitir (etapa 2). Em questão de SO o Linux permite isso tem um bom tempo, e o Windows só veio a permitir no Win10 1709 (etapa 3), mas nenhum dos dois é de forma automática, e no pinguim você tem que colocar a mão na massa mesmo, literalmente. A última etapa é justamente o driver, no caso do Windows, e até onde sei nenhum fabricante de GPU incorporou essa possibilidade ainda. E a quarta etapa? Qualquer GPU PCIe 3.0 permite que um CPU acesse toda sua memória.

Caso queiram saber o que é o SBAR, vai em spoiler porque já falei em um comentário lá trás.
[...] O SAM (Smart Access Memory) é um redimensionador do PCI-e BAR (Base Address Registers), de forma automatizada, mais (possivelmente) alguma coisinha ainda desconhecida.

[...] É possível mudar o tamanho do BAR desde 2017, onde pelo lado Microsoft só é possível a partir do Win10 (WDDM v2) se a GPU suportar (qualquer GPU que siga os padrões do PCIe 3.0) e a chipset permitir a comunicação CPU <-> GPU (normalmente esta opção não fica disponível ao usuário comum), enquanto que no lado do pinguim não há essa restrição, mas o usuário precisa colocar a mão na massa para tal.

Atualmente o tamanho do BAR é de 256MB, e o motivo de ser tão pequeno é para ter compatibilidade com programas 32bits e legados, mas hoje com placas na casa dos 16GB de memória fica complicado justificar um tamanho tão pequeno para se mapear um buffer, tamanho esse que o driver precisa gerenciar fazendo mil e um truques para limpar e atualizar este espaço constantemente. Logo um BAR maior permitiria a ausência desses hacks, agilizando a comunicação da CPU->GPU e reduzindo o overhead do driver.

O que a AMD fará com o SAM, como disse, é automatizar e simplificar isso, já que a plataforma sendo toda homogênea será possível fazer só ativando uma opção na BIOS. Segundo o Alfredo Heiss não seria possível essa comunicação com processadores e GPUs diferentes, mas se fosse apenas um redimensionamento isso seria hardware-agnostic, então ou há algo extra nessa comunicação (para requerer PCIe4+RDNA2+Zen3) ou a AMD está travando nestes hardwares novos por questões mercadológicas.

E se pode haver algo parecido pelo lado concorrente? Claro, basta a NVIDIA permitir que a Intel e AMD manipulem o BAR da sua GPU, e a AMD permita que os CPUs da Intel façam o mesmo em suas GPUs, afinal de contas todo mundo segue o padrão da PCI-sig... não seguem? xD

PS: Caso algum usuário do Linux queira aumentar o BAR da sua GPU, basta seguir este link que ele informa de forma simples algo bem complicado. É uma boa experiência brincar com isso (e crashar a GPU, confie no seu potencial de hacker!).

https://www.nccgroup.com/us/about-u...a-pcipci-express-primer-part-2-the-interface/

Entenderam porque a AMD implementar é simples e a NVIDIA fazer o mesmo não é? Isso porque eu nem falei que é preciso validar cada sistema para um acesso, não é somente dar a opção que irá funcionar tudo certo, é preciso ajustar esse acesso de acordo com cada chipset, cada processador, cada placa-mãe, cada GPU, e é por isso que a AMD está limitando o SAM a apenas X570/B550 + RDNA2 + Zen3, pois ela validou e testou todas as combinações nesse sistema, logo nada impede que demais sistemas futuramente venham a ter suporte, desde que sejam via PCIe 4.0 (por causa da velocidade de comunicação).


Não seria melhor a Nvidia bloquear a feature em plataformas que não tem PCIE 3.0 para evitar perder desempenho?

Tiro no pé liberar no PCIE 3.0.
E perder a quantidade de pessoas que vão utlizar em plataformas PCIe 3.0 (tipo, qualquer Intel pré-rocketlake)?
O importante é dizer que pode, é forte a nível de marketing, se o retorno será bom são outros quinhentos, qualquer coisa a pessoa pode ir lá e desativar.
 

quark

Cowabunga!
Registrado
06/01/2006
105
133
0
...
Entenderam porque a AMD implementar é simples e a NVIDIA fazer o mesmo não é? Isso porque eu nem falei que é preciso validar cada sistema para um acesso, não é somente dar a opção que irá funcionar tudo certo, é preciso ajustar esse acesso de acordo com cada chipset, cada processador, cada placa-mãe, cada GPU, e é por isso que a AMD está limitando o SAM a apenas X570/B550 + RDNA2 + Zen3, pois ela validou e testou todas as combinações nesse sistema, logo nada impede que demais sistemas futuramente venham a ter suporte, desde que sejam via PCIe 4.0 (por causa da velocidade de comunicação).



E perder a quantidade de pessoas que vão utlizar em plataformas PCIe 3.0 (tipo, qualquer Intel pré-rocketlake)?
O importante é dizer que pode, é forte a nível de marketing, se o retorno será bom são outros quinhentos, qualquer coisa a pessoa pode ir lá e desativar.

Eu queria saber onde vcs acharam essa informação de que as GPUs estao saturando o PCI-e 3.. cara.. qq teste você ve que em x8 ou x16 a performance é a mesma (insignificante na verdade).. acho q a desculpa q teria q ser PCI-e 4 n procede.. só serve pra SSD NVMe esse trem hoje..
exemplo: https://www.techspot.com/review/2104-pcie4-vs-pcie3-gpu-performance/
 

dayllann

Shy Member
Registrado
10/12/2006
1,771
5,680
0
Gensyoko
Eu queria saber onde vcs acharam essa informação de que as GPUs estao saturando o PCI-e 3.. cara.. qq teste você ve que em x8 ou x16 a performance é a mesma (insignificante na verdade).. acho q a desculpa q teria q ser PCI-e 4 n procede.. só serve pra SSD NVMe esse trem hoje..
exemplo: https://www.techspot.com/review/2104-pcie4-vs-pcie3-gpu-performance/
Recomendo então você ler o documento de especificação do BAR no site da PCI-SIG :)
Perceba que não falei da GPU saturar o barramento, e sim da velocidade disponível para o BAR no barramento, é diferente ;)
--- Post duplo é unido automaticamente: ---

Ah, ia quase esquecendo disso aqui: 2.5GHz estáveis na RX 6800, a 60ºC (GPU, não Tjunction)
 
Última edição:

jeebruno

know-it-all Member
Registrado
22/10/2019
1,635
1,509
0
31
Recomendo então você ler o documento de especificação do BAR no site da PCI-SIG :)
Perceba que não falei da GPU saturar o barramento, e sim da velocidade disponível para o BAR no barramento, é diferente ;)
--- Post duplo é unido automaticamente: ---

Ah, ia quase esquecendo disso aqui: 2.5GHz estáveis na RX 6800, a 60ºC (GPU, não Tjunction)

60º graus nesse clock? MY GOD :mother:
Modelo referência da AMD?
 

dayllann

Shy Member
Registrado
10/12/2006
1,771
5,680
0
Gensyoko
60º graus nesse clock? MY GOD :mother:
Modelo referência da AMD?
Sim, modelo de referência, com uma curva do fan customizada. OC de 2.1GHz para 2.5GHz e consumindo uma média de 208W nesse clock é de se admirar.
 

jeebruno

know-it-all Member
Registrado
22/10/2019
1,635
1,509
0
31
Sim, modelo de referência, com uma curva do fan customizada. OC de 2.1GHz para 2.5GHz e consumindo uma média de 208W nesse clock é de se admirar.
Eu fico imaginando as custons das parceiras. Prevejo recordes mundiais na casa dos 3 Ghz kkkkk :wtf:
 
  • Curtir
Reações: Triglav e dayllann

O_Sani

Fiscal de Pizza
Registrado
19/09/2020
2,037
22,580
0
34
Fico imaginando o que poderia fazer uma 6800XT STRIX, torcendo pra acertarem no mount do dissipador.
 

brazucarj

know-it-all Member
Registrado
10/11/2012
6,486
1,689
42
RJ
Recomendo então você ler o documento de especificação do BAR no site da PCI-SIG :)
Perceba que não falei da GPU saturar o barramento, e sim da velocidade disponível para o BAR no barramento, é diferente ;)
--- Post duplo é unido automaticamente: ---

Ah, ia quase esquecendo disso aqui: 2.5GHz estáveis na RX 6800, a 60ºC (GPU, não Tjunction)



Clocks e consumo dependem muito de resolução e da aplicação que está rodando. Mas se for realmente isso ai em jogos AAA e em 4k tá de parabéns.:mother:
 
  • Curtir
Reações: dayllann

FastMHZ

Banido
Banido
23/05/2002
1,421
1,337
0
Allure
google.com
dayllann disse:
Ah, ia quase esquecendo disso aqui: 2.5GHz estáveis na RX 6800, a 60ºC (GPU, não Tjunction)


Parece um golpe do Mike Tyson na nVidia.
A bixinha vem nervosa...

Estou achando que a nVidia não estava preparada para porradaria, vai queimar algumas cartas para aguentar o tranco.
 
  • Curtir
Reações: RHBH e dayllann

exclusive

Royal Enfield Meteor 350
Registrado
08/06/2012
2,462
1,570
0
31
Alto de Pinheiros - SP
Eu fico imaginando as custons das parceiras. Prevejo recordes mundiais na casa dos 3 Ghz kkkkk :wtf:

Creio que dia 19 teremos o Gamers Nexus com nitrogênio fazendo OC nessas monstrinhas, quem sabe ele não chega nesse clock já.
 

RHBH

know-it-all Member
Registrado
20/04/2008
6,483
9,822
41
São Paulo / SP
2.5ghz 60 graus.

Holy Mother of God.
 
  • Curtir
Reações: dayllann

rlopes

know-it-all Member
Registrado
19/09/2009
6,573
2,333
41
Rio de Janeiro
Parece um golpe do Mike Tyson na nVidia.
A bixinha vem nervosa...

Estou achando que a nVidia não estava preparada para porradaria, vai queimar algumas cartas para aguentar o tranco.

Realmente, não adianta nada a Nvidia inventar 3080Ti, 3060Ti etc, o problema não é diversidade de placas, é qualidade mesmo, o chip Ampere não consegue competir em nenhuma outra circunstância que não seja redução de preços. Sinceramente, caso a Nvidia tenha algum outro bom chip no forno pra ser lançado em 2021~2022, pelo tanto de grana que a empresa tem e pelo modo como, embora realmente sempre tenha sido melhor que a AMD, ela vive mais de nome do que de performance em si (vide 1050Ti etc), seria muito mais inteligente da parte deles descer os preços nem que dê prejuízo, e deixar essa maré passar. Essa escassez de chips também foi muito esquisita, isso nunca aconteceu antes. Acho que na real, essa troca de fornecedor deles deu merda e eles quiseram forçar esse lançamento mesmo assim.
 

daividdi

know-it-all Member
Registrado
05/08/2006
622
208
0
38
Acredito que a nova geração da Nvidia já chega no final mais tardar inicio de 2022, as notícias todas são que as AMD estão além de mais performaticas bem mais aportadas pelos devs devido aos consoles NextGen, Microsoft e Sony tem acordos de melhorias e compartilhamento para seus drivers.
 

Maximoff

know-it-all Member
Registrado
30/01/2008
2,012
571
17
41
Rapaz, infelizmente ao inves de ficar feliz com algumas noticias, fico triste pq parece estar começando a desandar e partindo para o exagero. Sei não, 2.5Ghz e 60º me parece um puta exagero. Ja ta partindo para exagero de rumores igual nas gerações passadas e galera se decepcionando depois. Não me levem a mal, quero e preciso (assim como todos nós), que seja realmente top e competitiva e vou adorar queimar a lingua caso esse lance aí se confirme. Até la, fico com o pé atrás.
 

rlopes

know-it-all Member
Registrado
19/09/2009
6,573
2,333
41
Rio de Janeiro
Rapaz, infelizmente ao inves de ficar feliz com algumas noticias, fico triste pq parece estar começando a desandar e partindo para o exagero. Sei não, 2.5Ghz e 60º me parece um puta exagero. Ja ta partindo para exagero de rumores igual nas gerações passadas e galera se decepcionando depois. Não me levem a mal, quero e preciso (assim como todos nós), que seja realmente top e competitiva e vou adorar queimar a lingua caso esse lance aí se confirme. Até la, fico com o pé atrás.

Se for considerar que é um retrabalho de um chip que já tem 2 anos de mercado, fora de P&D, não me parece assim tão impossível. 9 anos atrás o mundo via pela primeira vez placas GHz Edition, e olha onde chegou hoje. A tecnologia evolui rápido, quando quer/precisa.
 
  • Curtir
Reações: Maximoff

Maximoff

know-it-all Member
Registrado
30/01/2008
2,012
571
17
41

bbG0123

laissez faire, laissez aller, laissez passer
Registrado
16/11/2007
792
1,286
0
mother earth
Rapaz, infelizmente ao inves de ficar feliz com algumas noticias, fico triste pq parece estar começando a desandar e partindo para o exagero. Sei não, 2.5Ghz e 60º me parece um puta exagero. Ja ta partindo para exagero de rumores igual nas gerações passadas e galera se decepcionando depois. Não me levem a mal, quero e preciso (assim como todos nós), que seja realmente top e competitiva e vou adorar queimar a lingua caso esse lance aí se confirme. Até la, fico com o pé atrás.
A verdade é que a GPU temp não é tão relevante assim nas navis. O problema delas tá no hotspot, que geralmente tem delta de > 20c.
Tenho testes aqui no fórum da XT a 2200mhz+, limitados pelo hotspot. GPU temp abaixo de 70c.

Agora em relação ao suposto consumo... 200w pra um chip desse tamanho, a 2.5ghz? :eek:
A XT que tive, com seus 40 CUs, no pico de eficiência atingia 1950mhz consumindo 170w. Acima desse clock a curva de eficiência já desandava.
Sei que prometeram um salto grande. E minhas expectativas estavam altas, mas não esperava tudo isso não.

Curioso pra ver na prárica, semana que vem.
 

FabianoSR

know-it-all Member
Registrado
21/11/2009
2,450
2,339
18
São Paulo
A cada mais informações começam a surgir:
--- Post duplo é unido automaticamente: ---

Recomendo então você ler o documento de especificação do BAR no site da PCI-SIG :)
Perceba que não falei da GPU saturar o barramento, e sim da velocidade disponível para o BAR no barramento, é diferente ;)
--- Post duplo é unido automaticamente: ---

Ah, ia quase esquecendo disso aqui: 2.5GHz estáveis na RX 6800, a 60ºC (GPU, não Tjunction)

A questão que fica é o quanto este 2,5GHz acrescentam em performance na placa tomando como base o clock "normal" dela.
:hmm2:
 

Users who are viewing this thread