[DÚVIDA] Ryzen 7 1700X + RTX 2080Ti - Watch Dogs 2 4K Com Gargalo??

williamzporto

Hungry Member
Registrado
Galera, seguinte:

Comprei uma RTX 2080Ti semana retrasada, e estou testando o novo desempenho depois de sair de uma RX 480.

Estou testando alguns jogos, e entre eles Watch Dogs 2. No meu monitor 34UW 1080p e na TV 4K.

Config:
EVGA RTX 2080Ti Black @stock
Ryzen 7 1700X @3.7Ghz temp max 59 graus. (testei instabilidade e tudo ok. outros clocks, incluindo padrao, e tudo na mesma pra esse problema)
16Gb DDR4 3200GHz Gskill 16-18-18-38
MSI X370 Gaming Pro RED
SSD 120Gb V300
EVGA NEX750B
Teclado sem acentos, desculpem xD
e o resto na assinatura... Instalacao limpa do Windows 10 1809 e Driver 418.91
TODOS OS TESTES FORAM NA REGIAO DE OAKLAND EM WATCH DOGS 2


A questao eh a seguinte:

Rodei Watch Dogs em Full HD e o FPS nao passa de uns 80, com uso de GPU tambem beeem baixo, na casa de uns 70%. Ate ai, normal... gargalo em 1080p eu ja esperava e por isso pretendo pegar um outro monitor logo. Nada que incomode aqui.

NO ENTANTO, vi uns videos no YouTube do desempenho em 4K e tentei replicar aqui na TV, esperando que o Ryzen fosse "sumir" em 4k e o peso todo cair nas costas da RTX. Basicamente, para chegar nesse "suposto gargalo", a config dos graficos eh a Ultra, porem COM FILTRAGEM TEMPORAL LIGADA. Isso ajuda o FPS a passar de uns 45 em media @4K ultra pra uns 60 em media. O problema eh, a media de uso da GPU, mesmo em 4K, fica na casa dos 85% com essa config, e mesmo quando o fps cai abaixo dos 50~55, o uso de GPU CONTINUA abaixo dos 90%, com raros picos acima disso. Ou seja, nao sobe pra compensar as quedas. O MESMO SE REPETE SEM APLICAR FILTRAGEM TEMPORAL MAS COM CONFIGS MAIS BAIXAS EM ALGUMAS COISAS, pra manter o mesmo UP de desempenho (~60) em relacao ao padrao do Ultra (~45). Ou seja, nao eh essa funcao em especifico que faz o uso de GPU baixar, mesmo abaixo de 60fps.

Quando fiz o teste em 4k SEM FILTRAGEM TEMPORAL, mas COM MSAAx2 e SMAA (pra forcar ao maximo), a media de fps fica em torno de 40 (sim... joginho pesado esse...), com quedas pra uns 30 e poucos, porem com o uso de GPU sempre em 96~97%. Ou seja, esse sim foi um resultado esperado.

A minha duvida eh: com o jogo em 4k COM FILTRAGEM TEMPORAL ou COM ALGUMAS OPCOES ABAIXO DO ULTRA, fazendo o jogo rodar em medias de 60 fps, seguindo a teoria de que "Em 4k a CPU praticamente nao importa, pq a GPU que manda", eu nao deveria ver a GPU sempre em 96~97%, evitando quedas abaixo dos 60 fps?

Ou seja, aparentemente, a nao ser que eu force o jogo a rodar em algo MUITO pesado, com media de frames abaixo de 45 socando AA mesmo em 4k, a placa de video nao usa tudo que pode, e nao sobe o uso pro limite mesmo quando os fps diminuem (como no meu teste). Seria isso uma confirmacao de que o Ryzen esta gargalando essa GPU, nesse jogo, MESMO EM 4K?

Pelos testes que vi no youtube com galera rodando no i7 8700K, essa VGA, NESSA CONFIG, fica SEMPRE acima de 95% de uso, com frames SEMPRE acima de 60~70. Que era o que eu esperava, visto que "4k nao importa CPU"

Fica ai a duvida... estranho ver esse suposto gargalo em 4k, indo contra tudo que dizem que pra 4k nao importa CPU... Aparentemente, importa.

BONUS: Rodando em Full HD Ultra MSAAx2 SMAAx2 travado a 60 fps (Riva), as vezes os frames caem de 60, e adivinha? Uso de GPU nao sobe pra compensar... MUITO estranho isso...
 
uma pergunta, esses seus 16gb é um pente ou são 2 em dual channel? (se for single channel, ta aí o seu problema)
 
uma pergunta, esses seus 16gb é um pente ou são 2 em dual channel? (se for single channel, ta aí o seu problema)

Nao nao, sao 2 pentes de 8Gb. Mais precisamente, esse modelo: Link

Vou testar hoje o mesmo com Witcher 3, GTA 5 e Sniper Elite 4 (os jogos nao-Ubisoft que eu tenho no momento) e ver se é algo relacionado à Engine da Ubisoft ou nao.
 
Última edição:

Ou seja? O primeiro deixa claro que Ryzens tem algums problemas em algums jogos especificos, e o pior deles aparenta ser o Watch Dogs 2. Ja o segundo, mostra todos CPUs na mesma... E ainda, todos os testes sao em 1080p ou 1440, nada em 4K.

Se contar que no primeiro um OC no Ryzen 1600 pra 4.0GHz "resolveu", enquanto que aqui eu rodo no 1700 OC em 3.7 (testei tb com 3.8 e fica igual), mesmo rodando em 4k.

Desculpa, mas nao é muito esclarecedor...
 
Watch Dogs 2 não é lá o jogo mais otimizado do mundo, aliás, Ubisoft não tem feito boas otimizações nos últimos anos, jogos na sua maioria pesados e sem muito beleza para justificar isso.

Joguei o Watch Dogs 2 ano retrasado utilizando uma GTX 970 e tive que jogar no alto para conseguir manter os fps em 50-60 fps. Utilizava um Ryzen 5 1600 com overclock para 3.8Ghz.
 
acho que não é processador não...
neste video mostra a performance do r5 e r7 numa 1080ti e as médias estão bem superiores as suas.


Qual frequência esta usando nas memórias e qual a latência aferida no aida64 delas?
aqui mexendo nos timings consegui baixar a latência e aumentar consideravelmente o copy, assim no bf1 e bfv consegui aumentar o uso de gpu para 97~98%.
4xOhen7.png
 
Última edição:
acho que não é processador não...
neste video mostra a performance do r5 e r7 numa 1080ti e as médias estão bem superiores as suas.


Qual frequência esta usando nas memórias e qual a latência aferida no aida64 delas?
aqui mexendo nos timings consegui baixar a latência e aumentar consideravelmente o copy, assim no bf1 e bfv consegui aumentar o uso de gpu para 97~98%.



No caso, o teste desse video foi feito em 1080p sem AA numa 1080ti, o que nao eh bem como eu fiz, mas ok. Mesmo assim, durante toda aquela corrida a partir dos 40 segundos, o uso de GPU no R7 fica na casa dos 80 e poucos %, e o i7 colado em 96-97%. Aqui nao estamos falando de frames estourando acima de 150 em 1080p, como geralmente testam pra "ditar" se existe ou nao gargalo de CPU, e falam que eh irrelevante a nao ser que seja pra monitores 144Hz. Nesse trecho do video, o R7 fez limitar em uns 80fps, com quedas pra 70 e poucos. Se fossem 10 fps em media a menos, estaria abaixo do refresh do meu monitor, por exemplo (75Hz).

Aqui o meu resultado no Aida 64:
9p4zMpk.png


Estou testando GTA 5, NFS 2015 e a demo do Forza Horizon 4 (ainda baixando).

- No GTA 5, consegui achar um belo de um vilao, aparentemente pro CPU, a config "extended distance scaling", que fica nas opcoes avancadas. Olha so no que deu aqui com essa config no maximo em 3440X1440:

VVH1arr.jpg

c8zQPvU.jpg

kagjap4.jpg


No que reduzi essa opcao pra 0, o game passou a usar MUITO mais a GPU, na casa dos 85% (ainda longe do ideal) a 98%, dependendo do local no mapa. No entando, testes em 4K com essa opcao no Maximo (e o resto todo igual, no maximo sem AA), em I7 recentes ou i9, o uso de GPU quase nunca cai dos 97%, mesmo em 4K. Entendem o pq eu estou tao curioso com isso!? Uso de GPU abaixo de 97% em 4K ultra so pode ser gargalo ou game mal optimizado, so que quando comparando a um Intel o resultado eh diferente, entao a mal-optimizacao passa a ser menos provavel (eu sei que tem jogos que simplesmente nao sao feitos pra AMD, mas deixando eles de lado).

- No NFS 2015 @4k Ultra, o uso de GPU com tudo no maximo ficou BEM MELHOR, na casa dos 96% quase sempre, e frames entre 60(por poucos segundos) e 100, na media em 80 a 90. Contudo, ainda assim tem partes do mapa que o uso de GPU cai e os frames caem junto (por isso abaixam de 75 fps). Como pode ser visto no teste abaixo, que NAO EH MEU, aos 6:00 min ate uns 6:20, o uso de uma 2080 OC tambem cai dos 96 pra 70/80 e poucos, frames caem ABAIXO dos 60, e o uso do Core 2 chega quase nos 100%.



Agora a pergunta: nesse video de cima, se o jogo esta em 4k @ Ultra, frame drops (diferente de stuttering) nao deveriam ser causados somente pela GPU, como zilhoes de reviewers por ai dizem? Abaixo quase a mesma comparacao, mas em um 7700K:



O que me parece eh que esses testes sao feitos todos em pouco tempo, com pouca variacao de cenario, e por causa disso nao pegam esses drops feios que, aparentemente, o 1700x esta dando com uma 2080Ti (e na 2080 OC, como no video), MESMO em 4k.
Ja vi muitos reviewers falando que fazem o testes do tipo: Load, rouba um carro, da a volta na quadra/quarteirao, e encerra. Se isso esta sendo repetido por todos os reviewers, eles estao perdendo algo bem interessante de destacar.

Vou continuar testando aqui e postar novos resultados assim que possivel.
 



Nesse primeiro video, por volta de 01:40, o uso de GPU dele cai pra uns 70 e poucos a 80 e poucos %, e os frames caem junto, pra menos de 60 e ate menos de 50. Se o jogo estivesse em 130 fps (ou ate uns 90), ok, eu entenderia e aceitaria o gargalo numa boa. A gente sabe que quando os frames sao ridiculamente altos, os Ryzen sao piores que os i7/i9.

Meu problema eh quando caem abaixo de 60, e por causa, aparentemente, do CPU e NAO da GPU. Novamente, fps abaixo de 60 por causa de GPU com ela em 99% se rasgando pra rodar, ok, aceito numa boa. Mas a GPU limitada pelo sistema nao conseguir manter acima dos 60, quando claramente ela poderia se estivesse em 98%... eh complicado viu... E pelo que eu tenho testado e visto acima nos outros videos, o problema eh replicavel ate mesmo em 4K, basta a placa ser mais forte.
 
No caso, o teste desse video foi feito em 1080p sem AA numa 1080ti, o que nao eh bem como eu fiz, mas ok. Mesmo assim, durante toda aquela corrida a partir dos 40 segundos, o uso de GPU no R7 fica na casa dos 80 e poucos %, e o i7 colado em 96-97%. Aqui nao estamos falando de frames estourando acima de 150 em 1080p, como geralmente testam pra "ditar" se existe ou nao gargalo de CPU, e falam que eh irrelevante a nao ser que seja pra monitores 144Hz. Nesse trecho do video, o R7 fez limitar em uns 80fps, com quedas pra 70 e poucos. Se fossem 10 fps em media a menos, estaria abaixo do refresh do meu monitor, por exemplo (75Hz).

Aqui o meu resultado no Aida 64:
9p4zMpk.png


Estou testando GTA 5, NFS 2015 e a demo do Forza Horizon 4 (ainda baixando).

- No GTA 5, consegui achar um belo de um vilao, aparentemente pro CPU, a config "extended distance scaling", que fica nas opcoes avancadas. Olha so no que deu aqui com essa config no maximo em 3440X1440:

VVH1arr.jpg

c8zQPvU.jpg

kagjap4.jpg


No que reduzi essa opcao pra 0, o game passou a usar MUITO mais a GPU, na casa dos 85% (ainda longe do ideal) a 98%, dependendo do local no mapa. No entando, testes em 4K com essa opcao no Maximo (e o resto todo igual, no maximo sem AA), em I7 recentes ou i9, o uso de GPU quase nunca cai dos 97%, mesmo em 4K. Entendem o pq eu estou tao curioso com isso!? Uso de GPU abaixo de 97% em 4K ultra so pode ser gargalo ou game mal optimizado, so que quando comparando a um Intel o resultado eh diferente, entao a mal-optimizacao passa a ser menos provavel (eu sei que tem jogos que simplesmente nao sao feitos pra AMD, mas deixando eles de lado).

- No NFS 2015 @4k Ultra, o uso de GPU com tudo no maximo ficou BEM MELHOR, na casa dos 96% quase sempre, e frames entre 60(por poucos segundos) e 100, na media em 80 a 90. Contudo, ainda assim tem partes do mapa que o uso de GPU cai e os frames caem junto (por isso abaixam de 75 fps). Como pode ser visto no teste abaixo, que NAO EH MEU, aos 6:00 min ate uns 6:20, o uso de uma 2080 OC tambem cai dos 96 pra 70/80 e poucos, frames caem ABAIXO dos 60, e o uso do Core 2 chega quase nos 100%.



Agora a pergunta: nesse video de cima, se o jogo esta em 4k @ Ultra, frame drops (diferente de stuttering) nao deveriam ser causados somente pela GPU, como zilhoes de reviewers por ai dizem? Abaixo quase a mesma comparacao, mas em um 7700K:



O que me parece eh que esses testes sao feitos todos em pouco tempo, com pouca variacao de cenario, e por causa disso nao pegam esses drops feios que, aparentemente, o 1700x esta dando com uma 2080Ti (e na 2080 OC, como no video), MESMO em 4k.
Ja vi muitos reviewers falando que fazem o testes do tipo: Load, rouba um carro, da a volta na quadra/quarteirao, e encerra. Se isso esta sendo repetido por todos os reviewers, eles estao perdendo algo bem interessante de destacar.

Vou continuar testando aqui e postar novos resultados assim que possivel.
 



Nesse primeiro video, por volta de 01:40, o uso de GPU dele cai pra uns 70 e poucos a 80 e poucos %, e os frames caem junto, pra menos de 60 e ate menos de 50. Se o jogo estivesse em 130 fps (ou ate uns 90), ok, eu entenderia e aceitaria o gargalo numa boa. A gente sabe que quando os frames sao ridiculamente altos, os Ryzen sao piores que os i7/i9.

Meu problema eh quando caem abaixo de 60, e por causa, aparentemente, do CPU e NAO da GPU. Novamente, fps abaixo de 60 por causa de GPU com ela em 99% se rasgando pra rodar, ok, aceito numa boa. Mas a GPU limitada pelo sistema nao conseguir manter acima dos 60, quando claramente ela poderia se estivesse em 98%... eh complicado viu... E pelo que eu tenho testado e visto acima nos outros videos, o problema eh replicavel ate mesmo em 4K, basta a placa ser mais forte.

não tenho os jogos que vc tem testado, fiz um teste rápido no witcher 3(mais antigo que tenho aqui) e cavalgando pelo cenário até Novigrad o uso da gpu fica em 97~98% com algumas quedas para 85%, fps entre 120~138 com tudo no ultra(hairworks off).

Baixa o DRAM Calculator e tenta abaixar a latência das memórias eu acredito que isso vá aumentar o uso de GPU. E se der testa em jogos mais novos.
edit: esqueci de citar que dentro de Novigrad(na parte mais pesada) o uso de gpu fica oscilando entre 70~85% com fps 85~100fps.
 
Última edição:
as vezes os Ryzens dao umas merdas com certos games cara, ele nao decola, nao deslancha o frame rate fica amarrado, gargalo pode ter sim, mas em 4K nada que te atrapalhe, o peso maior ta na placa de video e nao no Ryzen, se vc estiver pegando 60fps ta bom ja, e outra...a RTX é bastante placa pra WD2 e ele nao utiliza mesmo ela em 100%, e por fim essa perca por conta do Ryzen é irrisoria se vc tem 50-60fps ja, e mais do que fluido o seu gameplay!
Até o Threadripper 1950X aqui tem jogo que ele parece ignorar totalmente, fica la com uso abaixo dos 30% e nao da muito frame, sempre na faixa dos 80-100fps seja a resolucao que for, qualidade que for...esse é o mal de ter um processador com muitos Cores/threads e que nao tem IPC alto, inflizmente os games ainda preferem IPC do que multithread e é por isso que a Intel ta dominando ainda no mercado Gamer!
 
as vezes os Ryzens dao umas merdas com certos games cara, ele nao decola, nao deslancha o frame rate fica amarrado, gargalo pode ter sim, mas em 4K nada que te atrapalhe, o peso maior ta na placa de video e nao no Ryzen, se vc estiver pegando 60fps ta bom ja, e outra...a RTX é bastante placa pra WD2 e ele nao utiliza mesmo ela em 100%, e por fim essa perca por conta do Ryzen é irrisoria se vc tem 50-60fps ja, e mais do que fluido o seu gameplay!
Até o Threadripper 1950X aqui tem jogo que ele parece ignorar totalmente, fica la com uso abaixo dos 30% e nao da muito frame, sempre na faixa dos 80-100fps seja a resolucao que for, qualidade que for...esse é o mal de ter um processador com muitos Cores/threads e que nao tem IPC alto, inflizmente os games ainda preferem IPC do que multithread e é por isso que a Intel ta dominando ainda no mercado Gamer!

Sim, nao estou morrendo por frames cairem pra 50, ate pq pra quem saiu de uma RX 480, ta MUITO melhor. So que incomoda ver que uma GPU cara dessas se limitar por causa da CPU com desempenho Single Thread ridiculo (ta no nivel to 4770k de 2013 pelo CineBench), mesmo em 4k. Isso vai contra todos os review e reviewers que falam que pra 4k CPU nao importa, e tenho cada vez mais certeza que se fizessem testes longos, achariam pontos do mapa (pra jogos mundo aberto) onde o uso de CPU é mais alto, e é ai que o bixo pega. Sem contar que, no caso do WD2, mesmo em 1080p ultra tem alguns pontos especificos do mapa (Oakland) que o uso de GPU cai pra 80% e os frames pros 50. Nao é ruim, mas... PQP, um canhao de placa dessas tropeçar na CPU é complicado...

Como o refresh do meu monitor é 75Hz, da pra sentir facilmente quando cai de 75 pra 50fps. Estou ignorando o Watch Dogs que eu sei que e bugado. Mesmo no NFS ontem caiu por alguns poucos segundos abaixo de 60, bem no momento que o uso de GPU tb caiu pra baixo de 85%...

Tentei o Horizon 4 ontem, mas lembrei que tinha desativado manualmente tudo relacionado ao Xbox app pra nao influenciar no desempenho, e nao estou afim de configurar tudo de volta.

Problema que so tenho jogos de 2015 a 2017, e o mais novo que eu tenho é o Ghost Recon Wildlands, que por ser Ubi eu estou ignorando como um bom teste de desempenho. Quero comprar o Ace Combat, mas sie que ele vai gargalar em 4k por ser relativamente leve pra 2080Ti.

Esse fim de semana eu vou ver se faço upgrade do meu Origin Access pra Premier, e testo BF5 e Anthem. Nao, eu nao ganhei os 2 jogos pq aqui na Europa (Italia especificamente) a regra é diferente, e quem da os jogos sao as lojas e nao a NVidia, so que somente as lojas "credenciadas", leia-se umas 4 lojas careiras que tem pouca variedade de modelos e marcas.
 
não tenho os jogos que vc tem testado, fiz um teste rápido no witcher 3(mais antigo que tenho aqui) e cavalgando pelo cenário até Novigrad o uso da gpu fica em 97~98% com algumas quedas para 85%, fps entre 120~138 com tudo no ultra(hairworks off).

Baixa o DRAM Calculator e tenta abaixar a latência das memórias eu acredito que isso vá aumentar o uso de GPU. E se der testa em jogos mais novos.
edit: esqueci de citar que dentro de Novigrad(na parte mais pesada) o uso de gpu fica oscilando entre 70~85% com fps 85~100fps.

Pelo fps eu acho que nao precisaria perguntar, mas prefiro confirmar: isso em 1080P né :p ? Vou fazer esse teste hoje a noite e ver como fica, mas gargalo em 1080p eu aceito, o chato é em 4K.

Vou baixar o DRAM Calculator tb e testar, embora eu ja tenha tentado tudo que é tipo de config pras memorias... 3200 16-18-18-38 (atual, padrao) e 17-17-17-37 (se tento 16 nao liga ou da BSOD), 2700 16-16-16-36 e 2400 14-16-16-31 (que é o timming do meu kit antigo de 8gb 2400Mhz). Tudo ficou na mesma.
 
O erro aí é jogar Watch Catioros N, o mesmo vale pro Titan Fail N, não valem o tempo de coding e marketing que foram usados neles.
 
É assim mesmo, brother. Ryzen segura bem até uns 60 FPS, nisso em jogos modernos. Se for jogo com engine antiga ou que depende muito de IPC e poucos cores, pode ainda ter quedas bruscas para menos de 60 FPS. Se vc quer manter 98% de uma RTX 2080 Ti precisa ir de Intel de 8a ou 9a com clocks bem altos e no mínimo em 2K. Em FHD nem um 9900K empurra 98% numa 2080 Ti.
 
E também acho que suas memórias estão com timings muito altos. Aqui eu uso um kit 2400 em 2666 e as vezes bate 79, mas no geral fica no 80 baixos. Você com 3200 consegue baixar isso muito mais, principalmente se subir também o clock da CPU.
 
Bom, é isso.

É assim mesmo, brother. Ryzen segura bem até uns 60 FPS, nisso em jogos modernos. Se for jogo com engine antiga ou que depende muito de IPC e poucos cores, pode ainda ter quedas bruscas para menos de 60 FPS. Se vc quer manter 98% de uma RTX 2080 Ti precisa ir de Intel de 8a ou 9a com clocks bem altos e no mínimo em 2K. Em FHD nem um 9900K empurra 98% numa 2080 Ti.
 
E também acho que suas memórias estão com timings muito altos. Aqui eu uso um kit 2400 em 2666 e as vezes bate 79, mas no geral fica no 80 baixos. Você com 3200 consegue baixar isso muito mais, principalmente se subir também o clock da CPU.

A primeira geração do Ryzen tem uma latência de memória muito alta e um ipc menor que o Intel pois não alcança o mesmo clock.

Assim, quando o jogo exige latência de memória e clock alto de um ou dois núcleos, todo o sistema fica esperando, inclusive a placa de vídeo. Nisso, ocorre esse uso limitado da GPU nesse momento. Lembrando que o processador é dividido em duas partes de 4 núcleos com uma latência de comunicação entre as partes, o que causa esse atraso na comunicação com as memórias.
 
Sim, nao estou morrendo por frames cairem pra 50, ate pq pra quem saiu de uma RX 480, ta MUITO melhor. So que incomoda ver que uma GPU cara dessas se limitar por causa da CPU com desempenho Single Thread ridiculo (ta no nivel to 4770k de 2013 pelo CineBench), mesmo em 4k. Isso vai contra todos os review e reviewers que falam que pra 4k CPU nao importa, e tenho cada vez mais certeza que se fizessem testes longos, achariam pontos do mapa (pra jogos mundo aberto) onde o uso de CPU é mais alto, e é ai que o bixo pega. Sem contar que, no caso do WD2, mesmo em 1080p ultra tem alguns pontos especificos do mapa (Oakland) que o uso de GPU cai pra 80% e os frames pros 50. Nao é ruim, mas... PQP, um canhao de placa dessas tropeçar na CPU é complicado...

Como o refresh do meu monitor é 75Hz, da pra sentir facilmente quando cai de 75 pra 50fps. Estou ignorando o Watch Dogs que eu sei que e bugado. Mesmo no NFS ontem caiu por alguns poucos segundos abaixo de 60, bem no momento que o uso de GPU tb caiu pra baixo de 85%...

Tentei o Horizon 4 ontem, mas lembrei que tinha desativado manualmente tudo relacionado ao Xbox app pra nao influenciar no desempenho, e nao estou afim de configurar tudo de volta.

Problema que so tenho jogos de 2015 a 2017, e o mais novo que eu tenho é o Ghost Recon Wildlands, que por ser Ubi eu estou ignorando como um bom teste de desempenho. Quero comprar o Ace Combat, mas sie que ele vai gargalar em 4k por ser relativamente leve pra 2080Ti.

Esse fim de semana eu vou ver se faço upgrade do meu Origin Access pra Premier, e testo BF5 e Anthem. Nao, eu nao ganhei os 2 jogos pq aqui na Europa (Italia especificamente) a regra é diferente, e quem da os jogos sao as lojas e nao a NVidia, so que somente as lojas "credenciadas", leia-se umas 4 lojas careiras que tem pouca variedade de modelos e marcas.
Tem que fazer um overclock ai amigo....o Ryzen vai bem qdo o clock sobe, eu tenho um 1700 aqui parado tb, vou vender ele, é um baita processador, o problema sao os games mesmo colega, nao leva tdo para o lado do processador, simples vc entender, coloca o BFV em um Core i5 9600K ou ate mesmo um i7 8700K e veja que eles trabalham acima dos 70% de uso, ou seja, sao excelentes processadores cuspidores de frames, mas ja deixa indicios de que logo estarão em 100% de sua capacidade, coloca o 1700 e veja que o uso nao passa de 60%, jogos mundo aberto e competivivos MMO tendem a se beneficiar mais de multithread, porem tem jogos que infelizmente o Ryzen parece ignorar completamente seu proprio potencial, pra isso vc precisa entao encarar a intel e ir de Core i7, pagar o preço e ja era! Eu tenho uma 2080Ti e ela ja esteve em um Ryzen 2700X é o mesmo cenario, onde o i7 entrega 160fps o 2700X entrega 130, mesmo fazendo overclock no 2700X ele nao chega nos 145fps, se for ver por esse lado a intel ganha mesmo, mas quem precisa de mais do que 100fps???? em 4k qqr coisa acima de 60fps é lucro, mas reitero, uma 2080Ti é muita placa pra um Ryzen 7 1700, ai o desequilibrio é o seu setup mesmo, eu tenho uma Vega 64 e ja usei com ele e deu super certo!!!
 
Tem que fazer um overclock ai amigo....o Ryzen vai bem qdo o clock sobe, eu tenho um 1700 aqui parado tb, vou vender ele, é um baita processador, o problema sao os games mesmo colega, nao leva tdo para o lado do processador, simples vc entender, coloca o BFV em um Core i5 9600K ou ate mesmo um i7 8700K e veja que eles trabalham acima dos 70% de uso, ou seja, sao excelentes processadores cuspidores de frames, mas ja deixa indicios de que logo estarão em 100% de sua capacidade, coloca o 1700 e veja que o uso nao passa de 60%, jogos mundo aberto e competivivos MMO tendem a se beneficiar mais de multithread, porem tem jogos que infelizmente o Ryzen parece ignorar completamente seu proprio potencial, pra isso vc precisa entao encarar a intel e ir de Core i7, pagar o preço e ja era! Eu tenho uma 2080Ti e ela ja esteve em um Ryzen 2700X é o mesmo cenario, onde o i7 entrega 160fps o 2700X entrega 130, mesmo fazendo overclock no 2700X ele nao chega nos 145fps, se for ver por esse lado a intel ganha mesmo, mas quem precisa de mais do que 100fps???? em 4k qqr coisa acima de 60fps é lucro, mas reitero, uma 2080Ti é muita placa pra um Ryzen 7 1700, ai o desequilibrio é o seu setup mesmo, eu tenho uma Vega 64 e ja usei com ele e deu super certo!!!


Pois é, 1080p com gargalo eu não ligo, pq meu monitor (2560x1080) vou trocar em breve e também jogo bastante na TV em 4k. A questão toda aqui foi ver gargalos, leia-se uso de GPU menor que os 96~97%, caindo até pra 80%, em jogos EM 4K com frames caindo dos 70~60. ISSO que eu não esperava, visto que tudo que é review/reviewer fala que pra 4K o CPU não importa... Sei que o Ryzen se dá bem em multi-thread, mas se a indústria não utiliza isso em todo o seu potencial 2 anos depois do lançamento dos Ryzen, acho que ainda vai demorar bastante pra que o padrão seja jogos usarem 12~16 núcleos e não ligarem tanto pra performance single-thread, o que fariam os Ryzen serem tão bons ou melhores que i7.


Bom, é isso.
A primeira geração do Ryzen tem uma latência de memória muito alta e um ipc menor que o Intel pois não alcança o mesmo clock.

Assim, quando o jogo exige latência de memória e clock alto de um ou dois núcleos, todo o sistema fica esperando, inclusive a placa de vídeo. Nisso, ocorre esse uso limitado da GPU nesse momento. Lembrando que o processador é dividido em duas partes de 4 núcleos com uma latência de comunicação entre as partes, o que causa esse atraso na comunicação com as memórias.

Então... realmente não tem muito o que fazer a não ser esperar e ver os Ryzen 3000. Se ainda assim não passar do i9, o que infelizmente é o que eu acho que vai acontecer, aí sim a troca "ta liberada".

É assim mesmo, brother. Ryzen segura bem até uns 60 FPS, nisso em jogos modernos. Se for jogo com engine antiga ou que depende muito de IPC e poucos cores, pode ainda ter quedas bruscas para menos de 60 FPS. Se vc quer manter 98% de uma RTX 2080 Ti precisa ir de Intel de 8a ou 9a com clocks bem altos e no mínimo em 2K. Em FHD nem um 9900K empurra 98% numa 2080 Ti.
 
E também acho que suas memórias estão com timings muito altos. Aqui eu uso um kit 2400 em 2666 e as vezes bate 79, mas no geral fica no 80 baixos. Você com 3200 consegue baixar isso muito mais, principalmente se subir também o clock da CPU.

Só pra eu confirmar, eu citei lá em cima que testei em 2700 @16-16-16-36, 2400@14-16-16-34 e @3200 17-17-17-37. Todos os testes dão o mesmo resultado, e 3200@16-16-16-36 eu não consigo, dando BSOD ou travando no boot.

Entretanto, vou fazer como o Lesado indicou e baixar o DRAM Calculator pra tentar outros timmings.

Quanto a nem o i9 9900k segurar 98% numa 2080Ti, isso eu sei, e só citei o teste que eu fiz em 1080p pra mostrar que mesmo assim as quedas são abaixo de 60 fps (em umas duas ou três ruas na zona de Oakland to Watch Dogs 2). Aqui não estou falando de "meus fps caíram de 200 pra 150" ou mesmo de 120 pra 90, como todo mundo testa. Nesse caso, foi da trava do RTSS de 60 pra 50~49. Isso é má otimização? Sim, provável. Mas os i7 passam batido nisso, sendo mais "à prova" de má otimizações que, infelizmente, nós PC gamers sabemos que afetam uma quantidade significativa dos jogos, principalmente quando se considera que Ubi e Bethesda são duas das maiores publishers atualmente, quer goste ou não.
 
Quanto a nem o i9 9900k segurar 98% numa 2080Ti, isso eu sei, e só citei o teste que eu fiz em 1080p pra mostrar que mesmo assim as quedas são abaixo de 60 fps (em umas duas ou três ruas na zona de Oakland to Watch Dogs 2). Aqui não estou falando de "meus fps caíram de 200 pra 150" ou mesmo de 120 pra 90, como todo mundo testa. Nesse caso, foi da trava do RTSS de 60 pra 50~49. Isso é má otimização? Sim, provável. Mas os i7 passam batido nisso, sendo mais "à prova" de má otimizações que, infelizmente, nós PC gamers sabemos que afetam uma quantidade significativa dos jogos, principalmente quando se considera que Ubi e Bethesda são duas das maiores publishers atualmente, quer goste ou não.

Sim sim... acontece que esses jogos foram feitos em e feitos para computadores Intel, não teria como ser diferente. Quando a gente fala que é "mal otimizado" as vezes não estamos falando que o jogo é mal feito no geral, estamos falando que ele é mal otimizado para a AMD, mas pode funcionar lindamente em Intel.

Mas enfim, basicamente, é isso ai. Você pode migrar pra Intel e resolver esse problema agora, ou continuar com seu Ryzen e passar por esses problemas nos jogos antigos, a tendência é que conforme você for terminando eles que os próximos jogos que vc pegar estarão bem melhores, ai também pode esperar pra ver o que a AMD vai trazer agora no meio do ano. As vezes eles lançam um processador bom o suficiente em IPC e latência pra resolver esse problema e nem precisa migrar de plataforma, só de CPU. Tira um e põe o outro, já era.
 
Jogos novos como o Battlefield V já distribuem bem threads. Então, a tendência é que os 4 cores comecem a perder feio para processadores com vários núcleos. Mas sempre vai existir aquela exigência do core principal por um clock alto.
 
Sim sim... acontece que esses jogos foram feitos em e feitos para computadores Intel, não teria como ser diferente. Quando a gente fala que é "mal otimizado" as vezes não estamos falando que o jogo é mal feito no geral, estamos falando que ele é mal otimizado para a AMD, mas pode funcionar lindamente em Intel.

Mas enfim, basicamente, é isso ai. Você pode migrar pra Intel e resolver esse problema agora, ou continuar com seu Ryzen e passar por esses problemas nos jogos antigos, a tendência é que conforme você for terminando eles que os próximos jogos que vc pegar estarão bem melhores, ai também pode esperar pra ver o que a AMD vai trazer agora no meio do ano. As vezes eles lançam um processador bom o suficiente em IPC e latência pra resolver esse problema e nem precisa migrar de plataforma, só de CPU. Tira um e põe o outro, já era.

Vou jogando os jogos que eu comprei (Watch Dogs 2 e Ghost Recon Wildlands) e os que estão na lista (Ace Combat 7, Shadow of the Tomb Raider, BF5, Anthem, The Division 2, Rage 2) e vou vendo. Se por acaso o uso de GPU cair por causa do CPU, fazendo os frames cairem abaixo de 60 nos jogos de 2018 ou 2019 em 2560x1080 ou 3440x1440, aí sim eu vou ter que ligar o alerta. Caso contrário, se for gargalo só em 1080p pra jogos mais recentes, ta ok.

A propósito, testei o DRAM Calculator e os timmings do preset Fast foram simplesmente fora da realidade. Tentei ainda assim, na maior das paciências, timming por timming, mas obviamente não deu (era tipo CL14 com 3200) e a BIOS se resetou pra 2100Mhz. Ajustei aqui com algo mais intermediário, e descendo a frequência de 3200 pra 3000, consegui o seguinte:

GFS1ADE.png


Vocês sabem dizer se isso é melhor do que o XMP de 3200@16-18-18-38?


Jogos novos como o Battlefield V já distribuem bem threads. Então, a tendência é que os 4 cores comecem a perder feio para processadores com vários núcleos. Mas sempre vai existir aquela exigência do core principal por um clock alto.
Ta baixando aqui e amanhã eu testo. Origin Access dá acesso a 10h trial, então bora fazer maratona de testes xD. Pelo menos eu vou poder ver também o RayTracing em ação, além de saber se DLSS funciona em Ultrawide.
 
Pois é, 1080p com gargalo eu não ligo, pq meu monitor (2560x1080) vou trocar em breve e também jogo bastante na TV em 4k. A questão toda aqui foi ver gargalos, leia-se uso de GPU menor que os 96~97%, caindo até pra 80%, em jogos EM 4K com frames caindo dos 70~60. ISSO que eu não esperava, visto que tudo que é review/reviewer fala que pra 4K o CPU não importa... Sei que o Ryzen se dá bem em multi-thread, mas se a indústria não utiliza isso em todo o seu potencial 2 anos depois do lançamento dos Ryzen, acho que ainda vai demorar bastante pra que o padrão seja jogos usarem 12~16 núcleos e não ligarem tanto pra performance single-thread, o que fariam os Ryzen serem tão bons ou melhores que i7.
amigo conforme-se, veja qto custa um 2700X por exemplo e o quanto csta um 8700K, ai que entram as diferenças, é questao de custo x beneficio!
Faz como falei, overclock no 1700 e toca o barco, vc tem processador de sobra em multithread, precisa so de uma ajudazinha quando usa metade dos seus nucleos ou menos!
 
Vou jogando os jogos que eu comprei (Watch Dogs 2 e Ghost Recon Wildlands) e os que estão na lista (Ace Combat 7, Shadow of the Tomb Raider, BF5, Anthem, The Division 2, Rage 2) e vou vendo. Se por acaso o uso de GPU cair por causa do CPU, fazendo os frames cairem abaixo de 60 nos jogos de 2018 ou 2019 em 2560x1080 ou 3440x1440, aí sim eu vou ter que ligar o alerta. Caso contrário, se for gargalo só em 1080p pra jogos mais recentes, ta ok.

A propósito, testei o DRAM Calculator e os timmings do preset Fast foram simplesmente fora da realidade. Tentei ainda assim, na maior das paciências, timming por timming, mas obviamente não deu (era tipo CL14 com 3200) e a BIOS se resetou pra 2100Mhz. Ajustei aqui com algo mais intermediário, e descendo a frequência de 3200 pra 3000, consegui o seguinte:

GFS1ADE.png


Vocês sabem dizer se isso é melhor do que o XMP de 3200@16-18-18-38?



Ta baixando aqui e amanhã eu testo. Origin Access dá acesso a 10h trial, então bora fazer maratona de testes xD. Pelo menos eu vou poder ver também o RayTracing em ação, além de saber se DLSS funciona em Ultrawide.
só uma pergunta, antes de setar os timings vc viu qual é o chip das suas memórias?
Baixa a versão do AIDA64 0800 e roda o benchmark de memória, aí vc vai ter como comparar qual esta melhor. Como disseram acima 80ns de latência é alto para o Ryzen.
 
só uma pergunta, antes de setar os timings vc viu qual é o chip das suas memórias?
Baixa a versão do AIDA64 0800 e roda o benchmark de memória, aí vc vai ter como comparar qual esta melhor. Como disseram acima 80ns de latência é alto para o Ryzen.

Vi sim, aqui o relatório do Thaiphoon Burner:
59c4uld.png


Quanto a latência de 80ns ser alta, bem... agora "baixou" pra 78, e é isso... pra conseguir menos eu teria que comprar outro kit eu acho, e PQP, gastar mais em memória do que no próprio CPU é o cúmulo.

amigo conforme-se, veja qto custa um 2700X por exemplo e o quanto csta um 8700K, ai que entram as diferenças, é questao de custo x beneficio!
Faz como falei, overclock no 1700 e toca o barco, vc tem processador de sobra em multithread, precisa so de uma ajudazinha quando usa metade dos seus nucleos ou menos!
Então, tentando ao máximo não soar babaca, mas aqui na Europa o 2700x custa uns €320 e o 8700K uns €390 (€499 o 9900k). Não acho que essa diferença de preço justifique um desempenho tão problemático pra qualquer coisa que não seja otimizada pra multi-thread. Se estivesse montando o PC do zero, iria na segunda opção sem dúvidas, infelizmente.

Testei aqui o BF5, que como disseram é um jogo melhor otimizado pra multi-thread, e... em 3440x1440 (via DSR) Ultra sem RT (a versão trial não roda DX12 online, vai entender...), os frames ficam entre 70 e 100, e uso de GPU entre 80% e 95%, respectivamente. De novo, pra rodar travado em 60 frames por exemplo, ótimo. Mas não é nem um pouco raro achar monitores 3440X1440 com refresh de 75 ou 100hz, e nesses, a galera tem que repensar o CPU. O mesmo teste em 4434x1871 (novamente via DSR) ficaram entre 60 e 80 frames, com uso de GPU quase sempre em 95~96%.

Aqui os videos em 3440x1440 e 4434x1871 (ambos via DSR). Notem o uso de GPU em 1440p:




Minha questão inteira com esse tópico é discutir a informação de que "pra 4K não importa a CPU", e que "O Ryzen só não entrega pra quem tem monitor 144Hz". Ambas afirmações parecem falhas pelos testes aqui postados.
Visto que, como nos meus testes em GTA 5 com o "extended distance scaling", em Ghost Recon Wildlands usando a Qualidade Da Vegetação no Ultra, ou no Watch Dogs 2 simplesmente usando a filtragem temporal, TODOS apresentaram gargalo de CPU, deixando a GPU sub-utilizada MESMO em resoluções altas, Esses gargalos fazem a GPU ficar abaixo dos 85%~80%, chegando a até 70%, e os frames caírem de 60. Não é simplesmente uma questão de não rodar a 130 frames mesmo num monitor 60Hz, mas sim de ter quedas de desempenho em resoluções altas por causa da subutilização da GPU, e não pelo limite de desempenho da mesma, fazendo em alguns casos os frames caírem dos 60.
 
Última edição:
Se a sua intenção com isso tudo é discutir que pra 4K não importa a CPU, então você chegou tarde. Ninguém aqui fala isso. Todo mundo que recomenda Ryzen assim o faz conforme o orçamento da pessoa e, principalmente, o monitor e a placa de vídeo dela. Via de regra todo mundo recomenda Ryzen quando a pessoa vai jogar em 60Hz porque para isso ele é suficiente e a economia em CPU permite a pessoa pegar uma GPU melhor. Como o colega acima falou, é uma compra voltada ao custo x benefício.

Você tá com um processador de 2016 (que nem era o melhor da linha), com uma placa de vídeo TOP de 2019, reclamando dos jogos de 2013. Se a sua intenção sempre foi rodar jogos acima dos 100 FPS, jogos antigos ainda que dependem de clock alto e não aproveitam de várias threads, você simplesmente fez uma compra errada. Seu processador não tem nada a ver com isso, e ele não se torna ruim por causa do seu erro.
 
Acho que você está forçando um pouco a barra...
A CPU está em stock e no BFV a 4k o uso da gpu tá ok, quer cravar em 99.999% faz um over nesse Ryzen ae.
E sinceramente usar um RTX 2080ti pra jogar em 1440p é querer mata mosquito com bala de canhão, 1080p então nem se fala...
Se vc quer 100fps+ nesses games mais antigos, não tem pra aonde correr, tem que ir de intel e nem é qualquer intel, tem q ser os i7 e i9.

Deixar uma print do r6s com Ryzen 7 2700x, que é uma game competitivo que gosto de jogar, BFV não tenho pra testar e muito menos uma RTX...
20180927210726-1.jpg
 
Última edição:
Vi sim, aqui o relatório do Thaiphoon Burner:
59c4uld.png


Quanto a latência de 80ns ser alta, bem... agora "baixou" pra 78, e é isso... pra conseguir menos eu teria que comprar outro kit eu acho, e PQP, gastar mais em memória do que no próprio CPU é o cúmulo.


Então, tentando ao máximo não soar babaca, mas aqui na Europa o 2700x custa uns €320 e o 8700K uns €390 (€499 o 9900k). Não acho que essa diferença de preço justifique um desempenho tão problemático pra qualquer coisa que não seja otimizada pra multi-thread. Se estivesse montando o PC do zero, iria na segunda opção sem dúvidas, infelizmente.

Testei aqui o BF5, que como disseram é um jogo melhor otimizado pra multi-thread, e... em 3440x1440 (via DSR) Ultra sem RT (a versão trial não roda DX12 online, vai entender...), os frames ficam entre 70 e 100, e uso de GPU entre 80% e 95%, respectivamente. De novo, pra rodar travado em 60 frames por exemplo, ótimo. Mas não é nem um pouco raro achar monitores 3440X1440 com refresh de 75 ou 100hz, e nesses, a galera tem que repensar o CPU. O mesmo teste em 4434x1871 (novamente via DSR) ficaram entre 60 e 80 frames, com uso de GPU quase sempre em 95~96%.

Aqui os videos em 3440x1440 e 4434x1871 (ambos via DSR). Notem o uso de GPU em 1440p:




Minha questão inteira com esse tópico é discutir a informação de que "pra 4K não importa a CPU", e que "O Ryzen só não entrega pra quem tem monitor 144Hz". Ambas afirmações parecem falhas pelos testes aqui postados.
Visto que, como nos meus testes em GTA 5 com o "extended distance scaling", em Ghost Recon Wildlands usando a Qualidade Da Vegetação no Ultra, ou no Watch Dogs 2 simplesmente usando a filtragem temporal, TODOS apresentaram gargalo de CPU, deixando a GPU sub-utilizada MESMO em resoluções altas, Esses gargalos fazem a GPU ficar abaixo dos 85%~80%, chegando a até 70%, e os frames caírem de 60. Não é simplesmente uma questão de não rodar a 130 frames mesmo num monitor 60Hz, mas sim de ter quedas de desempenho em resoluções altas por causa da subutilização da GPU, e não pelo limite de desempenho da mesma, fazendo em alguns casos os frames caírem dos 60.


testa jogar com o render frame limit on, aqui com ele on o uso da gpu fica 96~97% com 85~90fps de média(dsr 2x ultra mapa roterdã), quando desabilito ele o uso fica em ~70% e o fps em ~60fps.
edit: em dx11 mesmo pq o dx12 do bfv é bugado.
 

Users who are viewing this thread

Voltar
Topo