[TÓPICO DEDICADO] AMD Ryzen Socket AM4 - Zen, Zen+, Zen 2 & Zen 3

Você vai migrar para um ZEN


  • Total de votos
    989

RHBH

know-it-all Member
Registrado
20/04/2008
6,483
9,822
41
São Paulo / SP
Um CPU para jogos de 6/12 vai render bem por mais que 3 anos tranquilamente

Não sei não ein.

Há 3 anos atrás se comprava o i7 7700k que é 4/8, hoje 4/8 não está rendendo muito bem em vários jogos.

Daqui 3 anos a Intel vai ter CPU 16 núcleos (8 big e 8 little).

Daqui 3 anos 6/12 provavelmente vai ser o Ryzen 3.

Eu não aposto aposto em mais de 3 anos com 6 núcleos, especialmente para 120hz ou mais.

PS5 e Xbox Series X estão vindo com uma CPU que é basicamente um R7 3700X. Um octa core para o sistema e o jogo.
 

brender

know-it-all Member
Registrado
02/05/2010
12,326
19,255
18
São Paulo
Só uma complementação para sua explicação se me permite.
A performance do CPU em 720p, 1080p, 1440p, 2160p é o mesmo, o que muda é se a GPU consegue ou não enviar a mesma carga para o CPU.

Cara, acompanho benchmark de CPU's em diversos jogos, de diversas placas de vídeo e resoluções.

E não, o desempenho da CPU não é o mesmo nas resoluções.

Somente a partir de 1440p que a CPU não faz diferença nos jogos.

Em 720p e 1080p, CPU faz diferença em FPS sim.
 

RHBH

know-it-all Member
Registrado
20/04/2008
6,483
9,822
41
São Paulo / SP
Cara, acompanho benchmark de CPU's em diversos jogos, de diversas placas de vídeo e resoluções.

E não, o desempenho da CPU não é o mesmo nas resoluções.

Somente a partir de 1440p que a CPU não faz diferença nos jogos.

Em 720p e 1080p, CPU faz diferença em FPS sim.

Exato

Segue ilustrações, a diferença é grande!

Um Ryzen 5 3600 faz 79.9% em relação a um 10900K em 720p.
Um Ryzen 5 3600 faz 89.2% em relação a um 10900K em 1080p.
Um Ryzen 5 3600 faz 95.0% em relação a um 10900K em 1440p.
Um Ryzen 5 3600 faz 98.6% em relação a um 10900K em 4K.

Fonte:
https://www.techpowerup.com/review/intel-core-i9-10900k/

relative-performance-games-1280-720.png
relative-performance-games-1920-1080.png
relative-performance-games-2560-1440.png
relative-performance-games-38410-2160.png

"Ah mas é só 10% de diferença em 1080p" - Sim, mas estes 10% farão diferença quando o cara quiser jogar em mais de 150fps, e no caso de longevidade que ele quer, é normal que essa diferença passe a acontecer na casa dos 100fps daqui alguns anos, conforme os jogos ficam mais pesados.

Por isso eu mantenho minha sugestão, quer PC pra jogar em 1080p 120hz ou mais? Pega um i5 10600K (R$2.1K) ou em novembro um Ryzen 5 5600X (chegará por volta de R$2.5K), esquece série 3000 especialmente se for pra manter o computador por 3 anos ou mais.

Se tanto o i5 10600K e o 5600X estiverem fora do orçamento, em janeiro/fevereiro compre o Ryzen 5 5600 que vai custar em torno de R$1.8K se o preço de $220 se confirmar.
 
Última edição:

Alberth-OC

New Member
Registrado
13/04/2014
3,933
22,758
0
Agora trago mais informações do Cezanne: Linha completa da próxima geração mobile de APUs da AMD foi vazada :D

ModelouArch (Codinome)Núcleos / ThreadsCache L3Clock (Base/Turbo)iGPU (Clock)TDP (cTDP)
Ryzen 7 5800UZen3 (Cezanne)8/1616MB2.00GHz / 4.40GHzVega8 (2.0GHz)15W (10~25W)
Ryzen 7 5700UZen2 (Lucienne)8/168MB1.80GHz / 4.30GHzVega8 (1.9GHz)15W (10~25W)
Ryzen 5 5600UZen3 (Cezanne)6/1212MB2.30GHz / 4.20GHzVega7 (1.8GHz)15W (10~25W)
Ryzen 5 5500UZen2 (Lucienne)6/128MB2.10GHz / 4.00GHzVega7 (1.8GHz)15W (10~25W)
Ryzen 3 5400UZen3 (Cezanne)4/88MB2.60GHz / 4.00GHzVega6 (1.6GHz)15W (10~25W)
Ryzen 3 5300UZen2 (Lucienne)4/84MB2.30GHz / 3.85GHzVega6 (1.5GHz)15W (10~25W)

O VideoCarz não perdeu tempo e já atualizou a lista, com o bônus da geração anterior para efeito de comparação:
Screenshot-2020-10-18-AMD-Ryzen-5000-U-Cezanne-Lucienne-mobile-series-specifications-leaked-Video-Ca.png


Com isso a próxima geração vai ser interessante, pois virá bem completa e dividida, onde os Lucienne possuem as mesmas especificações básicas dos Cezanne, mas perdem em IPC, cache e clock. Bom saber que agora toda a linha conta com SMT, mas ruim saber que realmente teremos uma geração Zen2 e Zen3 misturada.

Edit: Segundo o @Chiakokhua (retired engineer) o Lucienne está junto com o Cezanne na mesma série, e assim confundindo o consumidor, a pedido das OEM (refresh não soa bem para vendas, e nomear como uma geração antiga menos ainda). A AMD já mostrou que sua plataforma é melhor que a da Intel, não precisa mais se render ao que os OEM pedem para deixar eles felizes, está na hora de começar a impor regras, principalmente às AIB na parte desktop (o AM5 vem ai e espero que não venha como o AM4).
Especificações boas apesar de manter a Vega como GPU onde a Intel vem com sua Xe prometendo bastante.

O problema é que a AMD precisa ser mais agressiva na área mobile, pois nem aqui no Brasil a gente consegue ver laptops com Ryzen 4000 e os 3000 estão ficando fora de estoque.

Um laptop 8/16 pra produtividade é o que geral pede há anos. Chega de 4/8.
 
  • Curtir
Reações: brender

dacfeb31

know-it-all Member
Registrado
10/08/2016
980
501
0
Cara, acompanho benchmark de CPU's em diversos jogos, de diversas placas de vídeo e resoluções.

E não, o desempenho da CPU não é o mesmo nas resoluções.

Somente a partir de 1440p que a CPU não faz diferença nos jogos.

Em 720p e 1080p, CPU faz diferença em FPS sim.
Exato

Segue ilustrações, a diferença é grande!

Um Ryzen 5 3600 faz 79.9% em relação a um 10900K em 720p.
Um Ryzen 5 3600 faz 89.2% em relação a um 10900K em 1080p.
Um Ryzen 5 3600 faz 95.0% em relação a um 10900K em 1440p.
Um Ryzen 5 3600 faz 98.6% em relação a um 10900K em 4K.

Fonte:
https://www.techpowerup.com/review/intel-core-i9-10900k/

relative-performance-games-1280-720.png


relative-performance-games-1920-1080.png


relative-performance-games-2560-1440.png


relative-performance-games-38410-2160.png

Mas isso é justamente o que expliquei. A diferença entre os CPU's diminui entre 720p, 1080p, 2160p devido ao poder gráfico da GPU. A 2080 TI vai "fazer menos FPS" em 2160p em relação ao 720p. A 2080 Ti vai enviar uma carga muita maior para o CPU em 720p do que em 2160p, isso se deve que como a exigência gráfica será menor e com isso vai gerar maior taxa de quadros e o CPU terá mais trabalho para processar. Em 4K a 2080 TI vai ter mais exigência gráfica e vai entregar uma taxa menor de FPS e com isso o processador vai ter um trabalho menor.

No gráfico 1280 x 720 o Core I9 10900K 3.7/5.3 Ghz fica com uma diferença maior em relação ao Ryzen 5 1600 3.2/3.6 GHz em 720p devido a carga, ou seja neste caso a diferença foi maior, pois o Core I9 10900K 3.7/5.3 Ghz é muito melhor e pode processar mais dados, visto que sobra poder gráfico para a 2080 Ti nesta resolução. Que envia muito mais trabalho para o processador.

No gráfico 3840 x 2160 o Core I9 10900K 3.7/5.3 Ghz fica com uma diferença menor em relação ao Ryzen 5 1600 3.2/3.6 GHz em 2160p devido a carga, ou seja neste caso a diferença foi menor, pois mesmo o 9 10900K 3.7/5.3 Ghz sendo muito mais poderoso que o Ryzen 5 1600 3.2/3.6 GHz a quantidade de dados enviadas para a CPU é muito menor, pois nesta resolução não sobra desempenho para a 2080 Ti que tem muito mais trabalho e envia muito menos quadros por segundo para o processador.

A taxa de quadros que o Core I9 10900K consegue levar em 720p é a mesma que em 2160p, mas a GPU não tem pode gráfico para acompanhar o CPU. A GPU vai "render" menos e "entregar" menos performance em 4K do que entregaria em 720p. Mas o poder de processamento do CPU está lá, mesmo que não sendo utilizado por insuficiência da GPU. Se a 2080 Ti entregasse a mesma taxa de FPS em todas as resoluções a diferença entre todos os processadores seria a mesma.

Segue uns vídeos explicando um pouco melhor o que me refiro.





 

RHBH

know-it-all Member
Registrado
20/04/2008
6,483
9,822
41
São Paulo / SP
Mas isso é justamente o que expliquei. A diferença entre os CPU's diminui entre 720p, 1080p, 2160p devido ao poder gráfico da GPU. A 2080 TI vai "fazer menos FPS" em 2160p em relação ao 720p. A 2080 Ti vai enviar uma carga muita maior para o CPU em 720p do que em 2160p, isso se deve que como a exigência gráfica será menor e com isso vai gerar maior taxa de quadros e o CPU terá mais trabalho para processar. Em 4K a 2080 TI vai ter mais exigência gráfica e vai entregar uma taxa menor de FPS e com isso o processador vai ter um trabalho menor.

No gráfico 1280 x 720 o Core I9 10900K 3.7/5.3 Ghz fica com uma diferença maior em relação ao Ryzen 5 1600 3.2/3.6 GHz em 720p devido a carga, ou seja neste caso a diferença foi maior, pois o Core I9 10900K 3.7/5.3 Ghz é muito melhor e pode processar mais dados, visto que sobra poder gráfico para a 2080 Ti nesta resolução. Que envia muito mais trabalho para o processador.

No gráfico 3840 x 2160 o Core I9 10900K 3.7/5.3 Ghz fica com uma diferença menor em relação ao Ryzen 5 1600 3.2/3.6 GHz em 2160p devido a carga, ou seja neste caso a diferença foi menor, pois mesmo o 9 10900K 3.7/5.3 Ghz sendo muito mais poderoso que o Ryzen 5 1600 3.2/3.6 GHz a quantidade de dados enviadas para a CPU é muito menor, pois nesta resolução não sobra desempenho para a 2080 Ti que tem muito mais trabalho e envia muito menos quadros por segundo para o processador.

A taxa de quadros que o Core I9 10900K consegue levar em 720p é a mesma que em 2160p, mas a GPU não tem pode gráfico para acompanhar o CPU. A GPU vai "render" menos e "entregar" menos performance em 4K do que entregaria em 720p. Mas o poder de processamento do CPU está lá, mesmo que não sendo utilizado por insuficiência da GPU. Se a 2080 Ti entregasse a mesma taxa de FPS em todas as resoluções a diferença entre todos os processadores seria a mesma.

Segue uns vídeos explicando um pouco melhor o que me refiro.







É que você concordou que o R5 3600 iria render para 144Hz.

Eu discordo. Daqui 2 anos 1080p 144Hz com um 3600 vai ser dificil na minha opinião, estou baseando minha opinião no fato que 4/8 que era top a 3 anos atrás, hoje é CPU de entrada, da mesma forma que acho que em 2 ou 3 anos um 6/12 vai ser CPU de entrada.

Os novos consoles estão usando um "R7 3700X" basicamente. Historicamente o hardware dos consoles vira hardware de "PC de entrada" com 3 a 5 anos após o lançamento.

Não é opinião, é um fato, aconteceu com o PS2... aconteceu com PS3/360... aconteceu com PS4/One...

Então assim, os consoles usando uma CPU muito próxima de um 3700X, não faz sentido pra mim recomendar um 3600 pensando em longevidade de mais de 3 anos.

Outra coisa, normalmente longevidade e CxB não andam junto, ao meu ver o R5 3600 é um produto com foco em CxB.
 
Última edição:
  • Curtir
Reações: brender

dayllann

Shy Member
Registrado
10/12/2006
1,771
5,686
0
Gensyoko
Especificações boas apesar de manter a Vega como GPU onde a Intel vem com sua Xe prometendo bastante.

O problema é que a AMD precisa ser mais agressiva na área mobile, pois nem aqui no Brasil a gente consegue ver laptops com Ryzen 4000 e os 3000 estão ficando fora de estoque.

Um laptop 8/16 pra produtividade é o que geral pede há anos. Chega de 4/8.
Com certeza ela precisa ser mais agressiva, cansei de procurar notebooks com Ryzen e só achar modelos "gamer" com um Ryzen 3 de primeira ou segunda geração a preços nada condizentes com um notebook Ryzen de entrada. A Intel domina o mercado e o mindshare, então enquanto a AMD não provar que existe, e que está melhor, nos notebooks para a massa dificilmente os fabricantes irão abraçar a linha Ryzen em uma grande gama de produtos (fora os acordos da Intel com os OEM, que dificulta ainda mais a expansão dela nos notebooks).

Quanto à Vega, bem, queria sim que o RDNA desse as caras mas não vai ser dessa vez, e tenho ideia dos motivos para tal: O sistema de hierarquia de cache do RDNA só seria possível como APU caso se colocasse uma cache dedicada à iGPU no die, caso não seria necessário uma largura de banda bastante alta, inviabilizando um bom desempenho num controlador de memória DDR4. No caso, iGPU RDNA só faz sentido quando o sistema utiliza memórias DDR5, LPDDR5 ou LPDDR4X. Com a Vega isso não é necessário, pois mesmo ávida por largura de banda essa uArch ainda funciona bem quando você limita essa largura, tanto que a grande mudança nos Renoir foi diminuir a quantidade de CUs para que cada unidade tenha acesso a mais banda, e para compensar essa redução o clock foi aumentado consideravelmente, fórmula essa que será seguida e expandida com o Cezanne e Lucienne.

Fora que os drivers para as GCN estão no ápice de otimização, ao contrário das RDNA, e como iGPU vai em CPUs usados em sistemas que dificilmente são atualizados (como OEMs e notebooks) essa estabilidade é importante. A primeira APU com RDNA será a linha VanGogh, que não se tem o nome comercial ainda, mas pela configuração (Zen2, 4 núcleos, 8 threads, CVML, 7W TDP) dá para perceber que será um chip exclusivamente LPDDR5/DDR5 e de baixo consumo, então o custo dele foi amortizado com essa simplicidade. Quando veremos ele em ação? Nenhuma informação, ainda, mas já se sabe que o sucessor do Cezanne (linha 6000U (?)) usará RDNA2.
 

dacfeb31

know-it-all Member
Registrado
10/08/2016
980
501
0
É que você concordou que o R5 3600 iria render para 144Hz.

Eu discordo. Daqui 2 anos 1080p 144Hz com um 3600 vai ser dificil na minha opinião, estou baseando minha opinião no fato que 4/8 que era top a 3 anos atrás, hoje é CPU de entrada, da mesma forma que acho que em 2 ou 3 anos um 6/12 vai ser CPU de entrada.

Os novos consoles estão usando um "R7 3700X" basicamente. Historicamente o hardware dos consoles vira hardware de "PC de entrada" com 3 a 5 anos após o lançamento.

Não é opinião, é um fato, aconteceu com o PS2... aconteceu com PS3/360... aconteceu com PS4/One...

Então assim, os consoles usando uma CPU muito próxima de um 3700X, não faz sentido pra mim recomendar um 3600 pensando em longevidade de mais de 3 anos.

Outra coisa, normalmente longevidade e CxB não andam junto, ao meu ver o R5 3600 é um produto com foco em CxB.


"Plus it has other benefits," enthuses Andrew Goossen. "It's less latent and it saves a ton of CPU. With the best competitive solution, we found doing decompression software to match the SSD rate would have consumed three Zen 2 CPU cores. When you add in the IO CPU overhead, that's another two cores. So the resulting workload would have completely consumed five Zen 2 CPU cores when now it only takes a tenth of a CPU core. So in other words, to equal the performance of a Series X at its full IO rate, you would need to build a PC with 13 Zen 2 cores. That's seven cores dedicated for the game: one for Windows and shell and five for the IO and decompression overhead."

https://www.eurogamer.net/articles/digitalfoundry-2020-inside-xbox-series-x-full-specs

Tradução:

“Além disso, tem outros benefícios”, entusiasma-se Andrew Goossen. "É menos latente e economiza uma tonelada de CPU. Com a melhor solução competitiva, descobrimos que fazer um software de descompactação para corresponder à taxa de SSD teria consumido três núcleos de CPU Zen 2. Quando você adiciona a sobrecarga de CPU IO, são mais dois núcleos . Portanto, a carga de trabalho resultante teria consumido completamente cinco núcleos de CPU Zen 2, quando agora leva apenas um décimo de núcleo de CPU. Em outras palavras, para igualar o desempenho de uma Série X em sua taxa de E / S total, você precisaria construir um PC com 13 núcleos Zen 2. São sete núcleos dedicados ao jogo: um para Windows e shell e cinco para IO e sobrecarga de descompressão. "


Analisando o que foi revelado até então sobre Xbox Series X apenas 7 núcleos estão dedicados ao jogo. Como a forma de gerenciamento de recursos é diferente do Windows no PC é complicado estimar se vamos precisar ou não de 8/16 em games. Embora seja Zen 2 8/16 dos consoles se pareça bem com o que temos no PC hoje, acho que o gerenciamento é feito de forma diferente. Mas é inegável que é a primeira vez que os consoles estão tão parecidos com os PC's, mas fica esta dúvida quanto ao comportamento dos jogos entre PC e console. Só o tempo dirá se vamos precisar ou não de CPU's mais potentes. Particularmente estou na torcida para não precisar de CPU mais potentes nesta geração, pois assim economizamos uma grana.
 

Alberth-OC

New Member
Registrado
13/04/2014
3,933
22,758
0
Com certeza ela precisa ser mais agressiva, cansei de procurar notebooks com Ryzen e só achar modelos "gamer" com um Ryzen 3 de primeira ou segunda geração a preços nada condizentes com um notebook Ryzen de entrada. A Intel domina o mercado e o mindshare, então enquanto a AMD não provar que existe, e que está melhor, nos notebooks para a massa dificilmente os fabricantes irão abraçar a linha Ryzen em uma grande gama de produtos (fora os acordos da Intel com os OEM, que dificulta ainda mais a expansão dela nos notebooks).

Quanto à Vega, bem, queria sim que o RDNA desse as caras mas não vai ser dessa vez, e tenho ideia dos motivos para tal: O sistema de hierarquia de cache do RDNA só seria possível como APU caso se colocasse uma cache dedicada à iGPU no die, caso não seria necessário uma largura de banda bastante alta, inviabilizando um bom desempenho num controlador de memória DDR4. No caso, iGPU RDNA só faz sentido quando o sistema utiliza memórias DDR5, LPDDR5 ou LPDDR4X. Com a Vega isso não é necessário, pois mesmo ávida por largura de banda essa uArch ainda funciona bem quando você limita essa largura, tanto que a grande mudança nos Renoir foi diminuir a quantidade de CUs para que cada unidade tenha acesso a mais banda, e para compensar essa redução o clock foi aumentado consideravelmente, fórmula essa que será seguida e expandida com o Cezanne e Lucienne.

Fora que os drivers para as GCN estão no ápice de otimização, ao contrário das RDNA, e como iGPU vai em CPUs usados em sistemas que dificilmente são atualizados (como OEMs e notebooks) essa estabilidade é importante. A primeira APU com RDNA será a linha VanGogh, que não se tem o nome comercial ainda, mas pela configuração (Zen2, 4 núcleos, 8 threads, CVML, 7W TDP) dá para perceber que será um chip exclusivamente LPDDR5/DDR5 e de baixo consumo, então o custo dele foi amortizado com essa simplicidade. Quando veremos ele em ação? Nenhuma informação, ainda, mas já se sabe que o sucessor do Cezanne (linha 6000U (?)) usará RDNA2.
É, essa questão da RDNA praticamente necessitar de uma memória cache dedicada para não se ter perdas de desempenho é o que pode ser o fator determinante de vermos elas apenas nas DDR5.

E outra coisa guys, fuçando o AliExpress da vida, consegui verificar que vcs já podem estar comprando os Ryzen 4000G que foram lançados especificamente para os OEMs. Os modelos 4650G e 4750G estão à venda.
Eu arriscaria em comprar um 4750G se eu não já tivesse uma 5700 XT cmg. O que torna ela no momento insignificante, porém caso eu vendesse minha GPU ela poderia ser um quebra galho pra eu não ficar sem vídeo.
 

Arris

Conectividade é massificar internet que funcione
Registrado
25/05/2015
12,508
12,572
17
É, essa questão da RDNA praticamente necessitar de uma memória cache dedicada para não se ter perdas de desempenho é o que pode ser o fator determinante de vermos elas apenas nas DDR5.

E outra coisa guys, fuçando o AliExpress da vida, consegui verificar que vcs já podem estar comprando os Ryzen 4000G que foram lançados especificamente para os OEMs. Os modelos 4650G e 4750G estão à venda.
Eu arriscaria em comprar um 4750G se eu não já tivesse uma 5700 XT cmg. O que torna ela no momento insignificante, porém caso eu vendesse minha GPU ela poderia ser um quebra galho pra eu não ficar sem vídeo.
Acho q compensa mais comprar uma gt 1030 usada pra dar vídeo hein
 

Arris

Conectividade é massificar internet que funcione
Registrado
25/05/2015
12,508
12,572
17
Ai vai do que vc achar melhor. Comparar um 4750G com um 3700X. na hr do upgrade qual valerá mais a pena?
Pra quem realmente vai trocar de cpu faz sentido pegar com igpu.
--- Post duplo é unido automaticamente: ---

Eu joguei fora minha antiga 550ti e me arrependo hj kkkkk
 
  • Curtir
Reações: Alberth-OC

RHBH

know-it-all Member
Registrado
20/04/2008
6,483
9,822
41
São Paulo / SP


Vários sonhos de comprar um Ryzen 5000 no lançamento foram destruídos com esse vídeo.
 
  • Curtir
Reações: dayllann

L...

Grande FDP.
Registrado
05/11/2011
6,664
5,870
43
42
Não tirei essa info do nada, tem no techpowerup e no próximo site da AMD.


295W é o pico em stock, a placa não consome isso o tempo todo.

Os números do techpowerup me pareceram altos demais, pode ser que meus resultados estejam errados, mas custo a acreditar que liberando 150% de power limit minha fonte de 750W aguentaria se a placa já estivesse puxando esses 300w em stock, tudo no meu pc está no limite do over, puxaria mais do que 750W nessas condições.

Agora meu ponto é que é bem ridículo, uma placa da mesma categoria num processo mais avançado consumir bem mais que a placa que foi esculachada no lançamento por causa de consumo.
 

drunks

know-it-all Member
Registrado
24/10/2012
1,684
71
0
34
Curitiba/PR
Maior falação aqui pra nada.

São muitas variáveis.

Quanto maior a resolução maior a carga na GPU e como ela não consegue gerar muitos quadros se torna o gargalo do sistema.
Ao contrário, quanto menor a resolução menor a carga na GPU, E SE o processador for mais "capaz" que a GPU ela será o gargalo do sistema. SE o processador for menos capaz que a GPU ele agora será o gargalo do sistema.

Não tem magia alguma. As vezes o pessoal complica o simples de forma totalmente desnecessária.

'' Somente a partir de 1440p que a CPU não faz diferença nos jogos. ''
A CPU faz diferença sim, coloca um Dual-Core com uma GTX 2080 lado a lado com um Quad-Core e a mesma GTX 2080 pra você ver.


TODO sistema tem gargalo, se não houvesse GARGALO não teríamos limite de FPS e jogaríamos a frames infinitos. Ficar discutindo é inútil.
Em cada cenários podemos ter um tipo diferente de limitação.
 

kamalh

Esner Mining Ltda
Registrado
01/10/2006
8,371
6,417
42
34
Contagem - MG
É uma questão de gerenciamento de estoque.

A loja tem estoque da série 3000, a demanda da série 3000 caiu pelo lançamento da série 5000.

Bem provável que teremos promoções. Estamos a cerca de um mês da Black Friday.

Especialmente dos modelos que vão ser aposentados.

Creio que dá série 3000 vamos continuar tendo muita procura do 3600 e 3700X.

Os modelos XT deve desaparecer rápido pois quem comprava esses vai procurar a série 5000, então os lojistas vão queimar esses estoques.

Acho que vai melhorar a escalonamento de valores, 3600 na faixa de 999,90, 5600 na faixa de 1500,00, 3700x/3800x 2k, 5800x acima de 2.5k.
 

SkyHakuu

know-it-all Member
Registrado
19/01/2006
5,352
2,883
42
38
www.pousadafazendaveredas.com.br
Maior falação aqui pra nada.

São muitas variáveis.

Quanto maior a resolução maior a carga na GPU e como ela não consegue gerar muitos quadros se torna o gargalo do sistema.
Ao contrário, quanto menor a resolução menor a carga na GPU, E SE o processador for mais "capaz" que a GPU ela será o gargalo do sistema. SE o processador for menos capaz que a GPU ele agora será o gargalo do sistema.

Não tem magia alguma. As vezes o pessoal complica o simples de forma totalmente desnecessária.

'' Somente a partir de 1440p que a CPU não faz diferença nos jogos. ''
A CPU faz diferença sim, coloca um Dual-Core com uma GTX 2080 lado a lado com um Quad-Core e a mesma GTX 2080 pra você ver.


TODO sistema tem gargalo, se não houvesse GARGALO não teríamos limite de FPS e jogaríamos a 500 frames.


Não tem mistério.
jogo cpu bound , vai ter a necessidade igualmente em full HD quanto 4k .
O problema é os leigos que se baseiam em jogos não cpu bound, e querem pregar que cpu não importa em 4k.
SIMPLES, até d+
 

drunks

know-it-all Member
Registrado
24/10/2012
1,684
71
0
34
Curitiba/PR
Não tem mistério.
jogo cpu bound , vai ter a necessidade igualmente em full HD quanto 4k .
O problema é os leigos que se baseiam em jogos não cpu bound, e querem pregar que cpu não importa em 4k.
SIMPLES, até d+
Com certeza. obviamente CPU importa em 4K, tão claro como a água.
 
  • Curtir
Reações: SkyHakuu

SkyHakuu

know-it-all Member
Registrado
19/01/2006
5,352
2,883
42
38
www.pousadafazendaveredas.com.br
Com certeza. obviamente CPU importa em 4K, tão claro como a água.


Mas ai a turma de leigos, que só jogam jogo single player, full GPU bound.
Colocam ou assistem um joguinho no YT, mostrando a GPU com 99% de load em 4k, e julgam que CPU magicamente não importa em 4k, como se fosse assim em todos os casos ''jogos''
È absurdo, como o povo não entende do assunto e ainda quer ensinar os outros.
 

RHBH

know-it-all Member
Registrado
20/04/2008
6,483
9,822
41
São Paulo / SP
Acho que vai melhorar a escalonamento de valores, 3600 na faixa de 999,90, 5600 na faixa de 1500,00, 3700x/3800x 2k, 5800x acima de 2.5k.

O R5 5600 por 1.500 vai ser um baita negócio, ainda mais se for real que ele é melhor em games que o i7 10700.
 

exclusive

Royal Enfield Meteor 350
Registrado
08/06/2012
2,462
1,570
0
31
Alto de Pinheiros - SP
Não sei não ein.

Há 3 anos atrás se comprava o i7 7700k que é 4/8, hoje 4/8 não está rendendo muito bem em vários jogos.

Daqui 3 anos a Intel vai ter CPU 16 núcleos (8 big e 8 little).

Daqui 3 anos 6/12 provavelmente vai ser o Ryzen 3.

Eu não aposto aposto em mais de 3 anos com 6 núcleos, especialmente para 120hz ou mais.

PS5 e Xbox Series X estão vindo com uma CPU que é basicamente um R7 3700X. Um octa core para o sistema e o jogo.

Depende, até agora nenhum jogo limitou minha placa de video se travar em 60/75 FPS FullHD Alto, ele só trava no CS GO (200 a 350fps, varia entre isso em qualquer mapa) / Valorant (150 a 210) / Wazone (70 a 110).
 
  • Curtir
Reações: RHBH

SkyHakuu

know-it-all Member
Registrado
19/01/2006
5,352
2,883
42
38
www.pousadafazendaveredas.com.br
Depende, até agora nenhum jogo limitou minha placa de video se travar em 60/75 FPS FullHD Alto, ele só trava no CS GO (200 a 350fps, varia entre isso em qualquer mapa) / Valorant (150 a 210) / Wazone (70 a 110).


Não se deve basear apenas em FPS, mas na experiencia como um todo, que a proporção de resolução x gpu x cpu vai oferecer.
Posso te dar meu exemplo.
Troquei meu 4790k, que rodava QUASE absolutamente tudo a 60 fps+
MAS, eu tenho um monitor full HD 240hz e um WQHD 120hz, e simplesmente impossível jogar BAttlefield 5com esse cpu de forma satisfatória.
Se eu fosse olhar apenas o FPS, estaria maravilhoso, pois ainda + 60 -100 em WQHD, e 100+ full HD.
O problema, é que ele alcança 100% de load quase all time, mesmo em Wqhd, dando stuter infinito, drop brusco de FPS e afins no multiplayer 64 on.
Agora o cara pega apenas o FPS, OLHA nossa, não precisa de cpu mais forte pra jogar acima de 1440p.
Besteira completa.
jogo cpu bound vai gargalar tanto full HD quando 4k.
A geração 4 cores, acaba esse ano.
6 cores está com a vida contada, enquanto esta na transição ''crossgen'' vai aguentar.
Next gen 8 cores vai ser o básico, pra se ter a experiencia que todos querem, de forma geral.
 

RHBH

know-it-all Member
Registrado
20/04/2008
6,483
9,822
41
São Paulo / SP
Depende, até agora nenhum jogo limitou minha placa de video se travar em 60/75 FPS FullHD Alto, ele só trava no CS GO (200 a 350fps, varia entre isso em qualquer mapa) / Valorant (150 a 210) / Wazone (70 a 110).

R5 3600 tem muito gás ainda pra 75hz.

Agora pra full hd 120hz+ é complicado falar que ele vai tocar tranquilo daqui 4...5 anos...

Com o tempo tudo fica mais exigente, não só os jogos mas o próprio sistema operacional.

De qualquer forma quem joga competitivo faz upgrade com frequência...
 

Users who are viewing this thread