[TÓPICO DEDICADO] AMD Ryzen Socket AM5 - Zen 4 e além

Você pretende fazer upgrade pra os Zen 4?

  • Sim, farei upgrade

    Votes: 89 32.7%
  • Depende do ganho de performance

    Votes: 57 21.0%
  • Não, acabei de fazer um upgrade no socket AM4 mesmo

    Votes: 98 36.0%
  • Não, migrei ou migrarei para Intel

    Votes: 28 10.3%

  • Total de votos
    272
Tenho colega com z790 apex e z790 evga dark e não sobe 8000... Desculpe mas vc está bem por fora sobre overcloking... 13900k com over 5.7 5.8 já consome na faixa de 150w em jogos que usam pouca cpu um bf ou cod já ultrapassa os 200w... Se for um pouco além em overcloking mais pesados beira os 250 a 270w... Vc está bem equivocado meu amigo...
Então eles são leigos em OC de RAM amigo, pq sabendo sobe fácil, não estou por fora, eu inclusive sei bastante, vou fazer a pergunta novamente: cadê o teste do 13900k e vc usou a RAM em quanto pra falar que perde pro 5800X3D? Vou repetir de novo a respeito do consumo: se vc ver os reviews ***EM STOCK JOGANDO*** vai ver que o consumo do 13900k em relação ao 7950X fica de 25-30w a mais ***JOGANDO EM STOCK***
 
E só pesquisar nos fóruns de over e ver o quão difícil é subir ram ddr5 em intel... Tem à mobo certa o chip precisa ter um bom Imc e por final ter conhecimento pois não é só ir subindo... Pessoal vende que é só plugar e subir
já vi muita gente falar isso. E isso é válido em qualquer plataforma, portanto, tirar o máximo proveito exige ter conhecimento. Não é à toa que muitos revisores testam no modo padrão com consumo nas alturas, daí o consumo do 13900K/KS sobe mais rápido que foguete descontrolado, enquanto AMD ainda dá para usar com Air Cooler de dupla torre, Intel é obrigatório WC 360mm topo de linha nesse modo padrão solto.
Ele digitou errado: era pra ser 200 ou 400w a mais...:limo:
também já vi falar em TODOS os revisores, sem exceção
Acho que a questão do soquete é justamente o ponto positivo do lado vermelho, por exemplo a minha mobo eu peguei em 2018 junto com um 2xxx, com ela nesses anos passei por vários 3xxx, 5xxx e por fim o 5800X3D. :thinking:
não apenas isso, qual o problema da arquitetura ter evoluído? E ela evoluiu, mesmo em um ambiente onde as memórias são testadas para Intel, porque o XMP é dela e focado na sua própria controladora, não dos demais concorrentes. Além de muito software ser compilado com compiladores Intel, onde o enfoque são as estruturas internas e exclusivas da Intel.

veja que a AMD matou o XOP, um grande conjunto de instruções do tipo AVX com desempenho idêntico. Mas por que fez isso? Porque sai mais barato deixar dentro do padrão imposto na indústria, o da Intel, que trouxe o AVX2 e jamais daria suporte ao XOP em seu compilador proprietário.

AM5 é a prova da evolução, é estável e dá para trabalhar com tranquilidade, não apenas no quesito longevidade que tentam impor como única razão, isso não é verdade. Ainda que agora exista o padrão AMD EXPO, eles não podem ignorar o XMP da Intel, agora, imagine você tendo que imitar o concorrente porque o público não compra seu produto semelhante se não tiver algo igual ao padrão imposto e, pior, quando você depende de fornecedores focados em abastecer seu concorrente.

e não podemos esquecer o viés dos softwares, incluindo os games. Os compiladores até podem ajudar bastante na otimização do código executável, embora ainda pode haver certas regras específicas para deixar claro no código o que é para ser interpretado. Mas isso ainda tem um custo e até o @dayllann avisou: AMD precisa melhorar software, ter mais engenheiros de software incluindo para firmware. Mas por que não fazem isso? por ser muito caro manter uma equipe dessas e não é à toa que a Intel, que mantém suas equipes enormes, cobra bem caro em seus produtos, enquanto a AMD ainda fica atrás. Quem quiser mais evolução vai ver que o preço do AMD tende a subir com isso, não é grátis.

no próximo lançamento, podem anotar que, se o AMD Ryzen 8000 conseguir ficar na frente, ainda que por 1% chorados, a AMD pode até cobrar mais caro do que o produto da Intel, é o preço para se manter no topo. Agora o povo vai chorar? Vai, mas quando a Intel faz isso para se manter no topo o pessoal paga e já pagou até quando o PentiumIV perdia feio e consumia mais para ter mais GHz enquanto o Athlon64, muito superior, estava sendo vendido baratinho dando altos prejuízos e impedindo a empresa ter caixa para continuar inovando. Mas tem gente que acha que isso é bom, que assim o preço fica estável e não precisa evoluir e, contudo, essas pessoas hoje compram o processador mais caro da Intel consumindo mais pelo mesmo desempenho.
 
Esrou usando o do slugoliver pra vc ter ideia 🤣🤣 shadow of tomb e horizon o 13900k dele não consegue vencer nem o 5800x3d em over nesses 2 games... Olhe o video dele do bf2042 e compare como que lhe enviei
 
Esrou usando o do slugoliver pra vc ter ideia 🤣🤣 shadow of tomb e horizon o 13900k dele não consegue vencer nem o 5800x3d em over nesses 2 games... Olhe o video dele do bf2042 e compare como que lhe enviei
Vc usou uma 4090 no teste do SOTTR e nos outros? Pois é sabido que 7900XTX pontua mais nele, no BF e etc, que vi que vc usa no seu video, desde a 6900XT era assim em relacao a 3090. Ele fez 409fps se não me engano no 13900k dele e RAM 8533Mhz na época, hoje ele usa com OC mais pesado ainda, mas sim SOTTR é um dos que Intel perde feio pra Ryzen 3D, Horizon Zero Dawn tbm, mas R6 e BF não, Warzone acho que perde tbm, por isso te perguntei da onde vc tirou a informação que o 5800X3D ganha do 13900k no BF e o quanto de OC de RAM vc usou, afinal vc falou que teve e testou mas não comprovou...
--- Post duplo é unido automaticamente: ---

já vi muita gente falar isso. E isso é válido em qualquer plataforma, portanto, tirar o máximo proveito exige ter conhecimento. Não é à toa que muitos revisores testam no modo padrão com consumo nas alturas, daí o consumo do 13900K/KS sobe mais rápido que foguete descontrolado, enquanto AMD ainda dá para usar com Air Cooler de dupla torre, Intel é obrigatório WC 360mm topo de linha nesse modo padrão solto.

também já vi falar em TODOS os revisores, sem exceção

não apenas isso, qual o problema da arquitetura ter evoluído? E ela evoluiu, mesmo em um ambiente onde as memórias são testadas para Intel, porque o XMP é dela e focado na sua própria controladora, não dos demais concorrentes. Além de muito software ser compilado com compiladores Intel, onde o enfoque são as estruturas internas e exclusivas da Intel.

veja que a AMD matou o XOP, um grande conjunto de instruções do tipo AVX com desempenho idêntico. Mas por que fez isso? Porque sai mais barato deixar dentro do padrão imposto na indústria, o da Intel, que trouxe o AVX2 e jamais daria suporte ao XOP em seu compilador proprietário.

AM5 é a prova da evolução, é estável e dá para trabalhar com tranquilidade, não apenas no quesito longevidade que tentam impor como única razão, isso não é verdade. Ainda que agora exista o padrão AMD EXPO, eles não podem ignorar o XMP da Intel, agora, imagine você tendo que imitar o concorrente porque o público não compra seu produto semelhante se não tiver algo igual ao padrão imposto e, pior, quando você depende de fornecedores focados em abastecer seu concorrente.

e não podemos esquecer o viés dos softwares, incluindo os games. Os compiladores até podem ajudar bastante na otimização do código executável, embora ainda pode haver certas regras específicas para deixar claro no código o que é para ser interpretado. Mas isso ainda tem um custo e até o @dayllann avisou: AMD precisa melhorar software, ter mais engenheiros de software incluindo para firmware. Mas por que não fazem isso? por ser muito caro manter uma equipe dessas e não é à toa que a Intel, que mantém suas equipes enormes, cobra bem caro em seus produtos, enquanto a AMD ainda fica atrás. Quem quiser mais evolução vai ver que o preço do AMD tende a subir com isso, não é grátis.

no próximo lançamento, podem anotar que, se o AMD Ryzen 8000 conseguir ficar na frente, ainda que por 1% chorados, a AMD pode até cobrar mais caro do que o produto da Intel, é o preço para se manter no topo. Agora o povo vai chorar? Vai, mas quando a Intel faz isso para se manter no topo o pessoal paga e já pagou até quando o PentiumIV perdia feio e consumia mais para ter mais GHz enquanto o Athlon64, muito superior, estava sendo vendido baratinho dando altos prejuízos e impedindo a empresa ter caixa para continuar inovando. Mas tem gente que acha que isso é bom, que assim o preço fica estável e não precisa evoluir e, contudo, essas pessoas hoje compram o processador mais caro da Intel consumindo mais pelo mesmo desempenho.
Mais caro pelo mesmo desempenho vc tá equivocado, 7950x + mobo + RAM custava mais caro que o 13900k + mobo + RAM e tem pior performance, agora o 3D não, o 3D ganha na maioria mas ainda perde em alguns.
--- Post duplo é unido automaticamente: ---

Aqui o que falei a respeito do consumo jogando em stock:



Fazem um alarde todo pra falar de consumo e temperatura, mas na prática...
 
Última edição:
Vc usou uma 4090 no teste do SOTTR e nos outros? Pois é sabido que 7900XTX pontua mais nele, no BF e etc, que vi que vc usa no seu video, desde a 6900XT era assim em relacao a 3090. Ele fez 409fps se não me engano no 13900k dele e RAM 8533Mhz na época, hoje ele usa com OC mais pesado ainda, mas sim SOTTR é um dos que Intel perde feio pra Ryzen 3D, Horizon Zero Dawn tbm, mas R6 e BF não, Warzone acho que perde tbm, por isso te perguntei da onde vc tirou a informação que o 5800X3D ganha do 13900k no BF e o quanto de OC de RAM vc usou, afinal vc falou que teve e testou mas não comprovou...
--- Post duplo é unido automaticamente: ---


Mais caro pelo mesmo desempenho vc tá equivocado, 7950x + mobo + RAM custava mais caro que o 13900k + mobo + RAM e tem pior performance, agora o 3D não, o 3D ganha na maioria mas ainda perde em alguns.
não estou falando de 7950x, tem os 3D da AMD

e eu não uso o meu para jogos, sequer tenho placa de vídeo, portanto, todos os meus testes são SEM PLACA DE VÍDEO DEDICADA.
 
Vi seu video do BF 2042 e do Sugi, infelizmente o comparativo não é preciso pois vc usou uma 7900XTX que faz MUITO mais FPS que a 4090 em 1080p no low, principalmente no BF, SOTTR e etc.
 
não estou falando de 7950x, tem os 3D da AMD

e eu não uso o meu para jogos, sequer tenho placa de vídeo, portanto, todos os meus testes são SEM PLACA DE VÍDEO DEDICADA.
Bf2042 amd pontua mais no caso SOTTR nvidia 4090 já faz uma pontuação maior pois o rbar faz ler total diferença... 7800x3d + 4090 faz em torno de 448 fps último teste que fiz isso porque minha gpu está no ar e foi com Windows todo cagado te garanto que horizon zero dow amd faz mais fps é outro game que abusa do cache... Meu 13900k era com ddr4 4400mhz cl 16... Todos testes que fazia comparando com slug perdia apenas por 5 a 9 fps porque o chip dele pega 6.2mhz e o meu 5.9... Ddr5 não é a magica que vcs pensam... Hj deve estar começando a fazer diferença exatamente agora cima dos 8000mhz... Mas repito e afirmo não é qualquer chip que pega acima dos 7800 mhz...
 
Vc usou uma 4090 no teste do SOTTR e nos outros? Pois é sabido que 7900XTX pontua mais nele, no BF e etc, que vi que vc usa no seu video, desde a 6900XT era assim em relacao a 3090. Ele fez 409fps se não me engano no 13900k dele e RAM 8533Mhz na época, hoje ele usa com OC mais pesado ainda, mas sim SOTTR é um dos que Intel perde feio pra Ryzen 3D, Horizon Zero Dawn tbm, mas R6 e BF não, Warzone acho que perde tbm, por isso te perguntei da onde vc tirou a informação que o 5800X3D ganha do 13900k no BF e o quanto de OC de RAM vc usou, afinal vc falou que teve e testou mas não comprovou...
--- Post duplo é unido automaticamente: ---


Mais caro pelo mesmo desempenho vc tá equivocado, 7950x + mobo + RAM custava mais caro que o 13900k + mobo + RAM e tem pior performance, agora o 3D não, o 3D ganha na maioria mas ainda perde em alguns.
--- Post duplo é unido automaticamente: ---

Aqui o que falei a respeito do consumo jogando em stock:



Fazem um alarde todo pra falar de consumo e temperatura, mas na prática...

Engraçado vc dizer que não é parâmetro... Slugoliver usa 2 MO-RA direct-die temperatura extremamente baixa.. testou 15 chips para acertar esse ultimo que ele usa, uma apex que custa olho da cara... É um pouco falta de bom senso
 
Bf2042 amd pontua mais no caso SOTTR nvidia 4090 já faz uma pontuação maior pois o rbar faz ler total diferença... 7800x3d + 4090 faz em torno de 448 fps último teste que fiz isso porque minha gpu está no ar e foi com Windows todo cagado te garanto que horizon zero dow amd faz mais fps é outro game que abusa do cache... Meu 13900k era com ddr4 4400mhz cl 16... Todos testes que fazia comparando com slug perdia apenas por 5 a 9 fps porque o chip dele pega 6.2mhz e o meu 5.9... Ddr5 não é a magica que vcs pensam... Hj deve estar começando a fazer diferença exatamente agora cima dos 8000mhz... Mas repito e afirmo não é qualquer chip que pega acima dos 7800 mhz...
Vc usava um 13900k com DDR4 4400CL16 em Gear 1? E estável em testes confiáveis? Pois se sim vc deu muita sorte na loteria ter um IMC que faz 4400Mhz em Gear 1, aqui o máximo que consigo estável (e tbm que dá boot) é 4300CL15, 4300Mhz é o cap do meu IMC em Gear 1, acimo disso nada boota. Sim eu acabei de falar que SOTTR e HZD e alguns outros AMD tem vantagem absurda, é só ver a discrepância dos 3D em relação ao 13900k nesses dois jogos. Sim eu sempre falei pra eles que DDR4 bem afinada não fica quase nada atrás de uma DDR5 de 8200Mhz por aí, fora que vc gasta bem menos com placa-mãe, visto que não precisa de uma Apex ou algo do tipo e Samsung B-Die DDR4 é bem mais barata que DDR5 Hynix A-Die...
--- Post duplo é unido automaticamente: ---

Engraçado vc dizer que não é parâmetro... Slugoliver usa 2 MO-RA direct-die temperatura extremamente baixa.. testou 15 chips para acertar esse ultimo que ele usa, uma apex que custa olho da cara... É um pouco falta de bom senso
Amigo acho que vc não tá sabendo interpretar o que eu falei, eu disse que ele não é parâmetro de ''consumo'' que o 13900k bate pq justamente ele tem um setup que quase ngm tem e bina CPU e RAM para um c@ralho e vc não pode usar o consumo dele a 6.3Ghz como base pra falar que o 13900k consome 250w jogando, eu já te repeti umas 3x que o consumo que eu falei desde o início é em stock e jogando, fica 20-25W acima do 7950X e ainda postei o vídeo provando o que falei, eu desisto.
 
já vi muita gente falar isso. E isso é válido em qualquer plataforma, portanto, tirar o máximo proveito exige ter conhecimento. Não é à toa que muitos revisores testam no modo padrão com consumo nas alturas, daí o consumo do 13900K/KS sobe mais rápido que foguete descontrolado, enquanto AMD ainda dá para usar com Air Cooler de dupla torre, Intel é obrigatório WC 360mm topo de linha nesse modo padrão solto.

também já vi falar em TODOS os revisores, sem exceção

não apenas isso, qual o problema da arquitetura ter evoluído? E ela evoluiu, mesmo em um ambiente onde as memórias são testadas para Intel, porque o XMP é dela e focado na sua própria controladora, não dos demais concorrentes. Além de muito software ser compilado com compiladores Intel, onde o enfoque são as estruturas internas e exclusivas da Intel.

veja que a AMD matou o XOP, um grande conjunto de instruções do tipo AVX com desempenho idêntico. Mas por que fez isso? Porque sai mais barato deixar dentro do padrão imposto na indústria, o da Intel, que trouxe o AVX2 e jamais daria suporte ao XOP em seu compilador proprietário.

AM5 é a prova da evolução, é estável e dá para trabalhar com tranquilidade, não apenas no quesito longevidade que tentam impor como única razão, isso não é verdade. Ainda que agora exista o padrão AMD EXPO, eles não podem ignorar o XMP da Intel, agora, imagine você tendo que imitar o concorrente porque o público não compra seu produto semelhante se não tiver algo igual ao padrão imposto e, pior, quando você depende de fornecedores focados em abastecer seu concorrente.

e não podemos esquecer o viés dos softwares, incluindo os games. Os compiladores até podem ajudar bastante na otimização do código executável, embora ainda pode haver certas regras específicas para deixar claro no código o que é para ser interpretado. Mas isso ainda tem um custo e até o @dayllann avisou: AMD precisa melhorar software, ter mais engenheiros de software incluindo para firmware. Mas por que não fazem isso? por ser muito caro manter uma equipe dessas e não é à toa que a Intel, que mantém suas equipes enormes, cobra bem caro em seus produtos, enquanto a AMD ainda fica atrás. Quem quiser mais evolução vai ver que o preço do AMD tende a subir com isso, não é grátis.

no próximo lançamento, podem anotar que, se o AMD Ryzen 8000 conseguir ficar na frente, ainda que por 1% chorados, a AMD pode até cobrar mais caro do que o produto da Intel, é o preço para se manter no topo. Agora o povo vai chorar? Vai, mas quando a Intel faz isso para se manter no topo o pessoal paga e já pagou até quando o PentiumIV perdia feio e consumia mais para ter mais GHz enquanto o Athlon64, muito superior, estava sendo vendido baratinho dando altos prejuízos e impedindo a empresa ter caixa para continuar inovando. Mas tem gente que acha que isso é bom, que assim o preço fica estável e não precisa evoluir e, contudo, essas pessoas hoje compram o processador mais caro da Intel consumindo mais pelo mesmo desempenho.
No caso da Intel nesse momento depende muito de varios fatores... Se der azar no chip pode fazer o que quiser que não vai
 
E vc que usou ele pra comparar seu FPS no BF2042, ainda comparou injustamente 7900XTX com 4090 no BF2042 e se eu não soubesse disso passaria desapercebido e vc iria tá falando que 5800X3D ganha de 13900k...
 
Vc usava um 13900k com DDR4 4400CL16 em Gear 1? E estável em testes confiáveis? Pois se sim vc deu muita sorte na loteria ter um IMC que faz 4400Mhz em Gear 1, aqui o máximo que consigo estável (e tbm que dá boot) é 4300CL15, 4300Mhz é o cap do meu IMC em Gear 1, acimo disso nada boota. Sim eu acabei de falar que SOTTR e HZD e alguns outros AMD tem vantagem absurda, é só ver a discrepância dos 3D em relação ao 13900k nesses dois jogos. Sim eu sempre falei pra eles que DDR4 bem afinada não fica quase nada atrás de uma DDR5 de 8200Mhz por aí, fora que vc gasta bem menos com placa-mãe, visto que não precisa de uma Apex ou algo do tipo e Samsung B-Die DDR4 é bem mais barata que DDR5 Hynix A-Die...
--- Post duplo é unido automaticamente: ---


Amigo acho que vc não tá sabendo interpretar o que eu falei, eu disse que ele não é parâmetro de ''consumo'' que o 13900k bate pq justamente ele tem um setup que quase ngm tem e bina CPU e RAM para um c@ralho e vc não pode usar o consumo dele a 6.3Ghz como base pra falar que o 13900k consome 250w jogando, eu já te repeti umas 3x que o consumo que eu falei desde o início é em stock e jogando, fica 20-25W acima do 7950X e ainda postei o vídeo provando o que falei, eu desisto.
Sim eu tive um 13900k e um 13900ks os 2 pegavam 4400 cl 16 mas gear mode 2... Minhas memórias eram 3000 cl 14... Desculpe por dizer que estava por fora de over pois vi que entende sim...
 
Sim eu tive um 13900k e um 13900ks os 2 pegavam 4400 cl 16 mas gear mode 2... Minhas memórias eram 3000 cl 14... Desculpe por dizer que estava por fora de over pois vi que entende sim...
De boa mano, ah sim Gear 2 costuma perder pra Gear 1, pessoal que fica na DDR4 adotou Gear 1 mesmo como alternativa. Lembro que chegaram a comparar 5000CL17 em Gear 2 e ainda assim não ganhava de 4300CL15 Gear 1, mas não ficava tããão atrás, algo parecido com o que tá acontecendo agora com AMD em 6400 1:1 e 8000 ''1:2''

Vc tem um puta setup e uma refrigeração das boas pelo visto hehe, parabéns, eu tô querendo importar uma ferramenta delid pro meu 13900k mas tô esperando dar 1 de Agosto pra entrar a nova medida de taxação do governo lá pra não dar merda e devolverem minha encomenda, mas eu uso AIO então não tem nem como pegar muito acima do stock do 13900k que é 5.5Ghz, quero ver se importo tbm 3 fans daquela Phanteks T30 pra usar no radiador.
 
E vc que usou ele pra comparar seu FPS no BF2042, ainda comparou injustamente 7900XTX com 4090 no BF2042 e se eu não soubesse disso passaria desapercebido e vc iria tá falando que 5800X3D ganha de 13900k...
Cheguei à testar 7900xtx com 13900k ficava completamente a mesma coisa com 1% low melhor no intel... Já no mw2 tenho testes ambos com à 7900xtx más irei fazer bf2042 com a 4090 e enviar aqui depois.... Não foi intenção nenhuma comparar com outra gpu pois enviei um teste com 7800x3d + 4090 no mw2... Tanto que meus testes nem utilizo a 7900xtx devido a puxar um pouco mais em alguns games
--- Post duplo é unido automaticamente: ---

De boa mano, ah sim Gear 2 costuma perder pra Gear 1, pessoal que fica na DDR4 adotou Gear 1 mesmo como alternativa. Lembro que chegaram a comparar 5000CL17 em Gear 2 e ainda assim não ganhava de 4300CL15 Gear 1, mas não ficava tããão atrás, algo parecido com o que tá acontecendo agora com AMD em 6400 1:1 e 8000 ''1:2''
Exatamente " creio" que amd só vá fazer uso das ddr5 acima dos 8000mhz... Tenho um colega que testou e teve um ganho mínimo de 3 fps no farcry 5 e 6 a 7400mhz vs 6400 1:1...
 
Cheguei à testar 7900xtx com 13900k ficava completamente a mesma coisa com 1% low melhor no intel... Já no mw2 tenho testes ambos com à 7900xtx más irei fazer bf2042 com a 4090 e enviar aqui depois.... Não foi intenção nenhuma comparar com outra gpu pois enviei um teste com 7800x3d + 4090 no mw2... Tanto que meus testes nem utilizo a 7900xtx devido a puxar um pouco mais em alguns games
--- Post duplo é unido automaticamente: ---


Exatamente " creio" que amd só vá fazer uso das ddr5 acima dos 8000mhz... Tenho um colega que testou e teve um ganho mínimo de 3 fps no farcry 5 e 6 a 7400mhz vs 6400 1:1...
Show, eu acho que no Warzone 2 um 7950X3D afinadinho com as RAM ganha do 13900k tbm, pq eu lembro que o Sugi upou um tempo atrás ele fazendo 240fps por aí e um cara comentou com um 7950X3D que fazia mais e linkou o vídeo aí eu fui ver tava diferença descomunal, o cara tava fazendo 280-320fps, mas isso foi alguns patches passados, parece que conseguiram piorar mais ainda o FPS do Warzone 2 kkkkkk.
 
De boa mano, ah sim Gear 2 costuma perder pra Gear 1, pessoal que fica na DDR4 adotou Gear 1 mesmo como alternativa. Lembro que chegaram a comparar 5000CL17 em Gear 2 e ainda assim não ganhava de 4300CL15 Gear 1, mas não ficava tããão atrás, algo parecido com o que tá acontecendo agora com AMD em 6400 1:1 e 8000 ''1:2''

Vc tem um puta setup e uma refrigeração das boas pelo visto hehe, parabéns, eu tô querendo importar uma ferramenta delid pro meu 13900k mas tô esperando dar 1 de Agosto pra entrar a nova medida de taxação do governo lá pra não dar merda e devolverem minha encomenda, mas eu uso AIO então não tem nem como pegar muito acima do stock do 13900k que é 5.5Ghz, quero ver se importo tbm 3 fans daquela Phanteks T30 pra usar no radiador.
Eu moro em Portugal aqui tem mais acesso à tudo isso... Ppde comparar com pessoal ai com ddr5 sua ddr4 vai ficar colada nos cara de ddr5 pica... Muita gente torce o nariz pra ddr4 vs ddr5 más pode ver quase não se tem videos de game play de usuários intel com ddr5 no YouTube
--- Post duplo é unido automaticamente: ---

Show, eu acho que no Warzone 2 um 7950X3D afinadinho com as RAM ganha do 13900k tbm, pq eu lembro que o Sugi upou um tempo atrás ele fazendo 240fps por aí e um cara comentou com um 7950X3D que fazia mais e linkou o vídeo aí eu fui ver tava diferença descomunal, o cara tava fazendo 280-320fps, mas isso foi alguns patches passados, parece que conseguiram piorar mais ainda o FPS do Warzone 2 kkkkkk.
E o matt ele mora na Inglaterra 7950x3d dele é fora da curva tmb...
--- Post duplo é unido automaticamente: ---

Show, eu acho que no Warzone 2 um 7950X3D afinadinho com as RAM ganha do 13900k tbm, pq eu lembro que o Sugi upou um tempo atrás ele fazendo 240fps por aí e um cara comentou com um 7950X3D que fazia mais e linkou o vídeo aí eu fui ver tava diferença descomunal, o cara tava fazendo 280-320fps, mas isso foi alguns patches passados, parece que conseguiram piorar mais ainda o FPS do Warzone 2 kkkkkk.
Depois olha tua caixa de mensagem se utilizar uma strix d4 creio que ainda tenho perfil da bios em casa...
 
Última edição:
Opção Budget dos AM5?
 
 
Guys, vê se alguém consegue me ajudar. Fiz um upgrade do 9700k para um 7900x. Aproveitei o embalo e sai do meu antigo H100i para um WC Custom.

Como a montagem do WC Custom é extremamente complicada, fiquei na dúvida se posso ter errado algo.

Mas meu 7900x bate 95c basicamente em qualquer stress. E mesmo utilizando o Modo Eco de 105w ele ainda assim bate os 95c.
Ele só não bate quando eu realmente jogo pro Modo Eco de 65w. Qualquer outro modo ele trava em 95c.

Pelas minhas pesquisas eu notei que ele deve realmente funcionar a 95c e não deve ter qualquer problema. Mas em modo Eco a essa temperatura parece bem estranho. Como venho da Intel tou meio perdido aqui.

HQ7tCZX.jpg
 
Finalmente, após 5 anos, sai do meu primeiro Ryzen 7 1700 para um update completo de plataforma.
Ai só queria deixar aqui minhas impressões e testes que fiz caso alguém esteja fazendo um movimento semelhante.

UPDATE

Minha configuração anterior

CPU / Ryzen 7 1700 @ 3,2 Ghz
MOBO / MSI B350 Tomahawk
GPU / Zotac GTX 1070 ti mini
RAM / 2x8GB DDR4 3200 Mhz@2933Mhz Gskill CL16
SSD / Adata XPG sx8200 Pro 512 GB
HD / 2 HDs Seagate 2TB 7200 RPM
PSU / EVGA GQ 650W
COOLER / Noctua NH-U14s
CASE / Aerocool DS 200

Minha configuração atual
CPU / Ryzen 5 7600 @ 3,8 Ghz / 5,1 Ghz
MOBO / Asus TUF B650M Gaming Plus WIFI
GPU / MSI Gaming Xtrio 3070 ti LHR
RAM / 2x16GB DDR5 6000 Mhz@5600Mhz Kingston Fury Beast CL40
SSD / Kingston KC3000 1TB
HD / 2 HDs Seagate 2TB 7200 RPM
PSU / EVGA GQ 650W
COOLER / Noctua NH-U14s
CASE / Aerocool DS 200

TESTES

Todas as vezes que troquei algum componente fiz testes para comparar o impacto.
Antes de atualizar para a plataforma AM5 fiz dois upgrades: a 3070ti e um kit 2x16GB de RAM.
Na época rodei uns testes para a configuração original e depois alguns focados em GPU para verificar a diferença entre a 1070ti e a 3070ti.
Abaixo as configurações que tive ao longo do tempo.

41XW1If.png

Obs.: como o controlador de memória da primeira geração era muito novo era difícil rodar memórias acima do padrão 2666 Mhz. Por um tempo conseguir rodar a 2933, mas dificilmente conseguir colocar a 3200 que era a velocidade original das memórias DDR4 da Gskill.
Depois que fiz um upgrade de memória, passei a rodar direto em 2666, no dia a dia não fazia muita diferença pra mim.

vgBvUrS.png


Tinha rodado na minha primeira configuração alguns testes. Na troca de ram/gpu rodei os testes focados na GPU (3D Mark)
E agora com a nova plataforma tentei testar quase todos os mesmos testes de 2017

CONFIG1 vs CONFIG2 Antigas

Então na primeira coluna temos os resultados da minha configuação original e na terceira a segunda configuração com a 3070ti / 32GBRAM
Tive um aumento brutal com a troca da 1070 ti para a 3070 ti, chegando a momentos de 100% de desempenho a mais.
Porém, como era de se esperar, o score de CPU / Física se manteve parecido.
Não registri ai mas lembro de ter tido uma redução grande nos tempos de render no blender.

CONFIG1 e 2 VS AM5
Bem, na segunda parte da imagem, fiz um compativo entre as duas configurações e a nova plataforma.
Se compararmos a config orignal (1) com a atual foi um salto no desempenho gráfico de quase 100%.
E mesmo contra a config B que já tinha a 3070ti o score melhorou uns 10%.
E na parte de CPU houve um aumento entre 30 a 60% se considerarmos todo pacote 3Dmark, chegando a 100% se levar em conta o resultado combinado.

Nos testes do PCMark do dia a dia que mostra como deu um salto enorme de desempenho. kkk

No Cinebench, testei com o R20 porque era a versão que eu tinha os dados antigos, mas rodei o teste do R23 na plataforma nova e comparei com resultados médios que encontrei na net.
No geral foi um aumento de 60 a 90% considerando ambos os testes.

No geral, fiquei muito satisfeito com o incremento de desempenho e percebo que o sistema é muito mais responsivo.

Por ter utilizado um 8/16 por tanto tempo e com a troca de GPU, chegei a conclusão, que para o meu uso que envolvia edição no pacote adobe e estudos em 3D no Blender, não precisaria mais que um 6/12. A minha dúvida era se, apesar de a mudança brusca de plataforma, se os dois núcleos a menos faria muita diferença. Pelo visto, os 6/12 zen 4 atropela os 8/16 antigos.
Então acredito que mais que um 6/12 hoje em dia só se a pessoa realmente trabalha full load com edição de vídeo ou algo que exija de forma específica mais núcleos.

JmyQ8Kn.png
51ioHqn.png

nfp3HGo.png


5mzSanm.png


CLOCK, TEMPERATURAS, XMP, VSoC, etc.
Como é de conhecimento geral, essa nova plataforma trouxe uns probleminhas meio sérios que acho que vale a pena comentar.
Quando comprei o kit não tava sabendo da treta toda sobre a queima de CPUs e Mobos e toda a questão das tensões acima dos padrões.
Eu não me interesso por overclock, só quero plugar e usar da forma mais estável possível. Então pesquisei bastante pra saber como proceder.


BIOS 1616
Quando eu fui atualizar a BIOS a pós a compra a última bios disponível era a 1616 que já era a oficial sem ser a beta.
Então meio que eu dei sorte de pegar e atulizar sem ter que ficar aguardando update de correção.

Não tive absolutamente nenhum problema com essa BIOS até agora. (2 dias de uso). Seja no boot, ou memórias.


ARMORY CRATE
Como vim da MSI, estava acontumado com aquele software horrível dele para controlar as coisas. E tudo era separado em apps que tinham caras e jeitos totalmente diferentes. Um caos.
Pelo visto, esse armory crate da Asus é muito superior para atulizar driver, controlar, fan, e tudo mais.

XMP/DOCP/SoC
Como eu disse eu não me interesso por forçar os componentes, então normalmente eu simplesmente deixaria a RAM nas configurações indicadas pela AMD, que seria 5200 Mhz.
Acontece que no primeiro uso após a instalação do W10 coloquei o DOCP 1 que era o perfil de 6000Mhz, CL40.
Como fiquei sabendo depois que ativar o perfil poderia fazer a tensão MC e do SoC aumentar então fui verificar como estavam. A tensão MC que a BIOS da ASUS informava era de 1,37 v que acho que deve estar ligada a RAM (Memory Controller, talvez). Como o perfil DOCP que eu setei colocar as memórias para 1,35 v que era a tensão máxima das memórias, fiquei achando que poderia ser um problema. Então acabei escolhendo uma segunda configuração no DOCP 1 que era mais próxima ao 5200, por isso que nos teste que rodei indica ali em cima as memórias a 5600 Mhz. E como essa configuração setava as memórias a 1.25 v achei mais seguro manter assim.

No geral o desempenho com 5600Mhz como foi mostrado ai trouxe um melhora grande ainda, então não vejo razão pra subir mais que isso.
Já a tensão do SoC realmente se manteve sempre abaixo 1,3, como foi prometido pela a ASUS. Não percebi nenhum comportamento anormal.

AOUtUZr.png



TEMPERATURAS
Eu imaginava que as temperaturas poderiam aumentar em relação ao o que eu estava acostumado devido aos clocks e boost maiores, mas confesso que fiquei meio assustado no começo.
No uso normal do dia a dia o CPU se mantém a 50, 60 graus. Mas dependendo do que vc estiver fazendo, de forma quase automática, a temperatura dá um salto absurdo para próximo de 85 graus. Como eu testei por pouco tempo, eu imagino que uns 10, 15 minutos de qualquer coisa intensa vá fazer a CPU chegar sem muita dificuldade aos tais 95 graus "normais" da AMD, kkkk.

Bom lembrar que meu gabinete é quase todo fechado na frente com algumas aberturas laterais, mas tem saídas por cima, atrás e abaixo. São 5 fans ao todo. Então não é por falta de vento que esse CPU bomba nas temps, kkk.

Por isso procurei mitigar isso de alguma forma e a que solução que eu achei menos complicada foi usar um tal de ASUS Enhancement na BIOS em que basicamente você determina um limite térmico pré-definido. Tem 90, 80 e 70 graus. COnfigurei para 80. E foi com esse limite que rodei os teste. Talvez os resultados fossem até maiores, mas não acho que seria maior a ponte de justificar ficar mantendo o CPU sem rédea nenhuma nesse ponto.

Um outra solução que achei útil, mas acaba limitando a performance um pouco foi configurar os perfis de energia do Windows.
Se eu seto a energia máxima do CPU em 100% o Windows mantém o boost ativado. Mas se vc configurar menos que isso, mesmo que seja 99%, o Windows desativa o boost e trabalha com um clock stock-X% de diferença de 100%. COmo eu estou vindo de um upgrande enorme, manter o 7600 a 3,7 sem boost ainda é muito mais rápido, kkkk.

Perfil de energia do W10 com 20-100% de energia na CPU
auuHLNL.png


Perfil de energia do W10 com 5-75% de energia na CPU
KET7QkF.png


Então eu estou pensando em manter um perfil de energia para o dia a dia dessa forma e quando for jogar e realmente for fazer algo mais pesado, apenas mudo o perfil para algum setado em 100% de máximo no CPU e volto ao "normal" da CPU. Achei isso melhor do que ficar testando undervolting até porque nem conhecó direito a BIOS da ASUS e nem o PBO direito.

Uma curiosidade: vi em algum canal conhecido no youtube que o design de chiplets da AMD faz com que a fonte de calor não fique centralizada na CPU e acabe emanando a partir da borda inferior. E isso poderia estar fazendo com que os coolers tivessem mais dificuldade em dissipar o calor.

bxiSzEt.jpg


Além disso, como o 7600 usa apenas 1 CCD, o calor gerado pela CPU ficaria mais concentrado em uma área menor, o que poderia "escapar" do contato mais "direto" com os heatpipes dos coolers. Ou seja, mesmo dando retrocompatibilidade de coolers ao manter o tamanho do socket, acredito que as fabricantes de coolers vão ter que repensar os seus projetos.
Tanto é verdade isso que a Noctua lançou uma espécie de kit de atualização com duas furações no suporte onde você parafusa. O segundo espaço de parafuso serve para deslocar o cooler uns milímetros para abaixo para tentar "aproveitar" a área de contato ótima do cooler com a parte que mais esquenta da CPU. Ou seja, ume bela de uma gambiarra, kkkkk.

w7gXNv4.jpg



JOGOS
Confesso que testei muito pouco, mas o pouco que testei já vi futuro demais. Estava jogando Spider Man: Miles Morales e estava rodando bem no 1700 (diferente do Resmaster, que abusava da CPU). Acontece que eu nunca puder ligar o Ray Tracing porque só fui saber que pra essa joça funcionar direito precisaria de um CPU mais moderno e com o 1700 era inviável. E só fiquei sabendo disso depois de comprar a 3070 ti.
Testei com o RT ligar e era como se nada tivesse acontecido no sentido de perda de desempenho ou engasgos. Uma diferença brutal. Se o RT é útil ou não é outro papo (até hoje não morri por jogar sem isso, kk) mas só de ter a oportunidade de testar isso já é um alivio.

Resizeble BAR
É tanta coisa nova que fiquei me perguntanto o que era o tal do BAR. A verifiquei e percebiq ue veio ativado por padrão na minha mobo. Aparentemente isso ajuda não só a dar uns FPS a mais mas também aumenta o 1% low. Achei ótimo isso daí.


IGPU
Um dos motivos que me fizeram migrar para AM5 direto foi a existência de IGPU nos CPUs "normais" da AMD. Melhor 10% de alguma coisa do que 100% de nada, kkkkk.
Eu mantenho ele ativado, não saberia dizer se desligar na BIOS vai dar alguma melhoria ou não, mas como li que a IGPU ela atua num esquema híbrido onde ela é usada separada da dedicada para outras tarefas como stream e coisas do tipo, então mantive ligado.


PCIe 5.0
Essa mobo tem suporte para SSD PCIe 5.0. Mas confesso que nem quiser ver o preço de SSDs NVMe focados nesse protocolo, kkk. Mas é legal saber que tem espaço para num futuro atualizar pra algo ainda melhor. Uma coisa que achei legal foi que, com as novas atualizações, tem disponível portas thunderbolt. Eu sinceramente não tenho nada com Thunderbolt pra usar externamente, mas é possível utilizar com uma placa da Asus avulsa.

WIFI 6 e Bluetooth 5.2
Sempre fui adepto das placas PCI para prover WIFI mas sempre quis um MOBO com o recurso de fábrica. Depois que passei a usar por muito tempo um wifi via USB muito bom da TPLink, acabei desapegando de ter que me preocupar com slot pra isso. O WiFI da Mobo funciona bem e o bluetooth que eu tinha era bem vagabundo e dava problema toda hora. Agora só alegria, até agora né, kkk.


Bem acho que é isso. Pra quem tá saindo de primeira ou segunda geração e tá pensando se vai valer a pena, acho que vale dar uma chance. Mas eu confesso que eu esperava depois de algum tempo do lançamento ter menos notícias de problemas do tipo do v SoC, perfil de memória subindo voltagem e coisas do tipo. Então eu esperaria um promo da BF para ver se as BIOS já melhoraram mais.
 
Guys, vê se alguém consegue me ajudar. Fiz um upgrade do 9700k para um 7900x. Aproveitei o embalo e sai do meu antigo H100i para um WC Custom.

Como a montagem do WC Custom é extremamente complicada, fiquei na dúvida se posso ter errado algo.

Mas meu 7900x bate 95c basicamente em qualquer stress. E mesmo utilizando o Modo Eco de 105w ele ainda assim bate os 95c.
Ele só não bate quando eu realmente jogo pro Modo Eco de 65w. Qualquer outro modo ele trava em 95c.

Pelas minhas pesquisas eu notei que ele deve realmente funcionar a 95c e não deve ter qualquer problema. Mas em modo Eco a essa temperatura parece bem estranho. Como venho da Intel tou meio perdido aqui.

HQ7tCZX.jpg
pode ser problema no seu wc e tb tem o fato de que a área de contato do IHS nos Ryzen 7000 é menor, daí tem que usar uma boa pasta térmica, ou de metal líquido ou fazer delid (e perder de vez a garantia sob conta e risco de quem pratica isso)

tá estranho aí você passar dos 95C
 
Finalmente, após 5 anos, sai do meu primeiro Ryzen 7 1700 para um update completo de plataforma.
Ai só queria deixar aqui minhas impressões e testes que fiz caso alguém esteja fazendo um movimento semelhante.

UPDATE

Minha configuração anterior

CPU / Ryzen 7 1700 @ 3,2 Ghz
MOBO / MSI B350 Tomahawk
GPU / Zotac GTX 1070 ti mini
RAM / 2x8GB DDR4 3200 Mhz@2933Mhz Gskill CL16
SSD / Adata XPG sx8200 Pro 512 GB
HD / 2 HDs Seagate 2TB 7200 RPM
PSU / EVGA GQ 650W
COOLER / Noctua NH-U14s
CASE / Aerocool DS 200

Minha configuração atual
CPU / Ryzen 5 7600 @ 3,8 Ghz / 5,1 Ghz
MOBO / Asus TUF B650M Gaming Plus WIFI
GPU / MSI Gaming Xtrio 3070 ti LHR
RAM / 2x16GB DDR5 6000 Mhz@5600Mhz Kingston Fury Beast CL40
SSD / Kingston KC3000 1TB
HD / 2 HDs Seagate 2TB 7200 RPM
PSU / EVGA GQ 650W
COOLER / Noctua NH-U14s
CASE / Aerocool DS 200

TESTES

Todas as vezes que troquei algum componente fiz testes para comparar o impacto.
Antes de atualizar para a plataforma AM5 fiz dois upgrades: a 3070ti e um kit 2x16GB de RAM.
Na época rodei uns testes para a configuração original e depois alguns focados em GPU para verificar a diferença entre a 1070ti e a 3070ti.
Abaixo as configurações que tive ao longo do tempo.

41XW1If.png

Obs.: como o controlador de memória da primeira geração era muito novo era difícil rodar memórias acima do padrão 2666 Mhz. Por um tempo conseguir rodar a 2933, mas dificilmente conseguir colocar a 3200 que era a velocidade original das memórias DDR4 da Gskill.
Depois que fiz um upgrade de memória, passei a rodar direto em 2666, no dia a dia não fazia muita diferença pra mim.

vgBvUrS.png


Tinha rodado na minha primeira configuração alguns testes. Na troca de ram/gpu rodei os testes focados na GPU (3D Mark)
E agora com a nova plataforma tentei testar quase todos os mesmos testes de 2017

CONFIG1 vs CONFIG2 Antigas
Então na primeira coluna temos os resultados da minha configuação original e na terceira a segunda configuração com a 3070ti / 32GBRAM
Tive um aumento brutal com a troca da 1070 ti para a 3070 ti, chegando a momentos de 100% de desempenho a mais.
Porém, como era de se esperar, o score de CPU / Física se manteve parecido.
Não registri ai mas lembro de ter tido uma redução grande nos tempos de render no blender.

CONFIG1 e 2 VS AM5
Bem, na segunda parte da imagem, fiz um compativo entre as duas configurações e a nova plataforma.
Se compararmos a config orignal (1) com a atual foi um salto no desempenho gráfico de quase 100%.
E mesmo contra a config B que já tinha a 3070ti o score melhorou uns 10%.
E na parte de CPU houve um aumento entre 30 a 60% se considerarmos todo pacote 3Dmark, chegando a 100% se levar em conta o resultado combinado.

Nos testes do PCMark do dia a dia que mostra como deu um salto enorme de desempenho. kkk

No Cinebench, testei com o R20 porque era a versão que eu tinha os dados antigos, mas rodei o teste do R23 na plataforma nova e comparei com resultados médios que encontrei na net.
No geral foi um aumento de 60 a 90% considerando ambos os testes.

No geral, fiquei muito satisfeito com o incremento de desempenho e percebo que o sistema é muito mais responsivo.

Por ter utilizado um 8/16 por tanto tempo e com a troca de GPU, chegei a conclusão, que para o meu uso que envolvia edição no pacote adobe e estudos em 3D no Blender, não precisaria mais que um 6/12. A minha dúvida era se, apesar de a mudança brusca de plataforma, se os dois núcleos a menos faria muita diferença. Pelo visto, os 6/12 zen 4 atropela os 8/16 antigos.
Então acredito que mais que um 6/12 hoje em dia só se a pessoa realmente trabalha full load com edição de vídeo ou algo que exija de forma específica mais núcleos.

JmyQ8Kn.png
51ioHqn.png

nfp3HGo.png


5mzSanm.png


CLOCK, TEMPERATURAS, XMP, VSoC, etc.
Como é de conhecimento geral, essa nova plataforma trouxe uns probleminhas meio sérios que acho que vale a pena comentar.
Quando comprei o kit não tava sabendo da treta toda sobre a queima de CPUs e Mobos e toda a questão das tensões acima dos padrões.
Eu não me interesso por overclock, só quero plugar e usar da forma mais estável possível. Então pesquisei bastante pra saber como proceder.


BIOS 1616
Quando eu fui atualizar a BIOS a pós a compra a última bios disponível era a 1616 que já era a oficial sem ser a beta.
Então meio que eu dei sorte de pegar e atulizar sem ter que ficar aguardando update de correção.

Não tive absolutamente nenhum problema com essa BIOS até agora. (2 dias de uso). Seja no boot, ou memórias.


ARMORY CRATE
Como vim da MSI, estava acontumado com aquele software horrível dele para controlar as coisas. E tudo era separado em apps que tinham caras e jeitos totalmente diferentes. Um caos.
Pelo visto, esse armory crate da Asus é muito superior para atulizar driver, controlar, fan, e tudo mais.

XMP/DOCP/SoC
Como eu disse eu não me interesso por forçar os componentes, então normalmente eu simplesmente deixaria a RAM nas configurações indicadas pela AMD, que seria 5200 Mhz.
Acontece que no primeiro uso após a instalação do W10 coloquei o DOCP 1 que era o perfil de 6000Mhz, CL40.
Como fiquei sabendo depois que ativar o perfil poderia fazer a tensão MC e do SoC aumentar então fui verificar como estavam. A tensão MC que a BIOS da ASUS informava era de 1,37 v que acho que deve estar ligada a RAM (Memory Controller, talvez). Como o perfil DOCP que eu setei colocar as memórias para 1,35 v que era a tensão máxima das memórias, fiquei achando que poderia ser um problema. Então acabei escolhendo uma segunda configuração no DOCP 1 que era mais próxima ao 5200, por isso que nos teste que rodei indica ali em cima as memórias a 5600 Mhz. E como essa configuração setava as memórias a 1.25 v achei mais seguro manter assim.

No geral o desempenho com 5600Mhz como foi mostrado ai trouxe um melhora grande ainda, então não vejo razão pra subir mais que isso.
Já a tensão do SoC realmente se manteve sempre abaixo 1,3, como foi prometido pela a ASUS. Não percebi nenhum comportamento anormal.

AOUtUZr.png



TEMPERATURAS
Eu imaginava que as temperaturas poderiam aumentar em relação ao o que eu estava acostumado devido aos clocks e boost maiores, mas confesso que fiquei meio assustado no começo.
No uso normal do dia a dia o CPU se mantém a 50, 60 graus. Mas dependendo do que vc estiver fazendo, de forma quase automática, a temperatura dá um salto absurdo para próximo de 85 graus. Como eu testei por pouco tempo, eu imagino que uns 10, 15 minutos de qualquer coisa intensa vá fazer a CPU chegar sem muita dificuldade aos tais 95 graus "normais" da AMD, kkkk.

Bom lembrar que meu gabinete é quase todo fechado na frente com algumas aberturas laterais, mas tem saídas por cima, atrás e abaixo. São 5 fans ao todo. Então não é por falta de vento que esse CPU bomba nas temps, kkk.

Por isso procurei mitigar isso de alguma forma e a que solução que eu achei menos complicada foi usar um tal de ASUS Enhancement na BIOS em que basicamente você determina um limite térmico pré-definido. Tem 90, 80 e 70 graus. COnfigurei para 80. E foi com esse limite que rodei os teste. Talvez os resultados fossem até maiores, mas não acho que seria maior a ponte de justificar ficar mantendo o CPU sem rédea nenhuma nesse ponto.

Um outra solução que achei útil, mas acaba limitando a performance um pouco foi configurar os perfis de energia do Windows.
Se eu seto a energia máxima do CPU em 100% o Windows mantém o boost ativado. Mas se vc configurar menos que isso, mesmo que seja 99%, o Windows desativa o boost e trabalha com um clock stock-X% de diferença de 100%. COmo eu estou vindo de um upgrande enorme, manter o 7600 a 3,7 sem boost ainda é muito mais rápido, kkkk.

Perfil de energia do W10 com 20-100% de energia na CPU
auuHLNL.png


Perfil de energia do W10 com 5-75% de energia na CPU
KET7QkF.png


Então eu estou pensando em manter um perfil de energia para o dia a dia dessa forma e quando for jogar e realmente for fazer algo mais pesado, apenas mudo o perfil para algum setado em 100% de máximo no CPU e volto ao "normal" da CPU. Achei isso melhor do que ficar testando undervolting até porque nem conhecó direito a BIOS da ASUS e nem o PBO direito.

Uma curiosidade: vi em algum canal conhecido no youtube que o design de chiplets da AMD faz com que a fonte de calor não fique centralizada na CPU e acabe emanando a partir da borda inferior. E isso poderia estar fazendo com que os coolers tivessem mais dificuldade em dissipar o calor.

bxiSzEt.jpg


Além disso, como o 7600 usa apenas 1 CCD, o calor gerado pela CPU ficaria mais concentrado em uma área menor, o que poderia "escapar" do contato mais "direto" com os heatpipes dos coolers. Ou seja, mesmo dando retrocompatibilidade de coolers ao manter o tamanho do socket, acredito que as fabricantes de coolers vão ter que repensar os seus projetos.
Tanto é verdade isso que a Noctua lançou uma espécie de kit de atualização com duas furações no suporte onde você parafusa. O segundo espaço de parafuso serve para deslocar o cooler uns milímetros para abaixo para tentar "aproveitar" a área de contato ótima do cooler com a parte que mais esquenta da CPU. Ou seja, ume bela de uma gambiarra, kkkkk.

w7gXNv4.jpg



JOGOS
Confesso que testei muito pouco, mas o pouco que testei já vi futuro demais. Estava jogando Spider Man: Miles Morales e estava rodando bem no 1700 (diferente do Resmaster, que abusava da CPU). Acontece que eu nunca puder ligar o Ray Tracing porque só fui saber que pra essa joça funcionar direito precisaria de um CPU mais moderno e com o 1700 era inviável. E só fiquei sabendo disso depois de comprar a 3070 ti.
Testei com o RT ligar e era como se nada tivesse acontecido no sentido de perda de desempenho ou engasgos. Uma diferença brutal. Se o RT é útil ou não é outro papo (até hoje não morri por jogar sem isso, kk) mas só de ter a oportunidade de testar isso já é um alivio.

Resizeble BAR
É tanta coisa nova que fiquei me perguntanto o que era o tal do BAR. A verifiquei e percebiq ue veio ativado por padrão na minha mobo. Aparentemente isso ajuda não só a dar uns FPS a mais mas também aumenta o 1% low. Achei ótimo isso daí.


IGPU
Um dos motivos que me fizeram migrar para AM5 direto foi a existência de IGPU nos CPUs "normais" da AMD. Melhor 10% de alguma coisa do que 100% de nada, kkkkk.
Eu mantenho ele ativado, não saberia dizer se desligar na BIOS vai dar alguma melhoria ou não, mas como li que a IGPU ela atua num esquema híbrido onde ela é usada separada da dedicada para outras tarefas como stream e coisas do tipo, então mantive ligado.


PCIe 5.0
Essa mobo tem suporte para SSD PCIe 5.0. Mas confesso que nem quiser ver o preço de SSDs NVMe focados nesse protocolo, kkk. Mas é legal saber que tem espaço para num futuro atualizar pra algo ainda melhor. Uma coisa que achei legal foi que, com as novas atualizações, tem disponível portas thunderbolt. Eu sinceramente não tenho nada com Thunderbolt pra usar externamente, mas é possível utilizar com uma placa da Asus avulsa.

WIFI 6 e Bluetooth 5.2
Sempre fui adepto das placas PCI para prover WIFI mas sempre quis um MOBO com o recurso de fábrica. Depois que passei a usar por muito tempo um wifi via USB muito bom da TPLink, acabei desapegando de ter que me preocupar com slot pra isso. O WiFI da Mobo funciona bem e o bluetooth que eu tinha era bem vagabundo e dava problema toda hora. Agora só alegria, até agora né, kkk.


Bem acho que é isso. Pra quem tá saindo de primeira ou segunda geração e tá pensando se vai valer a pena, acho que vale dar uma chance. Mas eu confesso que eu esperava depois de algum tempo do lançamento ter menos notícias de problemas do tipo do v SoC, perfil de memória subindo voltagem e coisas do tipo. Então eu esperaria um promo da BF para ver se as BIOS já melhoraram mais.
Belo relato! Só não entendi muito bem porque ter memórias 6000Mhz e usá-las em 5600 ou 5200Mhz (aliás, entendo, mas não vejo necessidade a essa altura), se o vSoC estiver efetivamente sob controle coloca 6000Mhz e deixa rolar.

Na CPU acho que vale a pena dar uma pesquisada no PBO, no 7900 brinquei por uns dias e vi praticamente os mesmos clocks do 7900x sem acréscimo muito relevante nas temperaturas então vale o teste pra ver como fica por aí. Acabei deixando stock por pura preguiça/falta de tempo pra afinar melhor e porque o desempenho já é excelente e as temperaturas fantásticas, a ponto de personalizar a curva para suavizar ainda mais a rampa dos fans da CPU pois achei as configurações de fábrica muito agressivas, mesmo no perfil silent.

Particularmente não faço qualquer alteração no plano de energia do Windows e/ou placa de vídeo pois acho que isso mais atrapalha do que ajuda, mas aí é escolha de cada um.
 
Um outra solução que achei útil, mas acaba limitando a performance um pouco foi configurar os perfis de energia do Windows.
Se eu seto a energia máxima do CPU em 100% o Windows mantém o boost ativado. Mas se vc configurar menos que isso, mesmo que seja 99%, o Windows desativa o boost e trabalha com um clock stock-X% de diferença de 100%. COmo eu estou vindo de um upgrande enorme, manter o 7600 a 3,7 sem boost ainda é muito mais rápido, kkkk.

Perfil de energia do W10 com 20-100% de energia na CPU
auuHLNL.png


Perfil de energia do W10 com 5-75% de energia na CPU
KET7QkF.png


Então eu estou pensando em manter um perfil de energia para o dia a dia dessa forma e quando for jogar e realmente for fazer algo mais pesado, apenas mudo o perfil para algum setado em 100% de máximo no CPU e volto ao "normal" da CPU. Achei isso melhor do que ficar testando undervolting até porque nem conhecó direito a BIOS da ASUS e nem o PBO direito.
Isso é o que eu costumo recomendar pra quem se incomoda com esses spikes dos Ryzen mesmo que seja o comportamento no normal mas mesmo sendo um procedimento que leva 10 segundos pra fazer dificilmente alguém sequer tenta fazer por algum motivo kkkk

Por curiosidade, como isso afetou a questão das temperaturas (média e máxima) e consumo (médio e máximo) aí? Faço isso no 5800x também e sem boost na faixa dos 3,7ghz o desempenho é parelho com o 3700x tanto em multi quanto single, o consumo/temp máximo reduzem por não dar os spikes mas a média acaba ficando a mesma, já que os spikes são por poucos milissegundos, acaba que muitas vezes mantenho sem o boost já que com a 4070ti em várias situações aqui acaba sobrando CPU e rodar a 4,85ghz ou 3,7ghz não afeta meu fps mínimo/médio em grande parte dos jogos, mas se deixar o boost liberado o consumo fica consideravelmente mais alto e a temperatura também (apesar de super tranquilo ainda), é tipo 40c/40w vs 60c e 80w~ pra 0 ganho aqui em vários jogos
 

Users who are viewing this thread

Voltar
Topo