Sim já vi um resultado com a 6900XT fazendo quase 70K de pontos, a única utilidade de fazer o bench no SOTTR 1080p low é pra vc comparar o seu sistema com ele mesmo, pra comparar com outros é bem inútil.
Sim, tanto é que pessoal nem compara quando ambos tem 12900k mas não tem 3080Ti ou 3090, pq o cara de 12900k e 6900XT mesmo que esteja com CPU e RAM pior que o cara de 3090, vai fazer mais fps.
Muda demais mano, OC de memória dá muito mais FPS que OC de CPU, ainda mais Ryzen que tem benefício enorme quanto mais alto o IF conseguir subir junto com a RAM 1:1, mas claro isso falando mais de cenários 1080p e 1440p, mais CPU bound, agora em 4k concordo, muda quase nada.
Asneira? Já provei o que falei e já senti na pele tbm, pois faço OC de memória. Com quem não tem o que acrescentar ou não tem base no que fala que parece ser o seu caso, nem vou perder meu tempo. Bota aí sua RAM com os timings tudo zuado e roda 1080p low na sua placa algum benchmark, depois volta seu OC, veja por si próprio. E 100-300Mhz na CPU não dá nem perto do FPS que um OC de memória dá, quem entende sabe mto bem disso.
Edit.: O cara que fala isso ainda faz OC de 3.0 pra 3.73 na memória, vendo aqui sua assinatura . Volta pra 2400Mhz pow, muda nada
Geralmente nem comento esse tipo de coisa, mas overclock de Ram em Ryzen é muito mais benéfico que qualquer OC de clock no processador. (Independente de geração).
O que não falta é conteúdo demonstrando isso.
Tu precisa rever quem tá falando "asneira".
Nos mostre então Ryzen chegando a 46ns no Aida64, gostaria de ver. DDR4 dá pra chegar em 70000MB/s sim, mas não com AMD. Ah, aproveite e mostre tbm seu 3800x com 53ns no Aida64 que disse que vc pega. E vc não pode ignorar outros fatores da DDR5, mesmo a latência sendo maior que DDR4, a largura de banda é infinitamente maior, um dos motivos é por ser quadchannel. Hj em dia DDR5 já ganha de DDR4 em plataforma Intel, considerando ambas (DDR4 e DDR5) estando bem afinadas.
Sobre o ganho de desempenho, conforme falei, é em cenário CPU bound, cenário gargalando ou QUASE gargalando a GPU, os maiores resultados de 1080p LOW são sempre de pessoas com CPU com OC alto e memória com OC alto e isso significa um salto enorme, nesse cenário.
Tava foda acompanhar hoje, mano.
Agora entendi melhor, não consegui pegar o raciocínio completo. Quando eu falei que testei mais cedo foi testando do jeito que eu jogo ao invés do low. Sei que cê vai falar "mas tá errado pra definir essas coisas" e vou concordar até. Mas é que quando eu testei era mais voltado nos jogos que eu jogo (geralmente SP) e com configurações de vídeo que eu jogava (~high).
BF1 e BF5, os timmings que eu usava tanto no 1800x quanto no 3800x fazia uma diferença absurda, benchmark FC5 por exemplo eu conseguia FPS maior que placas muito mais top que a 1080ti
--- Post duplo é unido automaticamente: ---
Fala com o Lesado, ele usava E-die e conseguia uns timming muito bom
Poisé, acho que o default é o usmus mas não vejo ninguém recomendar pra testar estabilidade porque passa nele aí no Extreme1/Absolut dá pau
Sim, o que eu queria ver é resultado/testes concretos em vários cenários, tem algum que possa compartilhar? Algo como 3600 CL16 micron E-die que é bem comum aqui vs Samsung B-Die 4000 CL14/4200 CL15 e todos os timings mega apertados, os únicos testes que vi eram algo tipo 3000/3200/3600/3800 CL16 vs 3600 CL14 vs 4000 CL17 etc
De teste aqui que eu fiz foi esse no BFV quando peguei o kit B-die da assinatura. BFV em DX12 com future render frame: OFF o uso de GPU não passava de 88%, já com as memórias em 3800 já chegava em 97~98% de uso de gpu. Com o kit anterior(Micron E-die) acontecia a mesma coisa.
b-die 3200c14(stock)
b-die 3800c16
Na época identificamos esse comportamento jogando BF1 pois o 1800x dele com over nas memórias fazia o uso da 1080ti ficar em 95% enquanto que o meu 2600X + hinyx(bem merda) em stock(3200) não passava dos 88% de uso de GPU. na época o Nax me ajudou a deixar as memos em 3333mhz(era o que aguentou) e o uso de gpu aumentou para os 94~95%.
Tava foda acompanhar hoje, mano.
Agora entendi melhor, não consegui pegar o raciocínio completo. Quando eu falei que testei mais cedo foi testando do jeito que eu jogo ao invés do low. Sei que cê vai falar "mas tá errado pra definir essas coisas" e vou concordar até. Mas é que quando eu testei era mais voltado nos jogos que eu jogo (geralmente SP) e com configurações de vídeo que eu jogava (~high).
Então, eu não sei até que ponto ajuda jogando em 4k, mas por experiência minha e comparando com outros amigos que não fazem OC de quase nada, em 4k o que mais dita é clock de GPU, é difícil ter um jogo que uma 3090 em 4k com tudo no ultra fique dependente de CPU, só se for uma CPU bem antiga/mediana, mas reza a lenda que OC de memória ajuda nas mínimas mesmo em 4k. Eu creio que nunca teremos um cenário que 4k ficará CPU bound tão cedo, pelo seguinte motivo: por mais que saiam GPUs mais potentes, os jogos vão ficando cada vez mais pesados (ou seja, menos FPS, menos uso de CPU, etc), parte disso pq os consoles que ditam a indústria na questão de ''peso de um jogo'', pois quando começar a ter mais jogos somente pra PS5 e XSX com foco em extrair gráfico pesado, jogos que sei lá rodem a 1440p e 30fps nesses consoles que tem potência de uma RTX 2080 mais ou menos e cada vez mais e mais pesados, e saindo a próxima geração de consoles mais fortes e o ciclo continuando, creio que o 4k ainda não será vencido tão cedo, a não ser que vc considere jogos muito antigos, que aí sim pode ser que fiquem CPU bound e o OC de memória/CPU dê uma grande diferença, mas no momento a maior diferença é em cenário CPU bound, jogos que tendem a usar mais CPU e a pessoa queira fps bem alto, extrair a última gota, acima de 144 por exemplo e daí uma 3090 fique quase gargalando, com seu uso de GPU não sempre em 99%, aí nesse cenário faz diferença em manter o uso de GPU mais alto, pois gargalo não existe somente de CPU, existe gargalo de RAM tbm e a RAM tbm trabalha em aumentar seu uso de GPU, não somente a CPU, é um conjunto dos dois (além de outros fatores), e rodar em 1080p no low com uma 3090 faz a diferença ficar mais evidente digamos assim. Se vc for no Warzone por exemplo em 1080p tudo no low e setar a RAM com clock bem baixo, sei lá 2400Mhz ou até mesmo um XMP padrão 3200CL16 com tudo no auto vc vai ver que seu uso de GPU vai ficar por exemplo 60%, se vc for no mesmo jogo e fizer um OC de RAM, afinando os subtimings e etc sei lá 4000Mhz CL15, vc vai notar que seu uso de GPU não ficou mais em 60%, foi pra sei lá 80%, então vc eliminou gargalo mexendo apenas na RAM.
Desculpe o textão, mas é basicamente essa a vantagem do OC de RAM.
De teste aqui que eu fiz foi esse no BFV quando peguei o kit B-die da assinatura. BFV em DX12 com future render frame: OFF o uso de GPU não passava de 88%, já com as memórias em 3800 já chegava em 97~98% de uso de gpu. Com o kit anterior(Micron E-die) acontecia a mesma coisa.
b-die 3200c14(stock)
Mudar até muda mesmo em jogos single player, principalmente os mundo aberto que ficam dando loading em algo a todo tempo, diminui o quão baixo vão aquelas variações de fps que acontecem durante os loadings dentro do mapa, mas não é nem de perto na mesma relevância que muda pra um game competitivo em 1080p, mas é aquela coisa, o ganho mesmo que mínimo está ali pra ser "pego" então quem gosta/tem saco pra isso vai e faz.
Eu lembro quando eu tinha um 9900k e comecei a mexer com isso, tinha uma RAM básica da mais baratinha e na época aquele AC Origins, passando por Alexandria, eu tinha gargalo com a 2080 em 1080p mesmo com tudo no máximo, aí comprei minha primeira B-Die, comprei uma Asus Apex e passei a me interessar por isso, saí de 3200 CL16-18-18 e subtimings e etc tudo XMP e AUTO e fui pra 4000CL16-16-16-36 (nada demais, estava aprendendo), só nisso daí eu já notei de cara a melhora no uso de GPU, meu uso de GPU ficou muito maior e muito mais sólido. Por isso que dizem que OC de CPU hj em dia é irrisório, pois as CPUs atuais em stock já batem clock alto, vc consegue no máximo 200-300Mhz a mais, isso com AIO/WC Custom etc e vc NUNCA vai conseguir o ganho de fps fazendo só um OC desses na CPU comparado ao ganho que vc tem fazendo OC na RAM.
Mudar até muda mesmo em jogos single player, principalmente os mundo aberto que ficam dando loading em algo a todo tempo, diminui o quão baixo vão aquelas variações de fps que acontecem durante os loadings dentro do mapa, mas não é nem de perto na mesma relevância que muda pra um game competitivo em 1080p, mas é aquela coisa, o ganho mesmo que mínimo está ali pra ser "pego" então quem gosta/tem saco pra isso vai e faz.
No meu caso só arroxei porque paguei caro na época nessas b-die.
E adivinhem o que chegou após uma saga de uns 30~34 dias com a terabyte, que enviou o 5800X por engano?
Eu lembro quando eu tinha um 9900k e comecei a mexer com isso, tinha uma RAM básica da mais baratinha e na época aquele AC Origins, passando por Alexandria, eu tinha gargalo com a 2080 em 1080p mesmo com tudo no máximo, aí comprei minha primeira B-Die, comprei uma Asus Apex e passei a me interessar por isso, saí de 3200 CL16-18-18 e subtimings e etc tudo XMP e AUTO e fui pra 4000CL16-16-16-36 (nada demais, estava aprendendo), só nisso daí eu já notei de cara a melhora no uso de GPU, meu uso de GPU ficou muito maior e muito mais sólido. Por isso que dizem que OC de CPU hj em dia é irrisório, pois as CPUs atuais em stock já batem clock alto, vc consegue no máximo 200-300Mhz a mais, isso com AIO/WC Custom etc e vc NUNCA vai conseguir o ganho de fps fazendo só um OC desses na CPU comparado ao ganho que vc tem fazendo OC na RAM.
É aqui que fazemos competição de epinto com latências de memória?
Rodando em uma VM fica ainda mais lento
Muito provavelmente as memórias caíram pra 2133MHz em algum momento e eu não percebi até fazer o teste, semana que vem quando reiniciar o pc eu lembro de ligar o xmp de volta rs
É aqui que fazemos competição de epinto com latências de memória?
Rodando em uma VM fica ainda mais lento
Muito provavelmente as memórias caíram pra 2133MHz em algum momento e eu não percebi até fazer o teste, semana que vem quando reiniciar o pc eu lembro de ligar o xmp de volta rs
Não sei porque tanta discussão. A questão do Oc de Ram é que vai ter ganho em alguns jogos e em casos específicos, normalmente aqueles games que fica na casa de 150+ de fps, aquele Valorant, Cs, Rainbow... É a mesma coisa que o Cache3D que tem ganhos em alguns cenários.
Acho legal fazer porque é um desempenho de graça a mais que se ganha mas não é nada de outro mundo ou que vai fazer diferença pra quem já ta jogando a 300fps.
Não sei porque tanta discussão. A questão do Oc de Ram é que vai ter ganho em alguns jogos e em casos específicos, normalmente aqueles games que fica na casa de 150+ de fps, aquele Valorant, Cs, Rainbow... É a mesma coisa que o Cache3D que tem ganhos em alguns cenários.
Acho legal fazer porque é um desempenho de graça a mais que se ganha mas não é nada de outro mundo ou que vai fazer diferença pra quem já ta jogando a 300fps.
É eu espero ser abençoado com um CPU Golden sample sem defeitos
Já upei a placa mãe para uma Asus Rog Strix B550-F que é pra garantir que por falta de VRM o bichinho não vai estragar
Meu 5800X já está disponível pra eu retirar nos Correios (eles não entregam no meu bairro). Amanhã chego de viagem do trampo e vou lá buscar. Achei bem rápido. Fiz o pedido dia 09/05 e chegou 24/05 em Campo Verde - MT, sem taxação.
O processador de vocês em stock já teve um comportamento quanto o meu?
Estava usando clock fixo aqui, porém fui voltar tudo para stock por conta da tensão que minha fonte estava passando, até ai ok.
Sendo que meu 5600x chegava em 1.3 no máximo para conseguir o boost de 4650 (pbo desativado), agora ele ta batendo 1.38+ com pbo desativado também.
Será que é algum bug da steel legend?
Ja resetei a bios, mas ainda ta se comportando assim. A tensão deveria subir com pbo ativado né?