[TÓPICO DEDICADO] NVIDIA GeForce RTX 4XXX

  • Iniciador de Tópicos Iniciador de Tópicos neo666
  • Data de Início Data de Início
E quem NÃO É deixa no automático.... então tá Calabreso. :fag: :clo:

Agora falando sério, qual a real vantagem em fazer undervolt? A diminuição de consumo de energia e temperatura uns -5°C a -10°C? Travar o clock da GPU no padrão (ou um pouco abaixo da especificação) ou travar os FPS no driver não seria melhor? :hmm2:
Menor consumo basicamente, mas como consumo é diretamente ligado a temperatura (que tá ligada ao ruído) acaba sendo interessante mesmo pra quem não liga pra conta de luz em si, e uns watts a menos despejados no ambiente durante o verão são sempre bem-vindos

Varia do setup como um todo e de jogo pra jogo (coisas como RT/PT tendem a aumentar consumo e as vezes diminuir clock também) mas geralmente consigo desempenho stock com uns 5c a menos e 10-20% menos consumo então é basicamente de graça ao meu ver, quem quiser ir além as vezes pode sacrificar lá uns 3%~ de desempenho que na prática é imperceptível pra reduzir ainda mais o consumo mas vai de cada um porque não tem regra

As vezes vejo gente falar que undervolt "capa" a placa mas acho meio sem sentido, minha placa stock roda a 1075mv e ~2805mhz na bios silent (depende da temp), se reduzir pra 1000mv é uma boa redução de tensão e ela consegue sustentar o mesmo clock ainda, e a pessoa pode usar exatamente o valor de tensão/frequência que ela quiser (e a placa aguentar) então dá pra fazer undervolt ganhando clock e desempenho, mantendo o desempenho, ganhando ou perdendo 1/1.5/2% e por aí vai, não é "engessado" como alguns fazem parecem ser

Um exemplo da 4080 quando tinha acabado de receber ela, em stock tava batendo 1075mv, 2790mhz, 300w, 56c e fazendo 101 fps, com um UV+OC rápido foi pra 1000mv, 2805mhz, 260w, 53c e 105 fps (menor consumo/temp (e ruído se reduzir os fans) com maior desempenho), e com um UV+OC mantendo desempenho stock ficou 950mv, 2700mhz, 220w, 51c e 101fps, e isso foram 2 perfis de undervolt que fiz em menos de 5 minutos no total, nada otimizado ao extremo, apesar que o maior ganho mesmo é sair de stock pra um UV razoável, aí de um UV razoável pra um "perfeito" geralmente é pouca diferença que não vale o esforço, em papo de 10 segundos dá pra baixar lá uns 75-125mv e já era, aí tem os tryhard que otimizam pra conseguir +15mhz extra e 10mv a menosm mas que na prática nem muda nada praticamente
Stock
2790mhz, 300w~, 56c e 101fps nessa cena

zTSKPoO.jpg



1000mv/2805mhz +1200 vram
2805mhz, 260w~, 53c e 105fps nessa cena

6SWRUQC.jpg


950mv/2700mhz +1200 vram
2700mhz, 230w~, 51c e 101fps nessa cena. Desempenho stock com -70w ou 23% de redução de consumo e -5c)

ApYHCRB.jpg
Travar o fps vai ajudar mas só porque vai reduzir o fps máximo, e travar o clock vai ajudar só porque tá limitando o clock, enquanto que com undervolt vai ser sempre melhor que stock (travando fps/clock ou não), já que tá usando menos tensão pro mesmo clock, e CPU/GPU em geral costuma vir com uma margem bem grande de tensão que dá pra cortar antes de ficar instável, vide undervolt de CPU Intel que o povo consegue tirar uns 75-100mv em média, e Curve Optimizer do AMD que cada -1 reduz em 3-5mv a tensão, aí vai de sorte porque alguns só conseguem usar ali por volta de -10 (30-50mv a menos) enquanto outros conseguem estabilidade com -30 (90-150mv a menos) ou até mais
 
Última edição:
Assim que tiver um tempo livre, vou dedicar e me aprofundar no assunto e ver o quanto posso extrair da minha placa com o undervolt, focando na estabilidade. Pelo visto, não precisa ser entusiasta ou expert pra fazer esses ajustes.

Obrigado a todos pelas dicas! :joia:
 
Assim que tiver um tempo livre, vou dedicar e me aprofundar no assunto e ver o quanto posso extrair da minha placa com o undervolt, focando na estabilidade. Pelo visto, não precisa ser entusiasta ou expert pra fazer esses ajustes.

Obrigado a todos pelas dicas! :joia:

Se não me engano tem um video do Derbauer que ele mostra que reduzir o PL da mais resultado do que UV no caso da 4090.
 

Se não me engano tem um video do Derbauer que ele mostra que reduzir o PL da mais resultado do que UV no caso da 4090.

Aqui na 4080 ainda tive resultado um pouco melhor com undervolt (já que dá pra setar freq/tensão exato) do que limitando PL, mas no geral foi bem próximo, o ideal é monitorar o effective clock mesmo mas quem não tiver saco pode só se basear pelo desempenho final mesmo já que o que importa é o desempenho na prática, aqui a diferença do clock nominal vs efetivo é basicamente nula

O bom de limitar pelo PL é que pode deixar no consumo exato que a pessoa quiser, e também não impede de usar OC junto, dá pra limitar o PL aonde quiser, botar uns +1000-1500 nas memórias e aí se quiser botar +50-200 de core clock e ver se a placa segura
 

Se não me engano tem um video do Derbauer que ele mostra que reduzir o PL da mais resultado do que UV no caso da 4090.


Sem contar que é muito mais fácil de fazer...

Ao invés de ficar fazendo curva e fazendo oc nas memórias.... Não confio em fazer oc em gpu, pode falar oque quiser ,"eu faço na minha, é seguro e blablabla".



---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------



Utilização fora de especificações de fábrica (Overclocking, mineração ou qualquer atividade fora de condições normais), se comprovado pela equipe técnica:

Fonte : https://galaxbr.com/suporte/garantia

Resumindo : Alguém ai tem uma bola de cristal? Como eu vou saber q meu 1k de oc nas memórias e 100 de mhz nas memórias, pode afetar algum componente da placa de vídeo?

Por isso que na próxima geração 6~7xx, eu vou é pular fora da galax. Não tenho sorte com essa marca, sempre pego os chips "bombas", sem contar o consumo excessivo desse modelo SG. Não adianta nada consumir tanta energia, e desempenhar igual ou menos que outras marcas..

Desculpe, aproveitei pra despejar minha insatisfação com essa marca. Toda hora você entra no canal dos caras, eles depenando as placas pra mostrar o "real poder". Na ultima que eu vi, o cara depenou a placa inteira e fez uma modificação, pra placar pegar 3060~3090 mhz, enquanto outras placas fazem isso com OC "CASEIRO".. é feio demais kkkkkkkkkk
 
Última edição:
Utilização fora de especificações de fábrica (Overclocking, mineração ou qualquer atividade fora de condições normais), se comprovado pela equipe técnica:

Fonte : https://galaxbr.com/suporte/garantia

Resumindo : Alguém ai tem uma bola de cristal? Como eu vou saber q meu 1k de oc nas memórias e 100 de mhz nas memórias, pode afetar algum componente da placa de vídeo?
Cada um faz por conta e risco mas não vejo como pode dar algum problema, a tensão fica abaixo do stock (excesso de tensão pode ser bem problemático) e reduz a temperatura (que reduz o desgaste), 5-6 anos fazendo undervolt e milhares de relatos lidos ao longo desse tempo e não vi 1 caso sequer de problema por conta de undervolt nem overclock inclusive, por que rodar o core clock um pouco mais alto que a sua placa roda em stock seria problemático? Tem placa que roda a 2600, outras 2700, outras 2800 e assim vai, se fosse assim teria uma taxa de defeito muito maior nas GPUs com clock mais alto de fábrica, mas se a tensão e temperatura então sob controle não sei qual é a preocupação

Depois de tanto tempo lendo sobre e fazendo UV/OC eu diria que dar defeito é mais azar do que qualquer coisa, tem gente que compra GPU, roda stock bonitinho com ar-condicionado e não deixa passar de 60c e se fode, e tem gente que deixa torando nos 80c com OC e usa por anos e até hoje não vi taxa de defeito alta mesmo nos componentes mais abusados, o que geralmente dá problema mais rápido é tensão desnecessariamente alta e temp absurdamente alta, se for os 2 juntos aí pior ainda, agora achar que uma GPU vai dar pau porque subiu um pouco o clock da memória, tirou 50-100mv de tensão e mexeu 100mhz no core clock até hoje nunca vi, quem eu vejo queimar hardware são as pessoas do overclock pesado que tão dispostas a fritar componente pra ter o número mais bonitinho no benchmark, e que vão muito além da tensão máxima recomendada
 
Cada um faz por conta e risco mas não vejo como pode dar algum problema, a tensão fica abaixo do stock (excesso de tensão pode ser bem problemático) e reduz a temperatura (que reduz o desgaste), 5-6 anos fazendo undervolt e milhares de relatos lidos ao longo desse tempo e não vi 1 caso sequer de problema por conta de undervolt nem overclock inclusive, por que rodar o core clock um pouco mais alto que a sua placa roda em stock seria problemático? Tem placa que roda a 2600, outras 2700, outras 2800 e assim vai, se fosse assim teria uma taxa de defeito muito maior nas GPUs com clock mais alto de fábrica, mas se a tensão e temperatura então sob controle não sei qual é a preocupação

Depois de tanto tempo lendo sobre e fazendo UV/OC eu diria que dar defeito é mais azar do que qualquer coisa, tem gente que compra GPU, roda stock bonitinho com ar-condicionado e não deixa passar de 60c e se fode, e tem gente que deixa torando nos 80c com OC e usa por anos e até hoje não vi taxa de defeito alta mesmo nos componentes mais abusados, o que geralmente dá problema mais rápido é tensão desnecessariamente alta e temp absurdamente alta, se for os 2 juntos aí pior ainda, agora achar que uma GPU vai dar pau porque subiu um pouco o clock da memória, tirou 50-100mv de tensão e mexeu 100mhz no core clock até hoje nunca vi, quem eu vejo queimar hardware são as pessoas do overclock pesado que tão dispostas a fritar componente pra ter o número mais bonitinho no benchmark, e que vão muito além da tensão máxima recomendada

Faz sentindo, falando nisso. Qual foi o defeito que deu na sua placa?

Só acrescentando cada chip se comporta diferente do outro, as placas que rodam a 2600~2700 são os inferiores os que rodam a 2800 teoricamente são melhores. Isso dentro da mesma placa e modelo... Por isso tem a tecnologia do turbo boost.
 
Última edição:
Faz sentindo, falando nisso. Qual foi o defeito que deu na sua placa?

Só acrescentando cada chip se comporta diferente do outro, as placas que rodam a 2600~2700 são os inferiores os que rodam a 2800 teoricamente são melhores. Isso dentro da mesma placa e modelo... Por isso tem a tecnologia do turbo boost.
Varia, mas nunca vi uma placa tão ruim que não tivesse melhora significativa comparado a rodar 100% stock

Defeito em GPU só tive mesmo numa GTX 760 antiga da EVGA que morreu e nessa época eu só instalava e usava sem mexer em nada kkkkk, a 4080 uns meses atrás tinha parado de dar vídeo no HDMI por algum motivo, fucei e não consegui resolver aí desliguei tudo, no outro dia tava tudo normal e segue assim então não sei o que aconteceu :haha: Os displayport tavam normais mas como uso TV não tenho DP pra conectar
 
Frequência não danifica componente. Temperatura e tensão sim.

Faz sentindo, falando nisso. Qual foi o defeito que deu na sua placa?

Só acrescentando cada chip se comporta diferente do outro, as placas que rodam a 2600~2700 são os inferiores os que rodam a 2800 teoricamente são melhores. Isso dentro da mesma placa e modelo... Por isso tem a tecnologia do turbo boost.
Algumas melhoram pouco, outras mais. Mas de modo geral todas melhoram, afinal eles colocam uma “gordurinha” de tensão exatamente para que todas as placas funcionem na especificação mínima.
 
yHkWDT3.jpg


Me3KyNB.jpg


37wXRIp.jpg

Dei aquela “limpada aprimorada” nela, retirando toda aquela poeira fina nos três ventiladores, nos cantos e aletas do dissipador com cotonetes, flanela com microfibra, pincel antiestático e aspirador/soprador de mão. Está parecendo uma VGA nova! Agora só resta a chegada da nova fonte Galax de 1200W!

Nem penso em fazer overclock na minha RTX 4090, estou deixando tudo no padrão mesmo (ela tem picos de até 2600 - 2700 Mhz, conforme o MSI Afterburner / Riva Tuner). Sei que não poderei contar com a garantia da Zotac.

Minha última Nvidia foi a GTX 980 Ti modelo founders etiquetado pela Gigabyte (peguei na WAZ em meados de 2016, 3 pilas se não me falha a memória). Rodava tudo no máximo! Tinha o monitor 24" FHD de 120 Hz Benq XL2420T e queria tirar o máximo de proveito dele.

Instalei o “Nvidia APP” só pra ver como ficou, mas desinstalei depois. Só deixei instalado o painel de controle da Nvidia (que não usava desde 2019 após aquisição da RX 5700 XT e da RX 6800 XT em 2022) e o driver 566.36 (WHQL), foi o suficiente para efetuar alguns ajustes e limitar os FPS em 161 (meu monitor é 165 Hz).

Em alguns jogos de mundo aberto e em terceira pessoa, noto que fica melhor com o V-Sync ativado (dá umas “distorcidas” na tela quando giro rápido a câmera, a depender do jogo). A combinação que fiz foi e ficou boa pra mim: Adaptive Sync/VRR + travar 161 no driver + V-Sync ativado. E também DESATIVO a profundidade de campo e o desfoque de movimento nos menus gráficos dos jogos (“depth of field” e “motion blur”).

E dessa vez, o driver da Nvidia reconheceu automaticamente o Freesync Premium PRO/G-Sync compatible (VRR/Adaptive-Sync) do monitor e da TV, sem eu precisar ativar manualmente essas tecnologias (como ocorria no Adrenalin Driver em que tinha que ativar manualmente o Adaptive-Sync e os 10 bits de cores).

iE40l2u.jpg


5PzIVeE.jpg


GvQPrdI.jpg
Mano tenho uma placa zotac so que é a Airo, irei limpar a minha também nesse fds para ver como fica.
 
NVIDIA finalmente mostra seu protótipo RTX 40/TITAN de quatro slots e três ventiladores com PCB rotacionado
NVIDIA revela seu design de fluxo 3/3, também conhecido como TITAN ADA ou RTX 4090Ti
Desde a análise do vídeo do GN, não havia sentido em não discutir esse design.

yh1oz0y.png

A NVIDIA publicou um vídeo interessante sobre seu design interno Founders Edition. O vídeo discute a história dessas placas e como os avanços no suporte a requisitos de energia mais altos levaram os conceitos de design a novas fronteiras.

Durante anos, os designs de referência da NVIDIA utilizaram coolers estilo blower. Somente com o lançamento dos designs dual-GPU a NVIDIA adicionou um segundo ventilador. Os designs de referência eram frequentemente considerados inferiores em termos de temperaturas e acústica, tornando as variantes personalizadas uma escolha mais atraente em relação aos designs da NVIDIA.

wexstKY.jpeg


Com a série RTX, a NVIDIA introduziu um novo design conhecido como dual-axial, e para a série RTX 30, a empresa adotou um PCB mais curto que permitiu designs de fluxo contínuo. A geração atual apresenta um design de fluxo contínuo duplo com o PCB separado do display e de outras placas de PCB completamente.

No novo vídeo postado pela NVIDIA, um design conceitual apresentando um cooler de quatro slots e três ventiladores também é exibido. Este design foi revelado anteriormente por meio de vazamentos do Kopite7kimi e, eventualmente, uma placa funcional foi descoberta e testada recentemente pela Gamers Nexus .

KZ3xMsM.jpeg


A NVIDIA confirmou agora que este era de fato seu protótipo, mas eles decidiram não prosseguir com o design de quatro slots. Apesar de apresentar um PCB inovador instalado paralelamente à placa-mãe, a espessura do cooler foi amplamente ditada por esta placa. Como mostrado no vídeo de desmontagem da Gamers Nexus, a placa tinha um design muito complexo. Provavelmente foi descartada não apenas por causa de seu tamanho, mas também devido aos seus altos custos de produção.

mrd5CMw.jpeg


Curiosamente, a placa mostrada pela NVIDIA (especificamente como uma renderização 3D) parece ser um design TITAN, com base em seu esquema de cores. Também foi confirmado que ela apresenta conectores de energia duplos de 16 pinos , enquanto o protótipo testado pela Gamers Nexus tinha apenas um. Talvez este seja o modelo de 800 W mencionado por vazadores há mais de dois anos, agora confirmado pela NVIDIA.

A NVIDIA citou vários motivos para abandonar esse design, como sua espessura e suporte limitado ao chassi. No entanto, ele serviu como base para a arquitetura Blackwell, que é discutida mais adiante no vídeo.

 

Se não me engano tem um video do Derbauer que ele mostra que reduzir o PL da mais resultado do que UV no caso da 4090.

UV é só pra casos tipo, sua fonte dá querendo explodir e vc quer usar a vga até comprar uma fonte nova sem correr grandes riscos.
Ou se sua vga tá fritando e vc quer usar até resolver o problema dela ou comprar uma nova.
Ou seja, UV só em casos críticos onde se precise muito preservar a fonte ou o que resta da vga rsrsrsr.
Agora em condições normais " Que é o que sempre acontece aqui"; eu rodo minhas vgas com over maroto e sempre gerenciando as temps.
 
Deixa ver se eu entendi, o DLSS 4 vai vir pra serie 4 também, serio isso?
 
pBMKprL.jpg


UGnRVqZ.jpg

A fonte chegou e parece estar funcionando. Deu uma boa reduzida no volume de cabos no interior do gabinete.

Joguei um pouco do Ghost of Tsushima (com tudo no máximo e com o DLAA). Quando tiver mais tempo, dou outra “estressada” no PC (pra ver se está 100%), e faço testes e ajustes de PL e/ou UV, visando reduzir o consumo e temperatura da RTX 4090.

HpS736M.jpg


08raw4Q.jpg


h8jfO85.jpg


NuENiT2.jpg


6Ze5U9o.jpg


WlaLr8z.jpg


zwYCSfV.jpg


hbZFyyX.jpg


pBMKprL.jpg


UGnRVqZ.jpg


jpRUQSZ.jpg

rVgJNsF.png
 
Esqueçam esse FGx4.. O maior trunfo da geração foi esse "transformers" que a nvidia inventou.. Não consigo ver a diferença entre qualidade e performance.. Isso é bruxaria pura, e olha que estou em quadHD!

QuadHD+RT PSY+RR+AllMAX DLSS PERF



QuadHD+RT PSY+RR+AllMAX DLSS QUALITY



Não reparem a temperatura xD

31 graus no momento.
 
Esse DLSS novo que chegou compatível as 4xxxx já consigo utilizar em qualquer jogo ou ainda não? Pelo que vi veio oficialmente no Cyberbug, Indiana e acho q no Final Fantasy...
 
Esse DLSS novo que chegou compatível as 4xxxx já consigo utilizar em qualquer jogo ou ainda não? Pelo que vi veio oficialmente no Cyberbug, Indiana e acho q no Final Fantasy...

Se o jogo suporta DLSS, consegue, só atualizar o .dll pra versão 310 e usar o nvidia profile inspector para ativar o preset J no profile do jogo
 
Última edição:
Se o jogo suporta DLSS, consegue, só atualizar o .dll pra versão 310 e usar o nvidia profile inspector para ativar o preset F no profile do jogo
Não é o preset J?
 
Esse DLSS novo que chegou compatível as 4xxxx já consigo utilizar em qualquer jogo ou ainda não? Pelo que vi veio oficialmente no Cyberbug, Indiana e acho q no Final Fantasy...
Usa o app dlss swaper, acho que o game precisa ter suporte oficial, usei no stalker 2 e sillent Hill , se não tô cego ficou melhor , precisa habilitar o preset J também .
 
Se o jogo suporta DLSS, consegue, só atualizar o .dll pra versão 310 e usar o nvidia profile inspector para ativar o preset J no profile do jogo
Já tem data de quando a nvidia vai disponibilizar isso oficialmente? Não gosto de usar o profile inspector.
 

Users who are viewing this thread

Voltar
Topo