[TÓPICO DEDICADO] NVIDIA GeForce RTX 4XXX

A 4080 16gb tb vai ter esse conector escroto q as fontes não tem?

As 3XXX FE, até a 3090 FE já usam esse conector...

O lance é que agora precisa de 4 cabos ao invés dos até 2 ou 3 cabos que eram usados, devido ao aumento do consumo da série nova.

A 4080 é 320w então vai usar o adaptador com 3 cabos.
 

NVIDIA GeForce Game Ready 522.25 WHQL​


Download Link

Our DirectX 12 optimizations apply to GeForce RTX graphics cards and laptops, though improvements will vary based on your specific system setup, and the game settings used. In our testing, performance increases were found in a wide variety of DirectX 12 games, across all resolutions:

  • Assassin’s Creed Valhalla: up to 24% (1080p)
  • Battlefield 2042: up to 7% (1080p)
  • Borderlands 3: Up to 8% (1080p)
  • Call of Duty: Vanguard: up to 12% (4K)
  • Control: up to 6% (4K)
  • Cyberpunk 2077: up to 20% (1080p)
  • F1Ⓡ 22: up to 17% (4K)
  • Far Cry 6: up to 5% (1440p)
  • Forza Horizon 5: up to 8% (1080P)
  • Horizon Zero Dawn: Complete Edition: up to 8% (4k)
  • Red Dead Redemption 2: up to 7% (1080p)
  • Shadow of the Tomb Raider: up to 5% (1080p)
  • Tom Clancy’s The Division 2: up to 5% (1080p)
  • Watch Dogs: Legion: up to 9% (1440p)
Nvidia só esperou sair os reviews para depois liberar o driver novo da série 3000 para a 4090 ter mais distância da 3090Ti nos testes. :limo:

Computerbase refez os testes com a 3090Ti e viu que a diferença para a 4090 diminuiu:


1wK89HaI_o.png

KrJ5Mspr_o.png

VuBGk10T_o.png

6AI7pSOo_o.png



E segundo eles o driver de review da 4090 já vinha com essas melhoras pois na 4090 não teve diferença com o driver novo.


Fica a dica para quem for comparar as placas se estão usando o driver novo nas 3000.

:pense:
 
GANHO DE FRAMES COM QUALIDADE GRAFICA .

ficou claro agora ????????

Ganho de frames com PERDA de qualidade gráfica e aumento de latência. Essa é a realidade..
Qualidade gráfica fica PIOR que o dlss2 performance...


Veja a analise completa





e outra no competitivo a galera joga na pior qualidade possivel para mais estabilidade e granhos de frames.

competitivo nao vai usar dlss3 por causa da latência
 
Ganho de frames com PERDA de qualidade gráfica e aumento de latência. Essa é a realidade..
Qualidade gráfica fica PIOR que o dlss2 performance...


Veja a analise completa







competitivo nao vai usar dlss3 por causa da latência

eu falei isso mais acima se voce nao leu posso fazer nada....
meio obvio que em copetitivo niguem vai usar ne...
como tambem e obvio que a nvidia vai melhorar o dlss3.0 com o tempo...
repetindo, que parece que o povo aqui nao le.
para jogos SP o dlss 3.0 e uma boa
para jogo que o fator frame time tenha que ser baixo o dlss 3.0 ja nao vale tanto.
no mais.... e dificil debater aqui com tantos engenheiros, programadores etc....etc...etc... que sabem mais que as empresas que estao a decadas no mercado ahehaheaheaheaheaheahehaehaeh
 
Te falo que essa história de driver muitas vezes é má vontade, ou até preconceito. OK que foi a AMD mesmo que criou isso com os drivers zuados da série passada, mas nas 6XXX eles acertaram demais. Claro que ainda há erros, mas longe, muito longe do que a galera que nem tem, prega.

Eu não duvido que vários relatos sejam de fanboys da Nvidia, criticando esses problemas apenas por mero prazer. Mas eu falo pela minha própria experiência. Ano passado fiquei quase 7 meses com uma RX 6800 e na maior parte desse período foram muitas dores de cabeça com tela preta, crashes aleatórios em alguns jogos (reportados pela própria comunidade no fórum oficial da AMD), stuttering, etc. Passei o DDU várias vezes, inclusive cheguei até a formatar o PC como última tentativa de solução, mas foi inútil. Tive que pesquisar e instalar um driver mais antigo que o pessoal recomendava na época. Somente com ele conseguia jogar sem transtornos, mas acabava refém de ter que mantê-lo e perder as possíveis otimizações que os drivers mais recentes trariam.

Sei que muitas pessoas não enfrentavam esses problemas, mas uma coisa é inquestionável: O número de relatos e reclamações relacionadas a drivers problemáticos, é infinitamente maior na AMD do que na Nvidia.
 
Ganho de frames com PERDA de qualidade gráfica e aumento de latência. Essa é a realidade..
Qualidade gráfica fica PIOR que o dlss2 performance...


Veja a analise completa







competitivo nao vai usar dlss3 por causa da latência

o dlss 3 é pra noob se sentir bem ao ver os fps no afterburner lá no alto, pq a latência é pior e a sensação dos frames tb não é igual (pelo fato de ter frame fake)
 
Eu não duvido que vários relatos sejam de fanboys da Nvidia, criticando esses problemas apenas por mero prazer. Mas eu falo pela minha própria experiência. Ano passado fiquei quase 7 meses com uma RX 6800 e na maior parte desse período foram muitas dores de cabeça com tela preta, crashes aleatórios em alguns jogos (reportados pela própria comunidade no fórum oficial da AMD), stuttering, etc. Passei o DDU várias vezes, inclusive cheguei até a formatar o PC como última tentativa de solução, mas foi inútil. Tive que pesquisar e instalar um driver mais antigo que o pessoal recomendava na época. Somente com ele conseguia jogar sem transtornos, mas acabava refém de ter que mantê-lo e perder as possíveis otimizações que os drivers mais recentes trariam.

Sei que muitas pessoas não enfrentavam esses problemas, mas uma coisa é inquestionável: O número de relatos e reclamações relacionadas a drivers problemáticos, é infinitamente maior na AMD do que na Nvidia.
Concordo.

E é aquela coisa, só reclama quem tem problema hehe, tipo, pra cada 10 que tem pau, tem 500 que estão de boa, mas entendo e concordo com a sua opinião. AMD ainda tem muito a melhorar nesse quesito, apesar de ter melhorado demais nas 6XXX.
 
eu falei isso mais acima se voce nao leu posso fazer nada....
meio obvio que em copetitivo niguem vai usar ne...
como tambem e obvio que a nvidia vai melhorar o dlss3.0 com o tempo...
repetindo, que parece que o povo aqui nao le.
para jogos SP o dlss 3.0 e uma boa
para jogo que o fator frame time tenha que ser baixo o dlss 3.0 ja nao vale tanto.
no mais.... e dificil debater aqui com tantos engenheiros, programadores etc....etc...etc... que sabem mais que as empresas que estao a decadas no mercado ahehaheaheaheaheaheahehaehaeh

Explica aí então, já q vc manja. Como a Nvidia vai melhorar a latência, se o dlss3 precisa do frame seguinte(futuro) pra montar o fake frame no meio?

A moral do dlss sempre foi pegar frame baixo e aumentar em números razoáveis; trazendo melhor fluidez e MENOR latência.

O dlss3 não serve pra isso. O próprio HU disse q pra ficar bom, precisa ter uma vga capaz de fazer acima de 120fps; senão a latência fica mto ruim.
Além disso, a qualidade gráfica fica pior que o dlss 2 modo desempenho..

Eles inclusive recomendaram usar com monitores de 240hz ou mais..

Vc nem sequer assistiu o video


o dlss 3 é pra noob se sentir bem ao ver os fps no afterburner lá no alto,

E pra fazer marketing, basicamente isso mesmo
 
Explica aí então, já q vc manja. Como a Nvidia vai melhorar a latência, se o dlss3 precisa do frame seguinte(futuro) pra montar o fake frame no meio?

A moral do dlss sempre foi pegar frame baixo e aumentar em números razoáveis; trazendo melhor fluidez e MENOR latência.

O dlss3 não serve pra isso. O próprio HU disse q pra ficar bom, precisa ter uma vga capaz de fazer acima de 120fps; senão a latência fica mto ruim.
Além disso, a qualidade gráfica fica pior que o dlss 2 modo desempenho..

Eles inclusive recomendaram usar com monitores de 240hz ou mais..

Vc nem sequer assistiu o video




E pra fazer marketing, basicamente isso mesmo
mano quem esta falando em melhorar latencia ??????
voce falou de artefatos com dlss3.0
e eu respondi que com o tempo nvidia deve melhorar, a parada nasceu agora. ate o dlss teve seus problemas .
nunca falei de latecia so de qualidade de imagem e so....
cara ja assiti trocentos videos , no homem aranha da uns erros bizarros, niguem esta falando que e perfeito, niguem simples assim
mano entao tu compra amd ou intel ou o que lhe agrade mais simples .

acho que aqui geral ja tem cabeça o suficiente pra fazer o que bem entender com a grana que tem nao acha ???????
parabens para os que ja compraram, que nao caiu nas ideias da galera do contra tudo e todos....
 

NVIDIA GeForce Game Ready 522.25 WHQL​


Download Link

Our DirectX 12 optimizations apply to GeForce RTX graphics cards and laptops, though improvements will vary based on your specific system setup, and the game settings used. In our testing, performance increases were found in a wide variety of DirectX 12 games, across all resolutions:

  • Assassin’s Creed Valhalla: up to 24% (1080p)
  • Battlefield 2042: up to 7% (1080p)
  • Borderlands 3: Up to 8% (1080p)
  • Call of Duty: Vanguard: up to 12% (4K)
  • Control: up to 6% (4K)
  • Cyberpunk 2077: up to 20% (1080p)
  • F1Ⓡ 22: up to 17% (4K)
  • Far Cry 6: up to 5% (1440p)
  • Forza Horizon 5: up to 8% (1080P)
  • Horizon Zero Dawn: Complete Edition: up to 8% (4k)
  • Red Dead Redemption 2: up to 7% (1080p)
  • Shadow of the Tomb Raider: up to 5% (1080p)
  • Tom Clancy’s The Division 2: up to 5% (1080p)
  • Watch Dogs: Legion: up to 9% (1440p)

Pessoal tá reclamando que o driver novo tá deixando as GPUs com 100% de uso no Windows em idle.

Sobre o debate mais cedo do DLSS3... Na minha opinião eu penso que independente se vocês planejam ou não usar, sem dúvidas é uma tecnologia muito promissora e que certamente tende a amadurecer muito. Mesmo hoje ela estando em "beta" os resultados são muito surpreendentes. Sim, tem muita margem pra melhor - e eu tenho a certeza de que irão.

Claro que muitas pessoas que focam em frames mais limpos, como jogadores competitivos, não vão e nem deverão usar, mas também não é e nunca será o público-alvo desta tecnologia - convenhamos que também nem precisam tendo em visto que todos os jogos competitivos são superleves e os players metem tudo no low pra cuspir o máximo de FPS que a VGA consegue.

Enfim, vamos ter paciência e acompanhar as possíveis melhorias e ajustes que o DLSS vai sofrer no futuro. Quem lembra o DLSS 1.0? Era simplesmente nojento e injogável, hoje já melhorou demais!

PS. Falando nisso, o único user do Reddit que alegou ter furado o bloqueio do DLSS3 conseguiu comprovar algo ou ficou só no boca a boca mesmo?

Interpolação de frames existe há anos e nunca evoluiu muito. Acho que não tem mágica que resolva.
 
Desde kepler o scheduler (pipeline hardware) foi retirado em prol de uma solução via software. Na época a diferença de performance não justificava a área a mais no chip e a AMD tinha um monte de problemas que não faziam a placa performar direito. AMD atualmente tem a solução integrada no chip, e em alguns casos dá pra ver a diferença:

battlefield-5-1920-1080.png


battlefield-5-2560-1440.png


battlefield-5-3840-2160.png

Com a solução via software o gargalo chega antes por causa da velocidade de organização.
Mas qual scheduler exatamente?
Única coisa que achei foi isso aqui, e diz que é tudo via hw ainda.

Esse gargalo que vc tá falando aí não é só questão do overhead do driver da nvidia não?
É que a série 4xxxx tem um mega reforço no hardware que faz o DLSS e Frame Generation.

Segundo o post do engenheiro, não compensaria, pois demoraria mais o Frame Generation que o raster normal devido a diferença de hardware.

Alias, esse é justamente o ponto do leak/desbloqueio, o cara está falando que a 2070 (Turing) está fazendo a mesma coisa que Ada Lovelace, mesmo com esse abismo de hardware de diferença.

Turing não tem nem OFA (Optic Flow Accelerator) se fosse uma 3070, seria mais plausível e ausência do vídeo só piora as coisas.
A turing "tem", usa o bloco do nvenc pra isso. Nas Ampere é um bloco dedicado, nas ADL esse bloco só ficou mais rápido.

Nvidia só esperou sair os reviews para depois liberar o driver novo da série 3000 para a 4090 ter mais distância da 3090Ti nos testes. :limo:

Computerbase refez os testes com a 3090Ti e viu que a diferença para a 4090 diminuiu:


1wK89HaI_o.png

KrJ5Mspr_o.png

VuBGk10T_o.png

6AI7pSOo_o.png



E segundo eles o driver de review da 4090 já vinha com essas melhoras pois na 4090 não teve diferença com o driver novo.


Fica a dica para quem for comparar as placas se estão usando o driver novo nas 3000.

:pense:

Bem, o ganho ainda é bem significativo.

Interpolação de frames existe há anos e nunca evoluiu muito. Acho que não tem mágica que resolva.
Mas uma coisa é interpolação com conteúdo estático feito pra uma taxa de quadros fixa (Acaba gerando o famoso soap opera effect), outro é pra conteúdo renderizado em tempo real. Acho que a nvidia tem como sim reduzir a latência e melhorar a qualidade, mas óbvio que não vai ser melhor que o nativo.
 
As 3XXX FE, até a 3090 FE já usam esse conector...

O lance é que agora precisa de 4 cabos ao invés dos até 2 ou 3 cabos que eram usados, devido ao aumento do consumo da série nova.

A 4080 é 320w então vai usar o adaptador com 3 cabos.
Mas o adaptador vem com a vga?

Pq as aib tb estão com esse conector escroto.
 
o dlss 3 é pra noob se sentir bem ao ver os fps no afterburner lá no alto, pq a latência é pior e a sensação dos frames tb não é igual (pelo fato de ter frame fake)
Perfeito. Eu na real acho o DLSS em si uma tecnologia boa mas acho que não devia existir.

Usei DLSS por pouco tempo, há ganhos bons sim (de FPS) mas... Porque estão empurrando tanto essas tecnologias de "reconstrução de imagem por IA" ou seja lá o nome dessa budega? Marketing? Assim, eu olho reviews dessas placas high end daí eu olho, usou DLSS no modo qualidade daí eu fico "hmm... então isso não é o desempenho REAL da placa", daí eu dou prioridade pra reviews que testam com o DLSS desativado e é aí que a gente vê o real desempenho dessas GPUs.

No caso da 4090, houve um salto sim de desempenho (SEM DLSS) mas nesses jogos bugados e "mal otimizados" como Cyberpunk ainda sim essas placas "sofrem" um pouco em 4K.

Ah mas o DLSS é para ajudar nos frames em resoluções altíssimas, sim, eu sei, mas o DLSS bem no comecinho era muito, muito esquisito, melhorou depois de uma leve pressão da AMD e agora temos o DLSS 3 que... É.

Não é algo que eu usaria, sei lá, da uma falsa impressão de performance.

Na boa mesmo, espero que essa modinha de usar IA pra ganhar FPS acabe, que tal menos IA e mais poder bruto?

É assim que eu penso mas... Posso estar sendo meramente ignorante.
 
Minha única crítica maior ao adaptador é que podiam ter feito ele mais comprido, ao menos para ir até atrás do gabinete, lá ligar em 4 pcie da fonte, não esse ali curtinho, que não tem jeito de deixar bonito no pc.
 
Interpolação de frames existe há anos e nunca evoluiu muito. Acho que não tem mágica que resolva.

Bom, eu não entendo a tecnologia utilizada nas TVs de forma mais técnica pra poder afirmar com propriedade, mas eu tenho certeza que querer comparar a simples interpolação de frames de TVs com o Frame Insertion do DLSS3 não dá, né? Em essência a ideia é a mesma, eu sei, porém, a tecnologia por trás de como isso é feito deve muito diferente e muito mais inteligente. É tipo querer comparar o DLSS normal com um simples upscaling tradicional de TVs, a ideia é a mesma mas na prática a gente sabe que é muito diferente - em especial o resultado.
 
Não entendo esse desespero em comprar a 4090 ou fazer pré-compra para receber só daqui a 20 dias. A fase da crypto acabou, vai ter estoques normais de VGA.
No máximo é acabar hoje e voltar o estoque daqui 2 dias. Não precisa daquela loucura de ficar a madrugada inteira dando F5 para comprar uma 30XX que foi a anos atrás.
Comprei minha 3080Ti por metade do valor de lançamento dela e 3 dias depois recebi ela, sem estresse.
E outra, pelo valor da 4090 somente 0,0001 de brasileiros poderá comprar uma. Então estoques por aqui vão ter.
O problema é o FOMO que alguns mais bonificados tem quando sai algo novo e querer logo mostrar o e-penis para o resto.
 
eu falei isso mais acima se voce nao leu posso fazer nada....
meio obvio que em copetitivo niguem vai usar ne...
como tambem e obvio que a nvidia vai melhorar o dlss3.0 com o tempo...
repetindo, que parece que o povo aqui nao le.
para jogos SP o dlss 3.0 e uma boa
para jogo que o fator frame time tenha que ser baixo o dlss 3.0 ja nao vale tanto.
no mais.... e dificil debater aqui com tantos engenheiros, programadores etc....etc...etc... que sabem mais que as empresas que estao a decadas no mercado ahehaheaheaheaheaheahehaehaeh
Ih rapaz, se foi pro ad hominem engraçadalho é pq acabou de vez os argumentos.
Todo mundo leu o que vc disse, a questão é que o pessoal só não concorda mesmo. Nessa de pode melhorar com o tempo posso até usar o argumento absurdo de que com o tempo a AMD vai chegar lá então não vale a pena a RTX 4090... O futuro é discutido no futuro, no presente DLSS2 aumenta o framerate com baixo impacto na qualidade, enquanto o DLSS3 aumenta o framerate com graves impactos na qualidade em latência, o engraçado é que nem preciso desenhar pra vc, as imagens estão aí pra quem quiser ver.
 
Perfeito. Eu na real acho o DLSS em si uma tecnologia boa mas acho que não devia existir.

Usei DLSS por pouco tempo, há ganhos bons sim (de FPS) mas... Porque estão empurrando tanto essas tecnologias de "reconstrução de imagem por IA" ou seja lá o nome dessa budega? Marketing? Assim, eu olho reviews dessas placas high end daí eu olho, usou DLSS no modo qualidade daí eu fico "hmm... então isso não é o desempenho REAL da placa", daí eu dou prioridade pra reviews que testam com o DLSS desativado e é aí que a gente vê o real desempenho dessas GPUs.

No caso da 4090, houve um salto sim de desempenho (SEM DLSS) mas nesses jogos bugados e "mal otimizados" como Cyberpunk ainda sim essas placas "sofrem" um pouco em 4K.

Ah mas o DLSS é para ajudar nos frames em resoluções altíssimas, sim, eu sei, mas o DLSS bem no comecinho era muito, muito esquisito, melhorou depois de uma leve pressão da AMD e agora temos o DLSS 3 que... É.

Não é algo que eu usaria, sei lá, da uma falsa impressão de performance.

Na boa mesmo, espero que essa modinha de usar IA pra ganhar FPS acabe, que tal menos IA e mais poder bruto?

É assim que eu penso mas... Posso estar sendo meramente ignorante.
força bruta e otimização é essencial mesmo e deviam focar mais nisso do que inventar frame pro dlss parecer que tá liso mesmo não estando, ou ficar dando blur na tela enquanto reduz a resolução nativa e faz up depois como no dlss2, otimização é tudo na verdade, eu estava jogando um jogo meio bosta na unreal engine que nem é a mais nova, efootball 2023, vulgo pes 2023, o jogo é tão mal otimizado que é travado em hd, sim a resolução dele é até o hd só, isso sim 720p e o jogo é travado a 60fps, pois bem, eu mexi no executável e liberei os fps dele (sei que tem executável pronto disso mas preferi eu fazer), cara com os fps liberados o jogo é tão pesado, tão pesado que ele na 3060ti roda a 140fps com a gpu dando o máximo em 100% cravados, sendo que o jogo é 720p, feio de doer, não tem nem sombra nos jogadores de tão ruim o gráfico, o lod dele é de dar dó, e sim a 3060ti peidando desse jeito nisso

enquanto o pes 2021 que era em outra engine, é 2 vezes mais bonito que ele, com sombras, efeitos, chuva, tudo o que o 2023 não tem, roda em 2k de resolução a 280fps na mesma placa

aí vemos o que uma preguiça na otimização causa
 
Eu vejo basicamente 2 motivos pro dlss3 existir:

1) marketing

2) evitar o gargalo de cpu do dlss 2 performance, principalmente com a 4090(e futuras gerações).
Pq mesmo um 7950x vai sofrer pra renderizar vários jogos em 1080p. Gargalo monstro. Ou seja, terá ganhos mínimos de fps.
O dlss3 fake frame "resolve" isso... bota um numero grande no afterbuner e todo noob fica feliz



Outro ponto..o dlss 2 perfomance pode gerar praticamente o mesmo fps, em alguns jogos, q o dlss 3(quality); inclusive com menor latência tb(claro).



aBiPbEd.png
 
Para quem quer pegar uma 4090 tuf oc fica de olho na pichau, eu acabei de pegar uma 4090 galax sg e não irei ficar com a Tuf.
boleto vence hoje.
 
Perfeito. Eu na real acho o DLSS em si uma tecnologia boa mas acho que não devia existir.

Usei DLSS por pouco tempo, há ganhos bons sim (de FPS) mas... Porque estão empurrando tanto essas tecnologias de "reconstrução de imagem por IA" ou seja lá o nome dessa budega? Marketing? Assim, eu olho reviews dessas placas high end daí eu olho, usou DLSS no modo qualidade daí eu fico "hmm... então isso não é o desempenho REAL da placa", daí eu dou prioridade pra reviews que testam com o DLSS desativado e é aí que a gente vê o real desempenho dessas GPUs.

No caso da 4090, houve um salto sim de desempenho (SEM DLSS) mas nesses jogos bugados e "mal otimizados" como Cyberpunk ainda sim essas placas "sofrem" um pouco em 4K.

Ah mas o DLSS é para ajudar nos frames em resoluções altíssimas, sim, eu sei, mas o DLSS bem no comecinho era muito, muito esquisito, melhorou depois de uma leve pressão da AMD e agora temos o DLSS 3 que... É.

Não é algo que eu usaria, sei lá, da uma falsa impressão de performance.

Na boa mesmo, espero que essa modinha de usar IA pra ganhar FPS acabe, que tal menos IA e mais poder bruto?

É assim que eu penso mas... Posso estar sendo meramente ignorante.

Concordo. Força bruta e resolução nativa = :mr2:

Não compreendo pq não continuaram com o DLSS2 como foco. Algo bom e que vinha sendo bem lapidado. Questão de tempo até que o dlss performance ficasse com qualidade de dlss quality e mantendo fps alto.

Eu vejo basicamente 2 motivos pro dlss3 existir:

1) marketing

2) evitar o gargalo de cpu do dlss 2 performance, principalmente com a 4090(e futuras gerações).
Pq mesmo um 7950x vai sofrer pra renderizar vários jogos em 1080p. Gargalo monstro. Ou seja, terá ganhos mínimos de fps.
O dlss3 fake frame "resolve" isso... bota um numero grande no afterbuner e todo noob fica feliz



Outro ponto..o dlss 2 perfomance pode gerar praticamente o mesmo fps, em alguns jogos, q o dlss 3(quality); inclusive com menor latência tb(claro).



aBiPbEd.png

Ih carai, vídeo do HU e ainda criticando o dlss3? Coloca o capacete que lá vem pedrada dos FOMO.
 

Users who are viewing this thread

Voltar
Topo