[TÓPICO DEDICADO] NVIDIA GeForce RTX 4XXX

  • Iniciador de Tópicos Iniciador de Tópicos neo666
  • Data de Início Data de Início
Tem a mesma do mesmo marketplace na CASAS BAHIA e EXTRA por 9899 em até 6x no CC. Teve MSI GAMING TRIO tbm mas agora está fora de estoque.

Arrependimento de não ter comprado misturado com uma dúvida se realmente “preciso”.
 
Testei aqui de curiosidade no Forspoken Demo, porque eu tenho acesso aos dois recursos (tenho o Frame Generation da NVIDIA e agora o FSR3 da AMD). Primeiramente, o gerador de quadros da AMD é bom. Os artefatos que eu notei são do FSR, e não do gerador. O de sempre: cabelos e gramas meio "picotados", não tem a mesma definição do DLSS. Ainda ativei o DLSS lado a lado, e realmente, é mais nítido (na mesma escala de nitidez).

Contudo, uma vantagem que percebi no FG da NVIDIA: quando o jogo base, sem o gerador de quadros, está rodando a menos de 60 FPS, a solução da NVIDIA passa uma sensação de fluidez melhor. Mesmo que a empresa só recomende ligar o DLSS3 em jogos que rodem acima de 60 FPS sem IA, aqui consigo jogar de boa Starfield no talo, que em umas áreas pega 45 FPS, e com o FG fica entre 65 e 75 FPS. Muito melhor a experiência, sem nenhum artefato. Joguei horas com o MOD do DLSS3 e foi extremamente superior do que quando joguei sem nada.

No caso do FSR3, se o jogo base rodar abaixo dos 60 FPS, não gostei da fluidez. Deixei Forspoken bem pesadão, rodando acima de QuadHD e com tudo no talo, inclusive Ray Tracing. O jogo sem o Gerador de Quadros da AMD ficou entre 45 ~ 50 FPS (e caia mais em algumas batalhas). Ativei o gerador de quadros e ficou entre 75 ~ 85 FPS... mas não achei bom. A fluidez estava simplesmente ruim (coisa que não acontece com a solução da NVIDIA).

Porém, se o jogo estiver rodando entre 55 e 60 FPS sem o auxílio do FSR3, e você ativa o gerador de quadros, aí dá um pulo para 125 ~ 145 FPS, e realmente, fica bem melhor nas cenas de ação. Como falei, a imagem ainda é inferior ao DLSS 3.5 (atualizado pelo DLSS Swapper), mas flui bem melhor. Cenas que com o DLSS caia para 50 ~ 55 FPS, fica entre 90 ~ 100 FPS e macio.

Resumindo: visualmente falando, ainda testei no mesmo jogo a diferença do FSR3 e DLSS esteticamente, e ainda achei a solução da NVIDIA com uma aparência melhor, principalmente em detalhes finos, como fios de cabelo e grama. Porém, para o pessoal da RTX 30XX e da AMD, caiu do céu esse gerador de quadros da AMD, porque tira bastante o peso do CPU, e em cenas pesadas, DESDE QUE O JOGO CONSIGA RODAR ENTRE 50 ~ 60 FPS NO MÍNIMO, dá um salto de fluidez muito bom.

Recomendo que todos daqui testem e tirem as conclusões. Como eu tenho acesso aos dois recursos, consegui comparar melhor (não no Forsporken, porque ele suporta só a solução da AMD e o DLSS básico sem FG). Se eu tivesse ainda uma RTX 30XX, estaria bem feliz agora. E, mesmo não tendo, fico feliz que em games que não receberão mods para o FG, como Starfield e o Baldur's Gate 3, e são patrocinados pela AMD (logo, não suportam o DLSS com a mesma boa vontade, como Starfield), teremos essa solução do FSR, que com certeza é bem melhor do que não ter nada.
Minha opinião sobre o FSR3, sabendo como é o Frame Generation da NVIDIA, para quem ficou curioso.
 
Minha opinião sobre quantidade de Vram, respeito a todos os membros e acho que a 4070 e 4070ti vieram faltando um cadinho mesmo, mas se a importância de Vram fosse nesse nível, a AMD seria líder de mercado.
E lembrando, a placa mais usada até hoje é a 1660 super e a 1650, por mais que seja pros viciados em CS essa galera joga outros jogos e eu duvido que as empresas vão querer perder esse mercado, paz.
 
Obrigado AMD. Minha 3070TI acabou de virar quase uma 4090 de graça rsrs

Não sei como funciona o DLSS FG, mas achei incrível o FSR3 Super Resolution. Muito impressionante. Dobrou meus frames, ganhei mais fluidez na imagem e a impressão é que a movimentação no mouse tb escalou junto. Negócio impressionante!

Imagino que a solução da nVidia seja melhor, mas to MUITO impressionado com o FSR3. E isso vem de alguém que achava FSR2 muito meia boca comparado ao DLSS.

Sem Upscaler
oUc1FRW.png


FSR3 Super Resolution + Native AA
iAOmVCr.png


FSR3 Super Resolution + Qualidade
JIAst1u.png
 
Minha opinião sobre quantidade de Vram, respeito a todos os membros e acho que a 4070 e 4070ti vieram faltando um cadinho mesmo, mas se a importância de Vram fosse nesse nível, a AMD seria líder de mercado.
E lembrando, a placa mais usada até hoje é a 1660 super e a 1650, por mais que seja pros viciados em CS essa galera joga outros jogos e eu duvido que as empresas vão querer perder esse mercado, paz.
Acho que são nichos de mercado. Como falei ali, quem se importa com RTX tem que se atentar nisso. Memória em AMD não dá tanta vantagem porque Ray Tracing lá é uma merda.

Quem não liga pra isso, como você citou a galera das 1650, aí existem outras prioridades. No meu caso, se for jogar sem RT quando tá disponível, prefiro jogar nos consoles mesmo, se lá rodar num framerate bom. Mas este é o meu caso. Esse efeito, junto com FG, são os carros chefes das NVIDIAS há umas 3 gerações já. Se o cara não liga para isso, ok, a maioria não liga mesmo, mas é algo relevante sim, senão não fariam tanto auê em jogos como Cyberpunk.

Outras coisas já não me importo, como a galera que gosta de jogar acima de 165 FPS e coisas do gênero. Nem por isso acho que são segmentos insignificantes. E, pra essa galera, VRAM não importa muito, e sim o poder bruto da GPU. Cada caso é um caso, e só falei aquilo para quem pensa como eu, para não ter a mesma frustração que já tive.
 
Última edição:
Acho que são nichos de mercado. Como falei ali, quem se importa com RTX tem que se atentar nisso. Memória em AMD não dá tanta vantagem porque Ray Tracing lá é uma merda.

Quem não liga pra isso, como você citou a galera das 1650, aí existem outras prioridades. No meu caso, se for jogar sem RT quando tá disponível, prefiro jogar nos consoles mesmo, se lá rodar num framerate bom. Mas este é o meu caso. Esse efeito, junto com FG, são os carros chefes das NVIDIAS já umas 3 gerações já. Se o cara não liga para isso, ok, a maioria não liga mesmo, mas é algo relevante sim, senão não fariam tanto auê em jogos como Cyberpunk.

Concordo, mas é isso, nenhuma produtora com o mínimo de senso de negócio vai simplesmente deixar o mercado pra trás, com exceção de algumas de sempre (Bethesda estou olhando para você), o caminho atual é optimização de drivers e futuramente com a Memória GDDR7 uma certa melhora na performance sem focar tanto na força bruta como a AMD sempre fez, pelo menos é o que estou vendo, mais tecnologias baseadas em IA para aliviar a carga, sempre vão haver aqueles lançamentos bugados, infelizmente isso é regra, mas o mercado tende a se equilibrar se a maioria não tiver GPUs fodonas. Como eu já mostrei em outro post, não sei se foi nesse tópico, a Bethesda foi extremamente PORCA, utilizando alguns recursos de uma maneira que nem um programador iniciante faria, mas eu realmente só recomendo a 4070 se você não puder comprar uma Ti, já que pra mim essa placa foi a campeã de CxB dessa geração. A AMD já está indo pras soluções de IA no mercado de games pra consumo e pelo visto com a FSR 3 tá dando bom.

Obrigado AMD. Minha 3070TI acabou de virar quase uma 4090 de graça rsrs

Não sei como funciona o DLSS FG, mas achei incrível o FSR3 Super Resolution. Muito impressionante. Dobrou meus frames, ganhei mais fluidez na imagem e a impressão é que a movimentação no mouse tb escalou junto. Negócio impressionante!

Imagino que a solução da nVidia seja melhor, mas to MUITO impressionado com o FSR3. E isso vem de alguém que achava FSR2 muito meia boca comparado ao DLSS.

Sem Upscaler
oUc1FRW.png


FSR3 Super Resolution + Native AA
iAOmVCr.png


FSR3 Super Resolution + Qualidade
JIAst1u.png

Qual jogo aí? Starfield?
 
Concordo, mas é isso, nenhuma produtora com o mínimo de senso de negócio vai simplesmente deixar o mercado pra trás, com exceção de algumas de sempre (Bethesda estou olhando para você), o caminho atual é optimização de drivers e futuramente com a Memória GDDR7 uma certa melhora na performance sem focar tanto na força bruta como a AMD sempre fez, pelo menos é o que estou vendo, mais tecnologias baseadas em IA para aliviar a carga, sempre vão haver aqueles lançamentos bugados, infelizmente isso é regra, mas o mercado tende a se equilibrar se a maioria não tiver GPUs fodonas. Como eu já mostrei em outro post, não sei se foi nesse tópico, a Bethesda foi extremamente PORCA, utilizando alguns recursos de uma maneira que nem um programador iniciante faria, mas eu realmente só recomendo a 4070 se você não puder comprar uma Ti, já que pra mim essa placa foi a campeã de CxB dessa geração. A AMD já está indo pras soluções de IA no mercado de games pra consumo e pelo visto com a FSR 3 tá dando bom.



Qual jogo aí? Starfield?
Sinceramente, como já falei aqui (e não falo isso só porque não tenho a 4070 Ti, tenho um amigo com ela e já comparei diretamente), como eu ligo para o RTX, não me interessa muito esses 20 ~ 25% a frente da 4070, pois o que me interessa mesmo, que é o Ray Tracing, vai ter gargalo de VRAM mais cedo do que mais tarde. Aí você fala: "ah, mas e o resto, que roda melhor"? O resto tá rodando decentemente na 4070 também e, quando não rodar, os 12GB de memória provavelmente já serão um problema com o Ray Tracing (como QUASE foi no Cyberpunk, mas é só em uma área do DLC e prometeram arrumar).

Não sou o tipo de pessoa que menospreza algo porque não tenho. Por isso super elogio a 4080 e mais ainda a 4090 (essa última, sim, foge 100% do meu orçamento), e na verdade ainda estou mirando em uma 4080 em algum momento, antes da troca de geração. Porém, falei aquilo da 4070 Ti baseado no cenário que expliquei acima. Ela é, sim, muito melhor do que a 4070, mas as vantagens dela, no meu caso, não acho que valha 1200 reais a mais. Agora, a diferença para a 4080, se o cara tiver dinheiro, e se o cara se importa com mais longevidade TAMBÉM PARA RASTERIZAÇÃO BRUTA, eu já investiria. Se fosse pra gastar 1200 a mais numa 4070 Ti, preferia esperar mais uns meses e partir pra 4080 mesmo.

Volto naquele ponto que falei acima (dei uma editada e acrescentei mais um parágrafo. Cada caso é um caso. Em nenhum momento menosprezei a 4070 Ti, pelo contrário (falei que era mais negócio para quem não liga para o RTX e quer ficar por mais tempo, fora que é mais poderosa inegavelmente), só não acho ela adequada para todos os casos.

Você nunca me viu enchendo a bola da RTX 3070 Ti que eu tive aqui (não que não seja uma boa placa). Na época era uma placa bem legal, mas só me trouxe frustração, porque escolhi errado. Não sou do tipo de pessoa que elogia algo só porque tem, mas sim se ela serve o propósito que eu deleguei pra ela.

Quanto a Bethesda, das duas uma: ou são totalmente incompetentes, ou sabotaram o jogo mesmo. Não tem meio termo, na moral.
 
Sinceramente, como já falei aqui (e não falo isso só porque não tenho a 4070 Ti, tenho um amigo com ela e já comparei diretamente), como eu ligo para o RTX, não me interessa muito esses 20 ~ 25% a frente da 4070, pois o que me interessa mesmo, que é o Ray Tracing, vai ter gargalo de VRAM mais cedo do que mais tarde. Aí você fala: "ah, mas e o resto, que roda melhor"? O resto tá rodando decentemente na 4070 também e, quando não rodar, os 12GB de memória provavelmente já serão um problema com o Ray Tracing (como QUASE foi no Cyberpunk, mas é só em uma área do DLC e prometeram arrumar).

Não sou o tipo de pessoa que menospreza algo porque não tenho. Por isso super elogio a 4080 e mais ainda a 4090 (essa última, sim, foge 100% do meu orçamento), e na verdade ainda estou mirando em uma 4080 em algum momento, antes da troca de geração. Porém, falei aquilo da 4070 Ti baseado no cenário que expliquei acima. Ela é, sim, muito melhor do que a 4070, mas as vantagens dela, no meu caso, não acho que valha 1200 reais a mais. Agora, a diferença para a 4080, se o cara tiver dinheiro, e se o cara se importa com mais longevidade TAMBÉM PARA RASTERIZAÇÃO BRUTA, eu já investiria. Se fosse pra gastar 1200 a mais numa 4070 Ti, preferia esperar mais uns meses e partir pra 4080 mesmo.

Volto naquele ponto que falei acima (dei uma editada e acrescentei mais um parágrafo. Cada caso é um caso. Em nenhum momento menosprezei a 4070 Ti, pelo contrário (falei que era mais negócio para quem não liga para o RTX e quer ficar por mais tempo, fora que é mais poderosa inegavelmente), só não acho ela adequada para todos os casos.

Você nunca me viu enchendo a bola da RTX 3070 Ti que eu tive aqui (não que não seja uma boa placa). Na época era uma placa bem legal, mas só me trouxe frustração, porque escolhi errado. Não sou do tipo de pessoa que elogia algo só porque tem, mas sim se ela serve o propósito que eu deleguei pra ela.

Quanto a Bethesda, das duas uma: ou são totalmente incompetentes, ou sabotaram o jogo mesmo. Não tem meio termo, na moral.

Sim, a 4070ti é bem melhor que a 4070, meu ponto permanece, é a melhor CxB pra QHD e 4k no médio. Sobre o problema da Vram eu já expus minha opinião e você a sua, como ambos não temos bola de cristal vamos ter de esperar pra ver, mas eu sinceramente espero que os drivers e jogos sejam mais otimizados, as GPUs já estão bem caras, tá mais negócio ir em um Ps5 e um Switch XD!
 
Sim, a 4070ti é bem melhor que a 4070, meu ponto permanece, é a melhor CxB pra QHD e 4k no médio. Sobre o problema da Vram eu já expus minha opinião e você a sua, como ambos não temos bola de cristal vamos ter de esperar pra ver, mas eu sinceramente espero que os drivers e jogos sejam mais otimizados, as GPUs já estão bem caras, tá mais negócio ir em um Ps5 e um Switch XD!
Não precisa esperar. Cyberpunk Phantom Liberty já demonstrou isso. Testei aqui nos meus benchmarks, teve uma hora que bateu 12.1GB, mas felizmente deve ter sido um pau, porque a média era 11,75GB, e esse jogo não costuma informar alocação (sei do pior jeito possível com a 3070 Ti). E só ressaltando uma coisa: falei R$ 1200 no PIX. A minha era 3800 no PIX quando comprei, e a 4070 Ti era 5000 na mais barata (a média era 5100 ~ 5200, mas tinha uma loja por 5k cravado).

Porém, se o cara parcelar no cartão, a 4070 mais barata seria 4200, e a 4070 Ti já pulava para uns 5700 ~ 5800 (sendo generoso, porque a média era 6 mil parcelado, mas hoje deve estar menos). De boa, discordo até do "melhor CxB", mas realmente já colocamos nossos pontos de vista. E na moral, não acho que tenha um certo e um errado aqui, e sim pontos de vistas para situações distintas.

Se alguém aqui achou que eu estava menosprezando a GPU dos colegas, nem tem pra que eu fazer isso. Pela última vez: só quero evitar que gente como eu tenha os mesmos problemas, prefiro ir para o "mais seguro" (que seria o salto para a 4080 neste caso). De resto, as informações estão aí, o ponto de vista do @glass é igualmente coerente, e cada um decide o que achar melhor.
 
Não precisa esperar. Cyberpunk Phantom Liberty já demonstrou isso. Testei aqui nos meus benchmarks, teve uma hora que bateu 12.1GB, mas felizmente deve ter sido um pau, porque a média era 11,75GB, e esse jogo não costuma informar alocação (sei do pior jeito possível com a 3070 Ti). E só ressaltando uma coisa: falei R$ 1200 no PIX. A minha era 3800 no PIX quando comprei, e a 4070 Ti era 5000 na mais barata (a média era 5100 ~ 5200, mas tinha uma loja por 5k cravado).

Porém, se o cara parcelar no cartão, a 4070 mais barata seria 4200, e a 4070 Ti já pulava para uns 5700 ~ 5800 (sendo generoso, porque a média era 6 mil parcelado, mas hoje deve estar menos). De boa, discordo até do "melhor CxB", mas realmente já colocamos nossos pontos de vista. E na moral, não acho que tenha um certo e um errado aqui, e sim pontos de vistas para situações distintas.

Se alguém aqui achou que eu estava menosprezando a GPU dos colegas, nem tem pra que eu fazer isso. Pela última vez: só quero evitar que gente como eu tenha os mesmos problemas, prefiro ir para o "mais seguro" (que seria o salto para a 4080 neste caso). De resto, as informações estão aí, o ponto de vista do @glass é igualmente coerente, e cada um decide o que achar melhor.

Relaxa irmão, só opiniões diferentes, claro que uma placa melhor vai lhe alocar melhor e ficaria até estranho eu me ofender com isso já que não tenho uma 4070ti, foi somente minha opinião visto os benchmarks da maioria dos jogos e testes sintéticos pelo preço na época, não acompanho os preços atuais, mas a 4080 obviamente vai te dar mais gás.
 
Relaxa irmão, só opiniões diferentes, claro que uma placa melhor vai lhe alocar melhor e ficaria até estranho eu me ofender com isso já que não tenho uma 4070ti, foi somente minha opinião visto os benchmarks da maioria dos jogos e testes sintéticos pelo preço na época, não acompanho os preços atuais, mas a 4080 obviamente vai te dar mais gás.
Sim. Essa parte que pedi desculpas nem foi pra você diretamente (que tem uma 4090 e tá imune aos problemas relatados), mas quando abri este tema, percebi uma galera da 4070Ti ficando meio irritada.

Nem é a intenção mesmo, como você complementou agora. De resto, na verdade tô pensando o que fazer. Dependendo de como ficar, talvez espere a linha nova da NVIDIA mesmo se vier em 2024 ainda, mas aí sim precisaríamos de uma bola de cristal. Vontade tenho sim da 4080 antes disso, mas tem que ver se vale a pena até quando eu puder.

Diz a lenda que a próxima geração da NVIDIA terá uma tecnologia que otimizará o uso de memória de vídeo com menos gasto, e isso resolveria tudo o que falei, caso fosse algo que não dependesse da desenvolvera e incorporado no funcionamento da VGA (cof... cof... Bethesdas da vida).

Mas, nesta altura do campeonato, sei nem se estarei vivo até lá, quanto mais isso.
 
Obrigado AMD. Minha 3070TI acabou de virar quase uma 4090 de graça rsrs

Não sei como funciona o DLSS FG, mas achei incrível o FSR3 Super Resolution. Muito impressionante. Dobrou meus frames, ganhei mais fluidez na imagem e a impressão é que a movimentação no mouse tb escalou junto. Negócio impressionante!

Imagino que a solução da nVidia seja melhor, mas to MUITO impressionado com o FSR3. E isso vem de alguém que achava FSR2 muito meia boca comparado ao DLSS.

Sem Upscaler
oUc1FRW.png


FSR3 Super Resolution + Native AA
iAOmVCr.png


FSR3 Super Resolution + Qualidade
JIAst1u.png
Muito bom ler isso.

Já teve jogo exclusivo AMD que preferi jogar na resolução nativa com menos frames devido a qualidade meia boca do FSR 2, que passa longe da qualidade do DLSS 2.

Bom saber que estão acertando agora com o FSR 3.

PS: Esse Forspoken tem gráficos de PS3 :incri2:
 
Não precisa esperar. Cyberpunk Phantom Liberty já demonstrou isso. Testei aqui nos meus benchmarks, teve uma hora que bateu 12.1GB,
Mas vc tá ligado que isso é absolutamente irrelevante, né? Absolutamente.

Não é porque um programa está alocando 12GB dos, digamos, 16GB, disponíveis, que ele precisa de fato desses 12GB pra "dar o seu melhor". Ele pode apenas estar aproveitando o excesso de memória RAM pra se espalhar. É assim que qualquer programa funciona. E não necessariamente ele terá uma performance melhor por isso.

A 3060 12GB é didática. Agradeço até hoje a nVidia por ter lançado essa placa, porque ela acaba completamente de vez com essa ideia de alocação de memória para aqueles que não fizeram faculdade na área. E eu já a tive uma. Vários jogos chegavam a bater quase 12GB, respeitando aquele limite ali de 500~800MB para o sistema operacional. Dai peguei a 3070 e o mesmo jogo ficava ali em 6.5GB~7GB com MUITO mais performance e sem nenhum tipo de engasgo.

Então não dá pra se tirara nada desse teste que você fez não. É irrelevante pra afirmar que 12GB é pouco.

E não é e nem nunca será nessa geração pra 1440p. É MUITO até. 10GB seria muito mais do que suficiente, inclusive.
 
Mas vc tá ligado que isso é absolutamente irrelevante, né? Absolutamente.

Não é porque um programa está alocando 12GB dos, digamos, 16GB, disponíveis, que ele precisa de fato desses 12GB pra "dar o seu melhor". Ele pode apenas estar aproveitando o excesso de memória RAM pra se espalhar. É assim que qualquer programa funciona. E não necessariamente ele terá uma performance melhor por isso.

A 3060 12GB é didática. Agradeço até hoje a nVidia por ter lançado essa placa, porque ela acaba completamente de vez com essa ideia de alocação de memória para aqueles que não fizeram faculdade na área. E eu já a tive uma. Vários jogos chegavam a bater quase 12GB, respeitando aquele limite ali de 500~800MB para o sistema operacional. Dai peguei a 3070 e o mesmo jogo ficava ali em 6.5GB~7GB com MUITO mais performance e sem nenhum tipo de engasgo.

Então não dá pra se tirara nada desse teste que você fez não. É irrelevante pra afirmar que 12GB é pouco.

E não é e nem nunca será nessa geração pra 1440p. É MUITO até. 10GB seria muito mais do que suficiente, inclusive.
Nah, não é irrelevante. No caso do Cyberpunk, não. Já tive essa placa (3070), e em Ray Tracing faltava sim, e o jogo marcava uso real. Despencava pela metade os frames, fora os shutterings, pois o jogo não mostrava só alocação. Falamos disso na página passada.

Culpa do jogo? Provavelmente. Mas citei outros casos tambem. Falavam essa história de 8GB ser o bastante para 1440p há 1 ano, e não foi bem assim. Sinceramente, prefiro pecar pelo excesso.

Agora, em outros jogos, sim, é alocação. Depende. Citamos uns nomes aqui. Lembro de cabeça estes: Resident Evil 4, Forza Horizon 5, Far Cry 6 e Hogwarts. RE4, o jogo crashava com RT e texturas em 3GB (o limite era 8GB). E alguns jogos nem a 3080 de 10GB, que eu tive, resolveram tbm. Seria só desligar o RT quando tem? Sim. Mas já falei sobre isso também, por isso destaquei os casos.

No caso da 3060 de 12GB, acho irrelevante os 12GB por um motivo: quando o jogo precisa isso (geralmente com RT em QuadHD), a placa não aguenta mesmo. É tipo uma AMD com 20GB, óleo de cobra.
 
Última edição:
eu só senti necessidade de VRAM quando eu tinha a rtx 3080 e fui jogar cyberpunk em 4K.
claramente o bottleneck era a VRAM pq a 3090 botava quase o dobro de FPS e a diferença normal entre essas duas era uns 10-15%.
 
Nah, não é irrelevante. No caso do Cyberpunk, não. Já tive essa placa (3070), e em Ray Tracing faltava sim, e o jogo marcava uso real. Despencava pela metade os frames, fora os shutterings, pois o jogo não mostrava só alocação. Falamos disso na página passada.

Culpa do jogo? Provavelmente. Mas citei outros casos tambem. Falavam essa história de 8GB ser o bastante para 1440p há 1 ano, e não foi bem assim. Sinceramente, prefiro pecar pelo excesso.

Agora, em outros jogos, sim, é alocação. Depende. Citamos uns nomes aqui. Lembro de cabeça estes: Resident Evil 4, Forza Horizon 5, Far Cry 6 e Hogwarts. RE4, o jogo crashava com RT e texturas em 3GB (o limite era 8GB). E alguns jogos nem a 3080 de 10GB, que eu tive, resolveram tbm. Seria só desligar o RT quando tem? Sim. Mas já falei sobre isso também, por isso destaquei os casos.

No caso da 3060 de 12GB, acho irrelevante os 12GB por um motivo: quando o jogo precisa isso (geralmente com RT em QuadHD), a placa não aguenta mesmo. É tipo uma AMD com 20GB, óleo de cobra.
Então, ai que tá. Eu só disse que essa informação é irrelevante pra fazer qualquer alegação nesse sentido. Justamente porque pode estar afetando a performance, como pode não estar afetando em nada.
 
Nah, não é irrelevante. No caso do Cyberpunk, não. Já tive essa placa (3070), e em Ray Tracing faltava sim, e o jogo marcava uso real. Despencava pela metade os frames, fora os shutterings, pois o jogo não mostrava só alocação. Falamos disso na página passada.

Culpa do jogo? Provavelmente. Mas citei outros casos tambem. Falavam essa história de 8GB ser o bastante para 1440p há 1 ano, e não foi bem assim. Sinceramente, prefiro pecar pelo excesso.

Agora, em outros jogos, sim, é alocação. Depende. Citamos uns nomes aqui. Lembro de cabeça estes: Resident Evil 4, Forza Horizon 5, Far Cry 6 e Hogwarts. RE4, o jogo crashava com RT e texturas em 3GB (o limite era 8GB). E alguns jogos nem a 3080 de 10GB, que eu tive, resolveram tbm. Seria só desligar o RT quando tem? Sim. Mas já falei sobre isso também, por isso destaquei os casos.

No caso da 3060 de 12GB, acho irrelevante os 12GB por um motivo: quando o jogo precisa isso (geralmente com RT em QuadHD), a placa não aguenta mesmo. É tipo uma AMD com 20GB, óleo de cobra.
A questão é que o número mostrado em si não quer dizer nada. Só fazendo testes pra saber se o que foi alocado vai ser realmente usado.
 
eu só senti necessidade de VRAM quando eu tinha a rtx 3080 e fui jogar cyberpunk em 4K.
claramente o bottleneck era a VRAM pq a 3090 botava quase o dobro de FPS e a diferença normal entre essas duas era uns 10-15%.
Isso. Assim é uma boa forma de saber se VRAM está sendo o gargalo. Agora alocação de memória é irrelevante e inconclusivo.
 
A questão é que o número mostrado em si não quer dizer nada. Só fazendo testes pra saber se o que foi alocado vai ser realmente usado.
Então, ai que tá. Eu só disse que essa informação é irrelevante pra fazer qualquer alegação nesse sentido. Justamente porque pode estar afetando a performance, como pode não estar afetando em nada.
Eu citei no sentido de que, esse jogo (Cyberpunk) costuma informar o uso real, e outros sites mediram e realmente bateu com o meu caso. Tanto que a recomendação desse jogo é 16GB em 4K, o que é coerente, porque os 12GB deram certinho em 1440p (não precisa falar novamente que o Afterburner não é útil pra isso, que não é o ponto, leia o restante).

Agora, em outros jogos é inconclusivo mesmo. Só para encerrar, não estou dizendo que os testes de alocação são o que mandam, mas citei casos reais de jogos que gargalaram com 8GB e 10GB de memória RAM (no mesmo naipe que esse do cuco, que em outras com mais VRAM o framerate disparava). E ainda omiti JEDI Survivor e The Last of Us Part I, que vieram bugados, pra não ser desonesto.

Como falei para o amigo na página passada. Fui nesse papo de "alocação", e desperdicei 4.5K em uma placa que não me serviu (não que fosse ruim). Então agora chuto para cima. Mas tenho o bom senso de saber o que é uso real ou não, tanto que tem jogo que usa 18GB na 4090, e roda de boa na 4080 (aí sim é só alocado, e você e o Sani têm razão nisso, e não estou discordando). Estou citando um caso pontual que aconteceu comigo. Entendo os complementos de vocês, mas o meu ponto é outro.

Tudo bem, ignorem o jeito que eu mensurei as informações, mas o fato não muda: os games citados estouraram a VRAM da 3070 e da 3080, independentemente do app usado. É isso. Mas, claro, esse problema não afetará nada quem curte só rasterização, E-Sport, ou faz como um amigo meu: desliga o RTX e boa.
 
Eu citei no sentido de que, esse jogo (Cyberpunk) costuma informar o uso real, e outros sites mediram e realmente bateu com o meu caso. Tanto que a recomendação desse jogo é 16GB em 4K, o que é coerente, porque os 12GB deram certinho em 1440p (não precisa falar novamente que o Afterburner não é útil pra isso, que não é o ponto, leia o restante).
Po, mas quem joga 4k sem DLSS? Não tem menor sentido e especialmente no Cyberpunk, onde o DLSS melhora absurdamente a imagem original. Dai duvido que 16GB sejam necessários. Certamente 12GB já sobra e muito. Mas muito mesmo. Não sei no futuro, não tenho bola de cristal, mas 12GB sobra pra 4k+DLSS em qlq jogo.

As RTX foram criadas pra usar o DLSS. Elas são desenhadas pra isso, inclusive o tamanho de memória é parte desse desenho. Colocar mais memória do que o necessário deixaria um produto mais caro do que ele poderia ser, sem ter qualquer ganho no cenário real. Só pra fazer bench maluco que ng vai usar na vida real mesmo.

E eu não disse que VRAM não vai gargalar a depender do cenário. Eu só disse que alocação não diz nada, é inconclusivo. Só isso.
 
Po, mas quem joga 4k sem DLSS? Não tem menor sentido e especialmente no Cyberpunk, onde o DLSS melhora absurdamente a imagem original. Dai duvido que 16GB sejam necessários. Certamente 12GB já sobra e muito. Mas muito mesmo. Não sei no futuro, não tenho bola de cristal, mas 12GB sobra pra 4k+DLSS em qlq jogo.

E eu não disse que VRAM não vai gargalar a depender do cenário. Eu só disse que alocação não diz nada, é inconclusivo. Só isso.
Eu entendi o seu ponto e você tá certo. Só citei aquele exemplo porque o Afterburner mostrou que estourou, e o desempenho caiu mesmo. Mas ignoro isso no geral. Não se foque tanto nesse ponto do meu post, foi algo pontual.

E, sim. Com o Overdrive, em 4K, pode estourar os 12GB sim, o DLSS não diminui tanto assim o uso de VRAM nesse jogo. E não entenda errado, não acho que os 12GB hoje vão faltar, por isso peguei essa placa (a minha tem também).

Só acho que, como eu pago parcelado, os 5,7 mil da 4070Ti era muito caro pra uma placa que tem, no melhor dos casos, "a quantidade necessária de memória e nada mais", e se eu fosse investir isso, preferia ir para a 4080 logo pra não esquentar a cabeça nunca mais. Porque 16GB em 1440p, sim, vai durar muitos anos e nem precisa de bola de cristal. Os 12GB ainda são uma incógnita. Chuto pelo menos uns 2 anos com tudo no máximo, em placas com GPU que aguente isso.

Mas obrigado pelos seus complementos, viu? Sempre bom acrescentar mais pontos de vista nas discussões, mesmo quando são contraditórios aos meus. Isso enriquece a conversa para quem quer se informar.
 
Última edição:
Eu entendi o seu ponto e você tá certo. Só citei aquele exemplo porque o Afterburner mostrou que estourou, e o desempenho caiu mesmo. Mas ignoro isso no geral. Não se foque tanto nesse ponto do meu post, foi algo pontual.

E, sim. Com o Overdrive, em 4K, pode estourar os 12GB sim, o DLSS não diminui tanto assim o uso de VRAM nesse jogo. E não entenda errado, não acho que os 12GB hoje vão faltar, por isso peguei essa placa (a minha tem também).

Só acho que, como eu pago parcelado, os 5,7 mil da 4070Ti era muito caro pra uma placa que tem, no melhor dos casos, "a quantidade necessária de memória e nada mais", e se eu fosse investir isso, preferia ir para a 4080 logo pra não esquentar a cabeça nunca mais. Porque 16GB em 1440p, sim, vai durar muitos anos e nem precisa de bola de cristal. Os 12GB ainda são uma incógnita. Chuto pelo menos uns 2 anos com tudo no máximo, em placas com GPU que aguentem isso.

Mas obrigado pelos seus complementos, viu? Sempre bom acrescentar mais pontos de vista nas discussões, mesmo quando são contraditórios aos meus. Isso enriquece a conversa para quem quer se informar.
É que antes a nVidia tinha a faca e o queijo na mão, né? Então mesmo que tivesse menos memória, o DLSS tava ai pra mitigar essa questão. E o Frame Generation pra dar um recurso incrível a mais.

Agora acabou. AMD entrou de vez na década e a nVidia agora vai precisar correr atrás. Pq não tem mais tanta razão quanto havia pra ir de nVidia. Os drivers da AMD não são tão ruins quanto já foram, repararam vários problemas e tal. Isso segundo relatos. Não sei se procede, pois não tenho AMD há uns 3 anos.

Eu mesmo acho que vou sair da 3070TI pra 7800XT. Minha esposa vai viajar final do ano. Eu ia pegar uma 4070 só pra substituir e renovar garantia. Mas estou cogitando seriamente ir pra AMD dessa vez. Confesso que traumas da 5600XT e R9 285/380 estão me fazendo pensar.. Mas hj tenho muito menos razão pra ir de nVidia do que tinha. Antes eu achava que AMD nem opção era, tamanho absurdo que era ter o DLSS como diferencial. Não mais, né?

Seja como for, pra quem mira 4k, ideal realmente é pensar em memória mesmo. Especialmente se não for a pessoa que troca de placa rapidamente.
 
É que antes a nVidia tinha a faca e o queijo na mão, né? Então mesmo que tivesse menos memória, o DLSS tava ai pra mitigar essa questão. E o Frame Generation pra dar um recurso incrível a mais.

Agora acabou. AMD entrou de vez na década e a nVidia agora vai precisar correr atrás. Pq não tem mais tanta razão quanto havia pra ir de nVidia. Os drivers da AMD não são tão ruins quanto já foram, repararam vários problemas e tal. Isso segundo relatos. Não sei se procede, pois não tenho AMD há uns 3 anos.

Eu mesmo acho que vou sair da 3070TI pra 7800XT. Minha esposa vai viajar final do ano. Eu ia pegar uma 4070 só pra substituir e renovar garantia. Mas estou cogitando seriamente ir pra AMD dessa vez. Confesso que traumas da 5600XT e R9 285/380 estão me fazendo pensar.. Mas hj tenho muito menos razão pra ir de nVidia do que tinha. Antes eu achava que AMD nem opção era, tamanho absurdo que era ter o DLSS como diferencial. Não mais, né?

Seja como for, pra quem mira 4k, ideal realmente é pensar em memória mesmo. Especialmente se não for a pessoa que troca de placa rapidamente.
Olha, voltando pro assunto do FSR3. É muito bom e tal, mas assim como o FSR não substitui o DLSS, a iniciativa da AMD não substitui o Frame Generation. Sim, graças a Deus a AMD voltou ao jogo, porque a NVIDIA acomodada não faz nada demais (tipo as inúmeras gerações da Intel com processadores 4/8, cores/threads, e só se mexeu com os Ryzens).

Mas, para mim, ainda não cogito comprar Radeon porque tive péssimas experiências com eles também. Meu problema nem são os Drivers, mas sempre essa história de "o jogo roda pior porque a NVIDIA sabotou", e vai lá e roda pior. "Ah, tá inferior porque as empresas são vendidas", e continua sendo inferior. Quando, na verdade, quem faz isso em jogos patrocinados também são eles, só ver o absurdo da programação lixo que é Starfield, sendo que só ficou bom em NVIDIA com mod do FG.

Mas assim, se você não liga para nada disso, a 7800XT é bem parruda. O senso comum diz que ela é forte, mas não garanto que não terá esses problemas que citei acima no seu dia a dia, porque são meio que marca registrada dos vermelhos.
 
Olha, voltando pro assunto do FSR3. É muito bom e tal, mas assim como o FSR não substitui o DLSS, a iniciativa da AMD não substitui o Frame Generation. Sim, graças a Deus a AMD voltou ao jogo, porque a NVIDIA acomodada não faz nada demais (tipo as inúmeras gerações da Intel com processadores 4/8, cores/threads, e só se mexeu com os Ryzens).

Mas, para mim, ainda não cogito comprar Radeon porque tive péssimas experiências com eles também. Meu problema nem são os Drivers, mas sempre essa história de "o jogo roda pior porque a NVIDIA sabotou", e vai lá e roda pior. "Ah, tá inferior porque as empresas são vendidas", e continua sendo inferior. Quando, na verdade, quem faz isso em jogos patrocinados também são eles, só ver o absurdo da programação lixo que é Starfield, sendo que só ficou bom em NVIDIA com mod do FG.

Mas assim, se você não liga para nada disso, a 7800XT é bem parruda. O senso comum diz que ela é forte, mas não garanto que não terá esses problemas que citei acima no seu dia a dia, porque são meio que marca registrada dos vermelhos.

Na prática "substitui", pelo menos para um mar de gente, afinal de contas quem não tem RTX 4000 não tem nem como usar o DLSS3.

Eu compraria a 7800 XT apenas se aparecesse de novo por aqueles 3.200 (ou algo assim) que postaram um print aqui. Não dá pra desver algo assim, dá a sensação de estar sendo assaltado se comprar por mais hahaha.
 

Users who are viewing this thread

Voltar
Topo