[TÓPICO DEDICADO] NVIDIA GeForce RTX 2XXX

Não acho nem um pouco razoável falar em 8K hoje. Nem um pouco mesmo.

Nem 4K se tornou popular, muito longe disso. Pessoal na verdade está procurando um 1440p com uma alta taxa de frame.

4K em consoles é muitas das vezes uma resolução menor esticada para 4K... ou quando é 4k nativos os gráficos são abaixados para poder rodar.

Além disso, a VII não tem condições de rodar 8K assim como a RTX 2080 tb não, assim como 2080ti tb não, assim como RTX Titan também não.

O que nos faz voltar para: O que fazer com 16 GB de VRAM? Criar um sticker e colar no PC?? "Esse PC aqui tem 16 GB de pura delícia"

Sabe o que me parece cara?
Quando eu ainda era um adolescente...quando um vendedor espertinho de loja de informática estava querendo me empurrar Geforce com 1 GB de VRAM woooooooooooooooooooow 1 GB wooooooooow ao invés da que eu queria comprar que era de 512 MB porém bem mais potente.
Só pode ser isso né? Carinha vai na loja e vê que essa placa de 16 e a outra custa a mesma coisa e tem 8.


Te entendo, não tenha duvida que os vendedores espertinhos vão tirar proveito disso, como não tenha duvida que vai ter usuário usando Crossfire para rodar 8K, entusiasta é um fato reconhecido. Vamos ter pouco uso no inicio e vai aumentando naturalmente.

Da uma olhada nos requisitos de The Division 2, notou os 11GB de memoria de VRAM necessarios, sabe o que isso pode dizer? De agora em diante alguns jogos feitos para Xbox One X vão ser otimizador para a maior VRAM dele. Como aconteceu com o uso de VRAM quando Xbox One e PS4 chegaram com seus 8GB. Aqui crio uma pergunta, qual vai se o uso de VRAM no PS5 e novo Xbox? Alto? Baixo por que vão ser por stream?
 
Pessoal... Vega 7 desempenho semelhante a 2080, preço semelhante...
Ai vai do gosto... 16GB x RT e DLSS... Simples...
Se nessa geração de games RT já está ruim, imagine nos novos games... Então não acredito que o RT seja indispensável agora... Acredito na próxima gen de placas...
DLSS piora a qualidade de imagem... Pouco mas piora... Eu particularmente não irei utilizar... Ah não ser que o game só ofereça FXAA ou TAA, que são filtros meia boca na minha opinião...
 
DLSS piora a qualidade de imagem... Pouco mas piora... Eu particularmente não irei utilizar...
Já eu utilizarei sempre que tiver oportunidade, principalmente em jogos competitivos.
 
Quando anunciaram o RT e DLSS ficaram puto pq o desempenho caiu
Agora a AMD lança uma VGA com desempenho sem essas tecnologias e com mais Vram e ficam puto tb...

Vai entender o consumidor.
O problema dessa VGA é apenas 1, preço.
Lançaram com 16Gb apenas para dizer que tem mais Vram.... sei lá.
 
Não leve a sério esses requisitos do The Division, na verdade de qualquer jogo, como base para planejamento futuro ou tomada de decisão.
Já cansei de ver coisas loucas quando empresas liberam as especificações...

Jogo pedindo 16 GB de RAM por exemplo... enfim...

Espera o jogo sair para assim temos algo solido para discutir... partindo do principio que o mesmo esteja otimizado...
 
A AMD te dá 16GB. Já a Nvidia fica com murrinha de VRAM.
Call Of Duty, Tomb Raider, já batem 10gb de VRAM em 4k...
A 2060 já mostrou que sofre com falta de VRAM...
Vamos ser realistas, a NVIDIA lançou a geração RTX sem aumentar VRAM...
Era para termos 8GB na 2060, 11GB na 2070 e 2080 e 16GB na 2080TI...
E já é comprovado que RT usa mais VRAM...
 
A AMD te dá 16GB. Já a Nvidia fica com murrinha de VRAM.
Call Of Duty, Tomb Raider, já batem 10gb de VRAM em 4k...
A 2060 já mostrou que sofre com falta de VRAM...
Vamos ser realistas, a NVIDIA lançou a geração RTX sem aumentar VRAM...
Era para termos 8GB na 2060, 11GB na 2070 e 2080 e 16GB na 2080TI...
E já é comprovado que RT usa mais VRAM...


Concordo em parte, sim alguns jogos usam mais e rendem mais com mais de 8GB, mas, existem outras técnicas envolvidas, você pode abrir mão de mais memória melhorando a forma como você lida com o cachê da memória e a compressão das imagens. Compressão deve levar a uma perda pequena de qualidade talvez imperceptível dependendo da proporção usada, mas, pode resolver uma diferença de 8 GB para 11GB. Por outro lado compressão usa recurso da placa e pode diminuir o FPS, claro sempre dependendo de como usada.

Eu tinha uma GTX 1060 3GB era o inferno no PUBG e no World of Tanks em qualidades alta, a GPU te entrega FPS, mas, ao girar a imagem falta textura na memoria e da pequenas travadas para carregar elas.
 
E outra coisa, a AMD está puxando a NVIDIA para 16GB na próxima GEN...
Ryzen fez a Intel aumentar os núcleos...
A AMD pode não passar a NVIDIA, mas faz a NVIDIA melhorar...
 
Pessoal... Vega 7 desempenho semelhante a 2080, preço semelhante...
Ai vai do gosto... 16GB x RT e DLSS... Simples...
Se nessa geração de games RT já está ruim, imagine nos novos games... Então não acredito que o RT seja indispensável agora... Acredito na próxima gen de placas...
DLSS piora a qualidade de imagem... Pouco mas piora... Eu particularmente não irei utilizar... Ah não ser que o game só ofereça FXAA ou TAA, que são filtros meia boca na minha opinião...

Então é importante você perceber que a qualidade do DLSS não é fixa DLSS envolve aprendizado de maquina, que usa um algorítimo que pode ser alterado a qualquer momento, para melhor como para pior.

Acho que o melhor é perceber que temos pouco material para definir se DLSS piora ou melhora qualidade, acredito que no futuro veremos casos em que um jogo melhora a qualidade e outros que piora, vai depender da experiencia e tempo da equipe envolvida nesse processo.
 
Concordo em parte, sim alguns jogos usam mais e rendem mais com mais de 8GB, mas, existem outras técnicas envolvidas, você pode abrir mão de mais memória melhorando a forma como você lida com o cachê da memória e a compressão das imagens. Compressão deve levar a uma perda pequena de qualidade talvez imperceptível dependendo da proporção usada, mas, pode resolver uma diferença de 8 GB para 11GB. Por outro lado compressão usa recurso da placa e pode diminuir o FPS, claro sempre dependendo de como usada.

Eu tinha uma GTX 1060 3GB era o inferno no PUBG e no World of Tanks em qualidades alta, a GPU te entrega FPS, mas, ao girar a imagem falta textura na memoria e da pequenas travadas para carregar elas.

Entendi, mas essa compressão não teria que partir do software também?
Eu achei que a NVIDIA cagou para essa geração... Não quis investir em quantidade de VRAM, não ofereceu uma diferença de desempenho coerente com o preço, e as tecnologias prometidas ainda não se mostraram relevantes...
A Vega 7 vai custar menos que a 2080... Vai vender menos, vão ter que abaixar...
Eu achei ótimo trazer os 16GB... É uma placa que vai durar muito tempo...
 
Então é importante você perceber que a qualidade do DLSS não é fixa DLSS envolve aprendizado de maquina, que usa um algorítimo que pode ser alterado a qualquer momento, para melhor como para pior.

Acho que o melhor é perceber que temos pouco material para definir se DLSS piora ou melhora qualidade, acredito que no futuro veremos casos em que um jogo melhora a qualidade e outros que piora, vai depender da experiencia e tempo da equipe envolvida nesse processo.

Concordo, mas nunca será melhor que um MSAA da vida.
Admito, sou chato com qualidade de imagem. Não abro mão de filtros em 4k, pelo menos MSAA2x se der, e utilizo transparência AA, e multi frame sampled AA ativados no painel da nvidia...
 
Entendi, mas essa compressão não teria que partir do software também?
Eu achei que a NVIDIA cagou para essa geração... Não quis investir em quantidade de VRAM, não ofereceu uma diferença de desempenho coerente com o preço, e as tecnologias prometidas ainda não se mostraram relevantes...
A Vega 7 vai custar menos que a 2080... Vai vender menos, vão ter que abaixar...
Eu achei ótimo trazer os 16GB... É uma placa que vai durar muito tempo...

Até onde sei é feita por hardware pela necessidade de desempenho, mas, sabe como é GPU tem muita coisa programável por baixo.

Obs. Tanto NVIDIA como AMD usam compressão e ambas tem suas técnicas de comprimir.
 
A AMD te dá 16GB. Já a Nvidia fica com murrinha de VRAM.
Call Of Duty, Tomb Raider, já batem 10gb de VRAM em 4k...
A 2060 já mostrou que sofre com falta de VRAM...
Vamos ser realistas, a NVIDIA lançou a geração RTX sem aumentar VRAM...
Era para termos 8GB na 2060, 11GB na 2070 e 2080 e 16GB na 2080TI...
E já é comprovado que RT usa mais VRAM...

Mas ai que está, os preços das DDR6 já são caras, se a Nvidia colocasse mais memória. O que já está caro, iria ficar pior ainda. O preço das placas iria aumentar absurdamente.
Para mim pelo menos, os 11GB da 2080TI estão de boa. Meus jogos aqui dificilmente passam da barreira dos 8GB.
 
Mas ai que está, os preços das DDR6 já são caras, se a Nvidia colocasse mais memória. O que já está caro, iria ficar pior ainda. O preço das placas iria aumentar absurdamente.
Para mim pelo menos, os 11GB da 2080TI estão de boa. Meus jogos aqui dificilmente passam da barreira dos 8GB.

Teria que confirmar os valores já li que as memorias GDDR da RTX são caras, mas, muito mais baratas que as da Vega 7, também acho que 11GB/12GB ou mais deveria ser a quantidade de memorias das placas top.
 
Última edição:
A AMD te dá 16GB. Já a Nvidia fica com murrinha de VRAM.
Call Of Duty, Tomb Raider, já batem 10gb de VRAM em 4k...
A 2060 já mostrou que sofre com falta de VRAM...
Vamos ser realistas, a NVIDIA lançou a geração RTX sem aumentar VRAM...
Era para termos 8GB na 2060, 11GB na 2070 e 2080 e 16GB na 2080TI...
E já é comprovado que RT usa mais VRAM...

Pelo preço concordo que a RTX 2080TI deveria ter pelo menos 12GB o ideal seria 16GB, mas ela tem poder, agora essa Radeon 7 a AMD só colocou 16GB, porque não tem RT nem DLSS, por isso socou tanta memoria e nessa placa é irrelevante, só marketing mesmo.
 
Já explicaram exaustivamente o lance das memorias. Se reduzissem pra 8gb ia cair consideravelmente o desempenho (se for possível, pois parece que os chips funcionam em pares).

Tirando jogos bugados, nao vi jogo otimizado comer mais que 7gb ainda não.
Shadow, e cod não é parâmetro.
 
Como vocês avaliam a qualidade dessas marcas para a RTX 2070 hoje: gigabyte, msi, zotac, galax, evga..levando em conta qualidade da placa e suporte.
 
Teria que confirmar os valores já li que as memorias GDDR da RTX são caras, mas, muito mais baratas que as da Vega 7, também acho que 11GB/12GB ou mais deveria ser a quantidade de memorias das placas top.

Fazendo uma busca rápida, a memória GDDR6 custa o valor de U$26.36 trumps. coloca o fato da GDDR6 ocupar mais espaço na placa, diferente da HBM2, que pode ser posta ao lado do DIE da GPU. Logo você tem o valor do chip da GDDR + o valor do espaço gasto do PCB.
 
Última edição:
a placa é uma gtx titan, ela faz uns 70-80 fps no medium no BFV e no Pubg medium pega uns 100. os dois dá pra jogar tranquilo, mesmo com a placa sendo idosa.

fiz um vídeo rapidão do BFV só pra constar:



não sei dizer o quanto afeta jogar em 2560x1080, mas no high/medium deve ser meio pesado pra qqr placa mais antiga. Essas placas são feitas pra FullHd, e o BFV é muito pesado, contanto ela deve segurar bem o Pubg no medium, que é pesadinho tbm e pior otimizado, porém mais leve que o BFV. Pior que eu tenho um Sli dessas titans, deve dar um bom caldo ainda esse Sli. Talvez chegue perto de uma 1070.

to quase vencendo a preguiça e botando esse sli pra rodar no Pc1 só for fun mesmo.

fiz uns testes do 3d mark tbm:

https://www.3dmark.com/spy/5760842

https://www.3dmark.com/fs/17824578

tudo default, sem nenhum over nas vgas.

aaah ta é uma Titan, entendi!!!
 
Agora que voce falou estou curioso, tenho a 980ti aqui e vou rodar o BFV pra ver o que acontece.
aqui rodou bem mal...nao gostei nda da performance e vendi ela!!!
caparam a placa!!!
poe tudo no ultra e veja o que acontece acima de 1080p!
 
Vocês esqueceram que a 1080TI chegou a custar 4800 quando o dólar subiu?
Eu comprei minha primeira por 3400, depois comprei outra já por 4300...
Me desculpem, sou muito mais uma 1080TI usada que uma 2070... Claro, desde que ainda esteja na garantia e não tenha sido usada em mineração...
Os preços estão muito altos... Querendo ou não, RT, DLSS, e a performance maior não foram proporcionais ao preço cobrado...
Vendi minha 1080TI achando que iria pegar a 2080TI colocando pouco a mais... Ela chegou por quase o dobro do que paguei na 1080TI...
Só peguei a 2080TI PQ consegui por 6000, e não podia ficar mais sem VGA...
É igual a celular... Infla o preço, todo mundo chia, mas compra... Aí qualquer descontinho passa a ser excelente negocio... E a gente vai acostumando...

Eu tenho uma GTX 1080 ti Lightning Z zerada na garantia até 2020, eu estava pensando no que fazer e não consigo me decidir, sair dela pra uma 2070 não acho viável a 2080 está muito cara para o que entrega de diferença e a 2080 ti pra mim sem chance.
 
Se a RTX 2060 tem desempenho de GTX 1080

Uma eventual GTX 2050 deve ficar acima da 1060 6gb e abaixo da 1070 correto?

E uma futura 2050 Ti com desempenho acima da 1070 e abaixo da 1070 ti
 
Se a RTX 2060 tem desempenho de GTX 1080

Uma eventual GTX 2050 deve ficar acima da 1060 6gb e abaixo da 1070 correto?

E uma futura 2050 Ti com desempenho acima da 1070 e abaixo da 1070 ti

tem desempenho de 1070ti até onde eu sei.

1080 só fazendo OC posso especular.
 
Eu tenho uma GTX 1080 ti Lightning Z zerada na garantia até 2020, eu estava pensando no que fazer e não consigo me decidir, sair dela pra uma 2070 não acho viável a 2080 está muito cara para o que entrega de diferença e a 2080 ti pra mim sem chance.

Fica com ela 2070 vai perder bastante desempenho e 2080 vai empatar, só se você quiser pelo ray tracing e dlss.
 

Users who are viewing this thread

Voltar
Topo