[TÓPICO DEDICADO] NVIDIA GeForce RTX 3XXX

  • Iniciador de Tópicos neo666
  • Data de Início
Com monitor é o mesmo. Alguns jogos não usam CRU e é preciso ir no painel da nvidia e escolher uma resolução disponível com taxa de atualização desejada. Aqui é monitor e acontece o mesmo.

Sinceramente eu acho fetiche isso. Eu tenho monitor 27" com resolução baixa, 1080p. É um gigabyte 144Hz. Sinceramente aumentar a resolução não me dá ganho de qualidade de imagem nenhum em jogo nenhum. Se tiver DLSS, então, aí mesmo que pra mim é besteira total, já que o DLSS faz a imagem, especialmente as bordas e o AA, atingirem um nível de absoluta incomparável perfeição.
Usar o SMAA2x/DSR4X ou DLDSR2.25x basicamente traz o anti aliasing perfeito que não dá pra atingir de nenhuma outra forma a não ser com excesso de resolução (downsampling) já que elimina o possível blur/cores sem vida que o AA acaba introduzindo e o DLSS apesar de ser melhor que simplesmente usar algum método padrão de AA também introduz regressão incontestável na qualidade de imagem principalmente sharpening/ghosting.

A maior questão sobre o DLDSR mesmo é, se alguém tem placa pra empurrar resoluções maiores não é melhor comprar um display high-end pra ter uma melhor experiência com a placa?
De qualquer forma é uma opção bem vinda diretamente nos drivers e com mais performance já que no passado era algo dependente de "mods" pra funcionar.


Mas no Brasil...
:ramon:
No Brasil é piada de 1o de abril mesmo, os lojistas vão é embolsar essa margem extra.
 
Aqui tenho usado o DLDSR sempre que possível desde que lançou, diferença nas texturas/nitidez e AA é bem grande de 1080p pra 1620p, pelo menos no meu caso com uma TV 40", ainda não fiz upgrade porque não tenho interesse em monitores mas também sou limitado pelo espaço atualmente a 43" no máximo, e minha ideia é pegar uma boa 43" 4k 120hz mas creio que não tenham muitas opções (pelo menos não no Brasil) ainda, então vou usar essa até estourar provavelmente (uso desde 2014), estou beeem satisfeito com a qualidade do 1620p no momento, mas não cheguei a comparar outras tecnologias similares

Alguns prints que fiz no dia que lançou o DLDSR no Kena e GW2 ainda usando a 3060, e alguns jogos só funciona se alterar a resolução no desktop e depois no jogo, outros funcionam normal alterando direto no jogo





 
ainda não fiz upgrade porque não tenho interesse em monitores mas também sou limitado pelo espaço atualmente a 43" no máximo, e minha ideia é pegar uma boa 43" 4k 120hz mas creio que não tenham muitas opções (pelo menos não no Brasil) ainda
Em breve vai chegar a sua salvação, a 42C2, só se prepara pra trocar a GPU junto kk.
 
Em breve vai chegar a sua salvação, a 42C2, só se prepara pra trocar a GPU junto kk.
Tem isso também, dependendo do jogo settings etc a 3070 vai penar já pra chegar em 60fps no 4k kkkkk, mas como não faço questão de tudo ultra sempre e tem DLSS e afins também acho que já dá boa, o Control eu joguei na 3060 ainda em 1080p com RT high sem DLSS na faixa dos 50fps~ e achei tranquilo, imersão nesse caso foi completamente outra com RT pra mim, mas no resto que testei achei meh, e acabei nem testando o DLSS na época pra ver como ficava

Só me pergunto agora quão grande é o salto de 1620p pra 2160p em questão de nitidez, porque de 1080p pra 1620p em alguns casos foi bem grande, no Kena mesmo achei o serrilhado horrível em 1080p, em 1620p foi outra experiência ainda que nesse print apenas não veja tão bem, no chutômetro imagino que o salto seja menos perceptível mas é impossível dizer sem ver pessoalmente, e também não empolguei muito ainda porque como maioria que consumo é streaming nem sei se veria tanta diferença em filmes etc também, quando testei numa TV 4k pelo menos dava pra contar nos dedos o content que tinha qualidade consideravelmente melhor, provavelmente pelo bitrate capado pra streaming, aí provavelmente teria que baixar tudo ou achar outro lugar pra extrair 100% da qualidade de imagem

EDIT: €1400~ pela 42C2 pelo que olhei aqui, vou segurar até 2030 pelo jeito :melior2:
 
Última edição:
Tem isso também, dependendo do jogo settings etc a 3070 vai penar já pra chegar em 60fps no 4k kkkkk, mas como não faço questão de tudo ultra sempre e tem DLSS e afins também acho que já dá boa, o Control eu joguei na 3060 ainda em 1080p com RT high sem DLSS na faixa dos 50fps~ e achei tranquilo, imersão nesse caso foi completamente outra com RT pra mim, mas no resto que testei achei meh, e acabei nem testando o DLSS na época pra ver como ficava

Só me pergunto agora quão grande é o salto de 1620p pra 2160p em questão de nitidez, porque de 1080p pra 1620p em alguns casos foi bem grande, no Kena mesmo achei o serrilhado horrível em 1080p, em 1620p foi outra experiência ainda que nesse print apenas não veja tão bem, no chutômetro imagino que o salto seja menos perceptível mas é impossível dizer sem ver pessoalmente, e também não empolguei muito ainda porque como maioria que consumo é streaming nem sei se veria tanta diferença em filmes etc também, quando testei numa TV 4k pelo menos dava pra contar nos dedos o content que tinha qualidade consideravelmente melhor, provavelmente pelo bitrate capado pra streaming, aí provavelmente teria que baixar tudo ou achar outro lugar pra extrair 100% da qualidade de imagem
No caso seria a diferença de 1080p pra 4K (e ela é completamente absurda) já que os 1620p são downsampling e sua TV continua tendo 1920x1080 pixels físicos, combine isso com uma tela oled que faz qualquer lcd parecer uma completa piada e vc nunca mais volta atrás :limo:
 
dependendo do jogo settings etc a 3070 vai penar já pra chegar em 60fps no 4k
Eu jogo RDR2 no high/medium com 40 FPS na 970 bem feliz. Melhor que o PS4 a 20 FPS
 
Num sei se vale a pena pegar placa por agora, estão caindo de preço, talvez volte com mais frequência daqui em diante...
Peguei uma 3070 TI TUF por 7.130, saindo de uma 1070 Strix.
Além dessa queda de preços noticiada para maio e esse ano lançamento de nova serie...ahhh apaixonado por ela e fiz essa "loucura."
Sei que é muito para FHD 144hz mas pretendo ficar o mesmo tempo que a 1070, então imagino que no futuro o FHD fique cada vez mais pesado para 3070TI.
Agora, vou esperar na minha 2a máquina para por uma 3060 TUF.
 
Peguei uma 3070 TI TUF por 7.130, saindo de uma 1070 Strix.
Além dessa queda de preços noticiada para maio e esse ano lançamento de nova serie...ahhh apaixonado por ela e fiz essa "loucura."
Sei que é muito para FHD 144hz mas pretendo ficar o mesmo tempo que a 1070, então imagino que no futuro o FHD fique cada vez mais pesado para 3070TI.
Agora, vou esperar na minha 2a máquina para por uma 3060 TUF.

A limitação não vai ser nem o poder da placa, mas sim a quantidade VRAM. Nvidia cagou colocando só 8GB numa placa desse nível. Era pra ter vindo com no mínimo 10GB... 8GB hoje em dia é pra placa de entrada e só (3050 e 3060).

Cada vez mais estão lançando jogos com otimização porca e consumindo um absurdo de VRAM. Aqui por exemplo, no Forza Horizon 5 não consigo cravar 60fps em 4K, seja no preset "Extreme" ou no "Ultra", porque o jogo extrapola os 8GB e limita a performance da placa, que tem poder de sobra pra entregar 60fps constantes nessa resolução. Se ligar o ShadowPlay então, pior ainda... A alocação de VRAM nesse jogo é algo medíocre.
 
Essa Suprim X da MSI ficou linda demais hein, canhão!



wYLVYSd.jpg




Ew3MZ8N.jpg




uO2AzrA.jpg




PSYNJPb.jpg




Jhlxssn.jpg





O7lgPUd.jpg
 
Tem isso também, dependendo do jogo settings etc a 3070 vai penar já pra chegar em 60fps no 4k kkkkk, mas como não faço questão de tudo ultra sempre e tem DLSS e afins também acho que já dá boa, o Control eu joguei na 3060 ainda em 1080p com RT high sem DLSS na faixa dos 50fps~ e achei tranquilo, imersão nesse caso foi completamente outra com RT pra mim, mas no resto que testei achei meh, e acabei nem testando o DLSS na época pra ver como ficava

Só me pergunto agora quão grande é o salto de 1620p pra 2160p em questão de nitidez, porque de 1080p pra 1620p em alguns casos foi bem grande, no Kena mesmo achei o serrilhado horrível em 1080p, em 1620p foi outra experiência ainda que nesse print apenas não veja tão bem, no chutômetro imagino que o salto seja menos perceptível mas é impossível dizer sem ver pessoalmente, e também não empolguei muito ainda porque como maioria que consumo é streaming nem sei se veria tanta diferença em filmes etc também, quando testei numa TV 4k pelo menos dava pra contar nos dedos o content que tinha qualidade consideravelmente melhor, provavelmente pelo bitrate capado pra streaming, aí provavelmente teria que baixar tudo ou achar outro lugar pra extrair 100% da qualidade de imagem

EDIT: €1400~ pela 42C2 pelo que olhei aqui, vou segurar até 2030 pelo jeito :melior2:
Dependendo do jogo até a 3090 vai chorar pra rodar em 4k/60Fps
 
Vontade de pegar uma dessas 3090Ti pra brincar com esse power limit de 500W+, mas vou tentar me segurar até a 4090. :fire:
 

Bom... pelo menos o merchan foi bem feito, se a 3090ti custa U$2000 o povo não vai achar tão ruim uma 4080 50% mais forte custando a partir de U$1500 :pense:
 
Vontade de pegar uma dessas 3090Ti pra brincar com esse power limit de 500W+, mas vou tentar me segurar até a 4090. :fire:
Uma vga dessa será que não derrete algo do computador hahaha, é muita energia
 
Derrete o dono, tanto no bolso quanto na temperatura do ambiente onde o PC tá, 3080Ti com a BIOS da strix puxando pra lá dos 425W+ já deixa o quarto um forno aqui.
425W é coisa hein tu tinha que mora aqui no Sul que é bem fresquinho, hoje ambiente 20°C!
 

500 f*dendo watts!:rip:

Minha 6800XT chega em 280-290w e já sinto quarto mais quente.

Acho que a última placa com um consumo absurdo desses em stock foi a Radeon 295X2 que era dual GPU.
 
A RTX 3050 vale a pena pra jogar tudo no Médio/Alto em 1080p?
Sim, bobiar da pra pegar Ultra.

Mas cara, da uma olhada na RX 6600, pra 1080p essa placa é campeã
 
Derrete o dono, tanto no bolso quanto na temperatura do ambiente onde o PC tá, 3080Ti com a BIOS da strix puxando pra lá dos 425W+ já deixa o quarto um forno aqui.

para a 3090 tem bios mod de até 1000 watts, mas ae é coisa de maluco .... cara, nunca mais pego 3090, 4090, muito difícil resfriar essas memórias ... só abrindo e trocando termal pads (mas ae a garantia vai para o espaço) ... mesmo em gabinete aberto, com três fans em cima, não abaixa de 100 graus ...
 
500 f*dendo watts!:rip:

Minha 6800XT chega em 280-290w e já sinto quarto mais quente.

Acho que a última placa com um consumo absurdo desses em stock foi a Radeon 295X2 que era dual GPU.


a energia nos EUA custa 1/11.

Enquanto Brasileiro paga 11reais o 1kwh, o americano para $ 1 dollar e em outras regiões até menos
 
para a 3090 tem bios mod de até 1000 watts, mas ae é coisa de maluco .... cara, nunca mais pego 3090, 4090, muito difícil resfriar essas memórias ... só abrindo e trocando termal pads (mas ae a garantia vai para o espaço) ... mesmo em gabinete aberto, com três fans em cima, não abaixa de 100 graus ...
BIOS de 1000W é pra mandar a placa pro buraco já, prefiro ficar dentro de um certo "limite" que o fabricante estipulou e não sobra muita voltagem pra brincar depois dos 400W também se seu chip for bom.

A memória da 3090Ti já usa chips de 2GB então os da 4090 devem ser iguais, esquenta bem menos pq só tem chip de um lado.

No mais a 3090Ti é só uma 3080Ti/3090 com direito a usar ainda mais power, que sempre foi o maior fator limitante pras placas da 3080 pra cima, principalmente em jogos com RT, diria até que já é a nvidia testando as PCBs/power delivery pras 4090, não só existem modelos com 24 power stages como um controlador novo.
 
Última edição:
a energia nos EUA custa 1/11.

Enquanto Brasileiro paga 11reais o 1kwh, o americano para $ 1 dollar e em outras regiões até menos
Não é tudo isso não, aqui(MS) o kw/h sai R$1,16.
 
a energia nos EUA custa 1/11.

Enquanto Brasileiro paga 11reais o 1kwh, o americano para $ 1 dollar e em outras regiões até menos
o custo médio de kwh nos EUA é de 0.15 dólares. Aqui é de 1 real.
Só que eles ganham em dólar, então não dá pra fazer conversões.
 

Users who are viewing this thread

Voltar
Topo