Sim e nesse caso não gostei do DLSS, acho que ficou perceptivelmente pior a qualidade, pelo menos com uma tela 1080p e o DLSS Quality.Ah faz sentido. RTX ultra come fps mesmo.
Sim e nesse caso não gostei do DLSS, acho que ficou perceptivelmente pior a qualidade, pelo menos com uma tela 1080p e o DLSS Quality.Ah faz sentido. RTX ultra come fps mesmo.
Tanto em 1080p como 2k mostra que passou dos 8gb indo pra 12gb. Sei que vai dar pra zerar de boa com altas taxas de fps mais já deixa o cara preocupado.Qual redoluçao?
Esse aviso do resident evil (se for o 2) não quer dizer muita coisa, isso se representar algo.
1080p RTX ULTRA DLSS OFF
mas não me incomodei em jogar cyberpunk abaixo de 60 frames, acho que esse jogo vale a pena ser jogado com a qualidade gráfica no máximo
o problema é que mesmo o DLSS no qualidade eu achei ruim kkkkPonha DLSS no médio ou desempenho, vai melhorar bem os fps e não
ficar tão embaçado. Só não ponha no desempenho ultra, que não presta.
Não, serão 6 chips (por causa do barramento de 192bits) de 2GB cada, então o consumo será o mesmo que se ela tiver 6GB de memória (6chips x 1GB).A 3080 12gb vai consumir mais energia pela maior quantidade de chip né?![]()
Sim, a RTX 3060 12GB será mais fraca que a 3060Ti, nunca houve dúvidas disso, a questão é essa "versão Ultra" que apareceu do nada apenas no WccfTech sendo dita mais forte que a 3060Ti, e como nem o próprio site soube a especificação da placa eles só disseram "é mais rápida" por causa do preço 50 dólares acima da 3060Ti e ter o nome "Ultra" que remete à melhor placa da linha (o WhyCry não acredita nessa versão Ultra, e ele disse que o leaker que passou essa informação para o WCCFTech também passou para ele, e o preço de 449 dólares não foi dito ser MSRP, logo até isso foi suposição do WccfTech. Por causa disso o VideoCardz decidiu não repassar essa informação).Agora tá praticamente confirmado de que ficará abaixo da 3060Ti e terá performance semelhante a 2070S.
Parece que aquela tal 3060 Ultra é pura balela não?
Pelo que vi no DOOM Eternal é só diminuir a paginação da texturas na opção 'texture pool size' pra ultra ao invés de nightmare que os problemas de stutters acabam, não seis e é verdade pois não testei o jogo
Sim, mas coisa de uns 10~15W no máximo.A 3080 12gb vai consumir mais energia pela maior quantidade de chip né?![]()
Ele tava falando da 3080, não da 3060. AFAIK, a micron ainda não liberou chips de 16Gbit, correto?Não, serão 6 chips (por causa do barramento de 192bits) de 2GB cada, então o consumo será o mesmo que se ela tiver 6GB de memória (6chips x 1GB).
Bom, a AMD teve a chance de desbancar a Nvidia em vendas se eles tivessem escolhido fabricar os chips de GPU ao invés dos chips dos consoles. A Nvidia até entrou num "mini-desespero" começando a testar a 3070 16GB e 3080 20GB no ano passado mesmo, aí depois que eles viram que a AMD não conseguiu fabricar placas, eles voltaram atrás e cancelaram a 3070 16GB (Oque mais impressiona não é a atitude da Nvidia em lançar as 3070 dessa maneira, mas sim o povo defendendo essa atitude mesmo com os vazamentos de placas inferiores com mais VRAM, como é o caso da 3060 TUF. Mas sabedoria é que nem dente , tem gente que não tem.
Eu juro de pés juntos que li ele falando "3060 12GB vai consumir mais..." :vEle tava falando da 3080, não da 3060.
Nops, apenas chips de 8Gbit, me pergunto se esses chips de 16Gbits verão a luz do dia, pois com esse atraso todo só poderão aparecer no refresh das Super ou com as RTX4000, isso se a NVIDIA se manter nesse padrão e não partir para o próximo (para ser justo, zero informações ainda sobre a futura GDDR7, além deste site que sinceramente, não informa nada muito útil). O que posso dar certeza é que a próxima geração de GPUs precisará de uma memória bem mais rápida que as atuais GD6 e GD6X, pois as uArch de hoje já estão saturando larguras de banda na casa de 800GB/s, imagine as de amanhã?AFAIK, a micron ainda não liberou chips de 16Gbit, correto?
Sim, sem problemas.Rapaziada, tô meio por fora, essa minha HX750i Platinum da conta do meu PC com uma RTX 3080?
Não é que não dá pra fazer over, vc tem limite no PL.Relato de over na Galax 3070 SG
Falaram que por ser 1x8pin não ia conseguir fazer quase nada de over, porém joguei cyberpunk por 3 horas e ficou estável com +190 no core e +800
na memória, tentei colocar 1000 na memória porém o fps diminuiu, não testei com 900.
![]()
A temperatura com o ar do quarto ligado (24º) não chegou nem a 60º.
![]()
Diminuiu fps porque bateu powerlimit e fez clock cair.Relato de over na Galax 3070 SG
Falaram que por ser 1x8pin não ia conseguir fazer quase nada de over, porém joguei cyberpunk por 3 horas e ficou estável com +190 no core e +800
na memória, tentei colocar 1000 na memória porém o fps diminuiu, não testei com 900.
![]()
A temperatura com o ar do quarto ligado (24º) não chegou nem a 60º.
![]()
Não é que não dá pra fazer over, vc tem limite no PL.
Mas isso influencia pouco nas Ampere, os melhores resultados são obtidos em UV.
Diminuiu fps porque bateu powerlimit e fez clock cair.
Você tem que fazer curva de undervolt com mesmo clock ou overclock.
Só testando. Suas temperaturas estão ótimas, portanto acredito que o seu limite atual seja o PL.Eu sou bem leigo no assunto, mas com UV conseguiria manter essas frequências? Pois com esse over consegui uns 7 fps a mais que tão fazendo diferença no CyberPunk kkkkk
A opção "desbloquear controle de tensão" e monitoramento estão desbloqueadas, porém o core voltage fica bloqueado na tela de over no MSI. Bom, como to satisfeito com as temperaturas e perfomance acho que vou manter assim mesmo por enquanto.Só testando. Suas temperaturas estão ótimas, portanto acredito que o seu limite atual seja o PL.
Tanta abaixar gradativamente a tensão mantendo esse overclock pra ver o que acontece.
A memória pode estar diminuindo em +1000 por causa da correção de erros, melhor deixar em +800 mesmo.
Relato de over na Galax 3070 SG
Falaram que por ser 1x8pin não ia conseguir fazer quase nada de over, porém joguei cyberpunk por 3 horas e ficou estável com +190 no core e +800
na memória, tentei colocar 1000 na memória porém o fps diminuiu, não testei com 900.
![]()
A temperatura com o ar do quarto ligado (24º) não chegou nem a 60º.
![]()
Ola. Cara, imagino que um mínimo de pesquisa de preços vc fez antes de boletar a placa. Então te pergunto: se alguém aqui que vc nem conhece falar que não vale a pena, vc vai deixar de pagar o boleto? Acredito que não, né? Então paga o boleto e seja feliz. Se vc se arrepender vai conseguir vender pelo mesmo preço num piscar de olhos.Opa pessoal, eu consegui uma RTX 3080 da PCYES GAMING PRO por R$ 6.100 (ainda não paguei o boleto), vocês acham que vale a pena? Ou é muita grana pra gastar em uma GPU? Atualmente eu tenho uma GTX 1070.
Desculpem a pergunta, mas como faria para criar uma resolução customizada próxima de 1440p e que ficasse boa num monitor fullhd?DSR só presta se setar em 4x e colocar o smoothness em 0%. Qualquer outra resolução que não seja múltipla da sua em 4x no número de pixels vai ficar com a qualidade ruim devido ao filtro utilizado pela Nvidia que se não me engano é Gaussian Blur.
Pra isso eu sugiro utilizar uma resolução custom no painel da Nvidia pois assim vai utilizar o filtro Bilinear que não deixa a imagem cheia de artefatos e bagunçada em outras resoluções então eu recomendo usar esse método se não for usar o DSR em 4x e 0% smoothness.
Desculpem a pergunta, mas como faria para criar uma resolução customizada próxima de 1440p e que ficasse boa num monitor fullhd?