[TÓPICO DEDICADO] NVIDIA GeForce RTX 3XXX

  • Iniciador de Tópicos neo666
  • Data de Início

Especificações, desempenho, preço e disponibilidade da placa gráfica NVIDIA GeForce RTX 4080 – tudo o que sabemos até agora.​



Embora não haja como negar o entusiasmo em torno das placas gráficas da série GeForce RTX 4090 de ponta que oferecem o melhor do melhor desempenho em jogos, as placas gráficas da série RTX 4080 são o nível que a maioria dos jogadores de ponta terá, considerando que não quebrar sua carteira e ainda oferece uma enorme quantidade de desempenho em jogos. É simples, a série RTX 4090 será voltada para usuários que desejam o melhor do melhor sem se preocupar com a quantidade de dinheiro que estão gastando, enquanto a série RTX 4080 é voltada para usuários que desejam o melhor desempenho de jogos pelo melhor preço possível.

A GeForce RTX 3080 anterior foi apresentada para oferecer uma grande melhoria em relação à RTX 2080 e, embora essa afirmação tenha ficado um pouco aquém, parece que a RTX 4080 tem potencial para superar muito além de seu antecessor devido a vários motivos que serão aparentes neste roundup detalhando suas especificações e números de desempenho.


wu7rXUA.jpg




Também devemos esperar coisas semelhantes com a potência de jogos da próxima geração, mas um fator importante a considerar é que as GPUs estão se tornando mais famintas de energia e mais caras. É uma tendência que pode continuar no futuro, à medida que obtemos produtos melhores, mas, em troca, sempre há um custo a pagar para os consumidores finais. Então, começando com o que sabemos até agora, primeiro devemos dar uma olhada nas novas GPUs da classe Ada Lovelace ou AD10* que alimentarão as placas da série GeForce RTX 40 de última geração.

GPU AD103 'Ada Lovelace' da NVIDIA - A potência de última geração​

Começando com a configuração da GPU, as placas gráficas da série NVIDIA GeForce RTX 4080 utilizam o núcleo da GPU AD103. Pense no AD103 como uma versão otimizada do AD102 que fica entre as GPUs AD102 e AD104. Diz-se que a GPU mede cerca de 400 mm2-450 mm2 e utilizará o nó de processo TSMC 4N, que é uma versão otimizada do nó 5nm (N5) da TSMC projetado para a equipe verde.



2IFowlr.png




Espera-se que a GPU NVIDIA Ada Lovelace AD103 tenha até 7 GPC (Gráficos de Processamento de Clusters). Esta é a mesma contagem de GPC que a GPU Ampere GA102 e um GPC adicional sobre a GPU GA103. Cada GPU consistirá em 6 TPCs e 2 SMs, que é a mesma configuração do chip existente. Cada SM (Streaming Multiprocessor) abrigará quatro sub-núcleos que também são os mesmos da GPU GA102. O que mudou é a configuração principal do FP32 e do INT32. Cada subnúcleo incluirá 128 unidades FP32, mas as unidades FP32+INT32 combinadas chegarão a 192. Isso ocorre porque as unidades FP32 não compartilham o mesmo subnúcleo que as unidades IN32. Os 128 núcleos FP32 são separados dos 64 núcleos INT32.

Portanto, no total, cada subnúcleo consistirá em 32 unidades FP32 mais 16 unidades INT32 para um total de 48 unidades. Cada SM terá um total de 128 unidades FP32 mais 64 unidades INT32 para um total de 192 unidades. E como há um total de 84 unidades SM (12 por GPC), estamos analisando 10.752 unidades FP32 e 5.376 unidades INT32 para um total de 18.432 núcleos. Cada SM também incluirá dois cronogramas de wrap (32 threads/CLK) para 64 wraps por SM. Este é um aumento de 50% nos núcleos (FP32+INT32) e um aumento de 33% em Wraps/Threads em relação à GPU GA102.


Diagrama de blocos da GPU de jogos NVIDIA AD103 'Ada Lovelace' 'SM' (Créditos da imagem: Kopite7kimi):


LyaBODD.jpg




Especificações da GPU NVIDIA Ada Lovelace 'AD103' 'Preliminar':​




7QZHc6P.png




Passando para o cache, este é outro segmento em que a NVIDIA deu um grande impulso em relação às GPUs Ampere existentes. As GPUs Ada Lovelace incluirão 192 KB de cache L1 por SM, um aumento de 50% em relação ao Ampere. Isso é um total de 2,5 MB de cache L1 na GPU AD103 superior. O cache L2 será aumentado para 64 MB, conforme mencionado nos vazamentos. Este é um aumento de 10,6x em relação à GPU Ampere GA102 que hospeda apenas 6 MB de cache L2. O cache será compartilhado na GPU.

Por fim, temos os ROPs que também são aumentados para 32 por GPC, um aumento de 2x em relação ao Ampere. Você está olhando para até 224 ROPs no carro-chefe de última geração contra apenas 112 na GPU Ampere mais rápida, a RTX 3090 Ti. Também haverá os mais recentes núcleos Tensor de 4ª geração e RT (Raytracing) de 3ª geração infundidos nas GPUs Ada Lovelace, que ajudarão a aumentar o desempenho de DLSS e Raytracing para o próximo nível. No geral, a GPU Ada Lovelace AD103 oferecerá:

  • Mesma quantidade de GPCs que GA102
  • Mesma quantidade de núcleos que GA102
  • 50% Mais Cache L1 (Versus Ampere)
  • 16x mais cache L2 (versus Ampere)
  • Dobre os ROPs (Versus Ampere)
  • Tensor de 4ª geração e núcleos RT de 3ª geração


Maquete do diagrama de blocos da GPU para jogos NVIDIA AD103 'Ada Lovelace' (Créditos da imagem: SemiAnalysis ):


3BLv5p0.jpg



Observe que as velocidades de clock, que se diz estarem entre a faixa de 2-3 GHz, não são consideradas na equação, portanto, elas também desempenharão um papel importante na melhoria do desempenho por núcleo em relação ao Ampere.



Linha de placas gráficas NVIDIA GeForce RTX 40 Series (rumores):​




ekwFfZh.png




Especificações das placas gráficas NVIDIA GeForce RTX 4080​

Como vimos com a GPU GA102, a NVIDIA pode ter várias configurações da GPU AD103 para sua linha da série GeForce RTX 3080. Esperamos realisticamente que haja duas variantes, a RTX 4080 e a RTX 4080 Ti. O primeiro fará parte da programação inicial, enquanto o último seria lançado como uma atualização no meio do ciclo. A GeForce RTX 30 mais básica tinha 23% menos núcleos em comparação com o chip completo, mas desta vez, as placas gráficas '80-class' serão alimentadas por seu próprio chip, em vez de depender da GPU AD102 que os carros-chefe usam . Como tal, podemos esperar de 8704 a 10752 núcleos.

Especificações 'esperadas' da NVIDIA GeForce RTX 4080

A NVIDIA GeForce RTX 4080 será uma configuração reduzida com os mesmos núcleos que a parte GA102 existente, mas sintonizada com frequência muito mais alta ou entre 9000-1000 núcleos que permitem algum espaço para uma variante 'Ti' no futuro com a configuração de gordura total. A GPU virá com 64 MB de cache L2 e até 224 ROPs, o que é simplesmente insano.

As velocidades de clock ainda não estão confirmadas, mas considerando que o processo TSMC 4N está sendo usado, esperamos clocks entre 2,0-3,0 GHz. O aumento de velocidade de clock maior do que o normal vem do fato de que a NVIDIA está dando um salto de dois nós, considerando que as GPUs Ampere com nó de 8 nm da Samsung eram na realidade um nó de processo de 10 nm com algumas otimizações. A NVIDIA está pulando 7nm e indo direto para um nó de 5nm e nem mesmo a variante vanilla, mas uma versão otimizada dela. Com Pascal no nó TSMC de 16nm, a NVIDIA forneceu um grande salto de frequência e podemos esperar um salto semelhante desta vez também.

Quanto às especificações de memória, espera-se que a GeForce RTX 4080 tenha capacidades de 16 GB GDDR6X que podem chegar a velocidades mais rápidas de 21 Gbps em uma interface de barramento de 256 bits. Isso fornecerá até 672 GB/s de largura de banda. Agora, todas essas especificações aprimoradas resultarão em maior consumo de energia também e espera-se que o carro-chefe opere a uma TBP de cerca de 350W . Agora, para 350 W, um único conector Gen 5 de 16 pinos deve ser suficiente para modelos de referência e personalizados.



h1vMWPm.png



G8RrauL.png



SOUlAlZ.png




Também vimos um suposto dissipador de calor NVIDIA GeForce RTX 4090 Ti e cobertura mais fria que sugere o uso de uma placa fria mais robusta que fornece cobertura para a GPU e memória, juntamente com uma estrutura geral maior. O cooler vazado é um design da Founders Edition e, a julgar pelo tamanho, os modelos AIB acabarão sendo muito maiores e podemos até acabar com designs de quatro slots de todos os parceiros. Podemos esperar que o cooler RTX 4080 seja modificado com mudanças semelhantes.

Quanto ao seu conjunto de recursos, as placas gráficas NVIDIA GeForce RTX 4080 irão agitar todos os conjuntos de recursos modernos de NV, como os mais recentes Tensor Cores de 4ª geração, núcleos RT de 3ª geração, o mais recente NVENC Encoder e NVCDEC Decoder, e suporte para as APIs mais recentes . Eles incluirão todos os recursos RTX modernos, como suporte a DLSS, Reflex, Broadcast, Resizable-BAR, Freestyle, Ansel, Highlights, Shadowplay e G-SYNC.



Especificações preliminares da série NVIDIA GeForce RTX 4080:​



tBGspU3.png




Desempenho das placas gráficas NVIDIA GeForce RTX 4080​

Quanto ao desempenho das GPUs para jogos, podemos usar apenas números teóricos aqui, já que o lançamento está um pouco distante, mas com base no que sabemos, as placas da série RTX 40 podem ser as primeiras placas de jogos a atingir o limite de potência de computação de 100 TFLOPs .

Só para efeito de comparação:

  • NVIDIA GeForce RTX 4090 Ti: ~103 TFLOPs (FP32) (assumindo clock de 2,8 GHz)
  • NVIDIA GeForce RTX 4090: ~90 TFLOPs (FP32) (assumindo clock de 2,8 GHz)
  • NVIDIA GeForce RTX 4080: ~50 TFLOPs (FP32) (assumindo clock de 2,5 GHz)
  • NVIDIA GeForce RTX 3090 Ti: 40 TFLOPs (FP32) (clock Boost de 1,86 GHz)
  • NVIDIA GeForce RTX 3090: 36 TFLOPs (FP32) (clock Boost de 1,69 GHz)
  • NVIDIA GeForce RTX 3080: 30 TFLOPs (FP32) (clock Boost de 1,71 GHz)
Com base em uma velocidade de clock teórica de 2,5 GHz, você obtém até 53 TFLOPs de desempenho de computação e os rumores sugerem clocks de aumento ainda maiores. Agora, eles estão definitivamente soando como clocks de pico, semelhantes às frequências de pico da AMD, que são mais altas que o clock médio de 'Game'. Um desempenho de computação de mais de 50 TFLOPs significa mais desempenho em uma GPU de 'classe 80' do que em um carro-chefe 'classe 90', o que será um bom aumento. Mas deve-se ter em mente que o desempenho de computação não indica necessariamente o desempenho geral dos jogos, mas, apesar disso, será uma grande atualização para PCs de jogos e um aumento de 8,5 vezes em relação ao console mais rápido atual, o Xbox Series X.



uatUAqY.png




Este será um aumento de desempenho de computação de 70% para a placa gráfica GeForce RTX 4080 em relação ao seu antecessor e isso sem levar em consideração o desempenho do núcleo RT e Tensor, que devem obter grandes aumentos também em seus respectivos departamentos. Agora, os FLOPs não refletem necessariamente os gráficos ou o desempenho dos jogos, mas fornecem uma métrica que pode ser usada para comparação. Um ganho de 2x em relação ao RTX 3090 e RTX 3090 Ti seria muito perturbador e faz sentido por que a NVIDIA está se esforçando tanto com limites de energia mais altos em suas placas.



ENgFvIN.png



Os jogadores devem esperar que os jogos em 4K sejam suaves como manteiga nessas placas gráficas e com DLSS, podemos até ver 60 FPS jogáveis com resolução de 8K, algo que a NVIDIA vem tentando alcançar com seus BFGPUs da série RTX 3090 há algum tempo.



Placas gráficas NVIDIA GeForce RTX 4080 Preço e disponibilidade​

A NVIDIA GeForce RTX 3080 foi lançada por US$ 699, mas suas atualizações realmente atrapalharam os preços. O RTX 3080 12 GB foi lançado sem um MSRP, mas a NVIDIA havia planejado internamente um preço de US$ 899 para esta variante, enquanto o RTX 3080 Ti tinha um preço sugerido de US$ 1199. O preço está simplesmente em todo lugar e nós nunca gostaríamos de ver os consumidores pagando nada em torno de US$ 600 ou US$ 700 por uma placa gráfica padrão de 80 classes. O Ti faz sentido, mas mesmo um preço de US $ 1200 nos EUA é absurdo, mas é com o que o mercado se acostumou desde o RTX 2080 Ti. Eu gostaria que pudéssemos voltar aos dias da GTX 1080 Ti por US$ 699, mas não vejo isso acontecendo. Como tal, o RTX 4080 pode nos custar cerca de US $ 650 a US $ 700, enquanto sua variante Ti pode chegar perto da marca de US $ 1.000 a US $ 1.100.

A diferença entre o RTX 4080 Ti e o RTX 4080 também será muito maior desta vez. Parece que a NVIDIA não obteve uma resposta tão positiva da RTX 3080 Ti quanto esperava e, em vez de remover a placa inteiramente de seu segmento de GPU, eles poderiam ter decidido reduzir as especificações da variante não-Ti mais. Como o downgrade de especificações levará a uma diferença maior no desempenho entre o RTX 4080 e o RTX 4080 Ti do que o RTX 3080 e o RTX 3080 Ti, pode valer a pena obter a variante de ponta para um ganho de desempenho de 15-20% em vez de o ganho de um dígito que você está obtendo agora.



278HQZk.jpg



Há rumores de que as placas gráficas da série NVIDIA GeForce RTX 40 serão lançadas em meados de julho e, embora tenhamos visto coberturas mais frias do RTX 4090 Ti vazando anteriormente, a NVIDIA ainda pode lançar a variante não-Ti primeiro com a variante RTX 4090 Ti chegando ao mercado. mercado muito mais tarde. Mas esta não seria a primeira vez que a NVIDIA lança um SKU de ponta durante o início de sua próxima geração. O carro-chefe RTX 2080 Ti foi lançado com o restante da linha, embora sua antecessora, a GTX 1080 Ti, tenha aparecido meses após o lançamento da linha inicial. A RTX 3090 foi lançada com a linha inicial de placas da série RTX 30, mas a 3090 Ti chegou com mais de um ano de atraso. Desta vez, a NVIDIA pode lançar toda a família desde o início e fazer uma atualização no meio do ciclo mais tarde, mas isso ainda está para ser visto.



Preços de segmento/camada de GPU NVIDIA GeForce​



TR4zTWG.png



A partir de agora, os rumores apontam para o lançamento em meados de julho, então temos que esperar mais dois meses para ver o quão bem isso vai!
Desde os primeiros rumores estou achando o "gap" entre a 4090 e 4080 abismal! Na atual gen 3000 ocorreu o oposto, a diferença foi bem apertada entre a 3090 e 3080 (grande apenas em quantidade de VRAM)! Talvez o "jaqueta de couro" tenha repensado essa margem! Se realmente for real, está com cara de que podem preencher essa lacuna com futuras 4080Ti (obviamente) mas também uma 4080 Super, quem sabe! E como o colega @O_Sani bem observou, vão vender um chip de custo mais baixo, provavelmente pelo preço de um chip de tier superior, já que vão "emplacar" a nomeclatura "X80". Podem ter considerado "possíveis vendas perdidas" de 3090 por conta da proximidade em performance da 3080, usando o mesmo chip GA102 parcialmente desabilitado.

No fim das contas concordo com o colega @Tho95, chutaria que a 4090 pode abrir uns 50% de desempenho acima da 3090 (a 4090Ti talvez um pouco mais). Já a 4080 chutaria algo entre 15 e 30% acima da 3090. Ou seja, um salto que não seria muito diferente do que já vimos no passado! Realmente, dobro de performance é algo muito surreal, acredito que nunca tenha ocorrido entre duas gerações subsequentes (me corrijam se estiver errado).

Se ficar nisso estou tentado por essa maldita 4090 mesmo! Ainda acho que não vai custar mais de U$2K, os rumores se concentram entre 1,7 e 1,9K. Já a 4090Ti deve vir acima disso, facilmente! U$2K é a 3090Ti e na "loja dos 1000GB" tem modelo por 16K, então ainda acho que talvez a 4090 pode não custar muito mais que isso por aqui (que já é um estupro, claro)...
 
Última edição:
Pessoal, depois de muita indecisão e boletos não pagos eu acabei comprando uma 3060 Ti da MSI por R$ 3800 na Terabyte. Mas depois que paguei o pix, vi falarem que "é um modelo da primeira versão da placa que tem 2 conectores de energia de 8 pinos e que ela não entrega clock boost muito bom por conta do limite de voltagem" (nas palavras de quem falou).

Alguém sabe se isso confere? Esse negócio do clock boost pode afetar muito o desempenho? O modelo em questão é esse aqui da MSI: https://www.terabyteshop.com.br/pro...-Np6PPHbtVse17V5qx--qaCKumHyI_l0aAlXKEALw_wcB
 
acredito que nunca tenha ocorrido entre duas gerações subsequentes (me corrijam se estiver errado)
980Ti (GM200) pra 1080Ti (GP102) é praticamente 2x independente da resolução, na época que saiu não era nas mais baixas por falta de hardware pra empurrar, na review da 3090ti fica bem claro:

--- Post duplo é unido automaticamente: ---

Pessoal, depois de muita indecisão e boletos não pagos eu acabei comprando uma 3060 Ti da MSI por R$ 3800 na Terabyte. Mas depois que paguei o pix, vi falarem que "é um modelo da primeira versão da placa que tem 2 conectores de energia de 8 pinos e que ela não entrega clock boost muito bom por conta do limite de voltagem" (nas palavras de quem falou).

Alguém sabe se isso confere? Esse negócio do clock boost pode afetar muito o desempenho? O modelo em questão é esse aqui da MSI: https://www.terabyteshop.com.br/pro...-Np6PPHbtVse17V5qx--qaCKumHyI_l0aAlXKEALw_wcB
Power limit dela é travado em 200W que é a spec padrão da nvidia:


Ou seja vai ter menos folga pra boostar/subir em oc mas continua sendo uma 3060Ti como qualquer outra.
Toda GPU da nvidia tem o mesmo limite de voltagem independente da marca e modelo.
 
Com um pouquinho de downvolt ela vai voar, eu tenho uma 3070 com apenas 1x8pin e Power Limit padrão e ela pega 2000MHz fixos com 0.95V. Só cai um pouquinho com RT ativado, mas é um OC excelente na minha opinião.
 
Desde os primeiros rumores estou achando o "gap" entre a 4090 e 4080 abismal! Na atual gen 3000 ocorreu o oposto, a diferença foi bem apertada entre a 3090 e 3080 (grande apenas em quantidade de VRAM)! Talvez o "jaqueta de couro" tenha repensado essa margem! Se realmente for real, está com cara de que podem preencher essa lacuna com futuras 4080Ti (obviamente) mas também uma 4080 Super, quem sabe! E como o colega @O_Sani bem observou, vão vender um chip de custo mais baixo, provavelmente pelo preço de um chip de tier superior, já que vão "emplacar" a nomeclatura "X80". Podem ter considerado "possíveis vendas perdidas" de 3090 por conta da proximidade em performance da 3080, usando o mesmo chip GA102 parcialmente desabilitado.

No fim das contas concordo com o colega @Tho95, chutaria que a 4090 pode abrir uns 50% de desempenho acima da 3090 (a 4090Ti talvez um pouco mais). Já a 4080 chutaria algo entre 15 e 30% acima da 3090. Ou seja, um salto que não seria muito diferente do que já vimos no passado! Realmente, dobro de performance é algo muito surreal, acredito que nunca tenha ocorrido entre duas gerações subsequentes (me corrijam se estiver errado).

Se ficar nisso estou tentado por essa maldita 4090 mesmo! Ainda acho que não vai custar mais de U$2K, os rumores se concentram entre 1,7 e 1,9K. Já a 4090Ti deve vir acima disso, facilmente! U$2K é a 3090Ti e na "loja dos 1000GB" tem modelo por 16K, então ainda acho que talvez a 4090 pode não custar muito mais que isso por aqui (que já é um estupro, claro)...
Dobro de performance também não acredito mas 20~30% isso é bem provável mas em breve deve sair os primeiros testes com ela e vamos descobrir!
 
Com um pouquinho de downvolt ela vai voar, eu tenho uma 3070 com apenas 1x8pin e Power Limit padrão e ela pega 2000MHz fixos com 0.95V. Só cai um pouquinho com RT ativado, mas é um OC excelente na minha opinião.
Na minha, com 0925 consigo 1950mhz com pl liberado, vou tentar deixar o pl em Stock para ver qual é, se tem diferença (2x8 pin)

Acredito que de 1950 para 2000 não tenha diferença em performance


Só tenho receio de fazer over nas memórias, são Samsung mas essas gddr6 são bem quentes
 
Na minha, com 0925 consigo 1950mhz com pl liberado, vou tentar deixar o pl em Stock para ver qual é, se tem diferença (2x8 pin)

Acredito que de 1950 para 2000 não tenha diferença em performance


Só tenho receio de fazer over nas memórias, são Samsung mas essas gddr6 são bem quentes
GDDR6X é quente (e só tem Micron), GDDR6 é normal, Samsung é só meter +1000 direto, dá pra colocar mais mas +1000 é praticamente garantido de funcionar em todas.
 
GDDR6X é quente (e só tem Micron), GDDR6 é normal, Samsung é só meter +1000 direto, dá pra colocar mais mas +1000 é praticamente garantido de funcionar em todas.
Eu estava olhando alguns vídeos no YouTube com ela a 2000+/8000 e vi que em alguns jogos não aumenta nem 10 de fps, acho que a questão consumo/temperatura não vale a pena por 5-10 fps
 
O soda de comparar a oled 48-42 com monitores ''similares'' é a diferença discrepante de preço, pagar 10k ou até mais num alienware acho totalmente fora de proporção. Já tive o aw3418dw na época do lançamento e tinha pago na época 4000 e pouco no esquema de cnpj, curti bastante ele e acabei vendendo usado depois de 3 anos com um valor ótimo ainda, ai peguei essa oled de 48, no começo foi estranho mas como tudo na vida depois você acostuma e começa achar até pequeno kkkk, mas ainda acredito que o tamanho ideal seja os 40-42 mesmo. Mas por exemplo eu paguei 4000 na época nessa de 48 polegadas, e ainda peguei 1 ano de garantia estendida grátis, no br você não encontra nada próximo de qualidade-preço dessa oled. Como falei a questão de usar no windows/trabalho/internet é principalmente pela nitidez acredito, a tv não foi projetada exatamente para isso, monitores vão se sair melhor para isso. Mas como eu queria o famoso custo-beneficio não tem nada melhor, adorava o meu ultrawide mas começou a cansar a falta de suporte nos jogos, e a tela do aw3418dw que já é bem inferior a oled por exemplo. No resumo da historia eu gostei do upgrade sim e não me arrependo, se aparecer uma ótima promoção talvez eu troque na de 42, ou fico na de 48 mesmo, que no geral só tenho recomendações, jogo Battlefield 2042 e call of duty de fps por exemplo e zero problemas.

Única dor de cabeça é o maldito HDR mas isso é problema do Windows acredito , tem jogo que fica uma maravilha , outros uma porcaria, ainda não aprendi como deixar redondo isso.

No quesito nova geração, tudo vai depender do preço... Na geração atual o preço de lançamento foi muito bom, e nunca voltou a patamares de lançamento, mas tudo é incerto para poder cravar, mas dificilmente vai ter esse up tão grande de desempenho, e como sabemos o msrp é pura perfumaria raramente é seguido a risca. Então é avaliar o preço lançado em dolar e o preço que as lojas vão colocar, porque se seguir a galera do ''espera mais'' você sempre vai se estrepar, aqui foram vários que na época que lançou a 3080 falaram que iriam esperar , e acabou como vocês sabem.

Então no final de tudo vai depender do preço de lançamento para avaliar a troca, se tiver dentro das condições possíveis devo pegar uma 4080 e também vai depender muito dos modelos disponíveis, msi e asus por exemplo sempre vem pouquíssimas unidades e sempre preferir pagar um pouco mais por modelos ''tops'' estou bem feliz com a msi aqui comigo, consegui configurar para 1980-1995 mhz com 0.86v e nesse frio nem está passando de 55 graus com 4k full load e raytracing ligado. Zero crash em qualquer jogo.
 
O soda de comparar a oled 48-42 com monitores ''similares'' é a diferença discrepante de preço, pagar 10k ou até mais num alienware acho totalmente fora de proporção. Já tive o aw3418dw na época do lançamento e tinha pago na época 4000 e pouco no esquema de cnpj, curti bastante ele e acabei vendendo usado depois de 3 anos com um valor ótimo ainda, ai peguei essa oled de 48, no começo foi estranho mas como tudo na vida depois você acostuma e começa achar até pequeno kkkk, mas ainda acredito que o tamanho ideal seja os 40-42 mesmo. Mas por exemplo eu paguei 4000 na época nessa de 48 polegadas, e ainda peguei 1 ano de garantia estendida grátis, no br você não encontra nada próximo de qualidade-preço dessa oled. Como falei a questão de usar no windows/trabalho/internet é principalmente pela nitidez acredito, a tv não foi projetada exatamente para isso, monitores vão se sair melhor para isso. Mas como eu queria o famoso custo-beneficio não tem nada melhor, adorava o meu ultrawide mas começou a cansar a falta de suporte nos jogos, e a tela do aw3418dw que já é bem inferior a oled por exemplo. No resumo da historia eu gostei do upgrade sim e não me arrependo, se aparecer uma ótima promoção talvez eu troque na de 42, ou fico na de 48 mesmo, que no geral só tenho recomendações, jogo Battlefield 2042 e call of duty de fps por exemplo e zero problemas.

Única dor de cabeça é o maldito HDR mas isso é problema do Windows acredito , tem jogo que fica uma maravilha , outros uma porcaria, ainda não aprendi como deixar redondo isso.

No quesito nova geração, tudo vai depender do preço... Na geração atual o preço de lançamento foi muito bom, e nunca voltou a patamares de lançamento, mas tudo é incerto para poder cravar, mas dificilmente vai ter esse up tão grande de desempenho, e como sabemos o msrp é pura perfumaria raramente é seguido a risca. Então é avaliar o preço lançado em dolar e o preço que as lojas vão colocar, porque se seguir a galera do ''espera mais'' você sempre vai se estrepar, aqui foram vários que na época que lançou a 3080 falaram que iriam esperar , e acabou como vocês sabem.

Então no final de tudo vai depender do preço de lançamento para avaliar a troca, se tiver dentro das condições possíveis devo pegar uma 4080 e também vai depender muito dos modelos disponíveis, msi e asus por exemplo sempre vem pouquíssimas unidades e sempre preferir pagar um pouco mais por modelos ''tops'' estou bem feliz com a msi aqui comigo, consegui configurar para 1980-1995 mhz com 0.86v e nesse frio nem está passando de 55 graus com 4k full load e raytracing ligado. Zero crash em qualquer jogo.
Comprou sua 3080 recentemente?
 
980Ti (GM200) pra 1080Ti (GP102) é praticamente 2x independente da resolução, na época que saiu não era nas mais baixas por falta de hardware pra empurrar, na review da 3090ti fica bem claro:

--- Post duplo é unido automaticamente: ---


Power limit dela é travado em 200W que é a spec padrão da nvidia:


Ou seja vai ter menos folga pra boostar/subir em oc mas continua sendo uma 3060Ti como qualquer outra.
Toda GPU da nvidia tem o mesmo limite de voltagem independente da marca e modelo.

Entendi. A parte de overclock eu nem ligo muito. Acredito que na prática seja algo que vai me dar uns 5% de ganho o que pra mim é algo desprezível. Eu só fiquei com receio de ter alguma diferença mais considerável em relação a outras 3060 Ti.
Farei uns testes obviamente, mas acho que no fim irei manter a compra.

Com um pouquinho de downvolt ela vai voar, eu tenho uma 3070 com apenas 1x8pin e Power Limit padrão e ela pega 2000MHz fixos com 0.95V. Só cai um pouquinho com RT ativado, mas é um OC excelente na minha opinião.

Nunca parei pra mexer nisso de downvolt e usar isso em jogos. No máximo fiz isso na GPU de uma 6600 XT que tive quando deixava ela minerando só mesmo pra consumir menos energia já que só as memórias eram exigidas na mineração. Mas farei uns testes com essa 3060 Ti.
 
Entendi. A parte de overclock eu nem ligo muito. Acredito que na prática seja algo que vai me dar uns 5% de ganho o que pra mim é algo desprezível. Eu só fiquei com receio de ter alguma diferença mais considerável em relação a outras 3060 Ti.
Farei uns testes obviamente, mas acho que no fim irei manter a compra.



Nunca parei pra mexer nisso de downvolt e usar isso em jogos. No máximo fiz isso na GPU de uma 6600 XT que tive quando deixava ela minerando só mesmo pra consumir menos energia já que só as memórias eram exigidas na mineração. Mas farei uns testes com essa 3060 Ti.
Todas placas da serie 30 (e das anteriores também) tem margem pra undervolt, mesmo as com power limits absurdos vide 3090Ti ficam limitadas pelo power limit antes mesmo de chegar na voltagem máxima stock, se vc visa a performance stock/um pouco acima de stock o undervolt/curva custom ainda vale a pena, vai consumir menos e ter a performance igual/levemente superior.
 
Pessoal, boa tarde!

Tô fechando negócio em uma Palit 3070 gaming pro, o que me dizem sobre esse modelo e da marca?
 
Pessoal, boa tarde!

Tô fechando negócio em uma Palit 3070 gaming pro, o que me dizem sobre esse modelo e da marca?
É uma placa básica, com um cooler acima da média. Qualidade boa, Palit faz parte do maior grupo de produtores de VGA no mundo, junto à Gainward, GALAX, KFA2 e outras.
Quanto de garantia?
 
Pessoal, boa tarde!

Tô fechando negócio em uma Palit 3070 gaming pro, o que me dizem sobre esse modelo e da marca?
To usando uma aqui comprada na terabyte, 2 anos de garantia.
Não tem como abri-la pois tem o lacre de segurança
Então não tem como fazer manutenção além de jogar um pequeno jato de ar.

Placa bem fria, mal pega 65 graus aqui com 1950 no core
 
To usando uma aqui comprada na terabyte, 2 anos de garantia.
Não tem como abri-la pois tem o lacre de segurança
Então não tem como fazer manutenção além de jogar um pequeno jato de ar.

Placa bem fria, mal pega 65 graus aqui com 1950 no core

Qual manutenção você se refere? Abrir uma placa com menos de 2 anos de uso não faria o menor sentido, exceto se o produto apresenta algum problema crônico de temperatura por causa de pasta ou pad vagabundo.
 
Qual manutenção você se refere? Abrir uma placa com menos de 2 anos de uso não faria o menor sentido, exceto se o produto apresenta algum problema crônico de temperatura por causa de pasta ou pad vagabundo.
Limpeza a fundo, o heatsink e as aletas dos coolers
Pasta é consequência da limpeza

Mas é isso, no mais a placa é muito boa
 
Qual manutenção você se refere? Abrir uma placa com menos de 2 anos de uso não faria o menor sentido, exceto se o produto apresenta algum problema crônico de temperatura por causa de pasta ou pad vagabundo.
Todas as placas vem com pads vagabundos :true:
 
É uma placa básica, com um cooler acima da média. Qualidade boa, Palit faz parte do maior grupo de produtores de VGA no mundo, junto à Gainward, GALAX, KFA2 e outras.
Quanto de garantia?
2 anos de garantia, bom saber que tem qualidade a marca!
--- Post duplo é unido automaticamente: ---

To usando uma aqui comprada na terabyte, 2 anos de garantia.
Não tem como abri-la pois tem o lacre de segurança
Então não tem como fazer manutenção além de jogar um pequeno jato de ar.

Placa bem fria, mal pega 65 graus aqui com 1950 no core
O que achou da construção dela? Os fans são silenciosos?
 
2 anos de garantia, bom saber que tem qualidade a marca!
--- Post duplo é unido automaticamente: ---


O que achou da construção dela? Os fans são silenciosos?
Super silenciosos, eu botei somente 50% até 60 graus e ainda é bem baixo
Único mal é não conseguir controlar os Leds sem instalar o software deles
 
Super silenciosos, eu botei somente 50% até 60 graus e ainda é bem baixo
Único mal é não conseguir controlar os Leds sem instalar o software deles
Vou fechar nela então, vou passar minha 2070 pra um amigo por 2700, a 3070 tá por 4880 na loja onde vou pegar.
 
Manda o link, vou passar para um amigo
Tem 2 anos mesmo com a loja?
 
O soda de comparar a oled 48-42 com monitores ''similares'' é a diferença discrepante de preço, pagar 10k ou até mais num alienware acho totalmente fora de proporção. Já tive o aw3418dw na época do lançamento e tinha pago na época 4000 e pouco no esquema de cnpj, curti bastante ele e acabei vendendo usado depois de 3 anos com um valor ótimo ainda, ai peguei essa oled de 48, no começo foi estranho mas como tudo na vida depois você acostuma e começa achar até pequeno kkkk, mas ainda acredito que o tamanho ideal seja os 40-42 mesmo. Mas por exemplo eu paguei 4000 na época nessa de 48 polegadas, e ainda peguei 1 ano de garantia estendida grátis, no br você não encontra nada próximo de qualidade-preço dessa oled. Como falei a questão de usar no windows/trabalho/internet é principalmente pela nitidez acredito, a tv não foi projetada exatamente para isso, monitores vão se sair melhor para isso. Mas como eu queria o famoso custo-beneficio não tem nada melhor, adorava o meu ultrawide mas começou a cansar a falta de suporte nos jogos, e a tela do aw3418dw que já é bem inferior a oled por exemplo. No resumo da historia eu gostei do upgrade sim e não me arrependo, se aparecer uma ótima promoção talvez eu troque na de 42, ou fico na de 48 mesmo, que no geral só tenho recomendações, jogo Battlefield 2042 e call of duty de fps por exemplo e zero problemas.

Única dor de cabeça é o maldito HDR mas isso é problema do Windows acredito , tem jogo que fica uma maravilha , outros uma porcaria, ainda não aprendi como deixar redondo isso.

No quesito nova geração, tudo vai depender do preço... Na geração atual o preço de lançamento foi muito bom, e nunca voltou a patamares de lançamento, mas tudo é incerto para poder cravar, mas dificilmente vai ter esse up tão grande de desempenho, e como sabemos o msrp é pura perfumaria raramente é seguido a risca. Então é avaliar o preço lançado em dolar e o preço que as lojas vão colocar, porque se seguir a galera do ''espera mais'' você sempre vai se estrepar, aqui foram vários que na época que lançou a 3080 falaram que iriam esperar , e acabou como vocês sabem.

Então no final de tudo vai depender do preço de lançamento para avaliar a troca, se tiver dentro das condições possíveis devo pegar uma 4080 e também vai depender muito dos modelos disponíveis, msi e asus por exemplo sempre vem pouquíssimas unidades e sempre preferir pagar um pouco mais por modelos ''tops'' estou bem feliz com a msi aqui comigo, consegui configurar para 1980-1995 mhz com 0.86v e nesse frio nem está passando de 55 graus com 4k full load e raytracing ligado. Zero crash em qualquer jogo.
Mas qual a distância que vc usa sua tv?
Eu acho que menos de 80cm já é muito perto e isso deve incomodar para jogar fps.
 
O soda de comparar a oled 48-42 com monitores ''similares'' é a diferença discrepante de preço, pagar 10k ou até mais num alienware acho totalmente fora de proporção. Já tive o aw3418dw na época do lançamento e tinha pago na época 4000 e pouco no esquema de cnpj, curti bastante ele e acabei vendendo usado depois de 3 anos com um valor ótimo ainda, ai peguei essa oled de 48, no começo foi estranho mas como tudo na vida depois você acostuma e começa achar até pequeno kkkk, mas ainda acredito que o tamanho ideal seja os 40-42 mesmo. Mas por exemplo eu paguei 4000 na época nessa de 48 polegadas, e ainda peguei 1 ano de garantia estendida grátis, no br você não encontra nada próximo de qualidade-preço dessa oled. Como falei a questão de usar no windows/trabalho/internet é principalmente pela nitidez acredito, a tv não foi projetada exatamente para isso, monitores vão se sair melhor para isso. Mas como eu queria o famoso custo-beneficio não tem nada melhor, adorava o meu ultrawide mas começou a cansar a falta de suporte nos jogos, e a tela do aw3418dw que já é bem inferior a oled por exemplo. No resumo da historia eu gostei do upgrade sim e não me arrependo, se aparecer uma ótima promoção talvez eu troque na de 42, ou fico na de 48 mesmo, que no geral só tenho recomendações, jogo Battlefield 2042 e call of duty de fps por exemplo e zero problemas.

Única dor de cabeça é o maldito HDR mas isso é problema do Windows acredito , tem jogo que fica uma maravilha , outros uma porcaria, ainda não aprendi como deixar redondo isso.

No quesito nova geração, tudo vai depender do preço... Na geração atual o preço de lançamento foi muito bom, e nunca voltou a patamares de lançamento, mas tudo é incerto para poder cravar, mas dificilmente vai ter esse up tão grande de desempenho, e como sabemos o msrp é pura perfumaria raramente é seguido a risca. Então é avaliar o preço lançado em dolar e o preço que as lojas vão colocar, porque se seguir a galera do ''espera mais'' você sempre vai se estrepar, aqui foram vários que na época que lançou a 3080 falaram que iriam esperar , e acabou como vocês sabem.

Então no final de tudo vai depender do preço de lançamento para avaliar a troca, se tiver dentro das condições possíveis devo pegar uma 4080 e também vai depender muito dos modelos disponíveis, msi e asus por exemplo sempre vem pouquíssimas unidades e sempre preferir pagar um pouco mais por modelos ''tops'' estou bem feliz com a msi aqui comigo, consegui configurar para 1980-1995 mhz com 0.86v e nesse frio nem está passando de 55 graus com 4k full load e raytracing ligado. Zero crash em qualquer jogo.
Isso do HDR sao dois fatores:
1 - Windows 10 é meio ruim pra isso, o 11 caminha pra melhorar bem nesse sentido.
2 - muito jogo (principalmente no PC) são HDR fake, eles comvertem SDR pra HDR, aí fica ruim, Cyberpunk é um exemplo. O canal HDTV no yt fala bastante disso (tem vídeo sobre HDR do CP).
 

Users who are viewing this thread

Voltar
Topo