Custo benefício fora a performance com drivers novos , vai ser a queridinha pra quem não puder gastar muito!A ti n ta mais legal n? Na sua opinião pq a 5070? Só o preço?
Custo benefício fora a performance com drivers novos , vai ser a queridinha pra quem não puder gastar muito!A ti n ta mais legal n? Na sua opinião pq a 5070? Só o preço?
Cara, essas tecnologias beneficiam todos menos os consumidores. Acho muito justo desconfiar da real aplicabilidade dessas tecnologias pensando que elas vem notoriamente com alguns negativos.Caso a parte? Já tem um tempinho (Mais de ano) que todo lançamento relevante (Jogos populares) tem DLSS, o FG é mais recente, coisa de um ano, mais está aí constante também...
Não me lembro a última vez que joguei um jogo sem isso... e olha que tinha uma 4090, boa força bruta hein, mas se não é pra usar o DLSS, pé pra usar DLAA, se tive o FG, pra usar ele.
Honestamente? É um padrão sim, tão padrão que a AMD está correndo atrás, Intel também... Inevitável.
Aliás, em nenhum momento ignorei o bruto, inclusive estou sempre ressaltando em vários post (Te desafio a achar um post meu que coloco tecnologia como a única coisa que importa e falo mal do bruto), o que não estou fazendo e acho errado: ignorar a parte tecnológica que é relevante desde a série RTX 2000 e fingir que isso não existe, como bem falaram.
Aliás, to esperando ver um lançamento de jogo AAA sem DLSS, Ops... não tem né?
Do lançamento das RTX 4000 pra cá... praticamente os jogos mais populares tem o FG.
Acho assim: Não quer comprar, beleza - cada um faz o que quer. Agora fingir que não tem relevância, pra mim é tentar se auto enganar sozinho, só lamento.
AMD fez isso também... ignorou a relevância do DLSS quando surgiu e agora está com extrema dificuldade de seguir atrás da Nvidia, só ladeira abaixo.
Claro, tem muitas criticas que concordo em relação a Nvidia e IA em jogos, mas o mercado adotou, não há o que ser feito(Teria que ter concorrência demonstrando que tem outro caminho...).
A placa não consegue rodar cyberpunk a 30 fps sem fake frames e reflex pra você não jogar com um delay horrivel.
Jesus.
Concordo 100%.Caso a parte? Já tem um tempinho (Mais de ano) que todo lançamento relevante (Jogos populares) tem DLSS, o FG é mais recente, coisa de um ano, mais está aí constante também...
Não me lembro a última vez que joguei um jogo sem isso... e olha que tinha uma 4090, boa força bruta hein, mas se não é pra usar o DLSS, é pra usar DLAA, se tive o FG, pra usar ele.
Honestamente? É um padrão sim, tão padrão que a AMD está correndo atrás, Intel também... Inevitável.
Dói tanto assumir isso?
Aliás, em nenhum momento ignorei o bruto, inclusive estou sempre ressaltando em vários post (Te desafio a achar um post meu que coloco tecnologia como a única coisa que importa e falo mal do bruto), o que não estou fazendo e acho errado: ignorar a parte tecnológica que é relevante desde a série RTX 2000 e fingir que isso não existe, como bem falaram.
Aliás, to esperando ver um lançamento de jogo AAA sem DLSS, Ops... não tem né?
Do lançamento das RTX 4000 pra cá... praticamente os jogos mais populares tem o FG.
Acho assim: Não quer comprar, beleza - cada um faz o que quer. Agora fingir que não tem relevância, pra mim é tentar se auto enganar sozinho, só lamento.
AMD fez isso também... ignorou a relevância do DLSS quando surgiu e agora está com extrema dificuldade de seguir atrás da Nvidia, só ladeira abaixo.
Claro, tem muitas criticas que concordo em relação a Nvidia e IA em jogos, mas o mercado adotou, não há o que ser feito (Teria que ter concorrência demonstrando que tem outro caminho...).
Cara, essas tecnologias beneficiam todos menos os consumidores. Acho muito justo desconfiar da real aplicabilidade dessas tecnologias pensando que elas vem notoriamente com alguns negativos.
A NVIDIA ganha embarcando um 2x, 4x, 8x... por geração e os devs não precisam mais cuidar de otimizar os jogos pra uma gama maior de placas, já que todas embarcam essas tecnologias
Se o periférico em questão for compatível com a razer Sim.Eu tenho periferico da Razer, daria pra dar sync lá?
A depender da distância que c tá jogando nessa TV não dá pra ver nem a diferença entre QHD e 4k hahaConcordo 100%.
IA é um força imparavel.
Nos jogos, na vida.
Eu tenho monitor e TV OLED, tinha 4090 e usava em tudo o DLSS, frame é SEMPRE bem vindo.
E eu nunca fiquei incomodado com o DLSS ou FG.
Eu só não ligo em jogo competitivo online, tenho que fingir que minha ruindade vem dos 10ms de latência a mais.
A performance não deve mudar, afinal a resolução de renderização permanece e o restante é post processing. O que pode acontecer é que a série nova se beneficie mais no RT e upscaling devido ao maior poder de processamento dos cores.Sim, eu sei. O que quis dizer é que não dá pra falar como vai se comportar enquanto não chegar rsrs
Caso a parte? Já tem um tempinho (Mais de ano) que todo lançamento relevante (Jogos populares) tem DLSS, o FG é mais recente, coisa de um ano, mais está aí constante também...
Não me lembro a última vez que joguei um jogo sem isso... e olha que tinha uma 4090, boa força bruta hein, mas se não é pra usar o DLSS, é pra usar DLAA, se tive o FG, pra usar ele.
Honestamente? É um padrão sim, tão padrão que a AMD está correndo atrás, Intel também... Inevitável.
Dói tanto assumir isso?
Aliás, em nenhum momento ignorei o bruto, inclusive estou sempre ressaltando em vários post (Te desafio a achar um post meu que coloco tecnologia como a única coisa que importa e falo mal do bruto), o que não estou fazendo e acho errado: ignorar a parte tecnológica que é relevante desde a série RTX 2000 e fingir que isso não existe, como bem falaram.
Aliás, to esperando ver um lançamento de jogo AAA sem DLSS, Ops... não tem né?
Do lançamento das RTX 4000 pra cá... praticamente os jogos mais populares tem o FG.
Acho assim: Não quer comprar, beleza - cada um faz o que quer. Agora fingir que não tem relevância, pra mim é tentar se auto enganar sozinho, só lamento.
AMD fez isso também... ignorou a relevância do DLSS quando surgiu e agora está com extrema dificuldade de seguir atrás da Nvidia, só ladeira abaixo.
Claro, tem muitas criticas que concordo em relação a Nvidia e IA em jogos, mas o mercado adotou, não há o que ser feito (Teria que ter concorrência demonstrando que tem outro caminho...).
A placa não consegue rodar cyberpunk a 30 fps sem fake frames e reflex pra você não jogar com um delay horrivel.
Jesus.
O que incomoda dessa mudança é que a NVIDIA nem mostra mais performance relativa em um cenário de paridade e vende tudo como se fosse equivalente. Frame-gen é bacana, tem um custo pequeno em latência e melhora significativamente a fluidez, especialmente em jogos limitados pelo CPU e a altas taxas de quadros, mas não é a mesma coisa 100 fps com frame-gen de 100 fps sem frame-gen, quanto mais 100 fps com frame-gen comparado a 100 fps com MULTI FRAME GEN X4. E no caso do X3? Por que sequer existe o X3 se o X4 não acrescenta quase nada de latência e não tem mais artefatos?Caso a parte? Já tem um tempinho (Mais de ano) que todo lançamento relevante (Jogos populares) tem DLSS, o FG é mais recente, coisa de um ano, mais está aí constante também...
Não me lembro a última vez que joguei um jogo sem isso... e olha que tinha uma 4090, boa força bruta hein, mas se não é pra usar o DLSS, é pra usar DLAA, se tive o FG, pra usar ele.
Honestamente? É um padrão sim, tão padrão que a AMD está correndo atrás, Intel também... Inevitável.
Dói tanto assumir isso?
Aliás, em nenhum momento ignorei o bruto, inclusive estou sempre ressaltando em vários post (Te desafio a achar um post meu que coloco tecnologia como a única coisa que importa e falo mal do bruto), o que não estou fazendo e acho errado: ignorar a parte tecnológica que é relevante desde a série RTX 2000 e fingir que isso não existe, como bem falaram.
Aliás, to esperando ver um lançamento de jogo AAA sem DLSS, Ops... não tem né?
Do lançamento das RTX 4000 pra cá... praticamente os jogos mais populares tem o FG.
Acho assim: Não quer comprar, beleza - cada um faz o que quer. Agora fingir que não tem relevância, pra mim é tentar se auto enganar sozinho, só lamento.
AMD fez isso também... ignorou a relevância do DLSS quando surgiu e agora está com extrema dificuldade de seguir atrás da Nvidia, só ladeira abaixo.
Claro, tem muitas criticas que concordo em relação a Nvidia e IA em jogos, mas o mercado adotou, não há o que ser feito (Teria que ter concorrência demonstrando que tem outro caminho...).
Ta cuco tb? pior CxB da gen eh a 5080 seguida pela 5070. Nao tem como achar ela a melhorCusto benefício fora a performance com drivers novos , vai ser a queridinha pra quem não puder gastar muito!
Vamos ver na prática com os primeiros testes iniciais.Ta cuco tb? pior CxB da gen eh a 5080 seguida pela 5070. Nao tem como achar ela a melhor
so salva a 5090 e 5070ti que pelo menos n mendigam Vram na resolução delas.
Tava escrevendo um textao tbm mas você já disse a ideia. Eu acho bizarro ela vir e apresentar algo comparativos sem contar as 4 das 5 novas features que a geração passada também vai receber.O que incomoda dessa mudança é que a NVIDIA nem mostra mais performance relativa em um cenário de paridade e vende tudo como se fosse equivalente. Frame-gen é bacana, tem um custo pequeno em latência e melhora significativamente a fluidez, especialmente em jogos limitados pelo CPU e a altas taxas de quadros, mas não é a mesma coisa 100 fps com frame-gen de 100 fps sem frame-gen, quanto mais 100 fps com frame-gen comparado a 100 fps com MULTI FRAME GEN X4. E no caso do X3? Por que sequer existe o X3 se o X4 não acrescenta quase nada de latência e não tem mais artefatos?
Aí ela põe no gráfico sem escala que é a RTX 5090 usando DLSS4 vs RTX 4090 usando DLSS 3, mas DLSS 4 abrange 37 tecnologias e DLSS 3 abrange outras 32. Agora ficamos nessa de fazer a conta de qual jogo suporta qual tecnologia. Vejamos, um jogo tem DLSS 4 FG mas não MFG, então dá para inferir que um jogo com FG (A) + DLSS Super Resolution (B) + Ray Tracing (C) + Raster (D) o ganho é 40%. Aí o outro jogo só tem Ray-tracing (C) e Raster (D), e o ganho é 25%. Agora substitui na equação interior, isola A+B e no fim a conclusão é... nenhuma, pq mesmo se eu resolver a equação eu não sei se o Reflex 2 Frame Warping vai mais me incomodar com artefatos do que reduzir a latência, mas foda-se, a NVIDIA só testou o DLSS4 com Reflex 2 e disse que não muda a latência, simplesmente eu que me foda. A NVIDIA quer muito convencer o público que é tudo igual, e nessa de tentar convencer ela omite um monte de informação importante.
Eu quero saber quantos % a mais a 5090 é melhor que a 4090 puramente em Rasterização. Se os jogos do futuro todos terão ray-tracing, ótimo, mas eu quero pelo menos saber o ganho que eu vou ter nos jogos que eu jogo que são puramente rasterização, simples assim. O padrão pro futuro é assim, beleza, me dói mas eu aceito isso. Só que não é unânime ao ponto de ignorar totalmente as outras variáveis tradicionais.
Isso é o Cyberpunk com Path Tracing mano, tenta pelo menos pesquisar um pouquinho as coisas.
Esse povo que fica chateado com DLSS ou outras tecnologias que usam de AI pra funcionar, desistam. Isso veio pra ficar assim como a Internet. A tendência é só piorar.
A seita
que dói menos.
o bumbum ta doendo hein amigo, quem vai jogar sem dlss me diz
Quad HD e 4K tem uma diferença absurda pra não notar uma diferença de qualidade... teria que ser uma distância enorme pra ser imperceptível.A depender da distância que c tá jogando nessa TV não dá pra ver nem a diferença entre QHD e 4k haha
Acho muita doideira gente que nega esse lado negativo da IA. É muito notavel. Tambem é notável a perda entre DLSS Qualidade pra DLSS Performance também (que é o nível que a NVIDIA testa as coisas)
Não tem essa de que OLED a diferença é menor. Tá igual o LTT no vídeo "Bom, a gente nota bem aqui o ghosting e esse texto borrado, mas é 2x mais frames yummy yummy"
Deu pra perceber kkkkFui ver quem você estava argumentando e bingo.
Tem um motivo para esse user estar block para mim, só quer causar. Adiciona zero a qualquer discussão relevante.
Inclusive ele me cita ai do nada, é muito butthurt. E olha que devo ter bloqueado ele há muito, muito tempo... tipo as mensagens nem aparecem na minha tela por estar block e o cara ainda lembra de mim haushasusa
Geração 30 para 50 o salto será enorme, vale e muito esse UP!Acho que será um bom upgrade da 3060ti pra 5070ti.
n importa os resultados brutos. 12gb de vram pra uma placa em QHD ja ta no limite, ela pode ter desempenho de 4090 que isso n vai mudar o limitante principal da placaVamos ver na prática com os primeiros testes iniciais.
Acho que sim, pra 5070 n vale a pena pela vram limitada, sair de 8 pra 12 eh pouco praticoAcho que será um bom upgrade da 3060ti pra 5070ti.
Preço de um carro no Bananil.MSI GeForce RTX 5090 "Lightning" Special Edition na CES 2025
A MSI apostou tudo na recém-lançada série de GPUs GeForce RTX 50 "Blackwell" da NVIDIA na CES 2025 — um número impressionante de modelos personalizados foi exibido no showroom. A equipe TechPowerUp examinou muitas das últimas e melhores novidades da MSI, mas também notou um conjunto intrigante de cartazes posicionados ao lado da vasta seleção de produtos físicos da empresa de tecnologia. As informações "exclusivas" em mãos apontam para dois modelos GeForce RTX 5090 em andamento — informalmente chamados de Edições Especiais "Lightning". Representantes da empresa revelaram que a equipe de engenharia está elaborando um design de PCB feito sob medida para as duas próximas placas. Esta placa supostamente apresenta diferenças suficientes para se distinguir do layout de referência da NVIDIA (como visto em sua Founder's Edition) — especialistas do setor avaliam que a maioria dos AIBs utilizará o PCB padrão GeForce RTX 5090 da Team Green.
O gráfico impresso indica que a misteriosa MSI Special Edition GeForce RTX 32G com refrigeração líquida chegará com a "solução de refrigeração a água tudo-em-um (AIO) definitiva". Uma configuração de ventoinha STORMFORCE dupla é provocada junto com canais de fluxo de ar avançados e um sistema de refrigeração líquida AIO duplo de 120 mm de última geração. Canais de água projetados sob medida são anunciados como capazes de fluir "diretamente" pela memória interna da placa. As entradas e saídas frontais duplas ajudam muito no resfriamento deste modelo Special Edition, bem como dos componentes de PC vizinhos. Os usuários podem implementar ajustes de velocidade de ventoinha personalizados independentes; presumivelmente por meio do software MSI. Será interessante ver como este modelo baseado em AIO em desenvolvimento se compara ao MSI RTX 5090 SUPRIM LIQUID SOC "de duas peças" de nível premium .
![]()
![]()
![]()
A GeForce RTX 32G "Lightning" Special Edition refrigerada a ar da MSI é provocada por ostentar uma configuração incomum de ventoinha "FiveFrozr" — três ventoinhas STORMFORCE montadas na cobertura trabalharão juntas como entradas, enquanto as duas restantes (posicionadas na placa traseira) assumem as funções de exaustão. Os engenheiros da MSI avaliam que esta configuração avançada de cinco ventoinhas foi projetada com "gerenciamento térmico excepcional" em mente — como sua irmã refrigerada a líquido, esta solução de cinco ventoinhas é considerada poderosa o suficiente para resfriar o hardware ao redor. O ajuste personalizado da velocidade da ventoinha também é oferecido aqui — algumas configurações incomuns podem ser implementadas nas cinco ventoinhas STORMFORCE.