[TÓPICO DEDICADO] NVIDIA GeForce RTX 4XXX

  • Iniciador de Tópicos Iniciador de Tópicos neo666
  • Data de Início Data de Início
Pelos rumores, o RDNA 4 só irá parecer nas rx 9070 pra cima.
Acho que era pra não passar vegonha.
Pelo menos a apresentação serviu pra surrar gato morto(Intel) :coolface:
 
Pelos rumores, o RDNA 4 só irá parecer nas rx 9070 pra cima.
Acho que era pra não passar vegonha.

Os rumores era de que seriam placas medianas, para competir com 4070/5070. Com preço baixo e apresentando o FSR 4 com tecnologia similar ao DLSS e melhor desempenho em Ray Tracing, acho que muita gente iria gostar.

Então na apresentação de agora, mencionaram brevemente sua existência e disseram que iriam falar mais em outro momento ainda nesse trimestre. O resto foi AI, AI, AI, AI.
 
Os rumores era de que seriam placas medianas, para competir com 4070/5070. Com preço baixo e apresentando o FSR 4 com tecnologia similar ao DLSS e melhor desempenho em Ray Tracing, acho que muita gente iria gostar.

Então na apresentação de agora, mencionaram brevemente sua existência e disseram que iriam falar mais em outro momento ainda nesse trimestre. O resto foi AI, AI, AI, AI.
AMD não decepciona na decepção.
conseguiu se superar hoje.
:limo:
 
Mas não teria de ter sido o mesmo para a 5080 por exemplo?
A RTX 5090 de laptop usa o mesmo chip da 5080.
Sim, provavelmente a 5080 é o chip da 5070Ti de Desktop

Desktop:
5090 - 32GB
5080 - 16GB
5070Ti - 16GB
5070 - 12GB

Laptop:
5090 - 24GB (deve ser ou a 5090 capada ou a 5080 com chips de 3GB GDDR7)
5080 - 16GB (chip da 5070Ti)
5070Ti - 12GB (chip da 5070)
A 5090 de laptop já disseram usar o GB203, então é a 5080 nessa config que vc falou. Provavelmente isso vai aparecer como 5080 Super pra desktop depois kkkkkkk
Fato, tendência é Laptop mais finos com ótimo automação de bateria sem sacrificar muito a performance em jogos, estou curioso para ver os modelos da Asus mais especificamente o Zephyrus.
Dá Asus eu fiquei tentado nos modelos de 14" sem dGPU deles. Como prefiro laptops com bateria grande e que sejam leves, evito qualquer modelos desses gamers, só dão dor de cabeça.
Nvidia realmente não tem concorrência. AMD não falou das RDNA 4 na CES, mesmo com tantos rumores em cima.

761soy.jpg
vou aproveitar pra ver as coisas da CES jaja (curioso pra ver a parte do strix halo), mas ouvi falar que evitaram falar das RDNA4 pra anunciar só depois que a nvidia fizesse o anúncio deles.
Ou seja, vão precificar os produtos baseados no que a nvidia fizer, consumidor final tá lascado kkkkkrying
 
Pelo menos a apresentação serviu pra surrar gato morto(Intel) :coolface:
Você vai sorrir quando AMD colocar o preço de um processador tipo 9800x3d por 800 dólares :limo:
 
vou aproveitar pra ver as coisas da CES jaja (curioso pra ver a parte do strix halo), mas ouvi falar que evitaram falar das RDNA4 pra anunciar só depois que a nvidia fizesse o anúncio deles.
Ou seja, vão precificar os produtos baseados no que a nvidia fizer, consumidor final tá lascado kkkkkrying

Falaram do Strix Halo batendo uma 4090 em inferência. :thinking:

GgohU-TasAEVuRN
 
Dá Asus eu fiquei tentado nos modelos de 14" sem dGPU deles. Como prefiro laptops com bateria grande e que sejam leves, evito qualquer modelos desses gamers, só dão dor de cabeça.
Sem dGPU a bateria dura bem mais, eu tenho o Zephyrus aqui com peso de 2.0Kg e rodo a maioria dos jogos em QHD + filtros sem problema fora que a tela dele é fantástica e com ajustes fino eu consigo quase 8hs fora da tomada.
 
Achei bem fraca essa apresentação da AMD. Mais uma vez uma VGA mediana. Mais tarde veremos o jaqueta preta. Vai colocar só a cabecinha. :scare:
 
Achei bem fraca essa apresentação da AMD. Mais uma vez uma VGA mediana. Mais tarde veremos o jaqueta preta. Vai colocar só a cabecinha. :scare:
e sem KY :clo:
 
Falaram do Strix Halo batendo uma 4090 em inferência. :thinking:

GgohU-TasAEVuRN
Terminei de ver agr a apresentação, que bosta de apresentação.
E claro que bate, um modelo de 70B em Q4 precisa de mais de 35GB de memória, a coitada da 4090 só tem 24GB e vai precisar fazer offload pra CPU kkkkkkkkkk
No vídeo ele fala que alocou 96GB de memória pra iGPU do strix halo pra esse modelo.

Vou deixar pra comentar o resto no tópico das AM5 mesmo.
 
Igual quando uma placa da nvidia da série xxx80 custava 800 dólares
Infelizmente a AMD já se tornou a Nvidia dos processadores, na gringa vc só encontra 7800X3D por $475 e o 9800X3D por mais de $600 pois a AMD esta liberando esses processadores a conta gotas(Tia Lisa seguindo a estratégia do tio Jensen), assim pouco importa se o msrp da 5090 for $1.5k~$2k, pela baixa oferta ela vai para os $3k.
 
Última edição:
Peço desculpas se eu falar uma besteira, mas a cada geração estou vendo essas placas terem um gasto excessivo de energia elétrica, podem até falar quem compra as placas mais top, não vai preocupar com isso, mas percebo que a cada ano, as placas, todas elas estão aumentando tanto neste quesito, e quero saber, por que?
Melhoria real, sem ser algo cosmético, que você percebe que os jogos estão sendo prejudicados real só pra justificar upgrade, que justifique trocar placa a cada geração não estou vendo, mas beber, essas placas estão bebendo muito, daqui a pouco, até quem tem painel solar, vai chiar.

Eu não jogo multiplayer, então não sou tão exigente naquela coisa de 4K, e etc.
 
Peço desculpas se eu falar uma besteira, mas a cada geração estou vendo essas placas terem um gasto excessivo de energia elétrica, podem até falar quem compra as placas mais top, não vai preocupar com isso, mas percebo que a cada ano, as placas, todas elas estão aumentando tanto neste quesito, e quero saber, por que?
Melhoria real, sem ser algo cosmético, que você percebe que os jogos estão sendo prejudicados real só pra justificar upgrade, que justifique trocar placa a cada geração não estou vendo, mas beber, essas placas estão bebendo muito, daqui a pouco, até quem tem painel solar, vai chiar.

Eu não jogo multiplayer, então não sou tão exigente naquela coisa de 4K, e etc.
As placas estão consumindo mais sim, sem dúvidas. Por outro lado, a eficiência energética delas também tem melhorado bastante. Se vc pegar uma placa antiga e uma nova, e configurar a nova no mesmo TDP da antiga, a nova ainda sim vai ter uma vantagem de desempenho.
A questão é que o público só tá exigindo mais e mais performance a todo custo. Vide os Arrow Lake da Intel que tiveram um ganho significativo de eficiência, mas ninguém ligou pq o ganho de desempenho foi pífio. Idem pros Ryzen 9000 quando foram lançados.
 
Peço desculpas se eu falar uma besteira, mas a cada geração estou vendo essas placas terem um gasto excessivo de energia elétrica, podem até falar quem compra as placas mais top, não vai preocupar com isso, mas percebo que a cada ano, as placas, todas elas estão aumentando tanto neste quesito, e quero saber, por que?
Melhoria real, sem ser algo cosmético, que você percebe que os jogos estão sendo prejudicados real só pra justificar upgrade, que justifique trocar placa a cada geração não estou vendo, mas beber, essas placas estão bebendo muito, daqui a pouco, até quem tem painel solar, vai chiar.

Eu não jogo multiplayer, então não sou tão exigente naquela coisa de 4K, e etc.
O porquê teórico acho que é simples, não temos mais tanta redução de litografia quanto há anos atrás. Saltos de redução de 10 ou mais nanômetros de uma vez, de 28nm para 14nm como da Maxwell (GTX 900) para Pascal (GTX 1000). Fora que além de aumentar as shader units, texture mapping units e outros que compõe uma GPU tradicional, agora tem que aumentar os tensor cores e os ray-tracing cores para o machine-learning e aceleradores de ray-tracing, optical flow e etc. Para ter um salto verdadeiro de desempenho, tem que levar no limite esses chips. Uma coisa que me impressionou muito nas gerações mais recentes é o quanto eles aumentaram a frequência do núcleo em uma única geração. A 3080 ficava aí na faixa de uns 2000MHz, enquanto a 4090 chega a bizonhos 2800MHz e os rumores indicam que a 5090 ficará na faixa dos 3500MHz.

Sobre o custo da energia, acho que não é um ponto relevante para a maioria dos compradores. Fazendo umas contas de padeiro, se realmente for 125W a mais que a 4090 e vc usar 200h por mês (em full-load) dá 25kWh a mais por mês. 200h por mês é quase 7h/dia (isso em full-load), que é muito mais que eu uso minha placa por mês, com toda certeza. Ao longo do ciclo da placa, pensando em +- 30 meses até o próximo lançamento, seria uns R$ 1500 a mais do que com a 4090 a R$2 o kWh (caríssimo), ou seja, se a gente trocar os números exagerados por uns mais realistas de kWh, consumo da GPU e de horas de jogo vai dar uns R$ 500 a mais que a 4090 em 2 anos e meio, ou 16 reais por mês.

E sobre a questão gráfica, hoje em dia essa discussão que eu não entro. As novas tecnologias dificultaram muito uma conversa séria sobre o assunto. Mas colocando em perspectiva alguns dos lançamentos recentes: é impressionante como uma 4090 sofre para entregar ~120fps (reais) em 1440p nativo. E muitos desses jogos que atingem essa performance ruim são UE5, com aquele TAA horroroso que depende de mods para manter uma boa qualidade e com o software lumen porco, que demora 5s para a luz estabilizar quando vc entra em um ambiente, fica cheio de shimmering mesmo na resolução nativa e se o reflexo não tá no screen-space a qualidade fica um lixo. Se ligar ray-tracing via hardware então, esquece 1440p, é DLSS Quality no mínimo e aí usar upscaling deixa a imagem cheia de artefato, ghosting nos elementos em movimento e mais shimmer em locais mal iluminados.

No fim das contas, se precisa desse gasto energético para trazer um bom nível de desempenho na qualidade nativa, que gaste o dobro.
 
Peço desculpas se eu falar uma besteira, mas a cada geração estou vendo essas placas terem um gasto excessivo de energia elétrica, podem até falar quem compra as placas mais top, não vai preocupar com isso, mas percebo que a cada ano, as placas, todas elas estão aumentando tanto neste quesito, e quero saber, por que?
Melhoria real, sem ser algo cosmético, que você percebe que os jogos estão sendo prejudicados real só pra justificar upgrade, que justifique trocar placa a cada geração não estou vendo, mas beber, essas placas estão bebendo muito, daqui a pouco, até quem tem painel solar, vai chiar.

Eu não jogo multiplayer, então não sou tão exigente naquela coisa de 4K, e etc.
Com undervolt tem uma puta melhora e é super simples e rápido, dá pra manter o desempenho stock com uns 10-15% menos consumo e se sacrificar lá uns 5% de desempenho deve conseguir reduzir na faixa de 30-40% de consumo então ao meu ver nem é um baita problema

Tem quem vá dizer "ain você reduziu 40% o consumo mas perdeu 5% de performance então já era, capou a placa e matou ela" e blabla, mas se elas fossem lançadas dessa forma (com undervolt/TDP significativamente mais baixo) duvido que teria muita gente interessada em fazer OC e aumentar o consumo (que também é aquecimento e ruído) em 40% pra ganhar 5% de desempenho, pro marketing o que interessa mais é falar que ela faz 105fps ao invés de 100fps porque número maior = melhor, galera deixa o consumo meio que de lado, mas como disse ali dá pra ter uma melhora MUITO boa de maneira simples e rápida, exemplo rápido da minha 4080 que fiz assim que recebi ela, levei menos de 1 minuto pra fazer esses ajustes MSI Afterburner
Stock
2790mhz, 300w~, 56c e 101fps nessa cena

zTSKPoO.jpg



1000mv/2805mhz +1200 vram
2805mhz, 260w~, 53c e 105fps nessa cena

6SWRUQC.jpg


950mv/2700mhz +1200 vram
2700mhz, 230w~, 51c e 101fps nessa cena. Desempenho stock com -70w ou 23% de redução de consumo e -5c)

ApYHCRB.jpg

E também tem o que citaram acima, pra quem compra uma GPU de 5k/10k/15k e além e não joga 18h por dia, o custo extra acaba nem sendo tão perceptível assim, só se a pessoa saiu de uma GPU de 100w pra uma de 400w e joga muito todo dia, aí talvez veja uma diferença na conta de luz mas que não vai quebrar ninguém que tem $ pra pegar uma GPU dessas também
 
Carioca consegue ser uma desgraça até em fórum de tecnologia.
Sai fora carioca, sou do RS.
--- Post duplo é unido automaticamente: ---

Cerca de 1 hora e meia pra começar :D
 
Última edição:
Alguém tem um link, em inglês mesmo, da apresentação da Nvidia por favor?
 

Users who are viewing this thread

Voltar
Topo