NVIDIA GeForce RTX 3XXX

  • Iniciador de Tópicos neo666
  • Data de Início
Status
Não esta aberto para novas mensagens.
Este tópico tem um ciclo interessante: info nova sobre 30xx e ótimas discussões > insultos > bons argumentos > discussão sobre a vram > pergunta aleatória > info nova > ...

Permitam-me iniciar um novo ciclo com uma pergunta aleatória mas que até agora não encontrei resposta:

Comparando a 2080 ti com 3070 (com base em tudo que já anunciaram), existe algo em termos de hardware da 3070 que fará ela operar melhor certas coisas nos jogos? Mais específico, ela promete ser melhor em Ray tracing ou no dlss 2.0? Algo no hardware dela permite ter essa vantagem? Ou no final uma 2080 ti com um driver atualizado e um jogo otimizado tem em seu hardware o suficiente pra fazer igual uma 3070?

Não sei se fui claro na pergunta, mas é algo que ainda não ficou claro pra mim...
 
Este tópico tem um ciclo interessante: info nova sobre 30xx e ótimas discussões > insultos > bons argumentos > discussão sobre a vram > pergunta aleatória > info nova > ...

Permitam-me iniciar um novo ciclo com uma pergunta aleatória mas que até agora não encontrei resposta:

Comparando a 2080 ti com 3070 (com base em tudo que já anunciaram), existe algo em termos de hardware da 3070 que fará ela operar melhor certas coisas nos jogos? Mais específico, ela promete ser melhor em Ray tracing ou no dlss 2.0? Algo no hardware dela permite ter essa vantagem? Ou no final uma 2080 ti com um driver atualizado e um jogo otimizado tem em seu hardware o suficiente pra fazer igual uma 3070?

Não sei se fui claro na pergunta, mas é algo que ainda não ficou claro pra mim...

RTX 3070RTX 2080 Ti
GPUGA104-300TU102-300-K1-A1
InterfacePCI Express 4.0PCI Express 3.0
CUDA cores5,8884,352
Tensor cores184544
RT cores4668
Base clock1,500MHz1,350MHz
Boost clock1,725MHz1,545MHz
Memory8GB GDDR611GB GDDR6 at 14Gbps
Memory speed14Gbps14Gps
Memory interface256-bit352-bit
Bandwidth448GBps616GBps
TDP220W260W
 
:mj: :clo:
 
RTX 3070RTX 2080 Ti
GPUGA104-300TU102-300-K1-A1
InterfacePCI Express 4.0PCI Express 3.0
CUDA cores5,8884,352
Tensor cores184544
RT cores4668
Base clock1,500MHz1,350MHz
Boost clock1,725MHz1,545MHz
Memory8GB GDDR611GB GDDR6 at 14Gbps
Memory speed14Gbps14Gps
Memory interface256-bit352-bit
Bandwidth448GBps616GBps
TDP220W260W


A forma de contar cuda cores não parece ser mais a mesma entre Turing e Ampere. Para responder a perguntra do colega acima, só esperando os reviews pra ver mesmo.

Uma analise que achei no videocardz que parece ter sentido.

"Clear some thoughts on Ampere's CUDA cores:

Ampere's SM is the same as Turing's, with two major changes (excluding cache upgrades): Improved Triangle intersection performance on RT Fixed function units, and the Integer math pipelines are now capable of Floating Point math, too. The actual number of pipelines in each SM remains the same, at 128. By nvidia's own numbers, for every 100 instructions, around 60 are Float and 40 are Integer (probably BEST case for Integer). This already speaks volumes about the "doubled CUDA core" on Ampere. In reality, the shader performance of an Ampere SM is only (peak) 2X higher in Float 32 than Turing, around 60-70% of the instructions used. The Integer throughput remains the same (per SM).

RTX 3080 has 8704 "advertised CUDA cores". In reality, it has 4352 pipelines capable of Floating point math, and 4352 pipelines capable of either Integer OR floating point math. In pure float mode, this is 128 Float ops / clock (not including FMA), but the SM may also operate in "concurrent mode" in which case the execution is INDENTICAL to Turing, with 64 Int and 64 float, concurrently.

RTX 2080 Ti, for comparison, has 4352 "Advertised CUDA cores". In reality, it has 4352 floating point pipes and 4352 intpipes, and runs in INT + Float for concurrent work.

RTX 3070 has 5888 "Advertised CUDA cores", in reality it has 2944 float pipes and 2944 Int OR Float pipes. While this means 5888 Float ops/clock across the entire GPU (not including FMA) it actually has significantly less integer shading throughput to the RTX 2080 Ti, with only 2944 Integer pipes vs 4352. In Concurrent mode, the 3070 is identical to the RTX 2080 with 2944 Int + 2944 Float.

RTX 3070 will not be significantly faster than the RTX 2080 ti, and it will not be universally faster. It will beat the 2080 Ti in games leaning towards float shaders in raw throughput; but with deficits in raw memory bandwidth, pixel throughput and (potentially, though unlikely; TU104 had 6 Raster, so GA104 likely does) geometry throughput.

Overclocked RTX 2080 Ti will blast past RTX 3070 (even overclocked) and this will essentially be a similar situation to GTX 1070 vs GTX 980 Ti, in that the 1070 at stock, was marketed as faster than the 980 Ti, which was true (albeit slightly), but with OC, the 980 ti was much faster, even approaching 1080 speeds. Even though RTX 2080 Ti hasn't the huge OC headroom, it will gain more from overclocking on average. All comparisons vs the RTX 2080 Ti made by Nvidia will be against the stock, reference Turing FE model which is known to run at around 1800 MHz tops."

 
ATENÇÃO!

Não comprem nada menos que uma 3090, por este teste fica cientificamente comprovado que o COD Warzone consome 22GB de VRAM em 4k, qualquer coisa menos que isso fará com que sua experiência nos jogos Next Gen se torne INSUSTENTÁVEL. :melior3:
Quem avisa amigo é :melior4:

IMG-0605.png


Ps.: Ironia no post acima.
 
Última edição:
Este tópico tem um ciclo interessante: info nova sobre 30xx e ótimas discussões > insultos > bons argumentos > discussão sobre a vram > pergunta aleatória > info nova > ...

Permitam-me iniciar um novo ciclo com uma pergunta aleatória mas que até agora não encontrei resposta:

Comparando a 2080 ti com 3070 (com base em tudo que já anunciaram), existe algo em termos de hardware da 3070 que fará ela operar melhor certas coisas nos jogos? Mais específico, ela promete ser melhor em Ray tracing ou no dlss 2.0? Algo no hardware dela permite ter essa vantagem? Ou no final uma 2080 ti com um driver atualizado e um jogo otimizado tem em seu hardware o suficiente pra fazer igual uma 3070?

Não sei se fui claro na pergunta, mas é algo que ainda não ficou claro pra mim...
Resposta: Não saiu nem um review ainda comparando entre as duas placas, só resta esperar!!
 
Este tópico tem um ciclo interessante: info nova sobre 30xx e ótimas discussões > insultos > bons argumentos > discussão sobre a vram > pergunta aleatória > info nova > ...

Permitam-me iniciar um novo ciclo com uma pergunta aleatória mas que até agora não encontrei resposta:

Comparando a 2080 ti com 3070 (com base em tudo que já anunciaram), existe algo em termos de hardware da 3070 que fará ela operar melhor certas coisas nos jogos? Mais específico, ela promete ser melhor em Ray tracing ou no dlss 2.0? Algo no hardware dela permite ter essa vantagem? Ou no final uma 2080 ti com um driver atualizado e um jogo otimizado tem em seu hardware o suficiente pra fazer igual uma 3070?

Não sei se fui claro na pergunta, mas é algo que ainda não ficou claro pra mim...

Uma das coisas que tem diferente é um async compute que consegue usar ao mesmo tempo RT Core + Tensor Cores. As Turing não conseguem fazer isso.

Qual vai ser o potencial máximo disso dos jogos não sabemos. O que temos de informação sobre isso é um update beta que saiu pro Wolfenstein: Youngblood que adicionou suporte a esse Async Compute das Ampere e o jogo ganhou ~12% de desempenho em raytracing na RTX 3080.

.
 
ATENÇÃO!

Não comprem nada menos que uma 3090, por este teste fica cientificamente comprovado que o COD Warzone consome 22GB de VRAM em 4k, qualquer coisa menos que isso fará com que sua experiência nos jogos Next Gen se torne INSUSTENTÁVEL. :melior3:
Quem avisa amigo é :melior4:

IMG-0605.png
não é bem assim não, tem muitos jogos atuais que usam uma tecnologia que é fazer cache das texturas, por exemplo vc passa em uma parte do mapa e fica na vram carregado aquela textura que nem está mais na tela mas se vc passar de novo lá a placa vai já ter ela carregada ao invés de carregar de novo, quando vc precisar de mais vram disponível ele vai limpar as texturas carregadas que estão mais tempo sem ser mostradas, isso traz um ganho de performance é verdade mas não quer dizer que vc necessariamente precisa disso, é bem diferente de faltar vram para carregar o que está na tela
 
não é bem assim não, tem muitos jogos atuais que usam uma tecnologia que é fazer cache das texturas, por exemplo vc passa em uma parte do mapa e fica na vram carregado aquela textura que nem está mais na tela mas se vc passar de novo lá a placa vai já ter ela carregada ao invés de carregar de novo, quando vc precisar de mais vram disponível ele vai limpar as texturas carregadas que estão mais tempo sem ser mostradas, isso traz um ganho de performance é verdade mas não quer dizer que vc necessariamente precisa disso, é bem diferente de faltar vram para carregar o que está na tela
Não pegou a ironia né cara?
 
Essa questão da Vram eu fico pensando, uma empresa tipo a Nvidia, com toda sua tecnologia, criaria um produto em 2020, e esqueceria ou colocaria de propósito menos Vram, para vender futuramente um modelo com mais Vram?? será que precisam disso para faturar mais? n sou fanboy de nd, apenas acho estranho, o certo seria um teste com a mesma GPU com Vram diferentes.
 
não, vc editou que era ironia depois que respondi haha

e respondi pq vi uns canais de youtube falando exatamente o que vc disse mas a sério mesmo
Sim, achei que seria fácil de perceber, pelo visto não, por isso editei. Galera ta cansada de explicar aqui no tópico a diferença entre consumo e alocação de vram.
 
E cadê nosso amigo da Kabum postando as impressões da 3080 dele?
 
Pra mim, tem empresa que coloca capacitor ruim de propósito pra fazer vc comprar outra vga depois.
Sei não...
comprar outra vga?
e a que voce tem garantia vai para o lixo
 
Pra mim, tem empresa que coloca capacitor ruim de propósito pra fazer vc comprar outra vga depois.
Sei não...

O pessoal estava comentando no tópico que os capacitores usados que causaram o problema são mais caros do que os que não estão causando.

A culpa disso tudo é do turbo boost, não precisa de malabarismo mental pra tentar resolver o mistério. O software empurrou o hardware pra além do limite dele. Vão travar o boost a nível de driver pra não bater certo limite e pronto, segue o baile.


Já foi reportado que downclock de 20-50mhz elimina todo o problema sem nenhuma perda notável de performance.
 
Pra mim, tem empresa que coloca capacitor ruim de propósito pra fazer vc comprar outra vga depois.
Sei não...

wtf?

Esse é um ótimo modo de queimar o filme e perder o cliente pra sempre.
 
Este tópico tem um ciclo interessante: info nova sobre 30xx e ótimas discussões > insultos > bons argumentos > discussão sobre a vram > pergunta aleatória > info nova > ...

Permitam-me iniciar um novo ciclo com uma pergunta aleatória mas que até agora não encontrei resposta:

Comparando a 2080 ti com 3070 (com base em tudo que já anunciaram), existe algo em termos de hardware da 3070 que fará ela operar melhor certas coisas nos jogos? Mais específico, ela promete ser melhor em Ray tracing ou no dlss 2.0? Algo no hardware dela permite ter essa vantagem? Ou no final uma 2080 ti com um driver atualizado e um jogo otimizado tem em seu hardware o suficiente pra fazer igual uma 3070?

Não sei se fui claro na pergunta, mas é algo que ainda não ficou claro pra mim...
por especificações não, e apareceu um slide em uma reunião da Galax (imagem vazada) que mostra a 3070 inferior a 2080Ti, e tendo tb uma placa apenas representada por um código (talvez uma 3070Ti) uma placa levemente superior a esta, ao que tudo indica mais lançamentos da nvidia ocorrerão ainda esse ano talvez, a nvidia aguarda a AMD lançar suas placas para ver que atitude irá tomar, tudo indica que a RX 6900XT será superior a 3070 e consequentemente a 2080Ti, entregando 16gb de Vram custando ainda pouco menos que a 3070 já lançada pela nvidia!
A AMD quer entregar o 4K 60fps por menos de 500 dolares e parece que vai conseguir!
 
ATENÇÃO!

Não comprem nada menos que uma 3090, por este teste fica cientificamente comprovado que o COD Warzone consome 22GB de VRAM em 4k, qualquer coisa menos que isso fará com que sua experiência nos jogos Next Gen se torne INSUSTENTÁVEL. :melior3:
Quem avisa amigo é :melior4:

IMG-0605.png


Ps.: Ironia no post acima.

Será que é fake? Esse COD Warzone nem jogo, não gostei. E depois não tem gráficos tão sofisticados ao ponto
de consumir tanta vram....então é má programação e sacanagem da empresa, rss...:melior4:
 
O tópico tá em loop, sempre os mesmos assuntos na mesma ordem, vou só vir aqui postar de vez em quando que a Big Navi vai bater na 3080 só pra ver o parquinho pegar fogo.

Aí vai:

Big Navi vai bater na 3080.

:haters:

OK, agora é sério, todas essa bagunça no lançamento das RTX 30 é a chance perfeita da AMD.

Se ela fez o dever de casa, deve estar rindo muito com tudo isso.

Pensa numa empresa sortuda, no lado das CPU a Intel teve problemas sérios em suas fábricas e ficou presa em 14nm.

No lado das GPU agora, o concorrente (NVIDIA) resolve cortar custos e fica com uma arquitetura fominha/com baixa e eficiência bem na hora que você vai estreiar uma arquitetura com 7nm+ (EUV)!

Além disso, o concorrente não dá conta de demanda, deixa os usuários nervosos. Problemas de crash e deixa os usuários mais nervosos.

Sorte é pouco pra descrever a AMD.

Reparem na quantidade de vazamentos que está tendo nos últimos 3 dias sobre a Navi 80 CU, a AMD já percebeu que o timing é excelente pra ela e obviamente ela está por trás das informações vazadas. Até alguns dias atrás não se sabia quase nada sobre a Big Navi.

Navi 80 CU é a maior chance da AMD possuir uma concorrente para a RTX 3080.
 
Última edição:
O tópico tá em loop, sempre os mesmos assuntos na mesma ordem, vou só vir aqui postar de vez em quando que a Big Navi vai bater na 3080 só pra ver o parquinho pegar fogo.

Aí vai:

Big Navi vai bater na 3080.

:haters:

OK, agora é sério, todas essa bagunça no lançamento das RTX 30 é a chance perfeita da AMD.

Se ela fez o dever de casa, deve estar rindo muito com tudo isso.

Pensa numa empresa sortuda, no lado das CPU a Intel teve problemas sérios em suas fábricas e ficou presa em 14nm.

No lado das GPU agora, o concorrente (NVIDIA) resolve cortar custos e fica com uma arquitetura fominha/com baixa e eficiência bem na hora que você vai estreiar uma arquitetura com 7nm+ (EUV)!

Além disso, o concorrente não dá conta de demanda, deixa os usuários nervosos. Problemas de crash e deixa os usuários mais nervosos.

Sorte é pouco pra descrever a AMD.

Reparem na quantidade de vazamentos que está tendo nos últimos 3 dias sobre a Navi 80 CU, a AMD já percebeu que o timing é excelente pra ela e obviamente ela está por trás das informações vazadas. Até alguns dias atrás não se sabia quase nada sobre a Big Navi.

Navi 80 CU é a maior chance da AMD possuir uma concorrente para a RTX 3080.





Esse kopite7kimi que está nas respostas desse tweet aí é o cara que acertou praticamente tudo do lançamento das Ampere vários meses antes de sair.

Se A NAVI 21 realmente tiver 80CU + 2,3ghz da pra acreditar que ela ganha até da 3090

Quem acha que a Nvidia iria lançar uma 3080 a 699 dólares assim "de graça" sem esperar algo forte da AMD tem que ser muito ingênuo.

.
 




Esse kopite7kimi que está nas respostas desse tweet aí é o cara que acertou praticamente tudo do lançamento das Ampere vários meses antes de sair.

Se A NAVI 21 realmente tiver 80CU + 2,3ghz da pra acreditar que ela ganha até da 3090

Quem acha que a Nvidia iria lançar uma 3080 a 699 dólares assim "de graça" sem esperar algo forte da AMD tem que ser muito ingênuo.

.


Cara, você esqueceu de mais um detalhe.

RX 5700 XT = 40CU

A Navi 21 supostamente tem:
80CU
+50% performance por watt
2.1 ~ 2.3GHz

Se a AMD mantiver 225W de TDP, a Navi 21 basicamente já tem o dobro de performance da 5700XT.

Se a AMD lançar a Navi 21 com 300W ou mais, pode ter certeza que bate na 3080.
 




Esse kopite7kimi que está nas respostas desse tweet aí é o cara que acertou praticamente tudo do lançamento das Ampere vários meses antes de sair.

Se A NAVI 21 realmente tiver 80CU + 2,3ghz da pra acreditar que ela ganha até da 3090

Quem acha que a Nvidia iria lançar uma 3080 a 699 dólares assim "de graça" sem esperar algo forte da AMD tem que ser muito ingênuo.

.


Eu vou esperar, estava garimpando pra achar uma 3080, por sorte não achei e o hype passou.

Mas também aprendi a não criar muita expectativa com a AMD, não é a primeira vez que todo mundo acha que ela vai chutar bundas. Vou esperar pra desencargo de consciência.

Se a performande for a mesma, mesmo sendo um pouco mais cara, provavelmente ainda vou de Nvidia pelo dlss. A não ser que a AMD apresente algo semelhante, o que é improvável.
 
Eu joguei far cry em 4k na rtx 2070 super



Taí seu primeiro erro. E se você joga com o 1700X da assinatura, esse é o segundo erro.


camera ridicula é essa aí? filmou com camera de game boy ??

Vem postar tri sli que nada serve em jogos, se ainda tivesse postado que minerava ainda poderia tirar onde né...


Aqui mais exemplo de como a vram é importante para 4k


É bom ter vram sobrando que faltando, os jogos ficam mais estaveis.



pqp nego insiste. o jogo ALOCAR memória não significa que precisa, ou que irá gerar qualquer problema.
 
Status
Não esta aberto para novas mensagens.

Users who are viewing this thread

Voltar
Topo