NVIDIA GeForce RTX 3XXX

  • Iniciador de Tópicos neo666
  • Data de Início
Status
Não esta aberto para novas mensagens.
2019

Receita Nvidia: U$ 11,7 bi
Margem Bruta: 61,7%

Receita AMD: U$ 6,7 bi
Margem Bruta: 43,0%

Digamos que ambas estão saudáveis!
--- Post duplo é unido automaticamente: ---


Exato! A Apple é mestre nisso.

Tem fatores além disso, como a AMD segmenta seu negócio e orçamento por área? Aposto que o negócio de CPU e APU está melhor que GPU discreta por si só.

Melhor ir nessas mais fortes mesmo.

Aproveita pra dar uma conferida nos conectores de CPU (EPS) também, com a quantidade de mobos saindo com 8+4 ou 8+8 é bom ter essa opção também (2x 4+4).

Sim, tem 2x 4+4.

Vai ser o modelo de 850, os cabos tem bitola 16awg.

Só sata e molex são 18awg.


Inno3d presta? Vi q ela é a única que tem a 3080 de duas ventoinhas igual as fe

Sim, marca referência na Europa.
 
Pra quem tá de olho na Galax... tabelinha pra organizar as idéias.

Ui9uraG.jpg

VLk9D83.jpg

tZwlmad.jpg
 
Eu tava vendo aqui:

Queria trocar CPU... vou ter que trocar a placa mãe junto. Mesmo indo pro Ryzen.

Ae vou trocar a VGA, vou ter que trocar a fonte, já que a minha é de 600W.

Ou seja, de qualquer modo, eh montar um PC novo... qual a chance??? Esquece... :(
Vou esperar o lançamento do DDR5 pra upar o processador.
 
Eu tava vendo aqui:

Queria trocar CPU... vou ter que trocar a placa mãe junto. Mesmo indo pro Ryzen.

Ae vou trocar a VGA, vou ter que trocar a fonte, já que a minha é de 600W.

Ou seja, de qualquer modo, eh montar um PC novo... qual a chance??? Esquece... :(

Up nesse CPU jogando em 1440p não faz o menor dos sentidos.
 
Up nesse CPU jogando em 1440p não faz o menor dos sentidos.

Eh pq trabalho com umas coisas pesadas para cálculo, por isso o CPU e a VGA pra jogar mesmo! De qualquer modo, racionalmente falando... vou esperar ano que vem!
--- Post duplo é unido automaticamente: ---

Cara, sua CPU é fortíssima ainda, que isso.
A menos que dinheiro não seja um problema.
Dinheiro é solução... mas tb não dá em árvore hahahahahhaa Vou esperar o ano que vem mesmo ;)
 
Tem fatores além disso, como a AMD segmenta seu negócio e orçamento por área? Aposto que o negócio de CPU e APU está melhor que GPU discreta por si só.



Sim, tem 2x 4+4.

Vai ser o modelo de 850, os cabos tem bitola 16awg.

Só sata e molex são 18awg.




Sim, marca referência na Europa.
Vou tentar ela primeiro dia 17.
 
Quer dizer que nas MOBOs com PCIE 3.0, as 3XXX terão perda de desempenho?

Eu entendi que a perda de desempenho vai ser mínima pois vai gargalhar CPU antes de gargalhar o NVME PCIE 3.0

Se você tem NVME PCIE 3.0, não tem motivo pra fazer upgrade pro 4.0 agora.

Está de boa por muitos anos.
 
Vou esperar o lançamento do DDR5 pra upar o processador.

Somos 2

Up nesse CPU jogando em 1440p não faz o menor dos sentidos.

Exatamente...Por mais que o 8700k nao tenha a força multi-core de 9900k 10900 ou 3900X..Para resoluções 1440p em diante...Ele ainda entrega otinas taxas de framerate, e consegue deixar o gargalo para as 2080Ti....Temos que ver agora como sera com as RTX30xx. Mas acredito ainda que se houver gargalo, será mto pequeno.

A troca so vale realmente se vc quer gaming no pico do FPS em 1080p. Ou se movimenta conteúdo video.
 
Eu entendi que a perda de desempenho vai ser mínima pois vai gargalhar CPU antes de gargalhar o NVME PCIE 3.0

Se você tem NVME PCIE 3.0, não tem motivo pra fazer upgrade pro 4.0 agora.

Está de boa por muitos anos.
Entendi. Bom saber hehe. Aqui é 3.0.
Meu medo é alguma zebra com o SSD NVMe, sei lá, não manjo uhaeuhauehahe
 
Entendi. Bom saber hehe. Aqui é 3.0.
Meu medo é alguma zebra com o SSD NVMe, sei lá, não manjo uhaeuhauehahe

De qualquer forma NVME PCIE 4.0 é uma tecnologia muito recente, poucos controladores, nunca é recomendado ser early adopter / beta tester.
 
Em 4K acho que vai ficar legal (ao menos por um tempo até conseguir se capitalizar) pois normalmente o que pesa mais na CPU são as resoluções mais baixas.

Mas isso acaba gerando uma espécie de "reação em cadeia": Você faz o upgrade na GPU e não demora muito pra perceber que ela pode estar não rendendo tão bem por gargalo na CPU.

Foi mais ou menos o que aconteceu comigo quando peguei a 2080 Ti e tinha um 4930k, mesmo sendo 6c/12t ele começou a sofrer, mas meu cenário era/é 1440p e não 4K.
Aproveitando... Em geral, como foi a performance em 4k na 2080Ti usando essa antiga CPU? Pelo que vi em Benchmaks, maioria soca o jogo no máximo, inclusive AntiAliasing... Mas particularmente acho desnecessário AA em 4k. Não sou tão chato para isso...
 
Eu tava vendo aqui:

Queria trocar CPU... vou ter que trocar a placa mãe junto. Mesmo indo pro Ryzen.

Ae vou trocar a VGA, vou ter que trocar a fonte, já que a minha é de 600W.

Ou seja, de qualquer modo, eh montar um PC novo... qual a chance??? Esquece... :(

Seu CPU aguenta tranquilamente uma 3070/3080. No máximo, isso se realmente precisar, upar somente a fonte.
 
Aproveitando... Em geral, como foi a performance em 4k na 2080Ti usando essa antiga CPU? Pelo que vi em Benchmaks, maioria soca o jogo no máximo, inclusive AntiAliasing... Mas particularmente acho desnecessário AA em 4k. Não sou tão chato para isso...
Cara, aqui uso 1440p e tecnicamente isso força mais o processador mas na ocasião o que mais senti foi jogos tipo BFV (CPU Bound) onde ele sofria mais pra tentar manter uma taxa de quadros alta ou pelo menos estável enquanto a GPU ficava sobrando (raramente passava dos 80~90%).

Achei um video aleatório que pode responder algumas de suas perguntas, vou deixar em spoiler pra não poluir o tópico.

Jogar num preset gráfico maior ou menor não fazia muita diferença no framerate, só aumentava o diminuía um pouco o consumo da GPU pois ela já estava folgada (isso no 1440p, em 4K essa "folga" da GPU tende a ser menor ou nem existir), vai depender do título.

Registre-se que você só vai se incomodar com isso se for um "doente do Afterburner" pois é algo que você não percebe numa jogatina normal, especialmente com um monitor G-sync/Freesync.
 
Quer dizer que nas MOBOs com PCIE 3.0, as 3XXX terão perda de desempenho?
Não, quer dizer que pelo menos por enquanto com essa geração de RTX 3000 a diferença de performance entre usar a placa com um CPU/Mobo que suporte apenas PCIE 3.0 vs um que suporte PCIE 4.0 vai ser negligível. Ou seja quem ainda está no PCIE 3.0 como a maioria vai poder usar essas placas sem se preocupar com perda de performance pois vai ser quase nula.
 
370W e 340W

:olar:

Se inventar de fazer over vai passar de 400W.:olar:

Eu tava vendo isso, com OC 3080 pede mesmo fonte 750W. 100W de sobra pra ajudar na eficiência porque 650 acho que vai mesmo sem OC na CPU. Minha Corsair RM750I vai dar suadinha.
--- Post duplo é unido automaticamente: ---

Espero que tenham consertado o problema nessas fans do modelo EXOC

Não ouvi falar, que problema? Coil whine?
 
Pra quem tá de olho na Galax... tabelinha pra organizar as idéias.

Ui9uraG.jpg

VLk9D83.jpg

tZwlmad.jpg
370W e 340W

:olar:

Se inventar de fazer over vai passar de 400W.:olar:
Eu tava vendo isso, com OC 3080 pede mesmo fonte 750W. 100W de sobra pra ajudar na eficiência porque 650 acho que vai mesmo sem OC na CPU. Minha Corsair RM750I vai dar suadinha.
Já colocaram as RTX 30 no simulador do Outervision, sabemos que a confiabilidade não é 100% mas dá pra ter uma ideia.

Coloquei meu setup inteiro, alternando apenas a GPU:

@ 2080 Ti:
1599172488476.png


@ 3070:
1599172502349.png


@ 3080:
1599172521064.png


@ 3090:
1599172538117.png


Isso com os valores padrões de clock/tensão do próprio site, que não considera nem o boost de fábrica (na 2080 Ti isso incrementa cerca de 100w no valor final).
 
Já colocaram as RTX 30 no simulador do Outervision, sabemos que a confiabilidade não é 100% mas dá pra ter uma ideia.

Coloquei meu setup inteiro, alternando apenas a GPU:

@ 2080 Ti:
Ver anexo 133631

@ 3070:
Ver anexo 133632

@ 3080:
Ver anexo 133633

@ 3090:
Ver anexo 133634

Isso com os valores padrões de clock/tensão do próprio site, que não considera nem o boost de fábrica (na 2080 Ti isso incrementa cerca de 100w no valor final).

Sim, tinha visto, calculei lá hoje 3080 com OC e 3800X sem OC já bateu 647W. Se fizer OC na CPU já vai pra 714! Mudou 50W OC na 3080... deve ser mais, hein.
 
Seu CPU aguenta tranquilamente uma 3070/3080. No máximo, isso se realmente precisar, upar somente a fonte.
Já colocaram as RTX 30 no simulador do Outervision, sabemos que a confiabilidade não é 100% mas dá pra ter uma ideia.

Coloquei meu setup inteiro, alternando apenas a GPU:

@ 2080 Ti:
Ver anexo 133631

@ 3070:
Ver anexo 133632

@ 3080:
Ver anexo 133633

@ 3090:
Ver anexo 133634

Isso com os valores padrões de clock/tensão do próprio site, que não considera nem o boost de fábrica (na 2080 Ti isso incrementa cerca de 100w no valor final).

Caraca, 750W para a 80. Tenssoooooooooooooo...
 
Já colocaram as RTX 30 no simulador do Outervision, sabemos que a confiabilidade não é 100% mas dá pra ter uma ideia.

Coloquei meu setup inteiro, alternando apenas a GPU:

@ 2080 Ti:
Ver anexo 133631

@ 3070:
Ver anexo 133632

@ 3080:
Ver anexo 133633

@ 3090:
Ver anexo 133634

Isso com os valores padrões de clock/tensão do próprio site, que não considera nem o boost de fábrica (na 2080 Ti isso incrementa cerca de 100w no valor final).
Interessante, não conhecia o site.
Aqui, na minha config, com uma RTX 3080, que quero me dar de aniversário (justo no dia 17/09, só pode ser um sinal :mr2:), deu: Recommended PSU Wattage: 638 W, com Load Wattage: 588 W.

Minha fonte é uma Corsair TX650W... acho que vou arriscar, viu! Qualquer coisa desligo umas luizinhas aqui... como também quero migar no final do ano para o zen3 (Ryzen 7), deve dar mais folga na energia, já que hoje rodo em overclock.

Agora, no seu o que puxou tanto assim? Processador?
 
Minha fonte é uma Corsair TX650W... acho que vou arriscar, viu!
Mesma coisa aqui só que com uma CX650.. Vou arriscar na 3080 também
Aqui deu no recommended 605w, então acho que to safe
Só cogito trocar a fonte se o pc começar a desligar do nada quando tiver jogando :haha:
 
Status
Não esta aberto para novas mensagens.

Users who are viewing this thread

Voltar
Topo