[TÓPICO DEDICADO] NVIDIA GeForce RTX 3XXX

  • Iniciador de Tópicos neo666
  • Data de Início
Qnts % superior?
Meu limite seria R$ 2.500 já espremendo o orçamento até a ultima gota 😂.
segundo technopowergpu, a 3060 comum tem 80% do desempenho da 3060ti.
Acho jogar dinheiro fora pegar 2400 numa 3060, maximo dele deveria ser 2k pra baixo. Eu iria na pny e usaria cupom de aniversario da kabum pra cair uns 5% que ja deve ficar perto a seu orçamento.

Outra opcao meio termo seria a 6650xt que as vezes aparece por 2k, mas prefiro a 3060ti
Nvidia errou muito na faixa de preço da 3060, muito fraca pra custar tao perto da 3060ti

 
Nvidia errou muito na faixa de preço da 3060
Ela teve seu público, foi A placa CxB pra quem tava aprendendo a mexer com ML, era melhor até que a 3080 10gb por conta dos 2gb de vram a mais. E vc ainda poderia só comprar outra pra ter a mesma vram de uma 3090 por quase metade do preço.
 
"ain, eu não compro placa foi usada em mineração. Elas não prestam"


--- Post duplo é unido automaticamente: ---

E vc ainda poderia só comprar outra pra ter a mesma vram de uma 3090 por quase metade do preço.
O que voce economizaria com 2x 3060 vc iria ter que gastar numa placa mae e processador que consigam rodar 2 x16 pcie 4.0
 
Última edição:
O que voce economizaria com 2x 3060 vc iria ter que gastar numa placa mae e processador que consigam rodar 2 x16 pcie 4.0
Como eu estava falando de machine learning, rodar ambas em 3.0 x4 não teria bronca alguma, e CPU é irrelevante.
 
Como eu estava falando de machine learning, rodar ambas em 3.0 x4 não teria bronca alguma, e CPU é irrelevante.
nao sou especialista em ML mas até onde eu saiba a banda de memória é essencial sim na maioria dos modelos de ML, tanto que existe o NVlink para que não exista bottleneck no slot pcie entre gpus. A partir do pcie 5.0 que a banda é gigantesca ai o gargalo acaba. No próprio youtube tem varios videos que mostram a diferenca de velocidade do pcie 4.0 x16 para o x8 em ML.
O processador no caso é irrelevante para velocidade mas as linhas pci-e são importantes. as CPUs "caseiras" tem no máximo 30 linhas pcie, o que impede de colocar colocar 2 gpus em x16. Por isso as workstation usam ou plataforma xeon que é uma fortuna ou o threadripper (a nova versao do threadripper pro tem 128 linhas, o que da pra colocar 8 gpus em x16)

 
nao sou especialista em ML mas até onde eu saiba a banda de memória é essencial sim na maioria dos modelos de ML
Sim, mas banda de memória é relevante quando se fala da memória da GPU, por isso aquelas HBM2 das placas mais high-end são super interessantes.
tanto que existe o NVlink para que não exista bottleneck no slot pcie entre gpus.
Exato, entre GPUs, e isso só é relevante quando vc tem mais de 8 GPUs, menos que isso vc nem vai ter VRAM o suficiente pra isso ser importante.

No próprio youtube tem varios videos que mostram a diferenca de velocidade do pcie 4.0 x16 para o x8 em ML.
É irrelevante, seguem algumas fontes legais:

Do I need PCIe 4.0 or PCIe 5.0?​

Generally, no. PCIe 5.0 or 4.0 is great if you have a GPU cluster. It is okay if you have an 8x GPU machine, but otherwise, it does not yield many benefits. It allows better parallelization and a bit faster data transfer. Data transfers are not a bottleneck in any application. In computer vision, in the data transfer pipeline, the data storage can be a bottleneck, but not the PCIe transfer from CPU to GPU. So there is no real reason to get a PCIe 5.0 or 4.0 setup for most people. The benefits will be maybe 1-7% better parallelization in a 4 GPU setup.

Do I need 8x/16x PCIe lanes?​

Same as with PCIe 4.0 — generally, no. PCIe lanes are needed for parallelization and fast data transfers, which are seldom a bottleneck. Operating GPUs on 4x lanes is fine, especially if you only have 2 GPUs. For a 4 GPU setup, I would prefer 8x lanes per GPU, but running them at 4x lanes will probably only decrease performance by around 5-10% if you parallelize across all 4 GPUs.

What is NVLink, and is it useful?​

Generally, NVLink is not useful. NVLink is a high speed interconnect between GPUs. It is useful if you have a GPU cluster with +128 GPUs. Otherwise, it yields almost no benefits over standard PCIe transfers.

Com 4 GPUs vc não perde coisa nem de 10% com metade das lanes pra todos, e NVLink com poucas GPUs assim traz no melhor do melhor caso uns 10%.

E seu video é sobre blender, não ML, necessidades diferentes :p
 
Sim, mas banda de memória é relevante quando se fala da memória da GPU, por isso aquelas HBM2 das placas mais high-end são super interessantes.

Exato, entre GPUs, e isso só é relevante quando vc tem mais de 8 GPUs, menos que isso vc nem vai ter VRAM o suficiente pra isso ser importante.


É irrelevante, seguem algumas fontes legais:



Com 4 GPUs vc não perde coisa nem de 10% com metade das lanes pra todos, e NVLink com poucas GPUs assim traz no melhor do melhor caso uns 10%.

E seu video é sobre blender, não ML, necessidades diferentes :p
Fui ler o artigo, GPU pra nível enterprise é outro negócio mesmo.
 
 

Youtuber br n da pra ser levado a sério,já teve vários com resultados com suspeita de fake ou totalmente diferente dos gringos
 
alguem me explica pq so a 3060ti da msi ventus 2 oc usa 2 cabos de 8 pinos enquanto toda outra 3060ti usa 1 so (minha tambem usa so uma)? so as strix tem 2 tb
 
Última edição:
alguem me explica pq so a 3060ti da msi ventus 2 oc usa 2 cabos de 8 pinos enquanto toda outra 3060ti usa 1 so (minha tambem usa so uma)?
Idiotice, pq até o power limit da bios dela é só de 200W (que dá de sobra com 1 único cabo). Só a gaming trio lá que passa disso e faz mais sentido usar 2 cabos.
 
acho que so colocaram em algumas esperando OC maior, vai entender.
Idiotice, pq até o power limit da bios dela é só de 200W (que dá de sobra com 1 único cabo). Só a gaming trio lá que passa disso e faz mais sentido usar 2 cabos.
 
acho que so colocaram em algumas esperando OC maior, vai entender.
Mas não tem como conseguir OC muito maior, o power limit ainda é o mesmo das com 1 cabo só, acho que só reutilizaram PCB de outro projeto e não pensaram muito.
 
Pessoal, estou bem por fora, mas estou com uma 3080ti Strix engatilhada por 5300 ? vocês acham que esse preço tende a melhorar com as 4xxx ?
 
Pessoal, estou bem por fora, mas estou com uma 3080ti Strix engatilhada por 5300 ? vocês acham que esse preço tende a melhorar com as 4xxx ?
É um bom preço, tem aparecido a 4070ti ventus por 6k recentemente. Inclusive paguei 5.5k por uma 3080ti vision semana passada só pela cor dela e não me arrependo.
 
É um bom preço, tem aparecido a 4070ti ventus por 6k recentemente. Inclusive paguei 5.5k por uma 3080ti vision semana passada só pela cor dela e não me arrependo.
Bom saber, em qual loja vc encontrou essa 3080ti ?
 
Bem que a Nvidia podia liberar o DLSS3 para as RTX 3XXXX
 
Mas não tem como conseguir OC muito maior, o power limit ainda é o mesmo das com 1 cabo só, acho que só reutilizaram PCB de outro projeto e não pensaram muito.
teóricamente os modelos que usam 2x 8pin tem mais fases da alimentação nos VRMs, o que ajudaria na temperatura e estabilidade.
 
teóricamente os modelos que usam 2x 8pin tem mais fases da alimentação nos VRMs, o que ajudaria na temperatura e estabilidade.
VRM é uma porção significativa da temperatura das placas? Acho que com as eficiências dos VRMs atuais não é taaaanta coisa assim, ainda mais em algo de "só" 200W
 
bah, entre uma 3080ti usada por 5300 e uma 4070ti nova por 6/6 e pouco, eu ia na 4070ti sem pensar 2x..
Entendo e compreendo perfeitamente seu ponto de vista, inclusive faz total sentido. Mas pra mim estética é mais importante que o desempenho em si, rs. Meu PC é todo branco. E por enquanto não tem nenhuma série 4000 a venda no Brasil. Estou no aguardo do modelo Aero da gigabyte.
 

Users who are viewing this thread

Voltar
Topo