[TÓPICO DEDICADO] NVIDIA GeForce RTX 4XXX

E pq deveria? As concorrentes tem preço por área semelhantes, sendo que Nvidia entrega mais recursos de todo jeito.

Segmento de entrada já morreu e segmento mid tá indo pro mesmo caminho, jaja só sobra high-end e é isso.
Exatamente! eu ia falar isso aí.

A AMD está cobrando quase o mesmo mas entregando menos tecnologia, então, de nada adianta entregar o chip por inteiro, o que está valendo perante a concorrência de mercado é o desempenho final.

Eu também fico pistola com o preço referencial mas, são as regras do jogo capital.
 
Só na faixa mais alta e mesmo assim com ressalvas (preço). Da 4070 pra baixo é uma vergonha.

As 4060 e 4060Ti realmente deixaram a desejar e foram uma grande vergonha. Por isso tive que ir em uma 4070(= 3080 mas com 2GB a mais)para fazer um Upgrade em cima da 3060Ti. Agora se a 4060Ti tivesse desempenho da 3080 como a 4070 possui, aí teria indo de 4060Ti. Mas a 4060Ti não passa de uma 3060Ti com consumo menor. Uma grande decepção essa placa.

Para mim a melhor placa dessa geração 4mil é a 4070. Isso porque eu prezo os quesitos Valor VS Desempenho VS Consumo VS Temperatura.
 
A 4070Ti ganha da 3090Ti. A 4070 é um empate técnico com a 3080. E a 4070S já ganha das 3080Ti e 3090.
Pois é isso! O desempenho está sendo entregue, mesmo com o chip sendo cortado além do que era no passado.

A questão de preço é a ineficiência da concorrência em entregar algo competitivo.
 
E pq deveria? As concorrentes tem preço por área semelhantes, sendo que Nvidia entrega mais recursos de todo jeito.

Segmento de entrada já morreu e segmento mid tá indo pro mesmo caminho, jaja só sobra high-end e é isso.

Eu já postei sobre os valores. A AMD está mais agressiva.

E placas da série 5 e 6 sempre venderam bem mais. Tem nem comparação. Meio que vc tinha que juntar todas as placas das séries acima para tentar chegar perto das 5 e 6.

Lembro que nos processadores acontece a mesma coisa.

Logo esse negócio de estar morrendo é pura balela, mentira, fakenews e desinformação.

Não é a toa que a Nvidia acabou de lançar uma 3050 6GB Capada Edition custando menos que a 3050 8GB. Pois ela sabe que tem um bom público nesse mercado.

Se não me engano até no ano passado as placas 1650 e 1660 eram as placas mais usada no Steam. A 3060 também era bastante usada.

Antigamente os Ci3 eram os mais usados. Agora são os Ci5. Meio que se vc pegar todas as vendas dos Ci7 + Ci9 não da nem perto das vendas dos Ci5.

O mesmo vale para os Ryzen 5 VS Ryzen 7 e 9.
 
E qual deveria ser o valor justo pra vocês? Se uma xx80 custava x e entregava x% deve ser mantido a proporção de chip e o valor ser corrigido apenas por inflação e boa? Tecnologias extras que vão surgindo não tem algum custo de R&D ou não trazem valor agregado? Fabricação em litografia menor e processos mais avançados não aumenta o custo? Yields são sempre os mesmos independente de geração e quão maduro o processo está? etcetc, não defendendo que a Nvidia deve cobrar $438943 numa GPU mas acho que é uma questão bem mais complexa do que fazem parecem ser aqui as vezes
 
E qual deveria ser o valor justo pra vocês? Se uma xx80 custava x e entregava x% deve ser mantido a proporção de chip e o valor ser corrigido apenas por inflação e boa? Tecnologias extras que vão surgindo não tem algum custo de R&D ou não trazem valor agregado? Fabricação em litografia menor e processos mais avançados não aumenta o custo? Yields são sempre os mesmos independente de geração e quão maduro o processo está? etcetc, não defendendo que a Nvidia deve cobrar $438943 numa GPU mas acho que é uma questão bem mais complexa do que fazem parecem ser aqui as vezes
Passamos de uma 3080 com o chip da 3090 (628mm² - ligeiramente menor que os 609mm² da 4090) vendida a $699 pra uma 4080 de 379mm² vendida a $1199.
Não tem justificativa que possa sustentar esse absurdo, tanto que lançaram um chip mais "completo" por $999 sem nem pensar.

A 4090, o chip mais complexo da linha gamer, não sofreu alterações expressivas de preço ($100).
 
Exatamente! eu ia falar isso aí.

A AMD está cobrando quase o mesmo mas entregando menos tecnologia, então, de nada adianta entregar o chip por inteiro, o que está valendo perante a concorrência de mercado é o desempenho final.

Eu também fico pistola com o preço referencial mas, são as regras do jogo capital.

A Nvidia acabou de cortar o valor da 4070Ti 12GB para U$700. O mesmo valor da RX7900XT 20GB.

A 7800XT 16GB de U$500 é muito mais negócio que a 4060Ti 16GB que teve corte de U$50 e passou a ser vendida por U$450.

A AMD deve colocar a 7800XT pelos mesmos U$450 dela.

Eu quase peguei uma 7800XT 16GB por 3.7K. Mas como preso pelo consumo boletei uma 4070 da Giga branquinha linda com 3 coolers por 3.9K. Também nem vejo necessidade em mais que 12GB.

E vendo uns vídeos da 4070 da para fazer igual eu fiz com a 3060Ti e mandar um Undervolt sem perdas de desempenho e fazendo a placa consumir no máximo 150W e com temperaturas variando entre 10ºC a 17ºC a menos do que ela original.

Placa entregando desempenho de uma 3080(que consumia 320W original)e a 4070 no pico não passa dos 190W. Fora que vem com 2GB a mais de memória. A mesma quantidade da 3080Ti que custava U$1.200.

Como já tive uma 970 e 1070 G1 da Giga, eu estava sentindo falta de ter uma placa da Giga novamente e da série 70 da Nvidia. A 3060Ti já vendi aqui por 2K para uma pessoa que tinha uma 2060. Perdi 1K nela. Pois paguei 3K nela em 2022.

Bom que nem precisarei mexer na minha guerreira Corsair CX500. ;):)

Vamos ver se agora eu consigo pular uma geração né! Igual fiz pulando a geração 700 e 2mil. Aí só pegaria placa nova no final de 2028. Mesma época que a Sony deve lançar o PS6. Ai vamos ver como virão as 6060Ti e 6070.

Olha as placas que já tive aqui:

GTX660Ti
GTX970
GTX1070
RTX3060Ti

E agora vem a RTX4070.

Pulei as gerações 700 e 2mil porque achei elas bem ruins e fracas.
 
E qual deveria ser o valor justo pra vocês? Se uma xx80 custava x e entregava x% deve ser mantido a proporção de chip e o valor ser corrigido apenas por inflação e boa? Tecnologias extras que vão surgindo não tem algum custo de R&D ou não trazem valor agregado? Fabricação em litografia menor e processos mais avançados não aumenta o custo? Yields são sempre os mesmos independente de geração e quão maduro o processo está? etcetc, não defendendo que a Nvidia deve cobrar $438943 numa GPU mas acho que é uma questão bem mais complexa do que fazem parecem ser aqui as vezes
A questão com a NVIDIA é a estratégia de mercado dela, não as placas em si. Só ver como a Nvidia ia chamar a 4070ti de 4080 12gb mas caíram matando em cima dela.
Da mesma forma, a 4070 Ti Super deveria ter sido a 4070 Ti, e a 4070 Super deveria ter sido a 4070 normal - essa que deveria ter sido a 4060TI, e por aí vai.
 
A 4070Ti ganha da 3090Ti. A 4070 é um empate técnico com a 3080. E a 4070S já ganha das 3080Ti e 3090.
Na vdd a 4070 Ti é equivalente a 3090 e em alguns jogos ela é melhor. O que ja é um grande salto, considerando que uma é da linha XX70 e superando uma XX90 geração anterior.
 
Passamos de uma 3080 com o chip da 3090 (628mm² - ligeiramente menor que os 609mm² da 4090) vendida a $699 pra uma 4080 de 379mm² vendida a $1199.
Não tem justificativa que possa sustentar esse absurdo, tanto que lançaram um chip mais "completo" por $999 sem nem pensar.

A 4090, o chip mais complexo da linha gamer, não sofreu alterações expressivas de preço ($100).

Esse preço da 4080 de U$1.2K realmente foi um tiro no pé. Não é a toa que é a placa que menos vendeu nessa geração da Nvidia. Foi um enorme, gigantesco fracasso de vendas essa placa. Não é a toa que a Nvidia relançou a 4080 como uma 4080S por U$1.000.

Mas a 3080Ti pelos mesmos U$1.2K foi ainda pior do que ela. Pois ao menos a 4080 vinha com 4GB a mais de memória. Era 16GB VS 12GB da 3080Ti.

Para mim em termos de Bizarrice e de pior, péssimo custo benefício é difícil de ganhar da 3080Ti. A 4080 vem logo em seguida.
--- Post duplo é unido automaticamente: ---

Na vdd a 4070 Ti é equivalente a 3090 e em alguns jogos ela é melhor. O que ja é um grande salto, considerando que uma é da linha XX70 e superando uma XX90 geração anterior.

Na verdade essa terminação 90 veio a substituir as Titan. Até memória elas vem com mais. Eu já falei sobre isso. Portanto se vc desconsiderar isso, essa 4090 era para ser uma 4080Ti. E nesse caso já tivemos uma 970 chegando junto da 780Ti e uma 1070 chegando na 980Ti. Fora a 3060Ti de U$400 chegando na 2080S de U$800 e a 3070 chegando na 2080Ti.

Mas o melhor ganho que já tivemos chama-se GTX660Ti que batia de pau mole na GTX580. A GTX660 Normal já chegava junto da GTX580.

E a 4070Ti bate a 3090Ti. A 3090 é pouca coisa superior a uma 3080. Tem jogos que vc ganhava apenas 5fps entre elas.
 
de nada adianta entregar o chip por inteiro
A AMD entrega o Navi 31 inteiro sim, mas poderiam ter feito um GCD maior se quisessem. Oq a AMD fez foi como se a Nvidia só tivesse lançado a 4080 como maior chip e é isso, matando a GA102 do jogo.
Eu já postei sobre os valores. A AMD está mais agressiva.
Mas demorou né.
E placas da série 5 e 6 sempre venderam bem mais. Tem nem comparação. Meio que vc tinha que juntar todas as placas das séries acima para tentar chegar perto das 5 e 6.
As 5 praticamente nem existem mais. Atualmente as 4070 e 4070ti tão vendendo mais que as 4060/ti do lado da verdinha de acordo com a steam, enquanto na AMD somente a 7900xtx tem alguma relevância, bem atrás da concorrência.
Não é a toa que a Nvidia acabou de lançar uma 3050 6GB Capada Edition custando menos que a 3050 8GB. Pois ela sabe que tem um bom público nesse mercado.
Realmente, por $170 USD, que era a faixa de placas mid antes.
Se não me engano até no ano passado as placas 1650 e 1660 eram as placas mais usada no Steam. A 3060 também era bastante usada.
3060 segue no topo, seguida das 1650 e 1060.
 
Estava com crashs constantes no Warhammer Darktide, entrei em contato com o suporte e me informaram que era problema com o GPU, imaginei logo que era instabilidade com o overclock que fiz, coloquei pra rodar o stress test speedway do 3d mark e não deu outra, não completou nem o primeiro loop, aí aumentei o vcore pra 100% e depois testei com o power limit em 113% que é o limite da minha placa de vídeo, com o vcore em 100% e power limit em 113% não passou nos dois testes que fiz ficando com 96.8% e depois 94% nos resultados finais, agora com apenas o vcore em 100% passou nos dois testes que fiz com mais de 98%. O estranho é que isso começou a ocorrer agora, antes ficava de boa, deve ter sido alguma mudança no driver.

Screenshot-79.png
 
Passamos de uma 3080 com o chip da 3090 (628mm² - ligeiramente menor que os 609mm² da 4090) vendida a $699 pra uma 4080 de 379mm² vendida a $1199.
Não tem justificativa que possa sustentar esse absurdo, tanto que lançaram um chip mais "completo" por $999 sem nem pensar.

A 4090, o chip mais complexo da linha gamer, não sofreu alterações expressivas de preço ($100).
Aconselho a quando fazer comparações de preço por área, colocar as Ampere de fora xD

Falando sério, falei sério, a NVIDIA pegou o fiasco de nó de 8nm da Samsung a preço de banana (memes na época diziam até que a SS pagou para o Jensen usar suas fabs), enquanto que o nó de 5nm da TSMC vem a preço premium, então estranho seria manter o mesmo preço. Não se tem valores exatos do quanto a verdinha pagou pelos wafers da coreana, mas lembro que o Charlie (do SemiAccurate) chegou a dizer que "saiu quase de graça" e, em outro comentário numa conversa do Twitter, que "era um desconto de, no mínimo, 50%". Então sim, a NVIDIA teve um lucro imenso na geração RTX3000, mesmo seus chips sendo enormes (justamente por ter um desconto desses que ela arriscou chips assim, com certeza a taxa de aproveitamento foi muito baixa).

Só para aprofundar, custos das "bolachas":
- Turing -> TSMC 12nm = 4000 dólares por wafer
- Ampere (oficial) -> Samsung 8nm = 5000 dólares por wafer
- Ampere (rumor) -> Samsung 8nm = 2000 dólares por wafer (coloquei um desconto de 60% do valor base)
- Ada Lovelace -> TSMC 5nm = 17000 dólares por wafer

Se analisarmos o custo por mm², temos o seguinte em um wafer padrão de 300mm (70650mm²):
- Turing = 0,056 centavos de dólar por mm²
- Ampere (oficial) = 0,070 centavos de dólar por mm²
- Ampere (rumor) = 0,028 centavos de dólar por mm²
- Ada Lovelace = 0,240 centavos de dólar por mm²

Logo uma 4080 (379mm²) custa, para a NVIDIA, ~91 dólares para ser fabricada, enquanto que uma 3090 (628mm²) custava ~44 dólares de forma oficial ou ~18 dólares, segundo o rumor, para ser feita. Então mesmo sendo muito maior a 3090 era de 2x à 5x mais barata de ser fabricada que a 4080, ou seja, a verdinha ganha menos por placa numa 4080 de 1200 dólares do que ganhava numa 3080 de 700 dólares. Claro que a quantidade de chips fabricado por wafer inverte essa """perda""" (são 89 chips de 628mm² ou 148 chips de 379mm²), mas não deixa de provar meu ponto: As Ampere não podem entrar em um ring comparativo de forma justa, é preciso citar o nó e seu custo para se ter o escopo completo. Por fim, não estou justificando esse aumento absurdo para 1200 dólares, apenas de que o aumento viria e seria grande por voltar a usar a TSMC.

PS: Para efeito de comparação, o custo por wafer de 10nm da TSMC é de 6k dólar, então se a NVIDIA utilizasse esse nó ao invés dos 8nm da Samsung uma GPU de 628mm² custaria ~53 dólares, logo indo pelo pelo rumor e definindo o desonto como 60% dá para se ter uma bela noção do quanto ela economizou, economia essa que ela não conseguiu com a TSMC.
 
Boa tarde pessoal! Voltei na semana passada dos USA e trouxe uma 4070 Super Ventus 3x, instalada e funcionando bonitinho...
1 - Como faço pra melhorar a questão de undervolt? Fiz um padrão aqui, ficou assim:
www.imgur.com/a/6F6Ii10
2 - A placa veio com aquela saida de 16 conectores, tinha uma 3070 antes que usava apenas 8 pinos... Utilizo os 16 conectores mesmo?
 
Aconselho a quando fazer comparações de preço por área, colocar as Ampere de fora xD

Falando sério, falei sério, a NVIDIA pegou o fiasco de nó de 8nm da Samsung a preço de banana (memes na época diziam até que a SS pagou para o Jensen usar suas fabs), enquanto que o nó de 5nm da TSMC vem a preço premium, então estranho seria manter o mesmo preço. Não se tem valores exatos do quanto a verdinha pagou pelos wafers da coreana, mas lembro que o Charlie (do SemiAccurate) chegou a dizer que "saiu quase de graça" e, em outro comentário numa conversa do Twitter, que "era um desconto de, no mínimo, 50%". Então sim, a NVIDIA teve um lucro imenso na geração RTX3000, mesmo seus chips sendo enormes (justamente por ter um desconto desses que ela arriscou chips assim, com certeza a taxa de aproveitamento foi muito baixa).

Só para aprofundar, custos das "bolachas":
- Turing -> TSMC 12nm = 4000 dólares por wafer
- Ampere (oficial) -> Samsung 8nm = 5000 dólares por wafer
- Ampere (rumor) -> Samsung 8nm = 2000 dólares por wafer (coloquei um desconto de 60% do valor base)
- Ada Lovelace -> TSMC 5nm = 17000 dólares por wafer

Se analisarmos o custo por mm², temos o seguinte em um wafer padrão de 300mm (70650mm²):
- Turing = 0,056 centavos de dólar por mm²
- Ampere (oficial) = 0,070 centavos de dólar por mm²
- Ampere (rumor) = 0,028 centavos de dólar por mm²
- Ada Lovelace = 0,240 centavos de dólar por mm²

Logo uma 4080 (379mm²) custa, para a NVIDIA, ~91 dólares para ser fabricada, enquanto que uma 3090 (628mm²) custava ~44 dólares de forma oficial ou ~18 dólares, segundo o rumor, para ser feita. Então mesmo sendo muito maior a 3090 era de 2x à 5x mais barata de ser fabricada que a 4080, ou seja, a verdinha ganha menos por placa numa 4080 de 1200 dólares do que ganhava numa 3080 de 700 dólares. Claro que a quantidade de chips fabricado por wafer inverte essa """perda""" (são 89 chips de 628mm² ou 148 chips de 379mm²), mas não deixa de provar meu ponto: As Ampere não podem entrar em um ring comparativo de forma justa, é preciso citar o nó e seu custo para se ter o escopo completo. Por fim, não estou justificando esse aumento absurdo para 1200 dólares, apenas de que o aumento viria e seria grande por voltar a usar a TSMC.

PS: Para efeito de comparação, o custo por wafer de 10nm da TSMC é de 6k dólar, então se a NVIDIA utilizasse esse nó ao invés dos 8nm da Samsung uma GPU de 628mm² custaria ~53 dólares, logo indo pelo pelo rumor e definindo o desonto como 60% dá para se ter uma bela noção do quanto ela economizou, economia essa que ela não conseguiu com a TSMC.
Concordo, porém se a nVidia aumentou apenas $100 no modelo mais complexo e com chip equivalente (e essa é minha maior crítica), ela poderia ter aumentado os mesmos $100 pras outras, principalmente porque diminuiu bastante o tamanho do chip e compensaria os 4GB/6GB a mais de VRAM.
 
Boa tarde pessoal! Voltei na semana passada dos USA e trouxe uma 4070 Super Ventus 3x, instalada e funcionando bonitinho...
1 - Como faço pra melhorar a questão de undervolt? Fiz um padrão aqui, ficou assim:
www.imgur.com/a/6F6Ii10
2 - A placa veio com aquela saida de 16 conectores, tinha uma 3070 antes que usava apenas 8 pinos... Utilizo os 16 conectores mesmo?
Usa todos, a placa é capaz de ligar um led vermelho se faltar um cabo com os 8 pinos
 
Concordo, porém se a nVidia aumentou apenas $100 no modelo mais complexo e com chip equivalente (e essa é minha maior crítica), ela poderia ter aumentado os mesmos $100 pras outras, principalmente porque diminuiu bastante o tamanho do chip e compensaria os 4GB/6GB a mais de VRAM.
Aí vc quer estragar as margens do jaquetinha
 
E qual deveria ser o valor justo pra vocês? Se uma xx80 custava x e entregava x% deve ser mantido a proporção de chip e o valor ser corrigido apenas por inflação e boa? Tecnologias extras que vão surgindo não tem algum custo de R&D ou não trazem valor agregado? Fabricação em litografia menor e processos mais avançados não aumenta o custo? Yields são sempre os mesmos independente de geração e quão maduro o processo está? etcetc, não defendendo que a Nvidia deve cobrar $438943 numa GPU mas acho que é uma questão bem mais complexa do que fazem parecem ser aqui as vezes

Achei um site legal que estima o custo de fabricação: https://www.adapteva.com/white-papers/silicon-cost-calculator/

Achei que o custo waffer TSMC 5nm é 16K e Samsung 8nm era metade do TSMC 10nm (6K). Yeld TSMC 5nm atualmente na casa dos 90%, Samsung 8nm na época da RTX 3000 tem várias notícias que era horrível, se recordarem foi um paper launch durante meses por esse motivo. Sendo otimista, digamos que era entre 70% e 60%.

5nm TSMC (RTX 4080 $1199) vs 8nm Samsung (RTX 3080 $699)
Capturar3.jpg


Por essa news 1GB GDDR6 custava 12U$ em 2019-2020, final de 2023 beirava os 3U$. Eu chuto que 16GB GDDR6X da 4080 Super custe hoje igual ou até menos que 10GB da 3080 em 2020.


Edit: Corrigindo valor Samsung 8nm e Yeld TSMC (valeu daylann e igor)
 
Última edição:
Aí vc quer estragar as margens do jaquetinha
A jaquetinha de couro humano custa cara (e o couro é o nosso, que ele arranca a cada placa vendida)

Achei um site legal que estima o custo de fabricação: https://www.adapteva.com/white-papers/silicon-cost-calculator/

Achei que o custo waffer TSMC 5nm é 16K e Samsung 8nm era metade do TSMC 10nm (10K). Yeld TSMC 5nm dizem que é 80%, Samsung 8nm na época da RTX 3000 tem várias notícias que era horrível, se recordarem foi um paper launch durante meses por esse motivo. Sendo otimista, digamos que era entre 70% e 60%.

8nm Samsung (RTX 3080 $699) vs 5nm TSMC (RTX 4080 $1199)
J15D3k7.jpg


Por essa news 1GB GDDR6 custava 12U$ em 2019-2020, final de 2023 beirava os 3U$. Eu chuto que 16GB GDDR6X da 4080 Super custe hoje igual ou até menos que 10GB da 3080 em 2020.
Muito boa essa calculadora, vou guardar no acervo
 
Última edição:
Para defender a nVidia, alguns colegas disseram que eu fiquei "pistola" e me acusaram de defender AMD kkkkk
Outros vieram argumentar que a nVidia cobra mais por oferecer mais... mas aí estão pensando "apenas" em games. Eu sei que esse mercado é muito rentável e pega a maioria dos usuários, mas uma GPU não tem apenas essa finalidade. Estão defendendo vender um produto ULTRA-INFLACIONADO, pq possui um recurso usado para ludibriar a mente e percepção humana, fazendo-os acreditar que ele é melhor...
É, a raça humana não tem mais jeito... sejam felizes, todos vcs...
 
Para defender a nVidia, alguns colegas disseram que eu fiquei "pistola" e me acusaram de defender AMD kkkkk
Outros vieram argumentar que a nVidia cobra mais por oferecer mais... mas aí estão pensando "apenas" em games. Eu sei que esse mercado é muito rentável e pega a maioria dos usuários, mas uma GPU não tem apenas essa finalidade. Estão defendendo vender um produto ULTRA-INFLACIONADO, pq possui um recurso usado para ludibriar a mente e percepção humana, fazendo-os acreditar que ele é melhor...
É, a raça humana não tem mais jeito... sejam felizes, todos vcs...
Vc diz "apenas em jogos", mas é justamente em outros mercados que a nvidia entrega ainda mais valor que a AMD, só ver os preços das H100 comparado com as MI300 da AMD kkkkkkkk

Jogos tá longe de ser tão rentável quanto os outros mercados que a nvidia tá vendendo.
 
Vai ser parecido comigo a troca, fiquei indeciso sobre essas duas e só peguei a 70TI Super pq peguei por 5.6K, entre 6k a 6,8k ai eu ja iria direto pra 80, más como de todos os jogos que tem até o momento ''no meu gosto'' vou jogar tranquilo com a 70TIS.
Estava pensando o mesmo e ir direto para a 4080. Sei q não está com nenhum desconto, mais acham q vale esses 6.8k essa galaxy st? Ou tá mto acima do aceitável?
 
Estava pensando o mesmo e ir direto para a 4080. Sei q não está com nenhum desconto, mais acham q vale esses 6.8k essa galaxy st? Ou tá mto acima do aceitável?
Vale.
 

Users who are viewing this thread

Voltar
Topo