[TÓPICO DEDICADO] NAVI - próxima geração de GPUs da AMD

Então dá pra esperar uma RX 7700XT = RX 6900XT.
A grosso modo, sim, isso ai. Resta saber como a AMD fará a divisão disso ai de MCM x monolítico xD
 
A AMD já demonstrou que acertou ao conceber a arquitetura Zen em chiplets, muito mais eficiente para se produzir do que a arquitetura monolítica da Intel.
E a cada nova geração os chiplets são aprimorados, tanto que hoje temos os Zen 2 e 3 com desempenho incomparável em aplicações que demandam grande quantidade de núcleos.
Ao meu ver é lógico com com os processos de fabricação cada vez menores e mais caros, uma arquitetura de GPU feita com chiplets seria perfeita do ponto de vista de fabricação, poís sabemos que as GPUs tem um Die muito maior que os CPUS, "quebrando" estes em chiplets na teoria poderia se produzir muito mais Dies 100% funcionais do que um projeto monolítico com um Die gigante. Resta saber como realmente será essa implementação em termos de escalabilidade de desempenho.
 
Dobrar o desempenho de algo firmado é uma tarefa insanamente difícil, todas essas patentes sugerem uma nova forma de fazer algo contornando um problema atual, a patente MCM quebra um die em vários contornando o máximo de latência possível de se fazer isso. Qual o ganho? Se eu fizer 1x 80CU vs 2x 40CU MCM o desempenho será maior no caso monolítico, mas a perda pela patente no segundo caso será muito pequeno a ponto de valer a pena arriscar essa tomada para, por exemplo, 2x 60CU :)

A outra patente, interconexão chiplet, também não adiciona desempenho, ele contorna um problema. Essa patente atual, de colocar um MLA junto de uma cache em um chiplet, também é feita para se contornar um problema, afinal de contas o que impede a AMD de colocar esse núcleo MLA dentro do die de uma RDNA3 acessando o InfinityCache? Nada, mas isso aumentará o tamanho do die.

Deu para entender onde quero chegar? A importância dessas patentes não é entregar mais desempenho, é permitir atingir o mesmo desempenho a um custo menor de fabricação, ou seja, um ganho para eles e não necessariamente para nós. O foco em chiplets é justamente aumentar o rendimento em nós cada vez mais caros, só que isso adiciona muitos problemas de desempenho que precisam ser "remendados" com ideias novas que estamos acompanhando patente a patente.

Atualmente as RX6000 fazem isso que esse MLA faz direto nos CUs, a unidade computacional da RDNA2 consegue processar de INT4 à FP64, da mesma maneira que um "tensor core", mas como disse o problema é que para calcular isso o CU vai precisar competir com filas de processamento gráfico e assim render menos processando o jogo, logo uma unidade dedicada alivia a unidade computacional e permite inclusive simplificar ela para assim atingir clocks maiores e/ou ocupar menos espaço no die.

Então não, essas patentes não permitirão mais que o dobro, aquele valor de 2.5x em cima do RDNA2 vem do fato de serem dois chiplets com 80CUs, logo a grosso modo cada chiplet só ganhou 25% mais desempenho, ou seja, por essa previsão a nível de arquitetura a RDNA3 é 25% mais rápida que a RDNA2, mas como serão dois chiplets esse valor é dobrado.

EDIT: Creio que já disse aqui, mas o Kopite disse que a RDNA3 mais interessante será a Navi33 e não Navi31, possivelmente porque ela será a primeira placa monolítica do grupo. Especulando em cima disso será algo do tipo:
- Navi31 = 2x 80CU -> 160CU
- Navi32 = 2x 60CU -> 120CU
- Navi33 = 1x 80CU -> 80CU
- Navi34 = 1x 60CU -> 60CU
- Navi35 = 1x 40CU -> 40CU
- Assim por diante...
Se por exemplo tivéssemos uma RX 6900 XT que ao invés de um chip de 80CU tivesse dois chiplets de 40CU com tudo que estas patentes trazem a placa seria mais barata e teria um desempenho maior? Além de ter maior eficiência enérgica?
 
Impressionante, em novembro uma RX550 de 4G estava R$ 499,00,...hoje R$ 799,00, a RX 6800 que tinha boletado por R$ 4800 hoje está 5999,99 !!!

Caraca, vou ter que colocar a VGA no cofre toda noite.

Não existirá mais placa razoável pelos 500,00.
É o que disse esses dia, se continuar assim, vai chegar uma hora quem tem hoje uma rx570, 580, 1660, 1660ti, for querer trocar pois são placas mais basicas, muito provavelmente não terão condições para fazer um upgrade descente devido aos valores altos.

Hoje o BR com o salário mínimo mal consegue comprar uma 1650, 1050ti. A coisa esta feia. :bua:
 
Se por exemplo tivéssemos uma RX 6900 XT que ao invés de um chip de 80CU tivesse dois chiplets de 40CU com tudo que estas patentes trazem a placa seria mais barata e teria um desempenho maior? Além de ter maior eficiência enérgica?
Com certeza poderia se produzir muito mais Dies 100% funcionais em um Wafer de silício, agora quanto ao desempenho se o projeto da arquitetura fosse a mesma sem nenhuma modificação quando à eficiência , o desempenho seria menor, pois mesmo que se use vários artifícios para aprimorar a comunicação, ainda assim haveria um acréscimo de latência. É só vermos nos Ryzen 5000 x 3000, ao colocar 8 núcleos em um CCX (eram 4 nos zen/zen+ e zen2) a comunicação entre os nucleos ficou muito mais eficiente.
 
Se por exemplo tivéssemos uma RX 6900 XT que ao invés de um chip de 80CU tivesse dois chiplets de 40CU com tudo que estas patentes trazem a placa seria mais barata e teria um desempenho maior? Além de ter maior eficiência enérgica?
Olha, perguntinha boa essa ein :3

Vou começar com essa imagem da própria AMD, olha o que ela disse sobre MCM vs Monolítico, ao apresentar o Cezanne (Zen3 Mobile):
image-74.png

Latência é importante, e em GPUs para jogos mais ainda, então se ir do MCM do Zen3 desktop para um die monolítico no Zen3 mobile proporcionou um ganho nessa área, o caminho inverso significa perda e não tem como evitar isso, você está distanciando unidades computacionais, haverá perdas. Sabendo disso, se a Navi21 fosse 2x 40CUs com essas patentes o custo de fabricação seria bem menor, o rendimento seria maior e o preço de venda seria o mesmo, é assim que funciona o capitalismo xD

Quanto ao desempenho? Pelos cálculos de baixa precisão estarem se dando em outro chiplet o rendimento gráfico dela seria maior, pelo RTRT ter um comando próprio e externo o desempenho dele seria maior e impactaria menos nas unidades computacionais, ambos proporcionariam um die menor e mais eficiente, dando a possibilidade de clocks maiores ou menor consumo; Por ter dies separados haverá ganho de latência mas se o buffer/cache entre os chiplets computacionais for grande o suficiente (tipo, 256MB de IC) essa latência extra será mascarada.

No geral os ganhos seriam maiores que a perdas, entregando um resultado positivo, se for quantificar eu diria que ao invés de 50% perf/watt em cima da RDNA1 o ganho seria de 80% de perf/watt, mas se fosse monolítico o ganho beiraria os 100% (dobro) de perf/watt em cima da RDNA1, mas o custo seria proibitivo porque o rendimento baixo seria jogado em cima do produto final como acréscimo de preço.


Com certeza poderia se produzir muito mais Dies 100% funcionais em um Wafer de silício, agora quanto ao desempenho se o projeto da arquitetura fosse a mesma sem nenhuma modificação quando à eficiência , o desempenho seria menor, pois mesmo que se use vários artifícios para aprimorar a comunicação, ainda assim haveria um acréscimo de latência. É só vermos nos Ryzen 5000 x 3000, ao colocar 8 núcleos em um CCX (eram 4 nos zen/zen+ e zen2) a comunicação entre os nucleos ficou muito mais eficiente.
A questão do aumento de eficiência ganho com o aumento do CCX se deve ao fato do CCX do Zen2 precisar acessar o cIOD para poder ler algo da L3$ do CCX vizinho, no Zen3 isso não é mais necessário. Tanto que ao colocar 8 núcleos no mesmo CCX a latência interna real aumentou (dobro de núcleos acessando o dobro de L3$) mas pela cache L3 ter dobrado de tamanho a quantidade de dados lá permite um menor acesso ao cIOD, diminuindo a latência interna efetiva.

Efetivo e real são as duas palavras que ficarão "em alta" quando começar a se popularizar isso de cache como buffer. Primeiro com o Zen2, depois com o Zen3 e agora com o RDNA2, a RDNA3 será a próxima e pelos vazamentos a NVIDIA virá com algo parecido nas suas próximas arquiteturas :3
 
Eu só vejo essas notícias de inovações espantosas pela AMD, a NVIDIA continua no feijão com arroz ainda ou tem algo "diabólico", como a AMD, em mente?

Se houver outro salto de performance semelhante ao dessa geração, é perigoso a AMD monopolizar até o mercado de VGAs daqui 2-3 gerações...

Lembrando que eles ja estão roubando share da nvidia no mercado automobilístico, entrando no mercado Mobile e já detem o monopólio do mercado de consoles, além de ter engolido a intel no mercado de processadores "domésticos"...

Parece-me que as inovações da NVIDIA estão mais voltadas aos softwares enquanto a AMD ta focada 100% em hardware kkk
 
Eu só vejo essas notícias de inovações espantosas pela AMD, a NVIDIA continua no feijão com arroz ainda ou tem algo "diabólico", como a AMD, em mente?

Se houver outro salto de performance semelhante ao dessa geração, é perigoso a AMD monopolizar até o mercado de VGAs daqui 2-3 gerações...

Lembrando que eles ja estão roubando share da nvidia no mercado automobilístico, entrando no mercado Mobile e já detem o monopólio do mercado de consoles, além de ter engolido a intel no mercado de processadores "domésticos"...

Parece-me que as inovações da NVIDIA estão mais voltadas aos softwares enquanto a AMD ta focada 100% em hardware kkk

Sempre foi assim, desde as HD 3870 x 8800 GT kkk.
 
Sempre foi assim, desde as HD 3870 x 8800 GT kkk.
Também não é assim, quanto tempo a AMD ficou requentando chip e na arquitetura GCN?

Só acordaram na RDNA, antes disso foi quase uma década na merda enquanto a nvidia inovava em arquitetura e software
 
Eu só vejo essas notícias de inovações espantosas pela AMD, a NVIDIA continua no feijão com arroz ainda ou tem algo "diabólico", como a AMD, em mente?

Se houver outro salto de performance semelhante ao dessa geração, é perigoso a AMD monopolizar até o mercado de VGAs daqui 2-3 gerações...

Lembrando que eles ja estão roubando share da nvidia no mercado automobilístico, entrando no mercado Mobile e já detem o monopólio do mercado de consoles, além de ter engolido a intel no mercado de processadores "domésticos"...

Parece-me que as inovações da NVIDIA estão mais voltadas aos softwares enquanto a AMD ta focada 100% em hardware kkk

Sugiro você pesquisar os leaks da LoveLace, sucessora da Ampere, vai ser fabricada nos 5nm da TSMC.
 
Eu só vejo essas notícias de inovações espantosas pela AMD, a NVIDIA continua no feijão com arroz ainda ou tem algo "diabólico", como a AMD, em mente?

Se houver outro salto de performance semelhante ao dessa geração, é perigoso a AMD monopolizar até o mercado de VGAs daqui 2-3 gerações...

Lembrando que eles ja estão roubando share da nvidia no mercado automobilístico, entrando no mercado Mobile e já detem o monopólio do mercado de consoles, além de ter engolido a intel no mercado de processadores "domésticos"...

Parece-me que as inovações da NVIDIA estão mais voltadas aos softwares enquanto a AMD ta focada 100% em hardware kkk

Olha a inovação da Nvidia com a Turing, RT Cores e Tensor Cores, a AMD tem que correr atrás do prejuízo mesmo. Depois de tanto tempo estacionada nas GCN.
 
Onde teria algo minimamente didático a respeito?






Histórico recente (de acordo com o TPU), até 5% de variação considerei equivalente.

GTX 970 equivalente a GTX 780 Ti (no lançamento, um ano depois superou a 780 Ti).
GTX 1070 10% melhor que a GTX 980 Ti.
RTX 2070 10% inferior a GTX 1080 Ti.
RTX 2070 Super equivalente a GTX 1080 Ti.
RTX 3070 equivalente a RTX 2080 Ti.

Eu já tinha perguntado ao @dayllann e historicamente a NVIDIA só usa o melhor nó disponível no mercado quando a AMD aperta ela. NVIDIA indo para 5nm em 2022 é um indício que vão lançar um produto melhor que o esperado.

Pode esperar pelo menos uma RTX 4070 equivalente a RTX 3090, em cenários escolhidos a dedo talvez uma RTX 4060 Ti trocando farpas com a RTX 3080 Ti.

Se a NVIDIA falhar em entregar isso, aposto que a AMD leva a "performance crown" em 2022. Mas pode ter certeza que o Jensen não vai entregar a coroa sem brigar.

Independente da concorrência direta da RDNA3 para Desktop, a NVIDIA precisa aumentar significativamente a performance das GPUs, por quê?

Console ganhar mercado em cima do PC não é vantajoso para a NVIDIA (afinal ela não fornece o hardware dos consoles). A partir do momento que você precisa de uma GPU de $400 para ter um PC equivalente ou melhor que um console de $400, a situação não é boa para a NVIDIA.

Acredito que na próxima geração será possível encontrar computadores de $500 capazes de rivalizar com o PS5 / Xbox Series X, algo impossível hoje.
 
Última edição:





Histórico recente (de acordo com o TPU), até 5% de variação considerei equivalente.

GTX 970 equivalente a GTX 780 Ti (no lançamento, um ano depois superou a 780 Ti).
GTX 1070 10% melhor que a GTX 980 Ti.
RTX 2070 10% inferior a GTX 1080 Ti.
RTX 2070 Super equivalente a GTX 1080 Ti.
RTX 3070 equivalente a RTX 2080 Ti.

Eu já tinha perguntado ao @dayllann e historicamente a NVIDIA só usa o melhor nó disponível no mercado quando a AMD aperta ela. NVIDIA indo para 5nm em 2022 é um indício que vão lançar um produto melhor que o esperado.

Pode esperar pelo menos uma RTX 4070 equivalente a RTX 3090, em cenários escolhidos a dedo talvez uma RTX 4060 Ti trocando farpas com a RTX 3080 Ti.

Se a NVIDIA falhar em entregar isso, aposto que a AMD leva a "performance crown" em 2022. Mas pode ter certeza que o Jensen não vai entregar a coroa sem brigar.

Independente da concorrência direta da RDNA3 para Desktop, a NVIDIA precisa aumentar significativamente a performance das GPUs, por quê?

Console ganhar mercado em cima do PC não é vantajoso para a NVIDIA (afinal ela não fornece o hardware dos consoles). A partir do momento que você precisa de uma GPU de $400 para ter um PC equivalente ou melhor que um console de $400, a situação não é boa para a NVIDIA.

Acredito que na próxima geração será possível encontrar computadores de $500~$600 capazes de rivalizar com os consoles, algo impossível hoje.

Mas uma série 70 ser igual uma 80ti não é inovação, é o que sempre acontece

Mudar para litografia menor ambas irão fazer, minha dúvida é se a nvidia irá aplicar essas novas tecnologias que a amd está patenteando
 
Mas uma série 70 ser igual uma 80ti não é inovação, é o que sempre acontece

Mudar para litografia menor ambas irão fazer, minha dúvida é se a nvidia irá aplicar essas novas tecnologias que a amd está patenteando

É o que acontece desde a série 900, desde as Maxwell, por isso você deve encontrar algumas referências ao termo "maxwell moment" pois é o quando a NVIDIA acertou suas arquiteturas e garantiu a "dominância" no mercado.

Por isso eu digo, se a NVIDIA falhar em entregar uma 4070 equivalente a 3090, a AMD possivelmente vai roubar a coroa.

Tem muitos apostando que a RDNA3 será o "Maxwell moment" da AMD.

No lado da AMD eu não tenho dúvidas que veremos um monstrinho... +50% performance em 4K é coisa pra k**

No lado da NVIDIA não estou tão certo, tudo depende do quão forte vir as próximas placas da NVIDIA.
--- Post duplo é unido automaticamente: ---

@PedroMS

Esqueci de comentar, mas outro detalhe, considerando RDNA2 vs Ampere:

A AMD praticamente empatou em rasterização com NVIDIA (uma leve desvantagem na média se observar a performance relativa no TPU).

Mas tem que lembrar que RDNA2 usa TSMC 7nm (N7) e Ampere usa Samsung 8nm. Então tecnicamente a Ampere é uma arquitetura superior pois faz a mesma coisa num nó inferior.

O N7 tem uma densidade máxima aproximada de 96 milhões de transistores por mm², enquanto o Samsung 8nm tem 61 milhões.

Na próxima geração, RDNA3 e Lovelace estarão nos 5nm da TSMC, que tem uma densidade de 173 milhões de transistores por mm².

Fonte:


 
Última edição:
É o que acontece desde a série 900, desde as Maxwell, por isso você deve encontrar algumas referências ao termo "maxwell moment" pois é o quando a NVIDIA acertou suas arquiteturas e garantiu a "dominância" no mercado.

Por isso eu digo, se a NVIDIA falhar em entregar uma 4070 equivalente a 3090, a AMD possivelmente vai roubar a coroa.

Tem muitos apostando que a RDNA3 será o "Maxwell moment" da AMD.

No lado da AMD eu não tenho dúvidas que veremos um monstrinho... +50% performance em 4K é coisa pra k**

No lado da NVIDIA não estou tão certo, tudo depende do quão forte vir as próximas placas da NVIDIA.
--- Post duplo é unido automaticamente: ---

@PedroMS

Esqueci de comentar, mas outro detalhe, considerando RDNA2 vs Ampere:

A AMD praticamente empatou em rasterização com NVIDIA (uma leve desvantagem na média se observar a performance relativa no TPU).

Mas tem que lembrar que RDNA2 usa TSMC 7nm (N7) e Ampere usa Samsung 8nm. Então tecnicamente a Ampere é uma arquitetura superior pois faz a mesma coisa num nó inferior.

O N7 tem uma densidade máxima aproximada de 96 milhões de transistores por mm², enquanto o Samsung 8nm tem 61 milhões.

Na próxima geração, RDNA3 e Lovelace estarão nos 5nm da TSMC, que tem uma densidade de 173 milhões de transistores por mm².

Fonte:


Só lembrando que a AMD utiliza memórias GDDR6 e o infinitycache 1.
E se utilizassem HBM ou GDDR6x tal como a nvidia? Qual seria o resultado/estrago na concorrência?

Digo isso pois não devemos nos ater a suposições, tal como alguns fazem quando falam de AMD x Intel, uma usa 7nm e outra 14nm++++++++++++++++++++ e mesmo assim consegue alcançar a concorrente, IMAGINA se usasse 7nm.

Isso de "imaginar" pode levar a dezenas de SUPOSIÇÕES diferentes, o que é mais fácil de acontecer atualmente:
a) AMD lançar um refresh com GDDR6x ou HBM
b) NVIDIA mudar para 7nm antes da mudança para 5nm?

Qual arquitetura ainda tem caldo para ser retirado de maneira "prática"? Ampere ou RDNA2?

Entende meu ponto? Suposição por suposição fica algo muito amplo, muito "e se?"

Mas um "e se":
Se a AMD remover os limites de BIOS de overclock da 6800xt e botar memórias HBM/GDDR6x? Acredito que seja mais fácil que a NVIDIA mudar a litografia para 7nm antes do salto para 5nm.

Um refresh XT"X" da AMD tem muito mais espaço, plausabilidade e praticidade - acredito eu - que um refresh "Super"/"Ti" da Nvidia por agora.
 
Só lembrando que a AMD utiliza memórias GDDR6 e o infinitycache 1.
E se utilizassem HBM ou GDDR6x tal como a nvidia? Qual seria o resultado/estrago na concorrência?

Digo isso pois não devemos nos ater a suposições, tal como alguns fazem quando falam de AMD x Intel, uma usa 7nm e outra 14nm++++++++++++++++++++ e mesmo assim consegue alcançar a concorrente, IMAGINA se usasse 7nm.

Isso de "imaginar" pode levar a dezenas de SUPOSIÇÕES diferentes, o que é mais fácil de acontecer atualmente:
a) AMD lançar um refresh com GDDR6x ou HBM
b) NVIDIA mudar para 7nm antes da mudança para 5nm?

Qual arquitetura ainda tem caldo para ser retirado de maneira "prática"? Ampere ou RDNA2?

Entende meu ponto? Suposição por suposição fica algo muito amplo, muito "e se?"

Mas um "e se":
Se a AMD remover os limites de BIOS de overclock da 6800xt e botar memórias HBM/GDDR6x? Acredito que seja mais fácil que a NVIDIA mudar a litografia para 7nm antes do salto para 5nm.

Um refresh XT"X" da AMD tem muito mais espaço, plausabilidade e praticidade - acredito eu - que um refresh "Super"/"Ti" da Nvidia por agora.

A memória GDDR6 / Infinity Cache é uma solução na minha opinião mais nobre e refinada do que partir para largura de bus grande e GDDR6X.

Tem o tradeoff de não render tão bem no 4K, mas reduz muito a complexidade do controlador de memória.

Creio que AMD vai conseguir os ajustes finos necessários para superar esse "gap do 4K" na RDNA3.

Questão de nós tem que saber comparar.

O nome 7nm, 8nm ou 14nm não quer dizer nada, são nomes comerciais.

Os 14nm (++ ad eternum) da Intel são mais densos que todos nós da TSMC e Samsung da "família 10nm" (10nm, 10nm+, 8nm, etc).

Para comparar qual nó é superior tem que olhar as especificações, densidade de transistores, transistor pitch, etc..
 
A memória GDDR6 / Infinity Cache é uma solução na minha opinião mais nobre e refinada do que partir para largura de bus grande e GDDR6X.

Tem o tradeoff de não render tão bem no 4K, mas reduz muito a complexidade do controlador de memória.

Creio que AMD vai conseguir os ajustes finos necessários para superar esse "gap do 4K" na RDNA3.

Questão de nós tem que saber comparar.

O nome 7nm, 8nm ou 14nm não quer dizer nada, são nomes comerciais.

Os 14nm (++ ad eternum) da Intel são mais densos que todos nós da TSMC e Samsung da "família 10nm" (10nm, 10nm+, 8nm, etc).
Digo, GDDR6X/HBM + InfinityCache para um possível refresh antes do RDNA3

Qual seria o ganho de desempenho com essa brincadiera?
 
Digo, GDDR6X/HBM + InfinityCache para um possível refresh antes do RDNA3

Qual seria o ganho de desempenho com essa brincadiera?

Não vejo necessidade para HBM com Cache no die. HBM2 trabalha com pilhas e requer 512-bit (8gb) ou 1024-bit (16gb).

Talvez os 19~21Gbps que se consegue com GDDR6X seriam suficientes para eliminar qualquer gargalo de memória.

Mas eu não entendo tão bem de arquitetura a ponto de dizer se somente uma memórias rápida resolveria.

Quanto maior a bus, mais canais de memória, talvez o chip consiga render mais com mais canais do que simplesmente com uma velocidade maior por canal. Creio que o @dayllann deva saber explicar.
 
Não vejo necessidade para HBM com Cache no die. HBM2 trabalha com pilhas e requer 512-bit (8gb) ou 1024-bit (16gb).

Talvez os 19~21Gbps que se consegue com GDDR6X seriam suficientes para eliminar qualquer gargalo de memória.

Mas eu não entendo tão bem de arquitetura a ponto de dizer se somente uma memórias rápida resolveria.

Quanto maior a bus, mais canais de memória, talvez o chip consiga render mais com mais canais do que simplesmente com uma velocidade maior por canal. Creio que o @dayllann deva saber explicar.
Sim, vamos aguardar!
Ainda tem a questão da BIOS limitando o over da placa, uma BIOS "free" + 3 conectores 8 pinos e a HBM+GDDR6x não seriam muito dificeis de ser implementados e gerariam um ganho interessante ao que tudo indica, vamos ver o que o dayllann tem a dizer sobre isso
 
Sim, vamos aguardar!
Ainda tem a questão da BIOS limitando o over da placa, uma BIOS "free" + 3 conectores 8 pinos e a HBM+GDDR6x não seriam muito dificeis de ser implementados e gerariam um ganho interessante ao que tudo indica, vamos ver o que o dayllann tem a dizer sobre isso

Suspeito que a explicação seja similar a ideia de paralelismo dos SSDs, mais canais, melhor distribuição e melhor performance.
 
Creio que AMD vai conseguir os ajustes finos necessários para superar esse "gap do 4K" na RDNA3.

+ RT.

Provavelmente irão inserir também no RDNA3 algo dedicado e melhor para calcular raytracing.
--- Post duplo é unido automaticamente: ---

É o que disse esses dia, se continuar assim, vai chegar uma hora quem tem hoje uma rx570, 580, 1660, 1660ti, for querer trocar pois são placas mais basicas, muito provavelmente não terão condições para fazer um upgrade descente devido aos valores altos.

Hoje o BR com o salário mínimo mal consegue comprar uma 1650, 1050ti. A coisa esta feia. :bua:

Já visualizo no mercado o pessoal querendo vender essas "tranqueiras" vgas de entrada até por 2 mil...total viagem também. É o que retroalimenta os custos altos das mais high-ends.

E com o custo do frete aumentando da China, o dragãozinho chines baratinho da crise já era...PC virou artigo de luxo, tipo onde já se viu um notebook custar R$ 21 mil...quando a maioria custava 2 mil a 3 mil e se comprava um i7...nunca que valeu o quanto pesa essa marca, no caso Apple, mas os demais seguem os mesmos caminhos...

Se pensar em PC "gamer", um XBOX S + game pass já está saindo muito a frente na conta do lápis se parar para refletir.

#indignação
 
Última edição:
+ RT.

Provavelmente irão inserir também no RDNA3 algo dedicado e melhor para calcular raytracing.
--- Post duplo é unido automaticamente: ---



Já visualizo no mercado o pessoal querendo vender essas "tranqueiras" vgas de entrada até por 2 mil...total viagem também. É o que retroalimenta os custos altos das mais high-ends.

E com o custo do frete aumentando da China, o dragãozinho chines baratinho da crise já era...PC virou artigo de luxo, tipo onde já se viu um notebook custar R$ 21 mil...quando a maioria custava 2 mil a 3 mil e se comprava um i7...nunca que valeu o quanto pesa essa marca, no caso Apple, mas os demais seguem os mesmos caminhos...

Se pensar em PC "gamer", um XBOX S + game pass já está saindo muito a frente na conta do lápis se parar para refletir.

#indignação
mesmo o frete da china ficando mais caro ainja vale a pena compra direto de la

"o dragãozinho chines" so vale a pena pra quem ta com pouca grana afinal um kit e5 sai por 800 conto se não taxar coloca hd e fonte e uma vga baratinha e pronto
 
Aliexpress ainda tá bombando?

Li num grupo de hardware que estavam taxando quase tudo em Curitiba e SP.
 

Users who are viewing this thread

Voltar
Topo