A grosso modo, sim, isso ai. Resta saber como a AMD fará a divisão disso ai de MCM x monolítico xDEntão dá pra esperar uma RX 7700XT = RX 6900XT.
A grosso modo, sim, isso ai. Resta saber como a AMD fará a divisão disso ai de MCM x monolítico xDEntão dá pra esperar uma RX 7700XT = RX 6900XT.
Se por exemplo tivéssemos uma RX 6900 XT que ao invés de um chip de 80CU tivesse dois chiplets de 40CU com tudo que estas patentes trazem a placa seria mais barata e teria um desempenho maior? Além de ter maior eficiência enérgica?Dobrar o desempenho de algo firmado é uma tarefa insanamente difícil, todas essas patentes sugerem uma nova forma de fazer algo contornando um problema atual, a patente MCM quebra um die em vários contornando o máximo de latência possível de se fazer isso. Qual o ganho? Se eu fizer 1x 80CU vs 2x 40CU MCM o desempenho será maior no caso monolítico, mas a perda pela patente no segundo caso será muito pequeno a ponto de valer a pena arriscar essa tomada para, por exemplo, 2x 60CU
A outra patente, interconexão chiplet, também não adiciona desempenho, ele contorna um problema. Essa patente atual, de colocar um MLA junto de uma cache em um chiplet, também é feita para se contornar um problema, afinal de contas o que impede a AMD de colocar esse núcleo MLA dentro do die de uma RDNA3 acessando o InfinityCache? Nada, mas isso aumentará o tamanho do die.
Deu para entender onde quero chegar? A importância dessas patentes não é entregar mais desempenho, é permitir atingir o mesmo desempenho a um custo menor de fabricação, ou seja, um ganho para eles e não necessariamente para nós. O foco em chiplets é justamente aumentar o rendimento em nós cada vez mais caros, só que isso adiciona muitos problemas de desempenho que precisam ser "remendados" com ideias novas que estamos acompanhando patente a patente.
Atualmente as RX6000 fazem isso que esse MLA faz direto nos CUs, a unidade computacional da RDNA2 consegue processar de INT4 à FP64, da mesma maneira que um "tensor core", mas como disse o problema é que para calcular isso o CU vai precisar competir com filas de processamento gráfico e assim render menos processando o jogo, logo uma unidade dedicada alivia a unidade computacional e permite inclusive simplificar ela para assim atingir clocks maiores e/ou ocupar menos espaço no die.
Então não, essas patentes não permitirão mais que o dobro, aquele valor de 2.5x em cima do RDNA2 vem do fato de serem dois chiplets com 80CUs, logo a grosso modo cada chiplet só ganhou 25% mais desempenho, ou seja, por essa previsão a nível de arquitetura a RDNA3 é 25% mais rápida que a RDNA2, mas como serão dois chiplets esse valor é dobrado.
EDIT: Creio que já disse aqui, mas o Kopite disse que a RDNA3 mais interessante será a Navi33 e não Navi31, possivelmente porque ela será a primeira placa monolítica do grupo. Especulando em cima disso será algo do tipo:
- Navi31 = 2x 80CU -> 160CU
- Navi32 = 2x 60CU -> 120CU
- Navi33 = 1x 80CU -> 80CU
- Navi34 = 1x 60CU -> 60CU
- Navi35 = 1x 40CU -> 40CU
- Assim por diante...
É o que disse esses dia, se continuar assim, vai chegar uma hora quem tem hoje uma rx570, 580, 1660, 1660ti, for querer trocar pois são placas mais basicas, muito provavelmente não terão condições para fazer um upgrade descente devido aos valores altos.Impressionante, em novembro uma RX550 de 4G estava R$ 499,00,...hoje R$ 799,00, a RX 6800 que tinha boletado por R$ 4800 hoje está 5999,99 !!!
Caraca, vou ter que colocar a VGA no cofre toda noite.
Não existirá mais placa razoável pelos 500,00.
Com certeza poderia se produzir muito mais Dies 100% funcionais em um Wafer de silício, agora quanto ao desempenho se o projeto da arquitetura fosse a mesma sem nenhuma modificação quando à eficiência , o desempenho seria menor, pois mesmo que se use vários artifícios para aprimorar a comunicação, ainda assim haveria um acréscimo de latência. É só vermos nos Ryzen 5000 x 3000, ao colocar 8 núcleos em um CCX (eram 4 nos zen/zen+ e zen2) a comunicação entre os nucleos ficou muito mais eficiente.Se por exemplo tivéssemos uma RX 6900 XT que ao invés de um chip de 80CU tivesse dois chiplets de 40CU com tudo que estas patentes trazem a placa seria mais barata e teria um desempenho maior? Além de ter maior eficiência enérgica?
Olha, perguntinha boa essa ein :3Se por exemplo tivéssemos uma RX 6900 XT que ao invés de um chip de 80CU tivesse dois chiplets de 40CU com tudo que estas patentes trazem a placa seria mais barata e teria um desempenho maior? Além de ter maior eficiência enérgica?
A questão do aumento de eficiência ganho com o aumento do CCX se deve ao fato do CCX do Zen2 precisar acessar o cIOD para poder ler algo da L3$ do CCX vizinho, no Zen3 isso não é mais necessário. Tanto que ao colocar 8 núcleos no mesmo CCX a latência interna real aumentou (dobro de núcleos acessando o dobro de L3$) mas pela cache L3 ter dobrado de tamanho a quantidade de dados lá permite um menor acesso ao cIOD, diminuindo a latência interna efetiva.Com certeza poderia se produzir muito mais Dies 100% funcionais em um Wafer de silício, agora quanto ao desempenho se o projeto da arquitetura fosse a mesma sem nenhuma modificação quando à eficiência , o desempenho seria menor, pois mesmo que se use vários artifícios para aprimorar a comunicação, ainda assim haveria um acréscimo de latência. É só vermos nos Ryzen 5000 x 3000, ao colocar 8 núcleos em um CCX (eram 4 nos zen/zen+ e zen2) a comunicação entre os nucleos ficou muito mais eficiente.
Eu só vejo essas notícias de inovações espantosas pela AMD, a NVIDIA continua no feijão com arroz ainda ou tem algo "diabólico", como a AMD, em mente?
Se houver outro salto de performance semelhante ao dessa geração, é perigoso a AMD monopolizar até o mercado de VGAs daqui 2-3 gerações...
Lembrando que eles ja estão roubando share da nvidia no mercado automobilístico, entrando no mercado Mobile e já detem o monopólio do mercado de consoles, além de ter engolido a intel no mercado de processadores "domésticos"...
Parece-me que as inovações da NVIDIA estão mais voltadas aos softwares enquanto a AMD ta focada 100% em hardware kkk
Também não é assim, quanto tempo a AMD ficou requentando chip e na arquitetura GCN?Sempre foi assim, desde as HD 3870 x 8800 GT kkk.
Eu só vejo essas notícias de inovações espantosas pela AMD, a NVIDIA continua no feijão com arroz ainda ou tem algo "diabólico", como a AMD, em mente?
Se houver outro salto de performance semelhante ao dessa geração, é perigoso a AMD monopolizar até o mercado de VGAs daqui 2-3 gerações...
Lembrando que eles ja estão roubando share da nvidia no mercado automobilístico, entrando no mercado Mobile e já detem o monopólio do mercado de consoles, além de ter engolido a intel no mercado de processadores "domésticos"...
Parece-me que as inovações da NVIDIA estão mais voltadas aos softwares enquanto a AMD ta focada 100% em hardware kkk
Eu só vejo essas notícias de inovações espantosas pela AMD, a NVIDIA continua no feijão com arroz ainda ou tem algo "diabólico", como a AMD, em mente?
Se houver outro salto de performance semelhante ao dessa geração, é perigoso a AMD monopolizar até o mercado de VGAs daqui 2-3 gerações...
Lembrando que eles ja estão roubando share da nvidia no mercado automobilístico, entrando no mercado Mobile e já detem o monopólio do mercado de consoles, além de ter engolido a intel no mercado de processadores "domésticos"...
Parece-me que as inovações da NVIDIA estão mais voltadas aos softwares enquanto a AMD ta focada 100% em hardware kkk
Onde teria algo minimamente didático a respeito?Sugiro você pesquisar os leaks da LoveLace, sucessora da Ampere, vai ser fabricada nos 5nm da TSMC.
Onde teria algo minimamente didático a respeito?
![]()
NVIDIA AD102 (Lovelace) GPU rumored to offer up to 18432 CUDA cores - VideoCardz.com
New information on the NVIDIA AD102 graphics processor surfaces. NVIDIA Lovelace AD102 GPU A week ago we reported that NVIDIA will introduce a new graphics architecture named after Ada Lovelace. The series is expected to be NVIDIA’s next gaming architecture that could arrive even before Hopper...videocardz.com
Histórico recente (de acordo com o TPU), até 5% de variação considerei equivalente.
GTX 970 equivalente a GTX 780 Ti (no lançamento, um ano depois superou a 780 Ti).
GTX 1070 10% melhor que a GTX 980 Ti.
RTX 2070 10% inferior a GTX 1080 Ti.
RTX 2070 Super equivalente a GTX 1080 Ti.
RTX 3070 equivalente a RTX 2080 Ti.
Eu já tinha perguntado ao @dayllann e historicamente a NVIDIA só usa o melhor nó disponível no mercado quando a AMD aperta ela. NVIDIA indo para 5nm em 2022 é um indício que vão lançar um produto melhor que o esperado.
Pode esperar pelo menos uma RTX 4070 equivalente a RTX 3090, em cenários escolhidos a dedo talvez uma RTX 4060 Ti trocando farpas com a RTX 3080 Ti.
Se a NVIDIA falhar em entregar isso, aposto que a AMD leva a "performance crown" em 2022. Mas pode ter certeza que o Jensen não vai entregar a coroa sem brigar.
Independente da concorrência direta da RDNA3 para Desktop, a NVIDIA precisa aumentar significativamente a performance das GPUs, por quê?
Console ganhar mercado em cima do PC não é vantajoso para a NVIDIA (afinal ela não fornece o hardware dos consoles). A partir do momento que você precisa de uma GPU de $400 para ter um PC equivalente ou melhor que um console de $400, a situação não é boa para a NVIDIA.
Acredito que na próxima geração será possível encontrar computadores de $500~$600 capazes de rivalizar com os consoles, algo impossível hoje.
Mas uma série 70 ser igual uma 80ti não é inovação, é o que sempre acontece
Mudar para litografia menor ambas irão fazer, minha dúvida é se a nvidia irá aplicar essas novas tecnologias que a amd está patenteando
Só lembrando que a AMD utiliza memórias GDDR6 e o infinitycache 1.É o que acontece desde a série 900, desde as Maxwell, por isso você deve encontrar algumas referências ao termo "maxwell moment" pois é o quando a NVIDIA acertou suas arquiteturas e garantiu a "dominância" no mercado.
Por isso eu digo, se a NVIDIA falhar em entregar uma 4070 equivalente a 3090, a AMD possivelmente vai roubar a coroa.
Tem muitos apostando que a RDNA3 será o "Maxwell moment" da AMD.
No lado da AMD eu não tenho dúvidas que veremos um monstrinho... +50% performance em 4K é coisa pra k**
No lado da NVIDIA não estou tão certo, tudo depende do quão forte vir as próximas placas da NVIDIA.
--- Post duplo é unido automaticamente: ---
@PedroMS
Esqueci de comentar, mas outro detalhe, considerando RDNA2 vs Ampere:
A AMD praticamente empatou em rasterização com NVIDIA (uma leve desvantagem na média se observar a performance relativa no TPU).
Mas tem que lembrar que RDNA2 usa TSMC 7nm (N7) e Ampere usa Samsung 8nm. Então tecnicamente a Ampere é uma arquitetura superior pois faz a mesma coisa num nó inferior.
O N7 tem uma densidade máxima aproximada de 96 milhões de transistores por mm², enquanto o Samsung 8nm tem 61 milhões.
Na próxima geração, RDNA3 e Lovelace estarão nos 5nm da TSMC, que tem uma densidade de 173 milhões de transistores por mm².
Fonte:
![]()
VLSI 2018: Samsung's 8nm 8LPP, a 10nm extension
A look at Samsung’s 8nm 8LPP process that was recently disclosed at the 38th Symposium on VLSI Technology.fuse.wikichip.org
![]()
TSMC Starts 5-Nanometer Risk Production
TSMC 5-nanometer node has entered risk production with PDKs available for production design. Here's is our initial density estimates.fuse.wikichip.org
Só lembrando que a AMD utiliza memórias GDDR6 e o infinitycache 1.
E se utilizassem HBM ou GDDR6x tal como a nvidia? Qual seria o resultado/estrago na concorrência?
Digo isso pois não devemos nos ater a suposições, tal como alguns fazem quando falam de AMD x Intel, uma usa 7nm e outra 14nm++++++++++++++++++++ e mesmo assim consegue alcançar a concorrente, IMAGINA se usasse 7nm.
Isso de "imaginar" pode levar a dezenas de SUPOSIÇÕES diferentes, o que é mais fácil de acontecer atualmente:
a) AMD lançar um refresh com GDDR6x ou HBM
b) NVIDIA mudar para 7nm antes da mudança para 5nm?
Qual arquitetura ainda tem caldo para ser retirado de maneira "prática"? Ampere ou RDNA2?
Entende meu ponto? Suposição por suposição fica algo muito amplo, muito "e se?"
Mas um "e se":
Se a AMD remover os limites de BIOS de overclock da 6800xt e botar memórias HBM/GDDR6x? Acredito que seja mais fácil que a NVIDIA mudar a litografia para 7nm antes do salto para 5nm.
Um refresh XT"X" da AMD tem muito mais espaço, plausabilidade e praticidade - acredito eu - que um refresh "Super"/"Ti" da Nvidia por agora.
Digo, GDDR6X/HBM + InfinityCache para um possível refresh antes do RDNA3A memória GDDR6 / Infinity Cache é uma solução na minha opinião mais nobre e refinada do que partir para largura de bus grande e GDDR6X.
Tem o tradeoff de não render tão bem no 4K, mas reduz muito a complexidade do controlador de memória.
Creio que AMD vai conseguir os ajustes finos necessários para superar esse "gap do 4K" na RDNA3.
Questão de nós tem que saber comparar.
O nome 7nm, 8nm ou 14nm não quer dizer nada, são nomes comerciais.
Os 14nm (++ ad eternum) da Intel são mais densos que todos nós da TSMC e Samsung da "família 10nm" (10nm, 10nm+, 8nm, etc).
Digo, GDDR6X/HBM + InfinityCache para um possível refresh antes do RDNA3
Qual seria o ganho de desempenho com essa brincadiera?
Sim, vamos aguardar!Não vejo necessidade para HBM com Cache no die. HBM2 trabalha com pilhas e requer 512-bit (8gb) ou 1024-bit (16gb).
Talvez os 19~21Gbps que se consegue com GDDR6X seriam suficientes para eliminar qualquer gargalo de memória.
Mas eu não entendo tão bem de arquitetura a ponto de dizer se somente uma memórias rápida resolveria.
Quanto maior a bus, mais canais de memória, talvez o chip consiga render mais com mais canais do que simplesmente com uma velocidade maior por canal. Creio que o @dayllann deva saber explicar.
Sim, vamos aguardar!
Ainda tem a questão da BIOS limitando o over da placa, uma BIOS "free" + 3 conectores 8 pinos e a HBM+GDDR6x não seriam muito dificeis de ser implementados e gerariam um ganho interessante ao que tudo indica, vamos ver o que o dayllann tem a dizer sobre isso
Creio que AMD vai conseguir os ajustes finos necessários para superar esse "gap do 4K" na RDNA3.
É o que disse esses dia, se continuar assim, vai chegar uma hora quem tem hoje uma rx570, 580, 1660, 1660ti, for querer trocar pois são placas mais basicas, muito provavelmente não terão condições para fazer um upgrade descente devido aos valores altos.
Hoje o BR com o salário mínimo mal consegue comprar uma 1650, 1050ti. A coisa esta feia.![]()
mesmo o frete da china ficando mais caro ainja vale a pena compra direto de la+ RT.
Provavelmente irão inserir também no RDNA3 algo dedicado e melhor para calcular raytracing.
--- Post duplo é unido automaticamente: ---
Já visualizo no mercado o pessoal querendo vender essas "tranqueiras" vgas de entrada até por 2 mil...total viagem também. É o que retroalimenta os custos altos das mais high-ends.
E com o custo do frete aumentando da China, o dragãozinho chines baratinho da crise já era...PC virou artigo de luxo, tipo onde já se viu um notebook custar R$ 21 mil...quando a maioria custava 2 mil a 3 mil e se comprava um i7...nunca que valeu o quanto pesa essa marca, no caso Apple, mas os demais seguem os mesmos caminhos...
Se pensar em PC "gamer", um XBOX S + game pass já está saindo muito a frente na conta do lápis se parar para refletir.
#indignação