Esse é o marketing agressivo.
Comeca com os reviewers sendo coagidos a modificarem suas opiniões e termina com os usuários repetindo sem parar: mas e o raytracing e DLSS?
Triste, ao invés da marca investir em uma arquitetura decente, mais memória, menos consumo, investem em software e pressão em cima de reviewers para dar o parecer que eles querem.
Simplesmente ridículo.
A parte do software eu não acho errado, inclusive a AMD deveria ser bem mais agressiva/investir mais nesse sentido, de que adianta ter um hardware forte se o lado software não coopera? Com o RDNA2 o driver vai auxiliar mais as placas tal como na NVIDIA mais ainda precisa ter um ecossistema para (começar) competir com a verdinha, no momento a NVIDIA não ganha nem porque é melhor, e sim porque não tem concorrência (vide o Broadcast).
Quanto ao hardware, a NVIDIA sempre avança num ritmo bom, o Jensen não se acomoda, o ganho pode até ser não tão alto algumas vezes (como foi o caso da Ampere) e até ousado (como as GTX 400), mas não dá para rotular como estagnação em uArch (raras as vezes isso aconteceu, como na série FX, GF9 e GTX 500), diferente do que a AMD fez com a linha GCN... aliás a NVIDIA prefere investir em uma uArch nova ao invés de otimizar/evoluir ela, é uma tomada diferente da AMD.
mas o RT da AMD Radeon é sempre mais lento ou depende da versão do DXR? E eu tenho visto que o RT no mínimo já está bom e a vantagem do RT está quando você quer sombras mais realistas, daí o ambiente pode ficar mais escuro, ou quando lhe interessa o reflexo, por exemplo, em corridas de carros ou motos seria interessante o RT para ter a noção exata da posição pelo retrovisor, no Battlefield o reflexo pode lhe mostrar, em casos bem específicos, um inimigo atrás, e no Flight Simulator é interessante ter o RT para enaltecer o realismo. Porém, os games atuais estão em um nível de realismo não tão bom, na minha opinião, com movimentações irreais e muito rápidas, como se a gravidade não existisse e o personagem humano fosse infinitamente resistente. Em jogos de tiro o RT não importa, a menos que o ambiente mude drasticamente ao que temos hoje, da mesma forma nos demais games competitivos nesse estilo de tiro.
Agora, a única coisa que não entendi foi a RX 6900 XT não jogar um desempenho superior muito acima ou sempre acima da RX 6800 XT, o que será que faltou (algo no hardware ou no software)?
No presente momento depende do DXR, mesmo a implementação das unidades de RT da NVIDIA sendo mais completa que a da AMD. O DXR1.1 ajuda bastante a vermelha mas também ajuda o lado verde por ser uma evolução dessa implementação, a diferença é que essa otimização ajuda mais a AMD que a NVIDIA. Nos jogos com RT otimizado para a AMD a perda de desempenho por se ativar esse recurso é menor na RDNA2 que na Ampere, mas isso se deve também ao fato dos DEVs estarem se preocupando com os problemas oriundos da tomada escolhida pela AMD (como compartilhar os TMUs com os RAs), então sem essa última etapa, um jogo que não seja otimizado nem para o núcleo RTX e nem para o RA, apenas que use o DXR1.1, terá um desempenho bom em ambas, mas se sairá melhor nas NVIDIA.
Quanto ao foco dessa geração, eu queria também que fôssemos em direção a um realismo em sentido físico, como movimentos mais naturais, física, peso nos objetos, massa, interação... mas esses detalhes, para a grande parte do público alvo (os mais jovens), não chama a atenção, o que convence eles a comprar é gráfico e apenas isso, o jogo pode ser raso em história e física inexistente com gravidade lunar para objetos, mas se o gráfico for nível UE5 vai vender mais que se a decisão tomada fosse a oposta.
Quanto à 6900XT ela tem alguns problemas: Ela tem 8CUs a mais que a 6800XT mas possui a mesma largura de banda, a mesma velocidade no InfCache, o mesmo clock e o mesmo TDP/TGP, então como essas unidades extras conseguirão render? Se a RDNA2 fica no limite com 72CUs, a tendência é piorar com 80CUs por ter "mais bocas para comer o mesmo almoço". Some isso ao fato de escalabilidade, onde mais núcleo não significa mais ganho (crescimento logarítmico de desempenho, não linear) e temos que dependendo do jogo e da configuração (por exemplo, Cyberpunk2077 em medium, 1080p) a 6900XT perderá para a 6800XT assim como a RTX 3090 também perderá para a 6800XT.
Em 2018, quando saiu as 2xxx, eu tava nos EUA, fiquei entre pagar 700 na 1080 TI ou 850 na 2080.
Escolhi a 1a, pois achava que o RTX não estaria maduro.
Estamos em 2020, e o RT ainda está com problemas sério de performance, e qualquer jogo que utiliza ele de maneira minimamente decente, perde performance demais.
É esperar alguma solução mais inteligente em termos de utilização de recursos.
Eu penso que o RT está sendo usado de maneira exagerada em muitos jogos, só para mostrar que existe, fazendo diferença mínima ou fútil, precisando deixar o jogo algumas vezes beirando o ridículo para mostrar serviço (como poças d'água dentro de prédios em WDL). Quando esse hype passar e os DEVs implementarem o RT de forma mais sã e em cenários mais necessários, o desempenho tenderá a não ter tanto impacto e será bem visto pela comunidade como um upgrade importante. Fico imaginando inclusive como seria o RE2RE caso ele usasse RT nas sombras e no reflexo ao invés do SSR (que ao menos quando joguei, era bonito mas nem tanto, além de bugado era perceptível sua limitação). :3