Que odio desse video, fui ver pra ver como estava a implementação do MFG.... 7 segundos de vídeo (a propaganda que exibiu antes durou mais que isso), pra ver uma imagem parada que até o FSR3 de primeira geração da AMD consegue exibir sem apresentar artefato.
Porque em uma comparação se espera que o parâmetro da comparação, no caso qualidade, seja igual. O certo seria mostrar uma comparação justa e depois apresentar o MFG e os ganhos utilizando esta tecnologia, mas esconderam a comparação justa pra vender que "a 5070 é igual uma 4090".
Se vc ignorar a queda de qualidade da imagem eu posso colocar o software do patinho com 4x de frame generation e falar que tem um desempenho muito próximo.
A comparação justa é com as features de AI ativo, é isso que estou falando.
Essa coisa de comprar sem ray tracing, sem AI etc, morreu na RTX 20. Só que naquela época eram verdades duras de engolir, hoje em dia é pirraça.
Não tem um jogo em que eu não ative DLSS.
Na verdade, quando jogo pega muitos FPS, como era o exemplo do Diablo IV (quando não tinha ray tracing) eu colova o DLAA.
Se os 10 jogos mais pesados graficamente falando, mais usados para bechmark etc, possuem ray tracing, possuem DLSS, possuem FG... qual é o sentido lógico de não testar com eles ligados.
A placa de vídeo é o que é.
Imagina a situação (real por sinal) do lançamento do Hogwarts onde uma RTX 4070 estava batendo uma 7900XTX com todos os efeitos ligados. É o que é.
Se bota o dono de uma 4070 jogando pegando 70 FPS (chutei) e o dono de uma 7900XTX pegando 50 (chutei), porque a AMD é bem fraca com IA e não tinha o FSR 3 na época, a realidade no final do dia é 70 vs 50. GG.
7900XTX: "Aaahhh quero ver agora sem o FG aí, deliga aí quero ver"
RTX 4070: "Não"
7900XTX: "Por que?"
RTX 4070: "Porque não quero, uai"
SE a AMD não tiver uma resposta para esse MFG, o resultado vai ser a RTX 5090 pegando 240 FPS no Cyberpunk com tudo no talo (se os gráficos da nvidia se confirmar) e a 8900 XTX pegando 100 (se ela ficar equivalente a 4090)