Cara, segundo o vídeo que postei, o tempo total de compute do dlss em uma 2080 ti é de 1.5ms, está no slide de número 44 "DLSS 2.0 COST"Esse vídeo é bem legal, seria bacana ver algum paper da nvidia detalhando esse autoencoder convolucional deles, e como realizaram o treinamento (tudo que sei é que usaram imagens de jogos renderizadas em 16k como ground truth pro treinamento). Eles só citaram por cima alguns papers que usavam autoencoders ou GANs que serviram como inspiração, mas não chegaram a comparar diretamente também.
Uma coisa a se perguntar é como o DLSS se comportaria em cenários de alto framerate, já que no final das contas existe um bottleneck do tempo de inferência, mesmo fazendo uso dos tensor cores.
Quanto aos papers, seria interessante a NVIDIA documentar mais um pouco desse processo. O que temos hoje são apresentações bem rasas sobre como este algoritmo funciona. Porém, a AMD tá chegando aí com raytracing. Acho que a NVIDIA tá segurando os detalhes do algoritmo ao máximo por conta da concorrência.
Mas seria interessante sim a NVIDIA soltar algo como o open source dessa tecnologia. Talvez no futuro, se o DLSS vingar e se tornar uma tecnologia "mainstream"
Última edição: