• Prezados usuários,

    Por questões de segurança, a partir de 22/04/2024 os usuários só conseguirão logar no fórum se estiverem com a "Verificação em duas etapas" habilitada em seu perfil.

    Para habilitar a "Verificação em duas etapas" entre em sua conta e "Click" em seu nick name na parte superior da página, aparecerá opções de gestão de sua conta, entre em "Senha e segurança", a primeira opção será para habilitar a "Verificação em duas etapas".

    Clicando alí vai pedir a sua senha de acesso ao fórum, e depois vai para as opções de verificação, que serão as seguintes:

    ***Código de verificação via aplicativo*** >>>Isso permite que você gere um código de verificação usando um aplicativo em seu telefone.

    ***Email de confirmação*** >>>Isso enviará um código por e-mail para verificar seu login.

    ***Códigos alternativos*** >>>Esses códigos podem ser usados para fazer login se você não tiver acesso a outros métodos de verificação.

    Existe as 3 opções acima, e para continuar acessando o fórum a partir de 22/04/2024 você deverá habilitar uma das 03 opções.

    Tópico para tirar dúvidas>>>>https://forum.adrenaline.com.br/threads/obrigatoriedade-da-verificacao-em-duas-etapas-a-partir-de-24-04-2024-duvidas.712290/

    Atencionamente,

    Administração do Fórum Adrenaline

[TÓPICO DEDICADO] NVIDIA GeForce RTX 3XXX

  • Iniciador de Tópicos neo666
  • Data de Início
Nas palavras do peperaio "Driver Beta, software ainda imaturo", ou seja, tem muita coisa que pode ser melhorada, polida no FSR ainda, mesmo na versão inicial.
Pessoal já vem batendo o martelo falando que não funciona direito, ou que não funciona direito em baixas resoluções tem que aguardar mais um pouco pra ver como vai ficar após ser refinado por um driver, ou pequenas melhorias a serem implementadas no próprio software através de atualizações.
 
Eu ia comentar a mesma coisa. Achei uma 3070 na loja que explode por menos de 8 mil reais (que pra os ultimos meses, está excelente). Isso é um bom sinal, mesmo assim vou esperar a nova linha amd/nvidia. Tendo em conta que não estou 100% satisfeito com a 3060 ti, ainda não da pra disfrutar os 4k, mas em 1440P não a do que reclamar.
 
Nas palavras do peperaio "Driver Beta, software ainda imaturo", ou seja, tem muita coisa que pode ser melhorada, polida no FSR ainda, mesmo na versão inicial.
Pessoal já vem batendo o martelo falando que não funciona direito, ou que não funciona direito em baixas resoluções tem que aguardar mais um pouco pra ver como vai ficar após ser refinado por um driver, ou pequenas melhorias a serem implementadas no próprio software através de atualizações.
Quem falar que não funciona então não viu o vídeo do peperaio, ou é fanboy.
 
Pelo que vi até agora, a AMD fez um excelente trabalho com o FSR! Como se trata de uma solução via software e recém lançada, superou minhas expectativas, pelo menos nos modos de maior qualidade!

Agora o que não entendo são atitudes de certas pessoas, desdenhando da tecnologia. Na minha opinião, até mesmo o maior fanboy da NVidia deveria estar aplaudindo de pé, afinal, por mais que ele ache que não foi um bom trabalho da AMD, por mais que ele nunca use, só pelo fato da AMD ter lançado, certamente vai fazer a NVidia trabalhar mais ainda no seu DLSS, seja ampliando o suporte, seja melhorando o algoritmo.

E vejo ainda um futuro promissor para o FSR. Pelas análises, o "calcanhar de Aquiles" são resoluções internas mais baixas, por se tratar de um upscaler espacial e não temporal (como a solução DLSS), a fonte de dados é muito mais limitada, no entanto parece ser possível a AMD implementar uma solução temporal via software sim, o que poderia elevar a qualidade final da imagem no processo de reconstrução! Show AMD, certamente algo muito benéfico a todos!
 
Nas palavras do peperaio "Driver Beta, software ainda imaturo", ou seja, tem muita coisa que pode ser melhorada, polida no FSR ainda, mesmo na versão inicial.
Pessoal já vem batendo o martelo falando que não funciona direito, ou que não funciona direito em baixas resoluções tem que aguardar mais um pouco pra ver como vai ficar após ser refinado por um driver, ou pequenas melhorias a serem implementadas no próprio software através de atualizações.

Não vai melhorar, porque é apenas um filtro. Só teremos mudança quando a AMD partir para uma técnica de reconstrução temporal.
 
Não vai melhorar, porque é apenas um filtro. Só teremos mudança quando a AMD partir para uma técnica de reconstrução temporal.
Como toda tecnologia deve melhorar e evoluir.

Mas não da pra esperar a melhora que o DLSS tem.
 
Não vai melhorar, porque é apenas um filtro.
Não pode ser melhorado porque é apenas um filtro?
Novos algoritmos / refinamentos de melhorias de sharpening, redução de ruído, interpolações (filtros) são desenvolvidos constantemente. Não entendi a lógica aqui.
 
Pelo que vi até agora, a AMD fez um excelente trabalho com o FSR! Como se trata de uma solução via software e recém lançada, superou minhas expectativas, pelo menos nos modos de maior qualidade!

Agora o que não entendo são atitudes de certas pessoas, desdenhando da tecnologia. Na minha opinião, até mesmo o maior fanboy da NVidia deveria estar aplaudindo de pé, afinal, por mais que ele ache que não foi um bom trabalho da AMD, por mais que ele nunca use, só pelo fato da AMD ter lançado, certamente vai fazer a NVidia trabalhar mais ainda no seu DLSS, seja ampliando o suporte, seja melhorando o algoritmo.

E vejo ainda um futuro promissor para o FSR. Pelas análises, o "calcanhar de Aquiles" são resoluções internas mais baixas, por se tratar de um upscaler espacial e não temporal (como a solução DLSS), a fonte de dados é muito mais limitada, no entanto parece ser possível a AMD implementar uma solução temporal via software sim, o que poderia elevar a qualidade final da imagem no processo de reconstrução! Show AMD, certamente algo muito benéfico a todos!

Assino em baixo. DLSS até o momento é praticamente enfeite, poucos jogos utililizam essa tecnologia, sem contar que muitos jogos ficam aquele borrão horrível. Essa solução da AMD, vai pressionar a NVIDIA a melhorar e expandir o dlss. Quanto menos fanboylice, melhor pra ambos os lados.
 
Não pode ser melhorado porque é apenas um filtro?
Novos algoritmos / refinamentos de melhorias de sharpening, redução de ruído, interpolações (filtros) são desenvolvidos constantemente. Não entendi a lógica aqui.

Não, aí vira outro filtro. Inclusive, esse FSR é uma evolução do CAS (Contrast Adaptive Sharpening).
 
Não, aí vira outro filtro. Inclusive, esse FSR é uma evolução do CAS (Contrast Adaptive Sharpening).
Se a nvidia atualizar os pesos ou até mesmo mudar a arquitetura do DLSS, deixa de ser o DLSS então?
 
Se a nvidia atualizar os pesos ou até mesmo mudar a arquitetura do DLSS, deixa de ser o DLSS então?

Sim, ela provavelmente dará outro nome. O cerne do DLSS é ser um algoritmo de upscaling de imagem usando Deep Learning. Se ele deixar de fazer upscaling ou deixar de usar Deep Learning, aí vira outra coisa.

O fato de que limita o FSR é que ele não usa nenhum dado, seja de frames anteriores ou vetores, como faz as soluções de reconstrução, seja por IA como o DLSS. Ele é aplicado depois que todo o frame é renderizado, inclusive o AA. Então ele é só um filtro de imagem, igual temos no Photoshop e afins.
 
Sim, ela provavelmente dará outro nome. O cerne do DLSS é ser um algoritmo de upscaling de imagem usando Deep Learning. Se ele deixar de fazer upscaling ou deixar de usar Deep Learning, aí vira outra coisa.

O fato de que limita o FSR é que ele não usa nenhum dado, seja de frames anteriores ou vetores, como faz as soluções de reconstrução, seja por IA como o DLSS. Ele é aplicado depois que todo o frame é renderizado, inclusive o AA. Então ele é só um filtro de imagem, igual temos no Photoshop e afins.
Vc tá cismando demais com um mero nome. Se a AMD quiser fazer o FSR usar motion vectors ou usar algum modelo de ML no lugar/em conjunto ao filtro atual, nada impede deles manterem o branding, afinal a funcionalidade ainda vai ser a mesma no final das contas.

A Nvidia mudou um bocado a arquitetura do DLSS e só fizeram mudar um número de versão.
 
Galera, neste momento em que o dólar está em queda, e as placas sofreram reduções nos preços, resolvi que irei vender minha GTX 1060 (6gb) modelo blower da evga... Qual o valor que vocês consideram justo pra ela?
 
Vc tá cismando demais com um mero nome. Se a AMD quiser fazer o FSR usar motion vectors ou usar algum modelo de ML no lugar/em conjunto ao filtro atual, nada impede deles manterem o branding, afinal a funcionalidade ainda vai ser a mesma no final das contas.

A Nvidia mudou um bocado a arquitetura do DLSS e só fizeram mudar um número de versão.

A Nvidia mudou de treinar a IA em servidores dela para uma solução mais genérica e local. Mas o cerne é o mesmo.

Se tem nomes e definições, elas devem ser respeitadas. Se não, é só chamar de "melhorador de imagem" e pronto e acabou. :chan:
 
Não, aí vira outro filtro. Inclusive, esse FSR é uma evolução do CAS (Contrast Adaptive Sharpening).
De acordo com a AMD, o FSR não é o filtro, é um produto que usa filtros. Nesse sentido ela pode melhorar algoritmos ou até mesmo trocar algoritmos sem a menor necessidade de trocar de nome. FSR não é o nome de um algoritmo.

T1BTNdt.png


 
De acordo com a AMD, o FSR não é o filtro, é um produto que usa filtros. Nesse sentido ela pode melhor algoritmos ou até mesmo trocar sem a menor necessidade de trocar de nome. FSR não é o nome de um algoritmo.




É a combinação de duas coisas:

  • Um passe de upscaling denominado EASU (Edge-Adaptive Spatial Upsampling) que também executa a reconstrução da borda. Nesta passagem, o quadro de entrada é analisado e a parte principal do algoritmo detecta reversões de gradiente - essencialmente observando como os gradientes vizinhos diferem - de um conjunto de pixels de entrada. A intensidade das reversões de gradiente define os pesos a serem aplicados aos pixels reconstruídos na resolução da tela.
  • Uma passagem de nitidez chamada RCAS (Robust Contrast-Adaptive Sharpening) que extrai detalhes de pixel na imagem aumentada.
 
É a combinação de duas coisas:

  • Um passe de upscaling denominado EASU (Edge-Adaptive Spatial Upsampling) que também executa a reconstrução da borda. Nesta passagem, o quadro de entrada é analisado e a parte principal do algoritmo detecta reversões de gradiente - essencialmente observando como os gradientes vizinhos diferem - de um conjunto de pixels de entrada. A intensidade das reversões de gradiente define os pesos a serem aplicados aos pixels reconstruídos na resolução da tela.
  • Uma passagem de nitidez chamada RCAS (Robust Contrast-Adaptive Sharpening) que extrai detalhes de pixel na imagem aumentada.
Isso é questão de implementação, e podem só mudar. No final das contas o FSR é um upscaler, a nada no nome (FidelityFX Super Resolution) implica uma tecnologia exata, tanto que no começo tinha muito questionamento se iria usar ML ou não.

A Nvidia mudou de treinar a IA em servidores dela para uma solução mais genérica e local. Mas o cerne é o mesmo.
O treino ainda é nos servidores deles, só que agora é uma rede genérica que usa motion vectors, ao invés de ser treinada especificamente pra cada jogo e só sendo usada pra pós processamento.
E não sei oq vc quer dizer com local, mas na máquina da pessoa não rola nenhum treino, somente as inferências pro upscale.
 
Isso é questão de implementação, e podem só mudar. No final das contas o FSR é um upscaler, a nada no nome (FidelityFX Super Resolution) implica uma tecnologia exata, tanto que no começo tinha muito questionamento se iria usar ML ou não.


O treino ainda é nos servidores deles, só que agora é uma rede genérica que usa motion vectors, ao invés de ser treinada especificamente pra cada jogo e só sendo usada pra pós processamento.
E não sei oq vc quer dizer com local, mas na máquina da pessoa não rola nenhum treino, somente as inferências pro upscale.

Antes, todo o processo era feito nos servidores da Nvidia, em cada jogo era feito uma análise usando IA para analisar as melhores imagens em resoluções enormes e então criava-se modelos para o desenvolvedor implementar. Segundo a Nvidia, cada jogo levava 6 meses de treinamento para ficar legal.
O problema é que jogos são bastante dinâmicos (resoluções diferentes, configurações gráficas ou mesmo a forma como os jogos se comportam), então o resultado dificilmente era igual quando era executado na máquina do jogador.

Aí o que a Nvidia fez foi criar um modelo universal, que se adapta a cada jogo, a cada frame. Ele aprende com os frames passados e aplica nos futuros. Todo o processo é local, nos Tensor Cores. A única coisa que a Nvidia faz hoje em dia é aprimorar o algoritmo de aprendizado para ele ser mais eficiente. Por isso que quando saiu o 2.0, o número de jogos que suportam a tecnologia aumentou exponencialmente.

A Nvidia anunciou recentemente que basicamente toda engine do mercado já vai suportar o DLSS, basta o desenvolvedor implementar o algoritmo no código do jogo.

csm_000415_fac05c949e.jpg
 
Antes, todo o processo era feito nos servidores da Nvidia, em cada jogo era feito uma análise usando IA para analisar as melhores imagens em resoluções enormes e então criava-se modelos para o desenvolvedor implementar. Segundo a Nvidia, cada jogo levava 6 meses de treinamento para ficar legal.
O problema é que jogos são bastante dinâmicos (resoluções diferentes, configurações gráficas ou mesmo a forma como os jogos se comportam), então o resultado dificilmente era igual quando era executado na máquina do jogador.
Sim, essa é a parte onde falei que treinavam pra cada jogo, e não usavam motion vectors, por isso o resultado era ruim. A versão 1.0 era até parecida com o FSR, no sentido de onde ela entrava no pipeline.
Aí o que a Nvidia fez foi criar um modelo universal, que se adapta a cada jogo, a cada frame.
Sim, a parte do modelo universal é oq eu tinha dito antes. Ele não se "adapta" a cada jogo, ele só é genérico o suficiente pra conseguir funcionar bem em cada um sem precisar de treino específico.
Ele aprende com os frames passados e aplica nos futuros.
Justamente por conta dos motion vectors, é importante isso pra não ter efeitos de ghosting quando se fala de aplicações de super sampling.
Todo o processo é local, nos Tensor Cores.
A inferência é local, nos tensor cores, assim como era feito antes. O treino continua sendo nos servidores da nvidia. Não faz nem sentido o treino ser local no PC de quem joga.
A única coisa que a Nvidia faz hoje em dia é aprimorar o algoritmo de aprendizado para ele ser mais eficiente.
Não, é uma arquitetura totalmente nova. Vc não simplesmente adiciona motion vectors e questões temporais em um modelo assim do nada.
Por isso que quando saiu o 2.0, o número de jogos que suportam a tecnologia aumentou exponencialmente.

A Nvidia anunciou recentemente que basicamente toda engine do mercado já vai suportar o DLSS, basta o desenvolvedor implementar o algoritmo no código do jogo.
Aumentou o suporte pq, como vc mesmo disse, o modelo agora é genérico e não precisa treinar pra cada jogo, só plugar os dados de motion vectors e ligar o DLSS na engine.
 
Última edição:

Desenvolvedores comentam sobre a implementação do AMD FSR em seus jogos: "Foi muito fácil"​

Segundo eles, colocar a tecnologia em seus jogos foi fácil e rápido


Michal Tatka, CEO da Teyon, responsável por Terminator: Resistance acredita que "padrões e plataformas abertas levam inovações mais longe". Já o CTO da Teyon, Mateusz Makowiec, disse que o estúdio usou uma versão customizada da Unreal Engine 4 e que estavam receosos com a integração do AMD FSR, mas por ser código aberto, conseguiram sem problemas. "Levou cerca de um dia para integrar a tecnologia ao motor gráfico do jogo e então mais um tempo para adicionar as opções no menu. Não precisamos configurar nada, apenas funcionou" relata Mateusz Makowiec.
 

Users who are viewing this thread

Voltar
Topo