[TÓPICO DEDICADO] NAVI - próxima geração de GPUs da AMD

não notei diferença alguma nas duas imagens. Tem jogo que parece que o RT é só pra pesar msm


RT shadows é "leve"... o problema é o outro RT..
A diferença é minina no visual mesmo


Estranho, não sabia que o RT do Hitman era tão pesado assim.

Anyway, não deixar ser um problema do RT meme das AMD :bem:


Capar o jogo em 1/7 do fps raster é uma piada.... até a 4090 sofre pra rodar sem dlss, média ao redor de 90 COM DLSS QUALITY


É por essas merd@s q eu desisti de pegar a 4090.... pq mesmo com ela, eu iria preferir desativar o RT pra rodar com resolução nativa ao redor de 100; e não 90 com dlss
 

AMD Software: Adrenalin Edition Preview Driver for AMD Fluid Motion Frames Release Notes​

[mais coisas]

October 13th - What’s New?​

  • We have added initial support for HDR to expand the AFMF gaming experience.
    After monitoring user experience feedback, AFMF can now be globally enabled on all DirectX® 11 and 12 titles.

Essa parte eu não consegui fazer funcionar.
Forza Motor Sport não funfa.
--- Post duplo é unido automaticamente: ---

não notei diferença alguma nas duas imagens. Tem jogo que parece que o RT é só pra pesar msm
Em A plague tale Requiem acontece a mesma coisa.
Se você prestar bem atenção, a sombra fica mais preta.
E nada mais.
 
Essa parte eu não consegui fazer funcionar.
Forza Motor Sport não funfa.
--- Post duplo é unido automaticamente: ---


Em A plague tale Requiem acontece a mesma coisa.
Se você prestar bem atenção, a sombra fica mais preta.
E nada mais.


Forza tá uma merd@ aqi.... esperando sair patch e driver novo essa semana...
 
Muito raro a AMD ser pioneira em alguma tecnologia, quase sempre é a Nvidia quem lança primeiro e só depois a AMD lança sua solução, em geral inferior. FSR só tem a vantagem da quantidade, por não depender de hardware específico, mas em qualidade é bem inferior a DLSS e XeSS.

Sobre os drivers, tem que melhorar muito ainda. Usuários estão sendo banidos em jogos multiplayer porque a AMD fez gambiarra para o Antilag+ funcionar, já que ele e o FSR3 foram desenvolvidos na correria sem muitos testes.

Enfim, não é à toa que a AMD só tem 10% de market share. A triste realidsde é que ela considera esse mercado como secundário, que traz pouca margem de lucro e onde não vê sentido em investir para brigar em pé de igualdade com a Nvidia.
Eu na outra mensageme editei...
Tinha te chamado de puxa saco da Nvidia
Ai tu foi lá e respondeu
Não sei o que tu esta agregando aqui a não ser gerar discordia...
 
Para de falar merda cara kkkk , AMD sempre foi a que mais trouxe novas tecnologias , mas como não é a Intel ou NVidia isso quase não é divulgado, NVidia só lançou dlss que realmente foi algo inovador ( no 2 pq o 1 é uma vergonha ), de resto ela nunca fez nada , Intel pelo que me lembro também ,nunca lançou nada ... Controlador de memória integrado no processador ,primeiro quad core de verdade , vulkan só existe graças ao mangle da AMD, as APUs ... DX10.1 era mto mais leve que o DX10 (NVidia pagou pra Ubisoft remover do AC pq rodava melhor nada AMD na época), o que a nvidia já fez? Lançou o gameworks que só bugava os jogos, PhysX que só deixava o jogo pesado e não tinha nenhuma física que presta o Havok que AMD patrocinava na época era mto melhor e mais leve... Enfim galera cai no marketing igual pato .
Quem tá defecando pela boca é você em afirmar que a AMD inova mais que a Nvidia. Conveniente você não mencionar que a Nvidia também foi pioneira em ray tracing em tempo real, GPGPU (CUDA e Optix), RTX Voice/Broadcast, RTX Audio, modelo de shader unificado no PC (GeForce série 8), G-Sync e vários outros recursos. O PhysX funciona bem quando bem implementado, como em Control, Batman Akham City e Knight, Mafia 2, mas hoje roda na CPU em geral a fim de não depender de uma GPU da Nvidia.

E patrocinar jogo pra rodar pior no concorrente a AMD também faz, vide Starfield, isso quando tem DLSS. Mantle realmente foi uma boa inovação, a adoção infelizmente foi muito baixa, mas ela serviu de fundação para o Vulkan. Mas ela criou essa API porque o desempenho das Radeon em DirectX11 sempre foi ruim, só foi melhorar mais em 2022 na RDNA2, mas ainda inferior a Nvidia. E o driver que trouxe otimizações (DXNavi) pode causar problemas em alguns jogos e a recomendação é desativá-las nesses.

E eu só comparei GPU em Nvidia, nem sei porque você trouxe Intel para discussão. Em CPU a AMD sim sempre inovou bastante, como o x86-64.

edit: a AMD teve o TrueAudio também, que também não fez sucesso mas era uma tecnologia interessante para acelerar processamento de áudio.
 
Última edição:
Quem tá defecando pela boca é você em afirmar que a AMD inova mais que a Nvidia. Conveniente você não mencionar que a Nvidia também foi pioneira em ray tracing em tempo real, GPGPU (CUDA e Optix), RTX Voice/Broadcast, RTX Audio, modelo de shader unificado no PC (GeForce série 8), G-Sync e vários outros recursos. O PhysX funciona bem quando bem implementado, como em Control, Batman Akham City e Knight, Mafia 2, mas hoje roda na CPU em geral a fim de não depender de uma GPU da Nvidia.

E patrocinar jogo pra rodar pior no concorrente a AMD também faz, vide Starfield, isso quando tem DLSS. Mantle realmente foi uma boa inovação, a adoção infelizmente foi muito baixa, mas ela serviu de fundação para o Vulkan. Mas ela criou essa API porque o desempenho das Radeon em DirectX11 sempre foi ruim, só foi melhorar mais em 2022 na RDNA2, mas ainda inferior a Nvidia. E o driver que trouxe otimizações (DXNavi) pode causar problemas em alguns jogos e a recomendação é desativá-las nesses.

E eu só comparei GPU em Nvidia, nem sei porque você trouxe Intel para discussão. Em CPU a AMD sim sempre inovou bastante, como o x86-64.

edit: a AMD teve o TrueAudio também, que também não fez sucesso mas era uma tecnologia interessante para acelerar processamento de áudio.

Vou nem perder meu tempo com vc kkk , qdo o cara vem só pra falar merda e não agregar em nada, melhor é ignorar, tecnologias da NVidia são tão boas que com o tempo todas morrem .. gsync, PhysX, dx11 rodava mal em AMD pq? NVidia socava tesselacao desnecessária nos jogos pra compensar o alto consumo das Fermi (famosas fervi), mas quem lançou propaganda do dx11 foi AMD , Dirt 2 foi o primeiro e sempre rodou melhor , mas NVidia pode bugar a concorrência, só AMD que não, aí ela vira a vilã.. e RT foi inovação em que? Muda em porcaria nenhuma nós jogos e só derruba a performance, ngm liga pra essa porcaria, em vez de termos uma física que realmente funciona em jogos, vamos colocar sombrinha e luzinha kkk, igual qdo o PhysX lançou no Batman que adicionava PAPEL no jogo ... Nividia só lança piada, todos os outros recursos 99% não usa.. é para um público mto seleto, igual produtos Apple para designers e músicos, não conta pra quem joga que é o maior foco desse fórum.
--- Post duplo é unido automaticamente: ---

E starfield AMD não fez nada... Nvidia que está ficando em IA e tá cagando pra quem comprou placa deles para jogar , então os drivers para jogos vão demorar cada vez mais para sair otimizado... Antes de falar algo, pesquise sobre antes de sair falando sobre... Fica melhor pra vc e pra todos
 
Após um bom tempo sumido, parei para analisar esses ganhos e agora com drivers um pouco mais maduros e mais reviews, dá para chegar em conclusões:
- 7700XT: Essa é fácil, core-clock, VGPR maiores e front-end mais rápido que back-end. Isso mais um tapinha do driver garantiu que 6CUs de diferença, e ~100GB/s de largura de banda a menos, ainda conseguisse empatar com a RX6800;
- 7800XT: O VGPR unido do front-end mais rápido que back-end além de uma grande largura de banda extra só provou que o subsistema de memória da RDNA(3) ainda é muito sedento, ~150GB/s de vantagem estão cuidando de "soltar" os CUs dessa placa, retirando a diferença de 12 unidades computacionais, e coloque as otimizações constantes no driver (de pouco em pouco).

Rapaz ainda tem essa diferença na banda de 100GB entre a 7700XT e 6800. Logo me parece que conseguiram tirar mais com a 7700XT VS 6800 do que com a 7800XT VS 6800XT.
 
Em uma coisa o @VelhoPobre está correto: A tecnologia não será utilizada da forma que pensamos. O que a maioria vê é justamente o lado usuário, com uma melhora na taxa de fps e fluidez visual, mas e o lado do desenvolvedor? O foco desse lado é agilizar o desenvolvimento, e ultimamente qual a parte que mais "encolhe"? Sim, correção de bugs, otimização e teste de qualidade, que a cada dia que passa fica menos a cargo do estúdio e mais a cargo do consumidor. Onde o FSR3 entra aqui? Encolhendo ainda mais esse processo de otimização e jogando nas costas do usuário, e nesse caso específico nas costas da AMD e NVIDIA com o FSR3/AFMF e DLSS3/FG, e não duvidem da INTEL entrar nessa briga também (mas será que o ramo dGPU sobreviverá até lá?).

Então é uma tecnologia incrível? Claro, mas ao mesmo tempo é preocupante, os upscalers já comprometeram a otimização dos jogos (digo como jogador, não como analista técnico ou algo do tipo, é o que percebo nos jogos a cada dia que passa), e agora com a AMD na jogada o que impedirá as empresas de economizarem para lançar o jogo de forma mais rápida ao mercado?

Mas ai não é problema da tecnologia e sim do desenvolvedor... aliás, isso já acontecia antes de lançar a tecnologia. Jogar a responsabilidade de terceiro para esse avanço tecnológico é absurdo e é exatamente isso que o cara tá defendendo...
Se a empresa não faz o trabalho dela que é de entregar um jogo polido para uma boa experiência para o usuária que irá comprar.... ai entra várias outras questões que fogem do escopo do tópico, mas, francamente, é ridícula a posição de querer responsabilizar a tecnologia pelos lançamentos cagados da indústria.
Se você, assim como ele não quer utilizar os "fakes frames" baixa deixar desabilitado...
 
Esses geradores de frames aliado ao RT vai fazer os desenvolvedores lançarem jogos cada vez mais cagados. E o consumidor que passa a ser os beta testers.

Os programadores estão bem preguiçosos. Jogos com gráficos inferiores e com desempenho pior.

Até nos consoles isso está acontecendo. A coisa está ruim para todos os lados.
 
Vou nem perder meu tempo com vc kkk , qdo o cara vem só pra falar merda e não agregar em nada, melhor é ignorar, tecnologias da NVidia são tão boas que com o tempo todas morrem .. gsync, PhysX, dx11 rodava mal em AMD pq? NVidia socava tesselacao desnecessária nos jogos pra compensar o alto consumo das Fermi (famosas fervi), mas quem lançou propaganda do dx11 foi AMD , Dirt 2 foi o primeiro e sempre rodou melhor , mas NVidia pode bugar a concorrência, só AMD que não, aí ela vira a vilã.. e RT foi inovação em que? Muda em porcaria nenhuma nós jogos e só derruba a performance, ngm liga pra essa porcaria, em vez de termos uma física que realmente funciona em jogos, vamos colocar sombrinha e luzinha kkk, igual qdo o PhysX lançou no Batman que adicionava PAPEL no jogo ... Nividia só lança piada, todos os outros recursos 99% não usa.. é para um público mto seleto, igual produtos Apple para designers e músicos, não conta pra quem joga que é o maior foco desse fórum.
--- Post duplo é unido automaticamente: ---


E starfield AMD não fez nada... Nvidia que está ficando em IA e tá cagando pra quem comprou placa deles para jogar , então os drivers para jogos vão demorar cada vez mais para sair otimizado... Antes de falar algo, pesquise sobre antes de sair falando sobre... Fica melhor pra vc e pra todos
kkkk cada merda que eu tenho que ler de fanboy. Control e Cyberpunk 2077 são outros jogos com RT e principalmente com path tracing. Tem 5 anos que eu leio que essa ladainha que RT não é inovação, se é inútil assim porque a AMD também adotou nas suas GPUs? É porque vende placas, pricipalmente no segmento high-end. Falaram a mesma merda do DLSS e do Frame Gen, mas depois que a AMD lançou sua própria tecnologia, aí a narrativa mudou e passou a ser a oitava maravilha do mundo. Única vantagem é funcionar via software e só, melhor do que nada.

RT é pesado, é, mas com DLSS e uma placa decente dá pra rodar com desempenho aceitável, além de ser um recurso opcional gênio (acho que só Metro Exodus é obrigatório), só ativa quem quer. Acha frescura e não quer perder desempenho? Não ativa, simples assim, precisa eu desenhar pra você entender?

Eu que não vou perder meu tempo com você. A AMD caga menos ainda para GPU dedicada pois dá mais dinheiro vender CPU pra servidor, acelerador de IA e APU pra console. E driver mal otimizado da Nvidia ainda é melhor que o driver com gambiarra da AMD, que causa ban no usuário em jogos multiplayer porque age igual a um hack.
 
Rapaz ainda tem essa diferença na banda de 100GB entre a 7700XT e 6800. Logo me parece que conseguiram tirar mais com a 7700XT VS 6800 do que com a 7800XT VS 6800XT.

7800XT é uma belissima placa. Tô com uma grana separada na espera de algum modelo Asus ou Gigabyte 3-fan, ai acho que dá pra segurar a doença do upgrade.

Tenho que ver como estão os drivers das RDNA 3 no Linux antes de qualquer movimento, deve ter uns 8 meses que eu não tenho um probleminha sequer no Debian
 
7800XT é uma belissima placa. Tô com uma grana separada na espera de algum modelo Asus ou Gigabyte 3-fan, ai acho que dá pra segurar a doença do upgrade.

Tenho que ver como estão os drivers das RDNA 3 no Linux antes de qualquer movimento, deve ter uns 8 meses que eu não tenho um probleminha sequer no Debian

Funcionando normalmente do Mesa 22.3, lançado ano passado.
 
kkkk cada merda que eu tenho que ler de fanboy. Control e Cyberpunk 2077 são outros jogos com RT e principalmente com path tracing. Tem 5 anos que eu leio que essa ladainha que RT não é inovação, se é inútil assim porque a AMD também adotou nas suas GPUs? É porque vende placas, pricipalmente no segmento high-end. Falaram a mesma merda do DLSS e do Frame Gen, mas depois que a AMD lançou sua própria tecnologia, aí a narrativa mudou e passou a ser a oitava maravilha do mundo. Única vantagem é funcionar via software e só, melhor do que nada.

RT é pesado, é, mas com DLSS e uma placa decente dá pra rodar com desempenho aceitável, além de ser um recurso opcional gênio (acho que só Metro Exodus é obrigatório), só ativa quem quer. Acha frescura e não quer perder desempenho? Não ativa, simples assim, precisa eu desenhar pra você entender?

Eu que não vou perder meu tempo com você. A AMD caga menos ainda para GPU dedicada pois dá mais dinheiro vender CPU pra servidor, acelerador de IA e APU pra console. E driver mal otimizado da Nvidia ainda é melhor que o driver com gambiarra da AMD, que causa ban no usuário em jogos multiplayer porque age igual a um hack.

Vai lá ligar sua luzinha no jogo que nem vai ver diferença, só a performance caindo pela metade, só roda aceitável numa 4090 em 1440p pq em 4k não dá conta também ... Dlss é gambiarra pra rodar uma tecmlogia porca ... E agora estão usando pra jogos mal otimizados... Que inovação , AMD faz obrigação em lançar algo que a nvidia lança, empresa tem que ganhar dinheiro e isso é marketing (RT, dlss , fsr ) , uma física que fizesse diferença seria muito mais interessante, GTA por exemplo, quando chove, não faz diferença nenhuma no jogo, as poça de água é só um reflexo no chão, pq NVidia e AMD não fazem algo que mude isso? Tecnologia tem, falta vontade em inovar mesmo onde da mais trabalho, nvidia na terceira geração de placa com RT, quantos jogos saíram que faz diferença? Jogo bom, apenas um e que demorou anos para finalizar ... Ainda com desculpa de driver? Kkk tá na hora de crescer, esse papinho aí pra quem frequenta gamevicio
 
7800XT é uma belissima placa. Tô com uma grana separada na espera de algum modelo Asus ou Gigabyte 3-fan, ai acho que dá pra segurar a doença do upgrade.

Tenho que ver como estão os drivers das RDNA 3 no Linux antes de qualquer movimento, deve ter uns 8 meses que eu não tenho um probleminha sequer no Debian

Sim. Pelo preço não tem nem o que discutir. Custa pouca coisa a mais que a 7700XT e bem menos do valor de lançamento da 6800XT.

O que a gente estava discutindo era qual placa eles tiraram mais com menos. A 7700XT por ter menos Bits, Cus e Banda do que a 6800 me pareceu que foi a vencedora nesse quesito. Fizeram muito com menos. Deixaram ela equivalente a uma 6800 com menos Bits, Cus e uma Banda menor.

Já a 7800XT VS 6800XT possuem a mesma quantidade de Bits. E a 7800XT 12Cus a menos. Mas em compensação tem uma Banda maior que a 6800XT.
 
Voltou o 23.10
 
Discutido sobre isso de tirarem mais com menos me veio a mente umas placas muito boas nesses quesitos. Além das placas da AMD 7700XT VS 6800 e 7800XT VS 6800XT, também gostava das Nvidia GTX660Ti VS GTX580, GTX970 VS GTX780Ti, GTX1070 VS GTX980Ti e RTX3060Ti VS RTX2080S. Muito boas em Consumo VS Temperatura VS Valor VS Desempenho.

A AMD também mandou muito bem nas RX470/570 e RX480/580. Assim como as RX5600XT, RX5700, RX6600 e RX7600. Não gostava tanto das RX590, Vega 56/64 e RX5700XT por conta do consumo e temperatura serem maiores.

Meio que vc teve o dobro de ganho em frames da RX5700 VS RX470 e RX5700XT VS RX480.

Também deve ter tido o mesmo ganho entre as RX470 VS R9 280 e RX480 VS R9 280X.

Mas para mim a RX7900GRE ainda é a placa da AMD a ser batida nos quesitos Valor VS Desempenho VS Consumo VS Temperatura. Uma placa de U$650 com apenas 15% a menos de desempenho que uma RX7900XT. Fora que ela consegue ter desempenho até superior a uma RX6900XT a depender do game. Placa essa que custava no seu lançamento Mil Dólares.

Uma pena que essa RX7900GRE só exista no mercado Chinês. Os Chineses são muito sortudos de terem esse tipo de produto por lá. Eu mesmo compraria ela sem pensar duas vezes. Nem queria saber de outra placa se ela existisse por aqui. Ia ser um Upgrade Fantástico em cima da minha RTX3060Ti da ASUS. Essa que é uma placa de U$400 e que no seu lançamento tinha desempenho de uma RTX2080S de U$800(o dobro do seu valor). Mas já tem um tempo que ela está entregando desempenho de uma RTX2080Ti. Só os 8GB que deixa a desejar. E com Undervolt está consumindo apenas 150W.
 
Não gostava tanto das RX590, Vega 56/64 e RX5700XT por conta do consumo e temperatura serem maiores.

Pouca gente sabe, mas o TDP da RX 590 era 10w menor que da RX 580. A RX 580 usava um processo de 14nm e a RX 590 usava processo de 12nm. Mais performance, menos consumo.

Tive uma RX 590. Um dos melhores custo benefício que já vi numa placa de vídeo.
 
Pouca gente sabe, mas o TDP da RX 590 era 10w menor que da RX 580. A RX 580 usava um processo de 14nm e a RX 590 usava processo de 12nm. Mais performance, menos consumo.

Tive uma RX 590. Um dos melhores custo benefício que já vi numa placa de vídeo.

Nem lembro disso na época. Para mim a RX590 consumia nitidamente mais.

Eu lembro que no PS4 Pro eles usaram uma RX470 e no Xbox One X uma RX580.
 
A minha Phantom foi entregue agora no feriado, saindo do trabalho posto as fotos delas, só consegui testar um pouco ela
Ta mais faceiro que porco na lama haha
 
Mas ai não é problema da tecnologia e sim do desenvolvedor... aliás, isso já acontecia antes de lançar a tecnologia. Jogar a responsabilidade de terceiro para esse avanço tecnológico é absurdo e é exatamente isso que o cara tá defendendo...
Se a empresa não faz o trabalho dela que é de entregar um jogo polido para uma boa experiência para o usuária que irá comprar.... ai entra várias outras questões que fogem do escopo do tópico, mas, francamente, é ridícula a posição de querer responsabilizar a tecnologia pelos lançamentos cagados da indústria.
Se você, assim como ele não quer utilizar os "fakes frames" baixa deixar desabilitado...
Eu não uso pois não tenho hardware para isso, então me importo mais com o passo tecnológico e como o mercado responde a ele, e como disse, e você reafirmou, as empresas vão pelo caminho mais fácil e é o medo que me faz esse caminho, a tecnologia é muito bem vinda e não a culpo, apenas vejo o horizonte mais cinza se aproximando, pois se realmente os DEVs se apoiarem nos FG para ter desempenho não importará isso de "se não gosta não usa", restará apenas usar ou gastar muito mais dinheiro para uma GPU desnecessariamente forte, quem sairá perdendo seremos nós, ao invés de ganharmos =S
 
Voltou o 23.10
esse driver bugou tudo aqui em...cuidado!

to usando o novo preview driver lançado dia 12 ou 13 acho, esse tem umas bruxarias no AFMF, testei o TW3 em DX12 com tudo no talo inclusive add o hairworks da nvidia e apesar do frame rate reportado pela engine do jogo ser na faixa dos 38-60fps dependendo do local/cenario e o driver da AMD informa de 100fps pra +, o game nao me parece lagado e está rodando liso, estou usando com Freesync Premium habilitado, nada a reclamar nesse jogo por exemplo, mas eu queria ter uma TV LG daquelas que mede o frame rate no input pra ver qual é a real situação desse frame reportado pelo driver AMD onde mesmo no frame base ele reporta pelo menos uns 20 fps a mais que a engine do proprio jogo e no AFMF ele reporta acima de 100fps, de duas uma:
1 - Ou o AFMF é pura bruxaria via driver;
2 - AFMF é uma ilusão que combinada com Freesync faz o jogo parecer liso rodando a baixo frame rate (mesmo abaixo do target do Freesync como aqui no caso em alguns cenários/momentos), e cria o efeito placebo ao informar um base frame mais alto do que a engine realmente está produzindo e no AFMF informa mais frames ainda.

Sei la...precisa ver até onde a AMD está inovando de fato e até onde ela está criando ilusão, mas de qqr forma pelo menos no TW3 com tdo no talo + RT no talo a ilusão é bem boa se for de fato só ilusão, afinal esse jogo rodava muito mal na 6800XT até então usando os recursos DX12!
 

Users who are viewing this thread

Voltar
Topo