AMD R9 290x - [TÓPICO OFICIAL]

Status
Não esta aberto para novas mensagens.
Não teria mais features só a performance que aumentaria. Mantle até hoje não tem nenhuma diferença de IQ que o DirectX porque só vai ser implementado via patches. Acho que teremos jogos full DirectX 12 antes de aparecer algum jogo construído somente para mantle.

O que a AMD teria que fazer é encher algum jogo patrocinado de efeitos que usam compute shaders como tressfx e trabalhar para o jogo usar async compute no mantle daí a diferença de performance seria brutal mas duvido que isso vai acontecer.

Quem sabe quando o mantle tiver um SDK público apareça algo assim.

Tem razao.

Tenho a ideia fixa na cabeça do cerny comentando q o ps4 poderia usar o tempo livre para fazer compute para adicionar efeitos mais legais de fisica.
 
Tem razao.

Tenho a ideia fixa na cabeça do cerny comentando q o ps4 poderia usar o tempo livre para fazer compute para adicionar efeitos mais legais de fisica.
Mas isso vai ser possível sim no PS4 principalmente quando os estúdio exclusivos começarem a usar melhor o console.
 
Última edição:
Mas isso vai ser possível sim no PS4 principalmente quando os estúdio exclusivos comçarem a usar melhor o console.

É. Fiquei com a idéia fixa dele dizendo q o ps4 se diferenciava das gcn da epoca por essa caracteristica da gpu do ps4 de poder colocar até 64 comandos de compute ali misturados para usar os espaços de tempo livres q vao aparecendo.
Enquanto as gcn do pc so podiam colocar até 4 comandos de compute - e as kepler gamer devem ser ainda piores.
Mas na 290x acho q ja sao 64 igual o ps4.
 
Mas se eles fizerem isso sem o dx12 aqui, a experiencia de 65% da userbase ia pro saco pois os game poderia mais features no mantle q na concorrencia.Essa feature ai tb é parte previsivel no xbox one e ps4 pelas especificacoes de hardware.64 compute queues no ps4 e 16 no xbox one. Enquanto uma 7870 tem 4.
Esse lance me deixou agora com uma duvida, se a engine frostbite usar mesmo compute, vgas NVIDIA vão penar para estabilizar FPS não? Pois nesse ponto em compute a AMD sempre deu um banho na NVIDIA e com isso vagas mais fracas tanto AMD ou NVIDIA não irão nem conseguir acompanhar os consoles.
 
Esse lance me deixou agora com uma duvida, se a engine frostbite usar mesmo compute, vgas NVIDIA vão penar para estabilizar FPS não? Pois nesse ponto em compute a AMD sempre deu um banho na NVIDIA e com isso vagas mais fracas tanto AMD ou NVIDIA não irão nem conseguir acompanhar os consoles.

Se por exemplo for usar, por meio do mantle, esse tempo livre pra fazer compute, num tressfx turbinado, ai a nvidia vai pro saco, até onde sei de ler os comentarios do anand sobre isso.
Mas lendo leigamente. Eles dizem por exemplo q as fermi eram comparaveis com as futuras gcn em compute.
Ja as kepler gamer sao extremamente inferiores. Tao inferiores que uma 680 é inferior a uma 480!
------------
Tem tb os benchmarks q eles usam do clbenchmark na parte de fisica simulando fluidos.
Uma 660 é tipo 700% inferior a uma 7870.
------------
Ja usando os recursos de compute do dx11, a 660 é igual a 7870.
------------
Ah e confirmei agora que a 290x é igual ps4 nesse numero de comandos de trabalho simultaneos para compute - 64.
Ja o xbox one fica com 16 e uma 7970 com apenas 4.
 
se eu fizer crossfire 2 r9 270x vai vale a pena ?

eu ja tenho uma da gigabyte windforce, se eu comprar a outra vai ter que ser da gigabyte ?
 
Se por exemplo for usar, por meio do mantle, esse tempo livre pra fazer compute, num tressfx turbinado, ai a nvidia vai pro saco, até onde sei de ler os comentarios do anand sobre isso.Mas lendo leigamente. Eles dizem por exemplo q as fermi eram comparaveis com as futuras gcn em compute.Ja as kepler gamer sao extremamente inferiores. Tao inferiores que uma 680 é inferior a uma 480!------------Tem tb os benchmarks q eles usam do clbenchmark na parte de fisica simulando fluidos.Uma 660 é tipo 700% inferior a uma 7870.------------Ja usando os recursos de compute do dx11, a 660 é igual a 7870.------------Ah e confirmei agora que a 290x é igual ps4 nesse numero de comandos de trabalho simultaneos para compute - 64.Ja o xbox one fica com 16 e uma 7970 com apenas 4.
Putz realmente quando comentam sobre o poder do ps4 em cima do xone não é a toa, e se As produtoras se basearem agora suas engines em cima do compute a MS não vai ter para onde correr.
 
Putz realmente quando comentam sobre o poder do ps4 em cima do xone não é a toa, e se As produtoras se basearem agora suas engines em cima do compute a MS não vai ter para onde correr.

O repi, q é o carinha q fez o mantle com a amd, apesar de dizer que qualquer gpgpu - entrando ai da fermi/gcn pra cima - pode usar essas principais features do mantle, a frostbite em particular iria se basear no ps4.

Mas dai entra a historia da experiencia do usuario num game multiplataforma - as editoras evitam a todo custo fazer experiencias diferentes em versoes dum mesmo game.

O destiny da bungie por exemplo, ou o watch dogs: mesmo ps4 sendo mais poderoso e mais capaz q o xbox one, as editoras lançam o game travado a 30fps com as mesmas texturas/modelos/featuras apenas mudando a resolucao.
No caso do destiny inclusive ate a resolucao nao vai ser mais diferente depois q tiraram o kinect da caixa.

No pc, pensano physx - eh identico com gpu amd. Mas como roda muito mais lento, tem de ser reduzido.
E o resultado é q ninguem usa physx.
------------
Mas tem o exemplo q o DiogoDX deu de apenas aumentar a performance sem adicionar mais coisas como uma fisica mais elaborada.

Como o pc nao tem fps fixo, as gpus da nvidia sofreriam. E as editoras tratariam os usuarios da nvidia da mesma forma que estao tratando os de xbox one? (Nivelando as coisas pela plataforma mais fraca).
Depende da produtora receber dinheiro ou nao numa parceria.
 
Pior é que a NVIDIA com esse gameworks já mostra que esta correndo atrás disso, mas com a bomba desse watch dogs, volta acontecer o que já vinha acontecendo, as produtoras desenham os jogos nivelando eles nos consoles e entregam a receita toda bagunçada para as fabricantes de VGA e que eles se virem para fornecer algo jogável ou fazer os seus clientes de palhaços e enfiar VGA nova guela abaixo para rodar o jogo.
 
Ae galera, pra resolução de 7680x1440, três 290x é a melhor opção ne?
Tem tambem a opção de crossfire de 295x2 (Quad-Fire), mas acho que na maioria dos jogos esses 4 GPUs não valeriam a pena....
 
Pior é que a NVIDIA com esse gameworks já mostra que esta correndo atrás disso, mas com a bomba desse watch dogs, volta acontecer o que já vinha acontecendo, as produtoras desenham os jogos nivelando eles nos consoles e entregam a receita toda bagunçada para as fabricantes de VGA e que eles se virem para fornecer algo jogável ou fazer os seus clientes de palhaços e enfiar VGA nova guela abaixo para rodar o jogo.

Vc disse a verdade completa.
E o resultado:
watch dogs é tao baseado nos consoles q
1 - usa um monte de memoria indiscriminadamente para texturas - pedindo 4gb de vram no pc
2 - nao tem opcao de shader quality superior aos consoles
3 - roda igual nas gpus amd mesmo a nvidia pagando uma bolada pela parceria
http://hardocp.com/article/2014/06/11/asus_strix_gtx_780_oc_6gb_review_exclusive#.U5jt2PldUXQ

Aquela historia q a gente reclamava q o ps3/xbox 360 ditava como o game seria tá acontecendo outra vez.
 
Se por exemplo for usar, por meio do mantle, esse tempo livre pra fazer compute, num tressfx turbinado, ai a nvidia vai pro saco, até onde sei de ler os comentarios do anand sobre isso.
Mas lendo leigamente. Eles dizem por exemplo q as fermi eram comparaveis com as futuras gcn em compute.
Ja as kepler gamer sao extremamente inferiores. Tao inferiores que uma 680 é inferior a uma 480!
------------
Tem tb os benchmarks q eles usam do clbenchmark na parte de fisica simulando fluidos.
Uma 660 é tipo 700% inferior a uma 7870.
------------
Ja usando os recursos de compute do dx11, a 660 é igual a 7870.
------------
Ah e confirmei agora que a 290x é igual ps4 nesse numero de comandos de trabalho simultaneos para compute - 64.
Ja o xbox one fica com 16 e uma 7970 com apenas 4.

É isso ai mesmo. Kepler é horrível pra compute.
Fermi era um monstro.
E agora a Maxwell vai voltar a ser bom. Ele vai ser bem parecido com Fermi na verdade.

Já postei isso aqui em algum lugar, mas vai la
http://regmedia.co.uk/2012/05/12/nvidia_kepler_smx.jpg

http://core0.staticworld.net/images/article/2014/02/maxwell_control_logic-100246317-orig.png

Estão voltando para 32 shaders por CL
O que significa, que dado o mesmo número de shaders, ela vai ter mais CLs.
Pra jogos isso não é muito bom, pois os CLs ocupam espaço no die, que poderia ser usado pra mais shaders.
Mas pra compute isso é ótimo.
Da mais granularidade na ordem execução das instruções, e reduz o trabalho do compilador.
 
Ae galera, pra resolução de 7680x1440, três 290x é a melhor opção ne? Tem tambem a opção de crossfire de 295x2 (Quad-Fire), mas acho que na maioria dos jogos esses 4 GPUs não valeriam a pena....
Jake eu não recomendo 4way para mais ninguém, não sei da opinião da galera aqui mas comecei a notar muito stuter de uns tempos pra cá, bf4 para mim encomodou muito, acabei me desfazendo dos monitores e fiquei com um só, ultimamente estou sem tempo e sempre que arrumava uma folga para dar uma jogada tinha que ficar mechendo em alguma coisa e jogar que é bom nada.
 
É isso ai mesmo. Kepler é horrível pra compute.
Fermi era um monstro.
E agora a Maxwell vai voltar a ser bom. Ele vai ser bem parecido com Fermi na verdade.

Já postei isso aqui em algum lugar, mas vai la
http://regmedia.co.uk/2012/05/12/nvidia_kepler_smx.jpg

http://core0.staticworld.net/images/article/2014/02/maxwell_control_logic-100246317-orig.png

Estão voltando para 32 shaders por CL
O que significa, que dado o mesmo número de shaders, ela vai ter mais CLs.
Pra jogos isso não é muito bom, pois os CLs ocupam espaço no die, que poderia ser usado pra mais shaders.
Mas pra compute isso é ótimo.
Da mais granularidade na ordem execução das instruções, e reduz o trabalho do compilador.

E dai as limitacoes do dx11 esconderiam essas fraquezas, q o opencl expoe.
------------
Ou nao?
A desculpa q dizem do desempenho ruim em opencl é q a nvidia nao da suporte decente de proposito.
Mas se a apple escolheu gcn pra profissionais isso deve dizer alguma coisa.
 
E dai as limitacoes do dx11 esconderiam essas fraquezas, q o opencl expoe.
------------
Ou nao?
A desculpa q dizem do desempenho ruim em opencl é q a nvidia nao da suporte decente de proposito.
Mas se a apple escolheu gcn pra profissionais isso deve dizer alguma coisa.

Depende de como a aplicação é programada.

O problema de GPUs é que elas não tem execução fora de ordem, igual as CPUs.
Ou seja, quando um grupo de instruções é entregue a um cluster de shaders, ele vai ser executado até o final.

Isso não é um problema quando você tem algo bem "straight-foward", como um jogo.

Mas pode ser um problemaço quando se tem cálculos que dependem do resultado de outros cálculos para serem executados.
Porque imagina que você tem um cluster enorme, com muitos shaders, e que aguenta muitas instruções.
O resultado de uma dessas instruções pode ser necessário para começar a execução em outro cluster. Mas você vai ter que esperar até todo o conjunto de instruções designadas aquele cluster terminarem de serem executadas, antes de começar o outro conjunto.

Ai que vem a ideia de fazer clusters menores.
Se você cair no que disse acima, você tem que esperar bem menos tempo até o conjunto todo ser executado, porque o conjunto em si é menor.

E foi basicamente a mesma coisa que a AMD fez ao mudar de VLIW5 e 4 (o nome da uma dica: very long instruction word :haha:) pra GCN.
GCN é quase um CPU x86, mas com SSE de 2048bit e sem out of order execution

A questão da nVidia capar propositalmente o OpenCL, eu duvido.
Coin mining é um bom exemplo disso, as nVidias mesmo minerando com cuda são um cocô.

Mas a nVidia é muito, mas muito boa em OpenGL. E muitas das aplicações profissionais são escritas em OGL, então..
 
Meu desempenho no BF ta horrivel com a minha 290
na 7970 o fps ficava mais estabilizado.
nos outros jogos também, não sei por que.

fps dropando DEMAIS, tanto no directX quanto no MANTLE
alguem sabe o por que?

O uso da placa OSCILA DEMAIS

edit: fechei o chrome e parou de cair o fps, por que disso?

edit2: ta caindo mesmo, ta uma *****!

to usando o 14.6 beta para o watch dogs!

Botei o 14.4 e ta horrivel também.
eu hein
ta pior que minha 7970
engraçado que no 3dmark ta normal
40k de pontos no graphics score
 
Última edição:
Jake eu não recomendo 4way para mais ninguém, não sei da opinião da galera aqui mas comecei a notar muito stuter de uns tempos pra cá, bf4 para mim encomodou muito, acabei me desfazendo dos monitores e fiquei com um só, ultimamente estou sem tempo e sempre que arrumava uma folga para dar uma jogada tinha que ficar mechendo em alguma coisa e jogar que é bom nada.

Um cross de 280x aqui que vendi tava dando também.. e era só no BF..

Meu desempenho no BF ta horrivel com a minha 290
na 7970 o fps ficava mais estabilizado.
nos outros jogos também, não sei por que.

fps dropando DEMAIS, tanto no directX quanto no MANTLE
alguem sabe o por que?

O uso da placa OSCILA DEMAIS

edit: fechei o chrome e parou de cair o fps, por que disso?

edit2: ta caindo mesmo, ta uma *****!

to usando o 14.6 beta para o watch dogs!

Botei o 14.4 e ta horrivel também.
eu hein
ta pior que minha 7970
engraçado que no 3dmark ta normal
40k de pontos no graphics score

BF4 tá com desempenho ridículo, oscilando aqui na minha 280x demais também.. você vai lá e monta uma máquina bem TOP pra jogar um BF que é o único jogo online que gosto pra passar raiva.. esse game tá bugado demais ainda.. é definitivamente um game pra ser esquecido.. pode colocar 30 placas que vai ficar ruim ainda..
Watchdogs aqui ficou melhor que na GTX 770 do meu irmão que tá dando umas travadas monstras..
 
Um cross de 280x aqui que vendi tava dando também.. e era só no BF..



BF4 tá com desempenho ridículo, oscilando aqui na minha 280x demais também.. você vai lá e monta uma máquina bem TOP pra jogar um BF que é o único jogo online que gosto pra passar raiva.. esse game tá bugado demais ainda.. é definitivamente um game pra ser esquecido.. pode colocar 30 placas que vai ficar ruim ainda..
Watchdogs aqui ficou melhor que na GTX 770 do meu irmão que tá dando umas travadas monstras..

Engraçado que na 7970 ficava tudo de boa cara
fps travado em 125 mesmo com tudo no low

agora cai pra 80~90 em certas partes
como eu jogo em 120hz atrapalha DEMAIS! :damn:

vou recomprar minha ex 7970 :feelbad:
 
Engraçado que na 7970 ficava tudo de boa cara
fps travado em 125 mesmo com tudo no low

agora cai pra 80~90 em certas partes
como eu jogo em 120hz atrapalha DEMAIS! :damn:

vou recomprar minha ex 7970 :feelbad:

kkk ... faz isso não.. foi algum update do BF.. aqui também começou do nada.. e driver não é.. já testei isso.. a minha 280x é uma 7970 renomeada.. e tá assim
 
kkk ... faz isso não.. foi algum update do BF.. aqui também começou do nada.. e driver não é.. já testei isso.. a minha 280x é uma 7970 renomeada.. e tá assim

Foi depois desse ultimo patch do NETCODE
por que quando lançou esse patch eu ja tinha despachado minha 7970 para o amigo aqui do forum!

então assim que chegou a 290, fiz os testes e formatei o pc.
fui jogar ontem e tava essa palhaçada :(
sem limitar o fps cai de 200 para 100
no mantle então, nem se fala
desempenho ridiculo na 290 e na 7970 ficava top!

no cod black ops 2 está normal!
 
Última edição:
Depende de como a aplicação é programada.

O problema de GPUs é que elas não tem execução fora de ordem, igual as CPUs.
Ou seja, quando um grupo de instruções é entregue a um cluster de shaders, ele vai ser executado até o final.

Isso não é um problema quando você tem algo bem "straight-foward", como um jogo.

Mas pode ser um problemaço quando se tem cálculos que dependem do resultado de outros cálculos para serem executados.
Porque imagina que você tem um cluster enorme, com muitos shaders, e que aguenta muitas instruções.
O resultado de uma dessas instruções pode ser necessário para começar a execução em outro cluster. Mas você vai ter que esperar até todo o conjunto de instruções designadas aquele cluster terminarem de serem executadas, antes de começar o outro conjunto.

Ai que vem a ideia de fazer clusters menores.
Se você cair no que disse acima, você tem que esperar bem menos tempo até o conjunto todo ser executado, porque o conjunto em si é menor.

E foi basicamente a mesma coisa que a AMD fez ao mudar de VLIW5 e 4 (o nome da uma dica: very long instruction word :haha:) pra GCN.
GCN é quase um CPU x86, mas com SSE de 2048bit e sem out of order execution

A questão da nVidia capar propositalmente o OpenCL, eu duvido.
Coin mining é um bom exemplo disso, as nVidias mesmo minerando com cuda são um cocô.

Mas a nVidia é muito, mas muito boa em OpenGL. E muitas das aplicações profissionais são escritas em OGL, então..

Eh, minerando nem na versao 2543 do cudaminer vai chegar perto das gcn rs.
De aplicacoes pra mac eu tava pensando em adobe por exemplo. Q no windows eu uso apcao cuda por exemplo e a amd adicionou opencl nesse ano.
------------
Meu desempenho no BF ta horrivel com a minha 290
na 7970 o fps ficava mais estabilizado.
nos outros jogos também, não sei por que.

fps dropando DEMAIS, tanto no directX quanto no MANTLE
alguem sabe o por que?

O uso da placa OSCILA DEMAIS

edit: fechei o chrome e parou de cair o fps, por que disso?

edit2: ta caindo mesmo, ta uma *****!

to usando o 14.6 beta para o watch dogs!

Botei o 14.4 e ta horrivel também.
eu hein
ta pior que minha 7970
engraçado que no 3dmark ta normal
40k de pontos no graphics score

Da uma olhada no gerenciador de tarefas do windows se os 4 cores tao 100 por cento cheios.
Aqui, no hardline beta pelo menos, ontem estava no talo nos 4 cores e caindo o gpu usage.
Parecia rfactor 2/asseto corsa com grid cheio derrubando o cpu. Com a diferença q era 100 nos 4 cores.

Isso numa gpu bem mais fraca e sem mantle pra ajudar:
660@i52500 4,6.
 
Pessoal uma ajuda sobre a minha recem chegada R9 290x
Bom eu tinha um CFX de r9 270x e agora peguei a R9 290x Core Edition da XFX(cooler referencia)

Bom vamos lá a placa realmente mostra para o que veio, demorei um pouco para fazer um profile de fan no AfterBurner para a placa estabilizar nos 71 graus(fica um aviao).
Mas ai que acho que tem haver com meu problema, sempre jogo com Vsync entao por exemplo no Borderlands 2 a placa num pega a velocidade maxima do Core fica oscilando entre 850 -1000mhz, posso jogar por horas e horas que nao tenho problema nenhum. Quando eu vou jogar um jogo que exige um pouco mais da VGA como "hot dogs" a placa fica com Core no maximo e as vezes fica dando uns pontos cinzas na tela(achei que era pau de driver) mas no Crysis 2 (jogo sem vsync pq e de 27 fps) no meio da treta reparo que da esses pontos cinzas, sao mais circulos que pontos, parece coisa do jogo, mas eu reparei que nao são. Bom vai meus specs

a placa ta com over para 1110 e 1300 com overvolt em +10 (feito pelo after burner)
Catalyst 14.4 Wqhl (recem formatado)
Placa Estabilizada em 68-70 Grau

Fica mais ou menos assim, so que sao circulos cinzas e beeem menores e so da no canto esquerdO!

77896034.jpg
 
Já tentou tirar o Over?
 
primeira coisa, tira o over da placa.
na real, se tu joga em 1080p, não tem necessidade de aumentar os clocks. tu joga em 120hz ??
 
Eh, minerando nem na versao 2543 do cudaminer vai chegar perto das gcn rs.
De aplicacoes pra mac eu tava pensando em adobe por exemplo. Q no windows eu uso apcao cuda por exemplo e a amd adicionou opencl nesse ano.
------------


Da uma olhada no gerenciador de tarefas do windows se os 4 cores tao 100 por cento cheios.
Aqui, no hardline beta pelo menos, ontem estava no talo nos 4 cores e caindo o gpu usage.
Parecia rfactor 2/asseto corsa com grid cheio derrubando o cpu. Com a diferença q era 100 nos 4 cores.

Isso numa gpu bem mais fraca e sem mantle pra ajudar:
660@i52500 4,6.

Eu olho no afterburner, fica na faixa de 50~70%
oscilando
o uso da vga então, nem se fale.
não adianta colocar no ultra e no low
dá o mesmo fps :lol2:


edit: Será que pode ser da minha placa REALTEK?
não lembro onde li, mas dizem que as vezes ela buga com alguns jogos, causando crashs e tudo mais.
agora que minha placa de som USB do meu fone queimou, que percebi acontecer esse tipo de problema! :(
 
Última edição:
Status
Não esta aberto para novas mensagens.

Users who are viewing this thread

Voltar
Topo