Só pra "tentar" informar os desinformados de plantão: a 290X foi lançada pra competir com a GTX 780, não com a 780 TI... A 780 TI foi a resposta da nVidia para a 290X, dias depois do lançamento desta. Porém, graças à maturação do software, a 290X se equivale hoje à 390, que briga com a 970, enquanto que as Keplers foram jogadas no limbo da história...
Quanto à Fury X, por mais que ela tivesse capacidade pra brigar no nível da 980 TI (apesar de não ganhar em todos os cenários, principalmente em 1080 e 1440p), ela chegou com 2 meses de atraso, com menos VRAM, maior consumo (a margem não era grande, mas existia) e preço semelhante por causa da refrigeração WC, que só servia pra deixar o chip mais frio e a placa mais silenciosa. Depois de descrever todas essas "qualidades", que é que iria fazer mais sucesso na prática? Só não ia ser a AMD, definitivamente...
Outra coisa que temos que notar é que, da 980 TI para a 1080 TI, a nVidia aumentou 768 CUDAs (e 512 CUDAs da 980 pra 1080, fora o incremento no clock de trabalho), enquanto que a AMD manteve, na Vega 64, os mesmos 4096 SPs presentes na Fury X que brigavam com os 2816 CUDAs da 980 TI. Como o GCN 5.0 não foi uma arquitetura completamente feita do zero (o que se deduz que o ganho de IPC não foi tão expressivo), a única forma da AMD competir de igual pra igual com a 1080 TI, no lançamento, seria se ela tivesse feito uma Vega com mais SPs, o que aumentaria o tamanho do chip e encareceria ainda mais os custos de produção; do ponto de vista financeiro, fazer isso era completamente inviável para a AMD... O que nos resta é torcer pra que o software da Vega amadureça com o tempo e consiga reduzir essa diferença para com a top da nVidia; se isso já aconteceu no passado, pode muito bem voltar a acontecer agora
Mesmo diante dessa demora, gerada basicamente por causa dos entraves na produção do HBM2, ainda é possível a AMD tomar parte do mercado da 1080/1070. Se quem compra pensar não so no hardware em si, mas no ecossistema do qual ele faz parte, alguns users de 1070 e 1080 podem ver vantagem em casar uma Vega com um monitor Freesync, seja porque o combo é mais barato, seja porque a experiência de fluidez é mais prazerosa. Claro que a questão energética é um contra, mas quem acompanha esse mercado sabe que a arquitetura GCN, no segmento high e ultra high-end, sempre apresentou consumo elétrico superior devido ao foco em unidades de compute (algo que a nVidia capa em suas placas gaming), unidades essas que demandam muita energia e que infelizmente não são utilizadas com frequência em jogos. Com um chip desse tamanho, rodando com esses clocks, não tinha como esperar uma eficiência melhor que a obtida pela Pascal ou mesmo pela Polaris 10 (na 470/480, claro)...
É fácil falar que a AMD lançou um chip 1 ano depois sem considerar os motivos que levaram à esse atraso... Ou você acha que a baixa produção do HBM2 ou o fato de que a AMD não queria repetir a baixa disponibilidade de placas no lançamento da Fury X não tiveram influência nessa decisão?
Também é muito fácil falar isso querendo comparar justo com a Paxwell, que basicamente foi um die shrink da arquitetura anterior, algo
muito mais fácil de fazer que pegar o chip antecessor e mudar as estruturas internas do mesmo para tentar reduzir os gargalos existentes (fora a questão da VRAM)...
E sim, a AMD prometeu um chip parrudo, mas o que ela divulgou desde o começo do ano casava com a performance de uma 1080, não de uma 1080 TI, que sequer havia sido lançada na época... Além do mais, antes de sair qualquer review oficial da placa e sem saber qual será a evolução que seu software sofrerá, não dá pra afirmar, apenas supor.
Quer um mercado competitivo? Compre produtos da AMD, nem que seja pra ficar de quebra-galho... Se a grande maioria das pessoas continuar comprando produtos da nVidia e dando a ela 70 ou mais % do market share, você acha que essa situação vai mudar quando?
Eu não tenho Freesync, mas se a experiência que eu tiver com ele for igual ou melhor à experiência que tive ao usar o Enhanced Sync (que eliminou o tearing nos 2 jogos que tive a oportunidade de testar e que geravam um festival de imagens quebradas, WD2 e JC3), então eu não quero
NUNCA MAIS jogar sem essas tecnologias!
Sim, dia 14 é a data oficial do lançamento.
Pra justificar o uso de uma 1080 TI num monitor 1080p, só mesmo por meio do DSR. Porém, querendo ou não, a experiência de jogar nativamente num monitor com maior resolução é superior, tendo em vista que não há a utilização da filtragem gaussiana, responsável por deixar a imagem borrada quando se usa o DSR.
Não sei se tu já viu esse vídeo, mas se não o fez, recomendo:
Apesar do Freesync gerar input lag, o valor é bem irrisório se comparado com aquele gerado pelo Vsync. Claro que quem quer obter o máximo tempo de resposta possível (no caso, gamers competitivos), vai ter que jogar com nenhum tipo de sync ativado, mas quem joga casualmente, pode muito bem usar Freesync tranquilamente. Entretanto, ativar o Freesync e o Vsync ao mesmo tempo é o mesmo que jogar com o alto input lag gerado pelo Vsync. Nesse caso, é recomendável limitar o FPS pelo driver da AMD, pois você consegue manter o FPS na faixa de trabalho do Freesync, mas sem ter o input lag gerado pelo Vsync. Na verdade, com o advento do Enhanced Sync, da até pra retirar o limitador de frames e usá-lo no lugar; mesmo que ele gere mais input lag que o Freesync, o valor ainda será menor que o gerado pelo Vsync
Falouws