[PREVIEW] Horizon Zero Dawn Complete Edition

Status
Não esta aberto para novas mensagens.
Vou usar essa config otimizada na minha RX 580, em termos de FPS já sei que vai da pra jogar, pois no video mostrou. Só quero que não de muitos stutterings :nooo:
 
Nuvens, reflexos, sombras e texturas (pra quem nao tem placa de 8gb de vram) sao, na minha experiencia com a 970, o que fode a performance quase sempre.

São as primeiras coisas que tento baixar. Sempre funciona colocar algumas dessas coisas em medio.
 
Sobre o RDR2 que vcs estão comentando, na época do lançamento eu tinha um i7 6700k e 16 GB de RAM (usava a mesma GPU), rodei sem problemas desde o lançamento. Claro, a performance poderia ser melhor mas o visual do jogo "compensa". É muito bonito.
E pra finalizar, "jogo" mais lindo da geração inteira é esse abaixo (RDR2 n chega nem perto):



Tanto que a própria DF considera como o primeiro next gen.
 
Última edição:
Quando disso que RDR2 roda de boa em console e sofrível em uma RTX2080 queria disser que: só pq um jogo roda a 30fps, com gráfico baixo em um hardware limitado como ps4 mas de forma satisfátoria não quer dizer que a versão PC sera super leve só pq rodou bem nos consoles...
pelo contrario, RDR2 não tem hardware no mercado que tanca esse jogo hoje... até pq ele experdiça recurso de hardware, usa pouco processador, quase não usa memória ram...
Ainda não vi o vídeo do HZD do DF, vou ver agora para tirar conclusoes mais precisas
HZD é ruim o port, mas RDR2 não. Sofrível pra mim é jogar a 30fps cheio de blur sem opção alguma de fps maior, falar que roda sofrível numa RTX 2080 é sacanagem. E normalmente o peso é sempre ditado pelos consoles e não o contrário, se vc quisesse um RDR2 mais leve que roda nos consoles vc tem opção de PIORAR as settings do PC que são equivalentes as dos consoles, agora esperar que façam uma otimização melhor do que a existente nos consoles é complicado. HZD quebrou um ciclo de anos sem nenhum port rodando pior que os consoles em máquinas de potência equivalente. E usar pouco processador e pouca memória RAM é uma coisa positiva e não negativa.
 
Sei que o tópico é de HZD, mas não da para deixar passar, o vídeo que vocês mesmo postartam para exaltar o RDR2 em uma RTX2080TI tem umas textura toda cagada e borrada no chão, uma densidade vegetação pífia...
jogo tem os seus méritos, mas lançou todo cagado, no PS4 Pro HDR não funcionava até sair as primeiras atuliações, no PC saiu todo cagado, e o desempenho não é correspondente com gráfico que tem...

wdawdawd.jpg



Este jogo a 60fps parece ficar mais lagado que deveria... tanto é que o preset recomendado pelo Geforce Experience te deixa com uma média de 70~80fps mesclando Medium com High em 1440p em uma RTX2080S, sem menor cabimento!!!
Sendo que que qualquer outro jogo o GeForce Experienci indica ultra + escala de resoulução 3k~4k....
RDR2 não é parametro para HZD... repito, RDR2 tem seus méritos, história, mundo vivo, liberdade e etc, mas gráfico não é o ponto alto...
Jogo já mostra que é cagado com os 16% de uso da CPU frente ao uso de 99% da GPU;;;
Cada um tem a sua opinião, mas falar que RDR não tem gráfico é complicado.
Tirando a grama do TLOU2 eu nunca vi uma vegetação tão linda.

Acho que vc está confundindo gráfico com arte.
A arte do HZD realmente é melhor, o mundo é mais colorido, mais fantasioso e talz mas o gráfico é bem menos realista do que RDR.
HZD ainda tem aquela pegada "game", vc olha e vê que é um jogo imediatamente.

RDR tem horas que parece realidade quando vc está andando com o cavalo.
Tem umas texturas loucas sim, mas em questão de realismo é muito melhor que HZD.
 
Eu tenho uma 5700XT+Ryzen 2700x.

A maioria não rodou bem desde o primeiro dia.

TODO mundo com Nvidia teve problema de performance.
Sei disso não. Acompanhei muito bem aqui mesmo no tópico também. A única reclamação era a óbvia. "nossa, pesado demais". Ai falavam que era mal otimizado porque era pesado. Mas a performance muito boa. Teve problemas aqui e acolá só. Mas sem stutterings ou coisa do tipo.

nVidia continua com má performance até agora. Mas, como falei, é da natureza do jogo.
--- Post duplo é unido automaticamente: ---

Quando disso que RDR2 roda de boa em console e sofrível em uma RTX2080 queria disser que: só pq um jogo roda a 30fps, com gráfico baixo em um hardware limitado como ps4 mas de forma satisfátoria não quer dizer que a versão PC sera super leve só pq rodou bem nos consoles...
pelo contrario, RDR2 não tem hardware no mercado que tanca esse jogo hoje... até pq ele experdiça recurso de hardware, usa pouco processador, quase não usa memória ram...
Ainda não vi o vídeo do HZD do DF, vou ver agora para tirar conclusoes mais precisas
Desculpa, mas qual curso de criação de jogos, motores gráficos e coisa do tipo você já fez pra falar uma coisa absurda dessas? Não deve ter aprendido lá... Pelo contrário, o jogo é tão bem otimizado e aproveita tão bem os recursos disponíveis, que qualquer placa de vídeo roda a 99% cravado. CPU está em um PC só pra isso, pra fazer a placa de vídeo render o máximo. O jogo é tão bem distribuido em relação a workload que até mesmo processadores de 4 núcleos dão conta para placas razoavelmente robustas até. É um PRIMOR de otimização.

Vou nem discutir sobre qualidade gráfica porque isso realmente não é um assunto que se discuta por aí. Não tem nada a ver com gosto. Você pode gostar do resultado ou pode odiar. Agora negar que o jogo possui o que há de bom e do melhor em técnicas não existe. É ciência, é dado, é conhecimento. É inegociável essa informaçao.
 
Quando disso que RDR2 roda de boa em console e sofrível em uma RTX2080 queria disser que: só pq um jogo roda a 30fps, com gráfico baixo em um hardware limitado como ps4 mas de forma satisfátoria não quer dizer que a versão PC sera super leve só pq rodou bem nos consoles...
pelo contrario, RDR2 não tem hardware no mercado que tanca esse jogo hoje... até pq ele experdiça recurso de hardware, usa pouco processador, quase não usa memória ram...
Ainda não vi o vídeo do HZD do DF, vou ver agora para tirar conclusoes mais precisas
Mas o normal é o jogo rodar com baixo uso de CPU mesmo... CPU com alto uso é indício de gargalo. A GPU é que tem de ter uso alto (quando exigida) esse é o cenário ideal. Não tem como um user comum dizer que o CPU ta sendo subutilizado, só um dev que conhece o código de trás pra frente pra dar esse tipo de parecer. O mesmo caso pra RAM. Se o frametime ta ok, se não ta rolando stuttering, e a GPU ta indo a 99% quando exigida, pode usar 5% de processador e RAM que ta ótimo.
 
Mas o normal é o jogo rodar com baixo uso de CPU mesmo... CPU com alto uso é indício de gargalo. A GPU é que tem de ter uso alto (quando exigida) esse é o cenário ideal. Não tem como um user comum dizer que o CPU ta sendo subutilizado, só um dev que conhece o código de trás pra frente pra dar esse tipo de parecer. O mesmo caso pra RAM. Se o frametime ta ok, se não ta rolando stuttering, e a GPU ta indo a 99% quando exigida, pode usar 5% de processador e RAM que ta ótimo.
Ou de gargalo ou jogo com pobre otimização. Vide jogos da Ubisoft. Porque toda otimização deve ser feito em cima do hardware dispojnível no mercado. Se vc coloca um 9900k e não consegue manter GPU midrange com 99% de uso como nos jogos da Ubi é porque os desenvolvedores simplesmente não conseguiram otimizar o seu motor para o hardware comercial. É gargalo de CPU de qualquer forma, mas devido a má distribuição de workload dos desenvolvedores. Má não. Péssima.


RDR2 é um primor. Sob todo o aspecto. É até maluquice discutir essas coisas.
--- Post duplo é unido automaticamente: ---

No vídeo apresentado, a diferença visual do médio para o high é bem notória, porém com uma perca mínima de fps.
Achou notável mesmo? Nas fotos apresentadas aí não vi nada realmente perceptível. Isso porque é foto, né? Aquilo ali rodando com 60 transições por segundo acho que ficará impossível de se observar diferença ainda mais.
--- Post duplo é unido automaticamente: ---

Parece que nuvens e reflexos viraram comedores de hardware nos últimos anos

O melhor a se fazer é colocar esses presets no médio/low para configurações médias assim que visualizar esses nomes :haha:
Objetos volumétricos como nuvens são incrivelmente inúteis mesmo. Fico impressionando o quanto de computação se gasta pra renderizar essas coisas que não fazem quase diferença nenhuma no visual. Deveria ter opção pra desligar!
 
Ou de gargalo ou jogo com pobre otimização. Vide jogos da Ubisoft. Porque toda otimização deve ser feito em cima do hardware dispojnível no mercado. Se vc coloca um 9900k e não consegue manter GPU midrange com 99% de uso como nos jogos da Ubi é porque os desenvolvedores simplesmente não conseguiram otimizar o seu motor para o hardware comercial. É gargalo de CPU de qualquer forma, mas devido a má distribuição de workload dos desenvolvedores. Má não. Péssima.


RDR2 é um primor. Sob todo o aspecto. É até maluquice discutir essas coisas.
--- Post duplo é unido automaticamente: ---


Achou notável mesmo? Nas fotos apresentadas aí não vi nada realmente perceptível. Isso porque é foto, né? Aquilo ali rodando com 60 transições por segundo acho que ficará impossível de se observar diferença ainda mais.
--- Post duplo é unido automaticamente: ---


Objetos volumétricos como nuvens são incrivelmente inúteis mesmo. Fico impressionando o quanto de computação se gasta pra renderizar essas coisas que não fazem quase diferença nenhuma no visual. Deveria ter opção pra desligar!
Confundi uma parte do vídeo, a diferença notada foi com uma ampliação, mas em situação de jogo realmente a diferença é quase nula.
Mais uma coisa para eu colocar no médio visto que as texturas sempre gosto de colocar no high/ultra.
 
Ou de gargalo ou jogo com pobre otimização. Vide jogos da Ubisoft. Porque toda otimização deve ser feito em cima do hardware dispojnível no mercado. Se vc coloca um 9900k e não consegue manter GPU midrange com 99% de uso como nos jogos da Ubi é porque os desenvolvedores simplesmente não conseguiram otimizar o seu motor para o hardware comercial. É gargalo de CPU de qualquer forma, mas devido a má distribuição de workload dos desenvolvedores. Má não. Péssima.

Na maioria dos jogos/engines existe um gargalo, alguns mais fáceis de alcançar e outros não, AC Origins e Odyssey usam muita CPU mesmo com o fps estando relativamente não tão alto, já outros jogos vc pode por tudo no low e abaixar mto a resolução que ainda usa 99% de GPU (claro, depende mto da CPU utilizada e memórias em conjunto e da GPU tbm). A questão que alguns jogos entregam fps bem altos pro gargalo começar a acontecer, já Origins/Odyssey o gargalo já começa com fps mais baixo, pq por padrão o jogo em áreas populosas já foi feito e programado pra usar muita CPU, estando a 60fps mesmo por exemplo.
 
Objetos volumétricos como nuvens são incrivelmente inúteis mesmo. Fico impressionando o quanto de computação se gasta pra renderizar essas coisas que não fazem quase diferença nenhuma no visual. Deveria ter opção pra desligar!

Pois é. Quando vejo esse nome nas configurações gráficas, eu já coloco lá em baixo :isquero:
 
Na maioria dos jogos/engines existe um gargalo, alguns mais fáceis de alcançar e outros não, AC Origins e Odyssey usam muita CPU mesmo com o fps estando relativamente não tão alto, já outros jogos vc pode por tudo no low e abaixar mto a resolução que ainda usa 99% de GPU (claro, depende mto da CPU utilizada e memórias em conjunto e da GPU tbm). A questão que alguns jogos entregam fps bem altos pro gargalo começar a acontecer, já Origins/Odyssey o gargalo já começa com fps mais baixo, pq por padrão o jogo em áreas populosas já foi feito e programado pra usar muita CPU, estando a 60fps mesmo por exemplo.
Olha, na minha experiência, são raríssimos os jogos onde o desenvolvedor compromete o hardware para desenvolver como quiser um jogo. Quase que exclusivamente os jogos da Ubisoft mesmo e aquele motor gráfico tenebroso que eles usam.

Tem um monte de jogo muito mais complexo em relação a IA (tanto quantidade quanto ações) e esse absurdo de queda de uso de GPU não ocorre. Vc entra na cidade principal em RDR2 e não vê nem ali o uso de GPU caindo. Isso é um bom trabalho de otimização. Um trabalho decente de gente que se importa com os jogadores.
--- Post duplo é unido automaticamente: ---

Confundi uma parte do vídeo, a diferença notada foi com uma ampliação, mas em situação de jogo realmente a diferença é quase nula.
Mais uma coisa para eu colocar no médio visto que as texturas sempre gosto de colocar no high/ultra.
Textura Alto pra 1080p/1440 e Ultra pra 4k. Essa regrinha básica funciona bem rsrs. Ultra pra resolução baixa não faz diferença.

Vc mesmo pode fazer um teste legal aqui. Roda um jogo em 720p e alterna entre textura em Médio e Alto. Vai ver que não muda nada além da VRAM alocada a mais.
 
Olha, na minha experiência, são raríssimos os jogos onde o desenvolvedor compromete o hardware para desenvolver como quiser um jogo. Quase que exclusivamente os jogos da Ubisoft mesmo e aquele motor gráfico tenebroso que eles usam.

Tem um monte de jogo muito mais complexo em relação a IA (tanto quantidade quanto ações) e esse absurdo de queda de uso de GPU não ocorre. Vc entra na cidade principal em RDR2 e não vê nem ali o uso de GPU caindo. Isso é um bom trabalho de otimização. Um trabalho decente de gente que se importa com os jogadores.
--- Post duplo é unido automaticamente: ---


Textura Alto pra 1080p/1440 e Ultra pra 4k. Essa regrinha básica funciona bem rsrs. Ultra pra resolução baixa não faz diferença.

Vc mesmo pode fazer um teste legal aqui. Roda um jogo em 720p e alterna entre textura em Médio e Alto. Vai ver que não muda nada além da VRAM alocada a mais.
Nunca cheguei a testar isso cara, vou observar de agora em diante, pode me ajudar bastante.

-----------------------------------------------------------------------------------------------------------------------------------------------

Já já live do Diego com os testes que pedirem !!!! Bom pra aliviar um pouco a ansiedade(ou piorar kkk).

 
Pra quem não viu ainda

ciXVrf7.png
 
Olha, na minha experiência, são raríssimos os jogos onde o desenvolvedor compromete o hardware para desenvolver como quiser um jogo. Quase que exclusivamente os jogos da Ubisoft mesmo e aquele motor gráfico tenebroso que eles usam.

Tem um monte de jogo muito mais complexo em relação a IA (tanto quantidade quanto ações) e esse absurdo de queda de uso de GPU não ocorre. Vc entra na cidade principal em RDR2 e não vê nem ali o uso de GPU caindo. Isso é um bom trabalho de otimização. Um trabalho decente de gente que se importa com os jogadores.
--- Post duplo é unido automaticamente: ---


Textura Alto pra 1080p/1440 e Ultra pra 4k. Essa regrinha básica funciona bem rsrs. Ultra pra resolução baixa não faz diferença.

Vc mesmo pode fazer um teste legal aqui. Roda um jogo em 720p e alterna entre textura em Médio e Alto. Vai ver que não muda nada além da VRAM alocada a mais.
Acho que não é bem como quiser pq eles desenvolvem visando rodar em um hardware existente e usam um hardware tbm existente pra fazer o desenvolvimento, no caso fazem pensando pra rodar nos consoles na maioria das vezes e depois portam pra PC e aí entra toda a questão das settings variáveis, CPUs, GPUs, framerates variados, etc, eu imagino que mesmo nos consoles a 30fps o Odyssey e Origins estejam usando muito aquela APU Jaguar, visto que no próprio The Witcher 3 em Novigrad acontece um gargalo no Xbox One X no modo 1080p 60fps que fica entre 32-35fps naquela região, culpa da CPU mto aquém. Eu não conheço algum jogo que tenha a quantidade de NPCs andando pra lá e pra cá quanto o Odyssey e Origins nas partes mais densas de NPCs que seriam as cidades, Atenas e Alexandria. The Witcher 3 em Novigrad não chega nem perto da quantidade exibida lá, talvez Cyberpunk 2077 consiga. RDR2 eu preciso rejogar pois não lembro com exatidão se tem mtos NPCs acumulados em Saint Denis.
 
Acho que não é bem como quiser pq eles desenvolvem visando rodar em um hardware existente e usam um hardware tbm existente pra fazer o desenvolvimento, no caso fazem pensando pra rodar nos consoles na maioria das vezes e depois portam pra PC e aí entra toda a questão das settings variáveis, CPUs, GPUs, framerates variados, etc, eu imagino que mesmo nos consoles a 30fps o Odyssey e Origins estejam usando muito aquela APU Jaguar, visto que no próprio The Witcher 3 em Novigrad acontece um gargalo no Xbox One X no modo 1080p 60fps que fica entre 32-35fps naquela região, culpa da CPU mto aquém. Eu não conheço algum jogo que tenha a quantidade de NPCs andando pra lá e pra cá quanto o Odyssey e Origins nas partes mais densas de NPCs que seriam as cidades, Atenas e Alexandria. The Witcher 3 em Novigrad não chega nem perto da quantidade exibida lá, talvez Cyberpunk 2077 consiga. RDR2 eu preciso rejogar pois não lembro com exatidão se tem mtos NPCs acumulados em Saint Denis.
A questão da Ubi é que eles desenvolvem visando 30FPS. Então eles realmente não se importam muito como a performance do jogo está a partir disso.

Só que você vê que o jogo está nitidamente carecendo de otimização para hardware comercial quando não importa o quanto você melhora o seu processador, você continua tendo quedas de uso de GPU. Mesmo em placas de vídeo midrange. Isso é claramente um sintoma de que os desenvolvedores não levaram em conta alguns importantes fatores durante o processo de fabricação e otimização.

E pra piorar a IA dos jogos da UBI são em geral inúteis. Ficam andando pra lá e pra cá. Hitman tem cenários com muito mais transeuntes e não cai de 99% de uso se tiver CPU balanceado. Detalhe que no Hitman a IA é IA mesmo, não um monte de gente indo e voltando a esmo.

TW3 tendo esse problema não é culpa da região, é culpa do desenvolvedor que fez algo que o hardware não se mostra disponível e resolver. O nome disso é má otimização. Otimização tem um foco e é o hardware. O desenvolvedor precisa se preocupar com o hardware comercial. Ao portar para os consoles ou sei lá qual for a ordem, deveriam ter isso em mente e otimizar o jogo. Otimizar também pode ser cortar operações, renderização, ações, etc. Faz parte.

RDR2 pode passear onde quiser. É 100% de uso de GPU do início ao fim. Isso é um primor, é desenvolvimento de livro.
 
A questão da Ubi é que eles desenvolvem visando 30FPS. Então eles realmente não se importam muito como a performance do jogo está a partir disso.

Só que você vê que o jogo está nitidamente carecendo de otimização para hardware comercial quando não importa o quanto você melhora o seu processador, você continua tendo quedas de uso de GPU. Mesmo em placas de vídeo midrange. Isso é claramente um sintoma de que os desenvolvedores não levaram em conta alguns importantes fatores durante o processo de fabricação e otimização.

E pra piorar a IA dos jogos da UBI são em geral inúteis. Ficam andando pra lá e pra cá. Hitman tem cenários com muito mais transeuntes e não cai de 99% de uso se tiver CPU balanceado. Detalhe que no Hitman a IA é IA mesmo, não um monte de gente indo e voltando a esmo.

TW3 tendo esse problema não é culpa da região, é culpa do desenvolvedor que fez algo que o hardware não se mostra disponível e resolver. O nome disso é má otimização. Otimização tem um foco e é o hardware. O desenvolvedor precisa se preocupar com o hardware comercial. Ao portar para os consoles ou sei lá qual for a ordem, deveriam ter isso em mente e otimizar o jogo. Otimizar também pode ser cortar operações, renderização, ações, etc. Faz parte.

RDR2 pode passear onde quiser. É 100% de uso de GPU do início ao fim. Isso é um primor, é desenvolvimento de livro.
No dia que eu jogar um jogo, onde o jogador se envolve numa briga em uma loja na cidade X e volta lá depois de "3 meses" e o dono do estabelecimento fala "Ei rapaz, nada de briga aqui hoje", como vi acontecer no rdr2, eu digo que algo superou rdr2 em termos de IA.
 
A questão da Ubi é que eles desenvolvem visando 30FPS. Então eles realmente não se importam muito como a performance do jogo está a partir disso.

Só que você vê que o jogo está nitidamente carecendo de otimização para hardware comercial quando não importa o quanto você melhora o seu processador, você continua tendo quedas de uso de GPU. Mesmo em placas de vídeo midrange. Isso é claramente um sintoma de que os desenvolvedores não levaram em conta alguns importantes fatores durante o processo de fabricação e otimização.

E pra piorar a IA dos jogos da UBI são em geral inúteis. Ficam andando pra lá e pra cá. Hitman tem cenários com muito mais transeuntes e não cai de 99% de uso se tiver CPU balanceado. Detalhe que no Hitman a IA é IA mesmo, não um monte de gente indo e voltando a esmo.

TW3 tendo esse problema não é culpa da região, é culpa do desenvolvedor que fez algo que o hardware não se mostra disponível e resolver. O nome disso é má otimização. Otimização tem um foco e é o hardware. O desenvolvedor precisa se preocupar com o hardware comercial. Ao portar para os consoles ou sei lá qual for a ordem, deveriam ter isso em mente e otimizar o jogo. Otimizar também pode ser cortar operações, renderização, ações, etc. Faz parte.

RDR2 pode passear onde quiser. É 100% de uso de GPU do início ao fim. Isso é um primor, é desenvolvimento de livro.

Depende da CPU e da GPU, eu mesmo em 1440p em Atenas com fps acima de 80 meu uso de GPU não varia pra menos de 96%, fica 96-98%, isso com minha config da assinatura em 1440p com fps entre 80-90, Atenas é o lugar que mais se usa CPU, imagino que meu uso de GPU cairia com uma RTX 2080Ti, aí pra empurrar ela totalmente ali talvez só um i9 10900k. Mas de fato o uso de GPU do RDR2 é bem mais sólido com os fps bem maiores, eu acho que é impossível levar AC Odyssey e Origins a 144fps nas cidades sem qualquer tipo de gargalo (sem o uso de GPU cair tipo pra uns 80%).
 
Depende da CPU e da GPU, eu mesmo em 1440p em Atenas com fps acima de 80 meu uso de GPU não varia pra menos de 96%, fica 96-98%, isso com minha config da assinatura em 1440p com fps entre 80-90, Atenas é o lugar que mais se usa CPU, imagino que meu uso de GPU cairia com uma RTX 2080Ti, aí pra empurrar ela totalmente ali talvez só um i9 10900k. Mas de fato o uso de GPU do RDR2 é bem mais sólido com os fps bem maiores, eu acho que é impossível levar AC Odyssey e Origins a 144fps nas cidades sem qualquer tipo de gargalo (sem o uso de GPU cair tipo pra uns 80%).
Cara, eu não tenho um hardware tão robusto, mas todos os vídeos que vejo de RTX rodando AC Odyssey, Wildlands e The Division tem drops pra 75% de uso de GPU mesmo com 9900k.
 
Cara, eu não tenho um hardware tão robusto, mas todos os vídeos que vejo de RTX rodando AC Odyssey, Wildlands e The Division tem drops pra 75% de uso de GPU mesmo com 9900k.
Wildlands e TD2 não era pra cair não, só se o fps tivesse muito alto coisa pra 150+fps, TD2 é muito bem otimizado nessa questão em DX12, eu consigo jogar ele com fps bem acima de 120fps e ainda ter o uso sólido em 99%, já Wildlands não me recordo, mas creio que 100fps tbm era uso cravado ao máximo, segue abaixo eu rodando o Odyssey fazendo o percurso mais pesado. Agora eu já vi mto vídeo do Adrenaline aqui mesmo que nunca entendi o que eles aprontam com o setup deles, mas já vi 10900k sofrendo pra empurrar 110fps numa RTX 2080Ti no BFV MP, com uso de GPU tipo 70%, parecia um gargalo mas acho que é algo que eles não sabem direito, pois o BFV msm eu jogo a 150+fps e ainda usando 98% de GPU com minha CPU bem mais modesta.

 
Wildlands e TD2 não era pra cair não, só se o fps tivesse muito alto coisa pra 150+fps, TD2 é muito bem otimizado nessa questão em DX12, eu consigo jogar ele com fps bem acima de 120fps e ainda ter o uso sólido em 99%, já Wildlands não me recordo, mas creio que 100fps tbm era uso cravado ao máximo, segue abaixo eu rodando o Odyssey fazendo o percurso mais pesado. Agora eu já vi mto vídeo do Adrenaline aqui mesmo que nunca entendi o que eles aprontam com o setup deles, mas já vi 10900k sofrendo pra empurrar 110fps numa RTX 2080Ti no BFV MP, com uso de GPU tipo 70%, parecia um gargalo mas acho que é algo que eles não sabem direito, pois o BFV msm eu jogo a 150+fps e ainda usando 98% de GPU com minha CPU bem mais modesta.


Ryzen 2600 aqui. Wildlands despenca pra 75% mesmo em 1440p. Amigo meu com 8700 e RX580 com os mesmos sintomas. É simplesmente bizarro. TD2 mesma coisa. Sem tirar nem por. Isso em cidades populosas no Wildlands. Já TD2 é meio aleatório. Enfim, Ubisoft, tô acostumado com o baixo nível de otimização. Só acontece nos jogos deles. Exceção de Breakpoint, que por acaso é Vulkan. Em DX é a mesma porcaria. Direto baixa o uso de GPU. Fica claro que é problema interno, gente incompetente seja na gestão seja pra desenvolver.

4200 CL16? Não sei até que ponto isso aí está fazendo diferença também, né? E não conheço bem Odyssey, então não sei os trechos que mais causam problemas. E ele não é o pior, Wildlands é o pior de todos dependendo da cidade. Esse é bizarro.
 
Última edição:
Diego tá jogando com o patch do jogo?

Tá na casa dos 55-60fps em 4K no Ultra na 2080 ti... Estavam falando que não pegava nem 45fps, ué :hmm:
 
Status
Não esta aberto para novas mensagens.

Users who are viewing this thread

Voltar
Topo