[TÓPICO DEDICADO] NVIDIA GeForce RTX 5XXX

  • Iniciador de Tópicos Iniciador de Tópicos Cata
  • Data de Início Data de Início
A placa não consegue rodar cyberpunk a 30 fps sem fake frames e reflex pra você não jogar com um delay horrivel.
Jesus.
 
Caso a parte? Já tem um tempinho (Mais de ano) que todo lançamento relevante (Jogos populares) tem DLSS, o FG é mais recente, coisa de um ano, mais está aí constante também...

Não me lembro a última vez que joguei um jogo sem isso... e olha que tinha uma 4090, boa força bruta hein, mas se não é pra usar o DLSS, pé pra usar DLAA, se tive o FG, pra usar ele.

Honestamente? É um padrão sim, tão padrão que a AMD está correndo atrás, Intel também... Inevitável.

Aliás, em nenhum momento ignorei o bruto, inclusive estou sempre ressaltando em vários post (Te desafio a achar um post meu que coloco tecnologia como a única coisa que importa e falo mal do bruto), o que não estou fazendo e acho errado: ignorar a parte tecnológica que é relevante desde a série RTX 2000 e fingir que isso não existe, como bem falaram.

Aliás, to esperando ver um lançamento de jogo AAA sem DLSS, Ops... não tem né?

Do lançamento das RTX 4000 pra cá... praticamente os jogos mais populares tem o FG.

Acho assim: Não quer comprar, beleza - cada um faz o que quer. Agora fingir que não tem relevância, pra mim é tentar se auto enganar sozinho, só lamento.
AMD fez isso também... ignorou a relevância do DLSS quando surgiu e agora está com extrema dificuldade de seguir atrás da Nvidia, só ladeira abaixo.

Claro, tem muitas criticas que concordo em relação a Nvidia e IA em jogos, mas o mercado adotou, não há o que ser feito(Teria que ter concorrência demonstrando que tem outro caminho...).
Cara, essas tecnologias beneficiam todos menos os consumidores. Acho muito justo desconfiar da real aplicabilidade dessas tecnologias pensando que elas vem notoriamente com alguns negativos.
A NVIDIA ganha embarcando um 2x, 4x, 8x... por geração e os devs não precisam mais cuidar de otimizar os jogos pra uma gama maior de placas, já que todas embarcam essas tecnologias
 
Caso a parte? Já tem um tempinho (Mais de ano) que todo lançamento relevante (Jogos populares) tem DLSS, o FG é mais recente, coisa de um ano, mais está aí constante também...

Não me lembro a última vez que joguei um jogo sem isso... e olha que tinha uma 4090, boa força bruta hein, mas se não é pra usar o DLSS, é pra usar DLAA, se tive o FG, pra usar ele.

Honestamente? É um padrão sim, tão padrão que a AMD está correndo atrás, Intel também... Inevitável.

Dói tanto assumir isso?

Aliás, em nenhum momento ignorei o bruto, inclusive estou sempre ressaltando em vários post (Te desafio a achar um post meu que coloco tecnologia como a única coisa que importa e falo mal do bruto), o que não estou fazendo e acho errado: ignorar a parte tecnológica que é relevante desde a série RTX 2000 e fingir que isso não existe, como bem falaram.

Aliás, to esperando ver um lançamento de jogo AAA sem DLSS, Ops... não tem né?

Do lançamento das RTX 4000 pra cá... praticamente os jogos mais populares tem o FG.

Acho assim: Não quer comprar, beleza - cada um faz o que quer. Agora fingir que não tem relevância, pra mim é tentar se auto enganar sozinho, só lamento.
AMD fez isso também... ignorou a relevância do DLSS quando surgiu e agora está com extrema dificuldade de seguir atrás da Nvidia, só ladeira abaixo.

Claro, tem muitas criticas que concordo em relação a Nvidia e IA em jogos, mas o mercado adotou, não há o que ser feito (Teria que ter concorrência demonstrando que tem outro caminho...).
Concordo 100%.
IA é um força imparavel.
Nos jogos, na vida.

Eu tenho monitor e TV OLED, tinha 4090 e usava em tudo o DLSS, frame é SEMPRE bem vindo.

E eu nunca fiquei incomodado com o DLSS ou FG.

Eu só não ligo em jogo competitivo online, tenho que fingir que minha ruindade vem dos 10ms de latência a mais.
 
Cara, essas tecnologias beneficiam todos menos os consumidores. Acho muito justo desconfiar da real aplicabilidade dessas tecnologias pensando que elas vem notoriamente com alguns negativos.
A NVIDIA ganha embarcando um 2x, 4x, 8x... por geração e os devs não precisam mais cuidar de otimizar os jogos pra uma gama maior de placas, já que todas embarcam essas tecnologias

Por isso estamos esperando reviews práticos do DLSS4, por outro lado, o DLSS e o FG estão aí e trouxeram mais pontos positivos que contras (Tem espaço pra melhora em ambos).
Agora essa parte de embarcar tecnologia... se a concorrência tivesse feito seu papel, a discussão poderia ser diferente. Como ignoraram, a Nvidia agora decide o rumo que isso toma - pode reclamar, não discordo de várias críticas, mas por bem ou por mal, sem concorrência ela decide.

Meu questionamento é principalmente fingir que força bruta é a única coisa que importa sendo que já tem um tempinho que ninguém joga sem esses recursos - todo jogo AAA exige - acho um pouco de hipocrisia isso, mas cada um é cada um.
 
Última edição:
O jeito é esperar os testes em raster puro para termos uma melhor noção do poder que essa placas possuem, mas já posso meio que adiantar que a única que terá um desempenho que consideramos o desejado (ou seja, o dobro da anterior) é a 5090
5080 eu tenho minhas dúvidas e a 5070 não vejo tudo isso até pel corte do chip que ela teve comparado com a 5090
Mas vamos ver, ainda tem a AMD que não passou nenhuma impressão boa e provavelmente vão tomar no toba sem tadala da Nvidia nessa geração nova
 
Eu tenho periferico da Razer, daria pra dar sync lá?
Se o periférico em questão for compatível com a razer Sim.
Tem que ver...
A Razer controla até as Philips HUE do meu quarto... mas eu preferi deixar a Alexa controlar.. mas por exemplo, meu quarto todo poderia ficar vermelho ao jogar Diablo IV... só que caraca.. imagina você passando na rua e olhar para uma janela com a iluminação toda vermelha... kkk
 
Concordo 100%.
IA é um força imparavel.
Nos jogos, na vida.

Eu tenho monitor e TV OLED, tinha 4090 e usava em tudo o DLSS, frame é SEMPRE bem vindo.

E eu nunca fiquei incomodado com o DLSS ou FG.

Eu só não ligo em jogo competitivo online, tenho que fingir que minha ruindade vem dos 10ms de latência a mais.
A depender da distância que c tá jogando nessa TV não dá pra ver nem a diferença entre QHD e 4k haha
Acho muita doideira gente que nega esse lado negativo da IA. É muito notavel. Tambem é notável a perda entre DLSS Qualidade pra DLSS Performance também (que é o nível que a NVIDIA testa as coisas)
Não tem essa de que OLED a diferença é menor. Tá igual o LTT no vídeo "Bom, a gente nota bem aqui o ghosting e esse texto borrado, mas é 2x mais frames yummy yummy"
 
Sim, eu sei. O que quis dizer é que não dá pra falar como vai se comportar enquanto não chegar rsrs
A performance não deve mudar, afinal a resolução de renderização permanece e o restante é post processing. O que pode acontecer é que a série nova se beneficie mais no RT e upscaling devido ao maior poder de processamento dos cores.

Ou seja…se alguém ganhar performance (e pouco) será a série nova.
 
Caso a parte? Já tem um tempinho (Mais de ano) que todo lançamento relevante (Jogos populares) tem DLSS, o FG é mais recente, coisa de um ano, mais está aí constante também...

Não me lembro a última vez que joguei um jogo sem isso... e olha que tinha uma 4090, boa força bruta hein, mas se não é pra usar o DLSS, é pra usar DLAA, se tive o FG, pra usar ele.

Honestamente? É um padrão sim, tão padrão que a AMD está correndo atrás, Intel também... Inevitável.

Dói tanto assumir isso?

Aliás, em nenhum momento ignorei o bruto, inclusive estou sempre ressaltando em vários post (Te desafio a achar um post meu que coloco tecnologia como a única coisa que importa e falo mal do bruto), o que não estou fazendo e acho errado: ignorar a parte tecnológica que é relevante desde a série RTX 2000 e fingir que isso não existe, como bem falaram.

Aliás, to esperando ver um lançamento de jogo AAA sem DLSS, Ops... não tem né?

Do lançamento das RTX 4000 pra cá... praticamente os jogos mais populares tem o FG.

Acho assim: Não quer comprar, beleza - cada um faz o que quer. Agora fingir que não tem relevância, pra mim é tentar se auto enganar sozinho, só lamento.
AMD fez isso também... ignorou a relevância do DLSS quando surgiu e agora está com extrema dificuldade de seguir atrás da Nvidia, só ladeira abaixo.

Claro, tem muitas criticas que concordo em relação a Nvidia e IA em jogos, mas o mercado adotou, não há o que ser feito (Teria que ter concorrência demonstrando que tem outro caminho...).

Fui ver quem você estava argumentando e bingo.
Tem um motivo para esse user estar block para mim, só quer causar. Adiciona zero a qualquer discussão relevante.
Inclusive ele me cita ai do nada, é muito butthurt. E olha que devo ter bloqueado ele há muito, muito tempo... tipo as mensagens nem aparecem na minha tela por estar block e o cara ainda lembra de mim haushasusa
 
MSI GeForce RTX 5090 "Lightning" Special Edition na CES 2025


A MSI apostou tudo na recém-lançada série de GPUs GeForce RTX 50 "Blackwell" da NVIDIA na CES 2025 — um número impressionante de modelos personalizados foi exibido no showroom. A equipe TechPowerUp examinou muitas das últimas e melhores novidades da MSI, mas também notou um conjunto intrigante de cartazes posicionados ao lado da vasta seleção de produtos físicos da empresa de tecnologia. As informações "exclusivas" em mãos apontam para dois modelos GeForce RTX 5090 em andamento — informalmente chamados de Edições Especiais "Lightning". Representantes da empresa revelaram que a equipe de engenharia está elaborando um design de PCB feito sob medida para as duas próximas placas. Esta placa supostamente apresenta diferenças suficientes para se distinguir do layout de referência da NVIDIA (como visto em sua Founder's Edition) — especialistas do setor avaliam que a maioria dos AIBs utilizará o PCB padrão GeForce RTX 5090 da Team Green.

O gráfico impresso indica que a misteriosa MSI Special Edition GeForce RTX 32G com refrigeração líquida chegará com a "solução de refrigeração a água tudo-em-um (AIO) definitiva". Uma configuração de ventoinha STORMFORCE dupla é provocada junto com canais de fluxo de ar avançados e um sistema de refrigeração líquida AIO duplo de 120 mm de última geração. Canais de água projetados sob medida são anunciados como capazes de fluir "diretamente" pela memória interna da placa. As entradas e saídas frontais duplas ajudam muito no resfriamento deste modelo Special Edition, bem como dos componentes de PC vizinhos. Os usuários podem implementar ajustes de velocidade de ventoinha personalizados independentes; presumivelmente por meio do software MSI. Será interessante ver como este modelo baseado em AIO em desenvolvimento se compara ao MSI RTX 5090 SUPRIM LIQUID SOC "de duas peças" de nível premium .

aXb6Z4f.jpeg


J9DgBVI.jpeg


lNNnxuR.jpeg



uC5AV4w.png





A GeForce RTX 32G "Lightning" Special Edition refrigerada a ar da MSI é provocada por ostentar uma configuração incomum de ventoinha "FiveFrozr" — três ventoinhas STORMFORCE montadas na cobertura trabalharão juntas como entradas, enquanto as duas restantes (posicionadas na placa traseira) assumem as funções de exaustão. Os engenheiros da MSI avaliam que esta configuração avançada de cinco ventoinhas foi projetada com "gerenciamento térmico excepcional" em mente — como sua irmã refrigerada a líquido, esta solução de cinco ventoinhas é considerada poderosa o suficiente para resfriar o hardware ao redor. O ajuste personalizado da velocidade da ventoinha também é oferecido aqui — algumas configurações incomuns podem ser implementadas nas cinco ventoinhas STORMFORCE.
 
Última edição:
A placa não consegue rodar cyberpunk a 30 fps sem fake frames e reflex pra você não jogar com um delay horrivel.
Jesus.

Isso é o Cyberpunk com Path Tracing mano, tenta pelo menos pesquisar um pouquinho as coisas.
 
Caso a parte? Já tem um tempinho (Mais de ano) que todo lançamento relevante (Jogos populares) tem DLSS, o FG é mais recente, coisa de um ano, mais está aí constante também...

Não me lembro a última vez que joguei um jogo sem isso... e olha que tinha uma 4090, boa força bruta hein, mas se não é pra usar o DLSS, é pra usar DLAA, se tive o FG, pra usar ele.

Honestamente? É um padrão sim, tão padrão que a AMD está correndo atrás, Intel também... Inevitável.

Dói tanto assumir isso?

Aliás, em nenhum momento ignorei o bruto, inclusive estou sempre ressaltando em vários post (Te desafio a achar um post meu que coloco tecnologia como a única coisa que importa e falo mal do bruto), o que não estou fazendo e acho errado: ignorar a parte tecnológica que é relevante desde a série RTX 2000 e fingir que isso não existe, como bem falaram.

Aliás, to esperando ver um lançamento de jogo AAA sem DLSS, Ops... não tem né?

Do lançamento das RTX 4000 pra cá... praticamente os jogos mais populares tem o FG.

Acho assim: Não quer comprar, beleza - cada um faz o que quer. Agora fingir que não tem relevância, pra mim é tentar se auto enganar sozinho, só lamento.
AMD fez isso também... ignorou a relevância do DLSS quando surgiu e agora está com extrema dificuldade de seguir atrás da Nvidia, só ladeira abaixo.

Claro, tem muitas criticas que concordo em relação a Nvidia e IA em jogos, mas o mercado adotou, não há o que ser feito (Teria que ter concorrência demonstrando que tem outro caminho...).
O que incomoda dessa mudança é que a NVIDIA nem mostra mais performance relativa em um cenário de paridade e vende tudo como se fosse equivalente. Frame-gen é bacana, tem um custo pequeno em latência e melhora significativamente a fluidez, especialmente em jogos limitados pelo CPU e a altas taxas de quadros, mas não é a mesma coisa 100 fps com frame-gen de 100 fps sem frame-gen, quanto mais 100 fps com frame-gen comparado a 100 fps com MULTI FRAME GEN X4. E no caso do X3? Por que sequer existe o X3 se o X4 não acrescenta quase nada de latência e não tem mais artefatos?

Aí ela põe no gráfico sem escala que é a RTX 5090 usando DLSS4 vs RTX 4090 usando DLSS 3, mas DLSS 4 abrange 37 tecnologias e DLSS 3 abrange outras 32. Agora ficamos nessa de fazer a conta de qual jogo suporta qual tecnologia. Vejamos, um jogo tem DLSS 4 FG mas não MFG, então dá para inferir que um jogo com FG (A) + DLSS Super Resolution (B) + Ray Tracing (C) + Raster (D) o ganho é 40%. Aí o outro jogo só tem Ray-tracing (C) e Raster (D), e o ganho é 25%. Agora substitui na equação interior, isola A+B e no fim a conclusão é... nenhuma, pq mesmo se eu resolver a equação eu não sei se o Reflex 2 Frame Warping vai mais me incomodar com artefatos do que reduzir a latência, mas foda-se, a NVIDIA só testou o DLSS4 com Reflex 2 e disse que não muda a latência, simplesmente eu que me foda. A NVIDIA quer muito convencer o público que é tudo igual, e nessa de tentar convencer ela omite um monte de informação importante.

Eu quero saber quantos % a mais a 5090 é melhor que a 4090 puramente em Rasterização. Se os jogos do futuro todos terão ray-tracing, ótimo, mas eu quero pelo menos saber o ganho que eu vou ter nos jogos que eu jogo que são puramente rasterização, simples assim. O padrão pro futuro é assim, beleza, me dói mas eu aceito isso. Só que não é unânime ao ponto de ignorar totalmente as outras variáveis tradicionais.
 
Custo benefício fora a performance com drivers novos , vai ser a queridinha pra quem não puder gastar muito!
Ta cuco tb? pior CxB da gen eh a 5080 seguida pela 5070. Nao tem como achar ela a melhor
so salva a 5090 e 5070ti que pelo menos n mendigam Vram na resolução delas.
 
Ta cuco tb? pior CxB da gen eh a 5080 seguida pela 5070. Nao tem como achar ela a melhor
so salva a 5090 e 5070ti que pelo menos n mendigam Vram na resolução delas.
Vamos ver na prática com os primeiros testes iniciais.
 
O que incomoda dessa mudança é que a NVIDIA nem mostra mais performance relativa em um cenário de paridade e vende tudo como se fosse equivalente. Frame-gen é bacana, tem um custo pequeno em latência e melhora significativamente a fluidez, especialmente em jogos limitados pelo CPU e a altas taxas de quadros, mas não é a mesma coisa 100 fps com frame-gen de 100 fps sem frame-gen, quanto mais 100 fps com frame-gen comparado a 100 fps com MULTI FRAME GEN X4. E no caso do X3? Por que sequer existe o X3 se o X4 não acrescenta quase nada de latência e não tem mais artefatos?

Aí ela põe no gráfico sem escala que é a RTX 5090 usando DLSS4 vs RTX 4090 usando DLSS 3, mas DLSS 4 abrange 37 tecnologias e DLSS 3 abrange outras 32. Agora ficamos nessa de fazer a conta de qual jogo suporta qual tecnologia. Vejamos, um jogo tem DLSS 4 FG mas não MFG, então dá para inferir que um jogo com FG (A) + DLSS Super Resolution (B) + Ray Tracing (C) + Raster (D) o ganho é 40%. Aí o outro jogo só tem Ray-tracing (C) e Raster (D), e o ganho é 25%. Agora substitui na equação interior, isola A+B e no fim a conclusão é... nenhuma, pq mesmo se eu resolver a equação eu não sei se o Reflex 2 Frame Warping vai mais me incomodar com artefatos do que reduzir a latência, mas foda-se, a NVIDIA só testou o DLSS4 com Reflex 2 e disse que não muda a latência, simplesmente eu que me foda. A NVIDIA quer muito convencer o público que é tudo igual, e nessa de tentar convencer ela omite um monte de informação importante.

Eu quero saber quantos % a mais a 5090 é melhor que a 4090 puramente em Rasterização. Se os jogos do futuro todos terão ray-tracing, ótimo, mas eu quero pelo menos saber o ganho que eu vou ter nos jogos que eu jogo que são puramente rasterização, simples assim. O padrão pro futuro é assim, beleza, me dói mas eu aceito isso. Só que não é unânime ao ponto de ignorar totalmente as outras variáveis tradicionais.
Tava escrevendo um textao tbm mas você já disse a ideia. Eu acho bizarro ela vir e apresentar algo comparativos sem contar as 4 das 5 novas features que a geração passada também vai receber.
De fato perdemos muito com esse monopólio. Ela vai ditar as regras do jogo e nós é que se fufu, porque de resto todo mundo saiu ganhando. Não é a toa que abraçam essa tecnologia tão fortemente. Imagina ter que testar texturas da 10xx até a 50xx. Mete um trem no meio ali e deixa o FG e DLSS agir pra mais ou pra menos.
 
Esse povo que fica chateado com DLSS ou outras tecnologias que usam de AI pra funcionar, desistam. Isso veio pra ficar assim como a Internet. A tendência é só piorar.

:incri2:A seita :incri2:que dói menos.
 
  • Curtir
Reações: Zyt
A depender da distância que c tá jogando nessa TV não dá pra ver nem a diferença entre QHD e 4k haha
Acho muita doideira gente que nega esse lado negativo da IA. É muito notavel. Tambem é notável a perda entre DLSS Qualidade pra DLSS Performance também (que é o nível que a NVIDIA testa as coisas)
Não tem essa de que OLED a diferença é menor. Tá igual o LTT no vídeo "Bom, a gente nota bem aqui o ghosting e esse texto borrado, mas é 2x mais frames yummy yummy"
Quad HD e 4K tem uma diferença absurda pra não notar uma diferença de qualidade... teria que ser uma distância enorme pra ser imperceptível.

Inclusive existe um mito popular que vejo muito na internet que é: 4K só faz diferença em tela grande, em tela pequena quase não tem diferença pra 1440p, geralmente quem fala isso nunca testou duas telas dessa.

Sobre lado negativo da IA, super concordo - inclusive o DLSS em preset menos que qualidade pra mim já prejudica muito em 1440p.

DLSS tá em um estado em que só consegue entregar uma qualidade razoável em todos presets na resolução 4K (Os tensor cores tem uma boa quantidade de informação para trabalhar); esse refinamento de qualidade é um dos campos que vejo espaço pras melhorias no DLSS. Já o FG, precisava exigir principalmente um FPS base menor pra tirar melhor aproveito... o input que ele acresce é praticamente irrelevante nas condições certa de hoje.

Sobre OLED, tem motivo para tal, inclusive expliquei de forma bem técnica o porquê num post aí atras (O resto é achismo até que consiga se provar).
--- Post duplo é unido automaticamente: ---

Fui ver quem você estava argumentando e bingo.
Tem um motivo para esse user estar block para mim, só quer causar. Adiciona zero a qualquer discussão relevante.
Inclusive ele me cita ai do nada, é muito butthurt. E olha que devo ter bloqueado ele há muito, muito tempo... tipo as mensagens nem aparecem na minha tela por estar block e o cara ainda lembra de mim haushasusa
Deu pra perceber kkkk
Nem deveria perder tempo.
 
Última edição:
Acho que será um bom upgrade da 3060ti pra 5070ti.
 
Então ao comprar o DLSS4, recebo uma RTX 50? É isso? :hmm:
 
Vamos ver na prática com os primeiros testes iniciais.
n importa os resultados brutos. 12gb de vram pra uma placa em QHD ja ta no limite, ela pode ter desempenho de 4090 que isso n vai mudar o limitante principal da placa
--- Post duplo é unido automaticamente: ---

Acho que será um bom upgrade da 3060ti pra 5070ti.
Acho que sim, pra 5070 n vale a pena pela vram limitada, sair de 8 pra 12 eh pouco pratico
 
MSI GeForce RTX 5090 "Lightning" Special Edition na CES 2025


A MSI apostou tudo na recém-lançada série de GPUs GeForce RTX 50 "Blackwell" da NVIDIA na CES 2025 — um número impressionante de modelos personalizados foi exibido no showroom. A equipe TechPowerUp examinou muitas das últimas e melhores novidades da MSI, mas também notou um conjunto intrigante de cartazes posicionados ao lado da vasta seleção de produtos físicos da empresa de tecnologia. As informações "exclusivas" em mãos apontam para dois modelos GeForce RTX 5090 em andamento — informalmente chamados de Edições Especiais "Lightning". Representantes da empresa revelaram que a equipe de engenharia está elaborando um design de PCB feito sob medida para as duas próximas placas. Esta placa supostamente apresenta diferenças suficientes para se distinguir do layout de referência da NVIDIA (como visto em sua Founder's Edition) — especialistas do setor avaliam que a maioria dos AIBs utilizará o PCB padrão GeForce RTX 5090 da Team Green.

O gráfico impresso indica que a misteriosa MSI Special Edition GeForce RTX 32G com refrigeração líquida chegará com a "solução de refrigeração a água tudo-em-um (AIO) definitiva". Uma configuração de ventoinha STORMFORCE dupla é provocada junto com canais de fluxo de ar avançados e um sistema de refrigeração líquida AIO duplo de 120 mm de última geração. Canais de água projetados sob medida são anunciados como capazes de fluir "diretamente" pela memória interna da placa. As entradas e saídas frontais duplas ajudam muito no resfriamento deste modelo Special Edition, bem como dos componentes de PC vizinhos. Os usuários podem implementar ajustes de velocidade de ventoinha personalizados independentes; presumivelmente por meio do software MSI. Será interessante ver como este modelo baseado em AIO em desenvolvimento se compara ao MSI RTX 5090 SUPRIM LIQUID SOC "de duas peças" de nível premium .

aXb6Z4f.jpeg


J9DgBVI.jpeg


lNNnxuR.jpeg



A GeForce RTX 32G "Lightning" Special Edition refrigerada a ar da MSI é provocada por ostentar uma configuração incomum de ventoinha "FiveFrozr" — três ventoinhas STORMFORCE montadas na cobertura trabalharão juntas como entradas, enquanto as duas restantes (posicionadas na placa traseira) assumem as funções de exaustão. Os engenheiros da MSI avaliam que esta configuração avançada de cinco ventoinhas foi projetada com "gerenciamento térmico excepcional" em mente — como sua irmã refrigerada a líquido, esta solução de cinco ventoinhas é considerada poderosa o suficiente para resfriar o hardware ao redor. O ajuste personalizado da velocidade da ventoinha também é oferecido aqui — algumas configurações incomuns podem ser implementadas nas cinco ventoinhas STORMFORCE.
Preço de um carro no Bananil.
 

Users who are viewing this thread

Voltar
Topo