CrossFire ou SLI ainda são viáveis?

marcelocruz

11400F+3070TI
Registrado
Sempre foi uma coisa extremamente problemática, raramente escalonando bem e raramente funcionando. E sei que por serem interfaces de marcas diferentes, tem suas particularidades. Mas, de forma geral, a coisa funciona ou definitivamente não funciona?
 
Sobre SLI, "sim a tecnologia Funciona !" Agora definitivamente não ! ( O que eu quero dizer é que funciona mais não como o esperado).
A questão é que ela está totalmente abandonada. Nvidia faz pouco caso, em liberar jogos com Suporte a SLI...(Alguns Fazem gambiarra com Nvidia Spector, e as vezes nem sempre fica uma maravilha, no Caso no APEX ficou um coco! Muito instável e variação frame time) Sim até testei no APEX Legends com SLI de 980 que tinha até 2 Semanas atrás, pois peguei uma 1080ti.

Referente ao Desempenho da Placa em SLI/ESCABILIDADE entre as Duas Placas, vai depender da engine do jogo ou seja dependo do Jogo.... Alguns vai ficar 50%/50% - 85%/20% - 99%/25%- 99%/99% entre outras 99%/0 ~ 10%. Desde então aqui você começa a perceber que é bem melhor uma placa mais parrudas com um Single xx80Ti ou xx80,Pois você vai ter certeza que estará usando o poder total da placa, ao invés 99%/0 ~ 50% sobre SLI.

Sobre recomendação: Eu não recomendo, demorei um tempo para saber que fazem pouco caso para o consumidor em SLI, até a série 900.
Ponto Positivo do SLI : Quando !! "funciona bem feito em um determinado Jogo" fica Ótimo mesmo, e você percebe o ganho até o dobro de Frames - 99%/90%~99% uso Gpu`s ...
A estética do PC fica muito Show, Principalmente quando blocadas.

Hoje posso ter certeza : Não recomendo, porem não me arrependi pois agregou meu conhecimento e também era meu sonho ter SLI, O que mais pesou pra min foi ter pago praticamente 2 k em cada GTX, sendo que nem sempre a tecnologia funciona perfeitamente como esperado por duas placas de forte desempenho, sendo assim a escolha mais viavel é single xx80 ou xx80 ti.

Esperto não ter ficado confuso...
Usei durante 4 anos...
 
Sobre SLI, "sim a tecnologia Funciona !" Agora definitivamente não ! ( O que eu quero dizer é que funciona mais não como o esperado).
A questão é que ela está totalmente abandonada. Nvidia faz pouco caso, em liberar jogos com Suporte a SLI...(Alguns Fazem gambiarra com Nvidia Spector, e as vezes nem sempre fica uma maravilha, no Caso no APEX ficou um coco! Muito instável e variação frame time) Sim até testei no APEX Legends com SLI de 980 que tinha até 2 Semanas atrás, pois peguei uma 1080ti.

Referente ao Desempenho da Placa em SLI/ESCABILIDADE entre as Duas Placas, vai depender da engine do jogo ou seja dependo do Jogo.... Alguns vai ficar 50%/50% - 85%/20% - 99%/25%- 99%/99% entre outras 99%/0 ~ 10%. Desde então aqui você começa a perceber que é bem melhor uma placa mais parrudas com um Single xx80Ti ou xx80,Pois você vai ter certeza que estará usando o poder total da placa, ao invés 99%/0 ~ 50% sobre SLI.

Sobre recomendação: Eu não recomendo, demorei um tempo para saber que fazem pouco caso para o consumidor em SLI, até a série 900.
Ponto Positivo do SLI : Quando !! "funciona bem feito em um determinado Jogo" fica Ótimo mesmo, e você percebe o ganho até o dobro de Frames - 99%/90%~99% uso Gpu`s ...
A estética do PC fica muito Show, Principalmente quando blocadas.

Hoje posso ter certeza : Não recomendo, porem não me arrependi pois agregou meu conhecimento e também era meu sonho ter SLI, O que mais pesou pra min foi ter pago praticamente 2 k em cada GTX, sendo que nem sempre a tecnologia funciona perfeitamente como esperado por duas placas de forte desempenho, sendo assim a escolha mais viavel é single xx80 ou xx80 ti.

Esperto não ter ficado confuso...
Usei durante 4 anos...
É, pelo jeito continua o mesmo de sempre. É algo realmente para grandes entusiastas da coisa. Obrigado. É que as vezes vejo a R9 380 4GB por 250 reais e fico imaginando como seria a performance com um escalonamento entre 30% a 60%. E seria mais uma curiosidade do que um objetivo de tirar enorme vantagem da tecnologia.
 
Culpa da Nvidia, não é atoa que ela nem permitiu SLI na GTX 1060 e agora na série 2x00 pouco se fala...
No reddit tá cheio de nego pedindo suporte a X jogo e ao mesmo tempo xingando...

Sobre CrossFire não sei dizer.... Mais creio no quesito de suporte a Driver / Software a AMD, vem apresentando bom resultados se funciona bem em Cross e nos Jogos não sei dizer...
 
É, pelo jeito continua o mesmo de sempre. É algo realmente para grandes entusiastas da coisa. Obrigado. É que as vezes vejo a R9 380 4GB por 250 reais e fico imaginando como seria a performance com um escalonamento entre 30% a 60%. E seria mais uma curiosidade do que um objetivo de tirar enorme vantagem da tecnologia.

Olha muitas vezes não chega nem a 50 %.
 
Pra SLI e CF só servem pra quem joga MSi Aferburnner, que os FPS valemmuito mai sque qqer custo vs beneficio.
 
Raffs disse tudo. Quando funciona é sensacional, pena que quase não funciona.

Acrescento que é um alívio enorme rodar em single card depois de um tempão rodando Sli. Sem bugs, stuttering, etc...

Só pretendo voltar a ter SLI se houver uma revolução no suporte que muito provavelmente não vai rolar.
 
Raffs disse tudo. Quando funciona é sensacional, pena que quase não funciona.

Acrescento que é um alívio enorme rodar em single card depois de um tempão rodando Sli. Sem bugs, stuttering, etc...

Só pretendo voltar a ter SLI se houver uma revolução no suporte que muito provavelmente não vai rolar.

Que Enorme alivio!! , Estou com uma GTX 1080 Ti, agora e não preciso mais me preocupar se as placas estão me entregando 100% ~50 no Escalonamento.

Eu cair naquele bait do DX12 fazer melhor uso da GPUs, Soma de Vram... e me Fud$#@$
 
Que Enorme alivio!! , Estou com uma GTX 1080 Ti, agora e não preciso mais me preocupar se as placas estão me entregando 100% ~50 no Escalonamento.

Eu cair naquele bait do DX12 fazer melhor uso da GPUs, Soma de Vram... e me Fud$#@$
Justamente por esse papo do Dx12 que perguntei mesmo, apesar de nunca ter visto notícias posteriores sobre isso.
 
Sempre foi uma coisa extremamente problemática, raramente escalonando bem e raramente funcionando. E sei que por serem interfaces de marcas diferentes, tem suas particularidades. Mas, de forma geral, a coisa funciona ou definitivamente não funciona?
Eu tive as duas experiências recentemente, fiz CFX de Vega 64 e RX 580, o CFX tem otima escalabilidade quando funciona, o problema atualmente é que os jogos atuais não estão muito favoráveis ao CrossFire msmo qdo ha suporte, muito bug. No caso da Vega 64 o CFX requer uma fonte de mais de 950W reais pra funcionar, no caso eu com uma de 850W Plus Gold a fonte desligou em 3 minutos usando o CFX em BF1, se levar em consideração que as fontes de potencia real de qualidade sempre podem entregar mais do que o rotulado, no caso a minha thermaltake TouchPower Grand Series de 850W poderia entregar até 1000w e desligou, me leva a crer que o minimo seria uma fonte de 1100W pra rodar no Ryzen Threadripper 1950X que foi onde fiz o CrossFire, no caso coloquei uma de 1300W da EVGA e ai sim tive sucesso, isso quer dizer que o consumo é altissimo e o investimento alto demais pra um retorno problemático como foi, dos jogos atuais que testei, apenas BF1 funcionou com alguns bugs, RofTR funcionou com bugs, o restante deu erros grotescos ou nao aceitam CFX!

Sli - Tenho aqui um nvlink de RTX 2080, funciona, os jogos são mais amigáveis com o SLi, por exemplo o BF1 eu rodo @7680x2160 o equivalente a um 2160p no meu monitor de 49" Samsung S-UltraWide 32:9 com tudo no ultra e consigo uma taxa sempre acima dos 100fps, ou seja, é um torpedo, BFV tem suporte a SLi mas a nvidia nÃo quer que vc use o SLi nesse jogo porque ela não quer que quem tem uma 1080Ti compre outra e fique com uma performance superior a uma RTX 2080Ti, então por questão de marketing e interesses proprios a nvidia nao libera o perfil sli para BFV, mas usando o nvinspector é possivel usar o perfl de BF1 ou SWBFII, mas a escalabilidade não é tão alta e por conta de alguns problemas do perfil usando o nvinspectos em determinados momentos a escalabilidade foi negativa (vc perde performance e tem stutterings).
Em resumo, ambas as tecnologias funcionam, são um grande negócio se tanto AMD quanto nvidia investissem mais nelas dando inclusive impulso aos devs para desenvolver com suporte a tais tecnologias, faria com que 2 RX580 fosse o suficiente por exemplo para rodar SofTR, BF1, BFV, rodassem no ultra tais games com resolucao 2K acima dos 80fps.
A promessa do DX12 de acabar com a necessidade do jogo dar suporte a CFX e SLi é uma balela, diziam que o proprio DX12 se encarregaria da renderização em quadros alternados o que chamam de AFR e que isso funcionaria independente do jogo dar ou não suporte a multigpu, a verdade é que todos os jogos que joguei em DX12 NENHUM FUNCIONOU BEM EM SLI OU CFX, NO CFX FOI UM DESASTRE ALIAS, FALTA DE SINCRONIA, TEXTURAS CORROMPIDAS, STUTTERINGS ABSURDOS!

Enfim, foi bom amigo quando SLi era uma tecnologia da 3DFX e ela mesma oferecia sua API para jogos (o Glide) e TODOS os jogos davam suporte a multiGPU quando usavam o Glide (e a maioria dos jogos davam suporte ao Glide), mas quando entrou o tal DirectX na historia e a nvidia entrou com os dois pés no peito da ATi e da propria 3DFx, acabou a farra...era so uma questão de tempo até eles conhecerem a formula mágica da liderança de mercado e fazer do mesmo o que bem entendessem, esse é o cenário atual, a nvidia vende o nvlink como uma tecnologia diferenciada e superior ao SLi, uma ponte nvlink custa o preço de uma RX570 ou até 580 usada, e no fim a propria nvidia não quer dar suporte a tecnologia por interesses proprios, vide BFV que tem suporte a multigpu, mas a nvidia não libera o perfil para funcionar de forma nativa no jogo!
 
Boa tarde: todos estou montando outra maquina, trabalha Real Timer com render, eu s estou duvida seu compra duas 1080 8gb em SLI ou compra uma 1080 11gb, o resultado final seria mesmo resultado no V-Ray 3.6, Redshift 2.5 , no cinema 4D, Maya, Nuke Studio, Houdini FX 17, Daz Studio ,4,10, Iclone 7.4, After Effects CC 2017, HifFilm Pro 2017 etc esse só um exemplo dos eu uso, as vezes tenho usa muito mais, gostaria saber qual seria melhor, SLI ou um único cartão TI

configuração do do computador estação de trabalho:

placa-mãe Gigabyte X470 Aorus Ultra Gaming AMD Soquete AM4

Processador AMD Ryzen 7-1700X 3.8GHz AM4 20MB

64gb = Memória Crucial Ballistix DDR4 16GB 2400MHz

2=HD Sandisk SSD SDSSDA-480G-G26 480GB 2.5"

1= HD Kingston SSD SA400S37 120GB 2.5" Temp e memoria Rom

2: Raid 0 para arquivos, HD Western Digital Blue WD10EZEX 1TB 3.5"

2 Tv 32= TV JVC LED LT32N355 Full HD 32", TV Sony LED Bravia KDL-32R305C Full HD 32", futuramente troca uma por 4k

fonte= Fonte EVGA ATX G2L Real Gold 210-GQ-0850-V1 850W

obrigado fico no aguardo,
 
No seu caso, Gregoris, que é renderizacão e trabalho audio visual, o SLI traz maiores benefícios, pois a sua necessidade é processamento gráfico e não a compatibilidade com jogos.
Assim a diferença na quantidade de memória não sobrepuja o poder de processamento gráfico.

Contudo, com esse SLI a sua fonte pode não ser suficiente (850W), como alguns colegas já comentaram anteriormente.
Abraço!
 
No seu caso, Gregoris, que é renderizacão e trabalho audio visual, o SLI traz maiores benefícios, pois a sua necessidade é processamento gráfico e não a compatibilidade com jogos.
Assim a diferença na quantidade de memória não sobrepuja o poder de processamento gráfico.

Contudo, com esse SLI a sua fonte pode não ser suficiente (850W), como alguns colegas já comentaram anteriormente.
Abraço!
Além desenterrar o tópico, vem com desinformação... Se a fonte de 850W não aguentar, vai precisar do que? Acho que é bom fazer uma ligação em série com Itaipu...
 
A própria nvidia havia enterrado o sli ao remover o suporte para a 2070. Voltou atrás na super, mas já é um tremendo indício que a tecnologia vai parar de ser otimizada.
 
Além desenterrar o tópico, vem com desinformação... Se a fonte de 850W não aguentar, vai precisar do que? Acho que é bom fazer uma ligação em série com Itaipu...

Bem amigo, responder um tópico antigo não é problema algum, pois a mesma dúvida pode se aplicar a outras pessoas.

Quanto à potência, eu me baseei nesse bechmark, que sugere uma fonte entre 850 e 900 Watts:


Como a fonte do colega é de 850W e dependendo do modelo e fabricante, pode ser recomendado um de 900W.

Na prática é bem provavel que funcione, mesmo com o risco de algumas instabilidades. Mas eu disse antes que "pode não ser suficiente...", se vc soubesse interpretar um texto, saberia que isso significa uma possibilidade, e não um fato concreto.

E qual foi a sua fonte de informações pra tecer essa opinião? Sua orelha??

Abraço e Feliz ano novo.
 
Bem amigo, responder um tópico antigo não é problema algum, pois a mesma dúvida pode se aplicar a outras pessoas.

Quanto à potência, eu me baseei nesse bechmark, que sugere uma fonte entre 850 e 900 Watts:


Como a fonte do colega é de 850W e dependendo do modelo e fabricante, pode ser recomendado um de 900W.

Na prática é bem provavel que funcione, mesmo com o risco de algumas instabilidades. Mas eu disse antes que "pode não ser suficiente...", se vc soubesse interpretar um texto, saberia que isso significa uma possibilidade, e não um fato concreto.

E qual foi a sua fonte de informações pra tecer essa opinião? Sua orelha??

Abraço e Feliz ano novo.
Na verdade isso tem problema sim, faz 9 meses que o cara perguntou, você desenterrou o tópico... E uma configuração com uma 1080 não passa de 450W de consumo, como que duas vão extrapolar 850W? O consumo de uma placa é 200W, da segunda é quase 500W? Minha base de informação está na matemática, operação de adição. 400W + 200W = 600W, e isso é menos que 850W.
 
Hoje em dia acho que morreu isso. Eu mesmo já fiz SLI na época das GTX 570 e 670. Depois abandonei.

Na época ainda era bom, pois os jogos davam suporte ao multi gpu, escalava legal, as vgas single não davam tão conta do recado sozinhas etc.

Hoje em dia temos vgas mais fortes, que aguentam de boa 1080p/1440p. A grande maioria dos jogos não dá suporte ao multi gpu. Então o ganho de quem fizer SLI/Crossfire vai ser mínimo.

Fora o consumo de energia, que aumenta bastante.

Enfim, é meio carta fora do baralho hoje. Tanto que nem se vê mais isso entre os usuários do fórum.

Edit: depois de postar que notei que o tópico foi desenterrado. :rolleyes:
 
A própria nvidia havia enterrado o sli ao remover o suporte para a 2070. Voltou atrás na super, mas já é um tremendo indício que a tecnologia vai parar de ser otimizada.
Geralmente quem usa mais de uma GPU para outras aplicações que não sejam jogos acaba não usando o nvlink por trazer poucos benefícios. Acho que multi gpu para uso profissional é o único motivo pelo qual a nvidia manteve esse nvlink capado na série rtx, já que ela praticamente abandonou o sli para jogos.

Na verdade isso tem problema sim, faz 9 meses que o cara perguntou, você desenterrou o tópico... E uma configuração com uma 1080 não passa de 450W de consumo, como que duas vão extrapolar 850W? O consumo de uma placa é 200W, da segunda é quase 500W? Minha base de informação está na matemática, operação de adição. 400W + 200W = 600W, e isso é menos que 850W.
A 1080 pode passar de 300W em pico, e chegar perto dos 400W se tiver com OC, então o consumo de um sistema com sli delas pode beirar os 800~900W fácil.
 
Caro @joaorosini , aqui é um ambiente livre. Vc pode falar as asneiras que bem entender. Fique a vontade.

Não vou mais perder tempo contigo, que tira as informacoes da orelha e usa argumentos igual ao meu cunhado adolescente ("é assim, porque sim").
A potencia exigida num PC depende totalmente da configuracao. Nao da pra chutar assim uma potência arbitrariamente (400W). Mas parabens, vc já aprendeu a operacao matematica de soma. Continue estudando, vale a pena.

Quem estiver com uma dúvida parecida aqui no fórum, vai poder acessar o artigo que indiquei e tomar as próprias conclusoes.
Duas GTX 1080 em SLI é RECOMENDADA fonte entre 850 e 900W. Quem tiver uma fonte de 850W PODE ficar no limite. Além disso, as fontes podem não apresentar a pontencia real que indicam no marketing.

Nessa configuracao do colega, precisa testar antes se a fonte aguenta (recomendado testar em benchmark), e se notar instabilidades pode já partir pra análise da fonte sem duvidas. Melhor ainda se possuir um medidor de potência instalado na tomada.

Para fins de comparacao, tenho duas GTX 970 em SLI que em benchmark passam de 600W (tenho medidor de potencia na tomada). Como as GTX 1080 consomem mais que a 970, se forem instaladas em um PC com muitos assessorios e componentes, principalmente componentes antigos ou ineficientes (que consumam muita potencia), uma fonte de 850W pode ser muito limiar, sendo RECOMENDADA uma de maior potência. A minha é de 1000W e supre tudo o que eu quiser instalar. Não preciso me preocupar com isso.

Espero ter ajudado. Abracos ao pessoal do forum.
 
A 1080 pode passar de 300W em pico, e chegar perto dos 400W se tiver com OC, então o consumo de um sistema com sli delas pode beirar os 800~900W fácil.
:wat:

Tive 1070 TI que é quase a mesma coisa e medindo com kill a watt o sistema não passava de 350w em jogos.

TDP dela é 180w. Duas, 360w, isso em cenário exagerado e hipotérico. Mais um PC moda foca, 500/600w no SLI. Gastar 900w só se tiver uma geladeira ligada no PC. :bwahaha:
 
a Nvidia mesmo fala qual o recomendado para SLi gente, pra que vcs estão brigando ? só olhar no site...
Tem SLI que pede 850W ,outros pedem 950W ~ 1050W, depende da GPU.

vai fazer SLI de RTX Titan 24Gb pra vc ve
 
:wat:

Tive 1070 TI que é quase a mesma coisa e medindo com kill a watt o sistema não passava de 350w em jogos.

TDP dela é 180w. Duas, 360w, isso em cenário exagerado e hipotérico. Mais um PC moda foca, 500/600w no SLI. Gastar 900w só se tiver uma geladeira ligada no PC. :bwahaha:
O povo acha que recomendação do site da Nvidia é o consumo da placa kkkk
--- Post duplo é unido automaticamente: ---

Caro @joaorosini , aqui é um ambiente livre. Vc pode falar as asneiras que bem entender. Fique a vontade.

Não vou mais perder tempo contigo, que tira as informacoes da orelha e usa argumentos igual ao meu cunhado adolescente ("é assim, porque sim").
A potencia exigida num PC depende totalmente da configuracao. Nao da pra chutar assim uma potência arbitrariamente (400W). Mas parabens, vc já aprendeu a operacao matematica de soma. Continue estudando, vale a pena.

Quem estiver com uma dúvida parecida aqui no fórum, vai poder acessar o artigo que indiquei e tomar as próprias conclusoes.
Duas GTX 1080 em SLI é RECOMENDADA fonte entre 850 e 900W. Quem tiver uma fonte de 850W PODE ficar no limite. Além disso, as fontes podem não apresentar a pontencia real que indicam no marketing.

Nessa configuracao do colega, precisa testar antes se a fonte aguenta (recomendado testar em benchmark), e se notar instabilidades pode já partir pra análise da fonte sem duvidas. Melhor ainda se possuir um medidor de potência instalado na tomada.

Para fins de comparacao, tenho duas GTX 970 em SLI que em benchmark passam de 600W (tenho medidor de potencia na tomada). Como as GTX 1080 consomem mais que a 970, se forem instaladas em um PC com muitos assessorios e componentes, principalmente componentes antigos ou ineficientes (que consumam muita potencia), uma fonte de 850W pode ser muito limiar, sendo RECOMENDADA uma de maior potência. A minha é de 1000W e supre tudo o que eu quiser instalar. Não preciso me preocupar com isso.

Espero ter ajudado. Abracos ao pessoal do forum.
Potência da tomada tem que ver eficiência da fonte, aí já tem um erro. Se for 80% e estiver marcando 600W, seu PC deve estar consumindo da fonte na faixa de 450-500W.
 
:wat:

Tive 1070 TI que é quase a mesma coisa e medindo com kill a watt o sistema não passava de 350w em jogos.

TDP dela é 180w. Duas, 360w, isso em cenário exagerado e hipotérico. Mais um PC moda foca, 500/600w no SLI. Gastar 900w só se tiver uma geladeira ligada no PC. :bwahaha:

TDP não reflete diretamente consumo, aquilo é medida de calor que o dispositivo vai gerar e que você tem de tentar resfriar, serve mais pra você dimensionar cooling. Em uma regra de padaria, geralmente o consumo de energia é 1.5x o valor do TDP, logo 180*1.5=270w, oq fica bem próximo daqueles valores que citei para pico, algo difícil de mensurar já que é bem rápido e pontual, mas poderia ser o suficiente pra desarmar uma fonte momentaneamente caso a qualidade não seja lá essas coisas.

Aliás, o valor que você mediu ainda tá dentro daquele do link que mandei, já que a média de consumo de uma 1080 é de uns 175W (e um kill a watt não tem taxa de atualização alta o suficiente pra mostrar um pico momentâneo)
 
Aliás, o valor que você mediu ainda tá dentro daquele do link que mandei, já que a média de consumo de uma 1080 é de uns 175W (e um kill a watt não tem taxa de atualização alta o suficiente pra mostrar um pico momentâneo)
Mas de 350w o pico do sistema vai pra quanto, 1000w? :mj:

Aqui o meu sistema atual consome 450w em full. Se o anterior consumia 350w quer dizer que ele tinha picos ocultos invisíveis? :mdr2:

Melhor eu correr e comprar uma fonte de 2000w então... :umad:

Mas beleza. Deixa o pessoal comprar fonte pra ligar junto o chuveiro elétrico, fritadeira etc.
 
Mas de 350w o pico do sistema vai pra quanto, 1000w? :mj:
Aqui o meu sistema atual consome 450w em full. Se o anterior consumia 350w quer dizer que ele tinha picos ocultos invisíveis? :mdr2:
Sim, coisa que acontece em um décimo de segundo, mas acontece, e que seu kill a watt não vai conseguir ler. Seria legal se você tivesse se dado ao tempo de ler o link que mandei e relesse direito oq eu disse, onde só uma fonte com qualidade duvidosa pra desarmar com essas coisas. Se vc tem uma fonte dimensionada pra segurar bem o valor médio de carga do setup e confia que sua fonte vá aguentar esses picos raros, parabéns.
 

Users who are viewing this thread

Voltar
Topo