• Prezados usuários,

    Por questões de segurança, a partir de 22/04/2024 os usuários só conseguirão logar no fórum se estiverem com a "Verificação em duas etapas" habilitada em seu perfil.

    Para habilitar a "Verificação em duas etapas" entre em sua conta e "Click" em seu nick name na parte superior da página, aparecerá opções de gestão de sua conta, entre em "Senha e segurança", a primeira opção será para habilitar a "Verificação em duas etapas".

    Clicando alí vai pedir a sua senha de acesso ao fórum, e depois vai para as opções de verificação, que serão as seguintes:

    ***Código de verificação via aplicativo*** >>>Isso permite que você gere um código de verificação usando um aplicativo em seu telefone.

    ***Email de confirmação*** >>>Isso enviará um código por e-mail para verificar seu login.

    ***Códigos alternativos*** >>>Esses códigos podem ser usados para fazer login se você não tiver acesso a outros métodos de verificação.

    Existe as 3 opções acima, e para continuar acessando o fórum a partir de 22/04/2024 você deverá habilitar uma das 03 opções.

    Tópico para tirar dúvidas>>>>https://forum.adrenaline.com.br/threads/obrigatoriedade-da-verificacao-em-duas-etapas-a-partir-de-24-04-2024-duvidas.712290/

    Atencionamente,

    Administração do Fórum Adrenaline

Sli X Cf X Gx2 Review Em AlemÃo

Não consigo entender o que a ATI tem com essa história... Estamos falando da GX2 ser um dual-g71 com clocks menores... A 7900gt também é um G71 com clocks menores, mas neste caso a redução é válida. NADA, absolutamente NADA justifica o corte nas GX2, a não ser a ganância da Nvidia em castrar o GX2 pra não matar o SLI de GTX .

Abraço.

Abraço.

A tah... vc pegou a doença do Blade....Nvidia é gananciosa e malvada... a ATI é legal... existe uma batalha épica entre o bem e o mal ocorrendo hj no mundo das VGAs...a ATI defendendo a boa vontade, a bondade e o respeito ao consumidor enquanto que a Nvidia quer enganar e destruir a todos :p

TODAS as empresas querem ganhar...e TODAS querem manter seus produtos no mercado...

PRA QUE DIABOS a Nvidia iria matar o SLI de GTX se a 7950GX2 já uma **** VGA com os clocks q ela possui hj? PRA Q a Nvidia mataria o SLI de GTX dela pra deixar a 7950GX2 melhor se ela já é otima?

não entendeu o q isso tem haver com a ATI? eu até agora nao entendi o q isso tem haver com a Nvidia :p... os caras ja fizeram uma VGA com desempenho de SLI de 7900GT por um preço super bom e vc ainda queria mais? :yucky:

continuo reclamando das 1800XL e das 1900GT...essas VGAs sim deviam ter vindo com mais poder de fogo :said:

ps. E ja foi postado aqui que 7950GX2 faz over facilmente...mas eu sei q tu nao goste de over entao deixa quieto :p
 
A tah... vc pegou a doença do Blade....Nvidia é gananciosa e malvada... a ATI é legal... existe uma batalha épica entre o bem e o mal ocorrendo hj no mundo das VGAs...a ATI defendendo a boa vontade, a bondade e o respeito ao consumidor enquanto que a Nvidia quer enganar e destruir a todos :rolleyes:

TODAS as empresas querem ganhar...e TODAS querem manter seus produtos no mercado...

PRA QUE DIABOS a Nvidia iria matar o SLI de GTX se a 7950GX2 já uma **** VGA com os clocks q ela possui hj? PRA Q a Nvidia mataria o SLI de GTX dela pra deixar a 7950GX2 melhor se ela já é otima?

não entendeu o q isso tem haver com a ATI? eu até agora nao entendi o q isso tem haver com a Nvidia :p... os caras ja fizeram uma VGA com desempenho de SLI de 7900GT por um preço super bom e vc ainda queria mais? :yucky:

continuo reclamando das 1800XL e das 1900GT...essas VGAs sim deviam ter vindo com mais poder de fogo :said:


Pára de bipolarizar a discussão, velho. Estamos falando da GX2. Fugimos do assunto quando não temos mais argumentos... :rolleyes:

Mais uma vez: Estamos falando da GX2 ser um dual-g71 com clocks menores... A 7900gt também é um G71 com clocks menores, mas neste caso a redução é válida. NADA, absolutamente NADA justifica o corte nas GX2, a não ser a ganância da Nvidia em castrar o GX2 pra não matar o SLI de GTX .

Abraço.
 
Pára de bipolarizar a discussão, velho. Estamos falando da GX2. Fugimos do assunto quando não temos mais argumentos... :rolleyes:

Mais uma vez: Estamos falando da GX2 ser um dual-g71 com clocks menores... A 7900gt também é um G71 com clocks menores, mas neste caso a redução é válida. NADA, absolutamente NADA justifica o corte nas GX2, a não ser a ganância da Nvidia em castrar o GX2 pra não matar o SLI de GTX .

Abraço.

quer mais argumento que isso? ou nao leu meu post todo? :rolleyes:

PRA QUE DIABOS a Nvidia iria matar o SLI de GTX se a 7950GX2 já uma **** VGA com os clocks q ela possui hj? PRA Q a Nvidia mataria o SLI de GTX dela pra deixar a 7950GX2 melhor se ela já é otima?

simples.. não falei no meu post que a Nvidia não é gananciosa...simplesmente toda empresa trabalha assim. E nesse caso...a Nvidia mesmo sendo gananciosa colocou uma VGA com um CXB que nenhuma VGA de outra empresa pode bater...pelo menos não por enquanto... entao não vejo o problema da Nvidia ter sido gananciosa se ela ainda conseguiu oferecer um EXCELENTE produto aos consumidores

esse é o me argumento...eu só falei da ATI pq vc parece ignorar isso ai que eu falo e continua repetindo a mesma coisa o tempo todo só isso :p Nvidia foi gananciosa....Nvidia foi gananciosa... pq ela nao aumentou os clocks? Nvidia foi gananciosa.... pq ela nao aumentou os clocks?

como diria um amigo meu

WHO FUCKING CARES? :lol:

a VGA já tem um desempenho soberbo com esses clocks q a Nvidia colocou por GANANCIA e ainda por cima faz over....

ou seja... nao entendo o teu argumento...isso tudo foi só pra provar que a Nvidia gananciosamente colocou no mercado uma EXCELENTE VGA que poderia ser melhor com clocks mais altos? :rolleyes: pra ao invez de rodar a 150 fps rodar a 166fps? :D

entendi agora :yes:

ps. Off topic ja comeu solto demais... eu paro por aqui...se quiser continua ai chorando que a Nvidia é gananciosa e q vc quer mais clock sinta-se a vontade :p
 
Além do Guru3d, o Anandtech afirma que os chips são idênticos ("absolutely identical"), só mudando a série e semana de fabricação. Vejam a foto do chip G71 presente nas GX2:

Vou apenas repetir pra vê se vc entende.

Fonte: mvktech.net e nvidia, dentre outros :lol:

A new Quad SLI GX2 board features two NVIDIA GeForce 7950 GX2 GPU's on a two separate printed circuit boards. The chip is based on the G71M, as we said before, packaged at 37.5 x 37.5 mm package. The board is 22.5 cm long, much shorter than the original 33.5 cm long GeForce 7900 GX2 card. The old Quad SLI is available at OEM's only. The new GeForce 7950 GX2 card consumes 143W per card. As you need two GX2 cards to make the Quad SLI work, you will end up with a total draw of 286W for two cards.

Anandtech e Guru3D apenas falaram, que a 7950GX2 pode usar clocks e voltagens iguais a GTX, mais a verdade é que GX2 possui o G71M, que é diferente do usado nas 7900GTX. Porem são da serie 7900 e tem performance similar.

Sem + :said:
 
quer mais argumento que isso? ou nao leu meu post todo? :rolleyes:

PRA QUE DIABOS a Nvidia iria matar o SLI de GTX se a 7950GX2 já uma **** VGA com os clocks q ela possui hj? PRA Q a Nvidia mataria o SLI de GTX dela pra deixar a 7950GX2 melhor se ela já é otima?

simples.. não falei no meu post que a Nvidia não é gananciosa...simplesmente toda empresa trabalha assim. E nesse caso...a Nvidia mesmo sendo gananciosa colocou uma VGA com um CXB que nenhuma VGA de outra empresa pode bater...pelo menos não por enquanto... entao não vejo o problema da Nvidia ter sido gananciosa se ela ainda conseguiu oferecer um EXCELENTE produto aos consumidores

esse é o me argumento...eu só falei da ATI pq vc parece ignorar isso ai que eu falo e continua repetindo a mesma coisa o tempo todo só isso :p Nvidia foi gananciosa....Nvidia foi gananciosa... pq ela nao aumentou os clocks? Nvidia foi gananciosa.... pq ela nao aumentou os clocks?

como diria um amigo meu

WHO FUCKING CARES? :lol:

a VGA já tem um desempenho soberbo com esses clocks q a Nvidia colocou por GANANCIA e ainda por cima faz over....

ou seja... nao entendo o teu argumento...isso tudo foi só pra provar que a Nvidia gananciosamente colocou no mercado uma EXCELENTE VGA que poderia ser melhor com clocks mais altos? :rolleyes: pra ao invez de rodar a 150 fps rodar a 166fps? :D

entendi agora :yes:

ps. Off topic ja comeu solto demais... eu paro por aqui...se quiser continua ai chorando que a Nvidia é gananciosa e q vc quer mais clock sinta-se a vontade :p


Custou mais saiu. Aposto que nem doeu... ;)

O mais interessante é que, como vc lembrou, não existe concorrência para a GX2. Nesse ponto, foi uma jogada de mestre da empresa americana.

Há, por parte da Nvidia, duas interessantes opções de SLI. Uma prima pelo custo-beneficio em multi-GPU, a outra pelo melhor desempenho do mercado.

Abraço.
 
Custou mais saiu. Aposto que nem doeu... ;)

O mais interessante é que, como vc lembrou, não existe concorrência para a GX2. Nesse ponto, foi uma jogada de mestre da empresa americana.

Há, por parte da Nvidia, duas interessantes opções de SLI. Uma prima pelo custo-beneficio em multi-GPU, a outra pelo melhor desempenho do mercado.

Abraço.

se a jogada foi de mestre pra q ficar falando que ela foi gananciosa e que os clocks podiam ser mais altos? :lol: a VGA já está muito bem estabelecida no mercado... e nao tem concorrência... pq a Nvidia colocaria os clocks de GTX e acabar com o proprio SLI TOP dela? ai ela deixaria de ser gananciosa e seria burra :lol: :lol:

mas ia ser melhor pra todos nós sem duvida, bem pelo menos pra quem tem uma :p

eu entendi desde o inicio o q vc queria dizer...mas nao entendi pq reclamar se a VGA ja tem um bom desempenho...na verdade inigualavel pelo preço dela...só isso :nugget: ... parece meu vô reclamando que o pão ta muito branquinho..sendo q o pão ta otimo :D
 
Nossa agora as pessoas não vão comprar GX2, pq a NV safadinha deixou de usar clocks maiores hahahaha :lol:

Para, GX2 está no Projeto correto feita pela nvidia. E não desaponta em nada.
Clocks mais baixo? Projeto da nvidia! hehehe E os pros e detalhes do G71M usado na GX2 já cansei de postar e já saiu tem bastante tempo nos outros sites.

huauahuahuau

Engraçado, todo mundo que tem X1800XT faz mod pra PE ou CE da vida :lol:
ATI não é *** não né? Sendo que todos sabem que a placa suporta FACILMENTE tal clocks e etc... :rolleyes: :rolleyes:

Fala sério...
 
se a jogada foi de mestre pra q ficar falando que ela foi gananciosa e que os clocks podiam ser mais altos? :lol: a VGA já está muito bem estabelecida no mercado... e nao tem concorrência... pq a Nvidia colocaria os clocks de GTX e acabar com o proprio SLI TOP dela? ai ela deixaria de ser gananciosa e seria burra :lol: :lol:

mas ia ser melhor pra todos nós sem duvida, bem pelo menos pra quem tem uma :p

eu entendi desde o inicio o q vc queria dizer...mas nao entendi pq reclamar se a VGA ja tem um bom desempenho...na verdade inigualavel pelo preço dela...só isso :nugget: ... parece meu vô reclamando que o pão ta muito branquinho..sendo q o pão ta otimo :D

Concordo com vc Armored, GX2 só precisa é de mais e mais drives maduros para o Quad-SLI.

Tb não entendi como o Skinner mudou de caminho no debate.
Talvez seja a frase "ATI WAY OF LIFE" :lol: hahaha
 
Vou apenas repetir pra vê se vc entende.

Fonte: mvktech.net :lol:

Essa fonte não é fidedigna.

Você teria links de sites mais conceituados? Tenho certeza que não terá dificuldade de postá-los. :thumbs_up Citei dois dos maiores e mais respeitados fóruns de discussão do exterior... o Guru3D inclusive fez a review fechando a maratona multi-GPU e o Anandtech dispensa comentários.

Abraço.
 
Essa fonte não é fidedigna.

Você teria links de sites mais conceituados? Tenho certeza que não terá dificuldade de postá-los. :thumbs_up Citei dois dos maiores e mais respeitados fóruns de discussão do exterior... o Guru3D inclusive fez a review fechando a maratona multi-GPU e o Anandtech dispensa comentários.

Abraço.

Não estou com links e estou com pouco tempo para procura-los. Afinal, tal noticia já tinha foi comentada no fórum e confirmada em outros sites. O que vc confundiu nesses sites, foi a maneira que o chip pode rodar e não como ele foi feito. Se fosse 100% identico o chip como vc afirmou, a nvidia não teria chamado de G71M e não teria dado outras especificações que diferem da 7900GTX.

Agora vão entendo a aonde quer chegar, nvidia usou o G71M fez o projeto adequado. Ganhou da ATI sem qualquer disputa ou placa a nivel de bom investimento e ainda é obrigada a ter com clocks maiores só pq grandes sites falaram que suporta???

Ue...Então pq diabos todas X1800XT não vem já com mod de PE, já que de acordo com vc, D3lta e Claudecir faz uma grande diferença no desempenho?
 
Não estou com links e estou com pouco tempo para procura-los. Afinal, tal noticia já tinha foi comentada no fórum e confirmada em outros sites. O que vc confundiu nesses sites, foi a maneira que o chip pode rodar e não como ele foi feito. Se fosse 100% identico o chip como vc afirmou, a nvidia não teria chamado de G71M e não teria dado outras especificações que diferem da 7900GTX.

Quando tiver tempo posta os links de fóruns mais conhecidos afirmando que se trata de um G71M.

Só pra lembrar, o chip presente na 7900gt, na 7900gtx e na GX2, segundo o material postado por mim é o mesmo. Até na foto dá pra ver isso. O fato deles virem com clocks diferentes não os fazem distintos, assim como o NV40 presente na 6800u era ABSOLUTAMENTE O MESMO presente na 6800gt, só mudando nos clocks setados na fábrica.

Abraços.
 
Quando tiver tempo posta os links de fóruns mais conhecidos afirmando que se trata de um G71M.

Só pra lembrar, o chip presente na 7900gt, na 7900gtx e na GX2, segundo o material postado por mim é o mesmo. Até na foto dá pra ver isso. O fato deles virem com clocks diferentes não os fazem distintos, assim como o NV40 presente na 6800u era ABSOLUTAMENTE O MESMO presente na 6800gt, só mudando nos clocks setados na fábrica.

Abraços.


Skinner, vc está se auto-confundindo e não está sendo claro pra mim o que quer saber no final das contas...Então vou ser bem simples.

1 - O G71M foi feito pra rodar na Velocidade de 600mhz. Isso não INPLICA dele rodar em 650mhz. Assim como a X1800XT que roda num clock X pela ATI, mais pode rodar no clock Y se quiser. (Ponto)

2 - Como o chip foi feito para o uso MOBILE, ele tem outras coisas que diferem do usada na 7900GTX (ou GT), que é...baixo consumo e temp. mais adequadas.

3 -

IT ALL MAKES perfect snese now. We learned that Quad SLI 7900 GX2 cards are clocked to 500MHz and we wondered why. The answer is the power consumption.
We guess that Nvidia didn't have any other choice than to use four G71M a mobile variation of its G71 chip and use it for Quad SLI, otherwise the cards would just demand too much power.

link: http://www.theinquirer.net/default.aspx?article=31310

Fato que resulta na baixa temperatura, e no uso de um menos sistema de refrigeração. Tanto a 7900GX como a 7900GX2, usam a versão Mobile do G71. E ambas tem um sistema de cooler e tal BEM menores do que a GTX (está claro e OBVIO). :D

E lhe garanto que se vc mandar um email pra Guru3D e Anandtech perguntando sobre isso vai ter a msm resposta que estou lhe dando. Vc leu o que foi postado por eles com outro sentido DIFERENTE do que eu postei de inicio, por isso que deve ter gerado esse seu desentedimento no assunto. ;)

Abraços
 
Skinner, vc está se auto-confundindo e não está sendo claro pra mim o que quer saber no final das contas...Então vou ser bem simples.

Sabia que postaria essa new do Inquirer. Mas isso é preview, não review. Aliás, nem isso, apenas new...

Entendo que o aquele site xing-ling e essa new dizem. O que não existe, até onde eu pesquisei (e não foi pouco), é review afirmando que o chip presente na GX2 seja outro que não o clássico G71, presente na GTX e na GT, diferindo apenas nos clocks.

Da mesma forma que a Nvidia tão-somente alterava o clocks do NV40 para fazer a 6800u e a 6800gt, ela fez com a GX2, segundo os relatos estrangeiros e a própria foto (onde está escrito G71 e não G71M ).

O que vc diz não é um equívoco, Shaft, pois corresponde ao que foi escrito pelas pelas fontes citadas por ti. Mas o que é dito por elas não corresponde aos fatos. ;)

Abraço.
 
A tah... vc pegou a doença do Blade....Nvidia é gananciosa e malvada... a ATI é legal... existe uma batalha épica entre o bem e o mal ocorrendo hj no mundo das VGAs...a ATI defendendo a boa vontade, a bondade e o respeito ao consumidor enquanto que a Nvidia quer enganar e destruir a todos :p

TODAS as empresas querem ganhar...e TODAS querem manter seus produtos no mercado...

PRA QUE DIABOS a Nvidia iria matar o SLI de GTX se a 7950GX2 já uma **** VGA com os clocks q ela possui hj? PRA Q a Nvidia mataria o SLI de GTX dela pra deixar a 7950GX2 melhor se ela já é otima?

não entendeu o q isso tem haver com a ATI? eu até agora nao entendi o q isso tem haver com a Nvidia :p... os caras ja fizeram uma VGA com desempenho de SLI de 7900GT por um preço super bom e vc ainda queria mais? :yucky:

continuo reclamando das 1800XL e das 1900GT...essas VGAs sim deviam ter vindo com mais poder de fogo :said:

ps. E ja foi postado aqui que 7950GX2 faz over facilmente...mas eu sei q tu nao goste de over entao deixa quieto :p


concordo armored , ta faltando bom senso pro pessoal , to com uma x1800xl aqui , a vga e boa , mas pelo preço acho que ta faltando alguma coisa , pois com o custo dela da pra comprar uma 7900gt , so nao estou mais desconsolado pq ela e uma all in wonder !
 
Quando tiver tempo posta os links de fóruns mais conhecidos afirmando que se trata de um G71M.

Só pra lembrar, o chip presente na 7900gt, na 7900gtx e na GX2, segundo o material postado por mim é o mesmo. Até na foto dá pra ver isso. O fato deles virem com clocks diferentes não os fazem distintos, assim como o NV40 presente na 6800u era ABSOLUTAMENTE O MESMO presente na 6800gt, só mudando nos clocks setados na fábrica.

Abraços.

o que eu tenho lido pela net comprova isso tambem !!!
 
concordo armored , ta faltando bom senso pro pessoal , to com uma x1800xl aqui , a vga e boa , mas pelo preço acho que ta faltando alguma coisa , pois com o custo dela da pra comprar uma 7900gt , so nao estou mais desconsolado pq ela e uma all in wonder !

pois é...a 1800XL é uma VGA muito boa...tenho certeza que vc deve ta jogando tudo legal ai..mas ELA SIM podia ser um pouco melhor..parece q ficou faltando algo :no:

mas nao deixa de ser um excelente hardware com otimos recursos de video
 
Sabia que postaria essa new do Inquirer. Mas isso é preview, não review. Aliás, nem isso, apenas new...

Entendo que o aquele site xing-ling e essa new dizem. O que não existe, até onde eu pesquisei (e não foi pouco), é review afirmando que o chip presente na GX2 seja outro que não o clássico G71, presente na GTX e na GT, diferindo apenas nos clocks.

Da mesma forma que a Nvidia tão-somente alterava o clocks do NV40 para fazer a 6800u e a 6800gt, ela fez com a GX2, segundo os relatos estrangeiros e a própria foto (onde está escrito G71 e não G71M ).

O que vc diz não é um equívoco, Shaft, pois corresponde ao que foi escrito pelas pelas fontes citadas por ti. Mas o que é dito por elas não corresponde aos fatos. ;)

Abraço.


Preview, news, review...Tanto faz, 7950GX2 usa um chipmobile referente a versão GO da NV. Conhecido como G71M, que é diferente do chip usado na 7900GTX, só não confunda com diferentes arquiteturas ou outras coisas.

Agora, se vc ainda não entendeu ou simplesmente se faz de dificil em aceitar que errou. Ok, eu estou completamente certo e já provei, querendo lhe ajudar. hehehe

De qualquer maneira, tamos ae ;)

Abraços!
 
pois é...a 1800XL é uma VGA muito boa...tenho certeza que vc deve ta jogando tudo legal ai..mas ELA SIM podia ser um pouco melhor..parece q ficou faltando algo :no:

mas nao deixa de ser um excelente hardware com otimos recursos de video

O smile ali soou tão "Delta"

ahuuhauhauahuhauahuahau

Bom, creio que 4 7900GX2 numa máquina, todas rodando a 650mhz, ia dar um trabalhinho pra fonte, fora a ilha de calor que ia formar...

vamos ver, pra mim pode se resumir na questão dita pelo Armored, colocaram a GX2 em 500mhz pra deixar a GTX SLI liderando, mas tbm podem haver outros motivos técnicos.
 
O smile ali soou tão "Delta"

ahuuhauhauahuhauahuahau

Bom, creio que 4 7900GX2 numa máquina, todas rodando a 650mhz, ia dar um trabalhinho pra fonte, fora a ilha de calor que ia formar...

vamos ver, pra mim pode se resumir na questão dita pelo Armored, colocaram a GX2 em 500mhz pra deixar a GTX SLI liderando, mas tbm podem haver outros motivos técnicos.


finalmente Detha voltou pro VGAs :D ...ve se nao some safado

bem se ler meus milhoes de posts falando sobre isso com o skinner vai ver q eu acho exatamente isso tb...o q tem de errado na Nvidia querer deixar o SLI de 7900GTX como TOP mesmo o chip sendo o mesmo? oras...a VGA com o desempenho atual dela a 500mhz já é soberba :D..e ainda faz over facim :)
 
Preview, news, review...Tanto faz, 7950GX2 usa um chipmobile referente a versão GO da NV.

Você teria pelo menos o link da nvidia (citado por ti) afirmando que exista esse G71-M?

Caso contrário podemos desenhar no photoshop um "M" ao lado de onde está escrito G71. :yes:

Abraço.
 
http://www.techpowerup.com/gpudb/
Card: 7950 GX2 GPU: G71

http://www.rojakpot.com/showarticle.aspx?artno=88&pgno=1
GeForce 7950 GX2 (2 GPUs) - G71

http://www.rojakpot.com/showarticle.aspx?artno=324&pgno=0
As its name implies, this is dual-GPU card. Each NVIDIA GeForce 7950 GX2 will feature two G71 GPUs, a 1GB framebuffer, and support for resolutions of up to 2560x1600. Like other G71-based cards, their GPUs are fabricated using the smaller 90nm process technology which was first used in the humble GeForce 7300 GS.

http://www.digital-daily.com/video/geforce-7950gx2/
a video processor G71. Externally, the GPU does not make any difference from G71 on GeForce 7900, but the marking has letters "D-H" instead of the "U". The number of pipelines has remained unchanged - 24 pixel and 8 vertex pipelines. The operating frequency equals 500 MHz. That is much lower than 650 MHz in 7900GTX and a bit higher than 450 MHz in 7900GT.

http://www.ngohq.com/home.php?page=Articles&go=read&arc_id=83
You probably already know that the GeForce 7950GX2 will be a single board with two G71 GPUs clocked at 500MHz, with memory at 1200MHz. Nvidia used their mobile design to reduce the power consumption but that is all old news by now.

http://www.tomshardware.com/2006/06/05/geforce_7950_gx2/page3.html
In the table below, you can see that the GeForce 7950GX2 represents almost a doubling of hardware. Nvidia keeps the core and memory running a bit slower than the GeForce 7900GTX due to heat issues.

http://www.guru3d.com/article/Videocards/353/2/
Hey howya doing? So the GX2, the card is based on the G71 GPU. And the G71 is the same graphics core as the 7900 GTX uses. It sports 278 Million transistors and is based on that newer 90nm fabrication process. When placing two PCB's close together heat will become a factor to take into consideration as there is a lot less airflow. So to compensate and obviously to make sure it's not competing with that 7900 GTX 512MB SLI (650 MHz), the graphics core of the GeForce 7950 GX2 has been downclocked to 500 MHz. That's a pretty huge difference. By lowering the core clock the internal voltage probably was lowered a bit also, thus that would result into lower temps.

Desculpa me menter na briga dos "titãs" ae, mas todos os lugares que falam sobre VGAs, muito conhecidos ou não, não fazem nenhuma referência a um core "mobile".

Não é que o G71M não exista, ele existe, sim (http://www.techpowerup.com/index.php?4042), mas interessantemente todos os sites fazem referência ao Quad-SLi com o G71, e não com o G71M (exceções: http://www.theinquirer.net/default.aspx?article=31310 e http://www.mvktech.net/content/view/3136/38/). Daí a confusão toda: Será que as "novas" placas GX2 tão vindo com o G71M ao invés do G71 que foi apresentado no "primeiro lote"?

E sobre a "ganância" que o Skinner falou, eu concordo com ele. Que motivo teria a NVidia em fazer uma placa com 2 cores, que tivesse uma performance maior ou até mesmo igual a um sistema SLi, só que mais barato? Tecnicamente, a GX2 deveria sim ser mais rápida que um sistema SLi, desde que se tenham os clocks e as proporções de memória mantidas -- GX2 com 1Gb vs 2xGTX com 512Mb --, já que a comunicação entre as duas não envolve um conector externo nem o barramento PCI-E -- embora usem na GX2 uma comunicação PCI-E 16x entre as duas placas -- e é absolutamente dedicada e sem qualquer tipo de intereferência externa. Porém, isso não acontece, um sistema mais caro SLi é superior a um sistema GX2, que é tecnicamente a mesma coisa, otimizado e mais barato. Seria um tiro no pé fazer da GX2 concorrente do SLi, mesmo com os drivers que ainda são imaturos pra tal tecnologia, o entusiasta iria desistir do SLi e a GTX iria "cair" pro segundo lugar.
 
Já viram o tamanho do cooler da 7900GTX? Será que a nvidia foi RETARDADA (desculpe o termo), de botar um cooler daquele tamanho a toa? Não...foi pq foi prejetado dentro da nescessario e tudo mais pra ser adequado a esse chip.

Dai a gente vê o cooler da GX2, que é menor do que um que tem numa 7900GT. A toa? Sendo que a placa consegue trabalha com menor temperatura que uma 7900GT e GTX e ainda consumir menos energia, com um clock praticamente igual a da GTX. É mais que obvio que o chip Mobile foi usado...pois duvido que algum laptop consiga por um cooler digante igual ao da GTX dentro dele e ainda consumir a msm quantidade de energia!?!??! uhahuahua tem pensar MUITO sem logica pra achar que são iguais :rolleyes: :rolleyes:

huahuahuaua E Pelo amor de deus...não preciso nem ficar predendo meu tempo procurando na net além do que já procurei pra afirmar tal fato. :said: Vcs usam o Inquirer para afirmar varios e varios fatos que sai por ai...se não acredita no site, manda um email pra eles ou pra nvidia pergunta isso :lol: vai ser lindo as pessoas seu auto-own4r de bobeira.

Vcs estão confundindo G71M com um chip de arquitetura diferente e bla bla bla...como eu disse é uma variação do G71, especifica pra uso Mobile :slap:


Dual Bereta disse:
Que motivo teria a NVidia em fazer uma placa com 2 cores, que tivesse uma performance maior ou até mesmo igual a um sistema SLi, só que mais barato? Tecnicamente, a GX2 deveria sim ser mais rápida que um sistema SLi, desde que se tenham os clocks e as proporções de memória mantidas -- GX2 com 1Gb vs 2xGTX com 512Mb --, já que a comunicação entre as duas não envolve um conector externo nem o barramento PCI-E -- embora usem na GX2 uma comunicação PCI-E 16x entre as duas placas -- e é absolutamente dedicada e sem qualquer tipo de intereferência externa.

Motivos? hahahaha ...lançar uma placa barata com custo baixo e que vai atender a maiorias dos pessoas que gostam de performance sem ter que gastar uma fortuna em SLI ou CF???????? :rolleyes: Daqui a pouco é capaz do Delta chegar e postar que GX2 não vale a pena...pois vcs eu honestamente não sei em que ponto vc querem chegar, não mesmo.

GX2 usa um outro tipo de conector que eu não sei como funciona, mais o objetivo é o msm do SLI cara, ´só isso mesmo. SLI de Duas 7900GTX é quase uma GX2, a unica diferença é a questão do clock que diferencia as duas nessa questão do desempenho, que já saiu em varios e varios sites :said:

Dual Bereta disse:
Porém, isso não acontece, um sistema mais caro SLi é superior a um sistema GX2, que é tecnicamente a mesma coisa, otimizado e mais barato. Seria um tiro no pé fazer da GX2 concorrente do SLi, mesmo com os drivers que ainda são imaturos pra tal tecnologia, o entusiasta iria desistir do SLi e a GTX iria "cair" pro segundo lugar.

Vc quer dizer que GX2 é uma "concorrente" pro SLI de duas GTX é isso? Bem...até pode ser. Mais a nvidia no meu ver fez um incrivel jogada com a GX2, oferencendo a placa com preço bem mais baixo e com incrivel performance. Quer mais o que? :D

SLI da GTX já saiu pq não vale a pena mesmo...e garanto que NV vende mais GX2 do que se fosse pra esperar alguém comprar 2 GTX pra fazer SLI :said:

Drives imaturos? For god sake...vc quer dizer pro Quad-SLI né?...pois realmente o Quad, pode melhorar muito, apesar de estar na frente de tudo :lol:


Abraços
 
GX2 usa um outro tipo de conector que eu não sei como funciona, mais o objetivo é o msm do SLI cara, ´só isso mesmo. SLI de Duas 7900GTX é quase uma GX2, a unica diferença é a questão do clock que diferencia as duas nessa questão do desempenho, que já saiu em varios e varios sites :said:

http://www.digital-daily.com/video/geforce-7950gx2/

MSI-NX7950GX2-switch-diag.gif


As you can see, both GPUs are connected to the PCI-E switching chip which in turn is connected to the PCI-E bus on the motherboard. In this situation, the switching chip acts as a north bridge of the nForce4 SLI chipset thus providing access of each GPU to the PCI-Express bus, while the motherboard "understands" that a regular video card is installed into the PCI-E 16x slot. In the remaining aspects, the diagram illustrates the "classical" connection in the SLI mode. That is also seen from the direct link that connects two GPUs (an analog of the V-Link bridge).

Drives imaturos? For god sake...vc quer dizer pro Quad-SLI né?...pois realmente o Quad, pode melhorar muito, apesar de estar na frente de tudo :lol:
Sim, os drivers são imaturos pra 4 GPUs, assim como os jogos :) Mesmo o OpenGL, forte da NVidia, não teve tanta diferença como deveria ter, e novamente esse é o X da questão. Colocaram 4 GPUs contra 2 GPUs e ela não convenceu, não foi nem próximo dos (mais uma vez) "teóricos" 50% mais ágil que deveria ser.
 
Não entendo como pode em alguns testes tipo o fear, uma x1900xt ser melhor que duas =/ , alguem pode me explicar?
 

Users who are viewing this thread

Voltar
Topo