G70/R520 - Detalhes e news

Das duas uma, ou eu vou morrer 21 de junho ou o G70 sai do forno, hehehe... :D

"Nvidia unveiling next-gen GPU June 21

Graphics manufacturer to present its new chip and give live demonstrations at San Francisco launch event in three weeks.
Nvidia has revealed that it will announce its next-generation GPU on June 21 at a launch event in San Francisco. An invitation sent to Nvidia partners, analysts, and members of the press promises invitees an "evening of full-throttle entertainment" filled with "revolutionary technologies, hot 3D content, and exciting gaming action as we unveil our next-generation GPU."


Festivities will open with cocktails and a case-mod contest before the start of the scheduled press conference with live product demonstrations. The evening will conclude with a reception including hands-on product demonstrations and a Battlefield 2 LAN Party. If Nvidia's next-gen GPU launch plans sound familiar, it might be because Nvidia announced its current generation GeForce 6 series in a similar, but more public fashion, at a GeForce LAN Party in San Francisco last year.

Nvidia has indicated in the past that its next-generation desktop GPU will be similar to the GPU designed for the Sony PlayStation 3."

Fonte1

Fonte2


Abraços. ;)
 
majr disse:
Num vou nem falar em "já vi"... muito menos preciso do MSN do seu colega. Foram 2 sistemas com 6800GT e 1 com 6600GT em SLI q tive contato, e ocorre SIM um bom ganho de desempenho (nem de perto chega a 100% de ganho, mas o ganho é bem considerável).
Já tive (passado) 3DMark instalado nas minhas máquinas, mas tô pra ver software mais tendencioso q esse. Desisti dele.
O que posso afirmar (q foi o que vi na prática em 2 destes sistemas SLI q comentei acima) é que em softwares como FS2004, GTR e SWAT4 realmente o salto de performance foi bem grande, entre 60 e 80% de ganho. Num creio q sejam resultados ruins. Mas cada um tem seu ponto de vista.

Sobre o DINHEIRO, lógico que isso é coisa para poucos, nem vou me ater a este assunto. Paga-se o dobro mas não obtém-se o dobro em performance.
Mesmo assim eu NÃO chamaria esse custo x benefício de LIXO.
Pra vc pode ser (não sei qual é sua realidade financeira), mas pra outros abonados não. Em resumo, novas tecnologias são sempre bem vindas, mas como a maioria aqui sabe, tecnologia custa dinheiro e tem o seu preço.
Com todo o respeito não aceito muito essa tua idéia de LIXO. Se for na direção na qual vc pensa, o preço q se paga em Placas de Vídeo TOP hoje em dia tb seria um LIXO. Paga-se 500 dólares (tô sendo otimista) em placas como 6800UEXTREME e X850XTPE ou qquer outra q seja PLUS HYPER HITECH etc, e por exemplo em NENHUMA delas vc consegue "fps" satisfatórios num game numa resolução de 1600x1280 com 6xAA e 16xAF.
Por esse preço elas deveriam fazer isso com os pés nas costas concorda?
Mas, mesmo assim a gente acaba comprando uma placa Top, por ser uma solução q trará atualmente os melhores benefícios certo? Agora te pergunto, o custo duma placa dessas é acessível?? Pra gente pode até ser, mas um SLI não.
O SLI da NVidia e o novo cascateamento da ATI vão por esse caminho.
Trazem com certeza mais desempenho, são super rápidos pros padrões de hoje, mas são tb muuuito CAROS pros nossos bolsos. Mas sempre tem quem pague por isso, e esse é o nicho q NV e ATI tão querendo explorar.

SLI não é LIXO não... e tá bem longe de ser.

Bom, sorry pelo TEXTO gigante.

Falow,

Bom cara concordo com tudo que vc disse, tu tem razão...
mas vc se perde no seguinte..
A maioria que quer comprar um sistema SLI já tem um PC, a maioria mesmo..
então o cara não vai comprar apenas as 2 vgas e vai espetar na mobo e pronto, ele vai comprar uma nova mobo que suporte o SLI, talvez uma nova CPU, uma fonte nova, um gabinete com melhor sistema de ventilação e etc... e olha o custo disto...
A vga super top é muito cara mesmo mas o cara só vai comprar a VGA e vai ter um desempnho muito bom e em vários casos igual que no sistema de SLI, por isso que eu disse que o custo X performce era um lixo..
e veja bem.. o G70 deve ter um desempenho quase tão bom que o sistema SLI mas ele vai ter recursos e tecnologias mais novas como o 3DC ou talvez o WGF1.0... , sacou ?

Quero dizer que não estou dizendo que o SLI é ruim, mas pra mim na minha OPINIÃO PESSOAL acho o custo x performace dele um lixo.. (a não ser que vc é montado na grana)
Se a palavra pegou mal, foi mal mas eu sou assim mesmo..

NO STRESS OK :p
 
Recorde do CROSSFIRE , Duas x850 bateram a 15498 no 3dmark05, antes era de 14623 (6800U)... ...

E pensar que minha antiga 9600NP fazia 1000 redondinho..... :lol: :lol:


ATI Technologies proclaimed the world’s record 3DMark05 score that was achieved by the company’s CrossFire platform featuring two presumably overclocked graphics cards. The new record is 15 498 marks, which is around 6% higher compared to the previous record held by a multi-GPU system based on NVIDIA GeForce 6800 Ultra SLI platform.

Previous 3DMark05 record was 14623, set on a computer that was based on AMD Athlon 64 FX-55 processor overclocked to 3444MHz speed, DFI NF4 mainboard and two ASUS GeForce 6800 Ultra boards clocked at 627MHz/1404MHz for core/memory.


http://www.xbitlabs.com/news/video/display/20050602010650.html
 
isso não é o que ta na pagina principal da adrena ?
se for é fake XD
 
D3lta disse:
NVIDIA ataca CrossFire...




link aqui.......


…remind you of Rage Fury MAXX? :rolleyes:


Abraços

Maior comedia esses documentos "internos"

Cada uma.

PS: Mas que a Fury Maxx foi um fiasco foi, tive um amigo que comprou uma e um dia passou pelas minhas maos. ;)
 
PYRON disse:
Bom cara concordo com tudo que vc disse, tu tem razão...
mas vc se perde no seguinte..
A maioria que quer comprar um sistema SLI já tem um PC, a maioria mesmo..
então o cara não vai comprar apenas as 2 vgas e vai espetar na mobo e pronto, ele vai comprar uma nova mobo que suporte o SLI, talvez uma nova CPU, uma fonte nova, um gabinete com melhor sistema de ventilação e etc... e olha o custo disto...
A vga super top é muito cara mesmo mas o cara só vai comprar a VGA e vai ter um desempnho muito bom e em vários casos igual que no sistema de SLI, por isso que eu disse que o custo X performce era um lixo..
e veja bem.. o G70 deve ter um desempenho quase tão bom que o sistema SLI mas ele vai ter recursos e tecnologias mais novas como o 3DC ou talvez o WGF1.0... , sacou ?

Quero dizer que não estou dizendo que o SLI é ruim, mas pra mim na minha OPINIÃO PESSOAL acho o custo x performace dele um lixo.. (a não ser que vc é montado na grana)
Se a palavra pegou mal, foi mal mas eu sou assim mesmo..

NO STRESS OK :p

Relax Pyron... Saquei o teu ponto de vista! ;)

Falow,
 
GVC disse:
to com nojo da nVidia, e pelas especificaçoes ae a ATI vai da um pau na nVidia dnovo, pq nas especificaçoes naum e so o clock q e bem mais alto, mas as outras coisas tb tao td melhores! entao naum adianta vim defensor da nVidia dize q clock mais alto naum q dize nada, pq o resto tb ta td melhor no R520...
É amigo... Um professor meu da faculdade dizia...

"O papel aceita tudo..." :rolleyes:

Quro ver na prática, hehehehe... Aí o bicho vai pegar....
 
PYRON disse:
Bom cara concordo com tudo que vc disse, tu tem razão...
mas vc se perde no seguinte..
A maioria que quer comprar um sistema SLI já tem um PC, a maioria mesmo..
então o cara não vai comprar apenas as 2 vgas e vai espetar na mobo e pronto, ele vai comprar uma nova mobo que suporte o SLI, talvez uma nova CPU, uma fonte nova, um gabinete com melhor sistema de ventilação e etc... e olha o custo disto...
A vga super top é muito cara mesmo mas o cara só vai comprar a VGA e vai ter um desempnho muito bom e em vários casos igual que no sistema de SLI, por isso que eu disse que o custo X performce era um lixo..
e veja bem.. o G70 deve ter um desempenho quase tão bom que o sistema SLI mas ele vai ter recursos e tecnologias mais novas como o 3DC ou talvez o WGF1.0... , sacou ?

Quero dizer que não estou dizendo que o SLI é ruim, mas pra mim na minha OPINIÃO PESSOAL acho o custo x performace dele um lixo.. (a não ser que vc é montado na grana)
Se a palavra pegou mal, foi mal mas eu sou assim mesmo..

NO STRESS OK :p
No fundo o lance é o seguinte... Não importa se a placa (ou duas placas) saia por US$ 1500,00 ou US$ 2000,00... O que os fabricantes querem é construir A MAIS RÁPIDA de todas as placas e virar padrão de referência... Aí fazem modelos inferiores, mais lentos e capados com o mesmo nome e desempenhos MUITO menores e vendem elas como água....
Nunca repararam que lançam uma FX5800 e depois uma FX5200? Ou uma 6800 e depois uma 6200? Por que? É mais fácil desenvolver uma 6800 que uma 6200? Tá bom.... :rolleyes:
Quem dá lucro pra esses caras são os modelos mid e low-end... Placas Top vendem pouco... Podem até vender mais nos EUA, mas no resto do mundo e como OEM (a maior fatia do mercado) vendem mais as mais simples....
 
Mais uma do marketing sem controle.

As fotos divulgadas pela ATI comparando o 14xAA do Crossfire vs 8xAA da Nvidia nao sao 100% corretas, a baixa qualidade mostrada pela propaganda nao se repete na vida real.

We tried to duplicate the screen shots that ATI supplied to us, and found that ATI seems to have misrepresented the micro-geometry detail of NVIDIA's 8X anti-aliasing method. The screen shots we took on our own with a GeForce 6800 GT, clearly show more detail than the screen shots distributed by ATI in their CrossFire presentation. Take a look for yourself...

We wandered around the same portion of the map ATI used for their screen shots at various resolutions with a GeForce 6800 GT installed into our test system and HL2 configured for high detail, and could not replicate ATI's screen shots. Even at lower resolutions, the same portions of the antenna atop the hotel shown in the CrossFire 14X AA screen shot are visible on the GeForce. And with the resolution turned up to 1600x1200, the detail only got better. We even tried to move towards and away from the hotel from different angles and couldn't get the portions or the antennas missing in ATI's screen shots to disappear.

So, while ATI's new 14X AA method enabled by CrossFire may provide more micro-detail than other AA methods that use fewer samples, which seems evident in the edge details on the hotel sign, the difference between NVIDIA's 8X AA and CrossFire's 14X AA as demonstrated by ATI don't seem to be indicative of actual in-game images when comparable detail settings are used.

Finally, we contacted ATi for comment on this issue that we discovered and they agreed they too could not reproduce the lack of detail that is represented in the NVIDIA screen shot they provided us above, although they assured there was no intention of misleading us with these competitive image quality comparisons. This isn't the first and probably won't be the last time we will be witness to over-zealous marketing efforts, whether accidental or intentional. Regardless, we hope to be able to filter through this sort of thing for you, the reader, as we have here, in the future

Fonte
http://www.hothardware.com/viewarticle.cfm?articleid=689&page=3#update
 
FelipeV disse:
Mais uma do marketing sem controle.

As fotos divulgadas pela ATI comparando o 14xAA do Crossfire vs 8xAA da Nvidia nao sao 100% corretas, a baixa qualidade mostrada pela propaganda nao se repete na vida real.



Fonte
http://www.hothardware.com/viewarticle.cfm?articleid=689&page=3#update

Nossa, que pisada na bola da ATI!!! :mad:

Imagens que não são "in-game" pra marquetear produto novo!!!!! :mad:

Olha, eu sou do tempo que esse tipo de coisa só era feito pela Nvidia... Me parece que a ética dessas duas empresas está atrelada à posição delas no mercado. Se não estão confortáveis nas vendas, partem pro mais deslavado marketing picareta, sujeitando-nos a informações fraudulentas!!! :boring:

-1 pra ATI!!! Vejam por si só:
 

Attachments

  • big_aa2[1].jpg
    big_aa2[1].jpg
    115.2 KB · Visitas: 110
ATI eliminando geometria a favor de mais FPS no SuperAA??? :eek:

Que pena que a ATI correu de se explicar... :(

Mas a verdade aparecerá, pois a pressão dos sites de análise será maior..

Abraço


Editei: Será que isso teria a ver com o Cat5.6 :confused:

SKINNER-BH71 disse:
Nossa, que pisada na bola da ATI!!! :mad:

Imagens que não são "in-game" pra marquetear produto novo!!!!! :mad:

Olha, eu sou do tempo que esse tipo de coisa só era feito pela Nvidia... Me parece que a ética dessas duas empresas está atrelada à posição delas no mercado. Se não estão confortáveis nas vendas, partem pro mais deslavado marketing picareta, sujeitando-nos a informações fraudulentas!!! :boring:

-1 pra ATI!!! Vejam por si só:
 
è vc FelipeV que está vendendo a 6800U?
vi num classificados.. quase avalisava pra quem fosse comprar,,na duvida....

se for vai esperar a g70?

olha só.. acho que vai acontecer o seguinte.. G70 24 pipes..
Ati 24 tb se for diferente ou seja G70 32 pipes Ati fara o mesmo..

sacanagem com o consumidor.. quém lançar primeiro com 32 é nessa que vou..
quero nem saber...
 
D3lta disse:
Imagina se eu fizer uma carinha dessa pra Nvidia... ele (o Déte :D ) me escomunga na hora... uhahuauhahu :lol:

Zueira..:D
Hhehehehe essa eu queria ver :p
 
Blade disse:
è vc FelipeV que está vendendo a 6800U?
vi num classificados.. quase avalisava pra quem fosse comprar,,na duvida....

se for vai esperar a g70?

olha só.. acho que vai acontecer o seguinte.. G70 24 pipes..
Ati 24 tb se for diferente ou seja G70 32 pipes Ati fara o mesmo..

sacanagem com o consumidor.. quém lançar primeiro com 32 é nessa que vou..
quero nem saber...

Era eu, ja vendi ;)

Vou esperar tanto pela ATI como pela NV, vamo ver como fica meu $$$ ate la.
Eu queria mesmo aquela Gigabyte 3D1 GT, achei ela muito bonita :xtracool: mas so em sonho :lol:

EU acho que nenhuma das duas lanca com 32 pipes pq nao conseguem ainda, deve causar muita perda na producao e torna muito caro, acho que os modelos com 32 pipes virao como veio a 9800XT ou os modelos com 512MB, meses depois e proximo a geracao seguinte.

Acho que vc vai ter que aturar uma Fudo com 24 pipelines mesmo
 
Sei não FelipeV. acho que vamos ter surpresa por ae..
essas coisas sobre o fudo tb precisam ser esclarecidas. séra que tem algum problema ou apenas estrategia..

pq se lembram a R520 já tinha até data de lançamento, de repente aparece o G70 veio que saido do nada e as atenções se voltam pra Nvidia.

ambas tem prontas a de 32 pipes .. e até mais ...

tomara que a G70 venha completa.. e forte.. ae sim a briga fica bôa pra nós

uma vantagem do Crossfire..funciona até com o NF4...

num vejo a hora ...

cá pra nós , que numguém nos ouça teu coração tá mais verdinho ou vermelho. FelipeV?
 
Blade disse:
tomara que a G70 venha completa.. e forte.. ae sim a briga fica bôa pra nós

Só dela vir com 24 pipes já coloca o NV40 (e qualquer VGA lançada até o presente momento) no bolso... :)

Abraço.
 
SKINNER-BH71 disse:
Só dela vir com 24 pipes já coloca o NV40 (e qualquer VGA lançada até o presente momento) no bolso... :)

Abraço.


sei la..

9600xt tem 4 pipe e uma 9500pro tem 8 pipe.. o desempenho é o mesmo :)
 
Blade disse:
Sei não FelipeV. acho que vamos ter surpresa por ae..
essas coisas sobre o fudo tb precisam ser esclarecidas. séra que tem algum problema ou apenas estrategia..

pq se lembram a R520 já tinha até data de lançamento, de repente aparece o G70 veio que saido do nada e as atenções se voltam pra Nvidia.

ambas tem prontas a de 32 pipes .. e até mais ...

tomara que a G70 venha completa.. e forte.. ae sim a briga fica bôa pra nós

uma vantagem do Crossfire..funciona até com o NF4...

num vejo a hora ...

cá pra nós , que numguém nos ouça teu coração tá mais verdinho ou vermelho. FelipeV?

Nao estou esperando essa surpresa nao, 32 pipes ainda eh muito cedo, a ATI ja nao conseguiu uma producao muito elevadas das placas TOP, agora ela passou para 90nm, que de acordo com algumas noticias a ATI ainda nao esta 100$ operante.
A NV ficou no 110nm e pelas amostras das G70 que torraram durante os testes acho que os 32 pipes "ainda" precisam de mais tempo.

Nao estou certo se o Crossfire funciona no NF4, pois mesmo o Cross dependendo da placa de video Master, ainda precisa de algum acerto no chipset, pq em tanto no Cross como no SLI os slots PCI-E ficam em 8X, dai nao sei se isso eh algo automatico, basta colocar as placas que ja funciona, ou se depende de ajuste na placa mae, como no caso do SLI, que vc tem uma placa filha que precisa ser alterada para usar o SLI.

Meu coracao vai pra quem oferecer mais pelo melhor preco, com o que ganho nao posso me dar ao luxo de escolher por marca ;)
 
Galera ta ae mais fotos da G70!

http://img296.echo.cx/my.php?image=11gx.jpg

http://img296.echo.cx/my.php?image=25gu.jpg

http://img296.echo.cx/my.php?image=35pd.jpg

http://img296.echo.cx/my.php?image=49zi.jpg

A "Tweaktown" consegui arranjar maneira de conseguir umas imagens do protótipo da G70. De acordo com o site este protótipo não é uma placa utilizavel, mas mostra que tipos de tamanhos e arquitecturas que irão ser usadas para as novas placas GeForce. "Hoje durante a Computex 2005 tentamos arranjar maneira de encontrar a placa cujo "codename" é G70. Estivemos pouco tempo a observar a placa, e foi-nos dito que o protótipo nao era utilizavel.

Esta G70 é provavelmente a mesma que alguns site também tiraram fotos, mo entanto nós estamos um passo á frente, porque removemos o dissipador para ter uma imagem do "core". Também conseguimos umas imagens dos chips de memória usados - parecem ser Samsung 1.6ns GDDR3 a trabalharem a 600Mhz."
 
PYRON disse:
Oi que doideira... o R520 surporta SM3.0a ??? sera que ele é uma espécie de SM2.0b que é mais otimizado pras ATI ???



fonte: http://www.3dgamers.com/dlselect/games/earth2160/earth2160_goldupg11.txt

Pronto, la vai as duas nessa confusao denovo, acho que nenhuma delas nunca ouviu falar em PADRÃO :mad:

So que isso se juntar com o Boato que o R520 ainda nao se da bem com o SM3, ate ha indicios disso no patch 1.32 do Farcry a coisa fica feia pra ATI, esse R520 nao vai ser tudo o que se espera dele nao.
 
na verdade cara tá cada uma numa corrida atraz de vender o seu peixe...
se é melhor ou não eu realmente não sei..
vamos ter que esperar...
As vezes disseram que o sm3.0 da ATI não estava bom pq ela estava testando esse novo sm3.0a, só resta esperar ele lançar pra ver o que ele pode fazer de superior em relação ao sm3.0 cru, mas acho que não vai ser lá essas coisas não já que a prorpia ATI diz que é mais uma extensão do DX9.0, mas será que esse sm3.0a tem algo a ver com o wgf1.0... será q pode tar algo relacionado ?
 
Vi em um forum..num lembro qual..uma discursão sobre aperfeiçpamento em cima do sm3..possivelmente o sm3.0a
Ati + microsoft é um coquetel que qualquer 1 deveria temer..
inda mais com a Nvidia insistindo com open gl e outras coisas +.

O atigo se referia ao peso pra rodar o sm3 .. a perda de desempenho está acima do que se esperava.

outra coisa memoria com 1.6 = da XT ou pro com vivo ..na G70?

tem uma solução vc compra uma G70 e ganha outra...ae sim vale a pena
 

Users who are viewing this thread

Voltar
Topo