• Prezados usuários,

    Por questões de segurança, a partir de 22/04/2024 os usuários só conseguirão logar no fórum se estiverem com a "Verificação em duas etapas" habilitada em seu perfil.

    Para habilitar a "Verificação em duas etapas" entre em sua conta e "Click" em seu nick name na parte superior da página, aparecerá opções de gestão de sua conta, entre em "Senha e segurança", a primeira opção será para habilitar a "Verificação em duas etapas".

    Clicando alí vai pedir a sua senha de acesso ao fórum, e depois vai para as opções de verificação, que serão as seguintes:

    ***Código de verificação via aplicativo*** >>>Isso permite que você gere um código de verificação usando um aplicativo em seu telefone.

    ***Email de confirmação*** >>>Isso enviará um código por e-mail para verificar seu login.

    ***Códigos alternativos*** >>>Esses códigos podem ser usados para fazer login se você não tiver acesso a outros métodos de verificação.

    Existe as 3 opções acima, e para continuar acessando o fórum a partir de 22/04/2024 você deverá habilitar uma das 03 opções.

    Tópico para tirar dúvidas>>>>https://forum.adrenaline.com.br/threads/obrigatoriedade-da-verificacao-em-duas-etapas-a-partir-de-24-04-2024-duvidas.712290/

    Atencionamente,

    Administração do Fórum Adrenaline

ATI Radeon HD™ Série 2000 - Informações

Bom, claro que o teste definitivo é quando sair a R600. Mas podemos dizer que a G80 é um projeto muito ambicioso. Tudo perfeito até aqui.

Definitivamente, estão dizendo que o chip é de die único. Quanto ao processo de fabricação, não há ainda um consenso. Número de transístores? Não sei, mas lembre-se que, seja lá qual for o motivo, a nVidia coloca mais transístores por área que a ATi.

E o RSX não parece mais uma G71 com interface para o Cell. Mas também não pode ser uma G80, por motivos óbvios de custos de produção. Até pq, o bus de 128bits para o RSX já foi confirmado. Virtua Tennis 3, FF Round 3, NBA 2k7, todos estes estão mais bonitos no PS3 que no X360. Claro que aqui a diferença não se deve somente ao RSX, tem o Cell também. Fato é que o RSX parece ser mais poderoso que uma 7950GT, por exemplo. Mas , com toda certeza, é inferior a G80. Deve ser um chip intermediário.

Bom, falando sobre stream computing no evento da ATi, o Orton disse, 96 ALUS 'talvez' na nova geração, e mais de meio bilhão de GFLOPS... então muito cuidado, a ATi ainda tem muito pra mostrar... o próprio VR-Zone disse que o poder das ALUs da G80 é de apenas 2X da G71. Mas lembro a vcs que os 'GFLOPS' não significam tudo. A 7900GTX tem +- 300 GFLOPs e a X1950XTX 375 GFLOPS, e em aplicações GPGPU a X1950XTX é pelo menos 4X mais rápida, segundo notas do evento da ATi. O pessoal do Folding@Home confirma que a G7X não é adequada ao processamento stream. Desempenho depende da capacidade de branching, do controlador de memória, não só do PICO teórico máximo das unidades aritméticas. A R600 deve ter pelo menos 40% a mais de FLOPS que a R580, com uma eficiência muito maior.

Eu acho que as ações da nVidia subiram pq ela mostrou que tem um hardware matador pronto para ser lançado e não por conta da Intel... Porém não estou certo sobre o que é a R600. Eu acho que a R600 deve usar bus de 256bits mesmo, GDDR4 a 1.2GHz(2.4GHz efetivo).

Sobre o AA 16X em single GPU, isso já existe nas nVidias, basta usar tweak. Notem que em nenhum momento falaram sobre MSAA 16X. No Vr-Zone falaram sobre VCAA. Variable Correct AA? Enfim, é algum modo de AA realmente novo, alguns dizem ser baseado em shaders. A Parhelia tinha o Fragmente Anti Alising 16X, que era muito bom, mas só agia onde a placa detectada 'edges' ou 'cantos'. Sugiro que pesquisem sobre esta tecnologia.

Não vi confirmação de HDR+AA!!! Mas se eu não estou enganado, HDR FP16 + AA é requisito PROVÁVEL do DX 10.1... resta saber se será possível HDR FP32 + AA. Mas creio que, se tem HDR FP32, imagino que tenha pelo menos HDR FP16 + AA.

Pergunta: a placa tem força pra rodar HDR FP32? Com AA junto? Talvez 16X? Rsss

Nada sobre TMUS, nada sobre ROPS... um mistério. E essas 128 streams processors não necessariamente significam 128 ALUs 'tradicionais'. Olha, vamos nos surpreender muito com essa placa!

Mas tudo tem seu lado ruim... chip complexo, placa com PCB complexo, memória complexa, sistema de cooler complexo... O mercado de GPU vai para o lado contrário do C2D, no sentido de 'eficiência x energia'. Enfim, acho que esta placa vai ser cara, mesmo o modelo GTS.

Em breve, X1950XTX por US$ 350... :)

fui

excelente post amigo vip :D, eu tb estou esperando confirmação de muita coisa no G80....incrivel como a Nvidia ta escondendo até o ultimo segundo quase tudo sobre o chip...até vazou algumas coisas... mas ta faltando muitas peças no quebra cabeças. E quanto ao preço...well devo ficar um bom tempo com a minha 7600GT :p ...pobreza ta comandando aqui lol

tb nao vejo sentido em ja ficarem se entusiasmando demais achando q a Nvidia vai arrasar a ATI sendo que o R600 ainda ta longe de sair e ninguem sabe direito como ele vai ser, eu chutaria que no final das contas ele vai ter mais desempenho (é o minimo que ele pode fazer por sair depois do G80) porém deve esquentar e consumir mais, isso levando em conta pelos ultimos projetos da ATI....espero que ela pare com o crescente aumento de consumo. Na verdade espero que ambas consumam menos...ta ficando surreal já o consumo dessas placas :p
 
Essa dança pode ter um intervalo menor de acordo com o desempenho da G80.se incomodar Ati ela pode manter o prazo ou até antecipar o lançamento.
não me empolgo mais com essa coisa..tipo " vai ser uma revolução, 10 x mais desempenho que atual.. entre outras coisas.
Até pq só veremos o real potencial após o lançamento gos games com SM4 e outras coisas mais..
 
Essa dança pode ter um intervalo menor de acordo com o desempenho da G80.se incomodar Ati ela pode manter o prazo ou até antecipar o lançamento.
não me empolgo mais com essa coisa..tipo " vai ser uma revolução, 10 x mais desempenho que atual.. entre outras coisas.
Até pq só veremos o real potencial após o lançamento gos games com SM4 e outras coisas mais..

Bladezin, vais pedir de onde?


Vlw.
 
Eu vo fala com um amigo meu pra ver se tras lá da franca pra mim! Se não vo pedir no EUA...é o jeito =(

OU

Esperar sair no PY...que pode até ser a boa, visto que lá chega rapidão as placas da NV! :cool:
 
Pelo que andei vendo nos fóruns por aí, o povo parece mais interessado na GF8800 GTS do que na GTX.

- A diferença de preço pode chegar a US$ 200.
- A velocidade das memórias é a mesma, a banda de memória só cai pq o bus é cortado de 384 bits para 320 bits. Também há um corte no número de ALUs de 128 para 96 e redução no clock.
- A quantidade de memória pouco importa. De 768 MB para 640 MB, a diferença é pequena.
- A GTX deve consumir uns 50W adicionais.
- A GTS tem o mesmo tamanho das placas atuais, 9 polegadas. A GTX tem quase 11 polegadas. As fotos mostradas devem ser da GTX.
- A GTX provavelmente terá WC e a GTS não. Se for isso, o WC terá que ser instalado externamente ou em outra baia, como o Thermaltake Tidewater.
- Toda a monstruosidade da GTX pra ter uns 25% a mais de performance? A GTS já deve ficar acima da GX2!

Bom, vamos ver. Quem comprar GF8800 tem que decidir com carinho entre GTX e GTS. Uma GTS com over não se tornará uma GTX. A GF6800GT 'virava' GF6800U fácil. A 7900GT 'OC' só ficava com o clock um pouco abaixo da 7900GTX. Mas agora a questão é diferente.

fui
 
Gostaria de saber o consumo real de cada placa. Alguém tem essa informação. Continuo achando que a especificação de fonte é para não assustar os gamers.
 
Onde for mais rapido losel .. só tô querndo saber se ela é Sm3 ou 4.
acho que é 4..seria besteira .. por outro lado deve ter um desempenho melhor em sm3... essa é a duvida.
as coisas parecem tá acontecendo em real time..já falam em games SM4 pra já
então como fica..tomara que seja sm4..
é asssim: o SM é parecido com o DX9 que tem informações desde o DX6 ou 7 sei lá.
então o SM4 tb teria todas informações do 2 e 3
desculpa a igrinorança.

abraço
 
É, depois que for apresentada oficialmente, e assim ter as features e desempenho esperados, os primeiros a pegar devem ser o Blade, Shaft e Criminal, é bom que eles dão um parecer geral.


Abraços.
 
Blade, com toda a certeza o G80 tem SM4.0, pois o mesmo é compatível com DX10. Isso já foi confirmado pela Nvidia.
 
sei q ainda eh dificil de saber mas quanto mais o menos vai custar uma VGA DX10 top ?
 
Vejam que se for 569U$ ainda assim sera mais barata que as 1900 que comprei na epoca.. portanto vale a pena se for 80% do que tão falando.

vou procurar onde encontrar assim que sair

abraço
 
8800GTX?
Na base de U$700.00 no lançamento. Isso lá nos States.
Mas lá por fev de 2007 deve estar por uns U$550/600...
 
Por volta de 2300 reais.. aqui.
no começo depois baixa..
tb o normal é esperar pelo menos 30 dias pra ver se confirma o potencial da placa mesmo.

abraço
 
No começo vai ter a 8800GTX e GTS depois de um tempo será que vai ser lançada uma 8600GT??( seria como a substituta da 7600GT)
 
Começam a sair supostos benchs da 8800-GTX na NET:

http://translate.google.com/transla...&hl=en&ie=UTF-8&oe=UTF-8&prev=/language_tools

Este é do mesmo site que divulgou as primeiras fotos das novas placas:

- Intel Core 2 E6600 @ 3.6GHz (9x400).
- G80 @ default, com drivers longe dos finais (estão em performance tuning neste momento, depois de passar pela equipa de estabilização).

3DMark'06: 12xxx
3DMark'05: 19xxx

Ou seja, 2 vezes mais rápida do que uma 7950 GX2 em default com uma CPU semelhante (dual-GPU numa placa só).


Foi dito pela fonte que uma única G80 pode passar facilmente a barreira dos 20k no '05, mas não experimentaram OC ou drivers mais recentes aínda.
Também não se sabe se usaram uma GTX ou a GTS.


http://www.xtremesystems.org/forums/showpost.php?p=1763191&postcount=86

GeForce 8800GTX stock clocks & X6800 @ 3.8GHz:

3DMark2001SE = 65k pts
3DMark2003 = 35k pts
3DMark2005 = 19k pts

© The Stilt

Sorry guys that's all I have...

Lembrem-se que, Segunda a fonte, esses testes não devem ser levados totalmente em conta como definição de performance da placa, pois ainda nem existem drivers oficiais para as placas, e que os drivers que devem ter sido usados nesses testes não passou por refinamento, digamos que ainda são brutos não foram dilapidados, e que a performance deve melhorar e muito na versão final da placa com drivers oficiais, ainda mais pelo motivo de que a placa é altamente programável.

Abraços a todos.
 
nossa... levando em consideração drivers nda maduros, a placa mando ve! õ/
 
Apesar de eu não saber qual o tópico....ele colocou @ The Stilt e é da finlandia ( Stilt também )...creio que não deva ser fake...esse Stilt é xtreme legend lá por ter testado antecipadamente várias coisas...inclusive um Opteron 939 quando o san diego era mistério ainda se não me engano!

[]´s
 
SE for verdade... :)

Bom, estou impressionado com os resultados no 3dmark06, realmente cabuloso, absurdo, impressionante, estonteante... resumindo: incrível! Imagine SLI... tô achando que a R600 não pega essa G80 não... porém, vai saber... talvez a R600 só consiga concorrer com a GTS, não com a GTX. É o que estou achando agora.

Só pra lembrar vcs, o 3dmark06 usa half-precision nas placas nVidia, onde a Futuremark 'acha' que isso não degrada o visual. Um absurdo, ao meu ver. No SM 4.0 não tem mais Half Precision. Resta saber se, rodando DX9, a G80 se beneficia do uso de Half Precision.


O score no 3dmark05 eu achei normal. Está fazendo +- o que um CF de X1950XTX faz. Seria o mínimo a se esperar de uma placa dessas.

Olhem over no C2D, isso conta muitos pontos.

Claro que com novos drivers, esses resultados ainda sobem pelo menos 10%(creio eu). E sobre over, bem, se for mesmo GDDR3, as memos já estão próximas do limite e o core clock, em uma placa top dessas, também não deve subir muito.

Imaginem a GTS: 16.000 3dmarks05 e 10.000 3dmarks06 ??? Vai bombar!

fui
 
hahaahaha Não é por mal não. Mais a algum tempo atras vi gente na HardOCP falando que G80 faria mais de 15mil no 2005! :evil:

C2D a 3.8Ghz melhor absurdamente nesses benchs iuahuiahauiha :wub: Isso é fato...

Blade, é obvio que a placa vem com suporte ao SM4 :rolleyes:

Vai ser surreal de complicado comprar essa placa nos EUA no lançamento!

Tem a questão da disponibilidade e preço de lançamento :boring:
 
SE for verdade... :)

Bom, estou impressionado com os resultados no 3dmark06, realmente cabuloso, absurdo, impressionante, estonteante... resumindo: incrível! Imagine SLI... tô achando que a R600 não pega essa G80 não... porém, vai saber... talvez a R600 só consiga concorrer com a GTS, não com a GTX. É o que estou achando agora.

Só pra lembrar vcs, o 3dmark06 usa half-precision nas placas nVidia, onde a Futuremark 'acha' que isso não degrada o visual. Um absurdo, ao meu ver. No SM 4.0 não tem mais Half Precision. Resta saber se, rodando DX9, a G80 se beneficia do uso de Half Precision.


O score no 3dmark05 eu achei normal. Está fazendo +- o que um CF de X1950XTX faz. Seria o mínimo a se esperar de uma placa dessas.

Olhem over no C2D, isso conta muitos pontos.

Claro que com novos drivers, esses resultados ainda sobem pelo menos 10%(creio eu). E sobre over, bem, se for mesmo GDDR3, as memos já estão próximas do limite e o core clock, em uma placa top dessas, também não deve subir muito.

Imaginem a GTS: 16.000 3dmarks05 e 10.000 3dmarks06 ??? Vai bombar!

fui

se for verdade vai ser incrivel mesmo...prefiro ficar imaginando placas mid..como uma possivel 8600..essa sim é pro meu bico :yes: . Ta mandando bem a Nvidia, mas provavelmente ta usando half precision sim...a não ser que estejam usando um driver novo q ainda nao foi liberado que bloqueia o uso de half precision nas GF 8
 
se for verdade vai ser incrivel mesmo...prefiro ficar imaginando placas mid..como uma possivel 8600..essa sim é pro meu bico :yes: . Ta mandando bem a Nvidia, mas provavelmente ta usando half precision sim...a não ser que estejam usando um driver novo q ainda nao foi liberado que bloqueia o uso de half precision nas GF 8

Então... Para mim tb seria uma MID... no caso, a 8600.

Com esses bench's eu já penso em pegar até uma "8600 normal", nem GT vai ter que ser...

ehauhaieahiuhae.

Outra coisa... se a placa ta fazendo isso ai rodando em DX9... E se o famigerado ganho de desempenho exposto pela MS, devido ao DX10 for real...

Nossa, o negócio vai ser rodar a 1600x1200 com FSAA 8X

haUheuiheiheaihaiuh
 

Users who are viewing this thread

Voltar
Topo