• Prezados usuários,

    Por questões de segurança, a partir de 22/04/2024 os usuários só conseguirão logar no fórum se estiverem com a "Verificação em duas etapas" habilitada em seu perfil.

    Para habilitar a "Verificação em duas etapas" entre em sua conta e "Click" em seu nick name na parte superior da página, aparecerá opções de gestão de sua conta, entre em "Senha e segurança", a primeira opção será para habilitar a "Verificação em duas etapas".

    Clicando alí vai pedir a sua senha de acesso ao fórum, e depois vai para as opções de verificação, que serão as seguintes:

    ***Código de verificação via aplicativo*** >>>Isso permite que você gere um código de verificação usando um aplicativo em seu telefone.

    ***Email de confirmação*** >>>Isso enviará um código por e-mail para verificar seu login.

    ***Códigos alternativos*** >>>Esses códigos podem ser usados para fazer login se você não tiver acesso a outros métodos de verificação.

    Existe as 3 opções acima, e para continuar acessando o fórum a partir de 22/04/2024 você deverá habilitar uma das 03 opções.

    Tópico para tirar dúvidas>>>>https://forum.adrenaline.com.br/threads/obrigatoriedade-da-verificacao-em-duas-etapas-a-partir-de-24-04-2024-duvidas.712290/

    Atencionamente,

    Administração do Fórum Adrenaline

ATI Radeon HD™ Série 2000 - Informações

falso?

Acho que vcs estão equivocados o fundo do cooler é de alumini mas não é igual ao da 'mesa'
apenas aparenta ser.

O Fod@ é os 2 conectores PCI-E para Uma placa :(

Sem falar no Cooler+WaterCooler 0_o
 
Realemnte desse angulo parece mais verossimil.

E depende, esse water cooler pode aser so interno(pra levar calor de um ponto ao outro (mais perto do lado de fora da vga). Temque ver tudo completo.

Tbm achei etsranho que ficou absuradamente apertado pra colocar o conector sli com esse cooler ai no meio do caminho.
 
Parece que o G80 tem realmente 1.5 Ghz de Core o fonda é entender o que esse povo tá falando, acho que isso é coreano ou japonês né? Mais pelo que deu pra entender é isso.

Core Clock 1.4
Bus 384 Bits
768MB GDDR4

Como será que conseguiram colocar 1.5 Ghz em um chip desse tamanho?

Essa galera deve meter mais um mote de coisa daqui para terça-feira.

Vamos ver.

Abraços.
 
Se não fosse pelo tamanho (280X127X42mm) da placa e pelas pequenas diferenças eu diria que se trata de um FX-5800-U.

Abraços.
 

Attachments

  • 20060929223809_55579.jpg
    20060929223809_55579.jpg
    44.8 KB · Visitas: 92
To começando a achar que é realmente é o G80, mesmo porque já existem protótipos a Mêses nas mãos dos desenvolvedores, acho que esse lance de WC não irá sair na placa final, porque a GPU do protótipo pode realmente ter sido feito em 90nm e com 80nm já poderia se dispenssar o uso desse WC, e ainda tem o detalhe daquele rumor de que o GPU do G80 não pode ser mostrado porque a nvidia tinha feito inscrições no GPU e que apartir dessas inscrições ela poderia identificar de qual lote vazou as imagens, isso sem contar outros detalhes que podem existir.

Sei lá, pode ser fake, mais ta muito próximo do que vinha se comentando sobre a 8800-GTX com WC hibrido e 8800-GT sem WC. Observem a perfeição dos detalhes e que na 8800-GT o cooler é identico só que não possui a armação do WC internamente. Se não for o G80 que outra placa teria 12 chips de memória. Observem os detalhes como são perfeitos, pode até ser fake, mais tá muito mais pra não ser.
 

Attachments

  • 02.jpg
    02.jpg
    105.6 KB · Visitas: 63
to dizendo em relação as letras da palavra nvidia, não em relação ao desenho :lol:

Lembre-se que tem poucos dias que essa alteração foi feita, e essa placa com certeza e protótipo enviado para desenvolvedores. Existem alguns comentários na net de que os dois vídeos do Crysis foram feitos usando protótipos do G80 e esse vídeos tem mais de 2 mêses. E lembrem-se Crysis é de propriedade da EA, que todo mundo sabe, é parcerinha da nvidia.

Observem o detalhe do furinho do Cooler e o PCB verde ao fundo com uma espécie de regulador, não consegui idetificar bem se é um regulador ou outro chip mais prestem atenção como parece realmente um protótipo. Da para se perceber que o buraco no cooler foi especificamente para deixar espaço para esse chip.

Abraços a todos.
 

Attachments

  • 01.jpg
    01.jpg
    109.6 KB · Visitas: 66
Seria mais facil a gente saber se o cara tivesse tirado a foto sem o cooler :D
 
hoje em dia se vc faz isso antes da NV liberar vc vai tomar um processo animal e dependendo do estado onde estiver nos EUA (quem publica) pode ate ser rpeso. Segredos industriais sao levados cada vez mais sério lá. ''E mostrando o chip ele estaria se denunciando.. TODAS palcasda NV desde a GF3 nas versões samples pra developers e sites de review tem Die numerado e restrito a um usuário especifico.
 
Seria mais facil a gente saber se o cara tivesse tirado a foto sem o cooler :D

Existe a possibilidade de o GPU ser um modelo com encapsulamento de metal igual aos processadores atuais. E que cada lote de protótipos teria um desenho específico no GPU. Sei lá pode ser fake mais estou com quase certeza de que é o G80 mesmo, mais posso estar redondamente enganado.

Abraços.
 
eu falei zuando hehehe eu sei mt bem das consequencias :lol:

E eu n duvido do que o CRS falou...na verdada é o provavel...afinal os caras n iriam distribuir um hardware dx10 tão tarde...é uma logica basica :)
 
Parece que estas fotos são verdadeiras sim, porém são as versões preliminares que estão nas mãos dos desenvolvedores.
TALVEZ diminuam o tamanho desse PCB aí.

De acordo com o Razor1, super fanboy da nVidia que diz ter 'contatos', essa G80 vai rodar com memória GDDR4 com clock mais baixo - para diminuir ainda mais o consumo de energia - para garantir yields suficientes de GDDR4. Alternativamente, com clock mais 'baixo', é possível até mesmo a utilização de GDDR3.
Com bus de 384 bits, reduzir o clock ainda 'sobra' banda de memória.

O pessoal do Beyond3d tá comentando que é um 'horror' manter segredos na China e em Taiwan... na minha opinião, fake ou não, isso aí é coisa da própria nVidia para ganhar atenção.

Duplo-die? Tem gente 'chutando' os dies ficam em um módulo separado (semelhante aos notebooks) e que é colocado em um socket no PCB da VGA... enfim, nesta altura do campeonato, acredito em tudo. E realmente, como o crs disse, pode ser que tenha aquela camada de metal... existe um termo para aquilo, esqueci...

Acredito até que é capaz da G80 consumir mais energia que a R600...
O negócio parece 'forte'... extremamente complexo... se a ordem é limpar o stock de GX2, é pq a G80 está próxima mesmo.

Vermelhos, tremei!

fui

PS: O core clock da GPU não tem 1.5 GHz nem em sonho. Se tiver 700MHz vai ser muito... talvez o modelo com WC passe disso, mas duvido que chegue aos 800MHz...
 
Um user do Beyond3d calculando pelo tamanho aproximado do chip em comparação com um G71 em 90nm calculou que o chip com o die de 386mm2 80nm deva ter algo em torno de 547 milhões de transitores. Bate com algumas informações oficiais, embora suspeite-se que essa placa em se tratando de protótipo deva ter sido fabricada em 90nm, o que também não faria tanta diferença assim.

Abraços.
 
De acordo com o Razor1, super fanboy da nVidia que diz ter 'contatos', essa G80 vai rodar com memória GDDR4 com clock mais baixo - para diminuir ainda mais o consumo de energia - para garantir yields suficientes de GDDR4. Alternativamente, com clock mais 'baixo', é possível até mesmo a utilização de GDDR3.
Com bus de 384 bits, reduzir o clock ainda 'sobra' banda de memória.

PS: O core clock da GPU não tem 1.5 GHz nem em sonho. Se tiver 700MHz vai ser muito... talvez o modelo com WC passe disso, mas duvido que chegue aos 800MHz...


Com relação a GDDR3/GDDR4 esse protótipo está usando memórias GDDR3 de 1440 Mhz e segundo o maluco que soutou essas imagens o core clock é realmente de 1400 Mhz, vamos saber se é verdade logo logo.

Esquece o que escrevi acima entedi errado com o outro tradutor, tradução do google agora:

http://translate.google.com/transla...=pt-PT&ie=UTF-8&oe=UTF-8&prev=/language_tools

Brothers had just received product line to shoot a few Westerners helped prawn you first.

G80's 12-layer circuit board products, used almost the whole plate over 1400, GPU Pin 1449, surpassing even the size of their predecessors to achieve : 280X127X42mm exaggerated. Heat, in addition to the normal fan, they will also have to install a water-cooled heat sink another type there. And is Xiancun Fear. . . . 1G!!

Not much to say, we Charting

A placa tem 12 chips de memória contabilizando 1Giga (não entedi como) tem 1449 pinos, Esse Over plate é que me enganou, não consegui decifrar bem o que ele quis dizer com isso e com esse "1400".
Abraços.
 
Com relação a GDDR3/GDDR4 esse protótipo está usando memórias GDDR3 de 1440 Mhz e segundo o maluco que soutou essas imagens o core clock é realmente de 1400 Mhz, vamos saber se é verdade logo logo.

Abraços.

Só saberemos o clock real quando a placa for lançada.
Agora, se for com esse clock, então a G80 teria uma arquitetura ainda mais 'estranha' do que imaginamos.
A G70/G71 tem clocks de VS/ROPs diferentes... a G80 pode ir além... até pq, se for mesmo um duplo die, os clocks podem ser diferentes...

E o cara que soltou as imagens fala que a placa tem 1Gb... e pelas contas de todo mundo, não é possível!


Talvez usando GDDR4, a versão final não precise de tanta energia... e talvez o WC não seja necessário.

fui
 
Parece que estas fotos são verdadeiras sim, porém são as versões preliminares que estão nas mãos dos desenvolvedores.
TALVEZ diminuam o tamanho desse PCB aí.

De acordo com o Razor1, super fanboy da nVidia que diz ter 'contatos', essa G80 vai rodar com memória GDDR4 com clock mais baixo - para diminuir ainda mais o consumo de energia - para garantir yields suficientes de GDDR4. Alternativamente, com clock mais 'baixo', é possível até mesmo a utilização de GDDR3.
Com bus de 384 bits, reduzir o clock ainda 'sobra' banda de memória.

O pessoal do Beyond3d tá comentando que é um 'horror' manter segredos na China e em Taiwan... na minha opinião, fake ou não, isso aí é coisa da própria nVidia para ganhar atenção.

Duplo-die? Tem gente 'chutando' os dies ficam em um módulo separado (semelhante aos notebooks) e que é colocado em um socket no PCB da VGA... enfim, nesta altura do campeonato, acredito em tudo. E realmente, como o crs disse, pode ser que tenha aquela camada de metal... existe um termo para aquilo, esqueci...

Acredito até que é capaz da G80 consumir mais energia que a R600...
O negócio parece 'forte'... extremamente complexo... se a ordem é limpar o stock de GX2, é pq a G80 está próxima mesmo.

Vermelhos, tremei!

fui

PS: O core clock da GPU não tem 1.5 GHz nem em sonho. Se tiver 700MHz vai ser muito... talvez o modelo com WC passe disso, mas duvido que chegue aos 800MHz...

Eh vipman , realmente eu espero que essas novas gerações das gigantes realmente cumpram o que prometem , nao estou satisfeito com o rendimento das atuais top´s , nao tive a oportunidade de testar a gx2 nem um CF , mas sli de 7800 , x1800xt e x1900xt eu testei e nao gostei muito do performance no geral delas comparando ao seu custo !

vamos ver pelo menos tambem como ficara a questao do consumo , ate la vou segurar a 7800 pra quebrar meu galho !
 
De um user to techzone:

O que consta é que a Nvidia decidiu seguir por outra via.
Em vez de unificar os pixel shaders, vertex shaders e geometry shaders, mas deixando os ROP's separados como a ATI fez, decidiu unificar vertex shaders, geometry shaders e ROP's, deixando os pixel shaders separados.
Ou seja, a G80 será a primeira GPU com ROP's (Render Output Processors) programáveis, o que é muito útil para AA programável, em vez de ter de ser feito a toda a cena desnecessariamente.
Também é isto que permite ter SLI com maior eficiência quando a usar shaders programáveis, HDR (em formato FP16 ou outro) e AA, algo que a G71 tinha dificuldade em fazer, pois o SLI tal como estava não era muito escalável nessas situações.


Como os vertex shaders e geometry shaders são passíveis de acelerar muito mais do que os pixel shaders, por serem componentes menos complexos (clock domain da G70/G71, mas levado ao extremo), aquele rumor dos elevados MHz pode até ser verdade, em parte.

Ah, e aquilo dos TCP's no primeiro post da thread é o nome que a Nvidia dá aos novos componentes unificados.
"Texture Control Processors".

Achei muito interessante essa dos TCP´s (Texture Control Processors), O que poderia realmente ter forçado o Vr-zone a tirar aquela matéria do ar. Isso é algo que realmente tem tudo para ser revolucionário "se" for verdade.

Abraços a todos.
 
Um user do Beyond3d calculando pelo tamanho aproximado do chip em comparação com um G71 em 90nm calculou que o chip com o die de 386mm2 80nm deva ter algo em torno de 547 milhões de transitores. Bate com algumas informações oficiais, embora suspeite-se que essa placa em se tratando de protótipo deva ter sido fabricada em 90nm, o que também não faria tanta diferença assim.

Abraços.

O pessoal do beyond3d atira pra todo lado... pelo que deu pra entender, a G80 já foi modificada em relação ao projeto original, com esta história de bus de 384 bits... ou não! Falaram em dois re-spins... será que afinal houve uma reengenharia para 80nm? É lugar comum que a migração para 80nm pode ser feita com as ferramentas atuais...

vamos ver!

fui
 
Se nos basearmos naquela foto onde a placa esta de costa, olhando-se para a area do chip, o pessoal esta calculado que o chip realmente é gigante, e pelo que percebi nas infos a PCB da placa terá 12 Layers, algo realmente espantoso.

Abraços.
 
De um user to techzone:



Achei muito interessante essa dos TCP´s (Texture Control Processors), O que poderia realmente ter forçado o Vr-zone a tirar aquela matéria do ar. Isso é algo que realmente tem tudo para ser revolucionário "se" for verdade.

Abraços a todos.


Muito esclarecedor... se for isso, essa G80 é totalmente revolucionária... vai sobrar potência para as futuras GPUs... 'sobrar' em termos, os novos jogos sempre vão conseguir saturar qualquer VGA... algo me diz que os jogos DX10 atualmente desenvolvidos estão usando a G80 e não a R600... tudo alpha-beta-zeta, kkk

Sobre a performance, acho que a GX2 dá um belo peso de papel... pensando melhor, a X1950XTX é beeem mais bonitinha... :)

É... o salto de performance pode até ser maior que o verificado com as NV40/R420... se for pelo menos igual eu já ficaria assustado... mas tô achando que vai muito além!

fui
 

Users who are viewing this thread

Voltar
Topo