ATI Radeon HD™ Série 2000 - Informações

crs

New Member
Registrado
R600:

50087092-0397-4c7b-970f-bcc3d78a2d6b.jpg


bb1eedf2-419e-4b15-a1c5-26a54070ade9.jpg


a873d396-f9cd-4f0e-9369-be04ccf6a1c6.jpg


52df6ef1-355e-4d07-88c2-ffd25de120bf.jpg


1fe0731f-7d6e-439d-a277-42528cf3a62f.jpg


7dba581d-eebc-407c-8b7f-b46cf8773708.jpg


R600XTX possui 12.5 polegadas de comprimento só que PCB em si possui 9.5 polegadas.
A alimentação é feita por dois conectores um de 6 pinos e outro de 8 pinos, pode-se enventualmente, usar apenas conexões de 6 pinos, mais isso acarretará na impossibilidade de se fazer OC.


80 nm
700 mhz Core
512 Bits bus
1024 MB -2100MHz - 0.9nm - GDDR4
Cerca de 600+ milhões de transistores
320 SPs (Vec4+Scalar)
Theater 200 integrado o que possibilita dual 12-bit ADC e várias melhorias para vizualização e processamento de Vídeo digital.

Previsão de lançamento para Fevereiro de 2007.
Se alguem tiver mais alguma informação favor postar que irei alterando conforme especulações.
 

crs

New Member
Registrado
Algumas informações colhidas no Beyond3D sobre G80:

Rumor : G80 board has 12 memory chips soldered .


TSMC-made G80 sample speed is well beyond 600MHz.
I think either G80 or R600 will be 4 :1 concept architecture.

500M+ transistors, release sometime between September and end of the CY, probably 80nm (tho I've seen a minority report for 90nm), possibly GDDR3 with > 256-bit bus rather than GDDR4, HDR+AA. More new goodness on the AA side too, details unclear.

Should we also add 600+MHz and maybe even accept a 384bit bus, given trumphsiao's chirping in the penultimate page of the previous thread? He's been right before, IIRC. The "4:1 concept architecture" is the most interesting part. Are we talking 48 PS "processors" : 16 ROPs in G80 (assuming it still has discrete ROPs)? Are we talking 64 PS ALUs : 16 ROPs in R600, assuming an extra PS ALU per "pipe" (though I'd expect this at a very high core clock)?

(Or does G80 stick with 24 pixel shader "pipes/processors"--two DX9 PS ALUs each--but add two extra DX10 PS ALUs each? Nah, too NV30ish, if it's even possible.)

I've also heard 16 VS/GS processors, too, though I forget where (possibly in one of the OP's links).

48 pixel shader "processors" at 600+MHz sounds power and transistor hungry to me, weakly corroborating other rumors and perhaps hinting at 96 PS ALUs. It also makes Brimstone's "two G70s" theory not incredibly far-fetched, also considering 16 VS/GS shaders. That's twice a G70 in G70 terms, but obviously NV's been modifying the heck out of everything, so obviously it's not that simple.

What does the rumored new AA engine signify, updating the ROPs or folding them into the PSs?

Lembrando que são rumores.

Com relação a adoção da arquitetura 4:1 não é a primeira vez que vejo isso não, já vários users de outros foruns gringos comentando sobre isso.

Vamos ver o que se confirmará disso tudo no final.


Abraços.
 

crs

New Member
Registrado
Ainda sobre o G80 especula-se que ele terá um BUS de 386 BITS porque haveria um BUS de 128 bits dedicado para um chip de física com 128 ou 256 MB de memória totalizando até 768 MB. Será que seria possível???
 

crs

New Member
Registrado
Com relação ao R600 especulou-se que teria 64 PIPES reais, notícia que muitos afirmaram ser incorreta e que na verdade seria 64 unidades de Shader Unificados o que corrobora mais uma vez para o rumor de que agora as duas gigantes estariam usando um modelo de 4:1. Espera-se se muito dessas unidades de Shader unificado principalmente por ser tratar de unidades, digamos, mais inteligentes, que teriam um poder de programação tão elevado que permitiriam a essa unidades processar não só Vertex o Pixel mais também física.

Em suma, esper-ase que tenhamos um novo salto tecnológico na Programaçao dos Jogos, com unidades de Shader muito mais complexas e eficientes, espera-se uma evolução compatível com a que se teve com as primeiras implementações de PS/VS nas GPU´S ainda na época das famosas Geoforce3.

Abraços a todos
 

SHAFT

Adrena Old School
Registrado
Parabéns Pelo Tópico CRS :yes: Eu já tava pensando em combina isso com vc :D

Bem, eu assim como muitos devem saber que a proxima geração de vga vai ser algo de outro nivel! Fora o DX10 e o Vista, tudo indo pro melhor caminho :evil:

Ainda sobre o G80 especula-se que ele terá um BUS de 386 BITS porque haveria um BUS de 128 bits dedicado para um chip de física com 128 ou 256 MB de memória totalizando até 768 MB. Será que seria possível???

Afirmar ninguem pode, mais não seria uma beleza? :D
Obvio...se isso fosse deixar a placa mais cara vai ser um problema para muitos.
 

crs

New Member
Registrado
Parabéns Pelo Tópico CRS :yes: Eu já tava pensando em combina isso com vc :D

Bem, eu assim como muitos devem saber que a proxima geração de vga vai ser algo de outro nivel! Fora o DX10 e o Vista, tudo indo pro melhor caminho :evil:



Afirmar ninguem pode, mais não seria uma beleza? :D
Obvio...se isso fosse deixar a placa mais cara vai ser um problema para muitos.

Eu sempre confiei em muitos dos rumores que saem de dentro do Beyond, aos poucos vai se desenhando a próxima geração de gráficas, muita coisa ainda é baseada em rumores, mais como aficcionados temos que estar sempre procurando estar antecipando as novidades. Pode ser que os números e informações não batam e que o R600 e G80 sejam só decepção, mais se cumprirem o que estão prometendo estaremos passando por mais um período de revolução na área de games para PC.

Espero contar com a ajuda tua e dos vários outros membros do Forum que são aficcinados nessa área para construirmos algo mais concreto, acho que de agora em diante devem surgir muitas informções sobre as placas DX10 Ready, visto a proximidade do Vista e a última geração de GPU´s DX9 estarem sendo lançadas nesse mês.
 

WolfCayzer

Dono da budega
Parece que as GPU's estão no caminho certo, diferente do Vista(q piada). Tomara que sejam como na epóca das GF3, potência a um preço acessível.

Uma coisa que vi muito rápido e fiquei curioso, foi uma foto da R600, só q ela era fora do PC devido ao seu exagerado tamanho. Alguèm comfirma se esse rumor tem futuro???
 

Armored_Spiderman

Powered By Nikon
Registrado
a parte da noticia que mais me interessa e que torço para se tornar realidade é um AA melhorado e HDR+AA, a Nvidia pra mim sempre deveu no AA...nao muito mas deveu, se ela conseguir corrigir isso agora vai ficar perfeito :yes:

Os rumores sao muitos... tem gente q diz que é 64 unidades reais...outros nao, bem... ainda é cedo demais, mas eu acredito que 16 unidades 4X1 pra fazer TUDO seria pouco demais...se bem que numeros nao falam nada...se a eficiencia do chip aumentar mesmo com a pouca diferença numérica ele poderia ter muito mais desempenho.... mas como os detalhes do chip sao escassos...fica dificil

mesmo assim EXCELENTE topico crs, valeu por reunir tantas boas informações sobre os dois chips :yes:, por mais que sejam apenas rumores...é tudo o que temos até agora.

Essa dos 384bits...nunca tinha ouvido falar .... bizarro :D

Parece que as GPU's estão no caminho certo, diferente do Vista(q piada). Tomara que sejam como na epóca das GF3, potência a um preço acessível.

Uma coisa que vi muito rápido e fiquei curioso, foi uma foto da R600, só q ela era fora do PC devido ao seu exagerado tamanho. Alguèm comfirma se esse rumor tem futuro???

fake total :lol: ja falaram sobre esse negocio de VGA externa...serviria apenas pra notebooks...e mesmo assim pelo que me lembro é fake. Se existisse seria apenas uma versão "go" pra notebooks...e nao toda a nova geração da ATI pra desktops

E vai ser em 90 ou 80nm as primeiras placas DX10?

80nm.....a nova revisão do G71 que vem agora já vem em 80nm se não me engano
 

crs

New Member
Registrado
Mais sobre o G80, agora do theinquirer. De acordo com eles circula um grande rumor que o G80 será a primeira GPU a sair de fábrica com a especificação de uma fonte externa (igual a das impressoras e scaners).

Na minha opnião eu acho uma boa visto que o valor de uma fonte externa deverá ser bem inferior do que você ter que comprar uma fonte de 600 a 1000wats interna.

Já houve outras implementações de fonte externa em alguns modelos de placas de vídeo só que isso foi atitude particular de integradoras como a asus, sem orientação do fabricante da GPU, que até causarma muita discussão, pois muitos são contra, eu particulamene sou a favor dessa idéia, visto que irá diminuir os gastos com fontes cada vez mais poderosas, visto o alto poder de processamento e de consumo dessas placas de vídeos modernas.

Fonte:

http://www.theinquirer.net/default.aspx?article=34319

Post Original de theinquirer
G80 late because of a respin

External PSU and November tech day

By Charlie Demerjian: Tuesday 12 September 2006, 13:50
NVIDIA'S G80 is still somewhat of a mystery, with a lot of speculation but little on the record.

We have a few more bits, and some smoke and mirrors to tell you about, and it lines up pretty nicely with a lot of earlier info.

First is timing. At Computex, and as we reported earlier, Nvidia had silicon up and running. If all went well, that would mean silicon up in early June, 10-12 weeks for production chips and another month for boards, the September/October launch dates floating seemed likely.

We hear there was another spin in August, not huge, but a spin anyway, and first Silicon is due back any day now. If all goes well, that means another 3-4 months before boards are done, and you are looking at late November. NV has a reviewers/tech day tentatively set for early November, so think in the month for parts.

Since Nvidia decided they hate us again, look for coverage earlier rather than later, handcuffs are easier to avoid than to ignore. Either way, they will be thinking of us, smooches fellas. This means launches in the middle of the Christmas shopping season, and short supplies after that, make sure the kids know what they won't be getting.

So, it is going to be late, that is not the ugly bit, board partners are telling us that it very well might have an external PSU to power the beast. We told you it was going to be hot, but not as hot as an R600. Either way, this does not bode well for either card. Think of a monster with a brick to keep it from running away.

The chip itself is another story, and from the initial info we have, it is going to be a weird beastie. So weird in fact that it deserves a bit of digging before we say for sure. California wakes up in 3 hours, time to warm up the phones.

Abraços a todos.
 

SHAFT

Adrena Old School
Registrado
a parte da noticia que mais me interessa e que torço para se tornar realidade é um AA melhorado e HDR+AA, a Nvidia pra mim sempre deveu no AA...nao muito mas deveu, se ela conseguir corrigir isso agora vai ficar perfeito :yes:

Eu não sei aonda vc ver qualidade ruim nos filtros da NV. A não ser que use 2xAA e queria qualidade de 6x hehehe

HDR+AA é fato vir nessa nova geração, e com melhorias superiores...

Por acaso vcs lembra na materia que saiu falando que a NV pretende melhorar mais ainda a questão de filtros x Performance? "uma nova maneira de fazer AA" algo assim :p Vo ver se acho isso e posto aqui.
 

AlettoGrosso

\o/
Registrado
opa, blz

bom topico, e otimas informações sobre essas cavalas futuras vga´s...

o que seria akele XDR na parte da memo da g80????

falow
 

SHAFT

Adrena Old School
Registrado
Depende de como isso for feito! Afinal o que importa é o custo final...eu to tranquilão com minha fonte e acho que suporta numa boa G80 ou R600 com facilidade. Ainda mais que o sistema em geral vem consumindo menos e menos....só as placas de video que vem aumentando.
 

crs

New Member
Registrado
Essa dos 384bits...nunca tinha ouvido falar .... bizarro :D

Eu também achei sper estranho, mais o que eu achei mais bizarro é a suposta implmentação de 12 chips de memória em uma placa de vídeo, ainda que fossem 4 8 ou 16 eu entenderia, mais 12??? É uma coisa totalmente fora dos padrões, por isso a suspeita de muitos que javerá a integração de um buffer dedicado para físca.

Vamos ver se realmente se confirma essa notícia da integração de 12 chips de memória.

Abraços.
 

SHAFT

Adrena Old School
Registrado
nv rox :snap:

Isso pode ser uma exelente saida na questão da física nos futuros jogos!
Mais claro, isso depende se o fato for real e possivel ;)
 

crs

New Member
Registrado
opa, blz

bom topico, e otimas informações sobre essas cavalas futuras vga´s...

o que seria akele XDR na parte da memo da g80????

falow

Olha a XDR (eXtreme Data Rate) é uma memória super rápida que foi desenvolvido pela RAMBUS. Essa memória sairá suportando frequencias de 3.2 a 6.4 Ghz e deverá ser a memória utilizada no RSX, a placa de vídeo do PS3, e também nas futuras placas gráficas.

Fonte:

De acordo com o site Xbit-Labs, que cita uma fonte próxima da companhia, a Rambus estaria visando o mercado de placas gráficas, e ela espera que os fabricantes de placas gráficas adotem a sua tecnologia de memórias XDR.

A memória XDR, que será produzida pela Samsung, Toshiba e Elpida, deverá permitir velocidades de multi-gigahertz, com um bus de endereçamento e os comandos de sinais atingindo uma escalabilidade no sistema da memória de 1 a 36 DRAM device.

De capacidade (256 mb a 8 GB) e amplitude variável (1X a 32 X), a memória XDR poderá se tornar a memória escolhida para integrar a próxima geração de placas gráficas equipadas com GPUs cada vez mais potentes, e conseqüentemente ávidos por um maior bandwidth da memória.

No final do ano passado, a Toshiba anunciou que havia produzido os primeiros samples da memória XDRa 3.2 Ghz, com uma densidade de 512 Mbit, e a empresa prevê o início de uma produção em massa para o primeiro trimestre de 2005. Nos roadmaps da Rambus figura também uma memória XDR a 6.4 GHz.

Comenta-se que a Sony teria planos para utilizar a memória XDR no Playstation 3, mas nada indica que os fabricantes de chips gráficos se deixarão seduzir pela tecnologia XDR.

A memória GDDR3, que ainda irá evoluir para freqüências de 2 Ghz para oferecer 64 Gb/s de bandwidth sobre um bus de 256 Bits, cederá o seu lugar futuramente para o GDDR4. Fala-se que ela poderá atingir freqüências de 2.8 Ghz.

As memórias XDR (Extreme Data Rate) da Rambus são capazes de transmitir, teoricamente, 3.2 Gb/s, sendo a previsão que esta velocidade dobraria até 2006, graças à tecnologia ODR (Octal Data Rate), em que a XDR DRAM é capaz de transmitir 8 bits de dados por pulso de clock.

A primeira versão dessa memória trabalha a 400MHz (400.000.000 pulsos por segundo), e como transmite 8 bits por pulso, resulta em uma taxa de transferência de 3.2 GB/s.

Os módulos de memória são conhecidos como XDIMM, e são vendidos em versões de 256 MB até 8 GB. Sua venda é particularmente bem vista no setor de tratamento de imagens, onde a velocidade da memória RAM faz muita diferença. Contudo, as memórias XDR já enfrentam como dificuldades padrões concorrentes, como as DDR-II e a MRAM.

Samsung anunciou o início da sua produção em massa de módulos de memórias de 32 Mb que utilizam a tecnologia e as especificações XDR da Rambus.

Esta nova memória, que será utilizada especificamente pelo próximo console da Sony, deverá oferecer grandes vantagens tecnológicas. De fato, a memória XDR poderá ser utilizada no lugar do GDDR3 ou do GDDR4 para satisfazer a gula das próximas gerações de chips 3D (NVIDIA logicamente deverá explorá-la com o seu chip 3D voltado para o Playstation 3).

A Samsung tem a previsão de oferecer módulos de 64 Mb XDR capazes de oferecer bandwidth de 12.8 Gb/sec durante o primeiro semestre de 2005. Só nos resta saber agora qual o preço desta memória, sujeita as patentes e royalties da Rambus. A Rambus anunciou que os primeiros PCs e placas 3D equipadas com a memória XDR estarão disponíveis a partir de 2006

Através de um comunicado de imprensa publicado em 25 de Janeiro último, a coreana Samsung anunciou o início da produção em grande escala da memória mais rápida do mundo voltada para as aplicações multimídias. Nós estamos falando da XDR ™ (para "eXtreme Data Rate") DRAM na versão 256Mb!

Esta memória XDR faz a transferência dos dados em 8-bits o que lhe permite ser 10 vezes mais rápida que a memória DDR (Double Data Rate) 400 (PC3200) e 5 vezes mais rápida do que a RDRAM (Rambus Dynamic Random Access Memory) PC800.

Para que tal performance seja possível de maneira estável, aa Samsung utilizou a tecnologia DRSL (Differential Rambus Sinal Level).

De acordo com Mueez Deen, Diretor de Marketing do Departamento de Memórias Gráficas, a XDR figura como a solução mais eficiente para as aplicações multimídia de alto desempenho.

Os analistas do mercado prevêem seguramente um crescimento para o início de 2005 relacionado às memórias XDR DRAM e uma previsão de vendagem na ordem de 800 milhões de chips de memória 256Mb até o ano de 2009.

A Samsung também anunciou o seu desejo de trabalhar com uma versão de 512Mb para a sua XDR.

Fontes:

http://www.forumpcs.com.br/noticia.php?b=77202
http://www.3dchips-fr.com/News/actualites/200407194.html
http://pt.wikipedia.org/wiki/XDR
http://www.babooforum.com.br/idealbb/view.asp?topicID=315378
http://www.forumpcs.com.br/noticia.php?b=101087



Abraços
 

AlettoGrosso

\o/
Registrado
Olha a XDR (eXtreme Data Rate) é uma memória super rápida que foi desenvolvido pela RAMBUS. Essa memória sairá suportando frequencias de 3.2 a 6.4 Ghz e deverá ser a memória utilizada na placa de vídeo do PS3 e também nas futuras placas gráficas.

Fonte:

Fontes:

http://www.forumpcs.com.br/noticia.php?b=77202
http://www.3dchips-fr.com/News/actualites/200407194.html
http://pt.wikipedia.org/wiki/XDR
http://www.babooforum.com.br/idealbb/view.asp?topicID=315378
http://www.forumpcs.com.br/noticia.php?b=101087

Abraços

opa, blz

mas a memo não deve rodar a 3,2ghz na g80, senão o preço sera absurdo e ainda o consumo da memo sera muito alto, e a ati sera morta!!!

falow
 

SHAFT

Adrena Old School
Registrado
Ia comentar sobre essas memos no PS3 (o que realmente deve acontecer), mais uma memo dessa na vga com essa banda toda! * * * :lol: é outra historia! Caso isso venha a acontecer, acho que a ATI está com seriosss problema pela frente :whistle:
 

crs

New Member
Registrado
opa, blz

mas a memo não deve rodar a 3,2ghz na g80, senão o preço sera absurdo e ainda o consumo da memo sera muito alto, e a ati sera morta!!!

falow

Esse pode ser um dos motivos da utilização da fonte externa.

Outra coisa, ainda não é oficial, mais suspeita-se que o R600 também será compatível com XDR. Se não for será uma falha grave da ATI.

Abraços.
 

SHAFT

Adrena Old School
Registrado
opa, blz

mas a memo não deve rodar a 3,2ghz na g80, senão o preço sera absurdo e ainda o consumo da memo sera muito alto, e a ati sera morta!!!

falow

Ue, eu não sei o preço das GDDR4 e nem XDR. Mais quem sabe não seja mt similar ao ponto de não afetar mt no preço final do produto? :rolleyes: Essa é a questão....

Fora que não precisa ser a de 3.2ghz...uma mais baixa talvez seja boa e com mais performance :snap:
 

Bill Goldberg

Seien sie vorsichtig Bei
A idéia da placa de vidio vir com fonte externa me agrada pois é só epetar a placa e ligar na luz, sem ter preocupações se a fonte vai dar conta ou coisa e tal. Mas memórias a 3.2Ghz acho que ainda é cedo demais para isso acontecer deve girar mesmo é em torno do 2000 Mhz. Essa nova geração promete uma nova revolução desde a fisica até o DX10.Só vamos aguardar o preço final das bichinhas espero poder ter uma.
 

AlettoGrosso

\o/
Registrado
Ue, eu não sei o preço das GDDR4 e nem XDR. Mais quem sabe não seja mt similar ao ponto de não afetar mt no preço final do produto? :rolleyes: Essa é a questão....

Fora que não precisa ser a de 3.2ghz...uma mais baixa talvez seja boa e com mais performance :snap:

opa, blz

por isso que eu disse que ela não devera vir a 3,2ghz logo nas primeiras vga´s com essas tecnologia... acredito eu que essa XDR é uma ddr4 so que com outro nome, e alguma coisa a mais que diferencia ela...

porem, a meu ver, eu acho que as primeiras VGA´s dx10, seram tudo com ddr4, e algumas mais mid e low ate com dd3 e ddr2....

falow
 

Alesr50

Schiit Happens :D
Registrado
Detalhe que já foi anunciada XDR2 Ram..uahauhau
 

SHAFT

Adrena Old School
Registrado
Nvidia's Programmable AA

Using jittered sub-pixel sample positions reduces the likelihood that a small primitive or fragment will be lost. Furthermore, the human perception system is tuned to detect regular patterns, appearing as aliasing and other artifacts. Jittering removes the regularity from a sampling pattern such as the pattern shown in FIG. 2A resulting in an image with reduced aliasing. Sub-pixel offset values to produce an irregular jittered sub-pixel sample position pattern may be programmed for use by Rasterizer 150 during scan conversion and coverage mask generation. However when a single jittered subpixel pattern is used for every pixel, aliasing will appear due to a perceived pattern. Therefore, a jitter pattern should vary from pixel to pixel, i.e. have a greater period, to effectively reduce aliasing.

http://www.beyond3d.com/forum/showthread.php?t=31021

http://patft1.uspto.gov/netacgi/nph-Parser?Sect1=PTO2&Sect2=HITOFF&u=/netahtml/PTO %2Fsearch-adv.htm&r=2&p=1&f=G&l=50&d=PTXT&S1=nvidia.ASNM.&OS =an/nvidia&RS=AN/nvidia
 

Usuários que está vendo este tópico

Topo