• Prezados usuários,

    Por questões de segurança, a partir de 22/04/2024 os usuários só conseguirão logar no fórum se estiverem com a "Verificação em duas etapas" habilitada em seu perfil.

    Para habilitar a "Verificação em duas etapas" entre em sua conta e "Click" em seu nick name na parte superior da página, aparecerá opções de gestão de sua conta, entre em "Senha e segurança", a primeira opção será para habilitar a "Verificação em duas etapas".

    Clicando alí vai pedir a sua senha de acesso ao fórum, e depois vai para as opções de verificação, que serão as seguintes:

    ***Código de verificação via aplicativo*** >>>Isso permite que você gere um código de verificação usando um aplicativo em seu telefone.

    ***Email de confirmação*** >>>Isso enviará um código por e-mail para verificar seu login.

    ***Códigos alternativos*** >>>Esses códigos podem ser usados para fazer login se você não tiver acesso a outros métodos de verificação.

    Existe as 3 opções acima, e para continuar acessando o fórum a partir de 22/04/2024 você deverá habilitar uma das 03 opções.

    Tópico para tirar dúvidas>>>>https://forum.adrenaline.com.br/threads/obrigatoriedade-da-verificacao-em-duas-etapas-a-partir-de-24-04-2024-duvidas.712290/

    Atencionamente,

    Administração do Fórum Adrenaline

ATI Radeon HD™ Série 2000 - Informações

Se fizerem vão colocar a 'versão dx9' com efeitos do dx6 :p
só para ter grande contraste entre dx9 e 10 :yucky:

pois é tb penso isso, não ´´e só pq tem um video lindo do game rodando em "dx10" que o game em DX9 nao vai rodar igual :D , acho dificil mesmo que existam grandes diferenças entre usar DX9 ou 10 nesses primeiros games que vão sair
 
Que nem quando a ATI lançou um video para demonstrar o poderio da X850XT PE quando lançou, lembram? Era um cara em uma lancha, lembra muito o FarCry.
 
Crysis & DX10 model capabilities :wave:


cryspcscrnm1e9ep.jpg

Só lembrando, nao tem NADA ai que não de pra fazer com SM3 e OpenGL 2 ou DX9. Nada. Só questão de quao dificil é fazer ou quanta ajuda da CPU a GPU precisa.
 
Eu aposto muito no Vista e no Dx10. o Novo VISTA RC1 tá rodando mais rapido do o proprio XP em algumas coisas. Só ler a reportagem que saiu no jornal O GLOBO. Agora se isso tb aconteceu nos jogos e outros programas eu não sei....só testando mesmo.

Oldman CPU evoluiu pro cara que joga em 1024. Pega um conroe e pega um X2 da vida e bota em alt. res....vai dar no mesmo. A budega é limitada pela GPU totalmente...e nos anos que passa cada vez se joga em res. alta. A 2 anos ou menos atras jogar em 1024 era tão bom quanto jogar em 1600x1200 hoje. Eu mesmo só vo trocar meu am2 se eu ver motivos que valem a pena :sleep: pra mim.




ue...folga vai ter, só não vai ter muito de sobra. Até se fosse pra ter de sobra eu comprava uma pra isso. Essa ST que peguei dá pro gasto por bastante tempo. Acho paranoia d+ nego ficar falando que PC agora só fonte de 800w reais...puff lero! =P



Claro que não Armored, já tem SS em Dx10 de sobra na internet...basta procurar. :said:


Pouca diferença do 9 pro 10? For gods sake man! Se fosse tão tãp basica assim o produtor do game não teria dito que o PC seria a plataforma ideal pra rodar o game com sua capacidade maxima de grafico...fora textura e tudo mais.

Mas ej exatamente o que eu estou falando!!! CPu evoluiu um monte entao as coisas sao limitadas pela GPU. Entao nao adianta ficar jogando mais coisa pra GPU fazer porque ela ja esta atolada!!! Enquanto isso as CPU tao sobrando...


Vou tentar deixar claro.. DX10 diminuia a carga da CPU e aumenta drasticamente a carga da GPU que já era o gargalo!!!
DX10 não vai fazer muita diferenca de desempenho a nao ser que façam as placas monstruosamente maiores ( muito muito mais unidades etc...) Porque no patamar atual elas ja estao atoladassas.
 
Como não entendo direito essa história de consumo de energia não estou entendendo patavinas de o quanto uma fonte de 600 W vai afetar na casa. ate onde seu sei o pc só vai sugar mais energia quando estiver full load. Quando largar ele ligado pra download ele vai gasta pouca coisa que seria o mesmo de uma lampada comum? duvido que o PC va tazer um maumento de mais de R$ 20,00 na energia. Isso ainda vai ser um PC e não um ferro de passar roupas nem um chuveiro ligado.


Não é bem assim, se sua fonte tiver um bom PFC ate pode ser. Mas a maior aprte das fontes consome SIM mais energia. Fonte maior consome mais mesmo que vc nao precisa (mas não é necessariamente proportcional)
 
Não é bem assim, se sua fonte tiver um bom PFC ate pode ser. Mas a maior aprte das fontes consome SIM mais energia. Fonte maior consome mais mesmo que vc nao precisa (mas não é necessariamente proportcional)

btw se seu PC tem uma fonte de 600 W ele consome a metade de um chuveiro. Se vc joga pr 1 hora por dia assim. Vc ja gasta muito mais energia que com o chuveiro. Se vc joga 3 horas por dia, o PC passa fácil de qualquer outro aparelho de uma casa comum em consumo de energia. Se vc passa mais umas 4 horas em carga leve por colocar equivalendo a mais 1 hora em full (mais ou menos)


PC gasta MUITA energia. Em um ano da um bom dinheiro.

Mas prea ser honesto vc tem que reduzir desse valor o consumo da TV que vc deixou de usar pra ficar no PC etc... mesmo assim é alto
 
http://www.vr-zone.com/?i=4007

[G80 De-Mystified; GeForce 8800GTX/GT]
Page Title: G80 De-Mystified; GeForce 8800GTX/GT
Category: GPUs & Graphic Cards
Type: News
Posted By: Visionary
Date: September 19, 2006, 6:21 pm
Actions: Print Article




Unified Shader Architecture
Support FP16 HDR+MSAA
Support GDDR4 memories
Close to 700M transistors (G71 - 278M / G70 - 302M)
New AA mode : VCAA
Core clock scalable up to 1.5GHz
Shader Peformance : 2x Pixel / 12x Vertex over G71
8 TCPs & 128 stream processors
Much more efficient than traditional architecture
384-bit memory interface (256-bit+128-bit)
768MB memory size (512MB+256MB)
Two models at launch : GeForce 8800GTX and GeForce 8800GT
GeForce 8800GTX : 7 TCPs chip, 384-bit memory interface, hybrid water/fan cooler, water cooling for overclocking. US$649
GeForce 8800GT : 6 TCPs chip, 320-bit memory interface, fan cooler. US$449-499
Our friends have gotten some information of the upcoming NVIDIA G80 and it appears that G80 gonna be unified shader after all. It should be pretty close to the truth and it explained the mystery of the strange DRAM capacities that INQ reported previously. Expect G80 to be out somewhere in mid November along with Kentsfield.

700mi de transístores??? Water-cooler??? Bus de 384 bits??? (parece que o bus é dividido - 256 bits para determinado tipo de processamento e 128 bits para outro)
Apenas 2X o poder de shaders(comparado com o quê? G71). Se for 2X o poder de shaders de uma 7950GX2 ainda pode ser, kkk.... 12X o poder de vertex? Faz sentido, leiam o que escrevi acima, kkk.
Pra mim, isso é bobagem. E segundo o TheInq, o G80 sofreu um novo atraso.

fui

Valeu pela info, vou dar mais uma verificada nelas e nas fontes e conforme for atualizo no primeior post. Se esses números se confirmarem são números assombrosos muito impressionantes. Mais já se começa a concordar em alguns pontos como o bus de 384 bits VS turbinado HDR+AA e novos modos de AA.

ABRAÇOS.
 
Dentro de alguns meses, a primeira placa gráfica Ati para PCs baseada na arquitetura de shaders unificados, o R600, chegará ao mercado. Segundo algumas fontes consultadas pelo site Nokytech.net esta placa teria dimensões dignas de uma Nvidia 7900GX2, o que aproximadamente corresponderia a 33cm e o espaço de 3 slots PCIe. Sozinha, esta placa consumiria perto de 200W/conector oito pinos obrigatório, além de utilizar um GPU single core.

Enquanto os fabricantes de CPU estão fazendo um grande esforço para reduzir o consumo dos seus produtos, aparentemente, este não seria o caso das placas gráficas, não da Ati. Apesar de nada ainda estar confirmado, isso parece enorme.​
 
Repetindo o q eu disse em outro tópico sobre essas notícias de que o R600 ocupará 3 slots e bla bla bla...

Eu não acredito....
250W? Ocupar 3 slots? Como assim? Então, pra que q a ATI iria lançar chipset com suporte a 3 portas Pci-express se sabia q seria inviável, tanto em termos de espaço quanto de calor, utilizar a TOP da próxima gerção? Só se ela der de brinde um watercooler, gabinete, placa-mãe (sim, precisaria de uma placa mãe bem maior!) e uma fonte de brinde pra quem for fazer crossfire ou quem quiser usar crossfire + physics...
 
Repetindo o q eu disse em outro tópico sobre essas notícias de que o R600 ocupará 3 slots e bla bla bla...

Eu não acredito....
250W? Ocupar 3 slots? Como assim? Então, pra que q a ATI iria lançar chipset com suporte a 3 portas Pci-express se sabia q seria inviável, tanto em termos de espaço quanto de calor, utilizar a TOP da próxima gerção? Só se ela der de brinde um watercooler, gabinete, placa-mãe (sim, precisaria de uma placa mãe bem maior!) e uma fonte de brinde pra quem for fazer crossfire ou quem quiser usar crossfire + physics...

Faz sentido...
 
Engraçado que o TheInq 'desmentiu' os boatos sobre essa R600 gigante. Mas muitos mistérios pairam no ar.

Sobre a G80: segundo o povo do Beyond3D, é possível que os 700mi de transístores referidos na especulação do Vr-Zone sejam divididos entre dois 'dies'. Assim, um 'die' concentraria os Vertex Shaders/Geometry Shaders e o outro concentraria o 'restante' da GPU (PS ALUs, ROPs e TMUs). O 'die' geométrico teria um bus dedicado de 128bits e o die 'geral' teria um bus dedicado de 256bits.

Bizarro não?
Pior que uma especulação 'estranha', são as teorias sobre a especulação. Mas diante da especulação 'bizarra', até faz sentido. A nVidia falou sobre um chip com +- 500mi de transístores. Talvez o die geométrico tenha algo próximo de 200mi de transístores e o die 'geral', 500 mi. O tamanho dos 'dies' poderia ser assimétrico, entretanto, mesmo com número diferente de transístores a tal 'densidade' pode ser diferente, tornando os dois 'dies' similares... tem aquela especulação sobre o chip ser algo próximo a 400mm2(2cm x 2cm). Seria na verdade, dois 'dies' juntos.

Pra mim é tudo bobagem. Só estou repassando os absurdos. Pior: de tudo isso, algo pode ser verdade!

fui
 
Vou tentar deixar claro.. DX10 diminuia a carga da CPU e aumenta drasticamente a carga da GPU que já era o gargalo!!!
DX10 não vai fazer muita diferenca de desempenho a nao ser que façam as placas monstruosamente maiores ( muito muito mais unidades etc...) Porque no patamar atual elas ja estao atoladassas.


hehehe chegamos a um ponto então. Foi esse um fato que me fez não acreditar no C2D como um CPU que fosse melhorar aos montes o desempenho nos jogos que eu uso em alta res.

Mais para os programadores, DX10 não seria um API mais flexivel em diversos aspectos de modo que fosse facilitar a programação do jogo, e tudo mais dentro dele...da maneria que a performance fosse melhorar cada vez mais ?

Eu não entendo...tem um pessoal falando só coisa boa do Dx10, como texturar em alt.res sem mt perda de desempenho...física melhor programavel...e uma penca de coisa a mais.
E outro lado são outros que só negam certas melhorias...
 
Engraçado que o TheInq 'desmentiu' os boatos sobre essa R600 gigante. Mas muitos mistérios pairam no ar.

Sobre a G80: segundo o povo do Beyond3D, é possível que os 700mi de transístores referidos na especulação do Vr-Zone sejam divididos entre dois 'dies'. Assim, um 'die' concentraria os Vertex Shaders/Geometry Shaders e o outro concentraria o 'restante' da GPU (PS ALUs, ROPs e TMUs). O 'die' geométrico teria um bus dedicado de 128bits e o die 'geral' teria um bus dedicado de 256bits.

Bizarro não?
Pior que uma especulação 'estranha', são as teorias sobre a especulação. Mas diante da especulação 'bizarra', até faz sentido. A nVidia falou sobre um chip com +- 500mi de transístores. Talvez o die geométrico tenha algo próximo de 200mi de transístores e o die 'geral', 500 mi. O tamanho dos 'dies' poderia ser assimétrico, entretanto, mesmo com número diferente de transístores a tal 'densidade' pode ser diferente, tornando os dois 'dies' similares... tem aquela especulação sobre o chip ser algo próximo a 400mm2(2cm x 2cm). Seria na verdade, dois 'dies' juntos.

Pra mim é tudo bobagem. Só estou repassando os absurdos. Pior: de tudo isso, algo pode ser verdade!

fui

Na boa, a X1900XTX já é uma placa grande...pelo que saiu até agora do R600 eu não duvido que ela seja tão grande mesmo.

Agora essas infos que estão saindo agora do G80 pra mim é um tanto "bizarro" pra mim. Entretanto, tem uma certa lógica...minha preucupação é se o maldito chip vai trazer a performance que todo mundo espera. Mesma coisa com o R600, que como vai sair depois...pra mim tem a obrigação de ser melhor e em tudo.
 
Acho que a Nvidia apelou pra um sistema dual com a G80..
Deve ter avaliado que o core apenas não seria capaz de enfretar a R600 no maximo deixar a serie 19XX pra trás.
quando ao tamanho se valer a pena eu serro o gabinete sem problema.
Não entendo esses 384 bits proposto pela G80 e a quantidade de memoria.
Shader unificado só a R600 mesmo
uma coisa importante que o Oldman citou , a sobrecarga da gpu em função do gargalo que existia

abraço
 
Começam a surgir mais informações referentes ao R600, consta agora que no R600 será usado um novo sistema de shader unificado de segunda geração, e que deverá ter um design revolucionário com suporte a shader 4.0 e DX10 e com suporte melhorado a HDR+AA.

Abraços.
 

Attachments

  • R600.jpg
    R600.jpg
    28.7 KB · Visitas: 85
Começam a surgir mais informações referentes ao R600, consta agora que no R600 será usado um novo sistema de shader unificado de segunda geração, e que deverá ter um design revolucionário com suporte a shader 4.0 e DX10 e com suporte melhorado a HDR+AA.

Abraços.

No próprio site da ATI vc achou essa imagem?
 
Começam a surgir mais informações referentes ao R600, consta agora que no R600 será usado um novo sistema de shader unificado de segunda geração, e que deverá ter um design revolucionário com suporte a shader 4.0 e DX10 e com suporte melhorado a HDR+AA.

Abraços.

sendo que os games tao cedo nao vao usar DX10 efetivamente e que a primeira série de placas de uma nova API nunca usa ela com potencia total será que vale tanto a pena assim a ATI investir TÂO pesado em ter um hardware porrada em DX10? isso supondo que ele tenha desvantagens no DX9 contra o G80 que parece ser bem mais voltado ao DX9 mas com suporte ao 10.
 
mas olha só um G90 (dificilmente vai ser esse nome) deve demorar muito pra sair, certo?
 

Users who are viewing this thread

Voltar
Topo