• Prezados usuários,

    Por questões de segurança, a partir de 22/04/2024 os usuários só conseguirão logar no fórum se estiverem com a "Verificação em duas etapas" habilitada em seu perfil.

    Para habilitar a "Verificação em duas etapas" entre em sua conta e "Click" em seu nick name na parte superior da página, aparecerá opções de gestão de sua conta, entre em "Senha e segurança", a primeira opção será para habilitar a "Verificação em duas etapas".

    Clicando alí vai pedir a sua senha de acesso ao fórum, e depois vai para as opções de verificação, que serão as seguintes:

    ***Código de verificação via aplicativo*** >>>Isso permite que você gere um código de verificação usando um aplicativo em seu telefone.

    ***Email de confirmação*** >>>Isso enviará um código por e-mail para verificar seu login.

    ***Códigos alternativos*** >>>Esses códigos podem ser usados para fazer login se você não tiver acesso a outros métodos de verificação.

    Existe as 3 opções acima, e para continuar acessando o fórum a partir de 22/04/2024 você deverá habilitar uma das 03 opções.

    Tópico para tirar dúvidas>>>>https://forum.adrenaline.com.br/threads/obrigatoriedade-da-verificacao-em-duas-etapas-a-partir-de-24-04-2024-duvidas.712290/

    Atencionamente,

    Administração do Fórum Adrenaline

ATI Radeon HD™ Série 2000 - Informações

Eu tambem achei 450 Watts de fonte para a GTX um numero pequeno, pois devido ao que promete essa placa essa wattagem está bem modesta.
 
Agora...que a NV sempre teve um lugar no meu coração isso é verdade hahaha ATI é tipo minha amante...as vezes do uns pegas de bobera :D

Hmm isso explica pq as Amantes são mais bonitas :p

Agora sei pq a briga da 'qualidade de imagem' agora faz sentido :D :lol:
 
Blade essa é pra você se apaixonar pela verdinha:

G80" To Feature 128-bit HDR, 16X AA

More G80 features abound



As if we mere mortals needed more reasons to be excited about G80, here are a couple more tidbits: 128-bit high dynamic-range and antialiasing with 16X sampling.


The high dynamic-range (HDR) engine found in GeForce 7950 and Radeon series graphics cards is technically a 64-bit rendering. This new HDR approach comes from a file format developed by Industrial Light and Magic (the LucasFilm guys). In a nutshell, we will have 128-bit floating point HDR as soon as applications adopt code to use it. OpenEXR's features include:

* Higher dynamic range and color precision than existing 8- and 10-bit image file formats.
* Support for 16-bit floating-point, 32-bit floating-point, and 32-bit integer pixels. The 16-bit floating-point format, called "half", is compatible with the half data type in NVIDIA's Cg graphics language and is supported natively on their new GeForce FX and Quadro FX 3D graphics solutions.
* Multiple lossless image compression algorithms. Some of the included codecs can achieve 2:1 lossless compression ratios on images with film grain.
* Extensibility. New compression codecs and image types can easily be added by extending the C++ classes included in the OpenEXR software distribution. New image attributes (strings, vectors, integers, etc.) can be added to OpenEXR image headers without affecting backward compatibility with existing OpenEXR applications.

NVIDIA already has 16X AA available for SLI applications. The GeForce 8800 will be the first card to feature 16X AA on a single GPU. Previous generations of GeForce cards have only been able to support 8X antialiasing in single-card configurations.

This new 16X AA and 128-bit HDR will be part of another new engine, similar in spirit to PureVideo and the Quantum Effects engines also featured on G80.

Fonte:
http://dailytech.com/article.aspx?newsid=4450

Abraços.
 
estou realmente abismado com as ultimas noticias que li! ;x
promete ser realmente um grande avanço no mundo das placas 3D!
ñ imaginava uma placa assim... só ñ intendo o uso de gddr3... uma placa dessa merecia gddr4! xP
 
Desculpa pensei que era o consumo.. agora Sm3 e ddr3 ..pode ser uma estrategia da nvidia até sair a R600..ae mudaria pra DDR4 e SM4 isso pode ser feito.
se for relamente isso tudo ..vai ser realmente fantastica..
e olha que Ati pode não ser tão eficiênte ..pelo menos sobre o SM4.
A Nvidia fez uma placa que vai tirar o que tem de melhor no momento..
isso pode dar certo..

opa vou de G80... heheheheh
E a R600 tem que ser muito superior pra que eu mude..

abraço
 
Rapaz, essas especificações de HDR NÃO SÃO NOVAS, na conferencia da SONY de 2k5, a nvidia já ´havia dito que iria usar no RSX. :said:


Apenas adaptou para a G80.



E quanto a memória ser GDDR3, se a bicha ainda tá dando no coro e dá pra poupar um pouquinho, pra que GDDR4?!? :thumbs_up


Deixa isso para G85, no meio do ano. :fun:

Abraços. :yes:
 
NV sabe quando tomas as atitudes é por isso que ela nunca me desaponda :snap:

Em 2007 em diantes os jogos realmente vão ter o uso do HDR e com isso a NV não deu outra... Podendo usar até 128bit na precisão e ainda com 16xAA :lol:

Agora sim vai dar gostinho rodar TES4 com qualidade e performance aceitavel :lol:

Teremos uma placa de baixo consumo, isso tb é show para todos aqui.

...GDDR4 ? For What? É mais barata e no momento é totalmente ideal para o chip. Quandos sair uma continuação do G80 em 65nm ou menor (talves), ai sim! O custo da GDDR4 deve estar menor e vai ser aceitavel visto quem o core clock tb deve ser maior ;)


God bless nvidia :hooray:
 
opa vou de G80... heheheheh
E a R600 tem que ser muito superior pra que eu mude..

Seu post será Gravado! :D

E detalhe, vamos ver se o R600 vai ter os mesmos recursos em hardware que o G80 aparentemente mostrou até agora ;)
 
a G80 vai sair com SM3??? DirectX10 e SM4 naum andavam juntos???
 
Se tem o dedo da LucasFilm, do tio George Lucas nesse HDR com 128 bits eu aposto que ele vai ser bom, mal posso esperar pelo lançamento dessa placa.
 
Esse Shaft é dose.. se fosse ddr4 e sm4 tb seria melhor né.
uma coisa sobre o hdr.com precisão de 128 bits significa o que? qual a precisão da 19XX.. isso resulta em que ..
gostei do consumo..muito baixo isso não significa que a placa vem com especificações abaixo do que pode render/
 
Eita que os Fanboys estão aproveitando para reaparecer.. hauhahuauha... realmente estavam há bastante tempo silenciosos.... hahaha... não tinham argumentos, não era? :lol:

Vamos esperar sair as placas de ambas as empresas para a gente ficar logo enterrando uma outra... hehehe.. negada apressada.

Sobre a vga, acho que puseram essa especificação de fonte para não assustar o comprador. Tenho para mim que não é só isso de fonte não.
 
Eita que os Fanboys estão aproveitando para reaparecer.. hauhahuauha... realmente estavam há bastante tempo silenciosos.... hahaha... não tinham argumentos, não era? :lol:

Vamos esperar sair as placas de ambas as empresas para a gente ficar logo enterrando uma outra... hehehe.. negada apressada.

Sobre a vga, acho que puseram essa especificação de fonte para não assustar o comprador. Tenho para mim que não é só isso de fonte não.

huahuahuahua.. eu sempre fui fan boy e nunca sumi..


huahuahuahua.. nvidia rulez a lot


huahuahuahua.. vamos esperar sim, vou começar a cobrar uma taxa para os futuros vira casacas...
 
Bom, claro que o teste definitivo é quando sair a R600. Mas podemos dizer que a G80 é um projeto muito ambicioso. Tudo perfeito até aqui.

Definitivamente, estão dizendo que o chip é de die único. Quanto ao processo de fabricação, não há ainda um consenso. Número de transístores? Não sei, mas lembre-se que, seja lá qual for o motivo, a nVidia coloca mais transístores por área que a ATi.

E o RSX não parece mais uma G71 com interface para o Cell. Mas também não pode ser uma G80, por motivos óbvios de custos de produção. Até pq, o bus de 128bits para o RSX já foi confirmado. Virtua Tennis 3, FF Round 3, NBA 2k7, todos estes estão mais bonitos no PS3 que no X360. Claro que aqui a diferença não se deve somente ao RSX, tem o Cell também. Fato é que o RSX parece ser mais poderoso que uma 7950GT, por exemplo. Mas , com toda certeza, é inferior a G80. Deve ser um chip intermediário.

Bom, falando sobre stream computing no evento da ATi, o Orton disse, 96 ALUS 'talvez' na nova geração, e mais de meio bilhão de GFLOPS... então muito cuidado, a ATi ainda tem muito pra mostrar... o próprio VR-Zone disse que o poder das ALUs da G80 é de apenas 2X da G71. Mas lembro a vcs que os 'GFLOPS' não significam tudo. A 7900GTX tem +- 300 GFLOPs e a X1950XTX 375 GFLOPS, e em aplicações GPGPU a X1950XTX é pelo menos 4X mais rápida, segundo notas do evento da ATi. O pessoal do Folding@Home confirma que a G7X não é adequada ao processamento stream. Desempenho depende da capacidade de branching, do controlador de memória, não só do PICO teórico máximo das unidades aritméticas. A R600 deve ter pelo menos 40% a mais de FLOPS que a R580, com uma eficiência muito maior.

Eu acho que as ações da nVidia subiram pq ela mostrou que tem um hardware matador pronto para ser lançado e não por conta da Intel... Porém não estou certo sobre o que é a R600. Eu acho que a R600 deve usar bus de 256bits mesmo, GDDR4 a 1.2GHz(2.4GHz efetivo).

Sobre o AA 16X em single GPU, isso já existe nas nVidias, basta usar tweak. Notem que em nenhum momento falaram sobre MSAA 16X. No Vr-Zone falaram sobre VCAA. Variable Correct AA? Enfim, é algum modo de AA realmente novo, alguns dizem ser baseado em shaders. A Parhelia tinha o Fragmente Anti Alising 16X, que era muito bom, mas só agia onde a placa detectada 'edges' ou 'cantos'. Sugiro que pesquisem sobre esta tecnologia.

Não vi confirmação de HDR+AA!!! Mas se eu não estou enganado, HDR FP16 + AA é requisito PROVÁVEL do DX 10.1... resta saber se será possível HDR FP32 + AA. Mas creio que, se tem HDR FP32, imagino que tenha pelo menos HDR FP16 + AA.

Pergunta: a placa tem força pra rodar HDR FP32? Com AA junto? Talvez 16X? Rsss

Nada sobre TMUS, nada sobre ROPS... um mistério. E essas 128 streams processors não necessariamente significam 128 ALUs 'tradicionais'. Olha, vamos nos surpreender muito com essa placa!

Mas tudo tem seu lado ruim... chip complexo, placa com PCB complexo, memória complexa, sistema de cooler complexo... O mercado de GPU vai para o lado contrário do C2D, no sentido de 'eficiência x energia'. Enfim, acho que esta placa vai ser cara, mesmo o modelo GTS.

Em breve, X1950XTX por US$ 350... :)

fui
 
Esse Shaft é dose.. se fosse ddr4 e sm4 tb seria melhor né.
uma coisa sobre o hdr.com precisão de 128 bits significa o que? qual a precisão da 19XX.. isso resulta em que ..
gostei do consumo..muito baixo isso não significa que a placa vem com especificações abaixo do que pode render/


Acho que tem SM4.0, visto que é compatível com DX10.
Quero ver se essa G80 será a prova de moire patern, AF angular, shimmering...
Vai ser interessante.
Quanto a questão da GGDR3, tens razão, mas de início o pessoal mais 'abornado' não vai ligar muito não, mesmo porque eu vou esperar sair uma versão de 65nm. Até lá me decido entre um R600 ou G81...
Fui...
 
O Vipman disse uma coisa ali em cima que achei interessante, sobre o RSX estar entre o G71 e o G80 ... mas acho que uma coisa não parecem levar em conta aqui, o poder de processamento do CELL !!! Não acho que podemos comparar o poder de uma 7900GTX rodando sobre um FX62/C2D6800 (acho que é o que temos HOJE no mercado de mais poderoso) com o conjunto RSX+CELL, pois este tem um desempenho muuuuuuuuuito maior e foram "feitos um para o outro" !!!

Portanto acho que para nível de comparação de desempenho/qualidade entre PC e VideoGame até vale a pena, agora para avaliar em qual "chip" o RSX foi baseado fica mais difícil ... acho que precisaríamos de uma configuração com o CELL rodando uma 7900GTX pra saber ...

Por alguns comentários sobre o PS3 feitos pelo Oldman, ele parece estar bem por dentro de sua arquitetura e poderia nos dizer se o RSX esta mais pra G71 ou G80 ...

abraços .....
 
Mais notícias do G80 agora do theinquireir agora falando sobre o começo da era TurboCache com o novo chip3d da nvidia.

G80 chip will intro TurboCache era

Nvidia's GPGPU focus is set on Quadros and rendering


By Theo Valich: sexta-feira 06 outubro 2006, 07:52

THERE HAS BEEN a lot of weird expressions on faces of key players when first pictures of G80 or GeForce 8800GT/GTX, showing 12 memory chips instead of regular, computer-friendly numbers of eight or 16. However, Nvidia's latest chip is far from being a patchwork, since the company has greater plans in scale.
Basically, if we take a look at Nvidia's G71-neé-RSX chip, the physical memory interface is 128-bit wide with 128-bit TurboCache addressing of system XDR memory and this is the first case of Nvidia using TurboCache technique on a higher end part.

Graphzilla decided to go for a 512-bit memory interface including a physical 384 one. So, you can expect that the company will deliver a marketing speech about 768MB of system memory and several gigabytes of additional system memory. It only remains to be seen if the TurboCache will be switched on for the Quadros only, or will the GeForce 8800 get the same treatment.

However, the real goal for Nvidia with G80 chip is the Quadro series. This means no Folding@Home speedups, since the company wants to make money by selling GPGPU 4K-res special FX rendering beasts. Expect TurboCached Quadros with 768 of video memory - and a 1.5 GB is also planned, as we managed to learn in Frisco Bay- with addressing of all available system memory.

The company already rules the HD broadcast market and with this chip, it's pretty much poised to become the de facto standard in the special effects arena as well. Nvidia's Gelato is pretty much what ATI's Stream Computing is, only being focused on movie production alone (rendering).

ATI is already designing its boards for integration into 2U servers, and it is only a question of time when mainstream hardware vendors start to offer processing boxes featuring several nV/DAAMIT GPUs instead of CPUs

Fonte:
http://www.theinquirer.net/default.aspx?article=34885

Abraços a todos.
 
Turbo cache não é um mal negócio quando se tem largura de banda de 800~1066, aliás TEM QUE TER, pq o sm 4 precisa disso é uma das novas features, que será usado para fazer TEXTURAS GIGANTES.
 
uma coisa que não gosto na nvidia é por ex: não assumir que suas placas atuais tem problemas tipo "shimmering..." só agora no lançamento da nova serie ela assume,
era qisso que eu chamava atenção desde a serie 78XX.
pelo menos corrigiu e deve arrebentar ,,é o que espero
 
Shimmering é lenda! Nem toquem no assunto! ;)

A banda de memória principal tem pouco impacto sobre o 'TurboCache'. O bus PCI-E limita a transferência de dados em 4 GB/s (8 GB/s é considerando a banda total in-out). Como a memória é compartilhada, creio que a banda de memória adicional resolve um pouco o problema (banda mais rápida para compartilhar), mas a velocidade máxima de transferência de dados continua limitada pelo bus PCI-E.

Para ajudar a resolver problemas de gargalo no PCI-E, entram novas tecnologias, como o 'Link Boost', que faz um overclock no bus PCI-E de 100MHz para 125MHz. Tal função, que parecia inútil até agora, deve ter muita utilidade na G80.

fui
 

Users who are viewing this thread

Voltar
Topo