Por questões de segurança, a partir de 22/04/2024 os usuários só conseguirão logar no fórum se estiverem com a "Verificação em duas etapas" habilitada em seu perfil.
Para habilitar a "Verificação em duas etapas" entre em sua conta e "Click" em seu nick name na parte superior da página, aparecerá opções de gestão de sua conta, entre em "Senha e segurança", a primeira opção será para habilitar a "Verificação em duas etapas".
Clicando alí vai pedir a sua senha de acesso ao fórum, e depois vai para as opções de verificação, que serão as seguintes:
***Código de verificação via aplicativo*** >>>Isso permite que você gere um código de verificação usando um aplicativo em seu telefone.
***Email de confirmação*** >>>Isso enviará um código por e-mail para verificar seu login.
***Códigos alternativos*** >>>Esses códigos podem ser usados para fazer login se você não tiver acesso a outros métodos de verificação.
Existe as 3 opções acima, e para continuar acessando o fórum a partir de 22/04/2024 você deverá habilitar uma das 03 opções.
Tópico para tirar dúvidas>>>>https://forum.adrenaline.com.br/threads/obrigatoriedade-da-verificacao-em-duas-etapas-a-partir-de-24-04-2024-duvidas.712290/
Atencionamente,
Administração do Fórum Adrenaline
Eu não sei aonda vc ver qualidade ruim nos filtros da NV. A não ser que use 2xAA e queria qualidade de 6x hehehe
HDR+AA é fato vir nessa nova geração, e com melhorias superiores...
Por acaso vcs lembra na materia que saiu falando que a NV pretende melhorar mais ainda a questão de filtros x Performance? "uma nova maneira de fazer AA" algo assim Vo ver se acho isso e posto aqui.
será que o SM 4.0 só vem nelas?
Tá bom armored acho que vc não sabe é analisar...isso sim. Não nem questão de gosto ou sei lá o que.
beyond3D? Eles são os donos da verdade? Se bobia o cara que disse isso usa um maldito oculos no grau errado uhauhauaha
para com besteira tu mesmo postou vários links do beyond shaft....onde q eu falei q eles SÂO donos da verdade? peguei como exemplo....mas ja conversei com outros users que até hj ainda usam Nvidia e mesmo assim admitem q existe uma diferença no AA das duas...e a diferença é shimmering,....NAO APARECE em SS. Se tu acha q eu não sei analisar blz, guarda isso pra ti e não fica me dando quote pra fica impondo o que tu pensa a respeito das coisas e falando que não sei julgar a qualidade da imagem no MEU PC só pq nao concordo contigo.
Até testes ja mostraram que ativando os recursos de AA da Nvidia, transparency AA, correção de gama....etc...ele fica igual o da ATI...mas aqui em casa na minha 7600GT isso fez ela perder muito desempenho. Mas os filtros em "default" pra quem nao meche em nada nos drivers PRA MIM são piores que o da ATI. E na época que eu constatei isso eu tava saindo de uma X800 e indo pra uma 7800GT SC CO, uma **** VGA...nunca me arrependi de ter comprado, mas q eu senti uma diferença nos filtros senti...até lembro que na época eu falei isso pro Blade no MSN .
Vou dar uma opinião aqui sobre esse tema do AA, através de uma experiência pessoal que tive ao fazer vários testes aqui em casa e debatendo com o pessoal do forum. O problema da nvidia na minha opinião está no equilibrio do driver ao se utilizar os modos AA e AF em conjunto e no ajuste do LOD. Ao jogar HL2 e Quake-4 que foram os jogos que utilizei nos testes. tem até um tópico que criei onde constatei isso. Ao se ajustar o lod para 0,50 eu consegui acabar com o shimering e ainda melhorei a qualidade do AA, só que piorei a qualidade do filtro AF, é como se o AF 16X se transoformasse num AF 14X e por incrivel que pareça ganhei 2 (dois) FPS a mais no local do teste. Ao se utilizar o LOD -0,5 o AF ficou perfeito só que o AA perdeu qualidade e a imagem passou sofrer com um nível muito pequeno de shimering e perdi 3 FPS na área do teste.
Na minha opinião o maior problema da nvidia está tão somente na fraca qualidade do filtro AF que a faz perder qualidade no AA e para não a acusarem de cheat ela utiliza um nível de LOD que deixe o shimering praticamente imperceptível e não a faça perder qualidade no filtro AF.
Se quiserem procurem o tópico que criei sobre o nhancer e tópico que o nobre D3lta criou sobre deferenças de AF ATI X NVIDIA principalmente as últimas páginas desse tópico.
Abraços a todos.
YESTERDAY I SAID I was chasing more info on the Nvidia G80 chip. The more I dug, the more my head hurt, nothing concrete, so take this with a pretty big grain of salt. In any case, there is some interesting info here.
The first thing is I was a little off on the dates, the tech day now seems more likely in late October with a launch in early November. What's a few weeks between friends? If they have not gotten back the latest silicon though, it is going to be really tight to make that schedule, chips take time to fab.
What they will talk about is the odd part. First is the arrangement of the chip, physically we are hearing that it is 2 * 2 cm, or about a 400mm die. Ouch. One of the reasons it is so big is the whole dual core rumor that has been floating around. G80 is not going to be a converged shader unit like the ATI R500/XBox360 or R600, it will do things the 'old' way.
Some people are saying that it will have 96 pipes, split as 48 DX9 pipes and 48 DX10. While this may sound like a huge number, we are told if this is the case, it is unlikely that you can use both at the same time. Think a 48 or 48 architecture. That said, I kind of doubt this rumor, it makes little sense.
In any case, NV is heavily downplaying the DX10 performance, instead shouting about DX9 to anyone who will listen. If the G80 is more or less two 7900s like we hear, it should do pretty well at DX9, but how it stacks up to R600 in DX9 is not known. R600 should annihilate it in DX10 benches though. We hear G80 has about 1/3 of it's die dedicated to DX10 functionality.
One of the other interesting points that surfaced is much more plausible but still odd, and that is memory width. As far as I know, GDDR3 is only available in 32-bit wide chips, same with the upcoming GDDR4. Early G80 boards are said to have 12 memory chips on them, a number that is not computer friendly.
Doing a little math, 12 * 32 gives you a 384b wide bus. On the odder side, if you take any of the common card memory capacities, 256 and 512MB and divide them by 12, you end up with about 21 or 42MB chips, a size not commonly found in commodity DRAMs. If 12 chips are destined for production, you will end up with a marketers nightmare in DRAM capacities, 384/768 is not a consumer friendly number.
While it could just be something supported by the GPU and not destined for production, you have to ask why they may need this. The thing that makes the most sense to me is that with all the added pipes, they needed more memory bandwidth. To get that, you can either go faster or go wider.
If you look at the cost of high end GDDR parts, faster is ugly. If you look at the yields of high end GDDR parts, faster is ugly. Drawing more traces on a PCB to go wider is far less ugly. If NVidia needed the bandwith that you can only get from a 384b wide bus, then the odd memory size may simply be a side effect of that.
In any case, the G80 is shaping up to be a patchy part. In some things, it may absolutely scream, but fall flat in others. The architecture is looking to be quite different from anything else out there, but again, that may not be a compliment. In either case, before you spend $1000 on two of these beasts, it may be prudent to wait for R600 numbers.
Agora voltem ao tópico!
Olhem a última especulação do Theinq... na verdade, só estão repetindo alguns rumores: bus de 384 bits? 'dual' core? Performance focada em DX9, com DX10 para compatibilidade?
fui
Não tem muito essa história da nVidia ser pior em DX10... Com o Vista, até a performance em DX9 vai melhorar. E pode ser que os primeiros jogos para DX10 apenas usem o DX10 como uma extensão do DX9, sem nada muito avançado. Talvez se os jogos DX10 usarem muito vertex texturing/geometry shaders, o R600 pode se superar. O Vertex Texturing em SM 3.0 da G71 é lentoooo, a ATi nem sequer implementou na X1K. Mas o Xenos consegue fazer com boa performance. Geometry Shaders é um mistério.
fui
ATI's R600 delayed until next year
Woe, woe and thrice whoah
By Fuad Abazovic: quinta-feira 14 setembro 2006, 09:39
WE EXPECTED to see R600 up and ready by the end of the calendar year but it looks like we are out of luck this time.
The acquisition of ATI made things and people a little bit insecure and out of focus, so the chip won't be read for December as originally planed.
We are sure that R600 team has got some problems as well but it looks like they can handle it but with a delay of course.
It looks like Nvidia's G80 will be out before but R600 still looks more attractive. This is what our own Charlie Demerjian reported he other day, here. Nvidia might have up to three months lead with its new high end product and this is a lot.
Until then, ATI has to hold the market attention with sub $ / € 399, R580+ Radeon X1950 XTX card. It doesn't sounds good for ATI in high end market.
gente, sem tanto aue....
So ter um pouco de paciência...
como tu mesmo disse....ninguem pode afirmar nada...e o Vertex Texturing em SM 3.0 DO G71 é lentoooo....vai saber se a Nvidia não deu um boost legal nele no G80 . E geometry shaders ninguem ainda tem muita ideia de como vai funcionar
é lento na NV mas a ATI só suporta um formato de textura pra isso no DX10 e nenhum no GL.. que útil...
A G80 está em produção as we speak.
TSMC: processo de 80nm Low-K.
Local de assemblagem dos PCB's : Flextronics (onde também se fabricam as Xbox 360 e os telemóveis SonyEricsson, por exemplo).
Nome de código do PCB: P355.
Primeiro lote: 50.000 unidades.
Tamanho da die é mais pequeno do que uma R580 ().
Cerca de 500 Milhões de transístores.
A arquitectura é tão secreta que somente um punhado de pessoas fora da Nvidia a conhece em detalhe.
O preço inicial será elevado, mas com performance a condizer.
se tiver XDR na G80, acho q a ATi vai se fu*** xD
cara, tipo assim, 65nm, vai ser tao pequeno, q de 600MHz pra 1GHz vai ser facílimo com um Watercooling.
estou correto?