Shader Model 3.0 feito direito nas ATI?!? (Bum!)

DeathCemetary disse:
Ah, não eskece de listar as Feature que a ATi tem e a nVidia não, por favor. Só vou lembrar que HDR+AA não é uma delas, pois a Geforce 6 faz também, só depende de como é feito o HDR.

Bem, até hoje eu não vi 'AA independente de ângulo nas Gforce 6', coisa que a ATI já demonstrou possuir.
Gostaria que essa técnica pudesse ser implantada nas Gforce 6 e 7, mas até hoje não vi isso.
E olhe que tenho uma GF 6600GT...
 
DeathCemetary disse:
Então larga de ser bobo e xingar a nVidia por causa de uma coisa que acontece por ordem da Microsoft. Tudo que sai de novo na área 3D sai pro OpenGL primeiro, porém a M$ monopoliza e libera quando quer no seu DirectX, mas isso vc não sabia né? DX = atraso.

Ah, não eskece de listar as Feature que a ATi tem e a nVidia não, por favor. Só vou lembrar que HDR+AA não é uma delas, pois a Geforce 6 faz também, só depende de como é feito o HDR.

Afff meu, não ta querendo dizer que a nVidia é a salvadora da humanidade né :lol: :rolleyes:

Cara, empresa é $$$$ lucro, dinheiro, o resto é balela, e todas são assim.

E sei sim como a Microsoft trabalha, pra tua informação gente que trabalha comigo trabalhou lá.. e DX não é atraso, é só uma tecnologia proprietária, como tantas outras..

E HDR+AA é uma feature da ATI sim, porque não tem nada mostrando que a nvidia consegue fazer :lol: :lol: :lol: senão mostra aí o videozinho que eu quero ver...

Shinigami
 
DeathCemetery disse:
Sm 3 roda nas nVidia como o Sm 2 roda nas ATi... ele vai ter performance sim...
mas agora, por favor, queria que me tirassem uma dúvida, o AA nativo das ATi é FSAA?

Se for FSAA, podem tirar o cavalinho da chuva, não vai ter AA no stalker não... toda placa tem AA nativo em hardware desde as GF1, que coisa mais cabaçal essa da ATi... e eu pensando que era algo útil...

Death eu estou entendendo tudo que vc quer dizer, li todos os post todos os quote da galera e sei que pelo menos todos chegam a uma mesma conclusao apesar da confusao :)

Mais sobre o que queria falar eh que a cada ano os jogos requerem mais do sistema sendo que jogos em 2006 acredito que vao abusar de SM3+HDR, nao to dizendo que o SM3 da nvidia é ruim, mais sim que o hardware que a 6600GT tem nao vai da pra acompanhar bem estes novos jogos (quando digo rodar bem... é pelo menos rodar com todas opções no maximo, pode ser parecer pedir muito, mais uma 9600XT na sua epoca rodava todos os jogos no talo (SM2), 6600GT teria que seguir esse ritimo, de rodar jogos SM3 no talo pelo menos sem filtros). SM3+HDR se torna muito pesado pra qualquer placa de video atual, por isso acredito que placas com SM3 como 6600GT para baixo nao vao se dar tao bem em 2006. imagine agora uma 6200...

Isso é o que eu to achando, mais estou aqui uma "discursao" e para aprender, se vc nao acha isso compartilhe com agente ou comigo sua opniao :)

Abraço
 
O que a galera quer dizer Death é que a ATi na Serie X1K tem um Hardware otimizado para se facilitar rodar HDR+AA sem tanta perca de performace e que a nVidia em suas placas atuais Serie 7 nao tem, sendo que ela vai ter que depender dos fabricantes de jogos...
 
Shinigami disse:
E HDR+AA é uma feature da ATI sim, porque não tem nada mostrando que a nvidia consegue fazer :lol: :lol: :lol: senão mostra aí o videozinho que eu quero ver...

Shinigami

Claro, a nvidia vai mostrar uma coisa que ja acontece á tempos? Pede pro teu ídolo Delta te explicar nossa conversa por msn pra vc ver se tem ou não AA+HDR, por que o HDR não funfa em alguns casos junto com AA... cara, tudo depende de como é feito... por exemplo, no SCCT o HDR é feito de tal modo que não funfa AA...
Vc pode fazer HDR+AA tranquilamente, só depende do desenvolvedor...

A Zona Azul também é um serviço proprietário e todo mundo chinga pois vc tem que pagar 50 centavos pra estacioanr seu carro por meia hora. Será que só eu sei que quando saiu o Sm3, o Sm2 nem tinha sido criado? Ele só foi criado com menos features que o Sm3 pra rodar na Radeon e ter varias melhoras sobre o Sm1.1? Rapaz, Sm3 existe no OpenGL 1.4, não precisava ter passado pelo Sm2. Foi a maior ladainha aquilo, a ATi arranjou um jeito de não perder uma linha toda de placas.
 
pr0digyo disse:
O que a galera quer dizer Death é que a ATi na Serie X1K tem um Hardware otimizado para se facilitar rodar HDR+AA sem tanta perca de performace e que a nVidia em suas placas atuais Serie 7 nao tem, sendo que ela vai ter que depender dos fabricantes de jogos...

Aí que entra o que sempre disse sobre modos de se fazer algo... vc pode fazer os shaders de um jeito que rode mal na ATi e bem na nVidia, ou o contrário.
Se você vê X800 rodar HDR+AA em jogos Sm2, pode apostar que vc pode ver 6600GT rodar HDR+AA em Sm3... o problema é que se os jogos forem fazer os shaders no padrão que a nVidia segue (nada de padrão microsoft), a ATi não vai pegar nem 1fps nos jogos...
Aí eles fazem o que? Fazem do jeito da ATi, pois ela é parceira da Microsoft e ninguem peita a microsoft...
 
DeathCemetary disse:
Claro, a nvidia vai mostrar uma coisa que ja acontece á tempos? Pede pro teu ídolo Delta te explicar nossa conversa por msn pra vc ver se tem ou não AA+HDR, por que o HDR não funfa em alguns casos junto com AA... cara, tudo depende de como é feito... por exemplo, no SCCT o HDR é feito de tal modo que não funfa AA...
Vc pode fazer HDR+AA tranquilamente, só depende do desenvolvedor...

No Tech Day da Ati, o nosso amigo Fla disse que tinha representantes da Ubi lá e que eles afirmaram que um patch com HDR+AA sairia em breve pras X1k.

um abraço.
 
Minha briga com o Death acabou no msn, no final, concordamos em postá-la aqui...

D3lta disse:
Kra, se tivesse mais uns 4 deaths no adrena, aquilo ia ficar massa
D3lta disse:
huauhauhauhhua

DeathMaximus - diz:
hueeuhuehue se tivesse 4 deltas eu saía
D3lta diz:
ahuahuahuhua
D3lta diz:
saia nada, aí q tu ficava de vez
D3lta diz:
nem ia pra praia mais. uhahuauhahu
D3lta diz:

DeathMaximus - diz:
oi?
DeathMaximus - diz:
heuheauheuh praia rlz
D3lta diz:
melhor..
DeathMaximus - diz:
cara, o que tanto tu não ta entendendo la
DeathMaximus - diz:
AA+HDR existe em toda placa
D3lta diz:

D3lta diz:
claro
D3lta diz:

D3lta diz:
apenas estamos discutindo as possibilidades..
DeathMaximus - diz:
eu tava achando que vc tava falando que a ATi tinha um AA que funfava em Deferred, nativo em hard
D3lta diz:
nao nao
DeathMaximus - diz:
então deu, x800 pra baixo não roda AA em Deferred
DeathMaximus - diz:
X1k roda, por causa do sm3
D3lta diz:
é que a confusão foi q eu entendi que vc afirmou que HDR+AA é possivel nas 6xxx usando deferred... acho q eu me confundi
DeathMaximus - diz:
mas é possivel sim
DeathMaximus - diz:
usar HDR + AA em deferred
DeathMaximus - diz:
cara, vc pode fazer isso em qualquer jogo... só depende do desenvolvedor
D3lta diz:
sim, mas aí q te perguntei: Porque a Nvidia não anuncia isso
DeathMaximus - diz:
por que não tem o que anunciar, depende do desenvolvedor
DeathMaximus - diz:
dependendo do jeito que for feito o HDR ,não vai rodar AA
DeathMaximus - diz:
do mesmo modo que existem formas de se fazer que não rodam AA na ATi
D3lta diz:
tá, tudo bem,
D3lta diz:
entendo
D3lta diz:
perfeitamente
DeathMaximus - diz:
o CryEngine por exemplo, tira AA quando liga HDR
DeathMaximus - diz:
TIRA AA, não to dizendo que não suporta
DeathMaximus - diz:
isso é o jogo que faz
D3lta diz:
olha
D3lta diz:
eu duvido
D3lta diz:
q seja o jogo q desliga
D3lta diz:
creio q isso é intencional do jogo
D3lta diz:
agora ele faz isso, porque se ligasse
DeathMaximus - diz:
ia dar artifact
DeathMaximus - diz:
sim
D3lta diz:
SERIA IMPOSSIVEL ter um gameplay saudável
DeathMaximus - diz:
além de tudo, ia dar artifact
DeathMaximus - diz:
a engine não tava preparada pra isso
DeathMaximus - diz:
é proposital sim delta
D3lta diz:
porém, aí q vai a grande pergunta: Já que Nvidia gastou milhões pagando pra crytek, pq ela não fez o serviço completo
D3lta diz:
HDR+AA
D3lta diz:
e
D3lta diz:
porque SCCT também não o fez
D3lta diz:

DeathMaximus - diz:
hueueehue tu sabe também o que seria impossível né
D3lta diz:
tendeu
D3lta diz:
se fosse fácil, já tinham feito
DeathMaximus - diz:
por que eles teriam que trocar o engine todo né delta
DeathMaximus - diz:
não é facil fazer numa engine ja pronta
D3lta diz:
no caso de SCCT naum
D3lta diz:
eles mexeram fundo na engine derivada de SCCT
D3lta diz:
ops UT4
D3lta diz:
bom, eu acredito q jogos HDR+AA vão começar a pipocar nas 6xxx e 7xxx
DeathMaximus - diz:
não se forem feitos em sm3
D3lta diz:
pois eles podem fazer de outras formas, além das nativas
DeathMaximus - diz:
tudo vc pode fazer de outra forma, esse é o problema
DeathMaximus - diz:
ehuaehaeuh
DeathMaximus - diz:
quem se alia á microsoft (alguém que suporte melhor o DirectX) faz de uma forma que a concorrente se foda... é facil
D3lta diz:
pois é, mas se obtem quase o mesmo resultado..., e em alguns casos melhor, veja HDR+AA da valve, e eles nem precisaram recriar do zero o source...
DeathMaximus - diz:
o engine source demorou 6 anos pra ser feito... ja tinham tudo esquematizado
D3lta diz:
nope
D3lta diz:
se tivesse, já teriam feito no lançamento do HL2
D3lta diz:
isso foi colocado depois que viram Farcry com aquilo
DeathMaximus - diz:
então
DeathMaximus - diz:
a ATi acho que não ia ser necessário ,como sempre
DeathMaximus - diz:
depois que viu, resolveu soltar a manga
D3lta diz:
e tanto é verdade isso q digo, q eles tiveram q estudar vários métodos e escolher o melhor depois do lançamento, segundo o gabe
DeathMaximus - diz:
acredite, o engine source é parrudo
D3lta diz:
Que mal tem ATI ser parceira da M$ graças a esta parceria, vc tem sua 9800PRO rodando a bons FPS na maioria dos games
DeathMaximus - diz:
graças a essa parceria eu to usando sm2
DeathMaximus - diz:
sem ela, agente ja tava no shader 3
DeathMaximus - diz:
com HDR
D3lta diz:
hummmm
D3lta diz:
é uma tese
DeathMaximus - diz:
cara, a Microsoft segura tecnologia
DeathMaximus - diz:
tudo sai primeiro em openGL
D3lta diz:
sai nao
DeathMaximus - diz:
sai sim
D3lta diz:
oGL tem um ciclo de renovação bem mais lento q qualquer outra engine
D3lta diz:
ops API
DeathMaximus - diz:
ja ia falar que não era engine
D3lta diz:

D3lta diz:
olha o SM3
D3lta diz:
por exemplo
DeathMaximus - diz:
cara, SM3 ja é suportado desde o Ogl1.4
D3lta diz:
não é nativo do oGL
D3lta diz:
eles colocam como uma extensão da API
D3lta diz:
que usa quem quer
D3lta diz:
ou quandos games oGL rodando SM3 vc conhece já
DeathMaximus - diz:
a m$ deixa?
D3lta diz:
ué, a ID não fez
DeathMaximus - diz:
o unico que teve peito pra fazer um jogo em Ogl foi a ID
DeathMaximus - diz:
ID não fez em Sm3, olha a época cara
D3lta diz:
M$ não conseguiu segurá-la, ela já deveria ter usado o SM3 naquela eca de Doom3
DeathMaximus - diz:
e quem te disse que Sm 3 nao é nativo em openGL?
DeathMaximus - diz:
não dava pra usar ainda
DeathMaximus - diz:
ia perder fatia do mercado
D3lta diz:
hummmm
D3lta diz:
nativo não é, ele é uma feature, que usa quem tem o hardware disponível, ou seja, é uma implementação de terceiros
DeathMaximus - diz:
ou seja, a M$ segurou o Sm3 por muito tempo no DX9.0c
DeathMaximus - diz:
alias, segurou tanto que acabou fazendo o Sm 2 antes
D3lta diz:
é, mas a evolução entre 1.1 e 2.0 foi boa, isso vc tem q concordar.. tem coisa q é impossivel de se fazer no 1.1, já no 2.0, tem muito mais poder pra isso
DeathMaximus - diz:
alias, posta la no fórum que AA+HDR existe em todas as placas por que teus soldadinhos vermelhos não tão acreditando
D3lta diz:
ahhhhh
DeathMaximus - diz:
na época que o 2.0 foi criado, o 3.0 ja existia
DeathMaximus - diz:
ou seja, não tinha pra que segurar
D3lta diz:
já, mas a NVidia queria comandar a coisa
D3lta diz:
ai ATI+M$ seguraram ela
D3lta diz:
e ela teve que fazer as pressas o NV30, com FP32, contra FP24
D3lta diz:
deu no que deu
DeathMaximus - diz:
calma
DeathMaximus - diz:
ela teve que implementar um sm2 meia boca ás pressas
DeathMaximus - diz:
FP32 não tem nada com essa história
D3lta diz:
bom, de certa forma, tem a ver em partes
D3lta diz:
pois a NV faz mais esforço para processar em FP32 , do que as Radeons em FP24.. Tá certo que isso não é o diferencial, mas tem sua parcela na conta geral de desempenho
D3lta diz:
claro que não era só isso
D3lta diz:
outros fatores aí adicionam mais torque na GPU da ATI
D3lta diz:
como um projeto nascido 2.0
D3lta diz:
e otimizado
D3lta diz:
não uma coisa SM3.0 e depois convertida as pressas para 2.0
DeathMaximus - diz:
além do modo em como os shaders são escritos
DeathMaximus - diz:
que é a maior limitação das ATi , mais até que o Fp24
D3lta diz:
ahh sim, FP24 nem é limitação
DeathMaximus - diz:
não?
DeathMaximus - diz:
por que não?
D3lta diz:
pra época, não
D3lta diz:
pra hoje, sim
D3lta diz:
mas creio que NV cometeria um erro muito grande se lançasse SM3.0 a 4 anos atrás
D3lta diz:
seria algo, como se a X1K lançasse SM5.0 hoje
DeathMaximus - diz:
não
D3lta diz:
ou seja , ia ficar sozinha, pois nem existe uso direito sobre SM3.0, quanto mais um 5.0
DeathMaximus - diz:
pois não tinha sm2 na parada
DeathMaximus - diz:
não foi a nvidia que lançou sm3
DeathMaximus - diz:
Sm 3 é padrão da SGI, não foi criado pela nV
D3lta diz:
nao falei criado pela NV e sim lançado (apoiado) por ela
DeathMaximus - diz:
isso que nego tem que entender, a ATi não pode lançar Sm5.0 pois não existe base pra ela fazer
DeathMaximus - diz:
a SGi tem que lançar antes
DeathMaximus - diz:
á não ser que a ATi adcione Truform feito por shader e de o nome de SM5,0, aí vai ser palhaçada
D3lta diz:
pois é, mas quem implementar o padrão primeiro, pode tentar lançar, ATI ou NV tem que marcar passo
D3lta diz:
pois se tentarem lançar algo muito cedo
D3lta diz:
perdem o apoio dos desenvolvedores, e entram em choque com todas as placas já existentes no mercado
DeathMaximus - diz:
a ATi só fez o Sm2.0 por que era parceira da M$
DeathMaximus - diz:
senão ia entrar em choque
D3lta diz:
creio que ná epoca do SM2.0,, M$ e ATI tiverem meio q esta visão
D3lta diz:
creio que o próximo passo é SM4.0, e o G80 vai sair na frente
D3lta diz:
mas NV tem q tomar cuidado, senão lança algo e fica isolada com SM3.0 na concorrencia e com ela própria
DeathMaximus - diz:
sm4...
DeathMaximus - diz:
cara, a SGI não lançou como padrão ainda
DeathMaximus - diz:
se bem que pelo atraso que o Sm2.0 deu, a SGI ja deve estar pra fazer o 4 mesmo
D3lta diz:
sim, mas acredito q até final do ano q vem, eles já definam tudo
DeathMaximus - diz:
tudo pelo tempo que ficamos usando o sm2 ao inves do 3
D3lta diz:
e o X360 já tem um shader 4.0 nela, ATI já está testando nos VGs
D3lta diz:

DeathMaximus - diz:
lógico
DeathMaximus - diz:
ficamos 2 anos usando Sm2 quando poderíamos usar sm3... o Sm4 ja tava sendo pesquisado... a SGI não para por causa de Ati e nVidia...
D3lta diz:
ahhh, mais sm3 envolve uma GPU muito mais fudidona, as FXs poderiam nem conseguir rodar bem, assim como muitos afirmam que a 6xxx é podre ao rodar SM3.0
D3lta diz:
talvez, foi até bom pra NV
DeathMaximus - diz:
podre nada
DeathMaximus - diz:
é que os shaders são feitos de forma propícia pra ati
D3lta diz:
to falando do sm3
DeathMaximus - diz:
ou seja, armazena tudo e vai usando aos poucos... shaders curtos e massivos
D3lta diz:
tinha nego no adrena falando que o sm3 nas 6xxx era podre
DeathMaximus - diz:
eu sei
D3lta diz:
e eu sempre questionei, como podiam ter ctz
DeathMaximus - diz:
mas é o modo de como o shader é programado
D3lta diz:
ué, mas se eu programo para SM3.0, eu vou usar shader longo, meu caro death
DeathMaximus - diz:
cara da pra fazer Sm2 rodar mal em ATi, acredite, só escrever shaders longos e em menor quantidade
DeathMaximus - diz:
não necessariamente
DeathMaximus - diz:
pois se vc usar assim, vc perde a fatia de mercado das x800 pra baixo
D3lta diz:
nao
D3lta diz:
vc tá confundindo
D3lta diz:
code em SM3 não roda retroativamente em SM2, é outro seguimento de código
D3lta diz:
tem q ser reescrito tudo
D3lta diz:
por exemplo , o HDR so SCCT é bem grande
D3lta diz:
e roda SM3
D3lta diz:
já HDR nas ATI com o patch 1.4, teve um shader totalmente re-rescrito
D3lta diz:
re-escrito
DeathMaximus - diz:
então
D3lta diz:
SM3 é nativamente longo
DeathMaximus - diz:
vc perde a fatia do x1k
D3lta diz:
não existe razão para escrevelos pequenos
DeathMaximus - diz:
não mesmo, pois a x1k usa os shaders do modo da nVidia agora né
D3lta diz:
claro amiguim
DeathMaximus - diz:
pra vc ver o atraso que foi a x800 e R9800
D3lta diz:
pq SM3 tem dyn branching, e vc usufrui melhor disso com shaders longos
DeathMaximus - diz:
então
D3lta diz:
a GPU não tem q terminar o processo do shader e carregar outro
D3lta diz:
está tudo na mesma unidade de execução
DeathMaximus - diz:
aposto que a ATi faz diferente um pouco pra rodar melhor cara... e as empresas vão usar esse modo
D3lta diz:
ATI quebra o shader em unidades menores
D3lta diz:
por isso q tem q ser re-escrito
D3lta diz:
agora faz sentido usar SM3 com codes longos
DeathMaximus - diz:
aham
DeathMaximus - diz:
na verdade o padrão de shader era ser longo, só o Sm2 é curto pois vc sabe né...
D3lta diz:
eu sei, aí NVIDIA tinha otimizado o shader longo, pq o projeto inicial era SM3, e aí precisou aderir ao SM2.0 as pressas, concorrendo contra um projeto verdadeiramente SM2.0
D3lta diz:
aí ela se FU
DeathMaximus - diz:
essa conversa aki foi mais lucrativa que qualquer trocar de posts no fórum, acho que deveria ser postada... vou la tomar cafézin, ja volto
DeathMaximus - diz:
isso mesmo
D3lta diz:
e marcou uma geração de placas, com o simbolo da besta. uhauhuhauhahua
D3lta diz:

DeathMaximus - diz:
é, 222
DeathMaximus - diz:
heuehheh vou cafezar
D3lta diz:
flw
D3lta diz:

DeathMaximus - diz:
posta umas screens da conversa, vai esclarecer muito nego
DeathMaximus - diz:
fui
D3lta diz:
BLZ




Ps.. mas isso não significa que não possamos reabrir a guerra novamente... :D :D
 
Credo, não li tudo mas vi umas besteiras que é bom exclarecer:

1 - Desde muito tempo eu tenho visto gente relacionando HDR co SM3, sendo que um não depende do outro de forma alguma! Outra: HDR com FP16 ja é absurdamente pesado, ninguém nem pensa em utilizar HDR com FP32 death, não sei de onde vc tirou isso.Além disso não existe HDR com FP24, o HDR que a valve utilizou não é nem de ponto flutuante pra começo, e ele também não é um shader, HDR é uma imagem com niveis bem maiores que uma imagem RGB ou ele usa um RGBA colocando a irradiancia no canal Alpha, então death falou besteira quando falou que HDR "não passa de um shader". :p

2 - Death pelo jeito não entendeu o que é o AA por shader. Pra começar, AA em shader não substitui o AA normal, acho que faltou entender esse ponto principal, AA em shader complementa o MSAA. Primeiro, entenda que o MSAA detecta as bordas dos poligonos para fazer a suavização e retirar o serrilhado. Porém, quando vc tem uma superficie deformada com mapas de normal (pode ser parallax occlusion por exemplo), ele é um efeito de pixel shader, ou seja, não tem poligonos, logo, o MSAA não vai detectar e não vai suavizar, o demo de parallax occlusion que o oldman postou um tempo atras vc notava isso, mesmo ligando AA ele não suavizava os contornos formados pelo normal map. Inclusive eu perguntei pro Oldman sobre a falta do AA e ele me explicou o que eu acabei de falar acima: sem poligonos o AA tem que ser feito por shader. Então volta pro começo, o AA do stalker usando deferred shader é exatamente pra complementar o MSAA, portanto se vc ligar HDR na nVidia com FP16 ele não vai funcionar o MSAA independente de utilizar deferred shader ou não, ele só vai fazer AA nas superficies que utilizam normal map, sacou death? Então separa as coisas, nVidia não faz MSAA com HDR ligado pela falta de blend com FP16 como eu ja falei antes e não é o deferred shader que vai ligar o MSAA, ok?

3 - É um pouco desanimador o que eu vou falar, mas a real é que a G70 realmente não é só um NV40 "requentado", ele teve uma boa evolução e pelo que eu andei estudando um dos pontos que ele evoluiu foi nos dynamic branch, infelizmente parece que as GF6x00 não são muito eficientes nos IF e Else e por isso ele esta bem melhor no G70, logo eu tenho minhas duvidas de como uma GF6600 por exemplo vai rodar um jogo forrado de SM3... :(

4 - Outro ponto que eu vi falaram é no FSAA (Full Scnee Anti-Alias), por favor, FSAA é coisa de GF2, ninguém utiliza FSAA porque ele é extremamente lento, o que ele é faz é processar a imagem em tamanho maior e reescalonar, os AA de hoje são o MSAA (Multi Sample Anti-Alias) que eu falei acima, detectando as bordas e fazendo AA só onde é necessário. :p

Bom, espero ter esclarecido algumas duvidas...

[]´s

Flávio
 
PYRON disse:
No Tech Day da Ati, o nosso amigo Fla disse que tinha representantes da Ubi lá e que eles afirmaram que um patch com HDR+AA sairia em breve pras X1k.

um abraço.

Pois o modo em que o HDR é feito não possibilita AA pras ATi...

Por exemplo no SCCT, que o HDR é feito de tal modo que o AA não é suportado... talvez tenha patch :)
 
Fla3DMadness disse:
Credo, não li tudo mas vi umas besteiras que é bom exclarecer:

1 - Desde muito tempo eu tenho visto gente relacionando HDR co SM3, sendo que um não depende do outro de forma alguma! Outra: HDR com FP16 ja é absurdamente pesado, ninguém nem pensa em utilizar HDR com FP32 death, ...


Ótimo Post Fla,

Só discordo sobre não existir HDR com FP24. ATI já fazia desta forma através do demo do Paul Debevec usando as specs da DX9.0 (Full FP24 compatible) , isso quando a saudosa 9700 deu as caras pela primeira vez.

Note que este demo funciona nas 6xxx também, pois internamente ela converte o FP24 para PF32, permitindo ter desempenho suficiente.

Nas FX, por questões de desempenho não rodaria legal. (Alguém quer testar aeee?)


http://www2.ati.com/misc/demos/ATI-9700-DebevecRNL-Demo-v1.1.exe

Detalhe: Esta técnica não usa FP16 Blending (com framebuffer), e quebra o algorítimo de outra forma das efetuadas na série 6xx e X1K... Não tenho certeza, mas deve ser semelhante ao projeto da Valve, já que o Debevec trabalhou no colo do gabe... :D :D

Abraço
 
fui testar esse demo do debevec q o delta falou dai qnd eu botei pra rodar na tela do loading, sai do negocio e mostra um bloco de notas com um error:

//=====================================================
// ATI Sushi Error Log Created 10/15/2005 8:55 pm
//=====================================================
[AwFn.cpp] (line 2959): D3DAw Error: AwCreateRenderableTexture - Unable to create color texture object
[StartEnd.cpp] (line 1401): Error creating color buffer "cReflection"!
[Main.cpp] (line 696): Normal Application Exit
 
Lord Nikon disse:
fui testar esse demo do debevec q o delta falou dai qnd eu botei pra rodar na tela do loading, sai do negocio e mostra um bloco de notas com um error:

//=====================================================
// ATI Sushi Error Log Created 10/15/2005 8:55 pm
//=====================================================
[AwFn.cpp] (line 2959): D3DAw Error: AwCreateRenderableTexture - Unable to create color texture object
[StartEnd.cpp] (line 1401): Error creating color buffer "cReflection"!
[Main.cpp] (line 696): Normal Application Exit
Pois é, não saberia dizer o que é esse bug. Talvez não rode mesmo...


Abraço
 
DeathCemetary disse:
Claro, a nvidia vai mostrar uma coisa que ja acontece á tempos? Pede pro teu ídolo Delta te explicar nossa conversa por msn pra vc ver se tem ou não AA+HDR, por que o HDR não funfa em alguns casos junto com AA... cara, tudo depende de como é feito... por exemplo, no SCCT o HDR é feito de tal modo que não funfa AA...
Vc pode fazer HDR+AA tranquilamente, só depende do desenvolvedor...

A Zona Azul também é um serviço proprietário e todo mundo chinga pois vc tem que pagar 50 centavos pra estacioanr seu carro por meia hora. Será que só eu sei que quando saiu o Sm3, o Sm2 nem tinha sido criado? Ele só foi criado com menos features que o Sm3 pra rodar na Radeon e ter varias melhoras sobre o Sm1.1? Rapaz, Sm3 existe no OpenGL 1.4, não precisava ter passado pelo Sm2. Foi a maior ladainha aquilo, a ATi arranjou um jeito de não perder uma linha toda de placas.

Putz, cada vez eu tenho que rir mais contigo. Grande coisa que o SM3.0 já tava aí antes do 2.0 (se isso for verdade, vou olhar ainda) porque ninguem usou então? Será que a ATI tem tanto poder assim? :lol: :lol: :lol:

Shinigami

Ps. Sou muito amigo do D3lta, mas ele não precisa me explicar nada, o HDR+AA pode até existir na nVidia, mas aí tem 2 perguntas. será por hardware? Qual será o desempenho?

Shinigami
 
Acho que todos tem sua ponta de razão e também de erro aqui. Um ponto muito importante aqui é, que todos tem um conhecimento de algo aqui e ali, o importante é o conhecimento que é compartilhado por todos, mais o que é essencial é que ninguém é dono da verdade, mais ela está aí para ser descoberta, por isso é importante discussões como esta para esclarecer a todos sobre ela, a "Verdade".
 
aê, aqui funcionou ...

Lord Nikon disse:
fui testar esse demo do debevec q o delta falou dai qnd eu botei pra rodar na tela do loading, sai do negocio e mostra um bloco de notas com um error:

//=====================================================
// ATI Sushi Error Log Created 10/15/2005 8:55 pm
//=====================================================
[AwFn.cpp] (line 2959): D3DAw Error: AwCreateRenderableTexture - Unable to create color texture object
[StartEnd.cpp] (line 1401): Error creating color buffer "cReflection"!
[Main.cpp] (line 696): Normal Application Exit

Tenta editar o arquivo sushi.ini e coloca os dados abaixo:

//============================================================================
// Sushi.ini - Engine initialization
//============================================================================
// $Header: //depot/3darg/Demos/R400/Rhino/Rel/Sushi.ini#10 $
//============================================================================

demoName = "Paul Debevec's\\nRendering With Natural Light\\nIn Real-Time"
logo2 = F

resolution = 1024x768
multisampleType = 4
fullScreen = T
aspect = 4x3

vsync = F
numBackBuffers = 8
forceColorClear = T

music = T
soundfx = T

cycleAllModes = F
//productInfo = F
//launchMode = F
//avi = T
//aviFPS = 29.97

falow.... :D :D :D
 
Fla3DMadness disse:
Credo, não li tudo mas vi umas besteiras que é bom exclarecer:

1 - Desde muito tempo eu tenho visto gente relacionando HDR co SM3, sendo que um não depende do outro de forma alguma! Outra: HDR com FP16 ja é absurdamente pesado, ninguém nem pensa em utilizar HDR com FP32 death, não sei de onde vc tirou isso.Além disso não existe HDR com FP24, o HDR que a valve utilizou não é nem de ponto flutuante pra começo, e ele também não é um shader, HDR é uma imagem com niveis bem maiores que uma imagem RGB ou ele usa um RGBA colocando a irradiancia no canal Alpha, então death falou besteira quando falou que HDR "não passa de um shader". :p

Date and Time: 04/05/2005 05:35 PM
You have received a message from OldMan
que substituir HDR? HDR é um modelo de iluminacao.. nao é algo que tenha na placa
Date and Time: 04/05/2005 05:35 PM
You have received a message from OldMan
é um shader
Date and Time: 04/05/2005 05:35 PM
You have received a message from OldMan
é so um shader.. masi dana.. aliás é um HDR

(isso é do mes passado acho)

2 - Death pelo jeito não entendeu o que é o AA por shader. Pra começar, AA em shader não substitui o AA normal, acho que faltou entender esse ponto principal, AA em shader complementa o MSAA. Primeiro, entenda que o MSAA detecta as bordas dos poligonos para fazer a suavização e retirar o serrilhado. Porém, quando vc tem uma superficie deformada com mapas de normal (pode ser parallax occlusion por exemplo), ele é um efeito de pixel shader, ou seja, não tem poligonos, logo, o MSAA não vai detectar e não vai suavizar, o demo de parallax occlusion que o oldman postou um tempo atras vc notava isso, mesmo ligando AA ele não suavizava os contornos formados pelo normal map. Inclusive eu perguntei pro Oldman sobre a falta do AA e ele me explicou o que eu acabei de falar acima: sem poligonos o AA tem que ser feito por shader. Então volta pro começo, o AA do stalker usando deferred shader é exatamente pra complementar o MSAA, portanto se vc ligar HDR na nVidia com FP16 ele não vai funcionar o MSAA independente de utilizar deferred shader ou não, ele só vai fazer AA nas superficies que utilizam normal map, sacou death? Então separa as coisas, nVidia não faz MSAA com HDR ligado pela falta de blend com FP16 como eu ja falei antes e não é o deferred shader que vai ligar o MSAA, ok?

Hum... dessa não sabia, mas pelo que imagino a única saída é usar FP16 mesmo. Então daonde vem aquelas histórias do D3lta que falava que a ATi fazia AA em FP24bits?

3 - É um pouco desanimador o que eu vou falar, mas a real é que a G70 realmente não é só um NV40 "requentado", ele teve uma boa evolução e pelo que eu andei estudando um dos pontos que ele evoluiu foi nos dynamic branch, infelizmente parece que as GF6x00 não são muito eficientes nos IF e Else e por isso ele esta bem melhor no G70, logo eu tenho minhas duvidas de como uma GF6600 por exemplo vai rodar um jogo forrado de SM3... :(

Bom, na época que falei com o old sobre isso ele mesmo me disse que a Gf6 rodaria satisfatóriamente, veja: (isso é do mes passado acho)

Date and Time: 10/02/2005 02:04 PM
You have received a message from OldMan
nem vale gastar muito esforço.. os jogos com deferred vao ser pesados demais pra placas velahs. E o pessoal que comrap ATI top vi comprar ATI com PS 3.0 logo que sairem
Date and Time: 10/02/2005 02:05 PM
You have sent a message to OldMan
ou seja, tanto Radeon 9xxx e Xxxx series quanto nVidia FX e 6xxx series não aguentam o tranco em FP32 e ps3? Ou o problema não é tanto o ps3, e sim o deferred com FP32?
Date and Time: 10/02/2005 02:06 PM
You have received a message from OldMan
serie 6xxx nnão tem nada ve rcom essa história.. elas fazem tudo que as G70 fazem
Date and Time: 10/02/2005 02:06 PM
You have received a message from OldMan
menso o antialiasign especializado em trasnparaencias
Date and Time: 10/02/2005 02:06 PM
You have sent a message to OldMan
mas aguentam rodar em fps satisfatorios:?
Date and Time: 10/02/2005 02:06 PM
You have received a message from OldMan
claro


4 - Outro ponto que eu vi falaram é no FSAA (Full Scnee Anti-Alias), por favor, FSAA é coisa de GF2, ninguém utiliza FSAA porque ele é extremamente lento, o que ele é faz é processar a imagem em tamanho maior e reescalonar, os AA de hoje são o MSAA (Multi Sample Anti-Alias) que eu falei acima, detectando as bordas e fazendo AA só onde é necessário. :p

MSAA ou não, não é capaz de suavizar a imagem né Fla, portanto o AA em shader, sendo complemento ou não, é o que vai fazer todo o serviço.


[]´s

Flávio gayzão[/QUOTE]
 
DeathCemetary disse:
Hum... dessa não sabia, mas pelo que imagino a única saída é usar FP16 mesmo. Então daonde vem aquelas histórias do D3lta que falava que a ATi fazia AA em FP24bits?


Na verdade amiguin Deafi, a GPU do R3xx converte internamente tudo que é tipo para FP24, ou seja, INT16, FP16, FP12, FP32(com perdas) etc, tem o mesmo desempenho, pois a GPU trabalha independente do tipo. Sabia também que as X1K trabalham internamente sempre a 128bits FULL-SPEED? Sabia disso? Essa é uma forma de fazer as coisas no estilo ATI.

Já nas FXs, a NVidia, fez uma unidade de processamento específica para cada tipo, por isso que vc tem que usar FP16 para determinadas operações.

Quanto ao HDR em 24bits, esta informação peguei do próprio site do Debevec a algum tempo atrás, sem falar que isso era uma das principais features no DX9.0 na época do lançamento da 9700, ou seja, High range.

As FXs por não terem FP24, internamente elas convertiam tudo para FP32, aí nem preciso falar do resto... :lol:



DeathCemetary disse:
MSAA ou não, não é capaz de suavizar a imagem né Fla, portanto o AA em shader, sendo complemento ou não, é o que vai fazer todo o serviço.

[]´s

Flávio gayzão
[/QUOTE]


Défi, pelo q eu entendi o FLA, não vai ter serviço direito , se usar só AA puro, ou só Shader, ou seja, não atinge qualidade boa, se não trabalhar com as duas técnicas juntas, se ajudando mutuamente.

Portanto Caiu por terra sua teoria de que o shader de AA resolve tudo.



Abraço
 
sombini disse:
Tenta editar o arquivo sushi.ini e coloca os dados abaixo:

//============================================================================
// Sushi.ini - Engine initialization
//============================================================================
// $Header: //depot/3darg/Demos/R400/Rhino/Rel/Sushi.ini#10 $
//============================================================================

demoName = "Paul Debevec's\\nRendering With Natural Light\\nIn Real-Time"
logo2 = F

resolution = 1024x768
multisampleType = 4
fullScreen = T
aspect = 4x3

vsync = F
numBackBuffers = 8
forceColorClear = T

music = T
soundfx = T

cycleAllModes = F
//productInfo = F
//launchMode = F
//avi = T
//aviFPS = 29.97

falow.... :D :D :D


Legal, tem como vc por umas SS com fraps, para termos ideia de quanto funcional ficou?

E qual sua FX, ou vc testou numa 6600 igual a minha?
 
Shinigami disse:
Putz, cada vez eu tenho que rir mais contigo. Grande coisa que o SM3.0 já tava aí antes do 2.0 (se isso for verdade, vou olhar ainda) porque ninguem usou então? Será que a ATI tem tanto poder assim? :lol: :lol: :lol:

Shinigami

Ps. Sou muito amigo do D3lta, mas ele não precisa me explicar nada, o HDR+AA pode até existir na nVidia, mas aí tem 2 perguntas. será por hardware? Qual será o desempenho?

Shinigami


Shini, O Interessante é que antes, o argumento "Xiita" do Défi, era que NÃO DAVA PRA FAZER nas X800, e depois da comprovação do HDR e outras coisinhas, agora o argumento dele é : Depende do programador. :lol:

Acho q ele acabou entendendo algumas coisas que falávamos lá trás , naqueles tópicos SM2.0 x SM3.0.



Abraço
 
trueguy disse:
Bem, até hoje eu não vi 'AA independente de ângulo nas Gforce 6', coisa que a ATI já demonstrou possuir.
Gostaria que essa técnica pudesse ser implantada nas Gforce 6 e 7, mas até hoje não vi isso.
E olhe que tenho uma GF 6600GT...

Agora que li isso, cara, AA que depende do angulo sempre existiu, mas sómente na ATi...

As Gf2 fazem AA independentemente do angulo, a ATi que fazia esses truques pra fazer AA restrito em alguns angulos... como vc acha que as Radeons eram mais velozes com AA ligado? O bom disso é que vc não sente a diferença, é uma ótima técnica... porém agora a ATi vem falar que faz AA independentemente do angulo, isso é normal...

Shinigami disse:
Putz, cada vez eu tenho que rir mais contigo. Grande coisa que o SM3.0 já tava aí antes do 2.0 (se isso for verdade, vou olhar ainda) porque ninguem usou então? Será que a ATI tem tanto poder assim? :lol: :lol: :lol:

Shinigami

Ps. Sou muito amigo do D3lta, mas ele não precisa me explicar nada, o HDR+AA pode até existir na nVidia, mas aí tem 2 perguntas. será por hardware? Qual será o desempenho?

Shinigami

0 - Ati não tem poder, o que tem poder na jogada era a Microsoft.

1- AA sempre é feito por hardware, tira da cabeça que e só a ATi que faz.

2- Se eu soubesse eu estava ganhando 100 000 dólares por mês trabalhando na SGI e não ficava entrando no fórum. :D :D
 
D3lta disse:
Shini, O Interessante é que antes, o argumento "Xiita" do Défi, era que NÃO DAVA PRA FAZER nas X800, e depois da comprovação do HDR e outras coisinhas, agora o argumento dele é : Depende do programador. :lol:

Acho q ele acabou entendendo algumas coisas que falávamos lá trás , naqueles tópicos SM2.0 x SM3.0.



Abraço

E o seu argumento Sunita de que SM2 fazia tudo que o Sm3 também caiu legal agora...
Mas que depende do programador não é argumento, é fato. Eu nunca disse que HDR não podia ser feito nas radeon, até por que HDR não é feature, muito menos do SM3...

Défi, pelo q eu entendi o FLA, não vai ter serviço direito , se usar só AA puro, ou só Shader, ou seja, não atinge qualidade boa, se não trabalhar com as duas técnicas juntas, se ajudando mutuamente.

Portanto Caiu por terra sua teoria de que o shader de AA resolve tudo.



Abraço

Não, outro AA não funciona... acho que o Fla ta equivocado... leiam :

=CAB=DeathCemetary (03:08 PM) :
sei, mas o que o Fla disse, que a nVidia n'ao pode fazer MSAA com HDR ligado pela flata de blend com FP16 . Isso eh correto?
OldMan (03:10 PM) :
não é um problema tão simples.. é correlacionado a isso. E isso não é diretemaente ligado ao não FSAA com HDR. HDR pode ser feito sem alpha, sem blend sem nada disso!!
OldMan (03:10 PM) :
As pessoas tem pego uma unica tećnica de HDR e tratado ela como se fosse a única existente

Essa frase é chave aqui agora...
 
pr0digyo disse:
LoL, cara vc eh comedia...

Eu nao to aqui pra provar que SM2 eh melhor que SM3, longe disso... so to argumentando que a ausencia de SM3 nas X Series nao faz tanta diferença 2004/2005 foi o ano do SM2 ainda!....

Pessoas que tem placas "tops" como 6800GT/X800XT, pessoas que tem essa placa é mais facil vender pra comprar outra top do nivel 7800GTX/X1800XT

Eu quero ver vc com sua 6600GT rodar satisfatoriamente todos os jogos Full SM3 e HDR em 2006! nao tem pra onde correr... se tu for querer aproveitar o SM3 e HDR como vc pensou quando vc comprou sua placa (que eu aposto que seu argumento pra comprar essa placa foi pq ela tem "Shader Model 3"), sinto muito vc vai ter que comprar outra placa...



NADA disto meu único argumento na compra de uma 6600GT FOI O CUSTO X BENEFÍCIO:ohgod: :ohgod: Imbátivel; e que a Ati provavelemnte nem sabe do que se trata!!!!:said: OU O QUE SEJA ESTE TAL DE CUSTO X BENEFÍCIO




PS: Caldas num falei de vc porque já falei vc e caso crõnico aHUAhuaUHAuhahUUHAhuaUHAhuaUH:lol: :lol: :lol: BRINCADEIRA!!!! aBRAÇO CHEFIA
 

Users who are viewing this thread

Voltar
Topo