A Ati Usa Tudo Que Oferece???

Rubra

OwtDemun
Registrado
Todo mundo aki (dekiu =* e C.V.A.) mete o pau na placas da nvidia, falando que a nvidia engana o povo por não usar tudo que a placa oferece, nem usa todos os recurso e bla bla bla...
e AFINAL, as placas da ATI por acaso usam todos os seus maravilhosos recursos??
E DEKER, sabemos do seu fanatismo, mas se a ati realmente não usar tudo que fala, não bana ninguem ou comece uma discussão homérica aki no fórum mais uma vez!
[]´s
 
Depois de um tempinho lendo o fórum aqui, o que eu entendí é que o hardware da ATi é muito bom, tem uma boa capacidade, mas o problema da ATi seria os drivers que não utilizam tudo que a placa tem. Me corrijam se eu estiver errado por favor :D
 
Sei, sei...
e depois ficam falando da nvidia....
que engana a galera.....a nvidia tem 100000 mas quase não usamos isso tudo.
e a ati, realmente usa o que tem?
 
up para nossas duvidas:D
 
vc deve ter lido algo assim

pra q compra um nv30 se nao se pode usar o q ele oferece,

vc deve ter intendido errado , isso quer dizer q nenhum jogo é dx9 ou usa as tecnologias q a placa oferece , isso tb ocorre com a r9700 , e sempre ocorre com todas as placas novas , saem com mil e uma tecnologias novas , sendo q todas so começaram a serem usada 1 ou 2 geraçoes depois como foi o caso do aniso

num sei se era essa a sua duvida

fui
 
???
eu acho que o esquema eh o seguine:
a nvidia lançou geforce 3, incorporando altas tecnologias novas em relação a 2 e talz, foi um otimo lançamento.
Ai a ATI lançou a r8500 e quebro todas gf3...ai a nvidia se mexeu e começou um projeto novo, que futuramente se chamaria nv30.
mas o tempo passa e os problemas aparessem e nem tudo tudo eh doce na vida, o nv30 empaca e a nvidia nao sai do lugar com o projeto. Entao ela pensa, temos que desbancar a ATI de qualquer geito, pega uma gf3, poem um clock maior, muda a arquitetura um poco pra aguentar esse clock e chama isso de geforce 4....ai a gente fica com gf4 melhor que as radeon até essa porra de projeto desempacar !!! pq esse sim revolucionará com relação a novas tecnologias, as gf4 é so um tampão enquanto gefroce fx nao chega !!!

bom, isso ai eh uma historinha que eu inventei, pode ser a maior bobagem da historia mas pelo menos eh uma teoria para o lançamento das geforce 4, que sao boas placas mas que nao inovaram em nada.
 
Tu com essa teoria da "GeForce4 tampão" já encheu o saco! :mad:

Vai ler e estudar um pouco antes de ficar inventando "historinha". :eek:
 
Originally posted by Fla3DMadness
Tu com essa teoria da "GeForce4 tampão" já encheu o saco! :mad:

Vai ler e estudar um pouco antes de ficar inventando "historinha". :eek:

pra vc que usa placa profissionalmente pode até fazer diferença...mas pra quem usa pra jogar nao faz.
:p
 
Originally posted by NaRk
???
eu acho que o esquema eh o seguine:
a nvidia lançou geforce 3, incorporando altas tecnologias novas em relação a 2 e talz, foi um otimo lançamento.
Ai a ATI lançou a r8500 e quebro todas gf3...ai a nvidia se mexeu e começou um projeto novo, que futuramente se chamaria nv30.
mas o tempo passa e os problemas aparessem e nem tudo tudo eh doce na vida, o nv30 empaca e a nvidia nao sai do lugar com o projeto. Entao ela pensa, temos que desbancar a ATI de qualquer geito, pega uma gf3, poem um clock maior, muda a arquitetura um poco pra aguentar esse clock e chama isso de geforce 4....ai a gente fica com gf4 melhor que as radeon até essa porra de projeto desempacar !!! pq esse sim revolucionará com relação a novas tecnologias, as gf4 é so um tampão enquanto gefroce fx nao chega !!!

bom, isso ai eh uma historinha que eu inventei, pode ser a maior bobagem da historia mas pelo menos eh uma teoria para o lançamento das geforce 4, que sao boas placas mas que nao inovaram em nada.

O q ele falou esta certissimo!!!!!!!
Essa eh a realidade, mas para jogos faz diferença e como!!!

radeon 8500 pra cima com o ANISO e o AA ligado HUMILHA LITERALMENTE em resoluçao alta..
Cara...sem comparaçao...sem comparaçao mesmo!!

outra coisa, a nvidia (q vc falando tanto dos drivers) vem piorando a qualidade da imagem em prol de um aumento de desempenho...(25% mais rapido...haha parece ate piada...)

Soh concordo em UM PONTO..
A nvidia eh mais compativel (em hardware)
 
As GF4 com NV 25 nao sao tampao coisa nenhuma. O NV25 possui 13 funcoes novas alem do NV20, entre elas ARB_VA0, ARB_FS, NV_EVALUATORS_2 e um monte de outras coisas. O pipeline programavel do NV25 tem capacidade de muitos mais variaveis e estados que o do NV20 . O NV25 tem um mecanismo hierarquico de limpeza de depth_buffer totalmente diferente (que torna o refresh da tela mais rapido). O stencil buffer agora possui a operacao COMPARE_MULT que antes nao estava presente.

E o mais importante .. o controlador de memoria do NV25 e muito muito superior ao do NV20, e esse eh o principal trunfo da placa, que precisa de 35% menos ciclos de clock para fazer um fetch ou clean de uma textura na memoria.

realmente pesquise antes de falar algo.


Sobre o NV30 realmente vc nao vai usar tudo dele.. porque o DX9 nao COBRE TUDO que o NV30 oferece. O OpenGL ao contrario cobre todas as funcionalidades do OpenGL.. (nao eh a toa que todos os demos do NV30 sao feitops em OpenGL).
 
Originally posted by Jugged
O q ele falou esta certissimo!!!!!!!
Essa eh a realidade, mas para jogos faz diferença e como!!!

radeon 8500 pra cima com o ANISO e o AA ligado HUMILHA LITERALMENTE em resoluçao alta..
Cara...sem comparaçao...sem comparaçao mesmo!!

outra coisa, a nvidia (q vc falando tanto dos drivers) vem piorando a qualidade da imagem em prol de um aumento de desempenho...(25% mais rapido...haha parece ate piada...)

Soh concordo em UM PONTO..
A nvidia eh mais compativel (em hardware)
eh 25% mais rapido no 3dmark, nao em aplicacoes graficas como jogos q aumenta no maximo 3-10fps
qto as gf4, o uso do anti alias foi melhorado, perdendo menos performace com ele, alem do q o velhinho disse acima, soh q nao melhorou o aniso, pq isso custa tempo, um projeto desse, entao soh da pra por uma nova tecnologia em aniso, sem perda de performace no nv30, mesmo assim quando surgirem os jgoos em dx9, ja eh hra de trocarmos a nv30, rv350, r300, r400 ou r350 isso q eh foda :(
 
Originally posted by NaRk
???
eu acho que o esquema eh o seguine:
a nvidia lançou geforce 3, incorporando altas tecnologias novas em relação a 2 e talz, foi um otimo lançamento.
Ai a ATI lançou a r8500 e quebro todas gf3...ai a nvidia se mexeu e começou um projeto novo, que futuramente se chamaria nv30.
mas o tempo passa e os problemas aparessem e nem tudo tudo eh doce na vida, o nv30 empaca e a nvidia nao sai do lugar com o projeto. Entao ela pensa, temos que desbancar a ATI de qualquer geito, pega uma gf3, poem um clock maior, muda a arquitetura um poco pra aguentar esse clock e chama isso de geforce 4....ai a gente fica com gf4 melhor que as radeon até essa porra de projeto desempacar !!! pq esse sim revolucionará com relação a novas tecnologias, as gf4 é so um tampão enquanto gefroce fx nao chega !!!

bom, isso ai eh uma historinha que eu inventei, pode ser a maior bobagem da historia mas pelo menos eh uma teoria para o lançamento das geforce 4, que sao boas placas mas que nao inovaram em nada.

eh a maior bobagem.....

como o OLD falo mta coisa de nova na GF4
 
rubra.....vc deveria especificar melhor oq vc ta falando.....
até pq esse assunto ja foi amplamente discutido quando lançaram o NV30....e a questao principal foi:
pagar 1500-2000 reais numa placa cheia de recursos que nao vao ser usado ou pagar 1000-1500 numa com menos recursos....que tambem nao vao ser usados tão cedo....
:rolleyes: :rolleyes:

GF4 Sux bagaraio......
de novo, e que reflete diretamente nos jogos, so o AA la no D3D...pq o resto....
:p
 
OLDman, tu realmente me convenseu....ta certo, tem varias inovações. Mas eu fiquei frustrado com a geforce 4 cara....meu sonho era ter uma até ver uma funcionando na minha frente !!!

tipo, quando um amigo meu comprou geforce 3, a muito tempo atras, a gente testou ela com os ultimos games do momento, rodamos tudo no maximo e a placa ainda guentava mais...

semana retrasada um amigo meu compro geforce 4 ti4200, antes disso eu até ia comprar uma, quase comprei com ele se nao fosse a falta de money no dia. Mas cara, quando fui testar a placa me descepcionei. Ele tem AXP 1800+, 512 MB DDR e compro essa gf4.
ai a gente pego war 3 e pah, rodamo com tudo no max em 1024x768...fico uma beleza, tudo perfeitinho.... AI jogamos um AA + aniso. Pow, começo a da travadinha no jogo quando enchia de unidade...mas blz, a vida eh assim. eu jogo war 3 com gf 2 mx mesmo.
Ai fomos pra ut2003, pomos tudo no max..mas com v-sync AA e aniso off. E pow.....dava travadinha de vez em quando e o jogo fico lentooooo. Ai tiramos world textures do maximo e tiramos outras coisinhas tb do max....ai o jogo fico fluente, akilo sim era jogar. Ai tacamos um AA 4x e pow, fico um coco, mais lento que minha geforce 2 mx com tudo no medium....
:(
isso foi minha descepção. pagar 750 conto pra ter o desprazer de nao poder rodar com tudo no max eu fico com minha geforce 2 mx ou entao vo pra radeon 8500 que ta 450 conto !!!
 
nark, o pc do seu amigo = sux bagarai...

aki eu rodo war3 1600x1200 quicnux fsaa 4x tudo no high e nunca travo...
 
PUTzzzzzzzzzzz............
Lá vamos nós de novo com a batalha entre Oldman (sabre de luz verde) Contra Deker (sabre de luz vermelho)....:rolleyes:
O que eu tenho a dizer é que concordo com o Nark.
A GF4 pode ter ARB_VA0,ARB_FS,mas pelo ponto de vista dos GAMERS (e no popular olhômetro :D ),a diferença duma Geforce 3 pruma Geforce 4 são +Fps........
Não há nada de revolucionário entre as duas placas pelo "olhômetro tabajara"......
A GF FX já eh outra história.......;)
 
Originally posted by Xan
PUTzzzzzzzzzzz............
Lá vamos nós de novo com a batalha entre Oldman (sabre de luz verde) Contra Deker (sabre de luz vermelho)....:rolleyes:
O que eu tenho a dizer é que concordo com o Nark.
A GF4 pode ter ARB_VA0,ARB_FS,mas pelo ponto de vista dos GAMERS (e no popular olhômetro :D ),a diferença duma Geforce 3 pruma Geforce 4 são +Fps........
Não há nada de revolucionário entre as duas placas pelo "olhômetro tabajara"......
A GF FX já eh outra história.......;)

faço essas sabias palavras as minhas.......com resalva no AA especial q tem lá no D3D....
.....
.....
camumbendo....
WAR3 qualquer placa roda com AA....
no geral os jogos que fazem o AA pesar sao os FPS e simuladores....(os melhores)
:rolleyes:
 
e camundendo.......
diminua sua assinatura......
ela consegue ser maior do que qualquer resposta sua no forum
:rolleyes:
 
Bom, pode até nao parecer que existe diferença, mas a GF4 nao sofre com FSAA como a GF3 sofria (grande vantagem) e desde alguns drivers atrás tem suporte a Pixel shaders 1.2 como as radeon 9xxx.

E sob o aspecto de gamers .. o r300 também nao tem grande novidade.. visto que vai levar pelo menos um ano ate sair em muitos temas que usem o HighLevel shading (a única diferenca SERIA entre o DX8.X pro 9.0). Ter os recursos por tras da placa faz difernca sim, mesmo que vc nao os veja a principio, muitos jogos tem otimizações para poder fazer uso disto. Deste modo as funções do NV25 do r300 e do NV30 que vc nao acha muito úteis, podem fazer uma grande difernça no final.

nas GF3 os pixel shaders eram quase experimentais.. nas GF4 sao coisa séria.

E realmente esse PC do seu amigo tem algo de errado... eu tenho uma GF2 Pro que faz melhor que isso....

E pode ter cereteza que em jogos de estratégia como o war3 é o T&L que pesa na placa nao o AF ou AA, visto que as texturas sao reusadas em muitos lugares (cada unidade) e sao poucas e de baiza resolução no total. Deve ser um problema de drivers conflitantes, ou FAST WRITE desabilitado (as NVIDIA dependem muito disso)
 
Acontece que o PC do meu amigo nao tinha problema nenhum !!!
ele tava recem formatado, instalado o ultimo driver, nao tinha conflito nenhum. Tanto eh que fez o padrao das gf4 no 3dmark, uns 8800 pontos de default clock.

Acontece o seguinte, no war 3 com tudo no max e AA e aniso que ligamos no max, ve ai se nao da travadinha, eh em qualquer PC oldman. Veja um replay de um 3x3 e na hora da batalha DUVIDO que nao de travadinha com tudo no max e com AA e aniso ligados.

E na questão do Ut2003 eh que o drama pega...liga tudo no max ai e liga AA 4x. Vixe...poem lentidao nisso
so melhorou quando pomos texturas no hight em vez de highest.
Pra guentar ut2003 acho que so gf 4 ti4600 ou uma 4200 overclocada...

mas a questão eh uma gefroce 3 ti200 overclocada chega no mesmo fps que uma geforce 4 ti4200, isso sem AA e aniso ligados.
Realmente AA e aniso nas gf 4 melhorou um pouquinho, principalmente o quinquum, mas mesmo assim ainda nao da pra ligar em jogos como ut2003, ja nas r300 como a r9500, isso eh possivel sem alterar muito o desempenho.
 
Originally posted by NaRk
Acontece que o PC do meu amigo nao tinha problema nenhum !!!
ele tava recem formatado, instalado o ultimo driver, nao tinha conflito nenhum. Tanto eh que fez o padrao das gf4 no 3dmark, uns 8800 pontos de default clock.

Acontece o seguinte, no war 3 com tudo no max e AA e aniso que ligamos no max, ve ai se nao da travadinha, eh em qualquer PC oldman. Veja um replay de um 3x3 e na hora da batalha DUVIDO que nao de travadinha com tudo no max e com AA e aniso ligados.

E na questão do Ut2003 eh que o drama pega...liga tudo no max ai e liga AA 4x. Vixe...poem lentidao nisso
so melhorou quando pomos texturas no hight em vez de highest.
Pra guentar ut2003 acho que so gf 4 ti4600 ou uma 4200 overclocada...

mas a questão eh uma gefroce 3 ti200 overclocada chega no mesmo fps que uma geforce 4 ti4200, isso sem AA e aniso ligados.
Realmente AA e aniso nas gf 4 melhorou um pouquinho, principalmente o quinquum, mas mesmo assim ainda nao da pra ligar em jogos como ut2003, ja nas r300 como a r9500, isso eh possivel sem alterar muito o desempenho.



Não sei porque isso de ficar dizendo que o Ut2k3 é pesado, completamente errado isso, na parte de dependência da plaxa de vídeo o jogo até é leve, ele é pesado no sentido de depender muito da cpu, porque qualquer Gf2 Gts dá conta dele nas demos flyby, com uma Ti4200 dá para rodar o jogo tranquilo a 1024x768 com Fa 8x e AA2x.............. Se é para pegar um jogo pesado peguem Morrowind

E um Ti200 com overclock não chega no nível de uma Ti200 nem a pau.........quem sabe se vc por as memórias dela a uns 650Mhz vc pode dizer isso

E o AA das Gf4 melhorou MUITO, em todos os aspectos possíveis imagináveis, não só o modo 4sX do Direct3d( que é inútil de tão pesado já que requer 50% a mais de amostras de textura para a recombinação da cena), mas não só o AA é bem mais rápido como tem qualidade de imagem consideravelmente superior a GF3, distribui as amostras se sub-pixels de modo muito melhor que das GF3, especialmente no modo 2x

Dá para usar tranquilo Fa2x e QUincunx em uma Gf4
 
Originally posted by NaRk
Acontece que o PC do meu amigo nao tinha problema nenhum !!!
ele tava recem formatado, instalado o ultimo driver, nao tinha conflito nenhum. Tanto eh que fez o padrao das gf4 no 3dmark, uns 8800 pontos de default clock.

E na questão do Ut2003 eh que o drama pega...liga tudo no max ai e liga AA 4x. Vixe...poem lentidao nisso
so melhorou quando pomos texturas no hight em vez de highest.
Pra guentar ut2003 acho que so gf 4 ti4600 ou uma 4200 overclocada...

Cara, vc disse que seu amigo tiro 8800 pts no 3dMark e por isso não tem nenhum conflito pq esse é o padrão...Então pq eu com o mesmo processador dele, e com menos 256 de memória, tirei 10.083 pts sem nada overclockado ?

Um exemplo que existe algum problema ae é o UT2K que vc disse que ta uma me*da de joga, aqui em casa jogo em 1024, quincunx, e 4x de AF e tds opções do jogo no maximo, e o jogo flui perfeitamente tanto em opengl quanto em direct3d.


Valew
 
Originally posted by Fagner
Cara, vc disse que seu amigo tiro 8800 pts no 3dMark e por isso não tem nenhum conflito pq esse é o padrão...Então pq eu com o mesmo processador dele, e com menos 256 de memória, tirei 10.083 pts sem nada overclockado ?

Um exemplo que existe algum problema ae é o UT2K que vc disse que ta uma me*da de joga, aqui em casa jogo em 1024, quincunx, e 4x de AF e tds opções do jogo no maximo, e o jogo flui perfeitamente tanto em opengl quanto em direct3d.


Valew

cara, eu vi que tava padrao olhando o compare do 3dmark, esses seus 10 mil pontos sao muito realmente, mas o dele nao fez isso..

cara, la a gente rodo ut2003 1024, com tudo no max e 4x quancux ligado, mas fico tao lento que prefiro jogar com minha geforce 2 mx-400 com tudo no LOW !!!! tipo, quando nos tiramos texturas do world do highest pro high, o jogo fico muito mais fluente, nossa, parecia otro....

nao to dizendo que gf4 ti4200 eh ruim nao, so to falando que nao eh essas coisas tb. neguinho endeusa essa placa, e na verdade nao eh assim !!! tipo, ainda mais pruma coisa que custa 750, acho que nao vale isso....é minha opinião

tem até um exemplo de um cara com um duron 1.2 euma geforce 3 ti200 que faz 10.300 pontos no 3dmark cara, ow seja, em termos teóricos equivale ao seu axp 1800+ com gf4 ti4200 em fps.
 
Originally posted by DekerBSB
e camundendo.......
diminua sua assinatura......
ela consegue ser maior do que qualquer resposta sua no forum
:rolleyes:

vou providenciar!
 
Originally posted by Tac
Espero que não me deem um Ban de novo vamos lá, ambas as placas Ati, Gforce são ótimas placas, a Gforce é mais dependente de processador qeu a ATi Radeon 9700, sem contar que no anizo/AA a vantagem é da ati, ao que parece os drives da Ati estão começando a ter mais qualidade, não é justo por exemplo comparar placas de gerações diferentes no caso a GF4 é de geração anterior as aTi's da série 9500 9700, então é claro que a performance delas deve ser superior por por terem a arquitetura melhorada etc etc, mas o que vem acontencendo desde a série 7500 os chips ati estão como por assim dizer sofrendo upgrades de arquitetura e funcionalidade, não é comparado por exemplo a mudança que foi do GF2 GTS para o GF3, nem do GF4 para GFX, as tecnologias.

No caso o mais certo seria comparar a Radeon 9700 pro com a sua concorrente direta a Geforce FX.

A Geforce FX tem um nivel programação muito mais alto que a Radeon 9700, ela implementa um numero muito maior. A Ati 9700 tem quatro unidades de pixel-vertex shader's 2.0 enquanto a geforce adota um sistema mais genérico e programavel de ponto flutuante (as unidades de pixel shader's da radeon não são de ponto flutante). Muita coisa ainda sobre a arquitetura do Nv30 está encoberta ainda mas muita gente suspeita que a nvidia está usado um esquema semelhante de processadores aos utilizados no p10 ou mesmo uma longa cadeia de registradores de uso geral de ponto flutuante capazes tando de manipular dados como endereços de memória de se conectarem entre si e com operações de tamanho de palavra acima de 4096 bits, mas é expeculação.
Talvez a nvidia agora tenha pensando mais em ofercer um nivel de programação altissimo em vez de somente oferecer processameto bruto.

Agora no momento a melhor escolha em relação custo beneficio são as Ati's 9500 e 9500 pro, quem sabe daqui a alguns meses a 9700 tenha um custo menor, ou até mesmo o Nv31 venha ser a nova estrela do custo e benefício. No final de tudo quem escolhe é o consumidor final se esse quiser comprar a placa mais cara bom pra ele, se ele gosta da marca X ao invez da marca Y é o gosto dele.

Agora quanto aos novos R350 que estão despontando ao que parece são mais um upgrade de arquitetura, ou seja suporte DDr II, aumento no mumero de TMu's talvez um clock maior no caso do RV350, acho que a grande mudança de arquitetura pode vir no R400 mas é cedo ainda para falar.

Não sei não.....
Posso até estar errado,mas eu acho que eh +ou- assim:
Radeon 7500xgeforce 2 (nem preciso dizer que detonou)
Radeon 8500xGeforce 3 (tbm)
Radeon 9700xGeforce 4 Ti (ui!)
Geforce FX x ??? (provavelmente o R350 ou 400)

Me corrijam se estiver errado.;)
 

Users who are viewing this thread

Voltar
Topo