Ganância do mercado de games no contexto atual

Quer saber mais sobre um review idôneo e com profundos conhecimentos sobre hardware 3D?

http://www.beyond3d.com/content/reviews/51

Aqui vai um trecho que já explica tudo, mas se quiser ler na íntegra todoas as inovações, só ler as primeiras páginas.

Architecture Summary

Because GT200 doesn't implement a brand new architecture or change possible image quality compared to G80 or G92, we've been able to skip discussion of large parts of the chip simply because they're unchanged. There's nothing new to talk about in terms of maximum per-pixel IQ, because the crucial components of the chip that make that all happen have no improvements or changes to speak of. It's purely a question of performance and how that's derived."


Acho que esse parágrafo fala tudo, bem como todos os reviews e opniões afora. Sendo assim eu e o mundo não entendemos sobre a arquitetura do GT200, só você cara... Pega leve, não pesado como no seu nick...

Quanto a questão do shader model limitado:

Se você está dizendo que a ATI foi beneficiada pela Microsoft no lançamento do Shader Model 2 (que era capado, de acordo com suas inúmeras tabelas), então como você explica a Nvidia, mesmo sendo excluída e o escambau foi beneficiada pela mesma Microsoft com o Shader Model 3.0?

Tanto que a ATI só lançou soluções somente um ano depois com o R520 suportando a tecnologia?

Ou até mesmo na sua infinita sabedoria, porquê a Nvidia implantou uma arquitetura tão "avançada" como foi o NV3X (Geforces FX) mas infelizmente o mesmo não se provou na prática nem um pouco superior ao R300 que fora lançado quase um ano antes e usava um Shader Model Capado?

E dos benefícios iniciais da Microsoft com a Nvidia que fizeram a 3Dfx ir a falência? Porquê você não nos fala a respeito já que sabe tanto?

Ou porquê critica minha comparação do C & C (Carmack e Cervat) sendo que ambos trabalham em softwareouses patrocinadas pela Nvidia e que favorecem as placas dela em seus jogos?

E porquê ambos inventaram uma opção máxima de qualidade gráfica em seus jogos que somente favoreceu placas da Nvidia? E isso vêm desde o Farcry com seu patch 1.3 que habilitava HDR e o escambau somente para placas com Shader Model 3 (só existiam as Geforces 6)?

Porquê você ignora tanto os fatos (comprovados) e me vêm com desrespeito, ironia e provocação?

Essa tabela mostrando o Shader Model 2.0a e 3.0 não serve de nada, já que as placas Directx 10 atuais são porcamente exploradas e possuem recursos nunca implementados, já que não temos nem previsão de um jogo Directx 10 nativo?

Sem falar que o R600 é um exemplo melhor do que esse, pois no papel demoliria as geforces 8, 9 mas na prática... O mesmo vale pra GT200, que é um monstro de poder de processamento no papel, mas na prática o R700 e RV770 é muito mais eficaz com muito menos transistores, consumo e etc...
 
Caramba, como se diz aqui na minha terra, esse tópico tá ARRETADO! :D

Putz, tô aprendendo muita coisa aqui. Continuem assim, pessoal! :yes:
 
Caramba, como se diz aqui na minha terra, esse tópico tá ARRETADO! :D

Putz, tô aprendendo muita coisa aqui. Continuem assim, pessoal! :yes:

Muito bom mesmo. Tava fazendo falta tópicos deste calibre por aqui. :yes:
 
[PeSaDo];3518177 disse:
bah quer saber..cansei..FUI.

Depois dessa também:

Quer saber mais sobre um review idôneo e com profundos conhecimentos sobre hardware 3D?

http://www.beyond3d.com/content/reviews/51

Aqui vai um trecho que já explica tudo, mas se quiser ler na íntegra todoas as inovações, só ler as primeiras páginas.

Architecture Summary

Because GT200 doesn't implement a brand new architecture or change possible image quality compared to G80 or G92, we've been able to skip discussion of large parts of the chip simply because they're unchanged. There's nothing new to talk about in terms of maximum per-pixel IQ, because the crucial components of the chip that make that all happen have no improvements or changes to speak of. It's purely a question of performance and how that's derived."


Acho que esse parágrafo fala tudo, bem como todos os reviews e opniões afora. Sendo assim eu e o mundo não entendemos sobre a arquitetura do GT200, só você cara... Pega leve, não pesado como no seu nick...

Quanto a questão do shader model limitado:

Se você está dizendo que a ATI foi beneficiada pela Microsoft no lançamento do Shader Model 2 (que era capado, de acordo com suas inúmeras tabelas), então como você explica a Nvidia, mesmo sendo excluída e o escambau foi beneficiada pela mesma Microsoft com o Shader Model 3.0?

Tanto que a ATI só lançou soluções somente um ano depois com o R520 suportando a tecnologia?

Ou até mesmo na sua infinita sabedoria, porquê a Nvidia implantou uma arquitetura tão "avançada" como foi o NV3X (Geforces FX) mas infelizmente o mesmo não se provou na prática nem um pouco superior ao R300 que fora lançado quase um ano antes e usava um Shader Model Capado?

E dos benefícios iniciais da Microsoft com a Nvidia que fizeram a 3Dfx ir a falência? Porquê você não nos fala a respeito já que sabe tanto?

Ou porquê critica minha comparação do C & C (Carmack e Cervat) sendo que ambos trabalham em softwareouses patrocinadas pela Nvidia e que favorecem as placas dela em seus jogos?

E porquê ambos inventaram uma opção máxima de qualidade gráfica em seus jogos que somente favoreceu placas da Nvidia? E isso vêm desde o Farcry com seu patch 1.3 que habilitava HDR e o escambau somente para placas com Shader Model 3 (só existiam as Geforces 6)?

Porquê você ignora tanto os fatos (comprovados) e me vêm com desrespeito, ironia e provocação?

Essa tabela mostrando o Shader Model 2.0a e 3.0 não serve de nada, já que as placas Directx 10 atuais são porcamente exploradas e possuem recursos nunca implementados, já que não temos nem previsão de um jogo Directx 10 nativo?

Sem falar que o R600 é um exemplo melhor do que esse, pois no papel demoliria as geforces 8, 9 mas na prática... O mesmo vale pra GT200, que é um monstro de poder de processamento no papel, mas na prática o R700 e RV770 é muito mais eficaz com muito menos transistores, consumo e etc...



Concordo totalmente com amigo ae! Muito bem colocada essas questões!

O mercado de VGAs e sem dúvida muito empolgante :yes:
 
Caramba, como se diz aqui na minha terra, esse tópico tá ARRETADO! :D

Putz, tô aprendendo muita coisa aqui. Continuem assim, pessoal! :yes:

ah cara não dá não, nego diz 20 besteiras eu rebato 20 ae em vez de ficar quieto vem com mais 20..

ahhh numa boa..tenho mais o q fazer.

beyond 3d review idôneo AUHaUHauhuhauahaUHaUH..ninguém merece..vou responder esse cara pela última vez, o cara não vai sussegar enquanto "não ganhar discussão" não entende xongas do q tá falando e fica questionando tudo q eu falo..pff.
 
Quer saber mais sobre um review idôneo e com profundos conhecimentos sobre hardware 3D?

http://www.beyond3d.com/content/reviews/51

Aqui vai um trecho que já explica tudo, mas se quiser ler na íntegra todoas as inovações, só ler as primeiras páginas.

Architecture Summary

Because GT200 doesn't implement a brand new architecture or change possible image quality compared to G80 or G92, we've been able to skip discussion of large parts of the chip simply because they're unchanged. There's nothing new to talk about in terms of maximum per-pixel IQ, because the crucial components of the chip that make that all happen have no improvements or changes to speak of. It's purely a question of performance and how that's derived."


Acho que esse parágrafo fala tudo, bem como todos os reviews e opniões afora. Sendo assim eu e o mundo não entendemos sobre a arquitetura do GT200, só você cara... Pega leve, não pesado como no seu nick...

Primeiro q esse lixo de site de idôneo não tem nada. Um dos cabeças desse site tá na equipe de marketing da Ati...site idôneo.. NINGUÉM MERECE viu..conheço tanto o site como o ruela do Dave Baumman tem uns 10 anos..vc tá boiando mais q rolha no mar champz.

Sobre o assunto:

Como q vai mudar a arquitetura do chip ou fazer algo inovador se a API NÃO MUDOU NADA????? PRA Q??? pra jogar dinheiro no lixo com RD? Com o dx10.1 vindo aí? Sendo q os caras tem liderança de mercado E performance, mas opa.. gentém, gastem milhões pra fazer algo novo pq o "pescador" tá achando tdo muito igual!!" :rolleyes: .

Quanto a questão do shader model limitado:

Se você está dizendo que a ATI foi beneficiada pela Microsoft no lançamento do Shader Model 2 (que era capado, de acordo com suas inúmeras tabelas), então como você explica a Nvidia, mesmo sendo excluída e o escambau foi beneficiada pela mesma Microsoft com o Shader Model 3.0?

Pq parceria acaba como até casamento acaba..vc é criança por acaso? Acha q a Nvidia e MS são amiguxas? Isso não sou eu q "digo" não rapaiz, isso é fato notório q todo mundo do mercado sabe..inclusive eu já postei sobre isso. Para de dar volta só pra tentar me desacreditar pq vc não consegue ganhar uma discussão na internet.

Isso já foi explicado antes no tópico:

Pesado disse:
The Xbox contract did not allow for falling manufacturing costs, as process technology improved, and Microsoft sought to renegotiate the terms of the contract, withholding the DirectX 9 specifications as leverage. As a result, NVIDIA and Microsoft relations, which had previously been very good, deteriorated. Both parties later settled the dispute through arbitration and the terms were not released to the public. However, the dispute was what prompted NVIDIA to pass over developing a graphics solution for the succeeding Xbox 360, with ATI taking on that contract, while NVIDIA decided to work on the PlayStation 3 instead.

Tanto que a ATI só lançou soluções somente um ano depois com o R520 suportando a tecnologia?

Pq a super-duper R300 era um lixo limitado e ela prometeu q seria o futuro dos gráficos pra todo mundo e nem Hdr no Farcry ou no Hl2 conseguiu botar, foi um padrão chutado pela indústria inteira q SÓ SERVIU PRA PREJUDICAR A NVIDIA POR CAUSA DE UM DESENTENDIMENTO COMERCIAL COM A MICROSOFT,TENHO Q FALAR A MSM COISA QTAS VEZES???? Tanto q a Ati e os desenvolvedores q investiram nesse sm2.0 se estreparam, coisa q já foi tbm DITA UMAS 1000x!!!

Poha tenha dó da minha paciência.


Ou até mesmo na sua infinita sabedoria, porquê a Nvidia implantou uma arquitetura tão "avançada" como foi o NV3X (Geforces FX) mas infelizmente o mesmo não se provou na prática nem um pouco superior ao R300 que fora lançado quase um ano antes e usava um Shader Model Capado?

PQ A MICROFOST CAPOU O DX9.0 PRA SACANEAR A NVIDIA
PQ A MICROFOST CAPOU O DX9.0 PRA SACANEAR A NVIDIA
PQ A MICROFOST CAPOU O DX9.0 PRA SACANEAR A NVIDIA
PQ A MICROFOST CAPOU O DX9.0 PRA SACANEAR A NVIDIA
PQ A MICROFOST CAPOU O DX9.0 PRA SACANEAR A NVIDIA

Será q repetindo 5x vc absorve????

LEIA DENOVO:

Microsoft sought to renegotiate the terms of the contract, withholding the DirectX 9 specifications as leverage.

Microsoft sought to renegotiate the terms of the contract, withholding the DirectX 9 specifications as leverage.

Microsoft sought to renegotiate the terms of the contract, withholding the DirectX 9 specifications as leverage.

Microsoft sought to renegotiate the terms of the contract, withholding the DirectX 9 specifications as leverage.

Microsoft sought to renegotiate the terms of the contract, withholding the DirectX 9 specifications as leverage.


E dos benefícios iniciais da Microsoft com a Nvidia que fizeram a 3Dfx ir a falência? Porquê você não nos fala a respeito já que sabe tanto?

"Porquê você não nos fala a respeito já que sabe tanto?"

Pq eu fico perdendo meu tempo dando voltas e voltas repetindo as mesmas coisas MIL VEZES pra gente TEIMOSA q não dá o braço a torcer nem depois de ser provado contrário mil vezes. É tipo o Soro, msm depois de ver as mil mentiras da Crytek ainda fica de mimimi achando q tá certo.

Tipo isso:

"você está dizendo que a ATI foi beneficiada pela Microsoft"

é como o Soro querendo provas de q o Cevat é mentiroso, qqr um consegue perceber q isso aconteceu, tem ae os textos embasando, tem as especificações idênticas, tem a briga da Microsoft com a Nvidia inclusive na justiça..mas nãaaaaao..sou EU q tô dizendo :rolleyes: :rolleyes: ..afff..pode crer, eu plantei essas infos na internet tbm...assim como as mentiras do Cevat, tudo invenção MINHA. . :rolleyes:

Ou porquê critica minha comparação do C & C (Carmack e Cervat) sendo que ambos trabalham em softwareouses patrocinadas pela Nvidia e que favorecem as placas dela em seus jogos?

Pq quem sacaneou os gamers foi o Cevat, não o Carmack..DUHH.

E porquê ambos inventaram uma opção máxima de qualidade gráfica em seus jogos que somente favoreceu placas da Nvidia? E isso vêm desde o Farcry com seu patch 1.3 que habilitava HDR e o escambau somente para placas com Shader Model 3 (só existiam as Geforces 6)?

Baboseira, o Doom3 roda no máximo em qqr placa. Vamos dar mais uma volta:

Hdr só existia na Geforce 6 (Sm3.0) pq tinha a 5 de base e a Ati foi na barca da Microsoft e investiu no Sm2.0 LIMITADO CAPADO e depois ficou pra trás.

Hdr só existia na Geforce 6 (Sm3.0) pq tinha a 5 de base e a Ati foi na barca da Microsoft e investiu no Sm2.0 LIMITADO CAPADO e depois ficou pra trás.

Hdr só existia na Geforce 6 (Sm3.0) pq tinha a 5 de base e a Ati foi na barca da Microsoft e investiu no Sm2.0 LIMITADO CAPADO e depois ficou pra trás.

Hdr só existia na Geforce 6 (Sm3.0) pq tinha a 5 de base e a Ati foi na barca da Microsoft e investiu no Sm2.0 LIMITADO CAPADO e depois ficou pra trás.

Hdr só existia na Geforce 6 (Sm3.0) pq tinha a 5 de base e a Ati foi na barca da Microsoft e investiu no Sm2.0 LIMITADO CAPADO e depois ficou pra trás.


A próxima volta q rolar eu vo repetir 10x ..

Porquê você ignora tanto os fatos (comprovados) e me vêm com desrespeito, ironia e provocação?

Pq minha paciência tem limite. Fora q vc só faz comprovar o q EU to afirmando e nem se dá conta, como podemos ver logo a baixo (LOL?)

Essa tabela mostrando o Shader Model 2.0a e 3.0 não serve de nada, já que as placas Directx 10 atuais são porcamente exploradas e possuem recursos nunca implementados, já que não temos nem previsão de um jogo Directx 10 nativo?

DÃãÃãã O'RLY???? pq vc acha q eu to criticando o directx??

Sem falar que o R600 é um exemplo melhor do que esse, pois no papel demoliria as geforces 8, 9 mas na prática... O mesmo vale pra GT200, que é um monstro de poder de processamento no papel, mas na prática o R700 e RV770 é muito mais eficaz com muito menos transistores, consumo e etc...

Who cares...
 
...site idôneo.. NINGUÉM MERECE viu..conheço tanto o site como o ruela do Dave Baumman tem uns 10 anos..vc tá boiando mais q rolha no mar champz.

Opa, o cara não falou "site" falou REVIEW...

Sobre o assunto:

Como q vai mudar a arquitetura do chip ou fazer algo inovador se a API NÃO MUDOU NADA????? PRA Q??? pra jogar dinheiro no lixo com RD? Com o dx10.1 vindo aí? Sendo q os caras tem liderança de mercado E performance, mas opa.. gentém, gastem milhões pra fazer algo novo pq o "pescador" tá achando tdo muito igual!!" :rolleyes: .

Primeiro, DX10.1 não é uma nova API, e sim um pacote de correções e aprimoramentos do DX10.

Segundo, essa afirmativa não justifica, API ainda nem foi explorada direito em relação a essas placas DX10, quando a Nvidia (a queridinha...) lançou a série 8 ela montou um site especialmente para as novas caracteristicas da nova placa, o que você ganha trocando uma 7950GTX por uma 8800GTX, todo mundo foi na onda e até agora em nem um jogo é possivel notar toda essa diferença graficamente falando.

Terceiro, SIM a nvidia poderia muito fazer algo novo com o chip, e ela fez, pena que dessa vez o tiro não foi muito certeiro.


Pq parceria acaba como até casamento acaba..vc é criança por acaso? Acha q a Nvidia e MS são amiguxas? Isso não sou eu q "digo" não rapaiz, isso é fato notório q todo mundo do mercado sabe..inclusive eu já postei sobre isso. Para de dar volta só pra tentar me desacreditar pq vc não consegue ganhar uma discussão na internet.


O cara não sabe ganhar ou você que não sabe perder? Lê seu texto cara, você que ta dando muita e muita volta, se parceria acaba, e isso é normal porque você cisma de culpar uma ou outra, por isso ou aquilo? São negocios meu amigo...

O que você fala sobre essa parceria não tem muito nexo, da microsoft da as regras e de uma ou outra ser injustiçada, a ATI quando tinha o PS 2.0 em mãos fez um trabalho de longe muito melhor que a série FX da nvidia, e ATI ja vinha fazendo um bom trabalho desde o RV350, e o principal motivo da nvidia da a volta por cima, não foi tanto o PS3.0, demorou mais de um ano pra surgir um jogo nativa no DX 9.0c, e quando saiu o 1º a série 6 não conseguia rodar os mesmos com qualidade :whistle:



Pq a super-duper R300 era um lixo limitado e ela prometeu q seria o futuro dos gráficos pra todo mundo e nem Hdr no Farcry ou no Hl2 conseguiu botar, foi um padrão chutado pela indústria inteira q SÓ SERVIU PRA PREJUDICAR A NVIDIA POR CAUSA DE UM DESENTENDIMENTO COMERCIAL COM A MICROSOFT,TENHO Q FALAR A MSM COISA QTAS VEZES???? Tanto q a Ati e os desenvolvedores q investiram nesse sm2.0 se estreparam, coisa q já foi tbm DITA UMAS 1000x!!!

Poha tenha dó da minha paciência.




PQ A MICROFOST CAPOU O DX9.0 PRA SACANEAR A NVIDIA


Você quer dizer que o motivo do fracasso da série FX foi por causa do DX capado?

:lol::lol::lol::lol::lol:
 
hUHuhUHuAHAuhauaHUahuHUah hilário esse tópico. Não tem algum projetista de placa de vídeo pra deixar seu parecer e terminar com esse discussão?

Puutz mas o pessoal que ta falando sobre o assunto, aprendeu sobre o mesmo onde? Apenas uma dúvida.
 
hUHuhUHuAHAuhauaHUahuHUah hilário esse tópico. Não tem algum projetista de placa de vídeo pra deixar seu parecer e terminar com esse discussão?

existem profissionais desse ramo no país? :huh:
 
Sofreu com o R500 (Radeons X1K), onde a Ati deixou em pé de igualdade as tecnologias Directx e ganhou com a coroa de TOP performance e preço mais baixo com a X1950 XTX contra a 7900GTX.

Ahn? Antes da X1K tiveram as X800 e a Nvidia tomou a frente por 2 motivos:

Refrigeração e suporte ao S.M. 3.0

Sobre a refrigeração: vários casos no mundo de 9700pro e 9800pro morrendo do nada fizeram as pessoas temerem a ATI. Quando esta lançou a série X, as pessoas deixaram de comprar por medo de queimar, pois o cooler não cobria todas as memórias. Enquanto isso, quem metia pau na Nvidia por ela usar cooler dual slot, agora comprava por esse motivo.
SObre S.M. 3.0: a tabela postada pelo pesado mostra as diferenças.

Outra coisa: X1950XTX era mais cara que 7900GTX e você tá falando da segunda fase da série X1K. As X1800XTX não eram essas coisas não e nesse tempo a Nvidia tomou a frente.

Relembrando as placas que fizeram a Nvidia enterrar o pesadelo FX e crescer no mercado:

6600GT e 7600GT. Quais ATIs de preço similar competiam com essas? Nenhuma. Essas placas vendiam tanto que ficaram em falta. Principalmente a 6600GT. E nessa época, a Nvidia tinha drivers bons e a ATI começara a errar a mão. Tanto é verdade que começaram a chamar de CATALIXO ao invés de CATALYST. Hoje a situação é inversa.


Você quer dizer que o motivo do fracasso da série FX foi por causa do DX capado?

:lol::lol::lol::lol::lol:

Qual foi o motivo então?
 
Ahn? Antes da X1K tiveram as X800 e a Nvidia tomou a frente por 2 motivos:

Refrigeração e suporte ao S.M. 3.0

Sobre a refrigeração: vários casos no mundo de 9700pro e 9800pro morrendo do nada fizeram as pessoas temerem a ATI. Quando esta lançou a série X, as pessoas deixaram de comprar por medo de queimar, pois o cooler não cobria todas as memórias. Enquanto isso, quem metia pau na Nvidia por ela usar cooler dual slot, agora comprava por esse motivo.
SObre S.M. 3.0: a tabela postada pelo pesado mostra as diferenças.

Desconheço esses supostos problemas de refrigeração, quem teve muito problema de refrigeração foi a série FX nas suas versões TOP de linha, e que história é essa que a série x os coolers eram pequenos? Você nunca viu uma X700?X800?X850?

Na verdade a nvidia levou a melhor pela performance/preço de suas placas de entrada e Mid-range (6600GT) porque nas TOP ela levava pau da ATI, a X850XT PE matava qualquer 6800 da vida, o problema nesse caso foi falta de planejamento da ATI e não por questões de suporte a Pixel Shader 3.0 e muito menos por problemas de refrigeração hehehe


Outra coisa: X1950XTX era mais cara que 7900GTX e você tá falando da segunda fase da série X1K. As X1800XTX não eram essas coisas não e nesse tempo a Nvidia tomou a frente.

Na verdade. concorrente da X1950XTX era a 7950 GX2, a nvidia só conseguil bater o RV520 com uma solução Dual-GPU.


Relembrando as placas que fizeram a Nvidia enterrar o pesadelo FX e crescer no mercado:

6600GT e 7600GT. Quais ATIs de preço similar competiam com essas? Nenhuma. Essas placas vendiam tanto que ficaram em falta. Principalmente a 6600GT. E nessa época, a Nvidia tinha drivers bons e a ATI começara a errar a mão. Tanto é verdade que começaram a chamar de CATALIXO ao invés de CATALYST. Hoje a situação é inversa.

Fala M não, o motivo de chamar de catalixo eram os softwares de gerenciamento de opções do drivers, era pesado, precisava de extenções que não vinham por padrão no windows, dava uma trabalheira danada e etc, tanto que a maioria recorria aos "omega drivers".

Mas isso nada tinha haver com os drivers, a ATI nunca errou a mão com drivers, sempre foi superior a Nvidia em função a isso, veja o CF como passou a frente do SLI (mesmo a nvidia tendo essa tecnologia desde quando ela comprou a 3dfx, que foi a invetora do SLI).

Não existe situação inversa, os drivers ATI sempre foram melhores, o motivo da nvidia ter passado a frente foi focar a distribuição de arquiteturas no mid-range, não é atoa que 6600gt/7600gt/8600gt são extremamente semelhantes!


Qual foi o motivo então?


A ATI tinha uma arquitetura muito melhor que a da nvidia, desde o 8500, na 9700PRO ja eram utilizado os 256bits, a Nvidia lançou a então topo de linha FX5800 pra TENTAR bater a 9800PRO mas nem de longe conseguil, então ela lançou a serie FX59xx (a primeira com 256bits) vendo que a FX 5800 não daria conta, e varios chips sofreram revisões, 5600, 5200 etc...

Alem dos drivers da ATI serem muito superiores, principalmente com filtros ligados, qualidade de imagem das placas ATI era sem duvida muito melhor.

E não só em performance, essas caracteristicas das placas ATI de ser mais "completas" que as da nvidia (saida HDMI, UVD etc etc) ja vinha desde o "Rage Theater",


A concorrencia das FX foram o motivo do GRANDE fracasso delas :wave:
 
Opa, o cara não falou "site" falou REVIEW...

Ele falou review IDÔNEA, tudo bem q sua concordância verbal é sofrível, mas ler vc sabe né? Review feita por um site dirigido por um cara q é acessor de marketing da Ati.

tenho q perguntar: vc é bobo ou ta só fingindo de bobo?

Primeiro, DX10.1 não é uma nova API, e sim um pacote de correções e aprimoramentos do DX10.

Vamos lá: b+a = ba! Eu falei: "mudanças na Api", e "um pacote de correções e aprimoramentos" é:

[ ] Uma vaca voadora?

[ ] Uma geladeira frost free?

[ ] Uma mudança na API?

Vamos lá, vc consegue!!!

Segundo, essa afirmativa não justifica, API ainda nem foi explorada direito em relação a essas placas DX10, quando a Nvidia (a queridinha...) lançou a série 8 ela montou um site especialmente para as novas caracteristicas da nova placa, o que você ganha trocando uma 7950GTX por uma 8800GTX, todo mundo foi na onda e até agora em nem um jogo é possivel notar toda essa diferença graficamente falando.

Não tem nenhuma afirmativa ali. FAIL.

Terceiro, SIM a nvidia poderia muito fazer algo novo com o chip, e ela fez, pena que dessa vez o tiro não foi muito certeiro.

O chip rende o dobro da geração anterior já nos primeiros drivers na primeira revisão. Não gostou? Não compre ué.

O cara não sabe ganhar ou você que não sabe perder? Lê seu texto cara, você que ta dando muita e muita volta, se parceria acaba, e isso é normal porque você cisma de culpar uma ou outra, por isso ou aquilo? São negocios meu amigo...

Eu "cismo"? Bom, pelo visto sua compreensão de texto em português não é muito boa, imagino a de inglês. vou traduzir pra vc:

"O contrato da MS com a NV não previa nehhuma redução de preços (para a MS) oriunda da redução dos custos de fabricação (da NV), pra forçar uma renegociação, a MS usou as especificações do Directx pra chantagear a NV a baixar os preços."

Esse texto não é meu, eu não "cismei" porcaria nenhuma, essa disputa foi decidida por uma arbitragem e o resultado não foi divulgado. Eu estou apenas RELATANDO UM FATO, quem tá "cismando" alguma coisa aqui é vc.

O que você fala sobre essa parceria não tem muito nexo, da microsoft da as regras e de uma ou outra ser injustiçada, a ATI quando tinha o PS 2.0 em mãos fez um trabalho de longe muito melhor que a série FX da nvidia, e ATI ja vinha fazendo um bom trabalho desde o RV350, e o principal motivo da nvidia da a volta por cima, não foi tanto o PS3.0, demorou mais de um ano pra surgir um jogo nativa no DX 9.0c, e quando saiu o 1º a série 6 não conseguia rodar os mesmos com qualidade :whistle:

Fez um trabalho tão "bão" q ficou sem funcionalidades descritas nas minhas "tabelas inúteis" e foi vendida pra AMD. A série 6 não conseguia rodar com qualidade? Melhor q não conseguir rodar de jeito nenhum. :whistle:

Você quer dizer que o motivo do fracasso da série FX foi por causa do DX capado?

:lol::lol::lol::lol::lol:

Não cara, eu quis dizer q a Microsoft ter brigado com a Nvidia chantageando-a com as especificações do dx9 e se unindo a Ati pra fazer essas especificações sem consultar a Nvidia ajudou MUITO a série FX!! Ô!! :rolleyes: :rolleyes: :rolleyes:



:lol::lol::lol: :(

Joinha pra vc champz.

:wave:
 
Desconheço esses supostos problemas de refrigeração, quem teve muito problema de refrigeração foi a série FX nas suas versões TOP de linha, e que história é essa que a série x os coolers eram pequenos? Você nunca viu uma X700?X800?X850?

Na verdade a nvidia levou a melhor pela performance/preço de suas placas de entrada e Mid-range (6600GT) porque nas TOP ela levava pau da ATI, a X850XT PE matava qualquer 6800 da vida, o problema nesse caso foi falta de planejamento da ATI e não por questões de suporte a Pixel Shader 3.0 e muito menos por problemas de refrigeração hehehe




Na verdade. concorrente da X1950XTX era a 7950 GX2, a nvidia só conseguil bater o RV520 com uma solução Dual-GPU.




Fala M não, o motivo de chamar de catalixo eram os softwares de gerenciamento de opções do drivers, era pesado, precisava de extenções que não vinham por padrão no windows, dava uma trabalheira danada e etc, tanto que a maioria recorria aos "omega drivers".

Mas isso nada tinha haver com os drivers, a ATI nunca errou a mão com drivers, sempre foi superior a Nvidia em função a isso, veja o CF como passou a frente do SLI (mesmo a nvidia tendo essa tecnologia desde quando ela comprou a 3dfx, que foi a invetora do SLI).

Não existe situação inversa, os drivers ATI sempre foram melhores, o motivo da nvidia ter passado a frente foi focar a distribuição de arquiteturas no mid-range, não é atoa que 6600gt/7600gt/8600gt são extremamente semelhantes!





A ATI tinha uma arquitetura muito melhor que a da nvidia, desde o 8500, na 9700PRO ja eram utilizado os 256bits, a Nvidia lançou a então topo de linha FX5800 pra TENTAR bater a 9800PRO mas nem de longe conseguil, então ela lançou a serie FX59xx (a primeira com 256bits) vendo que a FX 5800 não daria conta, e varios chips sofreram revisões, 5600, 5200 etc...

Alem dos drivers da ATI serem muito superiores, principalmente com filtros ligados, qualidade de imagem das placas ATI era sem duvida muito melhor.

E não só em performance, essas caracteristicas das placas ATI de ser mais "completas" que as da nvidia (saida HDMI, UVD etc etc) ja vinha desde o "Rage Theater",


A concorrencia das FX foram o motivo do GRANDE fracasso delas :wave:
cara, ati com drivers melhores que nvidia?

eu usei das 2 e garanto que a nvidia é mto melhor no seu driver! o problema é que a nvidia com seus drivers utiliza melhor da capacidade de suas placas, diferente da ati, que geralmente tem placas mais brutas mas que por algum motivo, ficam para trás!!! vide a 8800 vs hd3870.

fora que o sistema de profile da nvidia é infinitamente superior! :D Acho que é natural a cada driver da ati você ver um pequeno avanço (o ultimo catalyst realmente foi bom) do que ver da nvidia adicionar umas coisas irrisórias, já que a nvidia já usa praticamente tudo do seu hardware...

é ao menos a minha opinião, que tenho das 2 fabricantes aqui em casa e já decidi: por enquanto, fico com nvidia, porém sem negar o boom que a série hd4xxx está causando.
 
Concordo, mas é uma evolução sem volta, hoje todos querem copiar os efeitos que a Crytek desenvolveu e quem vai ter que acompanhar é o hardware.
Atigamente demorava-se dias para rendenerizar uma animação simples em 3D. Hoje nossos PCs fazem o mesmo trabalho em segundos então é a inovação dominando o mercado.
 
Ele falou review IDÔNEA, tudo bem q sua concordância verbal é sofrível, mas ler vc sabe né? Review feita por um site dirigido por um cara q é acessor de marketing da Ati.

tenho q perguntar: vc é bobo ou ta só fingindo de bobo?

Me respeite, não te dei essa confiança pra por em questão a minha capacidade de interpretação, você é algum psicologo por acaso?

Vamos lá: b+a = ba! Eu falei: "mudanças na Api", e "um pacote de correções e aprimoramentos" é:

[ ] Uma vaca voadora?

[ ] Uma geladeira frost free?

[ ] Uma mudança na API?

Vamos lá, vc consegue!!!

Você falo "DX10.1 vindo ae", você inves de ficar tentando ser um comediante sarcastico poderia ser expressar melhor, de forma mais técnica.

Não da pra adivinhar suas opniões, seus textos são muito infantis e sem muita concordancia, quando você fala "Como q vai mudar a arquitetura do chip ou fazer algo inovador se a API NÃO MUDOU NADA?"

Não sei se você quer dizer que a API não mudou nada em relação ao G80 e ao GT200 ou comparando DX10 com DX9, ou ainda se não ouve mudança no próprio DX10 :huh:.


Não tem nenhuma afirmativa ali. FAIL.


:lol:


O chip rende o dobro da geração anterior já nos primeiros drivers na primeira revisão. Não gostou? Não compre ué.


Olha a volta que você da, agora você ta falando em performance BRUTA, antes, falava de evolução gráfica, putz, e o pior é que ele diz que os outros que da voltas.


Eu "cismo"? Bom, pelo visto sua compreensão de texto em português não é muito boa, imagino a de inglês. vou traduzir pra vc:

"O contrato da MS com a NV não previa nehhuma redução de preços (para a MS) oriunda da redução dos custos de fabricação (da NV), pra forçar uma renegociação, a MS usou as especificações do Directx pra chantagear a NV a baixar os preços."

Esse texto não é meu, eu não "cismei" porcaria nenhuma, essa disputa foi decidida por uma arbitragem e o resultado não foi divulgado. Eu estou apenas RELATANDO UM FATO, quem tá "cismando" alguma coisa aqui é vc.


Não interessa se o texto é seu ou de terceiro, se você usa ele como sua fonte de opnião, então tu ta cismando SIM. e o pior, em cima de uma opnião dos OUTROS, que você leu na net, nem pra conferir os fatos e os detalhes técnicos pra chegar NA SUA própria opnião.

O ruim é isso, o cara lê um matéria e quer se basear só nisso, fica dando voltas ao redor disso, olha aqui os motivos que REALMENTE levaram a seria FX a ser um fracasso:

A ATI tinha uma arquitetura muito melhor que a da nvidia, desde o 8500, na 9700PRO ja eram utilizado os 256bits, a Nvidia lançou a então topo de linha FX5800 pra TENTAR bater a 9800PRO mas nem de longe conseguil, então ela lançou a serie FX59xx (a primeira com 256bits) vendo que a FX 5800 não daria conta, e varios chips sofreram revisões, 5600, 5200 etc...

Alem dos drivers da ATI serem muito superiores, principalmente com filtros ligados, qualidade de imagem das placas ATI era sem duvida muito melhor.

E não só em performance, essas caracteristicas das placas ATI de ser mais "completas" que as da nvidia (saida HDMI, UVD etc etc) ja vinha desde o "Rage Theater",


A concorrencia das FX foram o motivo do GRANDE fracasso delas


Esse motivo que vc CISMA em dar VOLTAS pra afirma que foi o principal motivo, orra chega da pena de você cara, putz!


Fez um trabalho tão "bão" q ficou sem funcionalidades descritas nas minhas "tabelas inúteis" e foi vendida pra AMD. A série 6 não conseguia rodar com qualidade? Melhor q não conseguir rodar de jeito nenhum. :whistle:


A ATI quando foi comprada pela AMD estava muito bem, o declive começou após o periodo de fusão, esse seu argumento que o R300 foi um fracasso, não sei de onde tu tirou, ISSO É LOUCURA!


Não cara, eu quis dizer q a Microsoft ter brigado com a Nvidia chantageando-a com as especificações do dx9 e se unindo a Ati pra fazer essas especificações sem consultar a Nvidia ajudou MUITO a série FX!! Ô!! :rolleyes: :rolleyes: :rolleyes:


Na boa, tu não sabe muita coisa de VGA não, vai estudar mais o assunto e não se baseie apenas em textos publicados, vai correr atras dos fatos, o proprio john carmmark falou que adora trabalhar com DX9.0c e a melhor que ele ja trabalhou e pretende trabalho por muito tempo etc etc...

Fala sério! O cara abre o tópico e não tem argumento pra discutir construtivamente, não sabe discuti como adulto e ainda fica dando volta em cima de baboseiras, desfazendo e derrespeitando pessoas que mostram argumentos técnicos como o Pescador mostrou.:mad:

CLOSED TOPIC!
 
Realmente observo um despreparo sério do PeSaDo em dar continuidade em uma discussão civilizada, isso sem falar na argumentação totalmente tendenciosa.

O que vejo nos argumentos dele é que o cara teima em defender a série FX da Nvidia, mesmo ela sendo lançada quase um ano depois do lançamento do Directx 9, assim o argumento de que a Nvidia foi pega de surpresa não têm fundamento, ainda mais porquê as Geforces FX vinham com especificações melhores, pois contituía-se do directx 9.0a ou Shader Model 2.0a e não o Shader 2.0 das Radeons 9k que mesmo inferiores eram melhor aproveitados do que o 2.0a.

E se a Nvidia se ferrou por causa do Directx 9.0, a Microsoft redimiu-se com a "benevolência" do Directx 9.0c (Shader Model 3) para ela, como também por ser a única responsável pelo sucesso da Nvidia no mercado de placas de vídeo inicialmente.

Sem falar que ele mesmo admitiu que a ID Software privilegiou a Nvidia. E ao contrário do que ele diz que qualquer Geforce 6 rodava em modo Ultra Quality, eu desminto: eu possuía uma Geforce 6600 AGP 256mb (DDR 1 550mhz) e a mesma não rodava nem a 20 quadros por segundo neste modo. Isto num Athlon XP Mobile com 2500mhz com 1.5Gb de memória RAM numa Abit AN7, minha antiga config. Já com uma 6600GT (GDDR3) ou 6800GT (256bits de memória), o mesmo rodava com 25 e 60 quadros respectivamente.

Comprovando que a ID influenciou os consumidores a comprar uma placa Mid High (6600GT) ou High-End (6800).

Já que a review do Beyond 3D não é suficiente para mostrar a VERDADE sobre a GT200, vamos a outras:

"Anandtech

"The GT200 architecture isn't tremendously different from G80 or G92, it just has a lot more processing power. The comparison below highlights the clock for clock difference between GT200 and its true predecessor, NVIDIA's G80. We clocked both GPUs at 575MHz core, 900MHz memory and 1350MHz shader, so this is a look at the hardware's architectural enhancements combined with the pipeline and bus width increases."


http://www.anandtech.com/video/showdoc.aspx?i=3334&p=1

Bit-Tech

"Many will class it as an evolution of the GeForce 8-series, but then the GeForce 8-series has been a huge success for Nvidia so it didn't surprise me to see the architects fix the biggest shortcomings and keep the good bits from G80 and its derivatives. But the question is whether those improvements are enough – in some respects, I don't think they are."


http://www.bit-tech.net/hardware/2008/06/24/nvidia-geforce-gtx-280-architecture-review/1

Ars Technica

"If, upon seeing the image above, you think to yourself "Self, that looks an awful lot like G92/G80," you're on the right track and may give yourself a cookie. At its heart, GT200 is an evolutionary descendant of G80, albeit one with a great deal of muscle, fangs, and claws. This type of long-term architecture evolution is common in the graphics industry; the R420 that powered ATI's high-end solutions throughout most of 2005 was based upon the R300 design that had first debuted with the Radeon 9700 in August of 2002. In this case, there are quite a few new enhancements baked into the GT200, some of which are visible in the above schematic, and some of which are not. We'll start at the "top," and work our way down."


http://arstechnica.com/reviews/hardware/nvidia-geforce-gx2-review.ars

Toms Hardware

"What’s our final impression of the new cards? First of all, the parallel with the GeForce 7800 GTX http://en.wikipedia.org/wiki/Gore-Tex is obvious. They build on an already-proven architecture by improving the few weak points that had been identified and significantly boosting the processing power. So there are no unpleasant surprises as far as the architecture is concerned, with the possible exception of the absence of support for Direct3D 10.1 or the slightly disappointing double-precision floating-point performance."


http://www.tomshardware.com/reviews/nvidia-gtx-280,1953.html

E as GT200 não têm nem o dobro de performance da G80/G92, têm mais ou menos 50% no melhor dos casos, isso em single-chip...só ler os reviews e fazer as contas.

PeSaDo:

Então quem me parece que não sabe do que está falando é você, qu nem se dá ao trabalho de ler totalmente o que falamos ou consultar os links que oferecemos...

psycrow:

Olhe aqui mesmo no Adrena como é um consenso que o Forceware não explora nada do Hardware da Nvidia, explora sim é a paciência dos usuários com inúmeros betas. Para se ter uma idéia, o 179.35/175.19 WHQL (últimos drivers oficiais para Geforce 8) dão muitos bugs e BSODs, inclusive no GRID. Eu tenho uma GF 8800 e sei muito bem do que estou falando...

O Catalyst em contrapartida, exceto por problemas com sistemas Crossfire não escalarem bem nas Radeon 3k e 4k, rodam todos os jogos numa boa e acrescentam muita performance a cada release, inclusive nas R520 e até da Radeon 9550 do micro do meu irmão (AGP).

Darktag:

Quanto ao preço de lançamento da Radeon X1950XTX era de 499 dólares, idêntico ao da 7900GTX, mas era melhor que a concorrente direta:

http://www.xbitlabs.com/articles/video/display/ati-x1950xtx_22.html#sect0
 
NOssa show galera, só entrei neste tópico agora o papo ta inteligente (pelo menos um pouco:D) por aqui.
 
[PeSaDo];3518211 disse:
ah cara não dá não, nego diz 20 besteiras eu rebato 20 ae em vez de ficar quieto vem com mais 20..

ahhh numa boa..tenho mais o q fazer.

beyond 3d review idôneo AUHaUHauhuhauahaUHaUH..ninguém merece..vou responder esse cara pela última vez, o cara não vai sussegar enquanto "não ganhar discussão" não entende xongas do q tá falando e fica questionando tudo q eu falo..pff.

tu nao é o dono da verdade não :yes:
 
Darktag:

Quanto ao preço de lançamento da Radeon X1950XTX era de 499 dólares, idêntico ao da 7900GTX, mas era melhor que a concorrente direta:

http://www.xbitlabs.com/articles/video/display/ati-x1950xtx_22.html#sect0

Nessa eu me enganei. Mas mesmo assim, ela vendeu um monte de 7600GT (segmento que realmente dá $$), só que foi com a série 8 e as burradas da Ati que a Nvidia dominou o mercado. Ao menos tenho esperanças com as 4xxx.

tu nao é o dono da verdade não :yes:

Verdade. Mas beyond 3D é tão idôneo quanto o Tom´s :whistle:
 
Que é tão idôneo quanto o Bit tech. Que é tão idôneo quanto o Toms. Que é tão idôneo quanto o Xbit. Que é tão idôneo quanto o Anandtech. Que é tão idôneo quanto o Adrenaline...

Osbervar uma arquitetura do ponto de vista tecnológico, principalmente em seu lançamento, normalmente não possui influências externas, já que as expectativas só serão sanadas após alguns meses de vida (e o release de 2 ou 3 drivers) das placas.
 
tu nao é o dono da verdade não :yes:

Claro q eu não sou, só não tenho q ficar aturando besteirol infantil.

Eu falo com o cara: Site idôneo? Um dos cabeças do site é acessor de marketing da Ati!

E o outro responde:

"Ele falou do review (do site) não do site (q fez a review)."

aff q papo de pré-primário é esse? Tô aqui pra falar sério, não pra ficar lendo esse tipo de "comeback" ridículo de criança de 9 anos.

Não sou dono da verdade mesmo não, mas esse tipo de pilhinha ou gente teimosa tipo o outro lá defendendo o mentiroso do Cevat mesmo depois de eu postar uma página de mentiras do cara??? Ah isso ninguém é obrigado a ter saco de aturar.

To escrevendo sobre o desenvolvimento da série Fx com o Carmack falando mil vezes sobre as features q foram capadas com o shader model 2 e neguinho reduz o argumento a "vc é fanboy da Nvidia e defensor da série Fx" ??

Po qualé..quero q a Nvidia vá pra pqp..infelizmente tem gente q é infantil demais pra manter a linha de pensamento se vc fala mal de uma engine = vc não gostou do jogo, ou pior, "tá falando isso pq é pobre" :slap:

Bah desanima mesmo. Se ponha no meu lugar..

Depois eu posto mais (a sério) pq hj eu tive um dia de cão.. Quase queimou meu pc inteiro, minha mobo foi pro saco..tava rolando 140v na linha do meu apartamento...quase dei uns tapas no síndico. Alem de goteira na minha rede elétrica tinha até cupin na poha da caixa de luz.

Que é tão idôneo quanto o Bit tech. Que é tão idôneo quanto o Toms. Que é tão idôneo quanto o Xbit. Que é tão idôneo quanto o Anandtech. Que é tão idôneo quanto o Adrenaline...


olha ae o q eu to falando..o cara acha q um site no qual um dos adm é acessor de marketinga da Ati é tão idôneo quanto qqr outro....ah meu amigo..vai ver se eu to ali na esquina..
 
[PeSaDo];3520475 disse:
Claro q eu não sou, só não tenho q ficar aturando besteirol infantil.

Eu falo com o cara: Site idôneo? Um dos cabeças do site é acessor de marketing da Ati!

E o outro responde:

"Ele falou do review (do site) não do site (q fez a review)."

aff q papo de pré-primário é esse? Tô aqui pra falar sério, não pra ficar lendo esse tipo de "comeback" ridículo de criança de 9 anos.

Não sou dono da verdade mesmo não, mas esse tipo de pilhinha ou gente teimosa tipo o outro lá defendendo o mentiroso do Cevat mesmo depois de eu postar uma página de mentiras do cara??? Ah isso ninguém é obrigado a ter saco de aturar.

To escrevendo sobre o desenvolvimento da série Fx com o Carmack falando mil vezes sobre as features q foram capadas com o shader model 2 e neguinho reduz o argumento a "vc é fanboy da Nvidia e defensor da série Fx" ??

Po qualé..quero q a Nvidia vá pra pqp..infelizmente tem gente q é infantil demais pra manter a linha de pensamento se vc fala mal de uma engine = vc não gostou do jogo, ou pior, "tá falando isso pq é pobre" :slap:

Bah desanima mesmo. Se ponha no meu lugar..

Depois eu posto mais (a sério) pq hj eu tive um dia de cão.. Quase queimou meu pc inteiro, minha mobo foi pro saco..tava rolando 140v na linha do meu apartamento...quase dei uns tapas no síndico. Alem de goteira na minha rede elétrica tinha até cupin na poha da caixa de luz.




olha ae o q eu to falando..o cara acha q um site no qual um dos adm é acessor de marketinga da Ati é tão idôneo quanto qqr outro....ah meu amigo..vai ver se eu to ali na esquina..



O mais dificil de aturar é que voce coloca até problemas pessoais no meio pra se esquivar, falando que não tem tempo e etc, pra escrever esse monte de coisa sem sentido você tem tempo né? Agora, pra argumenta algo técnico, você não tem.

Como eu disse, o cara leu alguma pouca coisa na net, juntou com o pouco da lembrança que ele tem, mais algumas tabelas com informações basicas e resolveu fazer essa vergonha de tópico, que só mostrou como ele é leigo no assunto e vive da opnião postado por outras pessoas...

Eu fico pu.to porque inves da pessoa procurar amadurar o conhecimento, não... ja sai se achando o sabe tudo, banca o arrogante, e acaba assim, dando explicação esfarrapadas...

Ae [PeSaDo] qualquer um que leia o seu tópico vai ter essa opnião de você:

owned9wz.jpg
 

Users who are viewing this thread

Voltar
Topo