Ganância do mercado de games no contexto atual

oq me deixa revoltado é que vocês falam da cryengine2 como se ela fosse uma cópia de um quadro famoso: bonita por dentro, porém nada autêntica.

BULLSHIT TOTAL ISSO!

esqueceram de dizer o que, apesar dos gráficos, foi acrescentado quase que majestosamente:

* FÍSICA
* SOMBRAS EM TEMPO REAL
* NUVENS VOLUMÉTRICAS
* VEGETAÇÃO TOTALMENTE 3D E QUE REAGE A ESTÍMULOS.
* CENÁRIO DESTRUTIVO (INCLUINDO ÁRVORES QUE QUEBRAM À MEDIDA QUE VOCÊ AS UTILIZA)
* IA AVANÇADA
* UM NOVO PATAMAR DE PARALAX
* EFEITO DE ÁGUA QUE SÓ BIOSHOCK CONSEGUIU FAZER TÃO BEM QUANTO
* FULL SCENE ANTI ALIASING PRATICAMENTE PERFEITO


enfim, são muitos detalhes que ultrapassam apenas a beleza da engine!!! o JOGO CRYSIS é passível de bugs, mas é um erro comparar um jogo com uma engine. O único bug que tive jogando crysis foi ter caído através do navio para um buraco sem fim, coisa que já me ocorreu em duke3d atravessando uma parede de espelho, ou em doom3 nas fases que você tem que pular umas plataformas, em tomb raider, em quake3...enfim, bugs que ocorrem e sempre ocorrerão!!!

Antigamente os jogos eram "menos bugados" não porque eram refinados, e sim porque não apresentavam massivas inclusões tecnológicas!!! Far Cry era bugado, mas foi o primeiro jogo de fps com aquele nível gráfico (que faz bonito até hoje) e tecnológico!! A água era linda, tudo era lindo e colorido!

Para mim, depois quake 3, half-life e half-life2, apenas a crytek fez o dever de casa.
 

Vlw amigão, a Crytek não mente não, eu q sou tendencioso AuhaUHa..

Deve ter ficado até tonto de tanta mentira, ainda foi lá e escolheu a dedo a do farcry. Aham... claro... 4 placas top da época do farcry rodariam o jogo mal e porcamente feito Crysis LOL :)

Melhor não contrariar

Vai com deus e não esquece q vc prometeu dar 3 Cd's do Rage pro pessoal daqui :) O meu vc pode vender e doar a grana pra Crytek :D

:wave: :wave:

oq me deixa revoltado é que vocês falam da cryengine2 como se ela fosse uma cópia de um quadro famoso: bonita por dentro, porém nada autêntica.

BULLSHIT TOTAL ISSO!

esqueceram de dizer o que, apesar dos gráficos, foi acrescentado quase que majestosamente:

* FÍSICA
* SOMBRAS EM TEMPO REAL
* NUVENS VOLUMÉTRICAS
* VEGETAÇÃO TOTALMENTE 3D E QUE REAGE A ESTÍMULOS.
* CENÁRIO DESTRUTIVO (INCLUINDO ÁRVORES QUE QUEBRAM À MEDIDA QUE VOCÊ AS UTILIZA)
* IA AVANÇADA
* UM NOVO PATAMAR DE PARALAX
* EFEITO DE ÁGUA QUE SÓ BIOSHOCK CONSEGUIU FAZER TÃO BEM QUANTO
* FULL SCENE ANTI ALIASING PRATICAMENTE PERFEITO


enfim, são muitos detalhes que ultrapassam apenas a beleza da engine!!! o JOGO CRYSIS é passível de bugs, mas é um erro comparar um jogo com uma engine. O único bug que tive jogando crysis foi ter caído através do navio para um buraco sem fim, coisa que já me ocorreu em duke3d atravessando uma parede de espelho, ou em doom3 nas fases que você tem que pular umas plataformas, em tomb raider, em quake3...enfim, bugs que ocorrem e sempre ocorrerão!!!

Antigamente os jogos eram "menos bugados" não porque eram refinados, e sim porque não apresentavam massivas inclusões tecnológicas!!! Far Cry era bugado, mas foi o primeiro jogo de fps com aquele nível gráfico (que faz bonito até hoje) e tecnológico!! A água era linda, tudo era lindo e colorido!

Para mim, depois quake 3, half-life e half-life2, apenas a crytek fez o dever de casa.

O Crysis acrescentou física, efeitos volumétricos e sombras em tempo real? Cenário destrutivo e parallax?

LOL..não to com saco de discutir com mais um troll, mas pelo menos fico feliz de vc ter saído do coma! :D Fora q o AA do Crysis nem funciona direito, tiveram q implementar um AA porcaria 101% meia boca chamado Edge Antialiasing q é uma bela duma bosta.

"Antigamente os jogos eram "menos bugados" não porque eram refinados, e sim porque não apresentavam massivas inclusões tecnológicas!!!"

Ow, se puder, dá uma olhadinha na primeira página :)
 
Meu pergunta se 7800gtx nao rodava doom3 no max? q era a vga de 2 geração da epoca do doom3???

agora pergunta se essas novas VGAS rodam crysis decentemente, isso nao tem nem discussão não.
 
Meu pergunta se 7800gtx nao rodava doom3 no max? q era a vga de 2 geração da epoca do doom3???

agora pergunta se essas novas VGAS rodam crysis decentemente, isso nao tem nem discussão não.

Pois é, nem quad de 9800 roda essa budega direito, tri-sli de gtx aqui = mór lixo.

Esses caras não postam uma vírgula sem ser a opinião deles e mesmo depois q a gente posta um zilhão de provas contra, não dão o braço a torcer..lol.

Eu só fico aqui rindo :D

Feito. Não desista!

Ih vo continuar infernizando mto mais auhaauha se o warhead for lançado antes de algum outro Fps bom surgir, vou botar algum nick tipo "Cevat's Mom Is a Man" no topo do ranking dessa bosta. Nussa ainda mais de processador novo e vga mais potente uhauha..se fizerem um anticheat + hit detection decente vou estraçalhar essa gringada. Vlw pelo edit :)

O legal q dessa vez se eles peidarem na farofa de novo vai voar cadeirada de tudo q é lado, praticamente tudo q é modder e gamer online tá furioso com os caras LOL.


Agora tão dizendo que o Warhead vai rodar liso, em High, numa máquina como a do amigo aí de cima mencionou. Dado o passado "idôneo" dessa empresa, se isso vier a ocorrer, só posso acreditar que eles vão capar tanto o jogo, que ele deveria se chamar Crysis Eunuco.


Cara pior q é difíci prever:

Pelo passado dos caras é difícil acreditar q eles façam algo q preste, mas por outro lado nego não pode ser tão burro, eles tem estatísticas, lêem os fórums, etc..

Po eu joguei tudo q é game, fui ver agora, tem UM servidor dx10 ativo, com 3 jogadores, sendo q o server é de um clã e 2 são do clã, deve ser o dono do server e mais 2 carinhas. LOL 3 caras no MUNDO inteiro?

Eu NUNCA vi um fracasso tão grande assim, EPIC FAIL. Os caras não podem ser tão burros assim. Aliás, comercialmente é uma estratégia pra f.d.p. nenhum botar defeito, em vez de consertar o game de graça, cobra pra consertar e ainda vem com esse papo retardado de "o mesmo jogo pelos olhos do psyco".

Os caras são mto feras: venderam o "farcry2" 3x: 1 pra Ubisoft e 2 pra galera LOL.

É como eu sempre digo: "O número de otários continua o mesmo, então a estratégia é vender mais vezes pro msm otário", e por coincidência é pra isso q o DirectX serve: vender sistema operacional q vc não precisa, fazer seu videocard ficar obsoleto artificialmente e te vender mais hardware.

*aliás outro dia eu li algo q fez sentido, eles devem mudar o medium pra high, o high pra very high e assim por diante. Se jogar o hdr no medium já engana geral quase sem impacto.

Fora o fato da nova geração de hardware + otimização (pq desde o patch 1.1 não melhorou mierda nenhuma)..então fica mto difícil os caras fazerem merd@ again.
 
[PeSaDo];3515653 disse:
Vlw amigão, a Crytek não mente não, eu q sou tendencioso AuhaUHa..

Deve ter ficado até tonto de tanta mentira, ainda foi lá e escolheu a dedo a do farcry. Aham... claro... 4 placas top da época do farcry rodariam o jogo mal e porcamente feito Crysis LOL :)

Melhor não contrariar

Vai com deus e não esquece q vc prometeu dar 3 Cd's do Rage pro pessoal daqui :) O meu vc pode vender e doar a grana pra Crytek :D

:wave: :wave:



O Crysis acrescentou física, efeitos volumétricos e sombras em tempo real? Cenário destrutivo e parallax?

LOL..não to com saco de discutir com mais um troll, mas pelo menos fico feliz de vc ter saído do coma! :D

"Antigamente os jogos eram "menos bugados" não porque eram refinados, e sim porque não apresentavam massivas inclusões tecnológicas!!!"

Ow, se puder, dá uma olhadinha na primeira página :)
cara, não quis dizer que foi a cryengine que introduziu isso no mercado, quis dizer que ela fez tudo isso coexistir naturalmente e perfeitamente bem!!!!

parece que você usa viseira cara, apenas isso. desde o seu primeiro post você está com sua opinião formada! melhor dizendo, eu não vim postar isso para mudar sua opinião, mas use o bom-senso apena desta vez:

o saldo de wolf3 para doom1 foi imenso? como você mesmo andou alegando, não mudou praticamente nada, exceto texturas escuras e em melhor resolucao. os jogos eram mais dos mesmos até a surgida de quake. depois de quake pouca coisa mudou em termos de fórmula de fps.

a fórmula de fps já foi criada, o que as softhouses tem de incrementar é possibilidades, apenas isso. E me fale algum outro jogo em que você tem mais possibilidades do que Crysis, com aquele nível gráfico e perfeitamente bem acabado. To querendo dizer é que grandes poderes trazem grandes responsabilidades, e que hoje em dia, programar algo é deveras mais complexo do que a 15 anos atrás, mesmo levando em consideração o salto tecnologico que foi de wolf3d para quake.

Hoje você tem que ter hitboxes acurados, jogabilidade exuberante, cenários destrutiveis, compatibilidade online, netcode refinado, aa, af, hdr, motion blur, pés que se encaixam em degraus de escadas, balas que perfuram superfícies, inteligencia artificial avançada e muitas outras coisas que você não percebe simplesmente porque, como você mesmo posicionou em seu priemiro post, só se preocupou em denegrir a imagem de Crysis falando de sua beleza.

Crysis sofreu o mesmo problema que Oblivion: um grande passo à frente, mas que aos poucos foi contornado. Te garanto que hoje em dia, mais de 50% das máquinas tem competencia de rodar o Crysis. O problema é que as pessoas querem rodar o Crysis com tudo bonito, pois esse é o glamour do jogo. Ou você acha que quem jogou Doom3 ou HL2 com Geforce MX aproveitou do poderio grafico do jogo?

As comparacoes e insinuações colocadas no primeiro post são infelizes e só denota uma coisa: você não tem poder aquisitivo e fica achando que a culpa é das softhouses em exigir cada vez mais dos equipamentos.

Eu já alego que se elas exigem mais de nossos bolsos, é pq tem idiota que paga...e eu sou um desses idiotas.
 
PS: sou leigo, aprendi bastante com esse tópico.

É sobre Diablo III, gostaria de tirar uma dúvida.

First off: the game will run on XP as well as Vista, with DirectX 10 being recommended but not required. As if that wasn't bad enough for the green team, which is working hard to shift new DX10 cards, the Direct X 10 included will be of the 10.1 variety - supported by DAAMIT but not the boys in green. This means that the best graphical experience might just be on ATI hardware.

And as a real kicker, Blizzard has opted for Havok physics - acceleratable on both Nvidia and ATI graphics cards, but now owned by Intel - over Physx, the physics platform from Nvidia.

To add salt to the wound, Blizzard will be keeping up with its tradition of releasing games simultaneously on Mac OSX as well as PC - meaning not only do you not need Vista to play, you don't even need a PC.
http://www.theinquirer.net/gb/inquirer/news/2008/06/30/blizzard-snubs-nvidia-diablo

Então quer dizer que quem tem VGA da nvídia não vai poder rodar o game no máximo? Ouvi dizer que estão desenvolvendo o jogo também em OpenGL... eu comprei uma 8800GTS recentemente, o que fazer?
 
cara, não quis dizer que foi a cryengine que introduziu isso no mercado, quis dizer que ela fez tudo isso coexistir naturalmente e perfeitamente bem!!!!

parece que você usa viseira cara.

Eu uso viseira? Vc tá falando então q remendar essa porcariada VELHA toda pra rodar tudo bugado com netcode podre, bug no som, física e hit detection podre, IA q parece q vc invadiu a Ilha da APAE, rodando a 20 fps em pc da Nasa é "coexistir perfeitamente"? auhAUHa então tá então..tá coexistindo tão perfeitamente q a própria Crytek largou né? Abandonou o suporte deixando tudo bugado. AHAm! Ferpeito! Deve ser por isso q de 6 bilhões de pessoas tem 3 jogando essa magavilha ae em dx10 na internet LOL \o/ Até o "Seu Creyson Adventures" deve ter mais players online (e menos bugs).

PS: sou leigo, aprendi bastante com esse tópico.

É sobre Diablo III, gostaria de tirar uma dúvida.

First off: the game will run on XP as well as Vista, with DirectX 10 being recommended but not required. As if that wasn't bad enough for the green team, which is working hard to shift new DX10 cards, the Direct X 10 included will be of the 10.1 variety - supported by DAAMIT but not the boys in green. This means that the best graphical experience might just be on ATI hardware.

And as a real kicker, Blizzard has opted for Havok physics - acceleratable on both Nvidia and ATI graphics cards, but now owned by Intel - over Physx, the physics platform from Nvidia.

Cara eu li mto por alto sobre o Dx10.1, mas o q me chamou atenção é um suporte obrigatório a 4AA, então por isso a grande vantagem dele com AA ligado. De resto pela impressão q eu tive é a msm bosta, mas tipo, eu acho q a GPU já ser projetada com o custo de performance do 4AA já incluído é uma boa vantagem, até pq com as tecnologias novas a perda de 4AA pra 16 é mínima, em MGPU então vai ficar muito boa a performance + qualidade, fora q com isso sobra potência pra entupir de aniso.

Pelo q eu li não é nada demais em termos de compatibilidade, mas na performance (pelo menos com filtros) vai ter impacto sim. Só q eu nem li muito não, então to meio boiando apenas te passando uma impressão q eu tive.
 
cara, não quis dizer que foi a cryengine que introduziu isso no mercado, quis dizer que ela fez tudo isso coexistir naturalmente e perfeitamente bem!!!!

parece que você usa viseira cara, apenas isso. desde o seu primeiro post você está com sua opinião formada! melhor dizendo, eu não vim postar isso para mudar sua opinião, mas use o bom-senso apena desta vez:

o saldo de wolf3 para doom1 foi imenso? como você mesmo andou alegando, não mudou praticamente nada, exceto texturas escuras e em melhor resolucao. os jogos eram mais dos mesmos até a surgida de quake. depois de quake pouca coisa mudou em termos de fórmula de fps.

a fórmula de fps já foi criada, o que as softhouses tem de incrementar é possibilidades, apenas isso. E me fale algum outro jogo em que você tem mais possibilidades do que Crysis, com aquele nível gráfico e perfeitamente bem acabado. To querendo dizer é que grandes poderes trazem grandes responsabilidades, e que hoje em dia, programar algo é deveras mais complexo do que a 15 anos atrás, mesmo levando em consideração o salto tecnologico que foi de wolf3d para quake.

Hoje você tem que ter hitboxes acurados, jogabilidade exuberante, cenários destrutiveis, compatibilidade online, netcode refinado, aa, af, hdr, motion blur, pés que se encaixam em degraus de escadas, balas que perfuram superfícies, inteligencia artificial avançada e muitas outras coisas que você não percebe simplesmente porque, como você mesmo posicionou em seu priemiro post, só se preocupou em denegrir a imagem de Crysis falando de sua beleza.

Crysis sofreu o mesmo problema que Oblivion: um grande passo à frente, mas que aos poucos foi contornado. Te garanto que hoje em dia, mais de 50% das máquinas tem competencia de rodar o Crysis. O problema é que as pessoas querem rodar o Crysis com tudo bonito, pois esse é o glamour do jogo. Ou você acha que quem jogou Doom3 ou HL2 com Geforce MX aproveitou do poderio grafico do jogo?

As comparacoes e insinuações colocadas no primeiro post são infelizes e só denota uma coisa: você não tem poder aquisitivo e fica achando que a culpa é das softhouses em exigir cada vez mais dos equipamentos.

Eu já alego que se elas exigem mais de nossos bolsos, é pq tem idiota que paga...e eu sou um desses idiotas.

OMFG!!!!

"o saldo de wolf3 para doom1 foi imenso? como você mesmo andou alegando, não mudou praticamente nada"

AAHHH LOL rôlishit batimam!!!


ô meu filho, hitbox nem existe mais, nussa...vou jogar..credo..quanto mais eu rezo mais assombração aparece pqp viu..

ps.

"As comparacoes e insinuações colocadas no primeiro post são infelizes e só denota uma coisa: você não tem poder aquisitivo e fica achando que a culpa é das softhouses em exigir cada vez mais dos equipamentos."

AAUHaUHaUHaauhAUHauhaauhauhaUHauhauhaauhaUHaUHaUHaUHauhaUHaUHuaahuahUAuhAuaHahhau

na boa amigo, se joga...
 
O jogo (warhead) nem lançou ainda e já tao metendo o pau.. looooooool -.-'
 
[PeSaDo];3515932 disse:
OMFG!!!!

"o saldo de wolf3 para doom1 foi imenso? como você mesmo andou alegando, não mudou praticamente nada"

AAHHH LOL rôlishit batimam!!!


ô meu filho, hitbox nem existe mais, nussa...vou jogar..credo..quanto mais eu rezo mais assombração aparece pqp viu..

ps.

"As comparacoes e insinuações colocadas no primeiro post são infelizes e só denota uma coisa: você não tem poder aquisitivo e fica achando que a culpa é das softhouses em exigir cada vez mais dos equipamentos."

AAUHaUHaUHaauhAUHauhaauhauhaUHauhauhaauhaUHaUHaUHaUHauhaUHaUHuaahuahUAuhAuaHahhau

na boa amigo, se joga...
cara, só para finalizar esse seu topico de viseira do black kamen rider, eu só digo que no mercado há jogos bons e ruins, se tu não sabe escolher eu só lamento.

se o crysis pra você é ruim, compra outro ué!!! agora não fica metendo o pau em jogos que apesar de darem um grande passo tecnológico, não introduzem uma história muito boa. você escolhe oq vc joga, apenas isso.

tem gente que prefere jogar World of Amebacraft, enquanto eu me divirto até hoje no Ultima Online, que é mais velho do que cagar sentado!

Não entendo a sua revolta e sua ira, tem mercado garantido para todos os bolsos e pra mim, o fps revelação foi o cod4 que não tem praticamente nada de física e me diverte horrores apenas pela jogabilidade.

E porque você se focou apenas em fps? Parece que apenas fps´s evoluem e exigem mais do seu hardware...vai meter pau no flight simulator, ou no age of conan que é ultra bugado e mesmo assim tem uns zilhoes jogando por ae...
 
cara, não quis dizer que foi a cryengine que introduziu isso no mercado, quis dizer que ela fez tudo isso coexistir naturalmente e perfeitamente bem!!!!

As comparacoes e insinuações colocadas no primeiro post são infelizes e só denota uma coisa: você não tem poder aquisitivo e fica achando que a culpa é das softhouses em exigir cada vez mais dos equipamentos.
Olha, psycrow, me desculpe, mas você foi extremamente infeliz nessas suas duas colocações.

Antes de mais nada, vou esclarecer mais uma vez: adoro Crysis! Já zerei a campanha singleplayer incontáveis vezes, nas mais inúmeras configurações e estratégias. Jogo o multiplayer quase todos os dias, e sou, juntamente com o Yang Xangai, um dos administradores online do único servidor nacional do jogo, o do Terra.

Quanto à primeira afirmação, dizer que todas as features do Crysis coexistem perfeitamente bem, é uma incoerência muito grande com tudo o que se vê publicado pelos quatro cantos do mundo em termos de reviews. Novas placas surgiram, nas mais diferentes combinações, seja SLI ou CF, e a impressão que se tem é o que jogo nasceu com o freio de mão puxado. Você vê testes onde as resoluções vão aumentando, mas os FPS ficam estagnados sempre numa mesma faixa, e sempre com valores baixos. A impressão que se tem é que o jogo impede os FPS de subirem a todo custo. Isso, a meu ver, só reitera a opinião do PeSaDo de que o jogo foi resultado de uma colcha de retalhos muito mal costurada.

E, quanto à segunda afirmação, você foi de uma falta de educação imensa. Discordar do ponto de vista de outra pessoa, tudo bem, mas daí a associar as opiniões dela ao seu poder aquisitivo, é o fim da picada, e infelizmente demonstra uma imaturidade muito grande da sua parte.

Espero realmente que esse tipo de atitude não venha a se repetir nem da sua parte, nem da parte de mais ninguém, pois só iria desvirtuar o objetivo desse tópico, que é promover uma discussão extremamente relevante, pelo menos para aqueles que se dizem gamers.

O jogo (warhead) nem lançou ainda e já tao metendo o pau.. looooooool -.-'
Crysis fanboy detected!!! :evil:

P.S.: Antes que alguém venha me criticar, deathtanga é meu amigo do peito, então tudo aqui não passa de uma brincadeira extremamente saudável entre amigos.

[PeSaDo];3515727 disse:
Ih vo continuar infernizando mto mais auhaauha se o warhead for lançado antes de algum outro Fps bom surgir, vou botar algum nick tipo "Cevat's Mom Is a Man" no topo do ranking dessa bosta. Nussa ainda mais de processador novo e vga mais potente uhauha..se fizerem um anticheat + hit detection decente vou estraçalhar essa gringada.
Essa eu realmente queria ver, lá no topo do ranking da CryStats.

Em relação ao tópico, parece que algumas pessoas não entenderam muito bem o objetivo dele. O objetivo aqui não é esculhambar Crysis/Crytek/Cevat Yerli, ou enaltecer Doom 3/id Software/John Carmack. Esses pares foram utilizados como exemplos do que a indústria, como um todo, traz de negativo e positivo.

O objetivo aqui é tentar esclarecer, ou entender, baseado numa análise histórica dos fatos, o que levou a indústria dos games, especificamente os FPS, a de certa forma ter ficado estagnada. Além disso, tentar desenvolver nos gamers um senso crítico maior, e não um sentimento de conformação, do tipo: "Ah, a indústria é assim mesmo, e não há nada que eu possa fazer". Enquanto consumidores, nós temos o direito e o dever de reclamar se o produto que adquirimos nos trouxe problemas, ou não cumpriu o que prometeu. Se nem isso pudermos fazer, então é melhor que cada um monte uma cela nas costas, e deixe quem quiser montar em cima.
 
enquanto tiver gente querendo comprar placas novas a cada mês e sonhando com jogos no ULTRA-MEGA-HIGH isso vai sempre acontecer
 
Ele responde que não está preocupado, pois ele não irá puxar mais do FarCry puxou (certamente ele está amarrando esse fato à época em que foi FarCry foi lançado, e qualquer um que não queira distorcer entende isso), e que mesmo assim FC foi um grande sucesso "para eles".

Crysis puxa muito mais que o Farcry puxou na época. Quando foi lançado, qualquer um com uma 9700pro rodava bem o bicho.

Provar é importante, então:




Gráficos do dia 14/04/2004, DIA DO LANÇAMENTO DO NV40. Farcry não tinha nem mês de lançamento. Tem até uma FX5950ultra rodando bem. Review do ANANDTECH

Logo, o Cevat está mentindo sim. É chato mas é a realidade.

Crysis sofreu o mesmo problema que Oblivion: um grande passo à frente, mas que aos poucos foi contornado. Te garanto que hoje em dia, mais de 50% das máquinas tem competencia de rodar o Crysis. O problema é que as pessoas querem rodar o Crysis com tudo bonito, pois esse é o glamour do jogo. Ou você acha que quem jogou Doom3 ou HL2 com Geforce MX aproveitou do poderio grafico do jogo?

1 - Você está comparando níveis diferentes. Pessoas do mundo inteiro com máquinas top (quadcore extreme, sli de séries 8/9 ou uma 280single) não chegam nos 60fps nem em sonho. Não adianta diminuir resolução, filtros, etc.

2 - Quem jogou Doom3, HL2 ou o que seja com uma geforce mx, sabia exatemente o que esperar da placa. Quem tinha 6800Nu pra cima, rodou esses 2 no máximo fácil.

Essa história de jogo para o futuro é a maior besteira que já li em fóruns. Parece que o gamer ficou trouxa! Comprar jogo pro futuro :no: Aliás, acho que é a primeira vez que isso acontece. Não lembro de nenhum outro jogo ser tão pesado e continuar pesado durante a passagem de outras séries de vgas.
 
É como o amigo aí de cima disse: jogo é feito para se jogar no tempo em que é lançado. Não vou comprar Crysis para rodar daqui a 2 anos...
Crysis foi extremamente mal otimizado (tanto é que nem as vga da nova geração rodam decentemente no very high) e pronto. Não adianta ser bonito e tal, e roda a 20 fps.
 
Poder de escolha para quê se o que me oferecem é suficiente? E por quê devo me preocupar em escolher? É muito trabalhoso! Deixe que escolham por mim!

Existe escolha? Existem opções?

Não existem nem opções nem o que escolher pois tudo está amarrado.

Abraço a todos. :thumbs_up
 
cara, não quis dizer que foi a cryengine que introduziu isso no mercado, quis dizer que ela fez tudo isso coexistir naturalmente e perfeitamente bem!!!!

Peraê que agora quem tem que postar no tópico sou eu.
Coexiste? Coexiste. Perfeitamente bem? Vírgula!
Todo mundo já tá careca (dos cabelos e dos pentelhos, se é que isso é possível) de saber que a engine do "crusis" é extremamente P-O-R-C-A. Possui gráficos lindos, uma física de morrer E SÓ. Na moral, só não vê quem é baba ovo, porque dizer que "ah, o 'crusis' é um jogo à frente da sua época" é pior do que conversa pra boi durmir.
Na época do lançamento do jogo a série 280 da NVidia nem sequer havia sido lançada. Como você explica que o jogo não rode "perfeitamente bem" no ultra-high (como ele aparece nas ss's) em um sistema que possui uma placa dessa?
Me explica isso agora. Só não vem dizer que é porque "o jogo está à frente do seu tempo"...
 
Bom vamos, lá.

PeSaDo:

Você fala de argumentações, embasamento técnico, ter postura pró-consumidor, mas deturpa os argumentos que vão contra o seu. Sem falar que suas palavras beiram ao desrespeito.

Aconselho também, a ser mais atento as argumentações e as informações oferecidas não só minhas quanto de outros participantes da discussão.

O "BrunusMaximus" achou muito útil os links que postei a respeito, inclusive do futuro no uso do Ray Tracing, já que predomina um consenso da abdicação das APIs atuais. Se isso se confirmar, toda a defesa de determinada tecnologia atual se tornará inútil, assim como boa parte da fundamentação de muitas opniões aqui.

O Ray tracing ao meu ver deveria ser o foco principal nas análises de tendências tecnológicas, incluive no desenvolvimento de hardware voltado a gráficos 3D.

http://www.beyond3d.com/content/articles/94 (Real-Time Ray Tracing: Holy Grail or Fool's Errand? - Page 1).

Sendo assim, tenho que deixar mais clara minha postura antes de continuar com a discussão:

1º) Não sou a favor das softwarehouses. São empresas que não focam a visão do consumidor, são patrocinadas por fabricantes de memórias, processadores e VGAs (especificamente Nvidia e Intel), visam lucro e prestígio. A ID Software e a Crytek (bem como Cervat Yerli e John Carmack) são softwarehouses, logo...

Assim, se você acompanhasse mais os históricos das minhas mensagens, tanto aqui quanto no Fórumpcs, veria que o seu desabafo contido neste tópico, é uma constante histórica em minhas postagens.

2º) Não prefiro Crysis à Doom 3 ou vice-versa. Na minha opnião, independente da API utilizada, ambos são idênticos em seu posicionamento e possuem muitas semelhanças em sua proposta geral, este foi meu esforço maior em caracterizar minha opnião e justificar minha fundada comparação entre o seu "Deus" John Carmack e o "Diabo" Cervat Yerli.

3º) O título de seu tópico utópico expõe sua insatisfação com a ganância no mercado de games, curiosamente você defende o desenvolvedor que criou a base para indústria atual bem como, de um modo geral, defende os posicionamentos cronológicos da Nvidia.

Pois bem, dados os esclarecimentos, sigo com a discussão:


Todos sabemos que a Nvidia sempre foi a empresa mais criticada pela sua postura arrogante, produtos com tecnologias polêmicas, drivers suspeitos e mal programados, financiamento de jogos em detrimento da concorrência - prática de concorrência ilegal, e preços de " produtos requentados" inflados para o mercado (sim considero o GT200 um G80 duplamente "requentado").

Entretanto, desde que a Nvidia sofreu com a entrada das Radeons no mercado, curiosamente sua participação no ambiente OpenGL cresceu (não o suficiente até hoje para lançar drivers decentes para Linux, assim como a ATI). Assim, os jogos baseados em engines OpenGL desfrutavam de performance superiora graças a excelência da Nvidia em programar drivers bem optimizados em OpengL.

Parece uma prerogativa correta, entretanto é ERRADA!

A Nvidia possuía drivers um pouco melhores em OpenGL (porquê comprou a 3Dfx - especialista em OpenGL tanto que criou o GLide a partir dela), entretanto seu financiamento para as empresas (estou falando das desenvolvedoras de games) com o selo "The Way it´s meant to be played" prova que de OpenGL a Nvidia viveu somente quando a ID Software estava com brigas com a Microsoft e era a mais respeitável softwarehouse, pois ela se fez mesma foi com o Direct 3D, desde suas Rivas 128 e as primeiras gerações de Geforces (Geforce 256, 2 Ti e 3 Ti). A partir da quarta geração, curiosamente aquela que existia no lançamento do Doom 3, a Nvidia passou a optimizar melhor os seus drivers OpenGL, também pelo fato do R200/300 terem sido lançados e eram um sucesso de crítica, público e performance sobre a plataforma Directx.

Eu venho da época da S3 VirgeGX/DX, junto com minha antiga Diamond Stealth 3D 2000 Pro 4MB PCI. Depois comprei uma Voodoo3 2000 16MB PCI e nunca desfrutei de tantos games sem dor de cabeça e problemas de performance, isso num Pentium 200 MMX com 32 MB de EDO Ram. Tanto em Direct 3D, OpenGL ou Glide. O Glide era o melhor de todos, em qualidade de imagem e performance, mas morreu junto com a falência da 3Dfx e consequentemente o OpenGL caiu de conceito junto. Sendo mantido principalmente pelas iniciativas de John Carmack. Louvável até aí.

O Glide era basicamente o que o Carmack faz com o OpenGL, características turbinadas e implementadas em cima do código base. Sempre achei que esta filosofia é algo realmente benéfico para a evolução tecnológica e aproveitamento dos hardwares existentes. É algo sem interesses comerciais diretos, onde todos são beneficiados. E quando digo todos, quero dizer Desenvolvedores, fabricantes e consumidores.

Entretanto a "era de ouro" dos games ficou por aí, onde as disputas vinham por resultados reais, de certa forma mais éticos, onde um tentava mostrar uma plataforma tecnológica melhor do que o outro sem optmizações específicas ou tendencialismo para um modelo/marca.

Daí veio a geração Directx 8, com dois players fortes no mercado: Ati e Nvidia. Só que a nvidia perdera então o posto de monopolista e já não tinha o melhor produto (época das Geforces 4 e 5). Apelou, começou a financiar os jogos, meter o dedo nas decisões dos programadores, lançar drivers com cheats e isto ficou até atualmente.

Então vimos que no lançamento de Doom3, apesar das pré-rogativas de John Carmack elogiando eloquentemente a Radeon 8500 (R200) e as Radeons 9K (R300), ás vistas do lançamento do jogo, sua posição mudou completamente e ele começou a argumentar sobre os paths de renderização da arquitetra Nv30 (Geforce FX - placa voltada para Doom 3, já que o r300 era voltado para Half-Life 2.). Assim como reclamou-se da performance capada das R300 no Doom 3 (caso "Humus Tweak" e Catalyst 4.9 - que trouxeram a verdadeira performance sem perda de qualidade de imagem á tona), ficou observado também que o Nv30 era capado no Half-Life 2 (tinha que se rodar em Directx 8, entretanto foram apresentados tweaks, que apesar de liberarem o uso do Directx 9, não traziam ganhos de performance e tinham perdas de qualidade).

Independente dos detalhes técnicos, observou-se uma postura anti-ética na indústria, tanto da Valve quanto da ID Software, tanto da ATI quanto da Nvidia. A guerra estava declarada, mas quem começou (se isso realmente importa) foi a Nvidia.

O que motivou a ATI a contra-atacar com o seu selo na engine Source foi justamente a mudança de partido da ID Software em beneficiar somente a Nvidia: seja no path escolhido para renderizar o jogo e também no modo Ultra Quality que beneficiava somente placas com 512mb de memória.

O acordo foi feito para beneficiar a Nvidia, que anunciara que suas Geforces 6, lançadas alguns meses após o Doom 3, teriam versões com 512Mb de memória (particularmente a 6800GT e 6800 Ultra), enquanto a ATI anunciara que não havia necessidade de tamanha quantidade de memória naquele momento e não lançou placas com 512mb de memória em sua geração R420.

Ponto para a sinceridade da ATI, pois apesar de Doom 3 defender esta característica, para seu inusitado modo de texturas em 512mb sem compressão, observou-se que foi o único título que defendeu esta loucura (dada a época), sem diferenças significativas na qualidade de imagem ou praticidade no cenário real.

Engraçado que a Nvidia lançou muitas Geforces 7 focando somente 256mb de memória, inclusive a estrela da geração 7800/7900 GT que, assim como as 6800 e 6600 GTs de 256MBs, rodavam a Id Tech 4 do Doom 3 em modo Ultra Quality com ótimos fps, mostrando que esta exigência era somente um "marketing pró-Nvidia".

Mais engraçado foi a 3D Realms lançar "Prey" (jogo que usa a mesma Id Tech 4 mas muito melhorada e com texturas com mais resolução) sem modo Ultra-quality nativo e mesmo que alterando as rotinas via configs, não necessitava de placas com mais de 256mb de memória.

Assim o argumento que Carmack fez isso somente por que estava com raiva da ATI ter vazado o Alpha do Doom 3 não se justifica, pois ele foi contra até os próprios usuários de placas Nvidia e contra o mercado como um todo. Sem falar que seria um tiro no próprio pé, pois as Radeons eram líderes de mercado e a ATI possuía uma maior fatia de Market-Share do que a Nvidia naquele momento. Ou seja, a Nvidia pagou muito pelo Doom 3. Pagou tanto que deu para o Carmack renovar suas Ferraris customizadas, mesmo o jogo tendo vendido menos do que as expectativas de seus idealizadores.

É incrível a semelhança com a nossa revolta atual com Cervat Yerli por ter optimizado o Crysis somente para as G80 e mesmo assim tentando nos empurrar hardware que não precisamos.

Sobre as mentiras envoltas no Crysis, tenho uma contribuição interessante:

http://www.incrysis.com/index.php?option=com_content&task=view&id=559

No passado, a Valve e a ID Software tinham richas que dividiam inclusive seus consumidores, com sequelas até hoje, só que hoje são parceiras, com games da ID sendo distribuídos pelo Steam...

Sem falar que a ID Tech 5, apesar de baseada em OpenGL, poderá ser executada em diferentes APIs, como também em Directx, já que é uma engine multi-plataforma para ser usada em PC/MAC, PS3 e Xbox 360.

""The PC version is still OpenGL, but it is possible that could change before release. The actual API code is not very large, and the vertex / fragment code can be easily translated between cg/hlsl/glsl as necessary. I am going to at least consider OpenGL 3.0 as a target, if Nvidia, ATI, and Intel all have decent support. There really won't be any performance difference between GL 2.0 / GL 3.0 / D3D, so the api decision will be based on secondary factors, of which inertia is one."

Id Software has developed id Tech 5 with multi-platform capabilities in mind with the first game based on that engine, Rage, having been announced for PC, Macintosh, Xbox 360 and the PS3. It has been known for some time that the renderer was fairly API agnostic. From previous reports we know that Rage will use D3D on the xbox platform, LibGCM on the PS3 and OpenGL on the Mac."


http://www.beyond3d.com/content/news/487

Outros links importantes para contribuir com a discussão:

http://www.beyond3d.com/content/interviews/28/ (John Carmack on Doom3 Rendering - Page 1);

http://www.beyond3d.com/content/interviews/3 (Interview with id Software's John Carmack - Page 1);

http://www.beyond3d.com/content/interviews/21 (John Carmack on NV30 vs R300 - Page 1);

http://windowsitpro.com/article/art...ontinues-id-and-alex-st-john-strike-back.html (Direct3D vs. OpenGL continues: id and Alex St. John strike back)


Quanto a discussão do Directx 10.1, como eu havia dito, é somente um aprimoramento técnico do Directx 10, quase como um Service Pack, mas com mudanças práticas bem-vindas conforme explica essa tabela e o corajoso review: http://www.rage3d.com/articles/assassinscreed/
 

Attachments

  • whitepaper slide 1.png
    whitepaper slide 1.png
    60.2 KB · Visitas: 103
Bom vamos, lá.

Cara eu agradeço muito sua seriedade e empenho na argumentação, não quotei pra não ficar grande demais. Mas de novo, sua teoria cai por terra. Me parece q vc está tendo uma enorme dificuldade de entender o ponto BÁSICO:

A r300 foi um chip q partiu da união da Microsoft/Ati simplesmente por causa de uma disputa comercial. A r300 não era melhor, era apenas mais rápida q a geforce4, q vinha da tecnologia da geforce3.. Eu achei q não teria q postar a maldita tabela de shader model pela TERCEIRA VEZ, mas caramba, como é difícil as pessoas entenderem:

shaders1.jpg


Preste atenção nisso ae, pq TUDO q vc falou a partir do dx8 tá basicamente errado pq vc simplesmente não entendeu a tabela acima.

A r300 era limitada pois trabalhava em ps 2.0, q foi feito ÚNICA E EXCLUSIVAMENTE pra prejudicar a Nvidia e por tabela, o Carmack. Mudou pra CAPAR funcionalidades q depois seriam liberadas no Sm3.0, pois tanto Microsoft/dx8 quanto a ATI seriam esculhambadas pelas tecnologias introduzidas pela dupla Carmack e Nvidia. (Pra não falar da Valve com hl2, q ficou basicamente na situação do John Romero/Daikatana x iluminação dinâmica do quake2 - GO GOOGLE)

Quando o Carmack aponta limitações no R300, é por causa dessa tabela!!!

O q aconteceu depois q "liberaram" instruções mais complexas? A Ati ficou pra TRÁS, foi vendida, não conseguia nem rodar hdr no Farcry ou HalfLife2, ATÉ HJ ela ainda não conseguiu retomar a coroa ganha no "tapetão" e na marmelada do Dx9.

Cara isso é a BASE de todo o tópico, a implementeção de uma tecnologia CAPADA E INFERIOR devido a interesses comerciais prejudicando os gráficos E os gamers.

Só DEPOIS q essa tecnologia foi liberada q se pode fazer efeitos mais complexos e tocar o bonde pra frente. A Nvidia tinha o melhor produto SIM, pois na época da G4 não existia a r300, ae quando a r300 saiu, CHEIA DE LIMITAÇÕES, porém, rodando o q existia com mais rapidez e superando a tecnologia VELHA da Geforce 4 q já tava na segunda geração, a 5800 estava pra chegar, e seria o FIM do r300, pois a 5800 implementava a base do SM3.0, q como vc pode ver na tabela, é MUITO SUPERIOR.

Enquanto isso, a r300 era limitada as especificações acima, deu pra entender o q iria acontecer?

Seriam feitas instruções ACIMA da CAPACIDADE DO R300 e a Ati simplesmente NÃO RODARIA, NADA. Como não rodou hdr e nem nada além do dx9.0 CAPADO feito intencionalmente pra FREIAR o desenvolvimento da Nvidia e prejudicando o Ogl e o Carmack e a evolução dos gráficos e os GAMERS em efeito cascata.

O passo pro futuro, a EVOLUÇÃO, veio dessa base: shaders mais longos pra efeitos mais complexos, etc..onde a Nvidia e a IdSoftware estavam investindo.

Então, por favor, e com todo respeito, DEPOIS q vc entender isso, refaça seu raciocínio, pq ele está errado, então não adianta debater em cima de um raciocínio errado.

Te agradeço MUITO pela sua dedicação, mas esse "detalhe" acaba por minar TODA A BASE da sua argumentação. Por isso não vou entrar em detalhes. Tentei explicar o mais claramente possível, isso não é minha "opinião", olhe na tabela: isso é FATO, é só ver as specs da API q fica CLARO.

Pela sua afirmação de q a 280 é só uma g80 requentada, nota-se q vc não percebe q quem determina a arquitetura NÃO SÃO MAIS os produtores de games ou a Nvidia/Ati E/OU o MELHOR FABRICANTE COM A MELHOR TECNOLOGIA junto aos melhores programadores, e SIM A BOST@ DA MICROSOFT, se o treco é DIRECTX10, ARQUITETURA TEM Q SER COMPATÍVEL, se essa arquitetura é definida por PICUINHAS COMERCIAIS, em vez de evoluir, a coisa ESTAGNA e em vez dos "melhores programadores", temos a BOST@ da CRYTEK na ponta hj em dia..do mesmo jeito q caparam o shader model da nvidia e do Carmack, estão hj capando o Dx10.1 da Ati...Fora restringir o dx10.0 aos donos de Windows Vista.. Essa é exatamente a BASE de todo o tópico.

Abraços.
 
[PeSaDo];3517471 disse:
Só DEPOIS q essa tecnologia foi liberada q se pode fazer efeitos mais complexos e tocar o bonde pra frente. A Nvidia tinha o melhor produto SIM, pois na época da G4 não existia a r300, ae quando a r300 saiu, CHEIA DE LIMITAÇÕES, porém, rodando o q existia com mais rapidez e superando a tecnologia VELHA da Geforce 4 q já tava na segunda geração, a 5800 estava pra chegar, e seria o FIM do r300, pois a 5800 implementava a base do SM3.0, q como vc pode ver na tabela, é MUITO SUPERIOR.

Enquanto isso, a r300 era limitada as especificações acima, deu pra entender o q iria acontecer?

Seriam feitas instruções ACIMA da CAPACIDADE DO R300 e a Ati simplesmente NÃO RODARIA, NADA. Como não rodou hdr e nem nada além do dx9.0 CAPADO feito intencionalmente pra FREIAR o desenvolvimento da Nvidia e prejudicando o Ogl e o Carmack e a evolução dos gráficos e os GAMERS em efeito cascata.

Tem cabimento. O único problema da série FX era o S.M. 2.0. De resto tinha potência para competir com a ATi. Interessante é que depois da série FX, a Nvidia nunca mais sofreu com ATi. Talvez sofra agora, talvez.
 
Tem cabimento. O único problema da série FX era o S.M. 2.0. De resto tinha potência para competir com a ATi. Interessante é que depois da série FX, a Nvidia nunca mais sofreu com ATi. Talvez sofra agora, talvez.

Se vc acompanhar o desenvolvimento do DirectX, vai ver q a base do q temos hj vem do trabalho do Carmack com a Nvidia na série Fx. Foi um dos maiores investimentos da Nvidia e seria um grande salto.

Outra história MUITO interessante é o q aconteceu quando o John Romero saiu da Id e tentou competir com o Carmack no mercado de games. É basicamente a msm coisa do Doom3 x Hl2:

Dois jogos com muita hype, mas depois de quase prontos, tanto o Romero quanto a Valve viram q tomariam um owned monster do Carmack e suas novas tecnologias.

Nesse ponto, a divergência: O Romero partiu pra refazer tudo (praticamente acabou com a carreira dele) enquanto a Valve juntou com a Microsoft/Ati/Directx pra infernizar a vida do Carmack/Nvidia/Ogl.

Sempre a msm história, a msm praça, o msm banco. É só se informar q fica tudo mto claro. Até pra quem é leigo fica fácil perceber o tanto q o SM2.0 é limitado e sem nenhum nexo. Assim como as limitações q a Crytek impôs ao dx9. Sem nexo. Com benefícios apenas pra Microsoft e quem quer q esteja na cama com ela.


Crysis fanboy detected!!! :evil:

P.S.: Antes que alguém venha me criticar, deathtanga é meu amigo do peito, então tudo aqui não passa de uma brincadeira extremamente saudável entre amigos.

Ele tá louco pra pegar no nariz do Gonzo :D:eek::D
 
Bom pesado, você está confundindo as datas e tecnologias. Vou ordenar por ordem cronológica para você entender.

A Radeon 8500 (R200) foi lançada em Outubro de 2001 (10/2001) com o Directx 8.1 -Shader Model 1.4

A Geforce 4 Ti (NV25) foi lançada em Abril de 2002 (04/2002) com o Directx 8.1 - Shader Model 1.3.

A Radeon 9K (R300) foi lançada em Agosto de 2002 (08/2002) com o Directx 9.0 - Shader Model 2.0.

A Geforce 5 FX (Nv30) foi lançada em Fevereiro de 2003 (02/2003) com Directx 9.0a - Shader Model 2.a. (* que não têm Shader Model 3.0 conforme sua tabela).

A Geforce 6 (NV40) foi lançada em Abril de 2004 (04/2004) com Directx 9.0c - Shader Model 3.0 (* Agora sim!).

A Radeon X800 (R420) foi lançada em Maio de 2004 (05/2004) com Directx 9.0b - Shader Model 2.b. (* Condiz agora sim com sua tabela)

Então, você está focando nas diferenças do R420 com o com o NV40. Só que no desenvolvimento do Doom 3 (que não usa Shader Model 3.0 ou Directx 9.0c, mas é equivalente em partes), foi focado pelo Carmack em entrevistas antes do lançamento do jogo (3 de Agosto de 2004) a performance do R200/R300/NV25/NV30, pois o jogo tinha sido idealizado com essas placas em mente, não as recentes NV40 e R420. Pudera, nem haveria tempo de mudar uma engine já pronta há anos.

Sendo assim, as diferenças entre o shader Model 3.0 e 2.0b são claras, apesar das críticas ferrenhas da mídia e público na introdução destas tecnologias nas Geforces 6, que deixavam a performance aquém do esperado, mas pelo menos funcionavam razoavelmente.

Logo, todo o meu fundamento está preciso, pois você está focando em diferenças que vieram depois do Doom 3, e somente a partir daí entendo seu raciocínio.

Logo, não precisa se dar ao trabalho de postar uma quarta vez uma tabela que já tinha entendido mais do que você na primeira...
 
Tem cabimento. O único problema da série FX era o S.M. 2.0. De resto tinha potência para competir com a ATi. Interessante é que depois da série FX, a Nvidia nunca mais sofreu com ATi. Talvez sofra agora, talvez.

Sofreu com o R500 (Radeons X1K), onde a Ati deixou em pé de igualdade as tecnologias Directx e ganhou com a coroa de TOP performance e preço mais baixo com a X1950 XTX contra a 7900GTX.
 
Bom pesado, você está confundindo as datas e tecnologias. Vou ordenar por ordem cronológica para você entender.

A Radeon 8500 (R200) foi lançada em Outubro de 2001 (10/2001) com o Directx 8.1 -Shader Model 1.4

A Geforce 4 Ti (NV25) foi lançada em Abril de 2002 (04/2002) com o Directx 8.1 - Shader Model 1.3.

A Radeon 9K (R300) foi lançada em Agosto de 2002 (08/2002) com o Directx 9.0 - Shader Model 2.0.

A Geforce 5 FX (Nv30) foi lançada em Fevereiro de 2003 (02/2003) com Directx 9.0a - Shader Model 2.a. (* que não têm Shader Model 3.0 conforme sua tabela).

A Geforce 6 (NV40) foi lançada em Abril de 2004 (04/2004) com Directx 9.0c - Shader Model 3.0 (* Agora sim!).

A Radeon X800 (R420) foi lançada em Maio de 2004 (05/2004) com Directx 9.0b - Shader Model 2.b. (* Condiz agora sim com sua tabela)

Então, você está focando nas diferenças do R420 com o com o NV40. Só que no desenvolvimento do Doom 3 (que não usa Shader Model 3.0 ou Directx 9.0c, mas é equivalente em partes), foi focado pelo Carmack em entrevistas antes do lançamento do jogo (3 de Agosto de 2004) a performance do R200/R300/NV25/NV30, pois o jogo tinha sido idealizado com essas placas em mente, não as recentes NV40 e R420. Pudera, nem haveria tempo de mudar uma engine já pronta há anos.

Sendo assim, as diferenças entre o shader Model 3.0 e 2.0b são claras, apesar das críticas ferrenhas da mídia e público na introdução destas tecnologias nas Geforces 6, que deixavam a performance aquém do esperado, mas pelo menos funcionavam razoavelmente.

Logo, todo o meu fundamento está preciso, pois você está focando em diferenças que vieram depois do Doom 3, e somente a partir daí entendo seu raciocínio.

Logo, não precisa se dar ao trabalho de postar uma quarta vez uma tabela que já tinha entendido mais do que você na primeira...

[PeSaDo];3517471 disse:
na época da G4 não existia a r300, ae quando a r300 saiu, CHEIA DE LIMITAÇÕES, porém, rodando o q existia com mais rapidez e superando a tecnologia VELHA da Geforce 4 q já tava na segunda geração, a 5800 estava pra chegar, e seria o FIM do r300, pois a 5800 implementava a base do SM3.0, q como vc pode ver na tabela, é MUITO SUPERIOR.

:rolleyes:

Eu não disse q a fx tinha sm3, e sim q A BASE do sm3.0 veio da fx, e q funcionalidades foram LIMITADAS devido as rixas comerciais entre Microsoft e Nvidia.

Tanto q o shader model foi pro 2.0 limitando geral e depois no 3.0 liberou geral.

ps23.jpg


ps22.jpg


ps21.jpg


Não queira dar uma de entendido sem saber do q está falando, vc acha q eu não percebi q vc tá boiando na conversa? Falar q o 280 é um g80 requentado ou falar dos cheats da Nvidia sem saber o pq? (não vou nem comentar a do Carmack e Cevat serem "farinha do msm saco") Assim vc se entrega fácil demais.. demonstra claramente seu desconhecimento sobre o assunto..não queira me fazer de bobo, por favor, respeite pra ser respeitado.

Só por causa disso, lê ae a tabela pela quarta vez..compara as funcionalidades CAPADAS do sm2/r300 com a BASE DO SM3.0/NV30

shaders1.jpg
 
Bah, sou da série FX, então não sou tão oldschool, mas de de DX10 e 9 eu entendo, e você começa a falar muita besteira quando sai do DOOM3, vamos lá...

Pra começo de conversa, o DX depois do 9 se tornou uma alternativa muito melhor que o opemGL para as softhouses, o proprio john cammark falou isso, tanto o kit de desenvolvimento, quando a produtividade os resultados etc etc...

Se a Id vai tão em busca assim da qualidade gráfica não sendo mercenarios e etc como você disse, bom então o fato é que o DX 9 se saiu melhor que o opemgl. FATO!

Mas qual é o grande problema do DX9? O peso, sim ele é muito pesado, o DX veio se espandindo, melhorando, se aperfeiçoando etc, etc, então, nada mais coerente que ele ser PESADO, devido a toda essa melhora sem uma devida organização...

Os planos da microsoft são muito bons, o DX10 é uma API feita praticamente do 0, reformulou todo o conceito de processamento, principalmente no que se trata de Driver, kernel e hardware.

Então qual o grande problema? Veja bem, hoje em dia, ao contrario que os outros pensam, NÃO EXISTE NEM UM JOGO DX10, o que a crytek fez (e muitas fazem) e desenvolver o jogo TODO em DX9.0c e adicionar alguns efeitos e funções do DX10 como markting de venda!

Entendam de uma vez, nunca que um jogo feito em DX9 "emulando" efeitos em DX10 vai ser mais leve, o DX10 é sim muito mais funcional, mais leve e revolucionario que qualquer outra API, porem, tem um grande problema (erro brutal da microsoft) não roda no windows xp....

Sendo assim, é complicado dizer de quem é a culpa, veja a situação:

A microsoft deu mole e deixou o DX10 apenas no vista
O vista não foi esse sucesso todo
As softhouses não querem arriscar em um jogo full dx10 (muito dinheiro pra desenvolver, precisam de conhecimento técnico e isso gera custo e perda de tempo (+ custos)

Ae chegamos no paradoxo do texto, as softhouses não querem e querem usar o DX10, então, empurram jogos dx9 com esse markting DX10 maldito!

Quem se ferra nessa? A Microsoft proque injustamente tem sua API como alvo de criticas por pessoas que na verdade nem nunca utilizaram.

Mas ae ela se ferra com motivos, a Microsoft afirmou e afirma até hoje que é complicado introduzir o DX10 no windows XP, e realmente é dificil, vendo forma que a API lida com o kernel pode se dizer que é quase impossivel, mas não é impossivel...

Ae vai ficar a incógnita, fez porque pra vender o vista ou porque seria inviavel? Por qualquer um que seja o motivo, se fu.deu bonito!

Com isso, quem leva a melhor? As softhouses, usam o markting do DX10, nem trabalham com ele, e ainda de quebra vendem umas bombas e nem tomam a culpa, apenas parcialmente...

Quem se ferra? O consumidor, sem DX10, sem desempenho e sendo lesado por empresas como a Crytek!

Eu posso até estar errado, mas esse é o meu ponto de vista baseado em muita pesquisa sobre o assunto.
 

Users who are viewing this thread

Voltar
Topo