Primeiros benches HD4870 VS 9800 GX2??

A ATI subestimou a NVIDIA na época do lançamento do R4xx, que veio sem inovações e incapaz de concorrer no segmento low e mid devido ao desempenho ridículo das X3xx e X7xx perante as suas rivais, além de ter perdido também no segmento "top" devido ao pesado marketing da NVIDIA em cima do SM3.0, apesar das X8xx serem mais rápidas que suas concorrentes.

Resumindo, a ATI dominou o mercado por um certo período e não soube extrair a vantagem para continuar o seu domínio, da mesma maneira que a AMD fez com o seu Athlon 64.

não foi por isso, é uma história comprida. basicamente nvidia e Idsoftware iriam revolucionar o mercado com o doom3 em opengl e a microsoft se juntou com a Ati e mudou totalmente o directx pra funcionar de forma contrária a toda a tecnologia desenvolvida pelo Carmack/Nvidia usando a base do opengl.

obviamente quando vc vai contra o melhor padrão gráfico e o maior gênio das engines q já existiram, vc está no caminho errado.

quando a microsoft teve q mudar o directx todo de volta de novo, a Nvidia tocou o bonde com a tecnologia de sempre, enquanto a Ati teve q recomeçar tudo do zero pois o modelo dx9 de arquitetura r300 foi abandonado.

desde então a Ati nunca mais se recuperou, foi vendida e a Amd ainda sofreu desvalorização recentemente pq foi constatado q nem valia o q foi pago.


versão resumidíssima foi basicamente isso.

ps. sm3 não foi marketing, foi justamente quando o directx retornou aos padrões originais.
 
[PeSaDo];3303744 disse:
não foi por isso, é uma história comprida. basicamente nvidia e Idsoftware iriam revolucionar o mercado com o doom3 em opengl e a microsoft se juntou com a Ati e mudou totalmente o directx pra funcionar de forma contrária a toda a tecnologia desenvolvida pelo Carmack/Nvidia usando a base do opengl.

obviamente quando vc vai contra o melhor padrão gráfico e o maior gênio das engines q já existiram, vc está no caminho errado.

quando a microsoft teve q mudar o directx todo de volta de novo, a Nvidia tocou o bonde com a tecnologia de sempre, enquanto a Ati teve q recomeçar tudo do zero pois o modelo dx9 de arquitetura r300 foi abandonado.

desde então a Ati nunca mais se recuperou, foi vendida e a Amd ainda sofreu desvalorização recentemente pq foi constatado q nem valia o q foi pago.


versão resumidíssima foi basicamente isso.

ps. sm3 não foi marketing, foi justamente quando o directx retornou aos padrões originais.

Cuma? :lol:

Não é segredo que a Microsoft estreitou seus laços com a ATI na época do lançamento do R300, mas a derrocada da ATI não tem nada a ver com isso, foi erro estratégico mesmo na família R4xx (que só prestava o segmento high-end).
 
Cuma? :lol:

Não é segredo que a Microsoft estreitou seus laços com a ATI na época do lançamento do R300, mas a derrocada da ATI não tem nada a ver com isso, foi erro estratégico mesmo na família R4xx (que só prestava o segmento high-end).

exatamente , a ati se afogou no proprio orgulho passou muito tempo tendo a vga mais rapida , a top e esqueceu de ter uma mid com preço bom afinal todos sabemos que o lucrativo e realmente o mercado mid e low , a top so serve para eles dizerem aos leigos que sao os melhores , ae o cara compra uma midzinha e diz owww eu tenho uma Nivdia 86xx ou owww eu tenho uma 96xx ( na epoca do reinado absoluto da 97xx-98xx) , mas a nvidia so passou realmente mesmo a ati na serie 88xx pois a x850 batia na 6800u e a x1950 batia e bate na 7900 entao infelizmente apenas na serie hd38xx a ati por pressão percebeu que devia explorar as mids e lancou otimas placas por otimos preços o que forcou a queda tb das nvidias

n teve nada haver com x ou y , ate porque apesar de gostar de opengl a maioria dos games esta sendo feita em directx
 
depois da 6800 a Ati só foi top de 3dmark, se prejudicou pq investiu em precisão única, sm2.0 etc achando q a parceria com o Directx ia vingar, quando a Microsoft mudou as regras do Dx9 de volta pra 32/16 a Nv tava com a 6800 pronta o povo migrou todo de volta e seguiu na série 78/88/98...e agora Ati ainda levou uma outra rasteira no dx10 quando a microsoft desistiu de implementar a tal da virtualização, tinha investido pesado nisso e não entrou no dx10. (ainda né? se preparem pra maais uma sessão de "sua Vga ficou inútil da noite pro dia" em breve).

é só dar uma pesquisada.. vejam a arquiterura do r300/dx9/sm2 ae vcs vão saber exatamente onde foi o "erro de estratégia" real.
 
[PeSaDo];3304824 disse:
depois da 6800 a Ati só foi top de 3dmark, se prejudicou pq investiu em precisão única, sm2.0 etc achando q a parceria com o Directx ia vingar, quando a Microsoft mudou as regras do Dx9 de volta pra 32/16 a Nv tava com a 6800 pronta o povo migrou todo de volta e seguiu na série 78/88/98...e agora Ati ainda levou uma outra rasteira no dx10 quando a microsoft desistiu de implementar a tal da virtualização, tinha investido pesado nisso e não entrou no dx10. (ainda né? se preparem pra maais uma sessão de "sua Vga ficou inútil da noite pro dia" em breve).

é só dar uma pesquisada.. vejam a arquiterura do r300/dx9/sm2 ae vcs vão saber exatamente onde foi o "erro de estratégia" real.

Não existe "precisão única", o imagino que você queira dizer é precisão parcial (16-bits). Mas, continuando, por partes.

- A ATI nunca teve parceria com a Microsoft sobre o DirectX de forma oficial, portanto, a derrocada da mesma nada tem a ver com isso;
- O próprio NV30 (série FX) já era full-precision (32-bits) e era DirectX 9.0b, portanto, não tem nada a ver R4xx ser DirectX 9.0b por trabalhar apenas com 24-bits;
- A Microsoft não impos regra alguma sobre 16, 24 ou 32-bits de precisão, cada fabricante adotaria o modelo que quisesse. Ela liberou em 2004 as especificações sobre o SM3.0, a NVIDIA o adotou, a ATI não. Preferiu apenas turbinar a arquitetura do R3xx, e para dizer que ele não tinha inovação nenhuma, implementou o seu proprietário 3Dc, que apesar da idéia interessante, não pegou.

E este último ponto foi o erro da ATI, de não adotar o SM3.0 no R4xx, que seria útil ou não na época, ajudou a NVIDIA a vender cada vez mais placas, mesmo com o desempenho inferior no segmento high-end. Outro erro como já dissemos, foi "abandonar" a partir daquela época o segmento de baixo e médio custo, que é onde está o grosso das vendas.

Podemos dizer que só agora a ATI tem dado atenção a este segmento com as 3650 e as 3850.
 
Não existe "precisão única", o imagino que você queira dizer é precisão parcial (16-bits). Mas, continuando, por partes.

- A ATI nunca teve parceria com a Microsoft sobre o DirectX de forma oficial, portanto, a derrocada da mesma nada tem a ver com isso;
- O próprio NV30 (série FX) já era full-precision (32-bits) e era DirectX 9.0b, portanto, não tem nada a ver R4xx ser DirectX 9.0b por trabalhar apenas com 24-bits;
- A Microsoft não impos regra alguma sobre 16, 24 ou 32-bits de precisão, cada fabricante adotaria o modelo que quisesse. Ela liberou em 2004 as especificações sobre o SM3.0, a NVIDIA o adotou, a ATI não. Preferiu apenas turbinar a arquitetura do R3xx, e para dizer que ele não tinha inovação nenhuma, implementou o seu proprietário 3Dc, que apesar da idéia interessante, não pegou.

E este último ponto foi o erro da ATI, de não adotar o SM3.0 no R4xx, que seria útil ou não na época, ajudou a NVIDIA a vender cada vez mais placas, mesmo com o desempenho inferior no segmento high-end. Outro erro como já dissemos, foi "abandonar" a partir daquela época o segmento de baixo e médio custo, que é onde está o grosso das vendas.

Podemos dizer que só agora a ATI tem dado atenção a este segmento com as 3650 e as 3850.

Eita como não existe? todo o directx9.0, o shader model 2.0 e a série r300 foram baseados em precisão única de 24 bits, e vc ainda vem falar q eu to confundindo precisão única com precisão parcial? Aí é Drury's :( ..

- Não teve parceria? Ok, o Directx mudou do nada, completamente ao contrário do q deveria ser, exatamente pras especificações do r300 (q nenhum outro fabricante jamais usou ou usava) por pura coincidência.

- O Nv30 era full precision sim, mas isso era mais marketing puro do q qqr outra coisa. É a msm coisa da 8800 575mhz de 2006 rodando dX10 puro, ela é "dx10" mas roda bem mesmo dx9 e foi feita pra rodar dx9. Assim como a Fx era 32b, mas foi feita pra rodar nos fallbacks de 16 bits em half precision q eram a base do Doom3/Ogl. Esse manobra matou a Nvidia exatamente pq o mínimo de 24bits obrigou-a a rodar TUDO em 32bits. Isso acabou com a performance da série Fx no directx e deu a Ati a liderança no dx9 sm2.

- Errado, a regra era rodar a 24bits ou +....como não impôs regras? O directX é exatamente a imposição de regras pra regulamentar a programação de games e a arquitetura dos chips. A própria função da Api por definição de é impor regras. Tanto q a Nvidia ainda aproveitou pra chamar seu produto de dx9+, pois ia além das especificações da Microsoft, pelo menos teoricamente ou a 10 fps.

E por último, pare pra pensar: não foi "erro" da Ati não adotar sm3, é exatamente esse o ponto, vc acha q é fácil simplesmente mudar toda a sua arquitetura de uma série pra outra? Isso q matou a Ati rapaiz. Abrir mão do Sm3? Ela tinha investido todas as fichas no modelo do Sm2.0, assim como a Nvidia investiu na FX..

Ae as regras mudam e acontece o q? Tiram uma série nova, com arquitetura completamente diferente, do nada?

Isso não existe..a Nvidia segurou o rojão com a Fx do jeito q deu overclocando e na base da otimização de drivers e até cheats na renderização.

A Ati fez o mesmo quando a Spec foi de sm2.0 pra 3.0 e exatamente por isso e nunca mais consegiu pegar a Nvidia, da mesma forma q a Nvidia ficou pra trás com as Fx, a MESMA causa: tecnologia inutilizada devido as mudanças radicais na Api.

TODA a tecnologia q a ATi tinha era baseada no Sm2. Ela não "abriu mão" do Sm3, simlesmente tecnologia não nasce por mágica de um dia pro outro, já a Nvidia tava trabalhando no mesmo princípio 16/32 e no sm3 quando voltou pra 16/32 a Ati simplesmente NÃO tinha produtos compatíveis, a placa realmente capaz de rodar 32bits saiu (6800) e a Ati nunca mais tirou o atrazo de ter abandonado 16/32 na série r300 e afins e ter q começar tudo do zero.

Então repito: PESQUISE as especificações da arquitetura r300: instruções limitadíssimas em todas as áreas, precisão única totalmente incompatível, pipelines totalmente incompatíveis..só assim vc vai ver pq a Ati "optou" por não adotar o Sm3.

Essa época inclusive o Carmack até tinha um blog, todo esse processo tá descrito em detalhes lá..inclusive ele prevendo o desastre do dx9 e apontando limitações da arquitetura r300 no próprio code do Doom3, q ainda não tava pronto.
 
[PeSaDo];3306180 disse:
Eita como não existe? todo o directx9.0, o shader model 2.0 e a série r300 foram baseados em precisão única de 24 bits, e vc ainda vem falar q eu to confundindo precisão única com precisão parcial? Aí é Drury's :( ..

- Não teve parceria? Ok, o Directx mudou do nada, completamente ao contrário do q deveria ser, exatamente pras especificações do r300 (q nenhum outro fabricante jamais usou ou usava) por pura coincidência.

- O Nv30 era full precision sim, mas isso era mais marketing puro do q qqr outra coisa. É a msm coisa da 8800 575mhz de 2006 rodando dX10 puro, ela é "dx10" mas roda bem mesmo dx9 e foi feita pra rodar dx9. Assim como a Fx era 32b, mas foi feita pra rodar nos fallbacks de 16 bits em half precision q eram a base do Doom3/Ogl. Esse manobra matou a Nvidia exatamente pq o mínimo de 24bits obrigou-a a rodar TUDO em 32bits. Isso acabou com a performance da série Fx no directx e deu a Ati a liderança no dx9 sm2.

- Errado, a regra era rodar a 24bits ou +....como não impôs regras? O directX é exatamente a imposição de regras pra regulamentar a programação de games e a arquitetura dos chips. A própria função da Api por definição de é impor regras. Tanto q a Nvidia ainda aproveitou pra chamar seu produto de dx9+, pois ia além das especificações da Microsoft, pelo menos teoricamente ou a 10 fps.

E por último, pare pra pensar: não foi "erro" da Ati não adotar sm3, é exatamente esse o ponto, vc acha q é fácil simplesmente mudar toda a sua arquitetura de uma série pra outra? Isso q matou a Ati rapaiz. Abrir mão do Sm3? Ela tinha investido todas as fichas no modelo do Sm2.0, assim como a Nvidia investiu na FX..

Ae as regras mudam e acontece o q? Tiram uma série nova, com arquitetura completamente diferente, do nada?

Isso não existe..a Nvidia segurou o rojão com a Fx do jeito q deu overclocando e na base da otimização de drivers e até cheats na renderização.

A Ati fez o mesmo quando a Spec foi de sm2.0 pra 3.0 e exatamente por isso e nunca mais consegiu pegar a Nvidia, da mesma forma q a Nvidia ficou pra trás com as Fx, a MESMA causa: tecnologia inutilizada devido as mudanças radicais na Api.

TODA a tecnologia q a ATi tinha era baseada no Sm2. Ela não "abriu mão" do Sm3, simlesmente tecnologia não nasce por mágica de um dia pro outro, já a Nvidia tava trabalhando no mesmo princípio 16/32 e no sm3 quando voltou pra 16/32 a Ati simplesmente NÃO tinha produtos compatíveis, a placa realmente capaz de rodar 32bits saiu (6800) e a Ati nunca mais tirou o atrazo de ter abandonado 16/32 na série r300 e afins e ter q começar tudo do zero.

Então repito: PESQUISE as especificações da arquitetura r300: instruções limitadíssimas em todas as áreas, precisão única totalmente incompatível, pipelines totalmente incompatíveis..só assim vc vai ver pq a Ati "optou" por não adotar o Sm3.

Essa época inclusive o Carmack até tinha um blog, todo esse processo tá descrito em detalhes lá..inclusive ele prevendo o desastre do dx9 e apontando limitações da arquitetura r300 no próprio code do Doom3, q ainda não tava pronto.

tudo bem , mas na pratica me diz onde que a 6800 era mais rapida nos jogos em geral que uma x850xtpe ,e desde a 95xx vs fx´s que a qualidade dos filtros da ATI era melhor (rendimento tb) , se a tecnologia da fabricante canadense e tao ruim para games nao entendo o porque ela reinou nas tops por 3 series consecutivas , perdendo apenas para as 8800´s !

Quanto ao que os outros falam so acho que temos que ter senso critico pois cada um quer vender ou defender seu peixe , se o Carmack (que realmente e um genio) propagandeia a superioridade do opengl e a superioridade da nvidia nao podemos ter isso como "fato" inquestionavel afinal de contas isso nao e uma religiao e como sabemos todos os diversos produtos seja hard ou soft se encaixam de forma diferente em variados propositos de aplicacao e so vermos a longa e infindavel discussao sobre windows ou linux , entao resumindo finalmente o que quero dizer e que para praticidade de todos nao devemos nos ater nos "lero-leros" de A ou B e sim nos resultados finais , nos benchs sejam sinteticos ou em games e claro no preço cobrado por esses "fps" do mercado para assim decidirmos o que nos serve ou nao , mas claro sem esquecer da qualidade do produto que envolve varios fatores desde a durabilidade , imagem e claro rendimento !

E uso de cheats para melhorar rendimento na minha opiniao deveria ser crime mas isso nao importa o que devemos levar em consideracao e a nova artimanha de patrocinar games para que os mesmos se saiam pior na rival isso sim digo e afirmo que alem de ser "sujeira" das piores ainda afeta o consumidor que se quiser jogar game "x" ou "y" tem que ver por qual fabricante ele foi patrocinado antes , nao que essa tatica tenha funcionado 100% , entretanto em alguns casos e notorio !

abraços
 
Que eu saiba eles tão comparando a ARQUITETURA da GPU e "compatibilidade/restrições" de API e não o IQ ou uso dos cheats..:rolleyes: :boring:
 
tudo bem , mas na pratica me diz onde que a 6800 era mais rapida nos jogos em geral que uma x850xtpe ,e desde a 95xx vs fx´s que a qualidade dos filtros da ATI era melhor (rendimento tb) , se a tecnologia da fabricante canadense e tao ruim para games nao entendo o porque ela reinou nas tops por 3 series consecutivas , perdendo apenas para as 8800´s !

Quanto ao que os outros falam so acho que temos que ter senso critico pois cada um quer vender ou defender seu peixe , se o Carmack (que realmente e um genio) propagandeia a superioridade do opengl e a superioridade da nvidia nao podemos ter isso como "fato" inquestionavel afinal de contas isso nao e uma religiao e como sabemos todos os diversos produtos seja hard ou soft se encaixam de forma diferente em variados propositos de aplicacao e so vermos a longa e infindavel discussao sobre windows ou linux , entao resumindo finalmente o que quero dizer e que para praticidade de todos nao devemos nos ater nos "lero-leros" de A ou B e sim nos resultados finais , nos benchs sejam sinteticos ou em games e claro no preço cobrado por esses "fps" do mercado para assim decidirmos o que nos serve ou nao , mas claro sem esquecer da qualidade do produto que envolve varios fatores desde a durabilidade , imagem e claro rendimento !

E uso de cheats para melhorar rendimento na minha opiniao deveria ser crime mas isso nao importa o que devemos levar em consideracao e a nova artimanha de patrocinar games para que os mesmos se saiam pior na rival isso sim digo e afirmo que alem de ser "sujeira" das piores ainda afeta o consumidor que se quiser jogar game "x" ou "y" tem que ver por qual fabricante ele foi patrocinado antes , nao que essa tatica tenha funcionado 100% , entretanto em alguns casos e notorio !

abraços

Perfeita colocação, ja tinha explicado isto um tempo atrás quando uma galera ainda afirmava que a Ati estava perdendo a muito tempo na area 3D quando na verdade vemos uma supremacia quase total somente na série 8, um projeto tão bom que é de longe o mais duradouro da empresa, ganhando duas revisões.

A Ati pecou muito tempo na parte que mais interessa pros gamers, o mercado mid-end, isto foi o começo do fim, o custo-benefício era péssimo, coisa que com a presença da AMD está ficando cada vez melhor, espero ótimos custos na proxima série HD4k.
 
Que eu saiba eles tão comparando a ARQUITETURA da GPU e "compatibilidade/restrições" de API e não o IQ ou uso dos cheats..:rolleyes: :boring:

exato , e e isso que estou rebatendo , pois se nos basearmos apenas na arquitetura da placa em geral a HD2900XT nao teria tido concorrentes e sabemos que nao foi bem assim , as fx's teriam prestado , e a serie 6xxx da nvidia nao teria pego surra da serie x8xxx

O que tento dizer e que o resultado na pratica e bem diferente , e como eu dizia antes quando vendi uma 6800u e comprei uma x800xtaiw e muitos aqui mesmo acharam que eu fiz besteira , oras o que adiantava eu ter sm3.0 se a placa nao aguentava ? sem falar nas inexplicaveis quedas constantes no fps . No papel alguns projetos sao maravilhosos mas quando em uso nao chega a ser o "messias" anunciado pelas fabricantes , infelizmente a ATI tem sido "craque" nisso

Adoro pesquisar e ler sobre a arquitetura das placas mas ja aprendi que ha muito mais envolvido e que o "motor" sem o conjunto nao e o essencial e isso nao se limita apenas aos carros , quem aqui ja nao viu muito opala 6cc pegar coro de golzinho 1.8 ? pois e ! Com a evolucao das placas hj uma 9600gt chega a ser melhor que uma 8800gts 320mb , mesmo tendo menos sp's e etc.. no passado vimos a 7600gt (128bit) emparelhando com a x850xt e ganhando em alguns casos , sem falar da 6600gt com a 9800pro , entao porque uma placa com 512bit , uma "cacetada" de steamprocessors e etc... nao seria melhor que uma simples 8800gtx ?

Entao e o que eu digo , demorei para perceber mas o que importa nao e se a azul ou a laranja tem a placa top , mas quanto custam as tops , mids etc.. e o que oferecem na pratica . Nao saio da ati por 2 motivos , atualmente ainda estou satisfeito com a minha e que durmo tranquilo sabendo que se ligar meu pc e ela nao funfar e so eu mandar pro canada que recebo uma novinha !

abraços

Perfeita colocação, ja tinha explicado isto um tempo atrás quando uma galera ainda afirmava que a Ati estava perdendo a muito tempo na area 3D quando na verdade vemos uma supremacia quase total somente na série 8, um projeto tão bom que é de longe o mais duradouro da empresa, ganhando duas revisões.

A Ati pecou muito tempo na parte que mais interessa pros gamers, o mercado mid-end, isto foi o começo do fim, o custo-benefício era péssimo, coisa que com a presença da AMD está ficando cada vez melhor, espero ótimos custos na proxima série HD4k.

Realmente Marx , mas particularmente acho prejudicial essa atitude , e pode vir a ser tambem ruim para a empresa se conformar e ficar "requentando" tanto o mesmo projeto . A fabricante canadense realmente nunca tinha sido boa no custo beneficio e como sabemos com a uniao com a Amd isso mudou mesmo , hd3850 foi e é ainda uma boa opcao entretanto nao achei nenhuma "BBA" :(
 
Que eu saiba eles tão comparando a ARQUITETURA da GPU e "compatibilidade/restrições" de API e não o IQ ou uso dos cheats..:rolleyes: :boring:

O pessoal tende a levar mto pro lado "romântico" da coisa e esquece os aspectos técnicos.

Respondendo ao Wolf;

Nesse nível, não existe puxar a sardinha. Directx é inferior ao Opengl é isso sempre foi fato. O Carmack se bobear é o cara mais isento do mercado e critica/elogia sem pensar em marca, mas ou como programador ou consumidor.
Acontece q se a pessoal não entende as bases da Api, q geram restrições enormes na arquitetura das Vgas, ela vai ficar boiando e não vai entender o motivo das coisas serem ditas. Quem não sabe os detalhes, tem q pelo menos pensar no básico:

Quanto tempo a Amd demorou pra fazer o A64 e pegar o pentium4? Ou a Ati demorou pra fazer a 9700 e espancar a nvidia?

Como uma empresa q "reina" durante "3 séries" (9700/9800 e?) joga a toalha e é vendida?

Tem q entender no mínimo a mecânica básica do mercado. São empresas de bilhões de dólares e tomam decisões de mercado pra definir anos de pesquisa a frente onde esses bilhões são aplicados. Quando uma decisão dessas é ERRADA, como foi o caso da Amd ou da Ati, isso pode simplesmente falir a empresa. Esse papo de "reinou" e etc.. é infantil. A Voodoo reinou durante todo o sempre. Fez UMA ***** sozinha e faliu.

Ps. eita antes de u responder ele respondeu de novo..

Cara: "EU tinha queda constantew de fps", "pra MIM a radeon xyz era melhor pq EU achava o suporte 3.0 desnescessário"... po respeito mto suas emoções. Mas vc SABE o q é sm3.0 e oq q ele significa? pq se soubesse saberia exatamente pq a "falta de suporte" era algo crítico. A Ati "não suportava sm3.0 pq" não queria ou não achava q devia...ela não implementou pq investiu tudo numa arquitetura cujo as pipelines simplesmente não suportavam fisicamente o códico, nem o tamanho do códico, nem NADA do sm3.0. O Sm 3.0 não "mudou" nada, ele simplesmente liberou a programação de shaders/efeitos mais complexos em maior precisão, e a Ati não tinha hardware nem tecnologia pra rodar acima do 2.0, q era um modelo totalmente capado e restrito, assim como a r300.

Do sm2 pro 3 mudou o número de instruções de poucas centenas pra milhares, assim como o tamanho dos shaders. O silício da Ati literalmente não suportava nada disso, enquanto a Nvidia vinha trabalhando nesse sentido desde q fechou a série 4, g2/g3/g4...toda a base da Fx era definida nesse sentido.

Então não adianta vc ficar falando q a placa x foi isso ou foi aquilo ou empresa tal reinou durante um período X... Uma placa isolada não enche barriga, nem A64 ou r300 são suficientes pra tocar uma empresa ou desafiar a superioridade de anos e anos de outra empresa, ainda mais quando A tecnologia q eles conseguiram desenvolver depois de anos e anos e gastando absurdamente simplesmente é detonada de uma geração pra outra de hardware.
 
[PeSaDo];3309146 disse:
O pessoal tente a levar mto pro lado "romântico" da coisa e esquece os aspectos técnicos.

Respondendo ao Wolf;

Nesse nível, não existe puxar a sardinha. Directx é inferior ao Opengl é isso sempre foi fato. O Carmack se bobear é o cara mais isento do mercado e critica/elogia sem pensar em marca, mas ou como programador ou consumidor.

Acontece q se a pessoal não entende as bases da Api, q geram restrições enormes na arquitetura das Vgas, ela vai ficar boiando e não vai entender o motivo das coisas serem ditas.

Quem não sabe os detalhes, tem q pelo menos pensar no básico:

Quanto tempo a Amd demorou pra fazer o A64 e pegar o pentium4?

Ou a Ati demorou pra fazer a 9700 e espancar a nvidia?

Como uma empresa q "reina" durante "3 séries" (9700/9800 e?) joga a toalha e é vendida?

Tem q entender no mínimo a mecânica básica do mercado. São empresas de bilhões de dólares e tomam decisões de mercado pra definir anos de pesquisa a frente onde esses bilhões são aplicados.

Quando uma decisão dessas é ERRADA, como foi o caso da Amd ou da Ati, isso pode simplesmente falir a empresa. Esse papo de "reinou" e etc.. é infantil. A Voodoo reinou durante todo o sempre. Fez UMA ***** sozinha e faliu.

Sim Pesado concordo , otima colocação , mas se falarmos em mercado precisariamos da ajuda de algum economista especializado em finanças e bolsa de valores , pois se nos basearmos no sucesso do produto apenas nao teriamos explicação suficiente e fundamentada para a derrocada da 3DFX
, neste mercado nao basta ter o melhor produto , precisa de outros fatores como um bom departamento de marketing , Rp e claro investimentos na area

Sabemos que apesar do a64 ter sido melhor as vendas da intel para o "grosso" mercado com o p4 foi excelente ( ate hoje muita gente torce o nariz quando e mencionado que o pentium D e uma bomba e que qualquer amd x2 e melhor) qualquer revista porcaria tinha uma propaganda da intel e claro a marca para muitos e referencia e "pesa" muito no momento da escolha

Dados tecnicos muitas vezes pode e confundir os consumidores leigos , afinal de contas aqui que e um forum de gamers maniacos loucos por hardware muitos leem sobre sp's , barramento , precisão de bits , etc.. etc.. mas 80% nao fazem minima ideia de como funciona ou o que e realmente e nao tem vontade de pesquisar para entender um pouco mais do assunto !

Quanto ao Carmack voce tem razao tambem , mas como todo genio creio que as vezes o ego ofusca a razao , ele deveria se ater apenas ao que faz e nao perdem tempo falando do concorrente afinal de contas se o "peixe" dele e o melhor e nao ha como lutar contra a hegemonia da microsoft que impoe "tendencias" ao mercado , entao que pelo menos fique ciente que nao precisa explicar para os que entendem o pq do opengl ser melhor ( apesar complicado e da falta de uma direção mais acertada) !
 
Sim Pesado concordo , otima colocação , mas se falarmos em mercado precisariamos da ajuda de algum economista especializado em finanças e bolsa de valores , pois se nos basearmos no sucesso do produto apenas nao teriamos explicação suficiente e fundamentada para a derrocada da 3DFX
, neste mercado nao basta ter o melhor produto , precisa de outros fatores como um bom departamento de marketing , Rp e claro investimentos na area

Sabemos que apesar do a64 ter sido melhor as vendas da intel para o "grosso" mercado com o p4 foi excelente ( ate hoje muita gente torce o nariz quando e mencionado que o pentium D e uma bomba e que qualquer amd x2 e melhor) qualquer revista porcaria tinha uma propaganda da intel e claro a marca para muitos e referencia e "pesa" muito no momento da escolha

Dados tecnicos muitas vezes pode e confundir os consumidores leigos , afinal de contas aqui que e um forum de gamers maniacos loucos por hardware muitos leem sobre sp's , barramento , precisão de bits , etc.. etc.. mas 80% nao fazem minima ideia de como funciona ou o que e realmente e nao tem vontade de pesquisar para entender um pouco mais do assunto !

Quanto ao Carmack voce tem razao tambem , mas como todo genio creio que as vezes o ego ofusca a razao , ele deveria se ater apenas ao que faz e nao perdem tempo falando do concorrente afinal de contas se o "peixe" dele e o melhor e nao ha como lutar contra a hegemonia da microsoft que impoe "tendencias" ao mercado , entao que pelo menos fique ciente que nao precisa explicar para os que entendem o pq do opengl ser melhor ( apesar complicado e da falta de uma direção mais acertada) !

Mas isso q eu to falando, o ponto de vista do consumidor não importa, o importante é a linearidade da tecnologia.

O P4 encheu os bolsos da Intel durante anos e anos e anos. Não adianta chegar a Amd com um processador super duper e lucrar um tempinho.

É tipo betamax, era melhor q tal, mas VHS wins...não é sempre o melhor produto q ganha. A Ati teve "melhores produtos" durante certos períodos, mas devido a linearidade, a busca da Nvidia pelo processamento em full precison se pagou no longo prazo e apesar de o pai ser feio (fx/geforce5) os decendentes tiveram sucesso, as séries 68/78/88 são absolutos sucessos financeiros. A "técnica" sobreviveu a politicagem e até mesmo ao fator financeiro.

Então, basicamente é isso, fora q é engraçado vc mencionar isso, minha ótica sobre esse assunto não é somente de entusiasta de hardware, mas tbm de profissional do mercado financeiro e por gostar do assunto eu acompanhei bem a trajetória da Ati/Amd, inclusive posso literalmente fazer como o povo brinca e comprar ações de uma determinada empresa, até uma época pensei em me especializar nessa área pq pela internet a gente fica sabendo das tendências de lucro antes do mercado. Tem 3 jeitos de enchergar o mercado: como consumidor, como técnico ou como economista. E a visão de cada um pode ser totalemnte diferente em qqr produto, mas a q prevalece a longo prazo geralmente é a técnica.
 
Pessoal está falando de tecnologia e arquitetura das placas, mas acho que o que mais influenciou a ATi foi a falta de investimento no mercado mid e low. Se ela estivesse vendendo muitas placas, mesmo com a arquitetura "inferior" a empresa estaria em melhores condições do que hoje.

Acredito que os profissionais da ATi estão sob forte pressão. A série hd4k terá que salvar a companhia...
 
Pessoal está falando de tecnologia e arquitetura das placas, mas acho que o que mais influenciou a ATi foi a falta de investimento no mercado mid e low. Se ela estivesse vendendo muitas placas, mesmo com a arquitetura "inferior" a empresa estaria em melhores condições do que hoje.

Acredito que os profissionais da ATi estão sob forte pressão. A série hd4k terá que salvar a companhia...

deixe que se matem, melhor para nós, se nesta série eles salvaram a patria, melhor ainda, pois quem será benefiado seremos nós mesmo.

a série 3000 foi o passo para ela, com placas 2 gpu em um mesmo pcb e tal, se der certo nesta nova geração com muito mais otimização ai sim a ati começa a se recuperar legal
 
Creio que isso não é fake.

ATi quer mostrar que não vai tão fácil da vida da AMD, então vamo que vamo ATi, mais VGA's, mais concorrencia, mais preços baixos! xD



Falou!
 
nao eh fake...no portal do adrena mostra q foi um site serio q fez o review...
 
nao eh fake...no portal do adrena mostra q foi um site serio q fez o review...

Não há nada confirmado nisso, por em quanto só esse site fez o tal review... sinceramente, só vocês para acreditarem que uma GPU com apenas 32 TMU's possa bater uma 9800GX2, parem para analisar friamente.
 
Não há nada confirmado nisso, por em quanto só esse site fez o tal review... sinceramente, só vocês para acreditarem que uma GPU com apenas 32 TMU's possa bater uma 9800GX2, parem para analisar friamente.

tambem acho isso, mas creio que possa ser uma concorrente da 9800gtx
 

Users who are viewing this thread

Voltar
Topo