HD3870 ou 8800 GT

humm, o q ele quis dizer foi o seguinte!!

tambem , mas o principal e que as pessoas saibam postar opinioes abalizadas e nao querer convencer os demais que o produto adquirido e o melhor do "mundo" , nao se cegar pelo proprio orgulho e ignorancia !

simples assim !
 
bah, que palhaçada aqui nesse pais de *****.... vendedor superfaturando as 8800 GT e as 3870 a 999????? com meia duzia de placas só e esfaqueando no preço:ranting3::ranting3::ranting3: isso que da vive no cu do mundo.....

palhaçada tambem da nvidia mete tão poucas placas no mercado... e as 150, 200 mil placas que a ati ia distribuir cade elas????? me pergunto: sera que sao as 8800 que são tão boas mesmo e baratas ou as outras anteriore da mesma familia que eram muito caras pro seu desempenho?????
 
bah, que palhaçada aqui nesse pais de *****.... vendedor superfaturando as 8800 GT e as 3870 a 999????? com meia duzia de placas só e esfaqueando no preço:ranting3::ranting3::ranting3: isso que da vive no cu do mundo.....

palhaçada tambem da nvidia mete tão poucas placas no mercado... e as 150, 200 mil placas que a ati ia distribuir cade elas????? me pergunto: sera que sao as 8800 que são tão boas mesmo e baratas ou as outras anteriore da mesma familia que eram muito caras pro seu desempenho?????

e a lei do mercado ! ambas venderam muito rapido e a falta aliado a grande procura aumenta o preço !
 
Exatamente,o fato e que nvidia nessa geracao possui uma placa de video que tem um maior desempenho, mas nem sempre foi assim. Na epoca das Geforce 6xxx e radeon 8xx a maioria aqui do forum falava que era melhor ter tecnologia do que forca bruta. O argumento que voces usaram no passado e o mesmo que vem CONTRA voces no futuro.
Abracos,Ygor Muniz.
Bem, o argumento “tecnologia” > “força bruta” ainda hj continua servindo pra mim. Lembro-me que comprei a minha 6600GT no começo de 2005 e tô com ela até hj, rodando desde então todos os jogos que exigem SM3. Se naquela época tivesse optado pela placa concorrente da ATI, já teria sido obrigado a trocar de vga há muito tempo. Finalmente decidi aposentar a minha 6600GT guerreira e quando os preços voltarem à normalidade (pra mim, algo em torno de U$200,00), devo adquirir um HD3870, baseando-me, além do preço, também nos recursos (tecnologia) que ela tem e que não são encontrados na 8800GT. Se as pessoas usassem um pouco mais o bom senso e não fossem tão fanáticas tópicos iguais a este nunca atingiriam 2 páginas.

PS.: Yg0r, dei um quote na sua msg só pra tentar explicar o meu ponto de vista.

Abraços e boas compras a todos! :p
 
Sim...acredito que nos proximos dias vão estar disponiveis nas lojas:

SmartDATA
WAZ

E outras que logo logo devem estar recebendo!!!

Valeu!
 
lol ... nem tão cedo dá pra comprar um 8800 GT ou HD3870, ainda mais que ta chegando compras de fim de ano, e a lá nos EUA a coisa fica tensa na terra do consumismo! Só da pra comprar o que ta sobrando ou pre-order.

Dêem uma olhada nos sites GRANDES lá fora, por exemplo o newegg ...

http://www.newegg.com/Product/Produ...&Subcategory=48&description=&Ntk=&srchInDesc=

TODAS as 10 marcas da 8800GT estão fora de estoque.

Isso vai piorar agora no fim de ano e vai melhorar lá pra fevereiro, isso na minha opinião é claro.
 
Realmente concordo com os caras na pagina de tras, eu sou dono de uma 8800gt que chega amanha segundo a WAZ e não tenho coragem de deixar ela trabalhar nem a 80°c, se passar disso vou fazer mod e etc, pq 90°c a 100°c é historia de vendedor e fabricante pr vender placa que so dura 1 ano e morre, um bom exemplo disso é a 6600GT todas morreram a minha como tinha VF-700 ja viro 2 anos de vida e vendi ela pro juarez aki do forum e otimo estado de conservação.
 
Tambem vou pros EUA e volto com uma dessa, vi no site q eu compro um modelo XFX Geforce 8800GT XXX 670mhz. Tem uns clocks mais q a normal. A da evga ta com 640mhz se ñ me engano
 
Realmente concordo com os caras na pagina de tras, eu sou dono de uma 8800gt que chega amanha segundo a WAZ e não tenho coragem de deixar ela trabalhar nem a 80°c, se passar disso vou fazer mod e etc, pq 90°c a 100°c é historia de vendedor e fabricante pr vender placa que so dura 1 ano e morre, um bom exemplo disso é a 6600GT todas morreram a minha como tinha VF-700 ja viro 2 anos de vida e vendi ela pro juarez aki do forum e otimo estado de conservação.

Isso mesmo cara,nao deixa sua placa passar dos 80 graus nao.E para quem e doido.Deixe ela funcionando a 100 graus durante 1 ano,se ela continunar funcionando perfeitamente, mando essa imagem para voces.
 

Attachments

  • a.JPG
    a.JPG
    22.9 KB · Visitas: 142
So um milagre para uma placa viver mais de 1 ano funcionando a 100º.
Aleluia irmaos..

Huahuahuahhauauha RR Soares tosco d+, cara isso é jogos comercial, eles criam uma placa boa mas que so dura 1 ano ou 2 ou 3 meses a mais que isso pro consumidor ser obrigado a trocar PV de ano em ano.

Flw
 
o problema vai ser conseguir encontrar pra comprar, vai ser tipo ingresso em final de campeonato na mao de cambista...
 
o problema vai ser conseguir encontrar pra comprar, vai ser tipo ingresso em final de campeonato na mao de cambista...

Huahuahahauuhauhauhauhauhahuahuha por isso garanti a minha dia 06/11 e amanha vou estar rindo atoa com ela na minha mão.

Flw
 
Que na epoca da x8xx vs. 6xxx, os fans da Nvidia quiseram influenciar o povo leigo, dizendo que a tecnologia futura da 6xxx (leia-se Shader Model 3.0) era mais importante que o desempenho bruto da x8xx (que tinha Shader Model 2.alguma coisa), e que demorou muito ate o SM3 ser utilizado com frequencia (quase no fim de vida de 7xxx e x1xxx, sem contar que a 6xxx quase nao roda direito os jogos SM3)!!

e que agora que o papel se inverteu com hd3xxx tendo mais tecnologia vs 8xxx GT com mais força bruta, o pessoal by Nvidia esta influenciando o povo leigo dizendo que força bruta e melhor q tecnologia futura!!

Essa historia não é muito parecida não, apenas superficialmente, no caso, X850XT PE era beeem melhor realmente, e na epoca, muito mal existiam jogos shader 2.0, eram raros na epoca do lançamento, o shader 3.0 foi aparecer pela primeira vez muito depois, pode se dizer que o HDR foi o que salvou a alma dele, depois do HDR que começou a ficar porpular, mas ae, ja se passaram quase 2 anos do lançamento da X850...

Hoje não, todo mundo ta vendo que o DX10 e shader 4.0 ta querendo entrar no mercado, mas ta dificil, essa atualização pra DX10.1 pode ser (ou não) uma boa, até porque ainda não foram revelados informações técnicas a respeito do funcionamento interno do DX10.1, no que sei ele vai ser um "service pack" de correções pro DX10, e apenas as placas DX10.1 vão usurfluir desse "pack" de correções, logo, é um tiro no escuro com uma lanterninha ajudando, estilo doom 3 :p

Afinal, ninguem esta apostando numa nova geração como foi antes:rolleyes:


Bem, o argumento “tecnologia” > “força bruta” ainda hj continua servindo pra mim. Lembro-me que comprei a minha 6600GT no começo de 2005 e tô com ela até hj, rodando desde então todos os jogos que exigem SM3. Se naquela época tivesse optado pela placa concorrente da ATI, já teria sido obrigado a trocar de vga há muito tempo. Finalmente decidi aposentar a minha 6600GT guerreira e quando os preços voltarem à normalidade (pra mim, algo em torno de U$200,00), devo adquirir um HD3870, baseando-me, além do preço, também nos recursos (tecnologia) que ela tem e que não são encontrados na 8800GT. Se as pessoas usassem um pouco mais o bom senso e não fossem tão fanáticas tópicos iguais a este nunca atingiriam 2 páginas.

PS.: Yg0r, dei um quote na sua msg só pra tentar explicar o meu ponto de vista.

Abraços e boas compras a todos! :p


No seu caso, que é uma baita exceção, ja que a maioria dos donos de 6600/6800 foram forçados a trocar de placa pra rodar jogos SM3.0 com uma qualidade boa, hoje em dia, ninguem paga mais que R$250 em uma 6600gt, então, eu acho que era mais vantagem pra voce, ter vendido antes e ter feito UP antes, quem foi de 6600 pra 7600 que diga... :thumbs_up

No caso, esse tambem é só o meu ponto de vista sobre o assunto :wave:

Isso mesmo cara,nao deixa sua placa passar dos 80 graus nao.E para quem e doido.Deixe ela funcionando a 100 graus durante 1 ano,se ela continunar funcionando perfeitamente, mando essa imagem para voces.

Na moral, rachei de rir com a imagem, vou até salvar aqui uhauhauhahua
 
Huahuahuahhauauha RR Soares tosco d+, cara isso é jogos comercial, eles criam uma placa boa mas que so dura 1 ano ou 2 ou 3 meses a mais que isso pro consumidor ser obrigado a trocar PV de ano em ano.

Flw

Nao duvido disso nao!! po minha 7800gt oc da EVGA ta f*dida com artefato ate na bios (ainda bem q da pra jogar, depois de uns tres reset apos ligar o PC( ou depois de um bommm tempo do pc ligado) normalmente) e tem mais ou menos 1 ano e meio de uso!!

Uma geforce 5200fx tbm pifou (artefato em aplicaçoes 3d) e so esta funcionando ate hoje em modo 2D!!

nao sei se o problema aqui se chama NVIDIA ou pura falta de sorte, pois minhas ex-placas da ATI funcionam ate hoje (uma 9800pro e uma x800xt que vendi pra uns amigos)!!
 
Solberg acho dificiu o DX10 popularizar pelo menos nos 2 proximos anos.

Principal motivo: Consoles

90% dos games de PC são multi e os consoles hoje so vão ate DX9c, então usar DX10 como padrão e DX10.1 como recomendado o game não sairia pr console e o desenvolvedor perderia muito lucro, ate os consoles ser tornarem passados e ja tiverem novos a caminho a base vai ser DX9c e no pc DX9c + efeitos DX10.

Demoro pro DX9c se tona padrão por causa dos consoles como PS2 com DX7/8.1 e Xbox DX8.1/9, não tem logica um desenvolvedor de jogos deixar de criar um super jogo que vai vender 3kk PC/PS3/Xbox360 usando DX9c pr criar um DX10 vender so 1kk pr PC somento pelo ideal de usar DX10 ou DX10.1, mas tem casos isolados como Crysis hehehehehehehehe.

Flw
 
Solberg acho dificiu o DX10 popularizar pelo menos nos 2 proximos anos.

Principal motivo: Consoles

90% dos games de PC são multi e os consoles hoje so vão ate DX9c, então usar DX10 como padrão e DX10.1 como recomendado o game não sairia pr console e o desenvolvedor perderia muito lucro, ate os consoles ser tornarem passados e ja tiverem novos a caminho a base vai ser DX9c e no pc DX9c + efeitos DX10.


Que isso cara, não tem sentido o que vc falou, o Xbox360 suporta shaders unificados, e API do video game não é directX, é uma versão preparada pra trabalhar com o hardware do XBOX, ou seja, NADA impede o xbox de usar efeitos DX10, ja o play3, num sei :rolleyes:


Demoro pro DX9c se tona padrão por causa dos consoles como PS2 com DX7/8.1 e Xbox DX8.1/9, não tem logica um desenvolvedor de jogos deixar de criar um super jogo que vai vender 3kk PC/PS3/Xbox360 usando DX9c pr criar um DX10 vender so 1kk pr PC somento pelo ideal de usar DX10 ou DX10.1, mas tem casos isolados como Crysis hehehehehehehehe.
Flw


Cara, para de viajar, acorda, video game nem um usa DX, de onde tu tirou isso? PS2 dx 7? AFFFZZ!
 
Solberg acho dificiu o DX10 popularizar pelo menos nos 2 proximos anos.

Principal motivo: Consoles

90% dos games de PC são multi e os consoles hoje so vão ate DX9c, então usar DX10 como padrão e DX10.1 como recomendado o game não sairia pr console e o desenvolvedor perderia muito lucro, ate os consoles ser tornarem passados e ja tiverem novos a caminho a base vai ser DX9c e no pc DX9c + efeitos DX10.

Demoro pro DX9c se tona padrão por causa dos consoles como PS2 com DX7/8.1 e Xbox DX8.1/9, não tem logica um desenvolvedor de jogos deixar de criar um super jogo que vai vender 3kk PC/PS3/Xbox360 usando DX9c pr criar um DX10 vender so 1kk pr PC somento pelo ideal de usar DX10 ou DX10.1, mas tem casos isolados como Crysis hehehehehehehehe.

Flw

Tudo errado,tudo mesmo.Te garanto que nao vao ser os CONSOLES que vao impedir a evolucao dos directx's,e mesmo se oq vc falou fosse verdade a ATI @ NVIDIA compraria as produtora de games para fazerem um jogo directx 11 por exemplo.
 
Realmente concordo com os caras na pagina de tras, eu sou dono de uma 8800gt que chega amanha segundo a WAZ e não tenho coragem de deixar ela trabalhar nem a 80°c, se passar disso vou fazer mod e etc, pq 90°c a 100°c é historia de vendedor e fabricante pr vender placa que so dura 1 ano e morre, um bom exemplo disso é a 6600GT todas morreram a minha como tinha VF-700 ja viro 2 anos de vida e vendi ela pro juarez aki do forum e otimo estado de conservação.

Questão de lógica, usuários avançados que tem conhecimento do problema de refrigeração da placa são minoria, a maior parte simplesmente põe a placa para rodar sem maiores preocupações. Nesse caso ela vai trabalhar em 80-100 graus sempre, aqui em clima tropical ela vai para 90 graus em load mesmo montada numa bancada. Vamos ver com o passar dos meses se vão surgir tantas placas morrendo... :wave:

Fabricar placas com prazo de validade e dar garantia lifetime, não creio que seja uma estratégia rentável.
 
Solberg acho dificiu o DX10 popularizar pelo menos nos 2 proximos anos.

Principal motivo: Consoles

90% dos games de PC são multi e os consoles hoje so vão ate DX9c, então usar DX10 como padrão e DX10.1 como recomendado o game não sairia pr console e o desenvolvedor perderia muito lucro, ate os consoles ser tornarem passados e ja tiverem novos a caminho a base vai ser DX9c e no pc DX9c + efeitos DX10.

Demoro pro DX9c se tona padrão por causa dos consoles como PS2 com DX7/8.1 e Xbox DX8.1/9, não tem logica um desenvolvedor de jogos deixar de criar um super jogo que vai vender 3kk PC/PS3/Xbox360 usando DX9c pr criar um DX10 vender so 1kk pr PC somento pelo ideal de usar DX10 ou DX10.1, mas tem casos isolados como Crysis hehehehehehehehe.

Flw

Opa, os unicos consoles que usam / usaram DirectX foi o Dreamcast (que pode se usar a API proprietaria da Sega), o Xbox e o X360 e ainda eh um DX apropriado para os consoles, bem mais potente q o direct x remendado do PC!!

PS2 e PS3 - pode se usar Open GL apropriado para o console ou a API proprietaria da Sony
GC e WII - pode se usar Open GL apropriado para o console ou a API proprietaria da Nintendo
 
bah, que palhaçada aqui nesse pais de *****.... vendedor superfaturando as 8800 GT e as 3870 a 999????? com meia duzia de placas só e esfaqueando no preço:ranting3::ranting3::ranting3: isso que da vive no cu do mundo.....

palhaçada tambem da nvidia mete tão poucas placas no mercado... e as 150, 200 mil placas que a ati ia distribuir cade elas????? me pergunto: sera que sao as 8800 que são tão boas mesmo e baratas ou as outras anteriore da mesma familia que eram muito caras pro seu desempenho?????

Lei da oferta e da procura ;)

E procura ai que você acha vendendo a 8800GT eVGA Superclocked por R$ 859,00 ;)
 
Opa, os unicos consoles que usam / usaram DirectX foi o Dreamcast (que pode se usar a API proprietaria da Sega), o Xbox e o X360 e ainda eh um DX apropriado para os consoles, bem mais potente q o direct x remendado do PC!!

PS2 e PS3 - pode se usar Open GL apropriado para o console ou a API proprietaria da Sony
GC e WII - pode se usar Open GL apropriado para o console ou a API proprietaria da Nintendo


Isso, não só a API mas todo o sistema operacional do Dreamcast foi feito pela MS, esse foi o pontapé inicial pra microsoft lançar o XBOX, parceria com SEGA. Hoje o que é Xboxlive, no passado, era a SEGA NETWORK!

Bem lembrado tambem amigo halflife3, outros consoles usam versão modificadas do OpenGL, lembrando que mesmo o opengl usado no PLAY3 pode ultilizar um efeito DX, como o openGL é opemsource, pode ser modificado a gosto...

Mas pra resumir, nem um console usam API's do sistema operacional, eles usam API customizadas pro seu devido hardware, por isso, são mais estaveis e obtem um melhor resultado, vou pesquisar aqui sobre a arquitetura interna do RSX do play3, mas acredito que ele tambem possua shaders unificados, sendo assim compativel com o DX10.

Abraços!

EDIT: (apenas pra pra resumir as duvidas sobre DX10)

Sobre o RSX...

Especificações
550 MHz de GPU baseada em G70 com processo de 90 nm[1][2]
300+ milhões de transistores[1]
Pipelines shader de ponto flutuante paralelos de múltiplas vias programáveis[2]
Independent pixel/vertex shader architecture
24 pipelines de pixel paralelos
5 shader ALU operations per pipeline per cycle (2 vector4 and 2 scalar (dual/co-issue) and fog ALU)
27 FLOPS por pipeline, por ciclo
8 parallel vertex pipelines
2 shader ALU operations per pipeline per cycle (1 vector4 and 1 scalar, dual issued)
10 FLOPS por pipeline, por ciclo
Maximum vertex count: 1.1 billion vertices per second ( (8 vertex shader pipeline x 550) / 4)
Minimum (worst case) polygon count: 366.6 million triangles per second (1.1 billion vertices per second / 3 vertices per triangle)
Maximum (optimistic case) 750 million and more depending on how many triangle strips are used in the game
Maximum shader operations (per cycle): 136 shader operations per clock cycle ( (5 shader ALUs x 24 pixel pipelines) + (2 shader ALUs x 8 vertex pipelines)
Maximum shader operations (per second): 74.8 billion shader operations per second (136 shader operations x 550)[1]
Announced FLOPS: 1.8 trillion floating point operations per second[1][2]
FLOPS calculados: 400.4 bilhões de operações de ponto flutuante por segundo ( (27 FLOPS x 24 pipelines de pixel) + (10 FLOPS x 8 pipelines de vertex) x 550 MHz)
24 texture filtering units (TF) and 8 texture Addressing unit (TA)
24 amostra filtradas por clock
Maximum texel fillrate: 13.2 GigaTexels per second (24 textures * 550 MHz)
32 unfiltered texture samples per clock (8 TA x 4 texture samples)
8 Render Output units
Máximo de taxa de preenchimento de pixel: 4.4 GigaPixel por segundo (8 ROPs * 550 MHz)
Máximo de taxa de amostra Z: 8.8 GigaSamples por segundo (2 Z-amostras * 8 ROPs * 550 MHz)
Máximo de taxa de amostra anti-aliasing: 8.8 GigaSamples por segundo (2 AA amostras * 8 ROPs * 550 MHz)
Máximo de operações de produtos ponto: 51 bilhões por segundo[1]
128-bit pixel de precisão oferecendo renderização de cenas com high dynamic range rendering (HDR)
256 MiB GDDR3 RAM a 700 MHz[1][2]
128-bit de largura de memória bus
Largura de leitura e escrita de 22.4 GiB/s
Interface bus Cell FlexIO bus
20 GiB/s de leitura com o Cell e memória XDR
15 GiB/s de escrita com o Cell e memória XDR
Suporte para OpenGL ES 2.0
Suporte para compressão de textura S3TC[3]


Resumindo, suporta efeitos DX 10, mas vai fica um fiasco, porque, oh chip fraquinho esse, totalmente sem futuro, nunca que eu dou 2 mil em um videogame que tem uma geforce 7600GT

obs: Por favor, não comentem sobre o PS3 pra não sair do contexto

Citação: Postado originalmente por Yg0r
Curtiu ne cara ? esse pastor e o mais comedia de todos tenho varias fotos aqui zuando ele e talz....uma para cada momento.

Pode postar, comedia alot! huauhauhahua
 
Gente quando digo DX é so geito de falar, sei que os consoles não usam o DX e o PS3 é opemGL, mas sobre suporte a efeitos DX10 a ATI disse em uma noticia publica que mesmo o Xenos usando a mesma arquitetura do R600 não tinha como colocar ele com suporte a "efeitos DX10" com atualização de bio ou coisa parecida.
 

Users who are viewing this thread

Voltar
Topo