• Prezados usuários,

    Por questões de segurança, a partir de 22/04/2024 os usuários só conseguirão logar no fórum se estiverem com a "Verificação em duas etapas" habilitada em seu perfil.

    Para habilitar a "Verificação em duas etapas" entre em sua conta e "Click" em seu nick name na parte superior da página, aparecerá opções de gestão de sua conta, entre em "Senha e segurança", a primeira opção será para habilitar a "Verificação em duas etapas".

    Clicando alí vai pedir a sua senha de acesso ao fórum, e depois vai para as opções de verificação, que serão as seguintes:

    ***Código de verificação via aplicativo*** >>>Isso permite que você gere um código de verificação usando um aplicativo em seu telefone.

    ***Email de confirmação*** >>>Isso enviará um código por e-mail para verificar seu login.

    ***Códigos alternativos*** >>>Esses códigos podem ser usados para fazer login se você não tiver acesso a outros métodos de verificação.

    Existe as 3 opções acima, e para continuar acessando o fórum a partir de 22/04/2024 você deverá habilitar uma das 03 opções.

    Tópico para tirar dúvidas>>>>https://forum.adrenaline.com.br/threads/obrigatoriedade-da-verificacao-em-duas-etapas-a-partir-de-24-04-2024-duvidas.712290/

    Atencionamente,

    Administração do Fórum Adrenaline

ATI Radeon HD™ Série 2000 - Informações

vai ser muito bom essas futuras placas :D o G80 com essas super memórias vai ficar o cão mas num sei porque o R600 ainda continuará com 16 Pipes :(
 
se tiver XDR na G80, acho q a ATi vai se fu*** xD

cara, tipo assim, 65nm, vai ser tao pequeno, q de 600MHz pra 1GHz vai ser facílimo com um Watercooling.
estou correto?
 
Eu não sei aonda vc ver qualidade ruim nos filtros da NV. A não ser que use 2xAA e queria qualidade de 6x hehehe

HDR+AA é fato vir nessa nova geração, e com melhorias superiores...

Por acaso vcs lembra na materia que saiu falando que a NV pretende melhorar mais ainda a questão de filtros x Performance? "uma nova maneira de fazer AA" algo assim :p Vo ver se acho isso e posto aqui.

Shaft nao tem o que discutir contigo nesse aspecto do AA... entao só respeita a opniao dos outros, eu nao usei 2XAA esperando que fosse qualidade de 6X .;...eu usei 4X e achei PIOR que o da minha antiga X800....simples... é minha opnão de acordo com o hardware que eu TIVE...se tu tb teve ambos e nao percebeu tudo bem...sempre q vc posta q nao ve diferença nao fico dando quote e dizendo que tas errado ou q tu nao ta vendo direito os filtros. Essa questao dos filtros várias pessoas como eu já tiveram ambas e perceberam o leve shimmering que tem no AA da Nvidia... não é algo extremo...e depois de um tempo vc se acostuma e nem percebe...mas existe, pelo menos pra mim :p. Já o AF angular eu nao considero pq ele existe tb mas´pra mim é dificil de ver nos games. Agora tem OUTRAS pessoas que conseguem dizer que o 4XAA da Nvidia é igual o 2XAA da ATI...ai já nao é o meu caso...a diferença não é tão grande :p

e o que eu li no beyond3D TAMBEM FALAVA sobre melhora na qualidade do AA...e não somente desempenho. O que seria bem vindo :D. Mas uma prova que eu nao considero a diferença de IQ muito grande é que eu nao deixo de comprar uma VGA que tenha um bom CXB da Nvidia, mas nao nego a existencia dessa pequena diferença...mas por ela ser pequena que alguns nao percebem :p. Mas nao adianta ficar afirmando que nao existe...isso é pessoal...conheço várias outras pessoas que perceberam essa diferença no AA
 
será que o SM 4.0 só vem nelas?
 
Tá bom armored :rolleyes: acho que vc não sabe é analisar...isso sim. Não nem questão de gosto ou sei lá o que.

beyond3D? Eles são os donos da verdade? Se bobia o cara que disse isso usa um maldito oculos no grau errado uhauhauaha

Eu tenho uma pencaaaa de SS em 300dpi da X1900XTX. Fora os detalhes que percebo em cada jogo. E eu duvido que ATI tenha algo melhor! Eu posso por 4x AA num game...rodar na NV e na ATI. Vai ser msm coisa. Se alguém chegar aqui e fala o contrario (coisa do Blade) e fala que ATI é ohhh e ahhhhh....é lero de fanatico.

A diferença é na performance...uma melhor outra pior e por ai vai. :whistle:
 
Tá bom armored :rolleyes: acho que vc não sabe é analisar...isso sim. Não nem questão de gosto ou sei lá o que.

beyond3D? Eles são os donos da verdade? Se bobia o cara que disse isso usa um maldito oculos no grau errado uhauhauaha

para com besteira tu mesmo postou vários links do beyond shaft....onde q eu falei q eles SÂO donos da verdade? peguei como exemplo....mas ja conversei com outros users que até hj ainda usam Nvidia e mesmo assim admitem q existe uma diferença no AA das duas...e a diferença é shimmering,....NAO APARECE em SS. Se tu acha q eu não sei analisar blz, guarda isso pra ti e não fica me dando quote pra fica impondo o que tu pensa a respeito das coisas e falando que não sei julgar a qualidade da imagem no MEU PC só pq nao concordo contigo.

Até testes ja mostraram que ativando os recursos de AA da Nvidia, transparency AA, correção de gama....etc...ele fica igual o da ATI...mas aqui em casa na minha 7600GT isso fez ela perder muito desempenho. Mas os filtros em "default" pra quem nao meche em nada nos drivers PRA MIM são piores que o da ATI. E na época que eu constatei isso eu tava saindo de uma X800 e indo pra uma 7800GT SC CO, uma **** VGA...nunca me arrependi de ter comprado, mas q eu senti uma diferença nos filtros senti...até lembro que na época eu falei isso pro Blade no MSN :p.
 
para com besteira tu mesmo postou vários links do beyond shaft....onde q eu falei q eles SÂO donos da verdade? peguei como exemplo....mas ja conversei com outros users que até hj ainda usam Nvidia e mesmo assim admitem q existe uma diferença no AA das duas...e a diferença é shimmering,....NAO APARECE em SS. Se tu acha q eu não sei analisar blz, guarda isso pra ti e não fica me dando quote pra fica impondo o que tu pensa a respeito das coisas e falando que não sei julgar a qualidade da imagem no MEU PC só pq nao concordo contigo.

Até testes ja mostraram que ativando os recursos de AA da Nvidia, transparency AA, correção de gama....etc...ele fica igual o da ATI...mas aqui em casa na minha 7600GT isso fez ela perder muito desempenho. Mas os filtros em "default" pra quem nao meche em nada nos drivers PRA MIM são piores que o da ATI. E na época que eu constatei isso eu tava saindo de uma X800 e indo pra uma 7800GT SC CO, uma **** VGA...nunca me arrependi de ter comprado, mas q eu senti uma diferença nos filtros senti...até lembro que na época eu falei isso pro Blade no MSN :p.

Concordo. A Nvidia precisa melhorar no AA. Embora não seja absurda, a diferença existe. Quanto ao shimmering, em games como o GTA:SA ele é facilmente detectável.

Pra quem tem dúvida sobre diferença entre a IQ do AA das duas empresas sugiro analisarem o que já foi feito através do programa DX9FSAAViewer.

Abraços.
 
Vou dar uma opinião aqui sobre esse tema do AA, através de uma experiência pessoal que tive ao fazer vários testes aqui em casa e debatendo com o pessoal do forum. O problema da nvidia na minha opinião está no equilibrio do driver ao se utilizar os modos AA e AF em conjunto e no ajuste do LOD. Ao jogar HL2 e Quake-4 que foram os jogos que utilizei nos testes. tem até um tópico que criei onde constatei isso. Ao se ajustar o lod para 0,50 eu consegui acabar com o shimering e ainda melhorei a qualidade do AA, só que piorei a qualidade do filtro AF, é como se o AF 16X se transoformasse num AF 14X e por incrivel que pareça ganhei 2 (dois) FPS a mais no local do teste. Ao se utilizar o LOD -0,5 o AF ficou perfeito só que o AA perdeu qualidade e a imagem passou sofrer com um nível muito pequeno de shimering e perdi 3 FPS na área do teste.

Na minha opinião o maior problema da nvidia está tão somente na fraca qualidade do filtro AF que a faz perder qualidade no AA e para não a acusarem de cheat ela utiliza um nível de LOD que deixe o shimering praticamente imperceptível e não a faça perder qualidade no filtro AF.

Se quiserem procurem o tópico que criei sobre o nhancer e tópico que o nobre D3lta criou sobre deferenças de AF ATI X NVIDIA principalmente as últimas páginas desse tópico.

Abraços a todos.
 
Vou dar uma opinião aqui sobre esse tema do AA, através de uma experiência pessoal que tive ao fazer vários testes aqui em casa e debatendo com o pessoal do forum. O problema da nvidia na minha opinião está no equilibrio do driver ao se utilizar os modos AA e AF em conjunto e no ajuste do LOD. Ao jogar HL2 e Quake-4 que foram os jogos que utilizei nos testes. tem até um tópico que criei onde constatei isso. Ao se ajustar o lod para 0,50 eu consegui acabar com o shimering e ainda melhorei a qualidade do AA, só que piorei a qualidade do filtro AF, é como se o AF 16X se transoformasse num AF 14X e por incrivel que pareça ganhei 2 (dois) FPS a mais no local do teste. Ao se utilizar o LOD -0,5 o AF ficou perfeito só que o AA perdeu qualidade e a imagem passou sofrer com um nível muito pequeno de shimering e perdi 3 FPS na área do teste.

Na minha opinião o maior problema da nvidia está tão somente na fraca qualidade do filtro AF que a faz perder qualidade no AA e para não a acusarem de cheat ela utiliza um nível de LOD que deixe o shimering praticamente imperceptível e não a faça perder qualidade no filtro AF.

Se quiserem procurem o tópico que criei sobre o nhancer e tópico que o nobre D3lta criou sobre deferenças de AF ATI X NVIDIA principalmente as últimas páginas desse tópico.

Abraços a todos.


hmm boa colocação css...mas mecher nessa area mais profunda do driver...lod...etc...não é qualquer um que sabe mecher e melhorar etc....acho que a Nvidia devia mudar os defaults dela entao :no: Eu mesmo nao sabia disso que tu disse. Eu diminui o shimering colocando o Transparency AA e correção de gama...o AA fico mais bonito e tal. Quero ver se nao pego uma X1600XT emprestada aqui por uns tempos...quero testar mais o AA...mas usando ambas as marcas em default...é visivel uma diferença
 
Mais notícias sobre o G80 do theinquirer:

YESTERDAY I SAID I was chasing more info on the Nvidia G80 chip. The more I dug, the more my head hurt, nothing concrete, so take this with a pretty big grain of salt. In any case, there is some interesting info here.

The first thing is I was a little off on the dates, the tech day now seems more likely in late October with a launch in early November. What's a few weeks between friends? If they have not gotten back the latest silicon though, it is going to be really tight to make that schedule, chips take time to fab.

What they will talk about is the odd part. First is the arrangement of the chip, physically we are hearing that it is 2 * 2 cm, or about a 400mm die. Ouch. One of the reasons it is so big is the whole dual core rumor that has been floating around. G80 is not going to be a converged shader unit like the ATI R500/XBox360 or R600, it will do things the 'old' way.

Some people are saying that it will have 96 pipes, split as 48 DX9 pipes and 48 DX10. While this may sound like a huge number, we are told if this is the case, it is unlikely that you can use both at the same time. Think a 48 or 48 architecture. That said, I kind of doubt this rumor, it makes little sense.

In any case, NV is heavily downplaying the DX10 performance, instead shouting about DX9 to anyone who will listen. If the G80 is more or less two 7900s like we hear, it should do pretty well at DX9, but how it stacks up to R600 in DX9 is not known. R600 should annihilate it in DX10 benches though. We hear G80 has about 1/3 of it's die dedicated to DX10 functionality.

One of the other interesting points that surfaced is much more plausible but still odd, and that is memory width. As far as I know, GDDR3 is only available in 32-bit wide chips, same with the upcoming GDDR4. Early G80 boards are said to have 12 memory chips on them, a number that is not computer friendly.

Doing a little math, 12 * 32 gives you a 384b wide bus. On the odder side, if you take any of the common card memory capacities, 256 and 512MB and divide them by 12, you end up with about 21 or 42MB chips, a size not commonly found in commodity DRAMs. If 12 chips are destined for production, you will end up with a marketers nightmare in DRAM capacities, 384/768 is not a consumer friendly number.

While it could just be something supported by the GPU and not destined for production, you have to ask why they may need this. The thing that makes the most sense to me is that with all the added pipes, they needed more memory bandwidth. To get that, you can either go faster or go wider.

If you look at the cost of high end GDDR parts, faster is ugly. If you look at the yields of high end GDDR parts, faster is ugly. Drawing more traces on a PCB to go wider is far less ugly. If NVidia needed the bandwith that you can only get from a 384b wide bus, then the odd memory size may simply be a side effect of that.

In any case, the G80 is shaping up to be a patchy part. In some things, it may absolutely scream, but fall flat in others. The architecture is looking to be quite different from anything else out there, but again, that may not be a compliment. In either case, before you spend $1000 on two of these beasts, it may be prudent to wait for R600 numbers.


http://www.theinquirer.net/default.aspx?article=34359

Abraços a todos.
 
kkk, só pra registrar minha opinião sobre AA da ATi x nVidia:
Em 2XAA o AA da ATi é melhor, eu pude perceber isso nitidamente.
A diferença é clara, cristalina, principalmente 'em movimento'.
Os padrões do AA 2X na nVidia ficam se repetindo, é +- como um shimmering de AA mesmo!! Na ATi não... na nVidia eu preferia jogar sem AA do que botar AA 2X, que ficava incomodo. AA 2X na nVidia pra mim era algo inútil, AA 2X na ATi foi sempre muito bem vindo. Nunca joguei nada aqui sem pelo menos AA 2X.
Quando eu tinha uma FX5200Ultimate, preferia jogar com Quincunx AA 'embaçado' do que com AA 2X 'estranho'.

Já em 4X AA eu não pude perceber diferenças significativas. Pelo menos que eu me lembre. Interessante, não??? Tão subjetivo...

Agora voltem ao tópico!

Olhem a última especulação do Theinq... na verdade, só estão repetindo alguns rumores: bus de 384 bits? 'dual' core? Performance focada em DX9, com DX10 para compatibilidade?

fui
 
Agora voltem ao tópico!

Olhem a última especulação do Theinq... na verdade, só estão repetindo alguns rumores: bus de 384 bits? 'dual' core? Performance focada em DX9, com DX10 para compatibilidade?

fui


agora voltando ao tópico...eu to achando as especulações do G80 muito bizarras...tem muti informação correndo ao mesmo tempo, e algumas delas são bem estranhas... 12 chips de memoria...uma parte reservada pra fisica....dual core, 48 unidades pra DX9 e 48 unidades pra DX10 (pouco provavel)....nossa minha cabeça dói :D

mas eles falaram algo que a propria Nvidia já disse e eu já chutei faz tempo, a Nvidia provavelmente vai se sair melhor que a ATI em DX9 mas vai perder no DX10....dependendo de quanto tempo vai levar pra vermos titulos realmente DX10...a nvidia pode estar apostando certo e levar uma boa vantagem. claro que isso só o futuro nos dirá, acho que a estrategia da Nvidia é nao investir tanto no DX10 agora...ela ta optando por ter um desempenho assombroso em DX9 e deixar DX10 mais de lado, se bem que ninguem tem cmo saber como o R600 vai se comportar em DX9...se a diferença nao for grande vai compensar mais pegar o chip q tem mais eficiencia na futura API e tb excelente desempenho na antiga que o chip q tem muita eficiencia na antiga e quase nenhuma na nova :sly: . mas cmo são poucas as informações é dificel prever algo
 
Não tem muito essa história da nVidia ser pior em DX10... Com o Vista, até a performance em DX9 vai melhorar. E pode ser que os primeiros jogos para DX10 apenas usem o DX10 como uma extensão do DX9, sem nada muito avançado. Talvez se os jogos DX10 usarem muito vertex texturing/geometry shaders, o R600 pode se superar. O Vertex Texturing em SM 3.0 da G71 é lentoooo, a ATi nem sequer implementou na X1K. Mas o Xenos consegue fazer com boa performance. Geometry Shaders é um mistério.

Não se pode afirmar absolutamente nada sobre o que irá acontecer. Vou viajar um pouco:

A nVidia bem que poderia ter lançado um chip G80 simples, com bus de 128bits e GDDR4. Poderia montar uma placa de baixo custo com uma G80 e outra top dual-GPU. Ganharia dois mercados. E a placa dual-G80 poderia rodar muito bem QuadSLI com o Vista. Com o WindowsXP e DX9, existe um problema em D3D que não deixa o QuadSLI render tudo que deve, a própria nVidia admite isso.

Vou tentar traçar um paralelo com a tecnologia das CPUs:

Realmente 'estranha' esta história do dual-core, bus de 384 bits... será o G80 um chip similar ao Presler e ao Kentsfield, com dois 'dies' ligados? Entretanto, o Presler e o Kentsfield se conectam pelo FSB e o controlador de memória é externo!
Será que o G80 consegue conectar dois dies com controlador de memória próprio? Neste caso seria uma conexão realmente 'total', nada de SLI! Não haveria a necessidade de se duplicar o frame-buffer (ex.: a 7950GX2 tem 1Mb de memória total, mas o framebuffer é de 512Mb, que é o tamanho da memória em cada placa).
Bom, na arquitetura AMD, por exemplo, cada processador possui seu próprio controlador de memória, e através da arquitetura Direct Connect cada chip pode se conectar ao outro sem ter que dividir a banda de memória. Isto ocorre com os Opterons e em breve com o 4x4.

Chutando o pau da barraca, e se o G80 fosse dois dies 'colados' como um Presler, mas com controlador de memória 'a la' AMD? Cada die teria bus de 192bits, mas conectados em nível de encapsulamento?

Duvido. Pra mim o G80 é apenas um chip graaande. :)

fui
 
Não tem muito essa história da nVidia ser pior em DX10... Com o Vista, até a performance em DX9 vai melhorar. E pode ser que os primeiros jogos para DX10 apenas usem o DX10 como uma extensão do DX9, sem nada muito avançado. Talvez se os jogos DX10 usarem muito vertex texturing/geometry shaders, o R600 pode se superar. O Vertex Texturing em SM 3.0 da G71 é lentoooo, a ATi nem sequer implementou na X1K. Mas o Xenos consegue fazer com boa performance. Geometry Shaders é um mistério.


fui

como tu mesmo disse....ninguem pode afirmar nada...e o Vertex Texturing em SM 3.0 DO G71 é lentoooo....vai saber se a Nvidia não deu um boost legal nele no G80 ;). E geometry shaders ninguem ainda tem muita ideia de como vai funcionar :confused:
 
Ainda poucas informações sobre R600, mais uma agora do theinquirer:

ATI's R600 delayed until next year

Woe, woe and thrice whoah


By Fuad Abazovic: quinta-feira 14 setembro 2006, 09:39

WE EXPECTED to see R600 up and ready by the end of the calendar year but it looks like we are out of luck this time.
The acquisition of ATI made things and people a little bit insecure and out of focus, so the chip won't be read for December as originally planed.

We are sure that R600 team has got some problems as well but it looks like they can handle it but with a delay of course.

It looks like Nvidia's G80 will be out before but R600 still looks more attractive. This is what our own Charlie Demerjian reported he other day, here. Nvidia might have up to three months lead with its new high end product and this is a lot.

Until then, ATI has to hold the market attention with sub $ / € 399, R580+ Radeon X1950 XTX card. It doesn't sounds good for ATI in high end market.

http://www.theinquirer.net/default.aspx?article=34373

Abraços.
 
gente, sem tanto aue. Tem muita coisa ai que tem toda cara de ser mistura com o RSX.

Pra começar uma unidade de controle de memoriaque usa RSX é incompativel com DDR (a anoser que tenha duas oq ue deixaria estupidamente caro). XDR é caro demais pra VGA. As VGA quadruplicariam de preço facinho facinho


Esperem mais uns dias. o G80 não deve demorar. Os devel associados da NV ja tao recebendo menos atencao do suporte NV (isso SEMPRE acontece nao muito antes do release de uma geracao nova, acho que para instruir o pessoal de suporte de development).


So ter um pouco de paciência...
 
como tu mesmo disse....ninguem pode afirmar nada...e o Vertex Texturing em SM 3.0 DO G71 é lentoooo....vai saber se a Nvidia não deu um boost legal nele no G80 ;). E geometry shaders ninguem ainda tem muita ideia de como vai funcionar :confused:

é lento na NV mas a ATI só suporta um formato de textura pra isso no DX10 e nenhum no GL.. que útil...

öbvio que o fetch de textura vai ser masilento nas unidades de vertice. Nao teria sentido gastar um monte de silicio nisso quando vc podia estar gastando no fetch das unidades de raster que são usadas o tempo todo...

Nunca uma empresa vai colocar tudo qeu pode em cada lugarzinho da placa. Ia ficar um mosntro de meio metro por meio metro e custando 2 milhões de dolares a unidade.
 
é lento na NV mas a ATI só suporta um formato de textura pra isso no DX10 e nenhum no GL.. que útil...

hmm interessante essa informação :yes: ... se nao me engano era o R4XX que suportava texture fetch mas nao tinha suporte a nenhum formato de textura tornando a feature meio inutil nao era?
 
Um Membro do techzonept.com disse ter recebido uma informação secreta, a qual segue abaixo, de um informante, que não quis se identificar nem ter seu nome divulgado. achei curiosa e como toda informação é válida resolvi postar aqui. vamos lá:

A G80 está em produção as we speak.

TSMC: processo de 80nm Low-K.
Local de assemblagem dos PCB's : Flextronics (onde também se fabricam as Xbox 360 e os telemóveis SonyEricsson, por exemplo).
Nome de código do PCB: P355.
Primeiro lote: 50.000 unidades.
Tamanho da die é mais pequeno do que uma R580 ().
Cerca de 500 Milhões de transístores.
A arquitectura é tão secreta que somente um punhado de pessoas fora da Nvidia a conhece em detalhe.
O preço inicial será elevado, mas com performance a condizer.

Fote:
http://www.techzonept.com/showpost.php?p=1159754&postcount=646
http://www.techzonept.com/showpost.php?p=1159796&postcount=651

Abraços a todos.
 
Eu ainda duvideo-do que o G80 saia pra PC com as memorias XDR. XDR vai ser o RSX, isso sim ja foi confirmado. Tem muita informação misturada por ai.
 
se tiver XDR na G80, acho q a ATi vai se fu*** xD

cara, tipo assim, 65nm, vai ser tao pequeno, q de 600MHz pra 1GHz vai ser facílimo com um Watercooling.
estou correto?

Não, provavelmente não. GPUS nao sao como CPU e overclcok nao depende so de temperatura. Se o tempo de resposta dos transistores nao baixa de X nao importa vc nao passa desse clock.

Tambêm é altamente inviavel clocks muito acima do sweet spot com arquiteturas feitas proceduralmente por computadores como sao todas as VGA. Uma CPU fica em fine tunning manual por seres humanos por 2 ou 3 anos antes de ser lançada, por isso da pra fazer operar a 3 GHz. Sweet spot é um valor teorico de melhro custo beneficio de MHz. Atualmente nos proecssos de fabricacao atual fica ao redor de 500 MHz.
 
opa, blz

noticia nova, se ja foi postada, paciencia!!!!

"Dentro de alguns meses, a primeira placa gráfica ATI baseada na arquitetura R600 chegará ao mercado. Segundo algumas fontes consultadas pelo site Nokytech.net esta placa teria dimensões dignas de uma NVIDIA 7900GX2 (não confundir com a 7950 GX2), o que aproximadamente corresponderia a 33 cm e o espaço de 3 slots PCIe. Sozinha, esta placa consumiria perto de 200W (conector 8 pinos obrigatório), além de utilizar um GPU single core.

Enquanto os fabricantes de CPU estão fazendo um grande esforço para reduzir o consumo dos seus produtos, aparentemente, este não seria o caso das placas gráficas, não da ATI. Apesar de nada ainda estar confirmado, isso parece ENORME. "

fonte: http://www.forumpcs.com.br/noticia.php?b=181732

falow
 
realmente ta muito ridiculo os niveis de consumo de energia de GPU. Eu memso só compro GPU bemmais economica por isso to com uma 7600 GT. Absurdo 200 W em uma GPU, nada justifica eles gastarem mais energia que um Conroe + 1 giga ram + um HD


Ta muito ridiculo isso, ambasa ATI e NV tem que botar vergonha na cara e fazerem GPUs eficientes em custo beneficion no quesito energia.
 

Users who are viewing this thread

Voltar
Topo