• Prezados usuários,

    Por questões de segurança, a partir de 22/04/2024 os usuários só conseguirão logar no fórum se estiverem com a "Verificação em duas etapas" habilitada em seu perfil.

    Para habilitar a "Verificação em duas etapas" entre em sua conta e "Click" em seu nick name na parte superior da página, aparecerá opções de gestão de sua conta, entre em "Senha e segurança", a primeira opção será para habilitar a "Verificação em duas etapas".

    Clicando alí vai pedir a sua senha de acesso ao fórum, e depois vai para as opções de verificação, que serão as seguintes:

    ***Código de verificação via aplicativo*** >>>Isso permite que você gere um código de verificação usando um aplicativo em seu telefone.

    ***Email de confirmação*** >>>Isso enviará um código por e-mail para verificar seu login.

    ***Códigos alternativos*** >>>Esses códigos podem ser usados para fazer login se você não tiver acesso a outros métodos de verificação.

    Existe as 3 opções acima, e para continuar acessando o fórum a partir de 22/04/2024 você deverá habilitar uma das 03 opções.

    Tópico para tirar dúvidas>>>>https://forum.adrenaline.com.br/threads/obrigatoriedade-da-verificacao-em-duas-etapas-a-partir-de-24-04-2024-duvidas.712290/

    Atencionamente,

    Administração do Fórum Adrenaline

ATI Radeon HD™ Série 2000 - Informações

Mais notícias sobre o RV6X0 do theinquirer:

RV6x0 generation is DirectX 10

With unified shaders


By Fuad Abazovic: quarta-feira 27 setembro 2006, 14:21

ATI IS STILL to introduce its 80 nanometre based RV560 and RV570 chips and that will likely happen on the 17th of October at what will probably be ATI's last launch party ever.
Still, we wanted to look beyond horizon and to find out what is hiding behind those ridiculous names that we mentioned here.

These chips won't see the light of the day before late Q1 or Q2, we reckon, but we hear that all flavours of RV6X0 will end up having DirectX 10 support and will all support unified shaders.

Nvidia is also working hard on its G80 derivates for the mainstream and entry-level market but we can only guess that these will be called G83 and G84.

Of course we will try to find more about it, but Nvidia is super tight-lipped. µ


http://uk.theinquirer.net/?article=34673

Abraços.
 
É difícil as GPUs subirem muito os clocks. Reparem que as GPUs são processadores de dados paralelos - digamos assim - como se fossem CPUs Multi-core especializadas. Vejam como o clock do Conroe caiu em comparação com os Netburst, mas o IPC aumentou de forma gigantesca!

Então, se realmente o G80 não chegar a 700 Mhz, ainda que seja fabricado em 80nm, isso não quer dizer muita coisa!

Outra coisa que acredito ser possível, o uso do 'Strained Silicon Technology', como o usado na Mobility X1700(reparem que a nVidia resolveu migrar seu chip mobile para 80nm, já a ATi se manteve em 90nm, só que usa SST):
http://www.elitebastards.com/cms/in...sk=view&id=155&Itemid=29&limit=1&limitstart=1

SST permite clocks mais altos, sem aumentar o consumo de energia, gerando menos calor, etc.
São vantagens que seriam oferecidas por um processo de fabricação aprimorado! Mas não tem implicação no tamanho do 'die'!

Eu duvido que a G80 seja apenas um chip em 90nm... se for em 90nm, deve usar SST. Se for em 80nm, isto não deve ser necessário. Ambas as tecnologias foram usadas pela TSMC. Eu arriscaria dizer que uma ou outra tecnologia está na G80, mas não as duas juntas.

Ainda tem a possibilidade do 'dual-die'...Se for 'dual-die', talvez sejam dois chips 90nm, um menor que o outro(como o NV47, que tinha a bridge PCI-E 'on-die', não ficava separada no PCB). Quem sabe...

Lembro a vocês que a X850XT só foi competitiva com a GF6800U pq usou um processo de fabricação aprimorado, 130nm 'low k', que permitiu a ela subir os clocks.
A X800XL foi fabricada em 110nm(portanto, em um processo de fabricação aprimorado) e seu core clock foi bem inferior a X850XT.

Não basta saber se o chip é fabricado em 80nm, 90nm. É preciso saber que tecnologia de fabricação está sendo usada. Normalmente quando lançam os chips, o pessoal dos reviews costuma comentar os ganhos possíveis com tais tecnologias... e a cada chip, sempre se fala de novas tecnologias... SST já virou lugar comum nas CPUs... vai virar lugar comum nas GPUs tb... acho!

fui
 
Cara isso muitos já sabem...mais como vc msm disse "Não basta saber se o chip é fabricado em 80nm, 90nm. É preciso saber que tecnologia de fabricação está sendo usada" é o que eu muitos estamos esperando pra saber pra avaliar com mais cautela essa questão :rolleyes:

Semana que vem muitos dizem que vai ter surpresas vindo da NV. É esperar e rezar ;)

Breve coments OFF. Vipman, se vc pretende fazer no seu AM2 se prepare pra comprar um cooler Zalman da vida :) Só um conselho hehehe
 
Sei que o suporte a developers da NV ja ta uma zona, tal qual sempre fica logo antes de uma arquitetura nova chegar (acho que eles revezao o pessoal pra retreinar). Mas tbm tem todas questao do PS3 e RSX que ajuda a obfuscar tudo.
 
Agora o bicho vai pegar:

Estão comentando em diverssos foruns que as verdadeiras specs e preços do G80 são aquelas que o Vr-zone divulgou e que supostamente foram forçados a tirar do ar pela própria nvidia através de alguma forma de coação, e aí será que é verdade???


Some reasonably detailed specifications along with pricing and naming information for Nvidia's upcoming G80 graphics processor have leaked. The specs were posted by VR-Zone but have since been silently taken down. Luckily, the information was relayed by the folks at X-bit labs and reads as follows:

Some reasonably detailed specifications along with pricing and naming information for Nvidia's upcoming G80 graphics processor have leaked. The specs were posted by VR-Zone but have since been silently taken down. Luckily, the information was relayed by the folks at X-bit labs and reads as follows:
Unified Shader Architecture;
Support FP16 HDR+MSAA;
Support GDDR4 memories;
Close to 700M transistors (G71 - 278M / G70 - 302M);
New AA mode: VCAA;
Core clock scalable up to 1.5GHz;
Shader peformance: 2x Pixel/12x Vertex over G71;
8 TCPs & 128 stream processors;
Much more efficient than traditional architecture;
384-bit memory interface (256-bit+128-bit);
768MB memory size (512MB+256MB)
The information says the G80 will launch in November in the form of GeForce 8800 GTX and GeForce 8800 GT models priced at $649 and $449-499, respectively. The faster of the two will have a 384-bit memory interface, a hybrid water and air cooler, and "7 TCPs." The GeForce 8800 GT will reportedly have a 320-bit memory interface, a standard air cooler, and "6 TCPs."
Neither X-bit labs nor VR-Zone clarify the meaning of the TCP acronym, but it could refer to thread control processors. According to this Nvidia patent, thread control units are used to configure programmable computation units to perform vertex or pixel operations. In other words, they set the function of the graphics chip's unified shader processors.

Fontes:
http://digg.com/hardware/Possible_specs_for_Nvidia_s_G80_leak_out
http://techreport.com/ja.zz?comments=10820

Abraços a todos.
 
Gostaria de fazer um breve comentário sobre esse trecho da notícia do techreport:

Neither X-bit labs nor VR-Zone clarify the meaning of the TCP acronym, but it could refer to thread control processors. According to this Nvidia patent, thread control units are used to configure programmable computation units to perform vertex or pixel operations. In other words, they set the function of the graphics chip's unified shader processors

Aqui de acordo com eles o site foi obrigado a tirar a notícia do ar por infrigir na quebra de alguma patente da nvidia e de acordo com esta patente da Nvidia, no G80 são usadas unidades de controle de linha para configurar unidades de computação programáveis para executar vértice ou operações de pixel. Em outras palavras, eles usando shader´s unificados na GPU do G80.

Alguem que for mais entendido do assunto poderia nos informar o porque de tanta importância de manter isso em sigilo???

Abraços a todos.
 
Provavelmente pq o chip vai ser uma inovação absurda e que ninguem botava fé.

G80 está pra vir em 80nm, PPU integrada, Shader Unificado, novo metodo de AA (que já foi postado tb), HDR + AA (talvez de mais eficiente que o usada na ATI) e uma penca de outras coisas.

Muita, mais muita gente aqui via falando com peito estufado que G80 seria balela perto do R600 por causa do shaders unificados e tudo mais. E como o oldman disse a API funciona apartir desse parametro.

Nobre Delta que afirmava muito que G80 não tinha tal capacidade de inovação, e pelo visto a situação do G80 está pra lá de boa! :cool:

OldMan disse:
Ela vai ter que aceitar shaders unificados da API. Isso é fato, potnto final, sem isso não roda DX10.

;)

Eu to vendo alguns foruns gringos só pra ver se sai alguma coisa nova. Mais essa questão dos detalhes do G80 que foram tirados do ar supostamente pela NV é quente mesmo.

É esperar o inicio de outubro pra ver o se a NV diga algo :evil:
 
Provavelmente pq o chip vai ser uma inovação absurda e que ninguem botava fé.

G80 está pra vir em 80nm, PPU integrada, Shader Unificado, novo metodo de AA (que já foi postado tb), HDR + AA (talvez de mais eficiente que o usada na ATI) e uma penca de outras coisas.

Muita, mais muita gente aqui via falando com peito estufado que G80 seria balela perto do R600 por causa do shaders unificados e tudo mais. E como o oldman disse a API funciona apartir desse parametro.

Nobre Delta que afirmava muito que G80 não tinha tal capacidade de inovação, e pelo visto a situação do G80 está pra lá de boa! :cool:

Eita o bicho é realmente fã de carteirinha da Nvidia ..pior do que eu sou da Ati. heheheheheheh
Tu falou HDR+AA .. olha já dando importancia a coisa... melhor ainda que o da Ati... não tem que ser melhor apenas nisso..tem que ser melhor em tudo.

tô falando melhor que o R600.. pq da serie 19XXX é obrigação
 
Eita o bicho é realmente fã de carteirinha da Nvidia ..pior do que eu sou da Ati. heheheheheheh
Tu falou HDR+AA .. olha já dando importancia a coisa... melhor ainda que o da Ati... não tem que ser melhor apenas nisso..tem que ser melhor em tudo.

tô falando melhor que o R600.. pq da serie 19XXX é obrigação

Não sou pq já tive mais placa da ATI do que da propria NV :p ou não...sei lá :wacko: hahaha

Sim, eu acredito que AGORA é a hora do HDR+AA. Apenas isso. Hoje em dia é Trunfo pra se rodar TES4 e ainda não é essa performance toda.

G80 e R600 tem a obrigação de ser melhor nos jogos atuais. Sem duvidas agora Qual proxima geração vai ganhar? Bem não sou profeta, mais a ATI tem obrigação mostrar algo bom pra n ser motivos de gargalhadas. Pois o chip dela só vai sair tempos dps ;)
 
Afff por mim eu preferia uam placa com 48 bit color que ai não precisava de HDR e ficava muito melhor o resultado.


Sobre tirar do ar nào é questao de patente, é questao de que é ilegal vazar esse tipo de informação. nenhuma empresa quer que suas novisdades e surpresas sejam estragadas.

Ate pode ser que tenham saido do ar sem a NV ter anda a ver com isso, colcoar no ar e tirar fingindo que foi por pressão da NV é um otimo meio de se fazer aparecer.
 
Mas placas 48 bit color iam forçar monitores de 48 bit color. Apesar que ja existem uns CRT 48 bit color apesar de bem caroa ainda.
 
Foda é fazer o mercado mudar né oldman...é muito mais muito complicado mesmo e vc sabe disso. Apesar que nos todos sabemos que 48bits seria o ideal.

bem...olha o que recebi da nvidia!






NVIDIA, Microsoft DirectX 10 Day
Tuesday, 3 October
10:00 - 17:30



10:00 - 10:50: Gloopy Effects with DX10
Presenter: NVIDIA

With advanced vertex and geometry shading, DirectX10 allows programmers to create objects that deform when they are dropped, kicked, or fired upon. Isn't that how worlds were meant to be rendered?


11:00 - 12:00: Windows Performance Topics for Games
Presenter: Microsoft

This talk explores the low-level workings of the Windows operating
system with a view to getting the most performance out of your game,
while avoiding common pitfalls often encountered by game developers.
Topics discussed include the Windows XP Display Driver Model (XPDM) and
Windows Vista Display Driver Model (WDDM). The talk also highlights
several tools that can be used to detect game performance bottlenecks.

12:00 - 13:00 - Lunch

13:00 - 13:50: Shadow of the Beast
Presenter: NVIDIA

Depending on the context, there are many ways to produce shadows and each technique has its advantages and drawbacks. NVIDIA engineers will show how D3D 10 makes shadows better and your life easier.

14:00 - 14:50: Exploiting D3D 10 - Advanced Techniques Using D3D 10
Presenter: Microsoft

Direct3D 10 opens the door to previously unattainable real-time graphics techniques. Learn how the Direct3D 10 samples team uses this latest technology to create stunning visual effects. This talk describes in detail several techniques demonstrated in the DirectX SDK including GPU-accelerated morph targets and particle systems. This talk also speculates on the Direct3D 10 techniques game developers will be using in the near future.

15:00 - 15:30 - Break

15:30 - 16:20: The DX10 Cloning Factory
Presenter: NVIDIA

Game developers know how frustrating it is to cut down on the number of objects in a scene to save on performance. From details indoors to clutter outdoors, adding objects to a scene is critical for believability. DirectX10 has been designed to display more objects with less API calls. We look forward to seeing the DirectX10 improvements in your games.

16:30 - 17:00: Physics Simulation on NVIDIA GPUs
Presenter: NVIDIA/HAVOK

Havok FX leverages state of the art software and hardware technology
from NVIDIA to extend the capabilities of NVIDIA GPUs and SLI multi-GPU
systems to include physics processing for massive real-time effects. In
this presentation NVIDIA and Havok engineers will describe how Havok FX
utilizes NVIDIA technology to simulate and render thousands of particles
and rigid bodies in games. Live real-time demos will demonstrate the
high performance available with current GPUs and provide a look into the
future of physics processing on NVIDIA GPUs.


link: http://developer.nvidia.com/object/devnews035.html

ou http://www.gdclondon.com/conf/nvidia.htm
 
Quais os sites que vão fazer a cobertura?
se é que vai poder ser aberto a publico : /
 
Foda é fazer o mercado mudar né oldman...é muito mais muito complicado mesmo e vc sabe disso. Apesar que nos todos sabemos que 48bits seria o ideal.

bem...olha o que recebi da nvidia!






NVIDIA, Microsoft DirectX 10 Day
Tuesday, 3 October
10:00 - 17:30



10:00 - 10:50: Gloopy Effects with DX10
Presenter: NVIDIA

With advanced vertex and geometry shading, DirectX10 allows programmers to create objects that deform when they are dropped, kicked, or fired upon. Isn't that how worlds were meant to be rendered?


11:00 - 12:00: Windows Performance Topics for Games
Presenter: Microsoft

This talk explores the low-level workings of the Windows operating
system with a view to getting the most performance out of your game,
while avoiding common pitfalls often encountered by game developers.
Topics discussed include the Windows XP Display Driver Model (XPDM) and
Windows Vista Display Driver Model (WDDM). The talk also highlights
several tools that can be used to detect game performance bottlenecks.

12:00 - 13:00 - Lunch

13:00 - 13:50: Shadow of the Beast
Presenter: NVIDIA

Depending on the context, there are many ways to produce shadows and each technique has its advantages and drawbacks. NVIDIA engineers will show how D3D 10 makes shadows better and your life easier.

14:00 - 14:50: Exploiting D3D 10 - Advanced Techniques Using D3D 10
Presenter: Microsoft

Direct3D 10 opens the door to previously unattainable real-time graphics techniques. Learn how the Direct3D 10 samples team uses this latest technology to create stunning visual effects. This talk describes in detail several techniques demonstrated in the DirectX SDK including GPU-accelerated morph targets and particle systems. This talk also speculates on the Direct3D 10 techniques game developers will be using in the near future.

15:00 - 15:30 - Break

15:30 - 16:20: The DX10 Cloning Factory
Presenter: NVIDIA

Game developers know how frustrating it is to cut down on the number of objects in a scene to save on performance. From details indoors to clutter outdoors, adding objects to a scene is critical for believability. DirectX10 has been designed to display more objects with less API calls. We look forward to seeing the DirectX10 improvements in your games.

16:30 - 17:00: Physics Simulation on NVIDIA GPUs
Presenter: NVIDIA/HAVOK

Havok FX leverages state of the art software and hardware technology
from NVIDIA to extend the capabilities of NVIDIA GPUs and SLI multi-GPU
systems to include physics processing for massive real-time effects. In
this presentation NVIDIA and Havok engineers will describe how Havok FX
utilizes NVIDIA technology to simulate and render thousands of particles
and rigid bodies in games. Live real-time demos will demonstrate the
high performance available with current GPUs and provide a look into the
future of physics processing on NVIDIA GPUs.


link: http://developer.nvidia.com/object/devnews035.html

ou http://www.gdclondon.com/conf/nvidia.htm


ja tinha recebido um email da NV convidando pro DX10 day a algumas semanas. Mas nem tinha nada sobre as novas GPU na ocasião.

Aaa olhando agora... recebi mais um reminder da NV do evento. É tem tudo a ver.
 
Se encomodo em nos dizer do que se trata isso com mais detalhes :p ?

Eu até li mais não diz algo mt "ohhh" talvez vc que fica mais por dentro da verdenha que a gente poderia dizer algo :wub:
 
O convidado foi o Oldman Shaft.. se quiserir pra o da Ati eu te levo .
ainda ganha um babador..
sabe como é ficar muito tempo com a boca aberta causa isso..
hehehehehehehhe.
Se o G80 for realmente melhor que um CF do que eu uso posso até experimentar enquanto sai o R600.
Acho que a Nvidia teve tempo e como já foi dito o dx10 deve aproximar e muito a tecnologia usada pela Nvidia e ati

abraço
 
Nada de muito especial a principio. A NV manda convites periodicos para todos os developers que trabalham ou ja trabalharam em um titulo "the way it meant to be played". Como eu era o desenvolvedor cadastrado da Hoplon na NV eu ainda recebo esse tipo de coisa.

São eventos periodicos de demonstração de tecnicas avançadas. Coisa bem voltada a desenvolvedores, mas realmente neste caso a data esta conveninete demais pra não ter relação nenhuma com os novos chips. Não duvidaria nem um pouco que tenha alguns G80 lá , mas nao necessariamente é uma apresentação oficial.

As GF3 Go apareceram pela primeira vez no Brasil na Sibgrapi aqui mesmo em florianópolis, 2 meses antes de serem anunciadas a público em um evento semelhante mas em escala bem menor. Então não é impossivel. Mas tbm nao se tem acesso a coisa alguma nem nenhum informação, apenas vc pode ver demonstrações.

OU seja não é nada muito oohh a não ser que vc saiba como se programa sistemas graficos e esteja interessado em ver como implementar novas técnicas.


Infelizmente eu não tenho dinheiro nem mobilidade pra ficar indo pro exterior só pra assistir um evento técnico, por mais interessante que ele seja. Então nem dou muita bola quando vem esses convites. Eventualmente o conteúdo disso é liberado online para os desenvolvedores com acdastro e senha no site da NV.
 
Se o G80 for realmente melhor que um CF do que eu uso posso até experimentar enquanto sai o R600.


abraço


vai continuar achando a coisa mais horrível do mundo cmo sempre :lol: :lol:
 
Só uma perguntinha :).

sería muita viajem falar de Caches nas GPU's ?? L1 pelomenos ? ou isso ja existe e eu ñ tinha ideia ?.

vlw
 
nessas ultimas semana estamos sendo bombardeados de noticias duvidosas sobre o g 80 , se ele for realmente td que dizem que promete to botando 1 rim a venda no mercado livre já :lol:

tomara que ele permita rodar games em 1600 x 1200 com hdr + aa em pelo menos aa x 4 de modo descente ... :boring:
 
nessas ultimas semana estamos sendo bombardeados de noticias duvidosas sobre o g 80 , se ele for realmente td que dizem que promete to botando 1 rim a venda no mercado livre já :lol:

tomara que ele permita rodar games em 1600 x 1200 com hdr + aa em pelo menos aa x 4 de modo descente ... :boring:

My friend...acredite em mim, G80 vai ser rlz. Veja a quantidade de coisa nova que vai sair dele. Eu acredito muito que ele vai vir bem mais completo em tecnologias que o R600. Tem novo metodo de AA, uma provavel "PPU" integrada, shader Unificado que todo mundo falava que era o trunfo do R600, mais que agora tb tem no G80.

Agora se R600 vai ter aquela performance melhor eu não sei :sly: mais não vai ser algo mt distante não...e se tiver :evil: huhuhu
 
nessas ultimas semana estamos sendo bombardeados de noticias duvidosas sobre o g 80 , se ele for realmente td que dizem que promete to botando 1 rim a venda no mercado livre já :lol:

tomara que ele permita rodar games em 1600 x 1200 com hdr + aa em pelo menos aa x 4 de modo descente ... :boring:


A GX2 já faz isso.... menos HDR+AA (isso só com a ATI hehehehe)
 

Users who are viewing this thread

Voltar
Topo