[TÓPICO DEDICADO] GPUs Intel - Série Xe, informações, notícias, benchmarks, etc

Não me surpreende os 4% da Intel, mas a AMD com apenas 8%, só isso ?

O que a Intel fez em "3 meses", a AMD não conseguiu fszer em décadas...tá certo isso??
Temos que olhar o cenário como um todo, arredondando os números, do Q2 para o Q3:
NVIDIA: 80% -> 86%
AMD: 20% -> 10%
INTEL: 0% -> 04%


No caso, tanto NVIDIA quanto Intel pegaram os ~10% que a AMD perdeu, e o que a Intel fez para abocanhar 40% dessa fatia? A compatibilidade com softwares para trabalho é um dos motivos; Outro é pelo fator novidade, muitas pessoas compraram para testar a placa; Teve também quem comprou para ter um setup full Intel (sim, isso mesmo); Mas uma boa parcela comprou mesmo por causa da unidade de encode/decode dela, para stream e afins. Ah, a mão da própria Intel empurrando OEMs a embarcarem suas GPUs também contribuiu para esse crescimento acelerado.

A grosso modo desses 4% da Intel somente 1% (chutando) comprou para jogar, e com os preços atrativos (as de entrada, e lá fora) da ARC não custa arriscar, é um lançamento corajoso por querer bater de frente com duas gigantes, e tem sempre aquele caso: Se por ventura a Intel decidir desistir do mercado de dGPU (de novo), você terá uma relíquia em mãos para histórias futuras (como hoje é com quem tem uma Auburn/i740, ou uma Portola/i752).

Some isso ao fato da falta de confiança do/no mercado (inundado de Radeon e GeForce vindas de mineração) e chegamos ao "por que não?", e esse número surgiu. Como qualquer novidade que aparece, vários influenciadores contribuíram para a participação alcançar esses 4%, logo a próxima análise pode mostrar um crescimento menos acentuado, já que a partir de agora qualquer ganho da Intel tenderá a vir de seu próprio esforço, ou seja, de resultados entregues, seja em jogos, seja em aplicações profissionais e/ou streaming.

Temos a primeira resposta de três perguntas possíveis desses números. As segunda e terceira são "o que a NVIDIA fez/faz para estar com ~90% do mercado" e o que a AMD anda fazendo para ter apenas 8%"... essas são as verdadeiras perguntas :D
 
mais isso e calculado como ?
amd vendeu placa de mineração ha rodo como ter somente 8%
nvdia so saiu por que não tinha mais nada do time vermelho
 
Temos que olhar o cenário como um todo, arredondando os números, do Q2 para o Q3:
NVIDIA: 80% -> 86%
AMD: 20% -> 10%
INTEL: 0% -> 04%


No caso, tanto NVIDIA quanto Intel pegaram os ~10% que a AMD perdeu, e o que a Intel fez para abocanhar 40% dessa fatia? A compatibilidade com softwares para trabalho é um dos motivos; Outro é pelo fator novidade, muitas pessoas compraram para testar a placa; Teve também quem comprou para ter um setup full Intel (sim, isso mesmo); Mas uma boa parcela comprou mesmo por causa da unidade de encode/decode dela, para stream e afins. Ah, a mão da própria Intel empurrando OEMs a embarcarem suas GPUs também contribuiu para esse crescimento acelerado.

A grosso modo desses 4% da Intel somente 1% (chutando) comprou para jogar, e com os preços atrativos (as de entrada, e lá fora) da ARC não custa arriscar, é um lançamento corajoso por querer bater de frente com duas gigantes, e tem sempre aquele caso: Se por ventura a Intel decidir desistir do mercado de dGPU (de novo), você terá uma relíquia em mãos para histórias futuras (como hoje é com quem tem uma Auburn/i740, ou uma Portola/i752).

Some isso ao fato da falta de confiança do/no mercado (inundado de Radeon e GeForce vindas de mineração) e chegamos ao "por que não?", e esse número surgiu. Como qualquer novidade que aparece, vários influenciadores contribuíram para a participação alcançar esses 4%, logo a próxima análise pode mostrar um crescimento menos acentuado, já que a partir de agora qualquer ganho da Intel tenderá a vir de seu próprio esforço, ou seja, de resultados entregues, seja em jogos, seja em aplicações profissionais e/ou streaming.

Temos a primeira resposta de três perguntas possíveis desses números. As segunda e terceira são "o que a NVIDIA fez/faz para estar com ~90% do mercado" e o que a AMD anda fazendo para ter apenas 8%"... essas são as verdadeiras perguntas :D
8% é muito pouco, não acho que seja só isso

Se for, os fanáticos AMDistas falam muito de boca cheia, tem é que ficar na miudinha, isso sim
uahauahahaha
 
Batalha de GPUs de $250: Intel Arc A750 vence da Radeon RX6600 em 1440p, mas o consumo de energia ainda é um problema

"Com a queda de preço anunciada recentemente para a Arc A750, a opção da Intel agora parece ainda melhor, especialmente considerando que esta é uma arquitetura relativamente nova que estreou apenas no ano passado. Este modelo é baseado na melhor GPU Alchemist ACM-G10 da Intel, mas foi reduzido para 28 dos 32 Xe-Cores disponíveis. Dito isto, ambas as placas oferecem contagens de núcleos de GPU semelhantes (a RX6600 tem 28 unidades de computação), mas a Arc tem mais núcleos FP32 (3584 vs 1792). Além disso, ambas as GPUs têm a mesma capacidade de memória (8 GB GDDR6), mas a Arc tem um barramento de memória duas vezes maior (256 vs 128bits). Nesta comparação, os números estão à favor da Intel, mas não em todos os casos., pois a A750 tem apenas uma grande desvantagem: um TDP de 225W, bem superior aos 132W da RX 6600.

INTEL-ARC-POWER-BANNER.jpg


O Techtesters colocou as duas placas em uma batalha nas resoluções 1080p e 1440p com configurações de jogo definidas como alta ou ultra. Esses são novos resultados com os drivers mais recentes e na moderna plataforma Ryzen 5 7600X. A A750 Limited Edition acabou mais lenta em média em 1080p do que a RX 6600 da Gigabyte (sem overclock) em cerca de 3%, mas a maior largura de banda de memória da Arc mostra sua força na resolução de 1440p, onde a Intel lidera em 9% em média. Nos jogos, a Intel A750 consome 167W, o que não é tão ruim quanto o valor oficial do TDP de 225 W, mas superior aos 121W da RX6600 medidos pelo Techtesters. No entanto, a Arc ainda tem um problema com o consumo de energia em idle de 35W, quase 9 vezes maior que o da Radeon.

ARC-A750-vs-RX-6600-1080p-GAMING.jpg

ARC-A750-vs-RX-6600-1440p-GAMING.jpg


O Techtesters criou uma maneira muito interessante de apresentar este problema [de consumo], um uso de GPU de longo prazo e seus custos. Nesse caso, também leva em consideração o tempo em que a GPU não está realmente em uso. Dependendo do custo de energia, isso pode ser um fator crucial ao decidir por uma nova GPU, especialmente para quem mora na Europa, onde os custos de energia são mais altos. Conforme medido, o custo de uso da A750 pode dobrar o custo da compra em 4 anos, desde que a placa seja usada 2 horas por dia para jogos e 8 horas em modo inativo e os custos de energia sejam de 50 centavos [de euro] por kWh. A Intel está ciente do problema de energia ociosa nas GPUs Arc Alchemist. A empresa inclusive apresentou uma solução que exige alterações no Windows e no BIOS, mas nem sempre funciona."

INTEL-ARC-A750-vs-RX6600-POWER.jpg


 
problema e um monte de requisito pra ter desempenho bom
 
problema e um monte de requisito pra ter desempenho bom
Mas sendo realista, qual % de suários ainda estão usando CPUs que não suportam o ReBAR? Acredito que os que já estão em plataformas que suportam, a partir do Ryzen 3000 em e Core 10ª geração, e chipsets Intel série 400 e AMD série 400 em diante, já são grande maioria, não?

O que me incomoda mais é o desempenho inconsistente em jogos Direct3D 11, que ainda são bem comuns mesmo o D3D12 tendo virado o padrão. Os que são D3D9 são mais leves e já devem rodar bem com l wrapper D3D9on12. E em último caso, existe o DXVK para jogos singleplayer.
 
Última edição:
Mas sendo realista, qual % de suários ainda estão usando CPUs que não suportam o ReBAR? Acredito que os que já estão em plataformas que suportam, a partir do Ryzen 3000 em e Core 10ª geração, e chipsets Intel série 400 e AMD série 400 em diante, já são grande maioria, não?

O que me incomoda mais é o desempenho inconsistente em jogos Direct3D 11, que ainda são bem comuns mesmo o D3D12 tendo virado o padrão. Os que são D3D9 são mais leves e já devem rodar bem com l wrapper D3D9on12. E em último caso, existe o DXVK para jogos singleplayer.
mais ai que esta ainda tem muita gente que não atende esses requisitos
eu mesmo teria trocado vga se não tivesse tão caro antes de trocar o processador a mob eu troquei so por que saiu de linha
 
mais ai que esta ainda tem muita gente que não atende esses requisitos
eu mesmo teria trocado vga se não tivesse tão caro antes de trocar o processador a mob eu troquei so por que saiu de linha

Bizarramente aqui a ReBar estava desativado, e não foi exatamente user-friendly o processo de ir para a parte avançada da BIOS para ativar, sem falar que eu uso uma Z690 da Gigabyte, longe de ser placa de entrada, bizarro.

Agora essas GPUs da intel até que estão se mostrando decentes, se eu tivesse um PC secundário já tinha adquirido uma.
 
problema e um monte de requisito pra ter desempenho bom
Unico requisito é ter CPU Intel 11 Gen para cima e Windows 11 22H2(recebeu muitas otimizações)
Devidamente instalado com ReBar e Above 4G ativos na BIOS
Instalação feita em UEFI + SecureBoot muda como a CPU e GPU trabalham.
 
Unico requisito é ter CPU Intel 11 Gen para cima e Windows 11 22H2(recebeu muitas otimizações)
Devidamente instalado com ReBar e Above 4G ativos na BIOS
Instalação feita em UEFI + SecureBoot muda como a CPU e GPU trabalham.
Agora algumas BIOS já deveriam deixar ReBar ativado por padrão, ridículo alguns processos pra ativar Rebar, de resto tá top.
 
Unico requisito é ter CPU Intel 11 Gen para cima e Windows 11 22H2(recebeu muitas otimizações)
Devidamente instalado com ReBar e Above 4G ativos na BIOS
Instalação feita em UEFI + SecureBoot muda como a CPU e GPU trabalham.
pra quem troca apenas a gpu não atende esses requisitos
 
talvez essas Intel Arc só terão suporte aos Ryzen 7000...


E vale lembrar que se a sua CPU Intel 12/13/14 Gen tiver iGPU ela soma poder com a dGPU
a amd tinha uma parada de somar tambem mais nunca funciona direito
 
na verdade isso só começou agora com os Ryzen 7000, a iGPU deles veio justamente para somar poder com dGPU.

E só funciona com RDN2+


Acho que vc tá confundindo a idea de GPU como uma unidade que processa gráficos, pra ideia dos (d)encoders de mídia que tem nas GPUs, são coisas pra finalidades bem distintas.

E suporte a codecs mais novos, que foi basicamente o argumento do vídeo todo, tem somente a ver com produtos serem mais novos mesmo, tanto que a série 4000 já suporta bem mais codecs.
 
Acho que vc tá confundindo a idea de GPU como uma unidade que processa gráficos, pra ideia dos (d)encoders de mídia que tem nas GPUs, são coisas pra finalidades bem distintas.

E suporte a codecs mais novos, que foi basicamente o argumento do vídeo todo, tem somente a ver com produtos serem mais novos mesmo, tanto que a série 4000 já suporta bem mais codecs.

Existe o fato do Encode e Decode e tambem existe o fato de somar potencia com iGPU + dGPU...

são 2 coisas que podem funcionar em conjunto. A Intel mesmo apresentou isso quando anunciou os Arcs.

E a AMD também falou isso quando anunciou os AMD 7000
 
Existe o fato do Encode e Decode e tambem existe o fato de somar potencia com iGPU + dGPU...

são 2 coisas que podem funcionar em conjunto. A Intel mesmo apresentou isso quando anunciou os Arcs.

E a AMD também falou isso quando anunciou os AMD 7000
Pra grande maioria das atividades, principalmente jogos que é o foco desse fórum, não somam.
 
na verdade isso só começou agora com os Ryzen 7000, a iGPU deles veio justamente para somar poder com dGPU.

E só funciona com RDN2+


antes tinha um amd hybrid crossfirex que dava pra usar a on e a off juntas pra dar um poder a mais
hoje nei o cross fire tem mais suporte :haha:
--- Post duplo é unido automaticamente: ---

Se a pessoa strema com o PC, edita video com o PC, faz diferença sim
mais pra isso tem algo mais barato se a ideia e so dar video
 
Se a pessoa strema com o PC, edita video com o PC, faz diferença sim
Stream e edição é justamente a parte de encode e decode, não soma, o (d)encoder da CPU só é melhor em algumas coisas pq ele tem latência bem menor pra acessar os dados, mas em termos de qualidade o nvenc se sai bem melhor.
antes tinha um amd hybrid crossfirex que dava pra usar a on e a off juntas pra dar um poder a mais
hoje nei o cross fire tem mais suporte :haha:
Sim, eu cheguei a ter um notebook com isso, tinha um A8 3500M com uma radeon 6000 que nem lembro qual era o modelo, dava uma melhoradazinha no desempenho mas nada de outro mundo.
 
Stream e edição é justamente a parte de encode e decode, não soma, o (d)encoder da CPU só é melhor em algumas coisas pq ele tem latência bem menor pra acessar os dados, mas em termos de qualidade o nvenc se sai bem melhor.

Sim, eu cheguei a ter um notebook com isso, tinha um A8 3500M com uma radeon 6000 que nem lembro qual era o modelo, dava uma melhoradazinha no desempenho mas nada de outro mundo.
exato e hoje querem vender o que a intel faz como a "melhor coisa do mundo"
 
Na Apple, ela só vende Intel com iGPU integrada e dGPU são RX 580/ 5700/6700 e no MacOS existe uma integração da Intel GPU + AMD GPU.

Isso também acontece no WIndows
 
exato e hoje querem vender o que a intel faz como a "melhor coisa do mundo"
Eu fazia isso de combinar dGPU com iGPU no tempo do socket AM2+, com uma HD4200 onboard e uma HD3470 off, e rendia muito bem na época. Juntar duas GPUs nunca foi novo, problema era funcionar e antes tinham bem mais fatores limitantes (como só combinar com placas de entrada), já hoje graças ao DX12 é possível combinar até placas de marcas diferentes (mGPU) mas os DEVs não implementam nem a pau (um dos poucos jogos a terem suporte foi o RoTTR).


na verdade isso só começou agora com os Ryzen 7000, a iGPU deles veio justamente para somar poder com dGPU.

E só funciona com RDN2+


Como disse, isso já existe a anos, inclusive o Ryzen 7000 combina com uma RDNA1, como o exemplo do Rigaya mais abaixo (R9 7950X + RX 5500XT). Ah, o exemplo do MAC é um ponto fora da curva, pois o mGPU precisa ser feito a nível de software (em baixo nível), e como o sistema é todo fechado pela Apple ela mesmo implementou esse suporte. Voltando...




O que a AMD disse que está restrito à limitação da geração dos blocos de ENC/DEC é seus features, que para serem somadas precisam ser compatíveis, e como a base da qualidade será o bloco de menos features a iGPU combinar com placas RDNA2 ou RDNA3 é o melhor cenário (na visão da AMD). Claro que o melhor cenário mesmo é utilizar ambas iGPU e dGPU simultaneamente em tarefas distintas: O jogo rodar na dedicada e o streaming ser manipulado na integrada.

dayllann disse:
Não, combinação com qualquer NAVI dentro do seu limite de encode/decode, por exemplo:
- 7600X + RX5700 = Conseguem combinar o encode AVC/H264
- 7600X + RX6800 = Conseguem combinar o encode HEVC/H265
- 7640U + RX7900XT = Conseguem combinar o encode AV1

O que importa aqui não é a geração da GPU, e sim a geração do VCN (que é o bloco responsável pela compressão/descompressão do video). Logo nada impede de se combinar com uma Vega56 (por exemplo, desde que esteja no alcance dela), mas creio que a AMD limitou a compatibilidade apenas dentro da arquitetura RDNA.
--- Post duplo é unido automaticamente: ---

Mas sendo realista, qual % de suários ainda estão usando CPUs que não suportam o ReBAR? Acredito que os que já estão em plataformas que suportam, a partir do Ryzen 3000 em e Core 10ª geração, e chipsets Intel série 400 e AMD série 400 em diante, já são grande maioria, não?

O que me incomoda mais é o desempenho inconsistente em jogos Direct3D 11, que ainda são bem comuns mesmo o D3D12 tendo virado o padrão. Os que são D3D9 são mais leves e já devem rodar bem com l wrapper D3D9on12. E em último caso, existe o DXVK para jogos singleplayer.
Infelizmente o ReBAR (e/ou Above 4G em algumas mobos) ainda é nicho, só compatível com Zen2 em diante e Intel Rocketlake em diante, e precisa estar em UEFI obrigatório, algumas placas-mãe precisam até de update no BIOS. Se isso já não fosse um grande empecilho, para ativar estas opções é um arrudeio (dicionário nordestino aqui) danado em algumas BIOSes que até desanima, e some a isto o fato da NVIDIA não deixar você ativar o ReBAR quando quiser, e sim quando ela permitir (soft-lock no profiler), então mesmo que esteja tudo ativado de forma correta e você tenha uma NVIDIA pode acontecer de seu jogo não estar usando porque Jensen não deixa :D

E não, a grande maioria das pessoas não utilizam sistemas com suporte ao ReBAR, querendo ou não este boost é nicho, e este é um dos maiores problemas das ARCs, pois o maior alcance dela é justamente com este tipo de usuário (que tem sistemas antigos). Vale lembrar pessoal, as pessoas do Adrenaline não são regra, são exceção (aqui mesmo, 80% do pessoal que conheço/presto suporte ainda utilizam Intel da terceira e quarta geração, mas usam GPUs RDNA2/Turing) xD
 
Última edição:

Users who are viewing this thread

Voltar
Topo