[TÓPICO DEDICADO] INTEL Comet / Rocket / Alder / Raptor Lake

Uma pergunta noob de alguém que parou de acompanhar a tecnologia dos processadores em 2015.

Por exemplo, um i5-13400 que tem em especificação da Intel (Número de núcleos: 10 / Nº de Performance-cores: 6 / Nº de Efficient-cores: 4 / Nº de threads: 16) como o "Performance-cores" são 6 e o "Nº de Efficient-cores" são 4 que totalizando daria os "Número de núcleos" em 10 e que os "Nº de Efficient-cores" são pequenos núcleos que ajudam os núcleos dos "Performance-cores" , podemos dizer que na verdade são 6 Cores ? Pois esses Efficient-cores segundo a própria Intel são apenas para "desafogar" os núcleos em uso e deixar uma folga para trabalhar sem "gargalar".

Podemos analisar desta forma? Ao contrário da AMD que de fato são 6 Núcleos e 12 Threads ou 8 Núcleos e 16 Threads. Falei alguma besteira ou é por aí que podemos analisar os Intel série 12th e 13th ?
 
podemos dizer que na verdade são 6 Cores ? Pois esses Efficient-cores segundo a própria Intel são apenas para "desafogar" os núcleos em uso e deixar uma folga para trabalhar sem "gargalar".

Podemos analisar desta forma?
nao.
Tanto P-cores quanto E-cores são cores, então total 10 cores de fato e nao 6.
O que muda é o propósito de cada um.
 
Uma pergunta noob de alguém que parou de acompanhar a tecnologia dos processadores em 2015.

Por exemplo, um i5-13400 que tem em especificação da Intel (Número de núcleos: 10 / Nº de Performance-cores: 6 / Nº de Efficient-cores: 4 / Nº de threads: 16) como o "Performance-cores" são 6 e o "Nº de Efficient-cores" são 4 que totalizando daria os "Número de núcleos" em 10 e que os "Nº de Efficient-cores" são pequenos núcleos que ajudam os núcleos dos "Performance-cores" , podemos dizer que na verdade são 6 Cores ? Pois esses Efficient-cores segundo a própria Intel são apenas para "desafogar" os núcleos em uso e deixar uma folga para trabalhar sem "gargalar".

Podemos analisar desta forma? Ao contrário da AMD que de fato são 6 Núcleos e 12 Threads ou 8 Núcleos e 16 Threads. Falei alguma besteira ou é por aí que podemos analisar os Intel série 12th e 13th ?
Os E-cores são tão capazes quanto uma CPU da 6ª geração, só que consumindo bem menos energia, então pra muitas atividades eles são mais que capazes e dão um belo incremento na performance em tarefas multi threaded.
 
Os E-cores são tão capazes quanto uma CPU da 6ª geração, só que consumindo bem menos energia, então pra muitas atividades eles são mais que capazes e dão um belo incremento na performance em tarefas multi threaded.

Estou com um i7 6700k e para jogos está pedindo água mesmo com uma GTX 1070. Os 4 núcleos já não são mais os mesmos e para ir para um de 6 núcleos embora seja muito melhor com tecnologia nova, penso que pela longevidade não valeria muito e sim partir para pelo menos um de 8 núcleos. Com um bom rendimento tanto em desktop quanto em jogos. Por isso tive essa dúvida quando me deparei com os Efficient-cores. Penso em pegar algo com melhor Custo x Benefício e que dure pelo menos uns 4 ou 5 anos para não ter que trocar tão cedo.
 
Última edição:
DL Boost é justamente o VNNI, é só extensão do AVX-512.

Nem lembrava do GNA, até onde sei ele continua sendo inútil, tem nenhuma aplicação que faça uso, e a biblioteca deles tá com desenvolvimento praticamente morto. Ah, e ela existe desde a 8th gen no mobile (Cannon Lake).

Enfim, a 11th gen desktop foi só um backport bem cagado da 10th mobile pros 14nm++++++++, teve nada de memorável ou inovador.


Caras, vcs tem um pensamento muito atrasado, bem ignorantes em desenvolvimento.

Me fala como um desenvolvedor vai criar algo novo se não existir hardware disponivel que faça ?

É muito OBVIO, que é preciso a Intel, AMD e Nvidia lançarem hardwares com instruções novas, para que os desenvolvedores possam explorar.
Não é pq não existe aplicação NO SEU DIA A DIA, que não exista poucas aplicações usando...

Você queria que os desenvolvedores criassem sem nenhum suporte softwares com IA Cores e AVX 512, para só depois a Intel dar suporte com uma nova geração de Intel ? :limo:

É tipo construir um Trem sem ter trilhos para ele andar...

E os softwares da Adobe já tem 2 anos que fazem uso de IA Cores dos Intel.
--- Post duplo é unido automaticamente: ---

Inteligencia Artificial nas CPUs Intel e CPUs AMD precisam de 3 ITENS essenciais para acontecer;
AVX 512
iGPU na CPU
IA Cores

As CPUs F e KF da Intel que não tem iGPU infelizmente ficaram de fora e rodaram softwares e Games sem a presença de IA. Seja lá como isso vai ser implementado.

Mas a Adobe usa Inteligencia Artifical no Photoshop, Premiere PRO e Afte Effect. E CPUs intem sem iGPU não conseguem usar esses recursos nos softwares da Adobe.


Os ZEN 4 Ryzen 7000 vieram com 3 itens para Inteligencia Artificial;
AVX 512
iGPU na CPU
IA Cores

dsddd.jpg

fddffd.jpg

architecture-7-AVX-512-2.png

dsfsdd.jpg
 
Última edição:
Estou com um i7 6700k e para jogos está pedindo água mesmo com uma GTX 1070. Os 4 núcleos já não são mais os mesmos e para ir para um de 6 núcleos embora seja muito melhor com tecnologia nova, penso que pela longevidade não valeria muito e sim partir para pelo menos um de 8 núcleos. Com um bom rendimento tanto em desktop quanto em jogos. Por isso tive essa dúvida quando me deparei com os Efficient-cores. Penso em pegar algo com melhor Custo x Benefício e que dure pelo menos uns 4 ou 5 anos para não ter que trocar tão cedo.
Tinha visto vc falando do socket atual antes do edit, só pra lembrar que esse socket morre esse ano, ano que vem será outro.

Vc faz oq no PC? Só jogos? Qual CPU pretende pegar? Não adianta exagerar muito na CPU se vc não vai fazer uso, muito menos caso não vá com uma GPU a altura.

Caras, vcs tem um pensamento muito atrasado, bem ignorantes em desenvolvimento.

Me fala como um desenvolvedor vai criar algo novo se não existir hardware disponivel que faça ?
Querido Paulo pamonha, vc claramente não é dev nem entende de desenvolvimento.

Deixa eu reiterar algo que falei antes:
e a biblioteca deles tá com desenvolvimento praticamente morto
Só pra ressaltar: https://github.com/intel/gna

É muito OBVIO, que é preciso a Intel, AMD e Nvidia lançarem hardwares com instruções novas, para que os desenvolvedores possam explorar.
Não é pq não existe aplicação NO SEU DIA A DIA, que não exista poucas aplicações usando...

Você queria que os desenvolvedores criassem sem nenhum suporte softwares com IA Cores e AVX 512, para só depois a Intel dar suporte com uma nova geração de Intel ? :limo:
Sabe como foi que o AVX-512 começou a pegar tração? Com a AMD lançando em TODOS os segmentos, já que antes era restrito à alguns notebooks, 11th gen desktop e Xeons que sofriam de downclocks pesados em sua maioria. AMD meio que "democratizou" o AVX-512 sem nenhum contra, logo quando a Intel resolve tirar isso da sua plataforma mainstream, agora terão de correr atrás.
Se dependesse da Intel segmentando o AVX-512 de forma idiota, nunca teria tração, até pouco tempo essa extensão era motivo de piada. Já pensou vc, como dev, vê a intel finalmente adicionando isso na 11th gen, cogitando e se preparando pra adotar, só pra ver ela abandonando na geração seguinte? Isso não passa nem um pouco de confiança.

Sobre o GNA, sem o suporte adequado ele é igual a nada, vide link acima. Também há suporte pelo OpenVino, e, como alguém que já usou ele tanto em FPGAs, quando x86 embarcado e com o movidius, ele é interessante mas bem pouco usado na prática e nada competitivo no mercado. Fora que, sem suporte à algo tipo o ONNX, ninguém vai usar essa plataforma, tendo mais trabalho pra portar os modelos em um nicho específico e que não possui performance relevante o suficiente.
E os softwares da Adobe já tem 2 anos que fazem uso de IA Cores dos Intel.
Não usam, só tem uma cartilha deles de 4 anos atrás falando do suporte ao OpenVino no Sensei, e usam somente OpenCL, sem suporte ao GNA. Ah, e isso são só pra 2 funcionalidades bem específicas do photoshop.
A adobe inclusive fez rebrand do sensei e não é mais só uma SDK de uso interno, virou mais um serviço abstrato e de mais alto nível.
--- Post duplo é unido automaticamente: ---

Inteligencia Artificial nas CPUs Intel e CPUs AMD precisam de 3 ITENS essenciais para acontecer;
AVX 512
iGPU na CPU
IA Cores

As CPUs F e KF da Intel que não tem iGPU infelizmente ficaram de fora e rodaram softwares e Games sem a presença de IA. Seja lá como isso vai ser implementado.

Mas a Adobe usa Inteligencia Artifical no Photoshop, Premiere PRO e Afte Effect. E CPUs intem sem iGPU não conseguem usar esses recursos nos softwares da Adobe.


Os ZEN 4 Ryzen 7000 vieram com 3 itens para Inteligencia Artificial;
AVX 512
iGPU na CPU
IA Cores
Essas 3 coisas são totalmente distintas. iGPUs atualmente não são usadas pra NADA de ML, pq ngm perde tempo fazendo abstrações em OpenCL pras frameworks mais importantes, independente de ser AMD ou Intel.

AVX-512 é usado em algumas plataformas para inferência, mas tá só engatinhando e não compensa o trabalho na maioria dos casos ainda.

Cores dedicados sem uma abstração e suporte ideais também serão relegados ao lixo. Não há algo estilo o NNAPI do Android para o GNA ou plataformas da AMD (XDNA, se não me engano), então seguirão sem uso.

No seu primeiro print tem uma imagem com o ONNX no meio ali, nada da AMD tem suporte à isso, e somente as Arc da Intel suportam.
 
Coleguinha

Intel GNA é UMA das tecnologias de Inteligencia Artificial.

A principal que será usada nos games é a Directx Machine Learning da Microsoft.

E ela usa iGPU da CPU + AVX 512 + IA Cores. Leia sobre Windows Machine Learning !!!

A Intel GNA pode ser agregada ou esquecida.

Todas as CPUs Mobile da Intel possuem AVX 512, será mesmo que ela vai abandonar no Desktop ?
Toda as CPUs de Servidor da Intel possuem AVX 512, ela vai abandonar no desktop ?


Esses E-Cores da Intel sinceramente são uma porc3, capam demais a CPU.

dsddd.jpg



iGPU será sim necessária para Inteligencia Artificial, junto com AVX 512. Essa é a BASE da Inteligencia Artificial no Windows.
Caso não saiba, os ZEN 4 Ryzen 7700 só vieram com iGPU, pq foi uma EXIGENCIA da Microsoft para implementar melhor o Directx Machine Learning.


Intel Deep Learning
 
Última edição:
Estou com um i7 6700k e para jogos está pedindo água mesmo com uma GTX 1070. Os 4 núcleos já não são mais os mesmos e para ir para um de 6 núcleos embora seja muito melhor com tecnologia nova, penso que pela longevidade não valeria muito e sim partir para pelo menos um de 8 núcleos. Com um bom rendimento tanto em desktop quanto em jogos. Por isso tive essa dúvida quando me deparei com os Efficient-cores. Penso em pegar algo com melhor Custo x Benefício e que dure pelo menos uns 4 ou 5 anos para não ter que trocar tão cedo.
Se pretende se manter na Intel, uma CPU de entrada 12400/13400, já é mais que suficiente para empurrar jogos e uso no dia a dia. Caso queira algo mais forte, o i5 13600K é uma CPU com sobra para muita coisa, equivalente ao i7 12700K.

Se quiser focar na AMD, hoje o 5800X3D é uma bela opção, equivalente ao 13600K, um tico abaixo em termos de performance.

São CPUs para usar com 3060/3070 no segmento de entrada e 4070TI acima nas CPUs mais fortes, caso queira continuar usando nVidia.
 
Última edição:
A principal que será usada nos games é a Directx Machine Learning da Microsoft.
...sério que seu argumento principal pra ML são joguinhos? Acho que essa é o uso mais insignificante e irrelevante que há atualmente, tantos outros usos mais relevantes e com retorno maior por aí, ai ai.

E ela usa iGPU da CPU + AVX 512 + IA Cores.
Não usa AVX-512, ela é uma abstração por cima do DirectX pra poder "simular" algo como o CUDA, o desempenho é ridículo (pior até que CPU), mas traz um suporte grande à GPUs (desde iGPUs, até as radeons HD 7000 e GPUs atuais), mas nada de CPU (ou seja, nada de avx-512) ou aceleradores dedicados (já que esses são não suportados pelo DirectX).
A Intel GNA pode ser agregada ou esquecida.
Não vai.
Todas as CPUs Mobile da Intel possuem AVX 512, será mesmo que ela vai abandonar no Desktop ?
1 CPU da oitava mobile, 10th e 11th gen... e acabou, só tem esses no mobile. 12th e 13th não suportam nem em desktop nem em mobile.
Toda as CPUs de Servidor da Intel possuem AVX 512, ela vai abandonar no desktop ?
Todas*
*CPUs anteriores ao Ice Lake faltam instruções importantes, e sofriam de downclock pesado quando rodavam essas instruções, tornando o ganho de desempenho praticamente nulo com consumo de energia bem maior.
Sobre desktop, há boatos que a 14th gen também não terá AVX-512, mas são só rumores e teremos de esperar pra ver mesmo.

Esses E-Cores da Intel sinceramente são uma porc3, capam demais a CPU.
Pra desktop é meio sem sentido pro gamer médio, mas pra PCs de escritório e notebooks fazem muito sentido. Eu ficaria super feliz com um notebook com 2~4 cores P e vários E.

iGPU será sim necessária para Inteligencia Artificial, junto com AVX 512. Essa é a BASE da Inteligencia Artificial no Windows.
Me diga que vc não entende nada de ML sem me dizer que vc entende nada de ML.
Caso não saiba, os ZEN 4 Ryzen 7700 só vieram com iGPU, pq foi uma EXIGENCIA da Microsoft para implementar melhor o Directx Machine Learning.
Fontes?
Intel Deep Learning
Já te falei, esse "Deep Learning Boost" é só o nome bonitinho que a Intel dá pro VNNI, AMD tem suporte a isso também, faz parte do AVX-512.


Lembrei agora que vc é o cara que falou altas asneiras sobre linux x windows em outro tópico, pensei que tinha sido banido por ser fake de algum outro user :limo:
 
O cara falar que Direct Machine Learning não será a BASE para os softwares e games no WIndows :limo:

você leu a DOCUMENTAÇÃO no site da Microsoft sobre Machine Learning ???


Como que uma CPU vai trabalhar com imagem e video, se ela não tiver encode e decode integrado nela ?:shrug:

É mais do que OBVIO que os IA Cores trabalham JUNTO a iGPU... Se não a CPU não enxergaria imagem e video para trabalhar com Inteligencia Artificial..

Carinha tu precisa LER melhor a documentação da Intel, AMD, Nvidia, Microsoft, Windows, Directx.
Tem canais OFICIAIS com as novidades de cada produto, se tu ficar se baseando em noticia de canais de jornalistas do adrenaline que não sabem nem formatar um Windows, vai continuar sendo ignorante ai.
 
É mais do que OBVIO que os IA Cores trabalham JUNTO a iGPU... Se não a CPU não enxergaria imagem e video para trabalhar com Inteligencia Artificial..
CPU F e Xeon vai ficar chupando dedo já que...
 
Nos Servidores Data Center, para fazer funcionar Inteligencia Artificial da Intel;
É PRECISO ter;
- Intel Xeon com AVX 512 e Intel Deep Learning
- Intel GPU dedicada


dfsdsd.jpg

dfsds.jpg





Na PROPRIA Documentação da Intel, fala que para você trabalhar com IA é preciso ter um servidor Intel Xeon + GPU Intel de Servidor.
E na ponta do USUÁRIO, ele precisa ter uma CPU Intel 11/12/13 Gen com iGPU para poder VISUALIZAR o que o servidor processou

Esta na documentação. Mew deus do CÉU, o cara não lê um PARAGRAFO e quer debater, eu sentiria vergonha.

--- Post duplo é unido automaticamente: ---


Intel-SC22-Data-Center-GPU-Max-1100-PCIe-300W-800x450.jpg

CPU F e Xeon vai ficar chupando dedo já que...


As CPUs Xeon lançadas a partir de 2019 já possuem AVX 512, elas já tem IA, mas precisam estar alocadas junto com Intel GPU de Data Center.

As CPUs F de Desktop não processam imagens e videos de IA.

As CPUs Mobile a partir da Intel 11Gen já possuem AVX 512 e TODAS possuem iGPU.
 
O cara falar que Direct Machine Learning não será a BASE para os softwares e games no WIndows :limo:
Sim, como contribuidor do Linux, Tensorflow, xgboost e uma cacetada de softwares da Nvidia, te digo com propriedade que não vai ser não. Geralmente é bem desnecessário dar certeirada assim, mas com pessoas feito vc parece que só funciona assim.
você leu a DOCUMENTAÇÃO no site da Microsoft sobre Machine Learning ???
Sim, é uma bosta e uma piada.
Como que uma CPU vai trabalhar com imagem e video, se ela não tiver encode e decode integrado nela ?:shrug:
Respondido acima pelo amigo gorila.
É mais do que OBVIO que os IA Cores trabalham JUNTO a iGPU
Vc sabe que elas são totalmente independentes, né?
Se não a CPU não enxergaria imagem e video para trabalhar com Inteligencia Artificial..
Vc sabe que isso não faz o menor sentido nem só de vídeo/imagem vive a inteligência artificial, né?
Carinha tu precisa LER melhor a documentação da Intel, AMD, Nvidia, Microsoft, Windows, Directx.
Tem canais OFICIAIS com as novidades de cada produto, se tu ficar se baseando em noticia de canais de jornalistas do adrenaline que não sabem nem formatar um Windows, vai continuar sendo ignorante ai.
Adianta de que se vc não é dev, não entende nada dessas docs e só gosta de ficar falando asneiras compartilhando imagens de propaganda das empresas?
Quando vc tiver alguma credencial ou fonte de relevância eu penso se levo vc à sério.
Nos Servidores Data Center, para fazer funcionar Inteligencia Artificial da Intel;
É PRECISO ter;
- Intel Xeon com AVX 512 e Intel Deep Learning
- Intel GPU dedicada
- NINGUÉM usa CPU pra treino, e pra inferência tem soluções melhores, logo AVX-512 e "Intel Deep Learning" são inúteis.
- Ninguém usa GPUs da intel pra nuvem pra ML, só Nvidia. Só olhar na AWS, GCP e Azure (essa aqui é a que vc mais gosta de falar, né? Me mostra uma GPU da intel disponível lá).
E na ponta do USUÁRIO, ele precisa ter uma CPU Intel 11/12/13 Gen com iGPU para poder VISUALIZAR o que o servidor processou
Meu notebook com 10th gen e meu celular ARM visualizam por mágica, né?
Esta na documentação. Mew deus do CÉU, o cara não lê um PARAGRAFO e quer debater, eu sentiria vergonha.
Página de propaganda não é documentação kkkkkkkkkk
As CPUs Xeon lançadas a partir de 2019 já possuem AVX 512, elas já tem IA, mas precisam estar alocadas junto com Intel GPU de Data Center.
Nem tinha GPU da Intel nessa época querido.
 
As CPUs Xeon lançadas a partir de 2019 já possuem AVX 512, elas já tem IA, mas precisam estar alocadas junto com Intel GPU de Data Center.

As CPUs F de Desktop não processam imagens e videos de IA.

As CPUs Mobile a partir da Intel 11Gen já possuem AVX 512 e TODAS possuem iGPU.
E o assunto era desktop...refresh da 13th gen... kkkkk
 
Tinha visto vc falando do socket atual antes do edit, só pra lembrar que esse socket morre esse ano, ano que vem será outro.

Vc faz oq no PC? Só jogos? Qual CPU pretende pegar? Não adianta exagerar muito na CPU se vc não vai fazer uso, muito menos caso não vá com uma GPU a altura.

Editei porque ficou muito grande o post. Eu uso bastante o PC durante o dia e uso para jogar também. Na época desde i7 6700K se falava o mesmo sobre uso diário e depois de 4 anos ele já não aguentava mais. Para jogos nem se fala. Na verdade, estava para trocar de PC em 2019 por aí, mas veio a pandemia e estragou todo planejamento. Era dito também que 8GB era melhor de pegar e que 16GB era muito e no meio do caminho já era indicado os 16GB. Portanto, penso sempre em pegar um pouco do que preciso hoje para daqui a 4 anos ainda funcionar. Um do nível do i5 13400f ou i5 13400 com 32GB e uma RTX 3060TI ou até mesmo uma RTX 4060 seria uma boa. Se a RTX 4030 compensar vou usando a GTX 1070 até lá.

Se pretende se manter na Intel, uma CPU de entrada 12400/13400, já é mais que suficiente para empurrar jogos e uso no dia a dia. Caso queira algo mais forte, o i5 13600K é uma CPU com sobra para muita coisa, equivalente ao i7 12700K.

Se quiser focar na AMD, hoje o 5800X3D é uma bela opção, equivalente ao 13600K, um tico abaixo em termos de performance.

São CPUs para usar com 3060/3070 no segmento de entrada e 4070TI acima nas CPUs mais fortes, caso queira continuar usando nVidia.

Iria de AMD se não fosse os vários problemas que vejo em relatos recentes. Por isso acho que o mais equilibrado entre desktop e games seria o 13400 ainda mais em longevidade. Além de que esse processador não puxa muito (energia) e é mais frio que o i5 13600K que além de esquentar bem puxa bem mais.

Justamente por pensar nessas VGAs (RTX 3060, 3060TI e o início da 4x) que penso nesse 13400f. Acredito que mais que isso não seria necessário. Referente ao AMD pensei no Ryzen 7 5700X mas como existem muitos relatos negativos acho que irei deixar pra lá. Já o 5800X3D precisaria de um cooler mais forte.
 
Única serventia da geração 11th da Intel foi introduzir Gear 1 e Gear 2 no modo do IMC na relação da CPU/RAM, basicamente Gear 1 tem a melhor latência porém limitado em frequência máxima atingível (normalmente os 13900k capam ali entre 4300-4400Mhz), portanto só se usa Gear 1 quem usa DDR4, mesmo sendo possível usar hoje DDR4 5000Mhz CL17 por exemplo (em Gear 2), ainda perde para DDR4 4200Mhz CL15 por exemplo em performance geral, já quem vai de DDR5 (que vai ser o padrão do 14th em diante apenas) o IMC sempre funciona em Gear 2, obviamente devido a frequência altíssima das DDR5, e hoje em dia DDR5 já supera DDR4 na Intel, mas pra isso tem que ser A-Die extremamente afinado.
 
Editei porque ficou muito grande o post. Eu uso bastante o PC durante o dia e uso para jogar também. Na época desde i7 6700K se falava o mesmo sobre uso diário e depois de 4 anos ele já não aguentava mais. Para jogos nem se fala. Na verdade, estava para trocar de PC em 2019 por aí, mas veio a pandemia e estragou todo planejamento. Era dito também que 8GB era melhor de pegar e que 16GB era muito e no meio do caminho já era indicado os 16GB. Portanto, penso sempre em pegar um pouco do que preciso hoje para daqui a 4 anos ainda funcionar. Um do nível do i5 13400f ou i5 13400 com 32GB e uma RTX 3060TI ou até mesmo uma RTX 4060 seria uma boa. Se a RTX 4030 compensar vou usando a GTX 1070 até lá.
Se o uso é só esse, 13600k seria um ótimo CxB e duradouro. Pega 16gb e depois faz up pra 32gb caso precise. Diria pra ir DDR4 mesmo pq os ganhos pra DDR5 não valem o custo e daqui que vc faça upgrade já vão ter frequências bem melhores.
Iria de AMD se não fosse os vários problemas que vejo em relatos recentes. Por isso acho que o mais equilibrado entre desktop e games seria o 13400 ainda mais em longevidade. Além de que esse processador não puxa muito (energia) e é mais frio que o i5 13600K que além de esquentar bem puxa bem mais.
13400 é basicamente um 12600k remarcado e travado, é um alder lake e não um raptor lake, só pra deixar claro.

Única serventia da geração 11th da Intel foi introduzir Gear 1 e Gear 2 no modo do IMC na relação da CPU/RAM, basicamente Gear 1 tem a melhor latência porém limitado em frequência máxima atingível (normalmente os 13900k capam ali entre 4300-4400Mhz), portanto só se usa Gear 1 quem usa DDR4, mesmo sendo possível usar hoje DDR4 5000Mhz CL17 por exemplo (em Gear 2), ainda perde para DDR4 4200Mhz CL15 por exemplo em performance geral, já quem vai de DDR5 (que vai ser o padrão do 14th em diante apenas) o IMC sempre funciona em Gear 2, obviamente devido a frequência altíssima das DDR5, e hoje em dia DDR5 já supera DDR4 na Intel, mas pra isso tem que ser A-Die extremamente afinado.
Tem alguma vantagem pra existência do gear 2 nessa 11th? Ou o único positivo é só ter existido pra ter dado tempo pra amadurecer na geração seguinte mesmo?
 
Tem alguma vantagem pra existência do gear 2 nessa 11th? Ou o único positivo é só ter existido pra ter dado tempo pra amadurecer na geração seguinte mesmo?
Na geração 11th o IMC era mto pior, então os clocks que o pessoal pegava com Samsung B-Die era 3800-3900Mhz em Gear 1, e já existia pessoal com 4600Mhz, 4800Mhz e etc no passado no 10900k com DDR4 tbm Samsung B-Die em placa-mãe Apex, então foi mais como um lance pro pessoal testar, talvez a Intel lançou pra preparar o terreno pro 12900k e 13900k? Nunca saberemos... Chegaram a comparar com 4600Mhz e etc em Gear 2 mas não lembro exatamente agora se ganhava de Gear 1 em 3800Mhz, mas hj em dia não ganha não, DDR4 obrigatoriamente se vc quer a melhor performance tem que usar Gear 1 mesmo, no 13900k.

E agora como o 14900k vai ser DDR5 only, não vai ter opção nenhuma de escolha de Gear, vai ser sempre Gear 2.
 
Se o uso é só esse, 13600k seria um ótimo CxB e duradouro. Pega 16gb e depois faz up pra 32gb caso precise. Diria pra ir DDR4 mesmo pq os ganhos pra DDR5 não valem o custo e daqui que vc faça upgrade já vão ter frequências bem melhores.

13400 é basicamente um 12600k remarcado e travado, é um alder lake e não um raptor lake, só pra deixar claro.

As vezes entra DDR5 4800/5200 em promoção que fica praticamente o mesmo preço das DDR4 3200. Isso da Kingston Fury pelo menos. Pretendo ir logo de 32GB para ficar de boa.

Você diz que o 13400 é um Alder Lake porque ele tem praticamente as mesmas specs do 12600K ? De fato sim. Em algumas coisas (até onde vi) o 12600K é melhor em outras o 13400, mas no geral é a mesma coisa mesmo. A única diferença que vejo é que o 12600K consome um pouco mais de energia, portanto como o TDP é maior não sei qual cooler seria bom pra ele. Um DeepCool K400 segura de boa um 13400. Ele segura de boa o 12600K também?

Nesse caso, se for praticamente a mesma coisa vou no que tiver mais barato.
 
Como que uma CPU vai trabalhar com imagem e video, se ela não tiver encode e decode integrado nela ?:shrug:

É mais do que OBVIO que os IA Cores trabalham JUNTO a iGPU... Se não a CPU não enxergaria imagem e video para trabalhar com Inteligencia Artificial..
Pera, quer dizer que antes das GPUs decodificarem/codificarem vídeos o computador não fazia isso? Meu Deus, como assistíamos MPEG antigamente no nosso PC? E como encodávamos? Nunca ouviu falar de Enc/Dec via software (aka, apenas CPU) não?

Quanto ao GNA da Intel, ele está dentro do processador unicamente para acelerar o processamento de audio, como cancelamento de ruído, e isso nem sou eu que estou falando, são palavras da própria Intel. Se um dia ele vai ser utilizado para imagens (já que faz parte do OpenVINO) só a Intel saberá, mas pelo grande progresso que ele teve desde seu surgimento (/s), é melhor esperar sentado.

Todas as CPUs Mobile da Intel possuem AVX 512, será mesmo que ela vai abandonar no Desktop ?
Toda as CPUs de Servidor da Intel possuem AVX 512, ela vai abandonar no desktop ?
Todas possuíram, a Intel abandonou o barco, pulou fora do AVX-512 no desktop e mobile, a 11ª geração foi a última, o Alder e Rocket (tanto mobile quanto desktop) não possuem esse conjunto de instruções, e o Meteor e Arrow estão cotados a não possuírem também, logo até início de 2025 é quase garantido da Intel não ter AVX-512 no desktop.

Bem, para além disso nem adianta expandir com mais quotes, vi que não adianta e o que tinha para ser dito, o @igormp já respondeu, só fiquei realmente curioso de onde você tirou que foi exigência da Microsoft a AMD colocar uma iGPU nos Raphael xD
 
dayllann

No proprio site da Intel explica que aprendizado de maquina ou IA como preferirem, PRECISA de uma GPU compativel e o Intel Deep Learning Boost.
Chat GPT e o Bing com GPT-4 utilizam Servidores Intel Xeon + Intel Data Center GPU. :bem:

Eu li em algum documento da AMD, ano passado que os ZEN4 possuem iGPU pq foi a Microsoft que deu a "dica" ou exigiu para que os ZEN4 não ficassem de fora da briga contra a Intel para o aprendizado de maquina/IA.

Direct Machine Learning fará parte do DirectX para visualizar e editar imagens e videos.

Aqui explica de forma SIMPLES o porque é preciso combinar CPU + GPU para tarefas complexas :melior4:

FDFDFD.jpg



Mas eu to vendo que é uma discussão perdida, pq ninguém aqui esta a fim de aprender com a propria documentação da Intel :haha:

O EGO de vocês reluta muito em aprender algo novo de alguem em um forum ein, que coisa infantil
--- Post duplo é unido automaticamente: ---



edaff84c-df95-45a0-aa9f-e0856701f6d3-1675048310458-pfarm-with-png-watermarked.webp


mas ninguém usa GPU em Data Center Intel :burro:
 
Última edição:
Chat GPT e o Bing com GPT-4 utilizam Servidores Intel Xeon + Intel Data Center GPU. :bem:
Não sei se vc é extremamente desinformado, ou se realmente tá espalhando desinformação de propósito:

Tem até vídeo do jaquetadecouro entregando a primeira A100 ou foi H100 pra OpenAI.

No momento, pra treino de modelos, SOMENTE GPUs da Nvidia funcionam mundo afora, ponto. GPUs da Intel estão começando a ter suporte, mas ainda estão bem atrás, e as da AMD são INÚTEIS pra isso por falta de suporte de software.

Já que vc paga tanto pau pra documentação e não sei oq, me diz aqui onde tem GPU da Intel pra treino de ML nos provedores de nuvem:

O EGO de vocês reluta muito em aprender algo novo de alguem em um forum ein, que coisa infantil
Vc está repassando informação errada por própria ignorância sua, isso sim.
 
:bem:

agora ele usa documentação para provar o que fala

:full:

até então era, não precisa de GPU para trabalhar com IA :haha3:
 
As vezes entra DDR5 4800/5200 em promoção que fica praticamente o mesmo preço das DDR4 3200. Isso da Kingston Fury pelo menos. Pretendo ir logo de 32GB para ficar de boa.

Você diz que o 13400 é um Alder Lake porque ele tem praticamente as mesmas specs do 12600K ? De fato sim. Em algumas coisas (até onde vi) o 12600K é melhor em outras o 13400, mas no geral é a mesma coisa mesmo. A única diferença que vejo é que o 12600K consome um pouco mais de energia, portanto como o TDP é maior não sei qual cooler seria bom pra ele. Um DeepCool K400 segura de boa um 13400. Ele segura de boa o 12600K também?

Nesse caso, se for praticamente a mesma coisa vou no que tiver mais barato.
Se for comprar um 13400/13400F não compensa pegar DDR5. Melhor montar um combo com mobo B760 DDR4 e usar a grana que sobra para up na VGA.

DDR5 tem que ser pelo menos 5600 CL36, é o mínimo do mínimo. Compra Corsair Vengeance na loja oficial do AliExpress, sai por volta de R$ 800,00, até mais barato que comprar DDR4 no BR.
 

Users who are viewing this thread

Voltar
Topo