Sim foi o que citei, mas no ponto de vista financeiro e até de market share a NVIDIA nao poderia se posicionar desta forma? Vejo do ponto de vista tambem que quem compra NVIDIA vai sempre comprar dela e, do mesmo jeito que o pessoal ta esperando o impasse da AMD pra ver se compra AMD ou NVIDIA acho que aconteceria da mesma forma(quando falo de lancar antes, tambem nao e lancar as high 6 meses depois)
Só vem dia 28, AMD tá vindo com tudo e isso justificaria o desespero da Nvidia buscando os 7nm.
Mercado estava muito monótono e isso é bom para agitar o mercado, mesmo se a AMD permanecer atrás da Nvidia em vendas e em alguns jogos, já vai dar um sacode pra Nvidia acordar.
Igual a Intel, AMD tá passando o vrau na Intel e este Zen3 vai ser um divisor de águas, 5600x tem tudo pra chutar a bunda do 10600k, maior evolução da AMD será este uso de um CCX em processadores de até 8 núcleos.
Espero que até o dia 28 não apareça 3080 disponível para venda nas lojas.
Se aparecer não vou segurar o fogo no rabo e "ovo comprar", mesmo pra ficar com cara de bunda quando a AMD passar o vrau na Nvidia.
Só vem dia 28, AMD tá vindo com tudo e isso justificaria o desespero da Nvidia buscando os 7nm.
Mercado estava muito monótono e isso é bom para agitar o mercado, mesmo se a AMD permanecer atrás da Nvidia em vendas e em alguns jogos, já vai dar um sacode pra Nvidia acordar.
Igual a Intel, AMD tá passando o vrau na Intel e este Zen3 vai ser um divisor de águas, 5600x tem tudo pra chutar a bunda do 10600k, maior evolução da AMD será este uso de um CCX em processadores de até 8 núcleos.
Espero que até o dia 28 não apareça 3080 disponível para venda nas lojas.
Se aparecer não vou segurar o fogo no rabo e "ovo comprar", mesmo pra ficar com cara de bunda quando a AMD passar o vrau na Nvidia.
Como eu não utilizo Pc para vídeos ou streaming, as vantagens dos software e codecs que a Nvidia oferece são indiferentes pra mim.
Quero é FPS em 4k, se a AMD der um sacode na Nvidia e entregar uma 6900XT com desempenho da 3080, preço da 3080, 16gbs de ram e boa disponibilidade.
Vou de AMD, quero ver muito a questão do DLSS e RT, ponto chave estão sendo anunciados games para os consoles com RT, como os consoles utilizam uma VGA AMD rdna 2, logo as vgas da AMD tem que ter suporte para RT tb, pois é o mesmo hardware dos consoles.
Acho que nesta geração o RT se tornará algo nativo da API DX 12 e deixaria de ser aplicado como tecnologia proprietária da Nvidia, até pq o Xbox Séries X usa a DX12 Ultimate.
Só vem dia 28, AMD tá vindo com tudo e isso justificaria o desespero da Nvidia buscando os 7nm.
Mercado estava muito monótono e isso é bom para agitar o mercado, mesmo se a AMD permanecer atrás da Nvidia em vendas e em alguns jogos, já vai dar um sacode pra Nvidia acordar.
Igual a Intel, AMD tá passando o vrau na Intel e este Zen3 vai ser um divisor de águas, 5600x tem tudo pra chutar a bunda do 10600k, maior evolução da AMD será este uso de um CCX em processadores de até 8 núcleos.
Espero que até o dia 28 não apareça 3080 disponível para venda nas lojas.
Se aparecer não vou segurar o fogo no rabo e "ovo comprar", mesmo pra ficar com cara de bunda quando a AMD passar o vrau na Nvidia.
Todo geração saem estas vgas low-end e mid-end, seja hoje, amanhã ou daqui 100 anos o pessoal sabe que vão sair substitutas para a RTX 2060, para 5600XT, para 1660 e 1650 e etc, aí passam a supor os modelos e supor o desempenho com base na geração atual e o escalonamento da geração anterior.
Todo geração saem estas vgas low-end e mid-end, seja hoje, amanhã ou daqui 100 anos o pessoal sabe que vão sair substitutas para a RTX 2060, para 5600XT, para 1660 e 1650 e etc, aí passam a supor os modelos e supor o desempenho com base na geração atual e o escalonamento da geração anterior.
Como eu não utilizo Pc para vídeos ou streaming, as vantagens dos software e codecs que a Nvidia oferece são indiferentes pra mim.
Quero é FPS em 4k, se a AMD der um sacode na Nvidia e entregar uma 6900XT com desempenho da 3080, preço da 3080, 16gbs de ram e boa disponibilidade.
Vou de AMD, quero ver muito a questão do DLSS e RT, ponto chave estão sendo anunciados games para os consoles com RT, como os consoles utilizam uma VGA AMD rdna 2, logo as vgas da AMD tem que ter suporte para RT tb, pois é o mesmo hardware dos consoles.
Acho que nesta geração o RT se tornará algo nativo da API DX 12 e deixaria de ser aplicado como tecnologia proprietária da Nvidia, até pq o Xbox Séries X usa a DX12 Ultimate.
Tá difícil de obter informações sobre a resposta da AMD pro DLSS.
O máximo que eu encontrei foi uma referência ao termo MLSS (machine learning super sampling), supostamente seria trabalhado em conjunto com a Microsoft, tipo um VRS só que mais completo.
VRS é o variable rate shading do Xbox S/X.
Mas só vi uma pessoa falar disso, então não boto fé que o nome seja esse.
Sim foi o que citei, mas no ponto de vista financeiro e até de market share a NVIDIA nao poderia se posicionar desta forma? Vejo do ponto de vista tambem que quem compra NVIDIA vai sempre comprar dela e, do mesmo jeito que o pessoal ta esperando o impasse da AMD pra ver se compra AMD ou NVIDIA acho que aconteceria da mesma forma(quando falo de lancar antes, tambem nao e lancar as high 6 meses depois)
eh complicado
eu estava esperando uma queda de 5600xt ou até alguma rdna2 começo do ano...estou bem hypado ja nelas. Mas vou ter que ir em alguma RTX pq os softwares que uso precisam de CUDA e tem maior estabilidade com as nvidia.
Depende muito do publico e necessidade.
As fontes dele disseram que a nvidia tá segurando os estoques e vão lançar tudo logo antes das Big Navi chegar no mercado.
A galera vai comprar no desespero e acima do MSRP pois "só vai normalizar em 2021".
Se começar a brotar um monte de 3080 no meio de novembro pro começo de dezembro... Já sabe o que houve kkkk
--- Post duplo é unido automaticamente: ---
Tá difícil de obter informações sobre a resposta da AMD pro DLSS.
O máximo que eu encontrei foi uma referência ao termo MLSS (machine learning super sampling), supostamente seria trabalhado com em conjunto com Microsoft, tipo um VRS só que mais completo.
VRS é o variable rate shading do Xbox S/X.
Mas só vi uma pessoa falar disso, então não boto fé que o nome seja esse.
Sinceramente estratégia arriscada a nvidia segurar estoque, o hype é agora, se ela segurar estoque e soltar tudo poucos dias antes da Big Navi chegar no mercado é complicado e arriscado, supondo, chega 28/10 e AMD anuncia que a 6900XT é rápida igual um 3090 e custa 699.90 e ai a nvidia libera os estoques e lotam as lojas de 3080, quem vai ser louco de comprar uma 3080 por 699.90 sabendo que vem uma vga 10% mais rápida e com 16gbs por 699.90 ? Só fanboy.
Eu mesmo se chegar dia 28 e anunciar que a 6900XT é melhor do que a 3080 e custa o preço da 3080, as lojas podem esfregar qualquer 3080 no meu nariz por 5k que eu não compro, mas se a VGA da AMD de 699.90 ficar empatada com a da Nvidia, compraria Nvidia por estar acostumado.
eh complicado
eu estava esperando uma queda de 5600xt ou até alguma rdna2 começo do ano...estou bem hypado ja nelas. Mas vou ter que ir em alguma RTX pq os softwares que uso precisam de CUDA e tem maior estabilidade com as nvidia.
Depende muito do publico e necessidade.
Sinceramente estratégia arriscada a nvidia segurar estoque, o hype é agora, se ela segurar estoque e soltar tudo poucos dias antes da Big Navi chegar no mercado é complicado e arriscado, supondo, chega 28/10 e AMD anuncia que a 6900XT é rápida igual um 3090 e custa 699.90 e ai a nvidia libera os estoques e lotam as lojas de 3080, quem vai ser louco de comprar uma 3080 por 699.90 sabendo que vem uma vga 10% mais rápida e com 16gbs por 699.90 ? Só fanboy.
Eu mesmo se chegar dia 28 e anunciar que a 6900XT é melhor do que a 3080 e custa o preço da 3080, as lojas podem esfregar qualquer 3080 no meu nariz por 5k que eu não compro, mas se a VGA da AMD de 699.90 ficar empatada com a da Nvidia, compraria Nvidia por estar acostumado.
- Se hypou na 3080.
- Não achou 3080 pra comprar.
- Viu o evento da AMD e decidiu tentar comprar uma AMD.
- Brota no email dele "o produto que você estava esperando está disponível (rtx 3080)".
1- Esperar e tentar a sorte com as Big Navi, torcendo para os bot, scalpers e mineradores não levarem tudo...
Ou
2- Comprar a 3080 agora na frente do indivíduo.
Te garanto que 90% vai na opção 2 mesmo com preço acima do MSRP.
Tu realmente acha que a Nvidia vai deixar a AMD levar a temporada de Natal, black Friday e cyber Monday de graça?
São as épocas do ano que mais vendem eletrônicos.
O rendimento dos 8nm está abaixo do esperado? Sim.
GDDR6X esta com oferta abaixo do esperado? Sim.
Mas isso não justifica uma Newegg da vida receber só 30 placas em uma semana.
na real nem ganho, mas pretendo no futuro. Alguns softwares de modelagem e escaneamento 3d precisam de CUDA pra se sair melhor... se não fosse isso iria de amd, tenho até hoje uma HD4870 viva aqui
O Jensei é o garoto marketing, não tem como negar, ele é um gênio nesse quesito e a Intel está precisando ter umas aulas como ele.
Mas a questão é que várias tecnologias dela são fechadas mas a forma de funcionar é algo semelhante a algumas já existentes, o Tensor Cores é uma delas.
Esses núcleos nada mais são que unidades dedicadas a um tipo de cálculo matricial de baixa precisão (int4, int8, fp16), que realizam cálculos que podem muito bem ser realizados pelos núcleos CUDA normalmente caso se "adicione" (não é simples como escrever, mas é possível) o suporte a essa forma de cálculo e precisão. A questão é que, ao fazer isso, eu acabo ocupando parte da fila de execução com cálculos constantes, rendendo menos para ambos os lados.
Ter uma unidade dedicada é melhor pois desafoga os núcleos CUDA e deixa eles inteirinhos para o jogo e async compute, além de que ter um núcleo especializado em apenas uma gama de cálculos rende melhor, só que tem-se o problema de gastar mais silício dessa maneira, aumentando o die e o custo de fabricação (e por tabela, de venda). É um trade-off, e depois do que aconteceu com a Fermi a NVIDIA tem preferência de ficar com a opção de mais silício por menos esforço computacional.
A AMD, por outro lado, tem preferência de fazer seus núcleos dinâmicos, topam tudo e todo tipo de cálculo, mas isso causa drivers mais complexos, núcleos menos eficientes (pois não é especialista em nada) e ao mesmo tempo um gasto menor com hardware (pois o die diminui). Quem das duas fez a melhor escolha? Vai de cada área, e com o RayTracing saberemos o impacto que essa decisão causará na AMD.
Os leakers não estão com as placas em mãos, e os softwares que entregam resultados não listam a contagem de núcleos, a única coisa que se sabe é o chip utilizado.
Não tem como saber se é o XT, XL, XTL, XYZ.... isso é tudo especulado em cima de alguma informação recebida, boca-a-boca, por eles. Logo o Yuko recebeu a informação de que o XT tem 80CU, mas o Igor recebeu a de que o XT na verdade tem 72CU... como saber quem está certo se nenhum deles tem a placa em mãos? Simples, não dá.
Quanto à N22, eu acredito que, se muito, a AMD vai apenas mostrar um vago teaser dela, mas nada além disso. O palco dia 28 vai ser todo para a linha high-end, a "big navi", e suas três variantes. Se essas placas serão com 80, 72 e 64 núcleos só conseguiremos saber na apresentação, ou caso algum AIB faça o favor de soltar a contagem de núcleos da placa =X
Por fim, será ótimo fazer pressão na NVIDIA, ainda mais nas placas derivadas de chips além do GA102 e GA104, pois estas é que estão sendo o problema principal, a GA106 será menor e portanto pode aparecer mais cedo, a questão é o quanto mais cedo pois por se tratar de uma placa mais barata é necessário que a oferta inicial seja ALTA, e para tal será necessário uns dois meses acumulando placas prontas antes de mandar para a mídia.
Teve um cara que postou uma coisa e chamaram de doido
Nvidia tinha um plano com as amper.
Suas placas atuais já eram muito boas , bastava evoluir e era garantia total de vitória.
Porem problemas começaram a ocorre , design original do chip previa 7nm tsmc , mas algo deu errado nas negociações , provavelmente TSMC não tem como atender a demanda da Nvidia
Tiveram que partir para Samsung , essa mesma fez algumas melhorias nos seus 10nm e chamaram de 8nm porem ainda a trás comparado a TSMC
o chip amper por ser grande se tornau complexo somado a um processo menos eficiente do planejado, a taxa de chips 100% operacionais esta muito baixa e cara ,
soma tudo com sendo muito procurada e a Nvidia não consegue fabricar volumes decentes virou uma confusão.
Ai que entrou AMD na jogada , começou surgir esses rumores e vazamentos de performance , nvidia teve que tomar atitudes , cancelando possíveis produtos ainda mais caros e pouco competitivos .
Eu posso chamar ele de quase louco, porque não é bem assim que as coisas funcionam não xD
Trabalhei com ASICs na faculdade e em um projeto conjunto com outra faculdade e lá aprendemos que são meses de antecedência para se saber o nó a se trabalhar em cima e depois modelar sua arquitetura para funcionar nele (vulgo arquitetura atrelada/dependente de nó). Sabendo disso você trabalha com várias bibliotecas e otimizações específicas para aquele nó, se levar o design para outro nó dará errado pois a base é dependente do destino. Criar uma arquitetura que não é atrelada a um nó ou biblioteca é muito mais complexo e é por isso que, em projetos grandes, evita-se esse caminho (exemplo, NVIDIA e Intel atrelam sua arquitetura ao nó, a AMD não, mas depois do fiasco dos 10nm a Intel está mudando para esse sistema).
Logo se a NVIDIA tinha o design para os 7nm da TSMC, ela ficaria na TSMC e não mudaria para a Samsung. Sem falar que o nó de 8nm antecede o acordo com a NVIDIA, ele surgiu porque parceiros da Samsung queriam algo melhor que os 10nm mas não queriam redesenhar seus projetos para o EUV obrigatório dos 7nm.
Ao meu ver o que aconteceu foi algo assim: A NVIDIA iniciou seu projeto para placas profissionais com os 7nm da TSMC e queria um desconto maior para começar o projeto da linha gamer, mas a TSMC se recusou a baixar o preço pois já tinha muitos clientes dependendo desse mesmo nó. Como a NVIDIA fabrica chips para diversas áreas, de IoT à datacenters, com certeza ela mantinha comunicação com a Samsung e viu que ela precisava de uma empresa grade usando seu nó para divulgar sua capacidade como big-player no campo de semicondutores. Conversa vai e conversa vem a NVIDIA fechou um acordo a preço de banana para desenvolver sua linha gamer no nó de 8nm da Samsung, mas ela não desistiu do já iniciado projeto com a TSMC (migrar custa muito, pois volta-se à estaca zero) e ai criou-se duas Ampere, a GA100 e GA102~108.
Como o Ampere saiu enorme, o rendimento baixo dos 8nm acabou se tornando um problema mas acordo é acordo e a NVIDIA terá que respeitá-lo (ela não vai querer pagar uma multa gigante por isso), produzindo o máximo de chips que puder, no ritmo que a Samsung puder oferecer. A questão aqui é que, mesmo sendo enorme, a Samsung não fazia ideia do poder da NVIDIA em questão de demanda, principalmente com a decisão de se ter o máximo de chips o mais cedo possível para lançar antes dos consoles, e da concorrente.
A NIVIDA já sabia que não tinha como, ela já esperava um paper launch, afinal foram dois anos com a Samsung. O que ela não esperava era uma complecidade "anormal" na produção das memórias GDDR6X, se tornando um problema para seu lote inicial de placas. Com o lançamento das 3070 é que saberemos até onde a Samsung, seu nó e sua fábrica, tem culpa na produção dos chips, pois a meu ver essa falta de placas é 65% G6X e 35% N8.
Quanto a esse rumor da Ampere gamer em 7nm no ano que vem, não tem como ela mudar em tão pouco tempo por causa do que eu disse. Isso já deveria estar no plano dela a meses, a NVIDIA tem sua linha mobile então esses chips estavam sendo desenvolvidos nos 7nm da TSMC e agora, após tudo que esta aparecendo por parte da concorrente, ela está estendendo a fabricação para seus chips desktop. O que me vem a cabeça é que o acordo com a Samsung era a produção de uma quantidade X de waffers, depois disso ela estaria livre para qualquer outra foundry, então ela não deixou de conversar com a TSMC por um espaço extra no nó de 7nm dela. Se a TSMC deu ou não o desconto que a NVIDIA queria eu não sei, mas essa informação só reforça que isso não é uma decisão de desespero, era calculado mas apenas para final do ano que vem no desktop e linha mobile no Q2'2021, mas agora pode aparecer um refresh mais cedo que ela queria (e segundo o Igor terá mais memória, então não é refresh, é algo como a linha Super).
Axo que se o problema era exclusivamente o waffer e produzir chips menores nao e um problema, excepcionalmente nesse caso nao valeria ja lancar as low e mid ao inves das grandes? Ok mas o marketing com as high é melhor.... mas ai evitaria esses problemas e poderiam lancar um hype muito maior pras high e esperar a TSMC exclusivo pra linha high end
Não dá para lançar mid-end primeiro. Aliás, dá, mas não é aconselhável, por diversos fatores:
1- Você passa dois, três anos gastando dinheiro para lançar um produto, e quando lança vai querer retomar esse investimento da forma mais rápida possível, pois a concorrência não para. Qual o ramo que dá maior lucro? High-end. Qual o ramo mais difícil da concorrência alcançar? High-end. Qual o ramo que chama mais a atenção e cria mindshare? High-end;
2- Para se economizar dinheiro começa-se lançando chips do alto para o baixo desempenho, pois chips defeituosos ao invés de serem descartados são transformados em uma gama menor de desempenho;
3- A demanda por placas high-end é muito menor que por mid-end. Os chips são menos complexos de serem produzidos, mas a demanda é várias vezes maior e isso afunilaria a produção de uma forma ainda mais grave que a atual;
4- Pessoas do ramo high-end trocam de placas com mais frequência que os do mid-end. Lançar as placas mais forte primeiro gera certeza de compra, enquanto que lançar placas medianas não. Quem compra uma RTX 2060 tem pouquíssima chance de trocará sua placa por uma RTX 3060, mas quem compra uma 2080Ti tem mais chance de trocar por uma RTX 3090;
5- Esse é o mais fácil, o mindshare. Lançar placas com o rótulo de "placa mais rápida de todos os tempos" faz soar cifrões no ouvido dos investidores e uma confiança nos mais leigos de que as placas mais fracas serão igualmente rápidas.
O motivo mais técnico para se evitar é que, ao se utilizar um nó novo, começa-se pelo chip mais complexo para saber se há problemas no projeto. Se você projetar um chip que não vai usar todo o potencial do nó pode acabar tendo problemas futuros: Imagine só, um chip como a 3060 é simples perto de uma 3080. Então você faz e lança ele primeiro, o projeto foi OK e as placas resultado também. Agora que ela está no mercado você vai finalizar a produção da 3080 e acaba descobrindo que o nó não aguenta clocks altos, ele está explodindo o consumo além do que você tinha calculado. E ai, o que você faz?
Por isso começa-se de cima para baixo, pois se aparecerem problemas como esse você limita a placa no topo e limita artificialmente todas as demais abaixo dela, para passar a impressão de que a mais forte é realmente forte.
Bela explicação detalhada, quem sabe o pessoal aqui no forum, em todos os tópicos, para com essa bobagens.
Não existe "decisão de desespero" em desenvolvimento de hardware.
Isso não é a padaria do seu tio que decidiu colocar um pao novo pra responder o que a padaria concorrente lançou há 2 dias.
Esses projetos e decisões e arquiteturas é tudo altamente complexo que qualquer mudança levaria no mínimo 1 ano para se efetivar.
SE existir RTX 30 com TSMC, isso JÁ ESTAVA no roadmap devido a acordos comerciais, capacidade da Samsung/TSMC, planejamento antecipado, estratégia de lançamento da Nvidia, etc.
É BEM provável inclusive que a decisão de ir pra Samsung foi feita lá no lançamento das RTX20 quando a relação das duas empresas (Nvidia e TSMC) deu uma azedada pelo preço cobrado pela TSMC que deu uma forçada a Nvidia em aumentar o custo da série 20.
A única coisa que empresas como AMD / Nvidia / Intel podem fazer de imediato para responder algo inesperado de concorrentes é mexer em preços, mas até para isso eles se programam e deixam vários cenários guardados nas planilhas.
NADA é de surpresa e imediato, nem reativo.
Os produtos sendo lançados hoje estão em pesquisa e desenvolvimento a provavelmente mais de 1 ano, e as próximas gerações (de ambas as marcas) já estão em pesquisa há meses.
Ou vcs acham que a AMD demorou tantos anos pra se reeguer com CPU e agora GPU por qual motivo? Preguiça?
Me parece que uma galera aqui fica achando que tudo é tocado no modo "quinta-série".
"Nossa, a AMD vai apertar a Nvidia, UHHHHHHH, vai deixar passar essa Nvidia???"
"Olha lá, AMD lançou a placa XX custando YY e matou a Nvidia, se ferraram!"
Para mim amd destruiu a nvidia, só o fato de não ter uma 3080ti já indica que amd vem super forte , somente fã boy de empresa nao gostou disso, eu curti demais , preço já veio mais baixo com desempenho maior , o erro da nvidia é colocar placas com pouca vram , e por isso deve esta faltando placas pois a nvidia deve está resolvendo esses problemas lançando os modelos super para concorrer com da amd.
E vou mais !! Os modelos de entrada da amd bem capaz de vir com 12gb de vram