Sim, só você amigoNovamente eu cito a tecnologia de compressão de dados onde a nvidia fala que consome menos vram e para ter uma compressão melhor de texturas precisa ter velocidade maior na banda de memória.
Pelo visto só eu aqui prestei atenção na conferência da nvidia
Pra mim com a próxima geração vem a compressão neural de texturas, o que deve reduzir bastante o uso de VRAM.Um dos maiores motivos que a NVIDIA defasa VGA é com pouca VRAM. Se a próxima geração vai ter a mesma quantidade, vão inventar o que dessa vez? Outro DLSS? Salto de renderização bruta é no mínimo obrigação. Só a 4060 e a 4060 Ti não seguiram isso comparado com a 3060Ti. A própria 4070 que é tão mal falada já é uma 3080 com mais VRAM, o que acho decente.
amiguinho, vc escreveu "12gb vram mas sendo ddr7 compensa a diferença de 4gb "Novamente eu cito a tecnologia de compressão de dados onde a nvidia fala que consome menos vram e para ter uma compressão melhor de texturas precisa ter velocidade maior na banda de memória.
Pelo visto só eu aqui prestei atenção na conferência da nvidia
Não é, então vai lá e compra a rx 6800 16gb vram … compra ela entao , vai ser melhor que a Rtx 5070 pois importante é vram …amiguinho, vc escreveu "12gb vram mas sendo ddr7 compensa a diferença de 4gb "
puta asneira.
Não é, então vai lá e compra a rx 6800 16gb vram … compra ela entao , vai ser melhor que a Rtx 5070 pois importante é vram …
Seria até melhor buscar uma Rtx 3090 24gb terá vram por bastante tempo e vai bater a Rtx 5080, pura asneira kkkk
caralho isso tudo quem comprou fontes baratinhas de 750W se fufuNão vai ter 9090XT mas se tivesse não seria problema já que a 5090 tem 575W de TDP. Sendo a 9070XT 350W ainda teria muita margem para aumentar o consumo.
Fake Frame na gringa já virou piada kkk
Eles não precisam.Torcendo pra amd, dar uma canseira na nvidia..
pelos vazamentos a 9070XT virá bem marrenta e encardida, resta saber o preço.Torcendo pra amd, dar uma canseira na nvidia..
To aqui com a minha caneca de café sentado esperado os lançamento e os testesAMD revela o motivo por trás do lançamento confinado da GPU “RDNA 4”; diz que a arquitetura merece um evento independente
![]()
AMD planeja "desestabilizar" os principais mercados de GPU com SKUs RDNA 4, alegando que estarão disponíveis na faixa de US$ 300 a US$ 1.000
Bem, a Team Red surpreendeu a todos nós ao não anunciar detalhes sobre o RDNA 4 e nomes de SKU específicos, como a Radeon RX 9070 XT e RX 9070, o que não era esperado pela empresa. Para piorar, a AMD não forneceu um motivo específico por trás dessa mudança para os canais tradicionais, mas felizmente, em uma entrevista com um canal de tecnologia espanhol, Michael Quesada , o Chief Architecture of Gaming Solutions da AMD, Frank Azor, conseguiu revelar as intenções da Team Red por trás de não dar tempo de exibição ao RDNA 4, e aqui está o que ele tem a dizer.
Azor alega que a AMD estava com pouco tempo, sua palestra não conseguiu incluir anúncios de RDNA 4 e FSR 4, e a empresa não queria ofuscar seus desenvolvimentos relevantes para IA também. Mas, esse é um raciocínio um pouco "obscuro", dado que quando você vê empresas como a NVIDIA realizando uma palestra de 1,5 hora, fica sem dúvida claro que a AMD poderia ter estendido a palestra. Nosso melhor palpite é que a AMD estava esperando a apresentação da série RTX 50 da NVIDIA antes de fazer sua jogada, então eles decidiram não revelar a série RX 9000.
O que estamos anunciando aqui? Com os anúncios de RDNA2 e RDNA3, tivemos eventos dedicados para apresentar a arquitetura e as melhorias de desempenho. Não podemos cobrir isso em cinco minutos. Se tivéssemos, todos ficariam bravos conosco por não dar às novas placas de vídeo a atenção que elas merecem.
É por isso que decidimos reservar o anúncio das novas placas de vídeo para um evento separado, onde podemos dar a elas o foco adequado. Também anunciaremos avanços relacionados a software, como AMD FSR 4.
- Frank Azor da AMD
Além de discutir o cronograma de lançamento do RDNA 4, Azor nos deu um pequeno vislumbre do que esperar com a linha de GPU de próxima geração em termos de preço, alegando que os consumidores devem esperar uma faixa de US$ 300 a US$ 1.000 para os próximos modelos. Ele também revelou que os SKUs RX 9070 estarão no mesmo nível das Radeon RX 7800 XT e RX 7900 GRE de geração anterior, então as GPUs RDNA 4 supostamente intermediárias da AMD irão de fato competir com as equivalentes RDNA 3 de ponta.
Bem, esse foi o ponto crucial da sessão de perguntas e respostas, e isso marca a primeira conversa da AMD com a mídia sobre a atualização de sua posição em relação ao lançamento do RDNA 4. Em um post anterior, discutimos como um vazador proeminente diz que a série RX 9070 "mudará tudo" e que as pessoas não devem se apressar para pré-encomendar GPUs da série RTX 50, então isso é algo interessante para esperar quando o RDNA 4 for oficialmente apresentado.
Para refletir: AMD cancelou o chip N4C, que traria o dobro de desempenho do N48, porque achou que não conseguiria competir com o GB202
Opinião comum: Se a AMD tivesse seguido em frente e não cancelado ele, teríamos uma placa mais forte que a 5090, já que essa placa é 70% mais rápida que o N48 (segundo vazamentos) enquanto que o N4C seria 150~200% mais rápido.
Minha opinião: O cancelamento não se deu por medo de não conseguir competir, haviam muitos custos de desenvolvimento envolvido e vários problemas encontrados, já era um projeto com muitos atrasos e a AMD decidiu simplesmente cancelar ele (junto com os outros chiplets N41 e N42) e criar um N48 monolítico e se focar na RDNA5/UDNA com o que foi aprendido.
PS: Para quem não lembra da N4C, https://videocardz.com/newz/amds-ca...navi-4c-gpu-diagram-has-been-partially-leaked
Acredito que foi o dlss 4.0 que fez amd cancelar , pois o que amd está perdendo mesmo é no soft , não adianta entregar poder bruto se a nvidia com uma rtx 5070 pode igualar o desempenho contra placas caras da amd usando dlss 4.0.
Sei que isso é besteira e não se pode comparar, mas na prática as pessoas vão ir na placa mais barata e usar isso como muleta e rodar o jogo bem e ficar super feliz.
Então não foi por falta de hardware e sim tecnologia do fsr inferior ao dlss.