O meu funciona na DP em 120hz + 10bit mas sinceramente, não vi nenhuma diferença.
Para vc tentar ver diferença, precisaria baixar algum conteúdo 10bits.
O meu funciona na DP em 120hz + 10bit mas sinceramente, não vi nenhuma diferença.
Não, você não consegue emular 12 bits naquele monitor. Seu sistema poderia tentar mostrar 50 trilhões de cores se ele que quiser, mas o seu monitor nunca iria te mostrar isso. O seu monitor não emulava nem os 10 bits porque a quantidade de cores nas specs é 16 milhões. O que a maioria faz é usar um painel de 6 bits + FRC para emular 8 bits, como até poderia ser o caso, ao invés de ser uma tela nativa de 8, mas isso pouco importa na prática.obviamente esses 12bit eram emulados, assim como os 10bit do ozone. ambos são nativos em 8bit, o ponto é que pra usuário comum, a diferença é insignificante.
alguma recomendação?Para vc tentar ver diferença, precisaria baixar algum conteúdo 10bits.
Sim, siga esses passos e assista ao vídeo do link que está no final:alguma recomendação?
Galera, quanto ao HDR desse monitor se quiserem experimentar, é o seguinte:
- monitor tem que estar em 10bits.
- tem que aumentar o brilho do monitor pro máximo (aqui ficou melhor em uns 80%).
- o windows zoa geral no conteúdo não-hdr quando o hdr tá habilitado no windows, ajustem o nível pro conteúdo SDR pra 25~30 e esqueçam o conteúdo SDR por hora (imagem da config no final do post), fica menos pior assim.
- abram o vídeo abaixo no youtube pelo Chrome (não pode ser firefox) e tem que aparecer na resolução "1440p HDR", se nao tiver escrito HDR não funcionou. O vídeo não impressiona e nem é bonito se não tiver em HDR.
- Ao terminarem de ver o conteúdo HDR voltem o brilho para o valor usual e desliguem o HDR do windows.
O HDR é baseado numa diferença maior entre os tons claros dos escuros. Nosso monitor já tem um brilho bem alto, a única coisa que ele vai perder é nos pretos, e isso qualquer tela LCD vai (o local dimming que alguns paineis tem é só uma gambiarra, querendo ou não). Por isso, se não aumentar o brilho pra perto do máximo não adianta nada.
Tenho um celular galaxy s10e aqui com tela dynamic amoled (baseada na oled) HDR10+ para comparação e acreditem, só o brilho elevado e os 10 bits do monitor já dá um efeito sensacional, vale muito a pena experimentar uma vez. Não fica assim tão distante da imagem do celular.
A única coisa que inviabiliza realmente é ter que ficar aumentando o brilho e ficar mudando HDR/SDR no windows, fica pouco prático. Por falta de conteúdo e praticidade é muitíssimo melhor deixar em SDR e esquecer, mas experimentem, é uma imagem linda meio impossível de descrever. Não vão saber enquanto não conseguirem visualizar pelo menos uma vez.
![]()
Fiz o teste. Só pra constar que sou leigo e não tenho nenhuma experiência com isso.Sim, siga esses passos e assista ao vídeo do link que está no final:
Aqui resolvi deixar no cabo DP setado 144 Hz 8 bits mesmo, deixa esses 10 bits pra láNão, você não consegue emular 12 bits naquele monitor. Seu sistema poderia tentar mostrar 50 trilhões de cores se ele que quiser, mas o seu monitor nunca iria te mostrar isso. O seu monitor não emulava nem os 10 bits porque a quantidade de cores nas specs é 16 milhões. O que a maioria faz é usar um painel de 6 bits + FRC para emular 8 bits, como até poderia ser o caso, ao invés de ser uma tela nativa de 8, mas isso pouco importa na prática.
O Ozone tem um painel que efetivamente mostra para o olho humano 1 bilhão de cores através de um painel 8 bit + FRC, o que efetivamente retira qualquer banding que os 8 bits teriam. Perceber diferença ou não é outra história. Mas no seu caso tudo que você via no seu monitor antigo sempre foi 8 bits independente do que seu sistema te mostrasse.
Isso é um monitor que consegue mostrar 12 bits de cor (que pode até ser 10 bits + FRC) só para ter uma ideia: https://www.bhphotovideo.com/c/product/1266074-REG/bon_bxm_243t3g_3g_sdi_hdmi_12_bit_broadcast.html
Se vc for lá nos EUA e comprar lá vai pagar uns 30k reais. E você só vai conseguir visualizar conteúdo a 12 bits de fato em programas e conteúdos bem específicos.
Só para fechar, não importa muito se vocês usam o monitor a 10 ou 8 bits, a maioria dos conteúdos que nós consumimos sempre é 8 bits. Não precebemos a diferença por conta disso, e podem continuar com 8 sem medo. A questão é que para usar os 10bits são apenas conteúdos mais específicos, como quem trabalha com edição / impressão de imagens ou vídeos, ou ainda algum HDR mais esporádico. Ainda sim, não são todos que vão perceber a diferença e são casos bem específicos onde isso faz diferença perceptível.
Fiz o teste. Só pra constar que sou leigo e não tenho nenhuma experiência com isso.
Partindo daí, achei bonita as cores mas de modo geral muito semelhante ao 144hz @ 8bits. O que encontrei diferença foi nas imagens com vermelhos, que da uma destacada maior com essas configurações que passou.
Fica bonito sim, mas como até você escreveu ali, inviável por falta de conteúdo desse tipo e ficar mudando as configurações tanto do monitor quanto do windows.
Isso. Dessa forma aí mesmo. Só estranhei que o monitor trava o brilho quando o HDR é ativado.Boa, isso mesmo, a diferença é pouca. HDR habilitado no menu do monitor também, certo? Esqueci de frisar isso no passo a passo.
Exatamente. Então, mas tem um jeito de mudar: se você pressiona algum botão no painel traseiro enquanto o HDR está ativado (não lembro qual é agora, é algum dos de cima) você consegue chamar um menu exclusivo de brilho e para uns 80-90%. E tem que aumentar para o HDR funcionar como deveria.Isso. Dessa forma aí mesmo. Só estranhei que o monitor trava o brilho quando o HDR é ativado.
Aqui eu liguei o freesync no monitor e só apareceu no painel da Nvidia quando reiniciei o PC."O monitor selecionado não está validado como compatível com g-sync" Como faço para ativar ? O monitor já está com a opção freesync ligada.
É pra não permitir ao usuário cag*r a imagem e sair falando que acha o HDR uma porcaria. HDR é justamente high dynamic range, a base dele é conseguir na imagem o brilho máximo nos pontos mais brilhantes e preservar detalhes em porções escuras. Baixar o brilho enquanto tá com HDR ativado só vai matar a imagem tirando o alto range dinâmico, deixando as partes mais brilhantes sem tanto brilho e matando as áreas escuras de vez. No Dell qdo ativa o HDR ele não permite ajustar brilho, nem contraste, nem cores.Isso. Dessa forma aí mesmo. Só estranhei que o monitor trava o brilho quando o HDR é ativado.
Entendo, mas ele não aumenta o brilho quando você liga o HDR. Então você tem que deixar o brilho setado no valor antes de ativar o HDR.É pra não permitir ao usuário cag*r a imagem e sair falando que acha o HDR uma porcaria. HDR é justamente high dynamic range, a base dele é conseguir na imagem o brilho máximo nos pontos mais brilhantes e preservar detalhes em porções escuras. Baixar o brilho enquanto tá com HDR ativado só vai matar a imagem tirando o alto range dinâmico, deixando as partes mais brilhantes sem tanto brilho e matando as áreas escuras de vez. No Dell qdo ativa o HDR ele não permite ajustar brilho, nem contraste, nem cores.
Isso é zuado, no Dell ao ligar o HDR o brilho vai pra lua, acredito que os Asus, LG e Samsung devem ir também.Entendo, mas ele não aumenta o brilho quando você liga o HDR. Então você tem que deixar o brilho setado no valor antes de ativar o HDR.
Por exemplo, liguei o HDR com o brilho em 30, ele ficou travado em 30 ali. Quando botei em 100, ficou nítida a diferença. Então se forem ativar o HDR, setem primeiro o brilho para depois ligar o HDR no monitor.
Realmente se eu faço essa alteração os 10 bits funcionam, mas nos posts de quem comprou ele a mais tempo, essa mudança não parece ser necessária.
Fica a dúvida qual seria melhor para 144Hz: 8bit + RGB ou 10bit + Ycbcr422?
Jamais, a diferença de performance é literalmente zero na prática. Pega esses 1000 reais e faz um up no seu processador, vga, ssd, memória, teclado ou mouse. Vai ficar com um PC muito melhor e mesma imagem.juntariam mais R$ 1.000,00 e iriam no Dell S21DGF ?
O botão para acessar o controle de brilho do monitor com HDR ligado é o terceiro de cima pra baixo (sem considerar o botão bolinha de cima). Já abre automatico o ajuste de brilho. Aí o segundo e terceiro fazem o ajuste. Por questões de praticidade, deixo o HDR no monitor habilitado sempre e só aumento o brilho por esse botão quando vou jogar algo com HDR e depois volto pro nivel 18 para conteúdo normal SDR. Ia ser muito mais prático se apertasse um botão e tanto o monitor quanto o windows já se ajustassem sozinhos. Porém, mesmo que o monitor fizesse a parte dele, por conta do próprio windows essa integração mais prática ainda continua distante, infelizmente.Entendo, mas ele não aumenta o brilho quando você liga o HDR. Então você tem que deixar o brilho setado no valor antes de ativar o HDR.
Por exemplo, liguei o HDR com o brilho em 30, ele ficou travado em 30 ali. Quando botei em 100, ficou nítida a diferença. Então se forem ativar o HDR, setem primeiro o brilho para depois ligar o HDR no monitor.
ah sim, agora eu entendi. pra mim se opção aparecia, é pq o monitor arrumava alguma forma de emular a exibição.Não, você não consegue emular 12 bits naquele monitor. Seu sistema poderia tentar mostrar 50 trilhões de cores se ele que quiser, mas o seu monitor nunca iria te mostrar isso. O seu monitor não emulava nem os 10 bits porque a quantidade de cores nas specs é 16 milhões. O que a maioria faz é usar um painel de 6 bits + FRC para emular 8 bits, como até poderia ser o caso, ao invés de ser uma tela nativa de 8, mas isso pouco importa na prática.
O Ozone tem um painel que efetivamente mostra para o olho humano 1 bilhão de cores através de um painel 8 bit + FRC, o que efetivamente retira qualquer banding que os 8 bits teriam. Perceber diferença ou não é outra história. Mas no seu caso tudo que você via no seu monitor antigo sempre foi 8 bits independente do que seu sistema te mostrasse.
Isso é um monitor que consegue mostrar 12 bits de cor (que pode até ser 10 bits + FRC) só para ter uma ideia: https://www.bhphotovideo.com/c/product/1266074-REG/bon_bxm_243t3g_3g_sdi_hdmi_12_bit_broadcast.html
Se vc for lá nos EUA e comprar lá vai pagar uns 30k reais. E você só vai conseguir visualizar conteúdo a 12 bits de fato em programas e conteúdos bem específicos.
Só para fechar, não importa muito se vocês usam o monitor a 10 ou 8 bits, a maioria dos conteúdos que nós consumimos sempre é 8 bits. Não precebemos a diferença por conta disso, e podem continuar com 8 sem medo. A questão é que para usar os 10bits são apenas conteúdos mais específicos, como quem trabalha com edição / impressão de imagens ou vídeos, ou ainda algum HDR mais esporádico. Ainda sim, não são todos que vão perceber a diferença e são casos bem específicos onde isso faz diferença perceptível.
Qualquer filme/vídeo em HDR que você assista é conteúdo 10bit, mas não significa que exibir ele no painel em 8bit vai dar alguma diferença notável.ah sim, agora eu entendi. pra mim se opção aparecia, é pq o monitor arrumava alguma forma de emular a exibição.
e sobre o conteúdo, é verdade, eu tinha esquecido me mencionar isso. eu duvido muito que eu consuma algum conteúdo em 10bit pra poder sentir falta dessa opção.
@alfas, naquele post que você colocou a sua calibragem do monitor, achei que a imagem no geral ficou muito puxada pro amarelo. era a intenção? não curto muito os brancos meio amarelados.
Testei o HDR no jogo Ori e ficou bonito mesmo. Um outro jogo que achei bacana com HDR é o Age of Empires 4.8 bits RGB.
422 é uma compactação e você perde metade da resolução horizontal de cor. Fora que o conteúdo que consumimos é 8 bits. Na imagem abaixo, o modo RGB é o 4:4:4.
![]()
--- Post duplo é unido automaticamente: ---
Jamais, a diferença de performance é literalmente zero na prática. Pega esses 1000 reais e faz um up no seu processador, vga, ssd, memória, teclado ou mouse. Vai ficar com um PC muito melhor e mesma imagem.
--- Post duplo é unido automaticamente: ---
O botão para acessar o controle de brilho do monitor com HDR ligado é o terceiro de cima pra baixo (sem considerar o botão bolinha de cima). Já abre automatico o ajuste de brilho. Aí o segundo e terceiro fazem o ajuste. Por questões de praticidade, deixo o HDR no monitor habilitado sempre e só aumento o brilho por esse botão quando vou jogar algo com HDR e depois volto pro nivel 18 para conteúdo normal SDR. Ia ser muito mais prático se apertasse um botão e tanto o monitor quanto o windows já se ajustassem sozinhos. Porém, mesmo que o monitor fizesse a parte dele, por conta do próprio windows essa integração mais prática ainda continua distante, infelizmente.
E só um adendo: não é o brilho máximo que dá o melhor resultado, o máximo saturam algumas cenas (faça o teste no vídeo em todas as cenas daquele vídeo do youtube, algumas pega bem a diferença). O melhor é por volta de uns 90% do brilho máximo, o que dá por volta dos 400 nits.
E pra quem tiver ou puder, joguem Ori and the will of the wisps com HDR ativado. Fica simplesmente maravilhoso...
Existem dois fatores: um é que cada tela apresenta as cores puxando mais pra algum lado que outras, e por esse motivo o pessoal não compartilha perfil ICC para carregar no sistema de outras pessoas - cada pessoa deveria calibrar sua própria tela de tempos em tempo. Pode ser parte do caso. Mas outro fator é que normalmente quando alguém calibra a tela pela primeira vez, a primeira sensação é que tudo fica mais quente mesmo. Os monitores que não vem calibrados de fábrica sempre puxam um pouco mais para o lado frio, e por isso causa certa estranheza em quem usou sempre dessa forma (veja na sua própria TV se sente a mesma sensação de muito amarelado quando escolhe o padrão "quente", ou "filme" de imagem, que é o mais próximo do calibrado a 6500K).@alfas, naquele post que você colocou a sua calibragem do monitor, achei que a imagem no geral ficou muito puxada pro amarelo. era a intenção? não curto muito os brancos meio amarelados.
Existe mais outro fator: imagem calibrada nem sempre é imagem que a pessoa acha mais bonita. Tem quem curte explosão de cores mesmo, quando vê uma tela calibrada acha sem graça, parece que "perde a vida" ou que fica estranho.Existem dois fatores: um é que cada tela apresenta as cores puxando mais pra algum lado que outras, e por esse motivo o pessoal não compartilha perfil ICC para carregar no sistema de outras pessoas - cada pessoa deveria calibrar sua própria tela de tempos em tempo. Pode ser parte do caso. Mas outro fator é que normalmente quando alguém calibra a tela pela primeira vez, a primeira sensação é que tudo fica mais quente mesmo. Os monitores que não vem calibrados de fábrica sempre puxam um pouco mais para o lado frio, e por isso causa certa estranheza em quem usou sempre dessa forma (veja na sua própria TV se sente a mesma sensação de muito amarelado quando escolhe o padrão "quente", ou "filme" de imagem, que é o mais próximo do calibrado a 6500K).
Veja se consegue ver todos os steps de todas as cores desta página (e de forma homogênia entre as diferentes linhas, sem que uma linha esteja com niveis diferentes de outras):
Contrast - Lagom LCD test
www.lagom.nl
Se conseguir, usando no modo quente ou mais frio, tá tudo certo. Depois siga os passos do mesmo site para ajustar o gamma, e pontos de branco e preto. A partir daí tá tudo certo e pode aproveitar.