Je trouve cela étrange pour une technologie dont le noir est absolu. Mais que ce soit vrai ou pas, je me suis demandé où trouver une mire permettant de tester l'image la plus sombre possible qu'on puisse afficher sur un oled.
On ne trouve pas d'information sur le niveau de noir le plus bas existant en HDR par rapport au SDR. J'ai donc fait moi-même le calcul en prenant du SDR 8 bits avec un gamma de 2.4, qui permet donc un contraste très élevé avec des noirs très profonds, et en comparant avec du HDR10 en 10 bits. Voici les deux échelles de luminance comparées :
On peut voir que le HDR permet de descendre plus bas que le SDR. Les 10 premiers niveaux de l'échelle de gris HDR couvrent les 2 premiers niveaux et demi de l'échelle SDR.
Il y a certainement des mires sur les disques test, mais pas de bol, mon écran est intégré à un ordi portable. Je ne peux pas y lire de blu-ray.
Double pas de bol : le format HDR n'existe pas pour les images fixes. Je ne peux pas non plus afficher une image en HDR. Il faut trouver une vidéo HDR.
Je me suis donc tourné vers le Labo de Jay et sa vidéo de démonstration, à télécharger ici : https://www.lelabodejay.com/category/se ... -4kuhd-hdr
Il s'agit de la séquence "SEQ 4KUHD HDR10 16MBPS".
La mire du début ne descend pas très bas. Le carreau le plus sombre est à 0.05 nits, ce qui est le 50eme niveau de gris sur l'échelle HDR. De plus il est environné d'une image ultra lumineuse.
Par contre, plus loin dans la vidéo, à 7:26 précisément, quand le cracheur de feu rattrape sa barre et l'abaisse, la scène est extrêmement sombre. Et là c'est super intéressant.
C'est cette image là :
Bon, là ça ne compte pas c'est une png qui ne respecte pas du tout l'échelle HDR, c'est juste pour montrer là où il faut arrêter la vidéo pour regarder.
J'ai réglé l'affichage de mon moniteur externe (LCD) en HDR. Il peut m'indiquer la valeur binaire de chaque pixel arrivant dans l'entrée vidéo. La vidéo est lue par VLC, qui semble ne pas effectuer de tone mapping (a priori). Voici les valeurs relevées, que j'indique sur une version artificiellement éclaircie de l'image :
Déjà c'est incroyable la quantité de détails qui se cache dans une image HDR a priori complètement noire. C'est donc un très bon test, je pense. Beaucoup de choses à voir, que seules des dalles oled ou miniled pourront révéler, dans l'obscurité totale.
J'ai ensuite réglé mon ordi portable en HDR. Il a l'air plutôt bien étalonné. Voici une photo de l'image affiché sur sa dalle :
Ca donne une vague idée. Voici une seconde photo, surexposée, qui montre à peu près ce que l'oeil peut percevoir dans le noir, ici en plus clair :
En vrai, je distingue à peine la barre verticale dans le dos du personnage. Je peux deviner ses cheveux si je masque la flamme qui m'éblouit. Je vois par contre que le fond de l'image n'est pas noir. La dalle n'est pas complètement éteinte,ça se voit très facilement.
Pourtant si j'affiche une image jpeg noire en plein écran, la dalle est bien noire, complètement éteinte.
Cela correspond à ce que j'ai mesuré plus haut : le fond est à peu près à 0.005 nits, soit 13 ou 14 sur une échelle de 0 à 1024.
Ce test permet de voir jusqu'où nos écrans peuvent descendre. Il est à noter que le standard PQ utilisé en HDR10 est fait pour reproduire fidèlement les images même les plus sombres, là où le standard SDR faisait des compromis arbitraires, avec une courbe différente à la captation et à la restitution, conduisant à des noirs plus ou moins bouchés et une dynamique compressée par rapport à la réalité.
Le standard HDR10 (et ses dérivés HDR10+ et Dolby Vision) permet de reproduire les écarts de luminance réellement captés, dès le début de la courbe des gris, la valeur la plus basse en 10 bits full scale étant de 0.00004 nits.
Juste pour rigoler, la même image affichée en HDR sur un moniteur LCD