Salut,
J'ai l'impression qu'on s'égare.
Je tente une description totalement différente (peut-être fausse).
Imaginons une vidéo avec une luminosité moyenne de 50 nits, et une luminosité max de 200 nits :
- DolbyVisiona.jpg (7.22 Kio) Vu 332 fois
sauf sur une scène, où la luminosité moyenne est de 100 nits et la luminosité max monte à 1200 nits.
- DolbyVisionb.jpg (13.02 Kio) Vu 332 fois
En HDR10, on a les métadonnées statiques MaxFALL = 100 et MaxCLL = 1200.
En HDR10+ ou Dolby vision, on a plein de métadonnées en plus, mais qui se résument, pour les sections normales de la vidéos à
-Pour un diffuseur limité à 100 nits, afficher l'intervalle 0-95 tel quel, et compresser l'intervalle 100-200 dans la partie 95-100.
-Pour les diffuseurs 400 nits, clipper à 400, pour les 1000 nits, clipper à 1000.
Et pour la scène super lumineuse, on a comme métadonnées
-Pour un diffuseur limité à 100 nits, compresser l'intervalle 0-500 dans 0-90, et l'intervalle 500-1200 dans 90-100. Clipper le reste.
-Pour un diffuseur à 400 nits, compresser l'intervalle 0-500 dans 0-350, et l'intervalle 500-1200 dans 350-400. Clipper le reste.
-Pour un diffuseur à 1000 nits, compresser l'intervalle 0-1000 dans 0-900, et l'intervalle 1000-1200 dans 900-1000. Clipper le reste.
C'est juste un exemple, c'est la personne qui réalise la vidéo qui choisit scène par scène et diffuseur par diffuseur ce qu'il faut faire. On voit les champs où on peut saisir toutes ces valeurs dans une vidéo du Labo de Jay.
Maintenant, mettons qu'on ait un diffuseur capable d'afficher 250 nits sur toute sa dalle, mais seulement 800 nits localement. Il ne peut pas restituer l'image lumineuse fidèlement. Que va-t-il faire ?
Dans tous les cas, on a un maxFALL inférieur ou égal à 100, donc le diffuseur va par exemple opter dans ce cas pour un tone mapping sans altération de l'image sous 200 nits (là aussi, c'est un exemple, au bon vouloir du fabricant). Le rendu des scènes normales sera alors exactement le même en HDR10 et en Dolby Vision.
Sur la scène lumineuse, en HDR10, il va devoir gérer les hautes lumières comme il peut. Par exemple en compressant tout ce qui dépasse 600 jusqu'au maxCLL.
En Dolby Vision, par contre, le diffuseur va appliquer bêtement les instructions prévues pour cette scène pour les diffuseurs "1000 nits" (ou peut-être 400, je ne sais pas si on arrondit au-dessus ou en-dessous), qui lui indique de diminuer légèrement la luminosité globale,
y compris sous 200 nits, et de faire rentrer les données jusqu'à 1200 dans la place gagnée. Le rendu sera alors différent du HDR10, la personne qui a créé le package Dolby Vision ayant fait un choix mieux adapté à cette scène en particulier, et ayant enregistré ce choix dans les métadonnées de la scène.
Est-ce que cela vous paraît correct, comme explication de ce qu'est le flux Dolby Vision ?