THXRD a écrit : ↑20 avr. 2025, 01:42Entièrement d’accord sur le fond . On sait tout cela Pio ,
On en a déjà parlé sur le forum, en effet, mais c'est bien de le redire car c'est largement ignoré, même par des spécialistes.
THXRD a écrit : ↑20 avr. 2025, 01:42d’une part le comportement des Tv du commerce ne maintient pas le gamut ni T° sur les peak nits fabricant annoncés ( souvent complètement utopiques ) mais alors pas du tout , et aucune donnée externe n’y fera rien ce qui démarre très mal
Les fabricants annoncent effectivement des peak nits bruts. Mais si on uniformise l'image pour que toutes les zones soient aussi lumineuses les unes que les autres, on perd déjà pas mal de nits, et si on redescend la température de couleur à 6500 K au lieu de 8000, on diminue la puissance des diodes bleues, ce qui fait encore perdre un bon paquets de nits.
Rien qu'avec ces deux opérations, sur le moniteur Eizo, je passe de 450 à 330 nits.
THXRD a écrit : ↑20 avr. 2025, 01:42D’autre part les monitors eux mêmes sont bien sûr incapables d’afficher 2000 ou 4000 nits ( les valeurs sont toujours des valeurs peak pour un temps limité et sur une petite surface l’écran ) donc ce qui est vu au monitoring prod l’est au mieux à 6/700 nit idéalement .dans les clous T° et gamut
Ca progresse chaque année. Le dernier téléviseur LG G5 mesuré chez PP World par Sylvain atteint 2400 nits en crête en mode film maker (contre 4000 bruts et 2100 nets annoncés par le fabricant).
Les moniteurs pro font leurs propres progrès, mais dans un autre monde. J'ai appris qu'ils utilisaient une technologie double LCD : deux panneaux LCD l'un derrière l'autre permettre d'atteindre un contraste de 1:1000000 en pur LCD !
THXRD a écrit : ↑20 avr. 2025, 01:42( je passe sur le fait que 99% des Tv hdr travaille en 10 bit ce qui ne laisse aucune marge par rapport au signal )
Si on met face à face un gamma 2.3 en 8 bits et une courbe PQ en 10 bits, on retrouve à peu près le même espacement entre les niveaux de gris.
La zone de 100 à 10000 nits supplémentaires dans la courbe PQ est alimentée en partie par les 2 bits en plus, en partie en récupérant certains des 8 bits qui étaient superflus dans les hautes lumières de la courbe gamma.
Tiens, d'ailleurs, encore une info fausse (ou du moins pas vraie) répétée partout : on passerait de 16 millions de couleurs à 4 milliards avec le HDR. Ouais... sauf que 4 milliards de couleurs de 0 à 10000, ben ça fait moins de couleurs que 16 millions de 0 à 100.
THXRD a écrit : ↑20 avr. 2025, 01:42La comparaison Dv / HDR 10 sur le même disc , sur les mêmes scènes a donc bien un intérêt ,, celui de savoir si dans la pratique le fait de payer très cher des surcoûts de licence à Dolby offre une supériorité visible en usage final grand public
A condition naturellement de visualiser une scène sur laquelle le Dolby Vision a été utilisé par l'auteur à destination de l'écran sur lequel on fait la comparaison.
Les innombrables vidéos HDR10 contre Dolby Vision qu'on trouve sur Youtube ne se posent même pas la question. Pour autant qu'on sache, les possibilités du Dolby Vision n'ont pas été utilisées sur la scène qu'ils nous montrent.
Le Dolby Vision, c'est du HDR10 avec des métadonnées en plus (et des règles pour les utiliser).
C'est exactement comme, en audio, du wav, comparé à du FLAC avec des métadonnées ReplayGain en plus, les deux en 44100 Hz 16 bits.
On joue le wav, on joue le FLAC, et oh surprise, ils sonnent pareil ! Ben évidemment, si le track gain est de -3, track peak à 0.98 et le replaygain en mode "prevent clipping according to track peak", alors il ne se passe rien !
De même, si on est sur une TV avec 1200 nits en crête, un HDR10 avec max brightness à 1000, MaxCLL à 800 et maxFall à 250, et qu'en DV on a tous les trims à zéro pour le profil 1000 nits sur cette scène... ben évidemment qu'elle sera identique en HDR10 et en DV !
THXRD a écrit : ↑20 avr. 2025, 01:42J’ai au passage testé ce point de peak nits avec 6800 nits sur 1 m2.. ..c’est totalement inregardable de face , des 200/250 nit c’est limite regardable et ce qui est retenu avec des murs d’images en 8/12 m et franchement
Pas nécessaire et fatigant en salle noire
L’idée qu’il faudrait 1000:/ 4000 / 10 000 nits sur une image demande de réfléchir un peu ..
C'est la même chose qu'en audio quand on dit que pour un son fidèle à la réalité, il faut atteindre 120 dB en crête au point d'écoute. C'est absolument intenable pour l'auditeur, et dangereux.
En pratique, 5000 nits, c'est une surface blanche en plein soleil. Il faut des lunettes de soleil pour la regarder. On comprend pourquoi la courbe monte à 10000. Cela permet de capter fidèlement toutes les surfaces éclairées, même au soleil.
Mais comme l'explique Forest Finbow dans son atelier sur le HDR (
viewtopic.php?t=118), le but n'est pas d'aveugler le spectateur, mais de donner vie aux reflets sur les paillettes et les surfaces brillantes.
Voici un bon exemple d'utilisation des luminosités élevées en HDR : filmer les illuminations de noël
https://www.youtube.com/watch?v=y0WujPCPciQ
Je ne sais pas quelle est la luminosité max de cete vidéo. Probablement 1000 nits. Youtube ne l'indique pas. Windows non plus. Mon moniteur Eizo oui, mais si je l'utilise, Youtube bride la vidéo à 400 nits. Avec l'oled Samsung la vidéo n'est pas bridée, mais je n'ai aucune indication de luminosité max.
Je n'ai pas alimenté le sujet du forum sur les vidéos Youtube HDR, vu que je dois être le seul ici à en regarder.
THXRD a écrit : ↑20 avr. 2025, 01:42Paradoxalement l’intérêt est bien plus faible pour des Tv ( qui n’ont jamais manqué de pêche et ou il existait deja dex expanseurs de dynamiques zonal ) mais bien plus pour la projection qui elle est défavorisée sur cet aspect .. ( et ou l’écart entre SDR et HDR est ressenti bien plus spectaculaire .. )
L'intérêt du DV sur le HDR10 ou l'intérêt de la HDR sur la SDR ?
THXRD a écrit : ↑20 avr. 2025, 01:42Dernier point ..
En théorie sur des Tv parfaitement calibrés … sur tout les points nécessaires, le résultat en HDR comme en SDR se doit d’être identique .. sinon plus rien n’a de sens .. et encore moins dans le cas du Dv ..
Ça voudrait dire , soit que le principe ne marche pas , ou pas complètement , soit que le constructeur est un menteur , soit surtout que rien n’est calibré .. .. et on peut vérifier sur 2 Tv différents parfaitement calibré identiquement que les résultats .,sont ..identiques ..
Le résultat entre quoi et quoi ?