Aujourd’hui, lorsque nous achetons un téléviseur ou un moniteur, nous sommes confrontés aux termes les plus fous et aux technologies les plus récentes, dont l’acheteur moyen n’a entendu parler, au mieux, qu’en marge. HLG, HDR, HDR+, Dolby Vision, c’est comme ça qu’on les appelle, les standards d’aujourd’hui et de demain qui nous présentent les vidéos les plus réalistes que nous ayons jamais vues. Ils définissent tous des plages dites de contraste ou dynamiques dans lesquelles les images ou vidéos sont affichées. Ce n’est donc pas une question de résolution, mais de gamme de l’espace colorimétrique. Plus celui-ci est élevé, plus l’image sera contrastée et attrayante.
Du SDR au HDR – plus de contraste, plus de profondeur
Jusqu’à présent, les téléviseurs classiques étaient généralement affichés avec SDR (plage dynamique standard), qui offre une plage de contraste comprise entre 6 et 8 bits, soit un maximum de 256 niveaux de luminosité par canal couleur. Depuis quelques années, plus précisément depuis le CES 2015, le HDR est sur toutes les lèvres. La vidéo HDR signifie plage dynamique élevée et utilise une profondeur de couleur de 10 bits, c’est pourquoi on l’appelle aussi HDR10.
En tant que norme ouverte et sans licence, le HDR s’est déjà imposé dans de nombreux domaines, notamment sur les portails de streaming et de vidéo tels qu’Amazon Prime Video, Netflix ou YouTube. Lors de l’achat d’un téléviseur, vous devez cependant faire attention à savoir si l’appareil est réellement commercialisé avec la norme HDR10 ou s’il est simplement « compatible HDR ». Ce dernier est souvent utilisé comme astuce de vente avec des appareils plus anciens ou moins chers qui n’ont que 8 bits au lieu d’un panneau de 10 bits. La qualité d’un véritable appareil HDR n’est pas obtenue de cette façon.
Cependant, la technologie présente un gros inconvénient : elle ne fonctionne qu’avec des métadonnées statiques. Pour explication : Chaque vidéo envoie des métadonnées au téléviseur ou au moniteur correspondant sur lequel elle est diffusée, afin de lui donner les valeurs d’affichage optimales. S’ils sont statiques, ils s’appliquent de la même manière à toutes les scènes de la vidéo – aucune distinction n’est donc faite entre les scènes plus sombres ou plus claires. HDR+ a été créé pour surmonter cet inconvénient.
HDR+ fait partie des standards haut de gamme du futur
HDR+ ou encore HDR10+ s’appuie sur des métadonnées dynamiques et donc encore plus de qualité dans les images. De cette façon, l’espace colorimétrique peut être adapté de manière optimale à la luminosité des scènes et même d’une image à l’autre. Vous pouvez voir un exemple entre les deux technologies dans l’image suivante :

Le HDR+ a un potentiel absolu pour l’avenir, mais il est actuellement difficile à trouver. La technologie développée par Samsung a été annoncée pour la première fois en 2017 et ne peut jusqu’à présent être utilisée que pour certains contenus vidéo Blu-Ray et Amazon. Cependant, comme il est également disponible sans droits d’auteur et qu’il est déjà soutenu par des studios de cinéma tels que Warner Bros ou 20th Century Fox, il est susceptible de jouer un rôle assez important dans un avenir proche. Cela pourrait éventuellement lui donner une longueur d’avance sur son plus grand concurrent, Dolby Vision.
Dolby Vision est également basé sur une technologie « image par image » et peut même se démarquer avec une profondeur de couleur majestueuse de 12 bits (soit 4 096 niveaux de contraste !) – en termes de performances, cela en fait la meilleure technologie disponible aujourd’hui. Alors pourquoi Dolby n’a-t-il pas réussi à s’imposer jusqu’à présent ? Beaucoup y voient deux raisons principales : premièrement, les coûts de licence pour l’utilisation de Dolby Vision sont extrêmement élevés, et deuxièmement, il n’existe actuellement pratiquement aucun appareil terminal doté d’écrans 12 bits. Il reste passionnant de voir comment ces deux standards haut de gamme évolueront au cours des prochaines années. D’ici là, le HDR nous occupera probablement assez pour l’instant.



