Conférence PlayStation Meeting 2016 - de toute façon, vous ne pouvez pas voir les avantages des nouvelles technologies, vous n'avez pas l'écran approprié (ni le stream)
Lors de la conclusion, le présentateur indique qu'il n'avait jamais entendu parler du HDR auparavant...
Définition
Tout d'abord, renseignons-nous avec la Wikipedia :
Le high dynamic range rendering ou HDR rendering, est un effet de luminosité avancé qui simule le fonctionnement de la rétine utilisé dans la 3D temps réel, notamment dans les jeux vidéo. Il utilise un principe de superposition de couches lumineuses complexe qui a pour but de recréer un éblouissement le plus réaliste possible.
Ceci a été rendu possible en temps réel dans les jeux 3D grâce à la souplesse de programmation du rendu apporté par les shaders (notamment à partir de la version 2).
Ceci a été rendu possible en temps réel dans les jeux 3D grâce à la souplesse de programmation du rendu apporté par les shaders (notamment à partir de la version 2).
NVIDIA le résume (page 3) en trois points :
- Bright things can be really bright ;
- Dark things can be really dark ;
- And the details can be seen in both.
- les choses lumineuses doivent vraiment être lumineuses ;
- les choses sombres doivent êtres vraiment sombres ;
- et les détails peuvent être visibles dans les deux cas.
Jeux vidéo
Généralement, les données de couleurs en sortie d'une carte graphique doivent être entre 0 et 1 (ce qui constitue une échelle de valeurs) pour chaque composant (rouge, vert, bleu (et aussi alpha, mais nous n'allons pas nous en préoccuper)). Si vous indiquez à votre carte graphique une valeur hors de cette échelle (disons 10 pour la composante rouge, car vous souhaitez une très forte lumière rouge), la valeur va être réduite à 1 automatiquement. L'idée du HDR est de permettre une échelle plus grande. Toutefois, votre carte graphique (et votre écran, car au final, c'est bien lui qui affiche l'image) ne va pas se transformer et continuera à réduire vos valeurs. Seule une simulation est alors possible. Voici une technique pour le faire :
- chercher le minimum et le maximum de vos valeurs sur votre image ;
- calculer le ratio 1/(maximum-minimum) ;
- recalculer les nouvelles valeurs, en multipliant chaque valeur par le ratio.
Évidemment, il faut effectuer cela pour les trois composantes. Toutefois, en utilisant l'espace colorimétrique HSV, on peut simplement utiliser la luminance.
Du côté du matériel, il faut augmenter la précision des tampons dans les cartes graphiques, afin de pouvoir gérer des composantes ayant plus de 8 bits et si possible (ce qui largement le cas) en nombre à virgule flottante.
De même, la recherche du minimum et du maximum peut être coûteuse et on pourra préférer utiliser un ratio prédéterminé. Cela peut être d'autant plus pratique si on veut contrôler soit même la transition entre un environnement sombre et un environnement clair.
Finalement, on rajoutera un flou autour des sources de lumière pour un meilleur résultat : le temps que la pupille s'habitue à la lumière ambiante, les objets sont flous.
Photographie
En photographie, le HDR est réalisé en photographiant plusieurs fois la même scène avec plusieurs paramétrage d'exposition. Ensuite, il est possible d'utiliser un logiciel de traitement d'image pour fusionner les différentes prises de vues. Les photos HDR semblent irréelles, car l'image possède le même nombre de bits par composantes de couleurs sur l'intégralité de l'image. Par contre, il existe des formats d'images (OpenEXR) pouvant offrir un espace colorimétrique plus grand et donc, mieux retranscrire les couleurs, mais, encore faut t-il que l'écran suive.
Le retour du HDR
Du coup, pourquoi est-ce que cette technique est revenue sur le devant de la scène ? Cela s'explique par le simple fait que les écrans de télévision ont de meilleurs ratio de contraste (respect du blanc et du noir) et donc peuvent afficher plus de couleurs et cela plus précisément. De plus, pour utiliser au mieux cette capacité, il a fallu un autre format de vidéo. En effet, si nous gardons le simple format ayant 8 bits par composants, les couleurs envoyés à la télévision seront toujours limitées.
C'est pour répondre à cette problématique qu'en août 2015, une normalisation (ouverte) de vidéo HDR a abouti : HDR10 Media Profile offrant 10 bits par composante. C'est d'ailleurs celle-ci qui est supportée par Sony et Microsoft. C'est pourquoi, avec le bon téléviseur (un téléviseur capable d'une large gamme de contraste) et le bon format, il est maintenant possible d'afficher dynamiquement plus de couleurs.
Une seconde norme est aussi apparue, en janvier 2016 : Dolby Vision. Celle-ci offre 12 bits par composante, toutefois elle n'est pas ouverte. C'est cette seconde norme qui sera intégrée sur les Ultra HD Blu-Ray et les services de streaming.
Une télévision labellisée HDR signifiera que l'écran sera capable d'afficher le flux d'une vidéo HDR (avec les avantages d'une palette de couleurs étendue).
Conclusion
Au final, il est vrai que le HDR est une technologie intéressante. L'image gagne en qualité (meilleur rendu des contrastes) et donne ainsi un meilleur rendu des couleurs (plus proche de ce que nous pouvons constater dans la nature). Du côté des consoles, l'implémentation est triviale et donc peut être disponible à partir d'aujourd'hui, comme nous le montre Sony. Les tampons de rendu sont certainement passés de 8 bits par composante à 10 bits, offrant ainsi une plus grande gamme de valeurs possibles. Sachant que les tampons sont remplis avec des valeurs entre 0 et 1 puis transformés pour l'écran, la transformation peut être appliquée sans pour autant modifier le code.
Aussi, il ne faut pas comparer les photographies HDR avec les vidéo HDR. Le résultat est grandement différent. La vidéo HDR indique à l'écran quelles zones sont plus ombragées ou plus claires, alors que la photographie ne consiste qu'en un amalgame de détails sans pour autant utiliser une plus grande plage de couleur.
Certains estiment que le HDR est une évolution bien plus intéressante que le passage à la 4K.