Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Qu'est-ce que le High Dynamic Range (HDR) ?
Une technologie pas si nouvelle ?

Le , par LittleWhite

20PARTAGES

8  0 
Sony, en présentant la nouvelle PlayStation 4 Pro a avancé deux arguments : le High Dynamic Range (HDR) et la 4K. Le HDR a été intégré aussi bien sur la nouvelle révision de la console, mais aussi sur le parc actuel des consoles de la marque. Comment une telle "nouveauté" a pu être implémentée sans pour autant modifier la configuration matérielle ? Revenons donc quelques années en arrière et comprenons mieux ce qu'est le HDR.


Conférence PlayStation Meeting 2016 - de toute façon, vous ne pouvez pas voir les avantages des nouvelles technologies, vous n'avez pas l'écran approprié (ni le stream)
Lors de la conclusion, le présentateur indique qu'il n'avait jamais entendu parler du HDR auparavant...


Définition

Tout d'abord, renseignons-nous avec la Wikipedia :
Le high dynamic range rendering ou HDR rendering, est un effet de luminosité avancé qui simule le fonctionnement de la rétine utilisé dans la 3D temps réel, notamment dans les jeux vidéo. Il utilise un principe de superposition de couches lumineuses complexe qui a pour but de recréer un éblouissement le plus réaliste possible.

Ceci a été rendu possible en temps réel dans les jeux 3D grâce à la souplesse de programmation du rendu apporté par les shaders (notamment à partir de la version 2).
Les joueurs doivent connaître cet effet, qui est très simple à expliquer : lorsque vous sortez d'une maison, un tunnel ou n'importe quel environnement sombre, vous êtes premièrement ébloui par le soleil (image trop blanche, imprécise), puis votre rétine s'habitue à la lumière ambiante. L'effet contraire est aussi possible (vous passez d'un environnement très éclairé à un environnement sombre). Au début, vous ne pourrez pas distinguer les objets à l'intérieur d'une pièce, puis votre rétine s'habitue et vous voyez clairement.

NVIDIA le résume (page 3) en trois points :
  • Bright things can be really bright ;
  • Dark things can be really dark ;
  • And the details can be seen in both.
Que l'on peut traduire :
  • les choses lumineuses doivent vraiment être lumineuses ;
  • les choses sombres doivent êtres vraiment sombres ;
  • et les détails peuvent être visibles dans les deux cas.
On remarque que le diaporama date de la GeForce 6800, donc, de 2004.

Jeux vidéo

Généralement, les données de couleurs en sortie d'une carte graphique doivent être entre 0 et 1 (ce qui constitue une échelle de valeurs) pour chaque composant (rouge, vert, bleu (et aussi alpha, mais nous n'allons pas nous en préoccuper)). Si vous indiquez à votre carte graphique une valeur hors de cette échelle (disons 10 pour la composante rouge, car vous souhaitez une très forte lumière rouge), la valeur va être réduite à 1 automatiquement. L'idée du HDR est de permettre une échelle plus grande. Toutefois, votre carte graphique (et votre écran, car au final, c'est bien lui qui affiche l'image) ne va pas se transformer et continuera à réduire vos valeurs. Seule une simulation est alors possible. Voici une technique pour le faire :
  • chercher le minimum et le maximum de vos valeurs sur votre image ;
  • calculer le ratio 1/(maximum-minimum) ;
  • recalculer les nouvelles valeurs, en multipliant chaque valeur par le ratio.

Évidemment, il faut effectuer cela pour les trois composantes. Toutefois, en utilisant l'espace colorimétrique HSV, on peut simplement utiliser la luminance.
Du côté du matériel, il faut augmenter la précision des tampons dans les cartes graphiques, afin de pouvoir gérer des composantes ayant plus de 8 bits et si possible (ce qui largement le cas) en nombre à virgule flottante.
De même, la recherche du minimum et du maximum peut être coûteuse et on pourra préférer utiliser un ratio prédéterminé. Cela peut être d'autant plus pratique si on veut contrôler soit même la transition entre un environnement sombre et un environnement clair.
Finalement, on rajoutera un flou autour des sources de lumière pour un meilleur résultat : le temps que la pupille s'habitue à la lumière ambiante, les objets sont flous.

Photographie


Les couleurs semblent surnaturelles

En photographie, le HDR est réalisé en photographiant plusieurs fois la même scène avec plusieurs paramétrage d'exposition. Ensuite, il est possible d'utiliser un logiciel de traitement d'image pour fusionner les différentes prises de vues. Les photos HDR semblent irréelles, car l'image possède le même nombre de bits par composantes de couleurs sur l'intégralité de l'image. Par contre, il existe des formats d'images (OpenEXR) pouvant offrir un espace colorimétrique plus grand et donc, mieux retranscrire les couleurs, mais, encore faut t-il que l'écran suive.

Le retour du HDR

Du coup, pourquoi est-ce que cette technique est revenue sur le devant de la scène ? Cela s'explique par le simple fait que les écrans de télévision ont de meilleurs ratio de contraste (respect du blanc et du noir) et donc peuvent afficher plus de couleurs et cela plus précisément. De plus, pour utiliser au mieux cette capacité, il a fallu un autre format de vidéo. En effet, si nous gardons le simple format ayant 8 bits par composants, les couleurs envoyés à la télévision seront toujours limitées.
C'est pour répondre à cette problématique qu'en août 2015, une normalisation (ouverte) de vidéo HDR a abouti : HDR10 Media Profile offrant 10 bits par composante. C'est d'ailleurs celle-ci qui est supportée par Sony et Microsoft. C'est pourquoi, avec le bon téléviseur (un téléviseur capable d'une large gamme de contraste) et le bon format, il est maintenant possible d'afficher dynamiquement plus de couleurs.
Une seconde norme est aussi apparue, en janvier 2016 : Dolby Vision. Celle-ci offre 12 bits par composante, toutefois elle n'est pas ouverte. C'est cette seconde norme qui sera intégrée sur les Ultra HD Blu-Ray et les services de streaming.
Une télévision labellisée HDR signifiera que l'écran sera capable d'afficher le flux d'une vidéo HDR (avec les avantages d'une palette de couleurs étendue).

Conclusion

Au final, il est vrai que le HDR est une technologie intéressante. L'image gagne en qualité (meilleur rendu des contrastes) et donne ainsi un meilleur rendu des couleurs (plus proche de ce que nous pouvons constater dans la nature). Du côté des consoles, l'implémentation est triviale et donc peut être disponible à partir d'aujourd'hui, comme nous le montre Sony. Les tampons de rendu sont certainement passés de 8 bits par composante à 10 bits, offrant ainsi une plus grande gamme de valeurs possibles. Sachant que les tampons sont remplis avec des valeurs entre 0 et 1 puis transformés pour l'écran, la transformation peut être appliquée sans pour autant modifier le code.
Aussi, il ne faut pas comparer les photographies HDR avec les vidéo HDR. Le résultat est grandement différent. La vidéo HDR indique à l'écran quelles zones sont plus ombragées ou plus claires, alors que la photographie ne consiste qu'en un amalgame de détails sans pour autant utiliser une plus grande plage de couleur.
Certains estiment que le HDR est une évolution bien plus intéressante que le passage à la 4K.

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de Squisqui
En attente de confirmation mail https://www.developpez.com
Le 15/10/2016 à 21:05
Citation Envoyé par foetus Voir le message
mais aussi sur le manque de précision des entiers (on appelle cela un espace discret )
Non, pas vraiment.
Un espace discret veut dire que les valeurs sont isolées les unes des autres. Au contraire, un espace continu implique qu'il existe une infinité de valeurs entre deux valeurs.
En numérique, tu ne traiteras jamais autre chose qu'un signal discret. Peu importe qu'il soit défini dans des entiers ou dans des virgules flottantes. La précision de ton signal est liée à ta résolution (ce que tu évoques) et par sa fréquence d'échantillonnage.
3  0 
Avatar de Jipété
Expert éminent sénior https://www.developpez.com
Le 14/12/2017 à 11:54
Bonjour,

juste un mot :
Citation Envoyé par LittleWhite Voir le message


Les couleurs semblent surnaturelles
[...]
meilleur rendu des couleurs (plus proche de ce que nous pouvons constater dans la nature).
Faudrait savoir...
3  0 
Avatar de LittleWhite
Responsable 2D/3D/Jeux https://www.developpez.com
Le 15/10/2016 à 21:12
Citation Envoyé par foetus Voir le message
Il me semble que le premier jeu HDR est Half-Life 2: Lost Coast (27 octobre 2005), qui est une extension - démo.
NVIDIA est le constructeur de carte graphique. Si les cartes graphiques ne sont pas sur le marché, alors on ne peut pas implémenter la technique. De plus, il semblerait (source Wikipedia) que la première implémentation du HDR vienne du logiciel de simulation de lumière Radiance de Greg Ward (1985).
Ce que je veux dire, c'est que la technique (comme beaucoup en graphisme par ordinateur) existe depuis longtemps (ne serait-ce qu'au niveau d'article scientifique) mais que la puissance (ou d'autres facteurs) ne soit pas toujours là immédiatement.
Du coup, le temps que les GeForce 6800 arrivent chez les particuliers (et cela en nombre suffisant pour que cela ait un intérêt), 2005 semble une bonne année (sachant que le jeu a été développé au cours de l'année 2004).
Ce que je voulais dire, c'est simplement que je ne pense pas qu'il y ai une incohérence
2  0 
Avatar de steel-finger
Membre actif https://www.developpez.com
Le 15/10/2016 à 18:00
Personnellement je vois pas a quoi sert la 4k la plupart des jeux ne sont pas en 1080p et en plus il lock les fps a 30
2  1 
Avatar de foetus
Expert éminent https://www.developpez.com
Le 15/10/2016 à 18:12
Citation Envoyé par LittleWhite Voir le message
On remarque que le diaporama date de la GeForce 6800, donc, de 2004.
Il me semble que le premier jeu HDR est Half-Life 2: Lost Coast (27 octobre 2005), qui est une extension - démo.

Et j'ai cru comprendre que cela faisait suite au coup de gueule de J. Carmack du début 2000 sur les extensions OpenGL, mais aussi sur le manque de précision des entiers (on appelle cela un espace discret )
2  1 
Avatar de dragonjoker59
Expert éminent sénior https://www.developpez.com
Le 15/10/2016 à 20:26
La révolution vient surtout des téléviseurs, parce que le rendu HDR était déjà supporté par la dreamcast...
1  0