8, 10, 12 ou 14 bits, qu’est-ce que la profondeur des couleurs en photographie et vidéo?

Essayons d’être brefs. La profondeur des couleurs qu’est-ce que c’est ? Il s’agit simplement la qualité d’échantillonnage d’un signal numérique, de la quantité d’échantillons qu’une composante de couleurs (Rouge, Vert ou Bleu)  peut supporter. Plus la profondeur est grande plus il y a aura de nuances par canal de couleurs.

Une profondeur élevée signifie donc des couleurs et des dégradés plus justes. En vidéo, on oscille généralement entre 8 et 10 bits lors de la captation, en photo plutôt entre 12 et 14 bits. Beaucoup de photographes  prétendent qu’il n’y a aucune différence à l’usage entre du 12 et 14 bits. C’est une affirmation erronée, même si c’est en (bonne) partie vrai. Il est assez étonnant de voir que si l’on prône toujours plus de pixels, on a tendance à tout simplement délaisser la profondeur des couleurs.

37220c0220shooting20secondary
Source: videomaker.com

Imaginez un dégradé du noir au blanc. En 8 bits, il y aura 256 niveaux de couleurs pour passer du blanc au noir. En 14 bits, il y a en aura plus de 16 000 ! Le dégradé sera donc plus précis, plus doux et donc plus esthétique.  Le principe pour la couleurs est le même, mais avec plus de variantes. Pour information:

  • une image codée sur 1 bit, c’est seulement 2 couleurs
  • une image de 8 bits c’est plus de 16 millions de couleurs possible
  • une image de 10 bits, c’est plus d’un milliard de couleurs possible
  • une image de 12 bits, c’est presque 69 milliards de couleurs
  • une image de 14 bits, c’est plus de 4 billions de couleurs (!)

Vous ne serez pas vraiment surpris d’apprendre que peu d’écrans peuvent traiter 69 milliards ou même 4 billions de couleurs. On serait donc tenter de penser que du 8 bits est suffisant puisque 98% des écrans ne gèrent que du 8 bits. Néanmoins, enregistrer ses fichiers sur une plage plus large permet des retouches plus poussées et d’obtenir des couleurs plus justes, qui seront mieux interprétées par la suite par nos moniteurs (même si la profondeur est moindre). En clair, un rouge vif capturé en 8 bits et projeté sur un écran 8 bits ne sera pas aussi vif et juste qu’un même rouge capturé sur 10 bits pourtant projeté sur le même écran. Et c’est sans compter qu’il sera moins performant lors d’éventuelles retouches.

A mes yeux, l’utilité d’une large profondeur de couleurs est la même que celle de filmer en 4k (ou plus) et de diffuser dans une définition inférieure (voir : Exploiter au mieux la 4k de votre appareil #2). Le but est de toujours garder une grande marge de manœuvre par rapport au support de diffusion.

maxresdefaultSource: The Video Pro Guys

banding
Source: fstoppers. A gauche, un dégradé codé sur 8 bits, à droite sur 10 bits. Une profondeur plus large possède plus de valeurs pour coder les couleurs. Il en résulte des images de meilleure qualité.

Maintenant que le principe est clair, qu’est-ce que ça donne sur une photo (ou même en vidéo) ? Il faut savoir que les 12 bits procurent déjà d’excellents résultats. Ils offrent un excellent compromis entre qualité d’image et souplesse des fichiers lors du traitement. En revanche les 14 bits permettent une meilleure latitude lors du développement d’une photo. La différence de quantification se voit notamment sur les retouches importantes en basse-lumière. Comparé aux 12, les 14 bits permettent de conserver des couleurs plus justes lors d’un traitement assez lourd. Pour en savoir plus rendez vous sur photographylife.com , qui a rédigé un article très complet sur le sujet.

A gauche, les ombres ont été débouchées sur 12 bits, à droite sur 14. On remarque aisément que les couleurs retouchées sur 12 bits obtiennent une teinte verdâtre assez déplaisante.

Sans surprise, une photo codée sur 12 bits sera donc plus légère et prendra moins de place à l’enregistrement. Sur un Nikon D750 on passe ainsi d’un fichier RAW à 28mo à 19mo en 12 bits. Peu d’entre nous seront sensibles à cette différence tant les cartes mémoires sont dotées de capacités de stockage toujours plus importantes. En revanche cette différence se fera sentir sur les buffers de la plupart de nos appareils : des fichiers plus légers retardent la saturation du buffer et donc prolongent sa rafale. Et sur le terrain, cet petit avantage m’a été décisif plus d’une fois, notamment en photographie animalière. Sur D750, en raw et avec la compression avec perte activée, on passe ainsi d’un buffer de 12 à 19 clichés en rafale, soit une augmentation de près de 50% de la capacité du buffer. Les amateurs de rafales apprécieront.

L’utilité d’une quantification à 12 bits est indéniable: les fichiers sont plus légers et la perte de qualité, moindre.  Néanmoins dans des conditions plus délicates (contre-jour, astrophotographie entre autres) on lui préférera les 14 bits, plus complets et plus adaptés aux retouches importantes.

Pour aller plus loin sur le sujet, direction L’atelier du câble !

Laisser un commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion /  Changer )

Photo Google+

Vous commentez à l'aide de votre compte Google+. Déconnexion /  Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion /  Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion /  Changer )

Connexion à %s