OLIVIER CHAUVIGNAT WORKSHOPS

View Original

Comment optimiser l’exposition pour le numérique

L'optimisation de l'exposition en numérique est documentée depuis 2004, notamment par Bruce Fraser, spécialiste historique du numérique chez Adobe Systems Inc. Nous appliquons ce principe dans chaque stage de photographie, depuis plus de 10 ans

Définition 

L’optimisation de l’exposition engendre un ensemble de questions récurrentes auxquelles nous allons répondre ici. Nous y parlerons également de l’origine de cette méthode d’amélioration de la mesure.

L’optimisation pour le numérique consiste à décaler l’exposition vers les valeurs claires afin que l’acquisition de l’image par l’appareil photo se fasse sans pertes.

Cette optimisation tire parti de la manière dont les données informatiques sont réparties au moment de la conversion analogique (image saisie par le capteur sous forme de signaux électriques) vers numérique (conversion des signaux électriques en données numériques puis traitement numérique de ces données).

Pourquoi optimiser ?

Parce que les données numériques sont organisées de manière a privilégier les hautes lumières.

Si on ne décale pas l'exposition, non seulement on perd l'avantage de ce privilège sur les hautes lumières, mais en plus on pénalise les basses lumières. Ceci reste valable même pour les capteurs les plus récents, y compris les "iso invariants" Sony

Note : en argentique négatif, on peut surexposer volontairement de 1IL un néga noir et blanc afin de tirer un meilleur parti des valeurs sombres. En diapo, on peut parfois sous-exposer de 1/2 IL pour saturer les couleurs. Cette optimisation d'exposition n'est donc pas quelque chose de nouveau

 

« L’exposition correcte est au moins aussi importante en numérique qu’elle l’est en argentique, mais dans le royaume du numérique, exposition correcte signifie que l’on doit maintenir les hautes lumières aussi proches que possible de la saturation, sans réellement l’atteindre. » 

Bruce Fraser, Raw Capture, Linear Gamma, and Exposure, 2004

Vous trouverez en bas de l'article, davantage d'explications techniques sur ce point.

Historique et origine des données (extrait du livre “Les secrets de la photo de studio”)

Les données concernant l’optimisation de l’exposition en numérique sont basées sur le travail de trois acteurs majeurs et pionniers de la photo numérique :

Thomas Knoll, auteur de Photoshop et de Camera Raw ;

Michael H. Reichmann, photographe canadien de paysage, de voyage et de fine-art, auteur, blogueur, formateur, consultant technique indépendant, développeur informatique, fondateur du site de vulgarisation « Luminous Landscape » et chef d’entreprise. Il disait : « Lors d’un workshop en Islande en juillet 2003, j’ai eu une conversation fascinante avec Thomas Knoll à propos des rapports signal/bruit en photographie numérique. J’ai ensuite écrit un tutoriel titré “Expose Right” [qui a deux significations en anglais : “exposer correctement” et “exposer à droite”, NDT]. À ma connaissance, c’était le premier article accessible à tout le monde qui parlait des réalités de l’exposition en numérique, comparée à l’exposition en argentique. La technique décrite est depuis lors connue sous le nom de ETTR (Expose To The Right) [“exposer à droite”, NDT]. Cette méthode est donc le texte de vulgarisation originel. » ;

Bruce Fraser, ingénieur informaticien senior chez Adobe Systems Incorporated. Il a fait une étude sur la vision humaine et la façon dont elle est liée aux couleurs reproductibles en photographie et en reproduction photomécanique. Il est également l’auteur du livre Real World Camera Raw (traduit aux éditions Eyrolles en 2006, Camera Raw et Photoshop).

Bibliographie

Les textes suivants sont les sources de référence sur lesquelles sont basées les données de cet article :

Expose Right, Michael Reichmann, 2003 (article, site « Luminous Landscape ») ;

Real World Camera Raw, Bruce Fraser, 2004, Peachpit Press ;

Raw Capture, Linear Gamma, and Exposure, Bruce Fraser, 2004 (article, Adobe Systems Incorporated issu du livre Real World Camera Raw) ;

Optimizing Exposure, Michael Reichmann, 2011 (article, site « Luminous Landscape »).

Vous trouverez les informations concernant l’optimisation pour le numérique dans les pages 45 à 55 du livre.

Comment fait-on pour optimiser ?

On va décaler l'exposition de +1,33 IL, mais uniquement dans le cas de la mesure incidente au flashmètre/posemètre. Concrètement, si vous photographiez à ƒ/4 sur votre boitier, vous réglez votre flash pour ƒ/6,3. Évidemment en procédant ainsi, l'appareil photo va vous dire que votre image est surexposée. Il n'en est rien. Les appareils photo sont construits pour tous types de public, en mesure préventive de vraies surexpositions. Optimiser à +1,33 IL n'est pas une surexposition. Non seulement les données ne sont pas abimées par "trop de lumière", mais elles ne sont pas non plus abimées par "manque de lumière".

Optimiser n’est PAS surexposer

L’optimisation n’est pas une surexposition, comme je le lis parfois. Surexposer détruit les données, optimiser améliore la qualité des données. Les deux notions sont donc diamétralement opposées.

Démonstrations

Vous trouverez ci-dessous des tutos annexes qui démontrent, images à l'appui, que l'optimisation fonctionne et comment elle fonctionne 

De manière simple, comment ce chiffre à t-il été déterminé ?

On peut le constater par approche graduelle. Si on met un peu plus que 1,33, les hautes lumières seront réellement abimées (cramées). +1,33 correspond donc très précisément au décalage maximum vers les valeurs claires, mais sans détruire les hautes lumières. C'est donc le décalage optimum correspnadnt au “on doit maintenir les hautes lumières aussi proches que possible de la saturation, sans réellement l’atteindre.” évoqué par Bruce Fraser

Cette valeur s'applique à tous les boitiers, pour tous les formats (APSC, 24x36, Moyen Format). A ma connaissance il n'existe aucun boitier qui demanderait une autre valeur d'optimisation. mais si vous en entendez parler, n’hésitez pas à m'en faire part.

Pour une explication plus technique de la manière dont ce chiffre est déterminé,  vous trouverez en bas de l'article, davantage d'explications sur ce point.

Quel type de mesure ?

Attention, cette valeur d'optimisation de +1,33 n'est valable que dans le cadre d'une mesure incidente au flashmètre/posemètre. L'optimisation en mesure réfléchie est possible, mais elle demande une interprétation, ce qui implique une grande maitrise, une parfaite connaissance de son matériel et des différentes situations qui peuvent se présenter.

Pourquoi ne pas optimiser dans Lightroom ?

L'optimisation doit impérativement se faire à la prise de vues. Une fois que la photo à été prise, les données sont irrémédiablement perdues si on n'a pas optimisé. Augmenter de +1,33 dans un logiciel ne créera pas des données qui n'existent pas. En revanche, ça mettra en évidence l’absence de ces données perdues par des effets indésirables : postérisation (effet de "vagues" dans la couleur ou dans les niveaux de gris), dégradés "cassés", bruit numérique, destruction des couleurs (peau humaine de couleur rouge brique), etc

Doit-on systématiquement optimiser ?

Il n'y a à priori aucune raison de ne pas le faire. Cependant, l'appareil prendra tout de même la photo, même si vous n'optimisez pas. Le fichier sera simplement moins "souple" et vous prendrez le risque de faire apparaitre des défauts visibles dans le traitement (postérisations, artefacts, bruit vidéo, couleurs abimées, etc). Il n'est pas plus difficile d'optimiser que de ne pas le faire, et les stages de photographie vous permettent de le mettre en pratique, afin de finir par le posséder tellement que vous le ferez sans même avoir à y penser

Exposer à droite

Plutôt que d'utiliser le terme "Exposer à droite" qui peut être trompeur et qui est très rarement compris, je préfère utiliser le terme de "Optimiser l'exposition pour le numérique"

Références

Données avancées : Comment le chiffre  de +1,33 à t-il été déterminé ?

(Merci à David Pons pour le schéma et le texte de ce chapitre)

La cellule d'un appareil, comme celle d'un flashmètre/posemètre, est calée pour qu'un gris neutre qui réfléchit 18% de lumière apparaisse sur l'image comme un gris moyen de luminance 50% (0% étant le noir et 100% du blanc pur).

Une feuille de papier, ou toute autre surface blanche non spéculaire (blanche mais qui ne réfléchit pas comme un miroir) se situant dans la scène apparaitra sur l'image comme un gris très clair à 95% environ.

Cette partie étant justement la plus claire de la scène (puisque blanche), il reste malgré tout l'équivalent de +1.33 IL avant écrêtage.

Il est alors souhaitable d'exposer en se décalant de cette valeur pour que les parties blanches de la scène se situent à presque 100% (99.8%).

L'exposition sera alors optimisée pour un échantillonnage numérique le plus "fin" possible.

Sur le schéma, EV=0 est le calage du gris 18% donnant une luminosité sur l'image de 50% (c'est le calage d'une cellule/flashmètre/posemètre).

Une feuille de papier sera alors plus claire d'environ +2 IL (environ 2 diaphragmes). Un capteur écrêtant à + 3.33IL (quelques variations selon les marques), on a donc encore +1.33 IL de surplus qu'on peut utiliser.

La valeur +1.33 IL permet d'exposer "au plus clair" sans surexposer, c'est à dire sans saturer/déborder le(s) capteurs/photosites."

Données avancées : L'acquisition des données en 14 bits

Un capteur numérique transforme la lumière en signaux électriques. Il délivre donc un signal analogique. C'est lors de la conversion Analogique / Numérique réalisée par le processeur de l'appareil photo, que les données sont converties en numérique, codées et stockées. A ce stade, l'information est brute (RAW) et on ne parle pas encore d'image.

Optimisation, profondeur d'échantillonnage et dynamique

La plupart des appareils actuels codent l'information sur une profondeur de 14 bits. Pour faire simple, la profondeur désigne la richesse de l'information stockée. Plus le nombre de bits est important, et plus une même information sera codée "finement". La profondeur de codage n'a aucune incidence sur la dynamique qui elle, dépend du rapport signal / bruit. La grande majorité des Moyens Formats codent l'information sur 16 bits.

Découpage de l'information

Important : Les données ci-dessous concernent bien l'échantillonnage, et non pas le dématriçage. Le dématriçage agit après la phase de conversion analogique numérique et n'a absolument aucune influence sur la manière dont les infos ont été acquises en amont.

14 bits équivalent à 2^14 (2 puissance 14) nuances pour chaque couche RVB, soit 16384 nuances par couche.

Si on divise le spectre lumineux par 5, on pourrait penser à première vue que chaque partie recevrait 1/5eme de ces 16384 bits pour conserver l'information, soit environ 3276 nuances par couche pour chaque zone du spectre. Il n'en est rien.

En fait, c'est la moité de ces 16384 nuances qui va servir à stocker les très hautes lumières, puis à nouveau la moitié pour les hautes lumières, etc. C’est pour cette raison qu’il faut décaler l’exposition de +1,33 IL. En opérant ainsi on enrichit la profondeur d’échantillonnage (ce qui se ait donc obligatoirement à la prise de vue).

Cela donne : 

  • Très hautes lumières : 8192 nuances par couche RVB

  • Hautes lumières : 4096 nuances par couche RVB

  • Valeurs moyennes : 2048 nuances par couche RVB

  • Basses lumières : 1024 nuances par couche RVB

  • Très basses lumières : 512 nuances par couche RVB

See this chart in the original post

On voit donc que cette répartition des informations induit plusieurs conséquences : 

  • Le dernier IL, la zone des Très Hautes Lumières, contient à lui seul autant d'informations que les tous les autres réunis.

  • Une sous exposition de 1 IL revient donc à perdre irrémédiablement 50% des nuances disponibles. Les informations auront bine été acquises, mais elles seront disponibles avec deux fois moins de nuances.

  • La qualité des couleurs et notamment celles utilisées dans la restitution de la peau humaine est affectée. Si on tente d’éclaircir une photo sous-exposée, la peau pourra prendre des tonalités rouge brique ou marron terracota, car les subtiles nuances nécessaires pour rendre la peau correctement n'existent pas. Et le logiciel sera incapable de les reconstituer. Sous-exposer altère ou détruit les couleurs, et ce, même sur les systèmes récents.

  • Pour que les hautes lumières de la scène soient échantillonnées avec 8192 nuances par couche, il est indispensable d'optimiser l'exposition. Si on ne le fait pas, ces hautes lumières seront échantillonnées sur seulement 4096 nuances. Bien évidemment, toutes les autres valeurs seront décalées également.

  • De ce fait, même pour une image ne présentant pas de hautes lumières et seulement des basses lumières (un low key par exemple) l'optimisation est nécessaire afin de doubler la profondeur d'échantillonnage

A ma connaissance, tous les systèmes actuels fonctionnent de cette manière, même si les capteurs s'améliorent, l'échantillonnage lui, suit toujours le même principe. Mais si une nouvelle technologie est un jour mise au point, nul doute que nous en serons informés, et nous répercuterons alors les nouvelles données dans chaque stage de photographie.


See this content in the original post

Articles connexes

See this gallery in the original post