Exploiter au mieux la 4K de votre appareil #2

Un gain d’acutance
En insérant vos plans tournés en 4k (8 mpx) dans une séquence en HD (2 mpx), vous vous assurez d’une acutance -d’un piqué- remarquable. Vos rushes seront en effet redimensionnés et le surplus de pixels permettra une netteté supérieure à un plan identique tourné en HD. C’est un procédé qui est très utilisé au cinéma: la définition utilisée lors du tournage et du montage est supérieure à celle de la diffusion. Ceci dit ne vous emballez pas trop, l’effet est bien visible mais pas non plus décisif. Pour une bonne restitution des détails,  il vous faudra toujours de bonnes optiques.

Le point ayant été fait sur la cheminée on distingue bien une différence entre la HD et la 4K downscalée en HD. La cheminée est plus détaillée, tout comme la multitude de branches de l’arbre situé juste derrière.

 

À partir de 0:40

Comment fonctionne le downscale ?
Le downscale (le fait de réduire les dimensions d’une image) utilise des algorithmes qui vont diminuer la définition native de votre fichier pour l’adapter à la définition de votre écran qui est plus petit (ici de la 4K jusqu’à la HD). Votre logiciel va associer des pixels et en réalisant une moyenne entre eux pour n’en faire plus qu’un. Cette technique a un nom: le pixel bining. L’avantage c’est que bon nombre de défauts sont gommés dont (le bruit ISO). Les pixels sont moins nombreux, les défauts aussi.

pixelbinning
Image source: pixinsight.com

Par ailleurs, Les Numériques avait utilisé ce procédé pour comparer à le Sony A7s (12mpx, 102 400 ISO) à l’A7r (42mpx, 25 600 ISO). En réduisant la définition de l’A7r à 12mpx, le bruit était drastiquement réduit et l’A7r chassait alors sur les terres de l’A7s (!).

7 commentaires sur “Exploiter au mieux la 4K de votre appareil #2

  1. Coucou Héléux,

    Et oui, pour les photos une autre méthode aussi c’est de comparer à tirage égale, c’est la même chose que downscaler à la définition de l’image la plus basse. Les résultats sont souvent les mêmes entre capteurs de même génération et technologie mais de définitions différentes, du moins tant qu’on redéfinit à la définition la plus basse, quand c’est à la plus haute là les capteurs plus pixelisés prennent l’avantage. Après, je ne sais pas si c’est une limite technique ou si c’est pour donner un avantage aux capteurs moins pixelisés mais comme tu l’indiques le A7S monte à 102 400, le A7R à 25 600, et c’est souvent le cas les capteurs moins pixelisés récents peuvent monter très haut en ISO mais ça indique rarement qu’ils sont meilleurs à sensibilité égale.
    Bravo d’utiliser le mot « définition » et non pas « résolution » 😉 en revanche, tu aurais aussi dû l’utiliser à la place de « taille » pour l’écran, beaucoup confondent la définition et les dimensions physiques de leur écran. J’ai fait de l’informatique, combien de fois j’ai entendu (toi aussi, peut-être ^^) « j’ai un 24 » si je prends un 32 » je dois changer ma carte graphique? » :D.

    J'aime

    1. Roh lalala pas évident de rester parfaitement précis dans ses propos! Merci bien, c’est corrigé 😉

      Effectivement la comparaison à la définition la plus basse est logique mais je regrette qu’elle soit considérée comme étant l’unique solution pour comparer deux capteurs. Pour la simple et bonne raison que quand on a 30mpx ou plus on sera tentés de recadrer allègrement avec de découvrir avec déception que le bruit numérique est dégueulasse. Avec 24mpx il m’arrive parfois de rogner jusqu’à 5mpx (je me limite à ne pas descendre en-dessous) pour la photo animalière où la lumière est souvent manquante. Encore heureux que le D750 s’en sorte bien dans ce domaine car je pense que les photographes animaliers ont parfois (souvent ?) recourt à cette manipulation.
      Et puis l’avantage de la comparaison à 100% permet de voir un autre aspect qu’on néglige beaucoup: sur deux photos de nuit à 6400 ISO prises avec le D750 et l’A7s, on peut remarquer que le D750 peine à voir certaines étoiles que l’A7s parvient à déceler facilement.

      À mes yeux les deux comparaisons sont complémentaires et on ne devrait surtout pas se contenter que d’un seul son de cloche.

      Arf, je me débrouille en informatique mais à un niveau de graphiste seulement, je doute d’être à ton niveau. On ne me pose pas beaucoup de questions comme celles-ci, c’est pas plus mal j’ai très peu de patience 😉

      J'aime

      1. C’est pourquoi je précise bien à génération et technologie équivalentes, reprends un D700 et regarde à 100% alors qu’il ne fait que 12MP, à 6400ISO c’est déjà beaucoup plus dégueulasse que le D750 à la même sensibilité et à 100%. Mais voilà, comme tu le dis tu es tenté de recadrer allégrement…parce que tu en as la possibilité. Si tu fais les mêmes photos avec les 2 appareils et que tu estimes que tu dois recadrer pour gagner en composition, tu devrais logiquement estimer que tu devrais les recadrer de la même manière avec les 2 appareils, l’un t’en donne la possibilité l’autre non (ou en tout cas moins) 😉 . Mais il faut admettre que c’est une perversion de l’écran, quelqu’un qui fait habituellement de l’A3 avec 16MP va rarement se mettre à tirer de l’A1 parce qu’il a un 46MP, il en a juste la possibilité, j’ai remarqué que les quelques uns qui impriment beaucoup sont souvent moins exigeants que les autres ^^.
        Mais moi je regrette encore plus que, justement, quand on lit tous les tests de capteurs en général les comparaisons sont faites à 100% sur tous les capteurs quelque soit leur définition, il y en a peu qui comparent à redimensionnement égal et c’est comme ça qu’on en arrive à des « faut que je change toutes mes optiques, celles que j’ai sont inutilisables sur D850 » lol. Pourtant c’est comme tu le dis logique de comparer à portion égale de la photo. J’ai envie de dire que c’est un peu comme quand tu expliques que la 4K est bien pour gagner en qualité en redimensionnant la vidéo en FHD 😉 en fait les « vieux » objectifs gagnent à être utilisés sur des capteurs plus pixelisés, bien sûr qu’on voit plus les défauts à 100%, mais on les voit surtout moins comparé aux 100% d’un moins pixelisé.
        Pour les étoiles je me demande si la dynamique du capteur ne joue pas, le D750 commence à être dépassé par l’A7S justement entre 3200 et 6400ISO, si c’est le cas à 12800 et 25600 ISO le phénomène devrait être encore plus visible alors qu’aux plus basses sensibilités (entre 100 et 400) c’est le D750 qui devrait en voir plus. Mais c’est une théorie, il faudrait tester avec ces réglages dans les mêmes conditions et si possible avec le même objectif.
        Sur les écrans c’est tout simplement que c’est la définition qui demande plus ou moins de travail à la carte graphique, il en faudra une de même puissance avec un FHD de 80cm de diagonale et avec un FHD de 2m, il en faudra même une plus puissante avec un 4K de 50cm ^^, c’est pourquoi il vaut mieux préciser pour ne plus entendre la question précédente, même la « taille native de votre fichier » devrait être remplacé par « définition native » parce que la taille peut aussi se référer au poids du fichier en Mo (suis chiant hein :p en gros à partir du moment où c’est une taille en pixels vaut mieux dire définition). Mais pour le traitement photo ce sera plus ou moins important selon le logiciel, avec LR ou DxO par exemple la carte ne servira qu’à l’affichage des photos donc une pas chère suffira et une plus chère ne changera pas grand chose, sur Capture One ou Dartktable au contraire elle est beaucoup plus utilisée pour la conversion et une bonne carte augmentera sérieusement les perfs.

        J'aime

        1. Pour le D750, cela pourrait être en effet un problème de dynamique mais j’en doute, l’étoile n’est pas cramée non elle n’est pas assez lumineuse pour être bien captée par le 750. Mais je pense que je vais approfondir ce point en détail dès que j’en aurai l’occasion.

          Concernant les cartes graphiques, c’est vrai que leur utilisation reste assez mystérieuse et compliquée à comprendre: suivant l’utilisation et le logiciel utilisé elle peut assister le processeur ou se contenter de simplement afficher ce qu’elle voit. C’est d’ailleurs une chose que je n’ai pas comprise, avec After Effects on manque TOUJOURS de puissance de calcul, de rapidité. Pourquoi ne pas faire travailler la CG pour aider le processeur à aller plus vite ? Mystère… Et Adobe ne semble pas trop préoccupé par le sujet. Après il y a bien CUDA qui semble corriger ce problème mais c’est au-dessus de mes compétences 😀

          En attendant, j’ai une bonne vieille GTX 660 qui doit dater de 2012 (déjà !) et qui supporte largement les 3 écrans (2 écrans de merde pour afficher les ressources et un 1 bon écran de 27″ pour retoucher les images). À l’époque elle m’avait coûté 200€, pas besoin d’y mettre davantage d’argent: la suite adobe se repose essentiellement sur le processeur donc autant tout miser dessus et sur la RAM, le tout avec un bon SSD cela va de soi. 🙂

          J'aime

          1. Oui, si l’étoile n’est pas assez lumineuse elle est donc dans la partie gauche de l’histogramme, si dynamique moins grande elle peut finir trop sombre pour être perçue. J’avais bien réfléchi avant de penser à ça moi aussi en me disant « si c’est ça elle serait cramée » mais en fait non celles qui pourraient être cramées ce sont les plus lumineuses, la preuve quand tu exposes moins longtemps tu as moins d’étoiles 😉 .
            Pour la carte ça dépend du logiciel utilisé, avec les logiciels adobe il y en a peu qui en bénéficieront même si c’est moins pire qu’avant mais ils s’en servent surtout pour la visualisation, une quadro P400 récente à 150€ suffit.

            J'aime

            1. Ah pardon, je pensais que tu croyais que l’étoile était cramée, on s’est mal compris. Effectivement c’est un problème de dynamique dans ce cas, mais ça revient à se dire que dès qu’un élément n’est pas capté par le capteur, c’est à cause de la dynamique. C’est en vrai mais c’est un peu facile comme raccourci 🙂

              Je vais tester à une sensibilité plus basse, mais je pense que c’est juste ce que je disais: le D750 moins sensible en basse-lumière. Je suis par ailleurs sur un futur article très intéressant qui pourrait confirmer cette théorie, s’il voit le jour 🙂

              J'aime

              1. Oui enfin là on parle d’étoiles, c’est pas un élément au hasard c’est un cas précis. Mais tester de visu ne permet pas non plus de déceler les causes alors que des testeurs en labo ont fait le boulot qui montre que sur la sensibilité https://www.dxomark.com/Cameras/Compare/Side-by-side/Nikon-D750-versus-Sony-A7S___975_949 la vraie valeur ISO est effectivement légèrement inférieure sur le D750 de – d’1/3IL à 6400ISO, mais sur la dynamique à 6400ISO on a 1/2IL de différence (sur impression, sur écran on atteint même 1IL). Du coup, toutes les étoiles qui sont entre 0 et un peu moins d’1/3IL (pour faire simple on va dire que le 0 c’est le noir avant bouchage ^^) sont mangées par la différence de sensibilité réelle mais il y en a encore 1/2IL minimum mangées par la dynamique. C’est pourquoi je n’ai pas fait de raccourci et bien préciser « je me demande » et « il faudrait tester » 😉 , notamment aux bas ISO où ça devrait être moins le cas si cette théorie est exacte vu que là la différence de sensibilité réelle n’est pas plus grande alors que la dynamique elle est à l’avantage du D750 même sur écran jusqu’à 400ISO, en revanche aux ISO très hauts l’A7S devrait encore plus faire la différence puisqu’on passe à 1.5 à 2IL de différence avec le D750.

                Aimé par 1 personne

Laisser un commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion /  Changer )

Photo Google+

Vous commentez à l'aide de votre compte Google+. Déconnexion /  Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion /  Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion /  Changer )

w

Connexion à %s