Generic selectors
Exact matches only
Search in title
Search in content
Search in posts
Search in pages

Chargé d’enregistrer l’image formée par l’objectif, le capteur a un impact majeur sur la qualité d’image. Nous avons vu que sa taille est un critère essentiel pour choisir un appareil photo. Mais sa construction, classique, BSI ou empilée, modifie également ses capacités. Et celles-ci ne se limitent pas à la capture d’image : elles jouent sur la stratégie d’exposition, sur l’autofocus…

Structure : CMOS, BSI, empilé (stacked)

Si vous vous intéressez aux appareils photo depuis quelques années, vous avez entendu parler des CCD (Charge Coupled Device). Jadis réputé pour sa qualité, le capteur CCD a été balayé par les progrès des capteurs CMOS (Complementary Metal-Oxyde Semiconductor). La quasi-totalité des capteurs modernes sont des CMOS ; mais ils ne sont pas tout identiques pour autant.

Structure d'un photosite
Schéma d’un photosite de capteur CMOS

Les CMOS reposent sur un principe simple. D’abord, une photodiode reçoit de la lumière, créant une charge électrique proportionnelle. Ensuite, des transistors et des circuits de lecture permettent de lire et de réinitialiser cette charge. Cet ensemble est appelé photosite. En général, chaque photosite donnera un pixel de l’image finale. Au bout de chaque colonne, des convertisseurs numériques permettent de transformer le courant électrique obtenu en valeurs chiffrées. Et bien entendu, divers éléments électroniques contrôlent le fonctionnement du capteur et communiquent avec l’appareil photo.

Schéma d'un capteur CMOS
Schéma général d’un capteur CMOS (24 pixels)

La suite se passe hors du capteur, dans le processeur de l’appareil photo. À partir du flux numérique et d’informations diverses, il crée des données RAW. Selon votre choix, il les enregistre dans un fichier ou il les « développe » : il reconstitue les couleurs, applique une courbe gamma pour obtenir une image plus proche de celle que voit l’œil humain, et crée le fichier JPEG, la trame MP4, ou tout autre format utile. Enfin, le fichier obtenu est envoyé vers le support de stockage, carte mémoire ou sortie USB par exemple.

Première évolution : le CMOS BSI

Les CMOS classiques ont un handicap : la photodiode se situe sous le circuit. Une partie de la lumière est donc réfléchie sans l’atteindre.

Rayons réfléchis sur un CMOS
Sur les CMOS ordinaires, une partie de la lumière rebondit sans arriver aux photodiodes

Afin de résoudre ce problème, les industriels ont ajouté une étape à la fabrication. Ils retournent littéralement le capteur pour le placer sur un autre support, avant de l’affiner jusqu’à ce que les photodiodes affleurent la surface. C’est donc son fond qui reçoit finalement la lumière, d’où le nom BSI (Back Side Illumination).

Processus de fabrication d'un capteur CMOS BSI
La fabrication d’un CMOS BSI est plus complexe

Ainsi, la lumière parvient directement aux photodiodes, sans pertes. Les capteurs CMOS BSI sont donc plus sensibles que leurs cousins traditionnels. La différence est particulièrement visible sur les petits modèles : les compacts et smartphones à CMOS classique peinent à fournir une bonne image à 400 ISO, tandis que ceux à capteur CMOS BSI conservent souvent une qualité correcte à 800, voire 1600 ISO. Sur les capteurs APS-C et Plein format, l’écart est plus faible, mais reste appréciable.

Deuxième évolution : le CMOS empilé (stacked)

Plus récemment, le processus de fabrication a de nouveau évolué : au lieu de prendre place sur un simple support, le CMOS fraîchement retourné s’installe sur une puce électronique. Ainsi, la lecture et le traitement du signal sont séparés des photodiodes. Il devient possible d’utiliser des systèmes plus complexes : chez Sony, c’est tout simplement une mémoire DRAM complète qui est ainsi intégrée au capteur !

Structure d'un capteur CMOS empilé
Un capteur CMOS empilé est un CMOS BSI plaqué non sur un simple support, mais sur une puce électronique

En théorie, les CMOS empilés peuvent avoir des photodiodes un peu plus grosses et donc une meilleure sensibilité. Elles peuvent également stocker une charge électrique légèrement supérieure, et donc moins saturer. Cela se traduit par une meilleure plage dynamique : les hautes lumières seraient plus détaillées. En pratique, la différence de qualité d’image existe, mais elle est plus discrète qu’entre CMOS classiques et CMOS BSI.

Mais les CMOS empilés peuvent stocker des données et les transférer plus tard : cela permet de lire l’ensemble du capteur plusieurs dizaines de fois par seconde. Les rafales sont ainsi ultrarapides, jusqu’à 90 im/s en pleine définition sur le Sony RX100 VII.

Crosstalk, blooming et DTI

Les capteurs aux photosites de très petite taille ont un handicap : un rayon perdu a plus de risques de frapper la photodiode à côté de celle qu’il visait. En outre, lorsque trop de lumière arrive sur la diode, sa charge électrique contamine les diodes voisines — comme le compartiment placé sous le robinet finit par déborder sur le reste du bac à glaçons. Tout cela crée du crosstalk, qui donne une image légèrement floue, et du blooming, où les hautes lumières s’étalent en larges taches blanches dans la photo.

Pour limiter ces problèmes, il faut creuser des « tranchées » isolantes entre les photosites. C’est la DTI (Deep Trench Isolation), particulièrement importante sur les tout petits capteurs de smartphones. Elle n’améliore pas la plage dynamique : une diode qui sature reste saturée, mais elle contamine moins ses voisines. Néanmoins, la sensibilité au crosstalk et au blooming reste une des principales limites des capteurs très denses, ceux des smartphones et des compacts. Les appareils experts, hybrides et reflex sont bien meilleurs.

L’obturation : un balayage plus ou moins rapide…

Les capteurs CMOS n’ont pas besoin d’un obturateur mécanique pour prendre une photo. En effet, dès que l’on réinitialise une photodiode, elle commence à se charger au fur et à mesure qu’elle capte la lumière. À l’écoulement du temps de pose voulu, il ne reste qu’à la lire pour connaître l’éclairage reçu.

Comparaison entre obturateur électronique et mécanique
Comparaison, au même endroit et avec le même temps de pose, entre balayage électronique et obturateur mécanique © Franck Mée

La limite, c’est qu’on ne réinitialise ou ne lit qu’une ligne à la fois. Pour faire une image complète, il faut donc balayer toute la surface du capteur. C’est ce qu’on appelle l’obturateur rotatif (« rolling shutter »). Ainsi, selon le capteur, le bas de l’image peut n’être capturé que 1/30 s plus tard que le haut — même si la vitesse d’obturation est de 1/1000 s.

Ce décalage temporel entraîne une déformation des objets mobiles. Dans le cas d’une rotation simple, les verticales deviennent obliques ; dans le cas d’une vibration, l’image entière semble faite de « jelly ». La situation la plus artistique est sans doute celle des mouvements rotatifs : les hélices d’avions deviennent des boomerangs, voire des bouquets de pales fanées.

Déformation des verticales par un capteur CMOS
En suivant une voiture, un obturateur rotatif déforme l’arrière-plan.

Le balayage prend d’autant plus de temps qu’il faut lire de nombreux photosites : il peut être beaucoup plus rapide en se contentant de 2 MP qu’en prenant l’intégralité d’un capteur de 42 MP. Aussi, en vidéo, il est souvent plus discret en 1080p qu’en 4K. C’est aussi un des avantages majeurs de la mémoire intégrée aux CMOS empilés de Sony (Exmor RS) : même en pleine définition, ils peuvent balayer le capteur très rapidement, réduisant la déformation des sujets mobiles.

L’obturateur global

Pour éliminer totalement la déformation, il faut doter les capteurs d’un obturateur global. Concrètement, il s’agit d’ajouter une mémoire à chaque photosite, afin de stocker sur place le contenu de la photodiode. Une impulsion met en mémoire l’image de l’ensemble du capteur, qu’il n’y a plus qu’à lire classiquement, ligne par ligne. Comme toute l’image a été figée à un instant donné, elle ne souffre d’aucune déformation. Mais cela requiert une électronique plus complexe, qui prend de la place et réduit l’espace disponible pour la photodiode.

Obturateur global vs obturateur à balayage
Comparaison entre l’image prise par un capteur à obturateur global (à gauche) et classique (à droite) © Sony

Les capteurs à obturateur global ont donc souvent une qualité d’image plus limitée. Ce système est très utile dans les productions vidéo haut de gamme et sur les action cam, souvent soumises à d’intenses vibrations ; mais il est moins indiqué pour un appareil photo ou un caméscope généraliste. Le meilleur compromis général est donc sans doute celui des capteurs CMOS empilés de Sony.

La sensibilité ISO : une amplification électronique

Nous l’avons vu, la taille et la structure du capteur jouent sur sa sensibilité naturelle. Plus il est grand, plus il reçoit de lumière ; plus la photodiode est près de la surface, mieux elle capte. Ajoutons qu’une diode en surface saisit mieux les rayons qui n’arrivent pas perpendiculairement, tels que les coins d’une photo au grand-angle. Tout cela explique que, dans l’absolu, les photos issues d’un CMOS empilé souffrent moins de bruit numérique que celles d’un CMOS BSI, elles-mêmes meilleures que celles d’un CMOS traditionnel.

Mais même sur un capteur empilé, en basse lumière, le signal électrique est trop faible pour générer directement une image : il faut l’amplifier. C’est le rôle du réglage de sensibilité du capteur. Le plus souvent, la sensibilité de base, sans amplification, est d’environ 80 à 200 ISO. Lorsque la lumière manque, on augmente le gain électronique à la lecture de la photodiode. Par exemple, si la sensibilité de base est de 200 ISO et que le capteur est réglé pour doubler le signal, le résultat obtenu correspond à 400 ISO.

Mais en amplifiant le signal, il augmente également le bruit. Vaut-il mieux, alors, amplifier au maximum le signal et le lire ensuite, ou lire un signal plus faible et utiliser une correction numérique pour retrouver une exposition correcte ?

Sous-exposer en RAW ?

C’est le choix que font certains fabricants : tel appareil, à 6400 ISO, photographie en fait à 4500 ISO – c’est ce que dit DxO Mark. Ça ne veut pas dire que la photo est plus sombre qu’elle devrait ni qu’il faut augmenter le temps de pose ! C’est juste que le fabricant a estimé qu’il obtiendrait le meilleur résultat en limitant le capteur à 4500 ISO, et en appliquant une « amplification numérique » a posteriori. Pour l’utilisateur, c’est totalement transparent, à moins de vouloir le réaliser soi-même.

Par exemple, photographiez en RAW avec une sous-exposition de 1 IL. Votre image sera trop sombre, mais vous limiterez la saturation des hautes lumières. Si vous photographiez un oiseau, cela permettra de conserver le détail dans le ciel et sur les plumes blanches. Évidemment, le reste sera très sombre. Utilisez donc la correction d’exposition ou la courbe des tonalités dans Darktable, Lightroom ou DxO Lab : vous retrouvez ainsi l’exposition normale, mais votre fichier contient les informations nécessaires pour que les plus hautes lumières restent subtiles et détaillées.

Images exposées normalement, à -1IL et -3IL
L’image sous-exposée de 1 IL permet de retrouver des détails dans la façade. Celle à -3 IL en retrouve à peine plus, mais les ombres deviennent bruitées

Bien entendu, si vous exagérez, ce sont les tons foncés et moyens de votre image qui deviendront extrêmement granuleux. C’est ici que connaître le comportement de votre capteur est important. Certains ont un bruit très faible dans les tons sombres : ils supportent bien cette « amplification numérique ». Photographier à 400 ISO avec -3 IL et appliquer +3 IL sur l’ordinateur donne un résultat visuel proche d’un cliché à 3200 ISO. Sur d’autres capteurs, le bruit dans les ombres est plus important et tout rehaussement logiciel dégrade visiblement la qualité d’image.

Sur des sites comme DP Review, vous trouverez des comparaisons entre une photo prise à la sensibilité normale et une photo délibérément sous-exposée, puis rehaussée dans le logiciel. Vous pourrez ainsi savoir si, dans votre cas, vous devez exposer précisément, ou si vous pouvez retoucher fortement en post-traitement.

La capture des couleurs : Bayer, X-trans et Foveon

Une photodiode crée une charge électrique proportionnelle à la lumière reçue. Elle ne distingue donc pas la couleur : qu’elle reçoive du vert, du bleu ou même… de l’infrarouge, elle réagit de la même manière. Pour obtenir des photos en couleurs, il faut donc séparer les teintes.

Presque tous les capteurs sont couverts d’un filtre anti-infrarouge (IR), qui ne laisse passer que la lumière visible. Pourquoi « presque » ? Parce que dans certaines applications, l’infrarouge est utile. En astronomie, elle révèle les nuages gazeux où naissent les étoiles. En imagerie scientifique, elle fait ressortir la photosynthèse et permet de lire les inscriptions d’un papier brûlé. Un capteur sans filtre IR peut donc servir des fins scientifiques… ou artistiques : il crée un feuillage blanc et un ciel noir surréalistes !

Photographie infrarouge de Pagny-le-Château
Un appareil sans filtre infrarouge, comme le Fujifilm IS Pro, peut donner un rendu surréaliste. © Bertrand Grondin, licence CC

Reste à séparer les couleurs fondamentales, rouge, vert et bleu. Pour cela, des filtres colorés sont placés en matrice sur le capteur : chaque photodiode ne reçoit ainsi plus qu’une couleur. Le processeur de l’appareil (en JPEG ou MPEG) ou de l’ordinateur (en RAW) va ensuite effectuer des calculs pour reconstituer les couleurs manquantes de chaque pixel : c’est le dématriçage.

Sortir de la matrice

La matrice la plus utilisée est celle de Bayer, inventée par Bryce Bayer chez Kodak. Sa structure simple facilite les calculs : par exemple, sur un photosite captant le bleu, il suffit d’étudier les voisins cardinaux pour obtenir des valeurs pour le vert et les voisins diagonaux pour connaître les valeurs de rouge.

Moiré sur le viaduc de Millau
Les capteurs à matrice de Bayer font souvent apparaître du moiré coloré sur les fins détails répétitifs, ici les haubans du viaduc de Millau. © Franck Mée

En revanche, une ligne sur deux n’a aucune information de bleu, et l’autre n’a aucune information de rouge. Si vous photographiez une grille et qu’elle apparaît sur le capteur à des dimensions proches de celles des photosites, des fausses couleurs apparaissent très souvent. C’est le moiré coloré, un problème majeur des capteurs à matrice de Bayer. Détecter et corriger ce moiré est complexe, voire impossible.

Capteur à matrice de Bayer vs capteur Fujifilm X-trans
Capteur à matrice de Bayer (à gauche) et à matrice Fujifilm X-trans (à droite)

Pour limiter ce problème, Fujifilm a créé la matrice X-Trans. Plus complexe que celle de Bayer, elle demande des calculs plus lourds pour reconstituer les couleurs de chaque point de l’image. Mais chaque ligne et chaque colonne captent les trois couleurs ; l’algorithme peut donc mieux reconnaître et traiter les grilles, les tuiles et les autres éléments propices au moiré. Le résultat est une image plus agréable, exempte de bandes colorées aberrantes.

Le cas Foveon

Chez Foveon, l’approche a été plus radicale : le capteur cumule trois couches de photodiodes. Or, la lumière rouge pénètre le silicium plus profondément que la bleue. Ainsi, la couche supérieure capte surtout du bleu, la couche intermédiaire est plus sensible au vert et la couche du fond ne reçoit que du rouge. Comme chaque photosite capte les trois couleurs, il n’y a plus de risque de moiré coloré.

Capteur Foveon x3, à trois couches de photodiodes
Les capteurs Foveon ont trois couches de photodiodes, captant des teintes différentes

Mais cette structure très complexe a aussi ses inconvénients. D’abord, la séparation des couleurs est moins précise qu’avec une matrice de filtres ; la reconstitution de la bonne teinte demande donc des calculs plus complexes. Ensuite, les couches profondes reçoivent extrêmement peu de lumière. Les capteurs Foveon ne peuvent donc pas monter en sensibilité comme les capteurs normaux. Enfin, la présence de trois photodiodes par photosite ralentit la lecture des données, ce qui limite la rafale et interdit la vidéo.

Les appareils Sigma SD et DP, qui utilisent ces capteurs, se destinent donc plutôt à la photographie paysagère et éventuellement urbaine. Mais ils ne filment pas et sont très limités en photo de sport et en basse lumière.

Piqué ou moiré ? Le filtre passe-bas

Nous l’avons vu, le moiré apparaît quand un motif régulier (grille par exemple) parvient sur le capteur à une taille proche de celle des photosites. Il y a donc une autre solution pour l’éliminer : flouter l’image ! C’est le rôle du filtre passe-bas optique (ou filtre AA, pour antialiasing), qui crée un flou d’une dimension très précise afin de contrer le moiré sans trop supprimer les détails.

Encore omniprésent il y a quelques années, le filtre passe-bas semble en voie de disparition. D’une part, la résolution des capteurs actuels rend le moiré plus rare : il n’apparaît qu’avec des détails plus fins qu’avant. D’autre part, sur un capteur de 36 MP ou plus, la résolution est le principal argument ; flouter l’image, aussi légèrement soit-il, va à l’encontre du but recherché. Enfin, les traitements logiciels réduisent eux aussi les problèmes de fausses couleurs. Néanmoins, si vous photographiez souvent de l’architecture urbaine, vous pourriez préférer avoir un filtre passe-bas.

Effet du simulateur de filtre AA sur un Pentax K-1
Détails (zone du carré rouge de l’image originale) de la même scène de rue, photographiée sans et avec le simulateur de filtre AA d’un Pentax K-1 © Franck Mée

Notez que Pentax propose une fonction originale sur ses reflex : faire vibrer le capteur pendant la prise de vue pour obtenir le même flou précisément calibré qu’un filtre passe-bas. Ce « simulateur de filtre AA » peut être activé ou désactivé en fonction des besoins. Il permet de limiter les fausses couleurs sur les motifs problématiques (grilles d’aération, persiennes, tuiles…), au prix d’une très légère diminution du piqué. Utilisez-le pour les scènes de rue comme celle ci-dessus, coupez-le pour les paysages sauvages !

Autofocus : la corrélation de phase intégrée

Saisir l’image est la fonction première des capteurs. Mais, contrairement aux pellicules, elle n’est plus leur fonction unique : ils font également partie du système autofocus.

Longtemps, il s’agissait de lire les images du capteur, puis de les analyser pour mesurer la netteté des détails. C’est l’autofocus par détection de contraste, utilisé depuis la naissance du numérique. Du point de vue du capteur, ça n’est guère différent d’un enregistrement vidéo.

Plus récemment, afin de pouvoir concurrencer les reflex, les hybrides ont adopté l’autofocus par corrélation de phase. Celui-ci a un avantage majeur : il ne mesure plus la netteté, mais le décalage de mise au point. Il sait donc dans quel sens il faut agir et si la correction doit être fine ou importante.

Stigmomètre dans un viseur reflex
Mise au point manuelle à l’aide d’un stigmomètre. La corrélation de phase repose sur le même principe © Franck Mée

Si vous avez connu les reflex à mise au point manuelle, pensez-y ainsi : la détection de contraste, c’est regarder l’ensemble du verre dépoli et tourner la bague de mise au point jusqu’à ce que l’image soit nette. La corrélation de phase, c’est utiliser le stigmomètre — les deux demi-lunes au centre du viseur, qui s’alignent lorsque le point est bon.

L’inconvénient de la corrélation de phase

Mais la corrélation de phase nécessite une modification physique du capteur, en plaçant des masques pour occulter un demi-photosite. Ainsi, celui-ci devient aveugle à cette direction. En comparant ce que voient des photosites qui regardent des directions opposées, on peut connaître le décalage de la mise au point. Et comme dans un stigmomètre, lorsque les deux côtés voient la même chose, l’image est nette.

Bien entendu, masquer la moitié d’un photosite signifie qu’il va capter moitié moins de lumière. Trop de détecteurs de phase, c’est un capteur moins sensible. Il faut donc trouver un équilibre entre la souplesse de la corrélation de phase et la qualité d’image.

Le Dual Pixel AF : l’arme ultime ?

Canon a trouvé une solution radicale avec son Dual Pixel Autofocus (DPAF) : tous les photosites sont divisés en deux, avec une photodiode gauche et une photodiode droite. Chacune observe donc de côté. Le système autofocus peut ainsi comparer les phases à n’importe quel endroit du capteur. Lors de la prise de vue, les signaux des deux photodiodes de chaque photosite sont combinés pour capturer un cliché normal.

Principe du Dual Pixel Autofocus
Le Dual Pixel Autofocus de Canon fait de chaque photosite un détecteur de phase © Canon

Extrêmement efficace, ce système a un handicap : les photodiodes sont deux fois plus petites que sur un capteur normal. Aussi, de manière générale, les appareils dotés du DPAF sont un peu moins sensibles et saturent un peu plus vite que les autres. Cela se traduit par un grain plus présent en basse lumière et une moins bonne gestion des scènes fortement contrastées.

Un composant essentiel

Au temps de la pellicule, celle-ci ne faisait qu’une chose : elle capturait et stockait l’image. Il était facile d’en changer, et nombre de photographes passaient d’un film à un autre en fonction des besoins du jour. De même, le capteur joue sur les images obtenues : leur granularité, leur dynamique, leur colorimétrie, mais aussi les possibilités de post-traitement en dépendent. Dans le domaine de la qualité d’image au sens large, les capteurs CMOS empilés sont sans doute les meilleurs et les plus souples actuellement disponibles.

Mais certaines technologies, comme le Foveon et le DPAF, apportent des particularités non seulement aux clichés, mais aussi à l’appareil lui-même. Le comportement du capteur, sa capacité à amplifier lui-même l’image ou à fournir un signal propice au post-traitement, les données fournies à l’autofocus ou à l’exposition… La pellicule était installée dans le boîtier pour faire des photos ; le capteur, lui, fait intégralement partie de l’appareil, avec lequel il échange des informations en permanence.

Aussi, au-delà de votre boîtier, bien connaître les caractéristiques de son capteur peut vous aider à savoir ce que vous pourrez photographier ou filmer facilement, et comment obtenir le meilleur résultat.

Avatar de Franck Mée
Auteur

Traducteur, journaliste, pilote privé. Passionné de photo et de cinéma, docteur en binge-watching, mais surtout fasciné par tout ce qui vole, du martinet au Boeing 747. Considère qu'un 200 mm, c'est un grand-angle.

Écrire un commentaire

Retour en haut