🔭 Amateurs / Experts

Mis à jour le 26 novembre 2025

Comment fonctionne un capteur numérique ?

Comment une simple surface de quelques millimètres peut-elle capturer des galaxies situées à des millions d’années-lumière ? Derrière chaque image astronomique se cache un élément clé : le capteur numérique. C’est lui qui transforme la lumière en signal exploitable. Dans cet article, nous allons expliquer comment il fonctionne, afin de mieux comprendre ce qui influence réellement la qualité de vos images.

oculaires_televue_guide

Le but d’une caméra astronomique est d’imager les objets du ciel : Soleil, Lune, planètes et des galaxies/nébuleuses très peu lumineux en raison de leur distance très élevée. Parfois ces objets lointains sont à peine plus lumineux que le ciel noir en fond, il faut donc poser longtemps pour qu’assez de photons, après la traversée de votre lunette ou télescope, rencontrent le capteur de notre caméra.

Mais la luminosité/brillance de l’image finale n’est pas le seul facteur à prendre en compte… elle se compare par rapport à plusieurs signaux/bruits parasites.

Notion de rapport signal sur bruit

Ainsi si votre image est lumineuse mais comporte beaucoup de bruits le rendu ne sera pas plus beau/flatteur qu’une image pourtant moins lumineuse mais peu bruitée. On parle alors de rapport signal/bruit (ou SNR : « signal-to-noise ratio »). Tout le défi d’une belle image astronomique consistera donc à augmenter, au maximum, le signal « utile » tout en réduisant les signaux « inutiles ».

Il est important de distinguer les signaux parasites : les darks (signal) thermique, flats (plage de lumière uniforme, offset…) que l’on va soustraire de l’image de base (prétraitement) pour la rendre plus propre (nettoyage « cosmétique ») et le bruit qu’on retrouve dans chaque type d’image qui est par définition aléatoire.

Le bruit se « réduit» uniquement par l’assemblage de plusieurs clichés. Une image prétraitée comporte par définition un peu plus de bruit qu’une image brute, mais elle reste plus pertinente car elle présente un minimum de signaux inutiles.

★  Règle n°1

En astrophotographie le plus important est de poser longtemps… le plus possible même ! En effet plus le temps de pose total est important, plus la quantité de signal reçue va être importante. Le principe des caméras numériques est de convertir les photons (« onde / particule » de lumière) d’une étoile, nébuleuse ou galaxie, en électrons grâce à l’effet photo-électrique (dont l’explication offrira son seul prix Nobel à Albert Einstein en 1921).

comparaison_poses_multipless_astrophotographie

Légende : Plusieurs images avec des niveaux de bruits différents - Copyright @Nicolas Wintersdorff de notre équipe

Plus le nombre d’électrons (arrachés des couches de silicium de chaque photosite d’un capteur) est élevé plus le courant électrique généré augmente et plus le pixel (correspondant sur votre écran) sera considéré comme lumineux.

La tension électrique produite par chaque photosite (qu’on appelle abusivement « pixel » de la caméra) est convertie en code binaire via un convertisseur analogique-numérique (ADC en anglais) intégré au capteur. 

On exprime souvent la quantité de lumière reçue par un photosite en ADU (Analog to Digital Unit). Souvent les caméras actuelles utilisent ce codage en 14 ou 16 bits soit 2^14=16384 ou 2^16= 65536 niveaux de gris différents. Plus ce chiffre est élevé plus la caméra sera capable de distinguer de fines différences de luminosité sur l’objet que vous photographiez.

jupiter_filtre_bonnevie

Légende : Echelle de gris jusqu'à 12 bits

NB : Au-delà de 10 bits l’intérêt est limité et les distinctions sont faibles. En planétaire on conseille même de travailler en 8/10 bits plutôt qu’en 12 pour augmenter la cadence d’images et figer encore mieux la turbulence. Une image codée en 256 niveaux de gris (8 bits) est transférée plus rapidement que la même en 4096 (12 bits).

LE SAVIEZ-VOUS ?

Les satellites espions du programme CORONA (1959-72) utilisaient des pellicules argentiques. Après exposition sur sa cible la pellicule était renvoyée sur Terre dans une capsule dotée d'un parachute, récupéré en plein vol par des avions militaires spécialement équipés. Une logistique impressionnante qui montre que la transmission instantanée d'images numériques est aujourd’hui un luxe technologique.

Sensibilité et rendement quantique

Le capteur numérique est l’élément qui a permis à la photographie astronomique de faire un bond en avant spectaculaire à partir des années 90. En effet la sensibilité des films argentiques est très faible comparativement aux capteurs numériques.

On utilise le rendement quantique (QE) pour qualifier la sensibilité d’un capteur : c’est le nombre de photons convertis en électrons et donc détectables par l’électronique de la caméra.

Le taux de conversion idéal (et donc inatteignable) est de 100%... les capteurs actuels peuvent, suivant la longueur d’onde des photons, dépasser 90% ! Le film argentique atteignait péniblement 0.4%... et quelques % avec l’hypersensibilisation (au niveau de l’œil humain).

Le choix de votre caméra dépendra donc en partie de ce facteur : un rendement quantique élevé (en H-Alpha en particulier, à 656.6 nanomètres, zone spectrale où les nébuleuses sont les plus lumineuses).

rendement_quantique_zwo_asi2600MMpro

Légende : Rendement quantique d’une caméra ZWO ASI2600MM (monochrome) en fonction de la longue d’onde.

La sensibilité de l’œil humain se situe en 380 et 780nm

★  FSI ou BSI ?

Pour atteindre des niveaux de sensibilité aussi élevés la technologie des capteurs a évolué. On distingue plusieurs types de capteurs : Front Side Illuminated – FSI (Illumination par l’avant) et Back Side Illuminated (Retro Eclairé).

Historiquement, il a été plus facile de placer les circuits et câblages électroniques entre la couche photosensible et le rayonnement… ce qui conduit à des pertes de sensibilité (FSI). La technologie BSI est plus chère à fabriquer mais tend à se démocratiser et offre des gains spectaculaires à plus de 95% de QE sur certains capteurs.

coupe_photosite

Légende : Vue en coupe d’un photosite suivant la technologie FSI ou BSI

★  Capteur couleur ou monochrome ?

Comme la sensibilité est importante dans le choix d’un capteur, la question d’un capteur couleur ou monochrome se pose. Idéalement et sans autre considération que l’efficacité maximale pour obtenir l’image la plus lumineuse possible le capteur monochrome est le plus pertinent.

En effet ce type de capteur ne dispose pas de microfiltres bloquant la lumière suivant la longueur d’onde. Les capteurs couleurs utilisés en astrophotographie disposent de ce qu’on appelle une matrice de Bayer, un agencement spécifique de filtres placés avant la couche photosensible du capteur.

filtres_colores_jaunes

Légende : Matrice de Bayer – Sur 4 photosites on retrouve le même agencement : 2 filtres verts / 1 filtre rouge / 1 filtre bleu

Licence Creative Commons - Auteur : Interiot

On comprend que de l’information est facilement perdue, par exemple si un photon « rouge » arrive sur un photosite recouvert d’un filtre bleu… il ne sera pas vu par le capteur. Un capteur couleur offre à la fois une moindre sensibilité et une moins bonne résolution qu’un capteur monochrome. Mais ce désavantage est compensé par une facilité et un confort d’utilisation très appréciable.

En effet nul besoin pour obtenir une image couleur… de poser comme un capteur monochrome dans chaque couleur pour restituer une image finale colorisée. En une pose unique on obtient directement une image couleur…. quand il en faut 3 avec un capteur monochrome (voir 4 si on utilise la technique LRVB – « Luminance + Rouge + Vert + Bleu ». 

Les temps de pose sont donc considérablement rallongés avec un capteur monochrome ; il faut de plus rajouter le temps de traitement informatique qui consiste à traiter chaque couche puis à les combiner.

Notre conseil : Les capteurs couleurs ont fait d’énormes progrès et sont tellement pratiques à utiliser qu’ils conviennent à la plupart des astrophotographes.

Si cependant vous cherchez l’efficacité optimale, les capteurs monochromes sont les plus adaptés à l’astrophotographie. D’autant plus si la contrainte du temps d’acquisition et du traitement n’est pas un frein… et que vous disposez d’un ciel d’excellente qualité (faible pollution lumineuse et turbulences atmosphériques faibles). Ils sont aussi plus performants si vous utilisez des filtres interférentiels type H-Alpha, SII, OIII avec une bande passante très fine de 3nm, 4.5nm ou 7nm.

KODAK ET L'AUTO-SABOTAGE :

La matrice de Bayer, utilisée dans la majorité des capteurs couleur, a été brevetée en 1976 par Bryce Bayer, ingénieur chez Kodak. En 1975, un autre ingénieur de la firme, Steve Sasson, développait déjà le premier appareil photo numérique. Ironiquement, Kodak — leader mondial de la pellicule — a contribué aux bases du numérique, sans réussir à prendre le virage à temps face à ses concurrents.

Capacité du puits de potentiel (FWC) et saturation

Une caméra se comporte comme notre œil (et notre paupière) en captant de la lumière lorsque son obturateur (mécanique ou électronique suivant la technologie CCD/CMOS) est ouvert. Il existe donc un temps de pose minimal (la caméra ne peut aller plus vite entre l’ouverture et la fermeture de l’obturateur).

Le temps de pose maximal peut être de plusieurs minutes voir sans limite. Cependant il est rarement atteint en raison de la saturation des photosites. En effet en laissant l’obturateur ouvert les photons suivant la luminosité de l’objet (et encore plus dans le cas d’une étoile brillante) vont plus ou moins rapidement remplir le photosite… comme un puits qui déborderait.

On appelle cette caractéristique la « Full Well Capacity ». Plus elle est grande plus le photosite pourra emmagasiner d’électrons et donc détecter des photons. Lorsqu’elle est atteinte le photosite arrive à saturation… la linéarité est rompue… malgré l’augmentation du temps de pose vous n’obtenez plus de nouveaux photons (et donc d’information utile).

anatonie_capteur_CMOS

Légende : Vue en coupe d’un photosite d’un capteur à pixels actifs (CMOS) - Droit d'auteur : Evident

Dans le cas des premières générations de capteurs dit CCD (pour « Charge Coupled Device » - Dispositif à transfert de charge), cette saturation créé un débordement disgracieux sur les pixels voisins. Une étoile trop brillante prenait plus de place que prévu… et pouvait déborder sur une grande partie d’une colonne de pixels (effet dit de « blooming » et « smearing »).

Malgré des dispositifs anti-blooming, l’une des solutions passent par l’utilisation d’une technologie complétement différente, les capteurs CMOS (pour « Complementary Metal-Oxide-Semiconductor ») désormais dominants sur le marché.

Les capteurs CMOS disposent d’un convertisseur analogique-numérique pour chaque photosite contrairement aux capteurs CCD qui n’en disposent que d’un seul pour tout le capteur. La surface photosensible est donc plus petite que sur un capteur CCD… mais au prix de nombreux avantages :

  • Conversion directe de la charge sans transfert
  • Pas d'horloges complexes comme sur les CCD
  • Production de masse à bas coût
  • Faible consommation électrique (100 x moins que les CCD)
  • Cadence de lecture élevée

Pour revenir à la Full Well Capacity (FWC) elle est globalement proportionnelle à la taille d’un photosite. Plus la surface d’un photosite sera grande (sur les capteurs CCD), plus il pourra contenir de photons entrainant une plus grande dynamique de vos images.

Sur les CMOS les diverses technologies employées conduisent à des FWC différentes à surface de photosite égale. Il faut bien vérifier la FWC pour le capteur qui vous intéresse. Veillez à éviter d’atteindre cette limite : adaptez vos temps de poses unitaires pour ne pas arriver à la saturation de votre capteur.

donnees_electroniques_2600mc-pro

Légende : Données électroniques d’une caméra ZWO ASI2600MM-Pro

Plage dynamique (dB)

Une donnée pas toujours prise en compte lors du choix d’un capteur… sa plage dynamique qui indique la capacité d'une caméra à enregistrer simultanément des signaux lumineux très faibles et très lumineux. Elle se mesure par le rapport entre la FWC (définit plus haut) et le bruit de lecture (« Read noise » que nous décrivons plus bas).

L’unité de mesure est le décibel et s’obtient par le calcul suivant : dB = 20*log (FWC / Read noise). C’est elle qui va déterminer la valeur du convertisseur analogique-numérique (ADC) en 12, 14 ou 16 bits. Voici quelques exemples pour des capteurs courants :

Bruit de lecture (Read noise e- rms)

C’est l’une des valeurs les plus importantes à prendre en compte lors de l’achat d’une caméra… son bruit de lecture, un nombre d’électrons émis aléatoirement quel que soit le temps d’exposition. Il est induit par l'électronique de lecture (préamplificateur de sortie principalement) et le capteur lui-même

Il se réduit en augmentant le nombre de pose (le bruit évolue à la racine carrée quand on empile des images). Par conséquent, plus on pose et plus le signal du ciel se détache du bruit de lecture.

En réalisant une image au temps de pose minimal de la caméra (nommée « offset » ou « bias »), dans le noir complet (télescope fermé, la caméra ne recevant aucun signal) on cartographie le signal minimal qu’émet chaque pixel. On soustrait ensuite cette image à chaque image brute (ainsi que les darks et flats).

Légende : Evolution du signal et du bruit suivant le nombre d’images empilées.

Le rapport signal-sur-bruit est symbolisé par l’espace entre les 2 courbes.

L’indication RMS (Root Mean Square – Racine carrée de la Moyenne des Carrés) indique une sorte de valeur « moyenne » de la quantité d’électrons. Ce nombre n’est en effet jamais fixe chez un fabricant sur tous ses capteurs et même pour chaque pixel.

Autre point important le bruit de lecture varie avec le gain (décrit ci-dessous), cependant augmenter le gain réduit* la Full Well Capacity alors que le bruit de lecture finit par stagner. Donc la plage dynamique (résultante de ces 2 valeurs) finit par diminuer aussi, ce qui n’est pas le but recherché en astrophotographie. On distinguera moins les différences entre les zones les plus et les moins lumineuses. 

* Plus exactement c’est la dynamique de l’amplificateur que l’on réduit avec un bruit de lecture qui varie bien moins vite.

Gain

C’est une amplification du signal reçu, qui permet de « booster » le signal (à travers la tension) et d’obtenir une image plus lumineuse très utile dans les conditions de faible luminosité comme l’astrophotographie. 

On travaille donc rarement à un gain proche de 0 car même si la plage dynamique y est la plus importante… l’image finale n’est pas assez lumineuse (malgré un contraste optimal). Il faut alors poser plus longtemps qu’avec un gain plus élevé.

donnees_electroniques_2600mc-pro

Légende : Données électroniques d’une caméra ZWO ASI2600MM-Pro

La chute rapide du bruit de lecture qui survient à gain 100 est déclenchée par le boost d'amplification.

Passage en mode HCG (High Conversion Gain) développé sur certains capteurs Sony

A contrario un gain trop grand réduit la dynamique de l’amplificateur. La plage dynamique au final diminue ce qu’on tente d’éviter en imagerie du ciel profond. En planétaire le raisonnement est différent et on monte souvent le gain pour acquérir un maximum de signal et utiliser des poses les plus courtes possibles avec une haute fréquence de prises de vue pour figer au maximum la turbulence.

Souvent on cherchera un compromis où le gain en décibel générera un GAIN proche de 1 (e-/ADU = nombre d’électrons nécessaire pour augmenter la valeur de gris de 1). Sur certaines caméras le mode HCG (High Conversion Gain) est disponible… il provoque une chute importante du bruit de lecture malgré la hausse gain, ce qui permet de retrouver une plus grande dynamique, on travaille alors juste au-dessus de ce niveau.

Bruit, signal thermique et refroidissement

Afin d’améliorer votre rapport signal sur bruit il faut diminuer un autre signal parasite, important surtout en imagerie longue pose : le signal thermique. Les électrons présents dans chaque photosite s’agitent à mesure que la température et le temps de pose augmentent (qu'on mesure à travers le courant d'obscurité).

Légende : Courant d’obscurité en électrons par seconde par pixel en fonction de la température sur une caméra ZWO 533MC-Pro

Source : ZWO

Comme en imagerie planétaire les temps de pose sont très courts… le capteur n’a pas le temps de trop chauffer, le refroidissement n’est donc pas indispensable. En imagerie du ciel profond cependant les temps de poses unitaires peuvent atteindre plusieurs secondes ou minutes ce qui oblige à disposer d’un refroidissement.

C’est une des explications du coût plus élevé des caméras pour le ciel profond, un refroidissement par air (module à effet Peltier) en plus de la taille du capteur souvent plus grande.

Chaque pixel est différent… certains sont même considérés comme « morts » inactifs quelque soit l’intensité lumineuse reçue, d’autres « chauds », systématiquement activés ou largement au-dessus de la moyenne. Il faut donc réaliser une cartographie du capteur à temps de pose fixe et à une température donnée. 

Cette image est appelée un dark (image sans signal reçu de l’extérieur). Il est conseillé de faire une bibliothèque à différent temps de pose et différentes températures… soit avant votre séance d’imagerie… soit le jour même. On retire ensuite ce signal parasite à notre image brute.

★  Exemple de caméra accessible, refroidie pour démarrer en imagerie :

Caméra refroidie couleurs ZWO ASI533MC-P

Caméra haute performance pour le ciel profond et le visuel assisté

  • Capteur CMOS couleur IMX533 (9 Millions de pixels)
  • Taille pixel : 3.76µ
  • Résolution : 3008 x 3008px / 11.31mm x 11.31mm
  • Surface : 127.91mm²
  • Refroidissement intégré pour l'imagerie longue pose
  • Entrée coulant 50.8mm ou filetage M42 femelle
  • Cette caméra nécessite une alimentation 11-15v pour fonctionner

LE SAVIEZ-VOUS ?

Les capteurs des grands observatoires et télescopes spatiaux sont refroidis à des températures extrêmes grâce à des systèmes cryogéniques avancés. Sur le James Webb Telescope, certains instruments fonctionnent même jusqu’à –266°C ! (instrument MIRI en infrarouge moyen). Le bruit thermique est alors quasi nul — et chaque photon venu du fond de l'univers a toutes les chances d'être détecté.

Calibration et prétraitement

Du bruit de lecture dépend l'offset, du bruit thermique dépendent les darks. Ces bruits sont propres au capteur et à l'électronique de la caméra. Cependant pour obtenir une image de calibration (une image brute avec un minimum de bruit) il faut cependant retirer une autre source d'erreurs parasites sur une image... les poussières sur le trajet optique.

Même avec le meilleur entretien/nettoyage, l'astrophotographie ne se pratiquant pas dans une chambre sous vide (mais en extérieur), des tâches apparaîtront sur l'image finale. Les poussières se déposent malheureusement partout : lentilles, miroirs, correcteurs... et sur la vitre du capteur).

Les plus proches du foyer sont les plus visibles, mais on peut atténuer leur effet à l'aide d'un flat. Une image en pleine lumière (uniforme) d'un écran éclairé (ou d'un mur) permet de cartographier les zones moins lumineuses à cause de ces tâches. On applique alors la formule suivante (pour chaque image) : 

Image prétraitée = (Image brute - Dark - Offset) / Flat

Exemple d'images de calibration d'une caméra ZWO

Légende : Offset : Temps de pose minimal de la caméra - le capteur produit un signal même sans source lumineuse

Dark : Temps de pose à la même température et durée qu'une pose unitaire) - effet AmpGlow sur le cote droit

Flat : Instrument et caméra totalement éclairé pour voir les défauts sur le trajet optique - poussières/vignettage

Comparatif avec et sans prétraitement sur la nébuleuse du Croissant NGC 6888

Légende : A gauche - 9 images brutes empilées (sans prétraitement)

A droite - 9 images empilées (avec prétraitement)

Nous reviendrons prochainement sur le prétraitement à travers un article complet dédié. Si vous souhaitez vous lancer dans l'astrophotographie nous vous conseillons fortement de lire "la bible" sur le sujet de, l'astrophotographe français mondialement reconnu, Thierry Legault.

En résumé

Un capteur numérique ne se choisit pas sur sa seule résolution, nombre de pixels. Derrière chaque belle image du ciel profond se cache un ensemble de paramètres qu'il faut apprendre à maîtriser :

L’effet photo-électrique est le cœur du système : il transforme la lumière reçue en charges électriques.

📷 Le capteur ne voit qu'en noir et blanc : la couleur est obtenue par l’ajout d’une matrice de filtres (Bayer).

💡 Le rendement quantique définit l'efficacité du capteur à capturer les photons.

La conversion Analogique-Numérique transforme les tensions électriques en valeurs binaires exploitables.

❄️ Les bruits thermique et de lecture sont les ennemis jurés du signal, d'où l'importance de temps de pose long et du refroidissement.

Besoin d'un conseil ? Nos experts vous répondent :

au téléphone, par mail et en magasin

FAQ

Car d’autres bruits/perturbations entrent en compte. Par exemple vous avez plus de chance de capturer le passage d’un ou plusieurs avions ou satellites sur 1h de pose continu… qu’en série de 2min. Or ce type de longues trainées sur l’image va être délicat à enlever au traitement. Il faut donc segmenter à quelques minutes vos poses unitaires puis les analyser individuellement et enlever celles qui contiennent trop de trainées.

.

On peut aussi nommer les rayons cosmiques qui activent faussement un groupe de pixels et tout simplement les nuages. De plus la mécanique des montures n’est pas parfaite, un suivi trop long va entraîner des imprécisions, il faut aussi que la mise en station soit parfaite. 

L’intérêt du binning est de regrouper des pixels voisins (exemple du binning 2x2 pour former un seul « gros » pixel) pour augmenter le rapport signal sur bruit (SNR). Sur un capteur CCD, on le lit 1 seule fois après le regroupement. Le bruit de lecture sera donc le même pour 1 ou 4 pixels. Comme le signal est augmenté par 4 (par addition des 4 pixels), le SNR est de 4/1 soit 4 fois plus grand. Sur un capteur CMOS, la lecture des charges se fait dans la structure des pixels avant le regroupement des charges. Chaque pixel génère son propre bruit de lecture.

.

En réduisant le nombre de pixels on augmente la taille du « nouveau » superpixel et donc l’échantillonnage et la luminosité (somme des 4 signaux), mais peu notre crucial SNR. Avec un CMOS le binning software permet d’augmenter le rapport SNR en racine carrée du nombre de pixels « binnés » (binning 2x2 software : gain 2x seulement). On peut faire un binning logiciel avec un CMOS mais ce n’est pas aussi performant, et donc pertinent que du « vrai » binning CCD.

C'est l'adéquation entre la taille de vos pixels et la focale de votre instrument. Un mauvais mariage donne soit une image en manque de résolution dans la cas d'un sous-échantillonnage. Nous en parlons en détails sur l'article sur les caméras pour le ciel profond.

Les capteurs d'origine des APN (appareil photo numérique) bloquent environ 75% de la lumière rouge (zone de forte sensibilité des capteurs et moins de l'oeil humain). Le défiltrage consiste à retirer un filtre posé devant le capteur des APN pour laisser passer toute la lumière des nébuleuses (souvent émettrice en H-Alpha). Notre collègue Richard Galli effectue cette opération délicate à travers sa société EOSforAstro.

Il consiste à décaler légèrement le pointage entre chaque pose unitaire, de quelques pixels de manière aléatoire. Cette technique permet d'éviter que le bruit de pattern (bruit fixe, récurrent d'une image à l'autre) ne se cumule lors de l'empilement. Résultat : un fond de ciel plus propre et homogène après empilement, avec moins de structures régulières parasites.

Partager ce contenu

Veuillez vous connecter pour noter cet article

Ajouter un commentaire

Img Back to Top