Électronique d'Imagerie 101 : Résolution de la Caméra pour une Amélioration de la Performance du Système d'Imagerie
La résolution et le contraste de la caméra jouent un rôle essentiel à la fois dans l'optique et l'électronique d'un système d'imagerie. Bien que la résolution et le contraste de la caméra puissent ressembler aux paramètres optiques, le nombre et la taille de pixels, les lignes TV, la caméra MTF, la limite de Nyquist, la profondeur/le niveau de gris du pixel, la plage dynamique, et le rapport signal sur bruit, contribuent à la qualité qu'un utilisateur tente de reproduire. Grâce à des conseils techniques sur chaque paramètre important, les utilisateurs d'imagerie, peuvent, qu'ils soient novices ou experts, en apprendre davantage sur la résolution de la caméra, étant donné que cela se rapporte à l'électronique d'imagerie d'un système.
NOMBRE ET TAILLE DE PIXELS
Pour comprendre le nombre et la taille des pixels d'une caméra, veuillez examiner la gamme de caméras F-145 FireWire Allied Vision Stingray. Chaque F-145 contient un capteur Sony ICX285 de 1392 x 1040 pixels (horizontal x vertical) sur un capteur de 9,0 mm x 6,7 mm. Si l'on imagine que le champ de vision est un rectangle divisé en carrés de 1392 x 1040 (Figure 1), alors le plus petit détail résolvable, est égal à deux de ces carrés, ou pixels (Figure 2). Le Conseil Technique
n° 1 est le suivant : Plus il existe de pixels dans un champ de vision (FOV), meilleure est la résolution. Cependant, un grand nombre de pixels nécessite un capteur plus grand ou des pixels individuels de taille plus petite. Cela nous amène au Conseil Technique n° 2 : L'utilisation d'un capteur plus grand pour atteindre plus de pixels signifie que le grossissement de l'objectif d'imagerie et/ou du champ de vision, sera modifié. Inversement, si des pixels plus petits sont utilisés, l'objectif d'imagerie peut ne pas être en mesure de conserver la résolution du système, en raison de la réponse en fréquence spatiale finie de l'optique, principalement causée par des problèmes de conception ou la limite de diffraction de l'ouverture.
Le nombre de pixels affecte également la vitesse de défilement de la caméra. Par exemple, chaque pixel comprend 8 bits d'informations qui doivent être transférés dans la reconstruction de l'image. Le Conseil Technique n° 3 est : Plus un capteur comporte de pixels, plus la résolution de la caméra sera élevée, mais plus elle abaissera la vitesse de défilement. Si des vitesses de défilement élevées et une haute résolution (par ex. de nombreux pixels) sont toutes deux nécessaires, alors le prix du système et la complexité de la configuration augmenteront rapidement, souvent à un taux qui n'est pas nécessairement proportionnel au nombre de pixels.
Figure 1: Illustration de Pixels sur un Capteur de Caméra
Figure 2: Paire de Pixels Non résolues (a) et Résolues (b)
LIGNES TV
Avec les caméras CCD analogiques, la spécification de la ligne TV (TVL) est souvent utilisée pour évaluer la résolution. La spécification de la TVL s'avère être une unité de résolution basée sur une cible bar avec des lignes comportant le même espacement. Si la cible est prolongée de manière à couvrir le champ de vision, le nombre de TVL est calculé en additionnant toutes les lignes et espaces qui en résultent. Les équations 1 et 2 fournissent des calculs simples permettant de déterminer la TVL horizontale (H) et verticale (V). L'équation 1 comprend un facteur de normalisation qui est nécessaire pour constituer le format 4:3 de l'image d'un capteur. La Figure 3 montre une cible de test approuvée par EEE et permettant de mesurer les lignes TV (couches d'atténuation) d'un système.
Figure 3: Cible approuvée IEEE permettant de mesurer les lignes TV (couches d'atténuation)
FONCTION DE TRANSFERT DE MODULATION (MTF)
Le moyen le plus efficace pour spécifier la résolution d'une caméra est sa fonction de transfert de modulation (MTF). La MTF est un moyen d'intégrer du contraste et de la résolution en vue de déterminer la performance globale d'un capteur. Une propriété utile de la MTF est sa propriété multiplicative des fonctions de transfert. La MTF de chaque composant (objectif d'imagerie, capteur de caméra, affichage, etc.) peut être multipliée pour obtenir la réponse globale du système (Figure 4).
Figure 4: La MTF du Système est le Produit de la MTF de Chaque Composant
TLa MTF prend en compte non seulement la résolution spatiale du nombre de pixels par mm, mais aussi la sortie qui se produit à des fréquences spatiales élevées en raison de la diaphonie entre les pixels et des facteurs de remplissage finis. Le Conseil Technique n° 4 est : Il n'est pas exact qu'un capteur offrira un contraste de 100 % à une fréquence spatiale égale à l'inverse de sa taille en pixels. Pour une discussion complète sur la MTF et son importance, lire la documentation sur la Fonction de Transfert de Modulation.
LIMITE DE NYQUIST
La résolution limite absolue d'un capteur est déterminée par sa limite de Nyquist. Elle se définit comme étant la moitié de la fréquence d'échantillonnage donnée en nombre de pixels/mm (Équation 3). Par exemple, le Sony ICX285 est un capteur CCD monochrome avec une surface horizontale active de 9 mm, contenant 1392 pixels horizontaux disposant tous d'une taille de 6,45 μm. Cela représente une fréquence d'échantillonnage horizontale de 155 pixels/mm (1392 pixels/9 mm = 1mm/0,00645 mm/pixel = 155). Sa limite de Nyquist se calcule alors à 77,5 lp/mm. Gardez à l'esprit qu'il existe des méthodes de traitement de l'image, tels que l'échantillonnage de sous-pixels, qui permettent à un utilisateur d'extrapoler statistiquement une résolution supérieure à la limite de Nyquist, dans le cas particulier des bords et d'autres figures géométriquement simples. A la limite de Nyquist, le contraste dépend de la phase d'une onde incidente constante carrée (imaginez un pixel éclairé et un non allumé, ou alors un pixel entre ces deux états). Il est donc courant d'inclure le facteur de Kell (∼0,7), qui reflète la déviation de la réponse en fréquence réelle depuis la fréquence de Nyquist. Plus important encore, le facteur de Kell compense l'espace entre les pixels. Le Conseil Technique n° 5 est : À des fréquences spatiales supérieures à la limite de Nyquist du système, l'échantillonnage peut créer des signaux parasites et des effets de repliement qui sont indésirables et inévitables.
PROFONDEUR/NIVEAU DE GRIS DU PIXEL
Souvent appelé un niveau de gris ou, (moins précis) la plage dynamique d'une caméra CCD, la profondeur de pixel représente le nombre de mesures de gris d'une image. La profondeur de pixel est étroitement liée à la quantité minimale de contraste détectable par un capteur. Dans les caméras analogiques, le signal est une tension variable dans le temps, proportionnelle à l'intensité de la lumière incidente sur le capteur, spécifiée en dessous du point de saturation. Une fois la numérisation effectuée, cette tension continue est effectivement divisée en niveaux distincts, dont chacun correspond à une valeur numérique. à une unité de gain, la lumière qui a une saturation du pixel de 100 %, obtiendra une valeur de 2N-1, où N est le nombre de bits. L'absence de lumière donnera une valeur de 0. Conseil Technique n° 6 : Plus une caméra comporte de bits et plus le processus de numérisation sera fluide. Par ailleurs, plus de bits signifie une plus grande précision et plus d'informations. Avec suffisamment de bits, l'œil humain n'est alors plus en mesure de déterminer la différence entre un niveaux de gris continu et sa représentation numérique. Le nombre de bits utilisé en numérisation est ainsi appelé la profondeur de bits ou la profondeur de pixel.
Pour avoir un exemple de profondeur de pixel, considérons les caméras de la série Sony XC qui proposent 256 nuances de gris, et les caméras de la série Edmund Optics USB 2.0 CMOS qui sont disponibles en modèles 8 bits (256 niveaux de gris) et 10 bits (1024 niveaux de gris). En règle générale, les caméras 12 bits et 14 bits peuvent fonctionner avec un mode de profondeur de pixel inférieur. Même si les profondeurs de pixels supérieures à 8 bits sont utiles pour le traitement du signal, l'ordinateur affiche seulement une résolution de 8 bits. Ainsi, si les images de la caméra ne peuvent être vues que sur un appareil de contrôle, les données supplémentaires ne font rien d'autre que de réduire la vitesse de défilement. La figure 5 illustre des profondeurs de pixels différentes. Il est à noter que la progression régulière du gris au blanc est d'autant plus lisse quand la profondeur de bits augmente.
Figure 5: Illustration des Niveaux de Gris sur 2 Bits (Haut), 4 Bits (Milieu) et 8 Bits (Bas)
PLAGE DYNAMIQUE
La plage dynamique est la différence entre le niveau de lumière le plus faible qui soit détectable et le niveau de lumière le plus élevé qui soit détectable par la caméra. Cela est déterminé physiquement par, la capacité de saturation de chaque pixel, le courant d'obscurité ou le bruit d'obscurité, les circuits ADC, et les réglages de gain. Le Conseil Technique n° 7
est : Pour des plages dynamiques élevées,davantage de bits sont nécessaires pour décrire le niveau de gris de manière significative. Il est cependant important de noter qu'étant donné le rapport signal sur bruit, l'utilisation de 14 bits pour décrire une plage dynamique de 50 dB produit des bits redondants et ne donne aucune information supplémentaire.
RAPPORT SIGNAL SUR BRUIT (SNR)
Le rapport signal sur bruit (SNR) est étroitement lié à la plage dynamique d'une caméra. Le Conseil Technique n° 8 est : Un rapport signal sur bruit plus élevé permet un plus grand nombre de mesures possibles du niveau de gris (contraste plus élevé) produites par une caméra. Le rapport signal sur bruit est exprimé en décibels (dB) dans les systèmes analogiques et en bits dans les systèmes numériques. En règle générale, un rapport signal sur bruit analogique de 6dB se transforme en 1 bit une fois numérisé. Pour les caméras numériques ou analogiques, X bits (ou l'équivalent dans les systèmes analogiques) correspondent à 2X niveaux de gris (c'est à dire que des caméras 8 bits ont 28 ou 256 niveaux de gris).
Il existe deux sources principales de bruit dans les capteurs de caméra. La première provient des imperfections dans la puce, qui se traduisent par un courant d'obscurité et une diaphonie non-uniformes. La seconde est un bruit thermique et d'autres variations électroniques. Les imperfections de la puce et les variations électroniques réduisent la résolution de la caméra et doivent être surveillées en vue de déterminer la meilleure façon de les compenser au sein du système d'imagerie.
Les bases de la résolution de la caméra peuvent être divisées en paramètres tels que le nombre et la taille des pixels, les lignes TV, la MTF de la caméra, la limite de Nyquist, la profondeur/niveau de gris de pixel, la plage dynamique, et le rapport signal sur bruit. La compréhension de ces termes élémentaires permet à un utilisateur de passer du statut de novice à celui d'expert en imagerie. Pour en savoir plus sur l'électronique d'imagerie, veuillez consulter notre série 101 sur le système d'électronique d'imagerie complémentaire se rapportant aux capteurs de caméra, aux types de caméras, et aux paramètres de caméra.
ou consulter les numéros d’autres pays
facile à utiliser
entrer les numéros de stock pour commencer
Copyright 2023 | Edmund Optics, Ltd Unit 1, Opus Avenue, Nether Poppleton, York, YO26 6BL, UK
L'entreprise Edmund Optics GmbH en Allemagne agit comme un mandataire d'Edmund Optics Ltd au Royaume-Uni. Le titulaire du contrat est Edmund Optics Ltd au Royaume-Uni.