Copyright
© 2000-2015 LHERBAUDIERE


4 pages à l'impression
version initiale 2002
INFORMATION
dernière mise à jour
22 mars 2013

cliquez sur le mot avertissement ou information ci-dessus pour connaitre une info essentielle avant de lire ce module et n'hésitez pas à cliquer en bas de page sur l'icone sommaire du site ça vous ouvrira d'autres perspectives

CAPTEURS et DETECTEURS OPTIQUES
quatrième partie (4/4): vidéo et imagerie

application vidéo
le capteur interligne
problèmes d'imagerie
les notions basiques
une collection d'icônes pour visiter tout le site

application vidéo : le capteur interligne

Pour les applications vidéo le temps de transfert est critique, aussi pour diminuer le temps de transfert de la partie image dans la partie mémoire, celles-ci ont été « rapprochées » au maximum. Chaque pixel image a son double à côté de lui pour lui servir de mémoire. Cette partie mémoire est protégée de la lumière par un cache (dépôt métallique).



principe de l'organisation (dessin simplifié)

L'image se forme sur tous les pixels sensibles. A la fin de la durée d'exposition, tous les pixels sont transférés en même temps dans leur partie mémoire. L'image suivante se forme pendant que les parties mémoires sont vidées par transfert dans le registre de lecture et celui-ci dans l'organe de sortie. L'intérêt est multiple : vitesse de tranfert, superposition des temps de lecture et d'exposition. L'inconvénient majeur semblerait être la perte d'information résultant de l'utilisation d'une partie de la surface du capteur pour cette zone mémoire temporaire. Cette limitation de sensibilité a été sensiblement réduite avec l'apparition des capteurs à micro-lentilles où chaque pixel possède un dispositif optique occupant la surface totale disponible et concentrant la lumière sur la partie sensible.


Actuellement les capteurs dits mégapixels possèdent des pixels de dimension 7 à 9 µm environ et un rythme d'acquisition dépassant 20MHz pour une image 2048x2048.


problèmes d'imagerie

  1. Il va de soi que le transfert doit être effectif à chaque coup d'horloge et que la fréquence doit être élevée si l'on veut pouvoir afficher ensuite une image en temps quasi réel sur un écran d'ordinateur. Si l'efficacité du transfert est insuffisante, c'est à dire si la totalité de la charge n'est pas transmise dans le temps d'horloge on va constater un décalage sur l'image reconstituée. On admet généralement que, pour un imageur de type télé, il faut une inefficacité de transmission inférieure à 10-4.
  2. Il est aussi évident que ce phénomène n'est pas constant, car il y aura une plus grande probabilité de ne pas avoir transféré la totalité des charges pour un point brillant (auquel correspond un grand nombre de photons, donc de charges à transférer) que pour un point sombre. Le phénomène conduit donc à une distorsion. Cependant ce n'est pas simple à quantifier, car lorsqu'il y a un faible niveau de charges il y a une interférence possible avec des états d'interface qui résultent de l'imperfection structurelle du système et dont l'importance relative est évidemment plus grande lorsqu'on transfère une faible quantité de charges. En outre, il ne faut pas non plus oublier que les porteurs de charge de même signe ont tendance à se répulser ce qui augmente le bruit.
  3. D'autres sources de bruit sont présentes : instabilité de l'horloge, bruit d'origine thermique, et bruits associés aux circuits de lecture, et enfin le bruit limite résulte de l'arrivée même des photons qui est statistiquement aléatoire.
  4. Les conséquences sur les traitements d'image méritent d'être identifiées: Les principaux traitements effectués sur une image sont la segmentation et la détection des contours. Les distorsions signalées précédemment vont avoir pour principale conséquence de modifier aléatoirement l'intensité de certains points ce qui aura pour effet de modifier les contrastes et donc de réduire l'efficacité des opérateurs de traitements qui utilisent des méthodes basées sur les variations de contrastes dans une image pour séparer les zones d'intensité semblables et en délimiter les contours.
Nous allons ci-dessous introduire quelques notions élémentaires de traitement d'image, afin de permettre au lecteur de prendre conscience de l'importance potentielle des sources de bruit et de la nécessité de les réduire au mieux à la source.
L'objectif fondamental de la vision par ordinateur, qui est un processus de traitement de l'information, est, à partir d'une entrée typiquement constituée d'une image ou d'une séquence d'images, de réaliser, via l'exploitation d'un algorithme plus ou moins complexe, une description de l'entrée en terme d'objets et derelations entre ces objets.
Deux types de stratégies sont mises en œuvre: ascendantes ou descendantes. Dans le premier cas on tente de construire une représentation abstraite à partir de primitives. Au contraire, dans le second cas, on déduit à partir de l'ensemble des objets connus une description compatible avec les primitives extraites de l'image. Les connaissances mises en jeu sont de type physique, géométrique ou sémantique. L'un des grands problèmes de la reconnaissance est lié au fait que l'image est en deux dimensions et qu'elle représente le plus souvent une scène en 3D.

On va donc procéder par étapes : d'abord une segmentation de l'image, destinée à extraire des attributs caractérisant les diverses entités présentes dans l'image, et pour cela on procédera en tout premier lieu à la détection des contours. C'est à dire qu'on va essayer de déterminer les discontinuités locales des niveaux de gris de l'image, puis opérer la segmentation des contours, donc les approximer par des représentations analytiques (segments de droite, etc). On pourra aussi extraire des régions, c'est à dire des zones homogènes en niveaux de gris de l'image. Notons que les contours correspondent aux frontières des objets, tandis que les régions correspondent à leurs surfaces. A partir de ces deux notions, on voit qu'il sera possible de retrouver la géométrie des objets. Cela pourra aussi s'obtenir à partir de deux images provenant de deux caméras différentes, ce qui s'apparente alors à la vision stéréoscopique tel que la pratique l'ensemble des deux yeux de l'homme. Pour retrouver le relief, ou la profondeur il faudra donc apparier point à point les deux images et on voit toute la difficulté de l'opération lorsque les images sont entachées de bruits, tels ceux décrits ci-avant.

Les contours des objets correspondent dans les images à des extréma locaux du gradient ou aux zéros du laplacien de la fonction des niveaux de bruit. On est donc confronté au problème de la différenciation d'un signal bruité.


Ci-dessus, on donne quelques exemples typiques de profils de contours, identifiés par une discontinuité des niveaux de gris dans la direction d'analyse, tandis que la figure ci-dessous illustre le principe de la détection des contours, dans le cas le plus favorable. A gauche on figure le signal qui présente une discontinuité du type marche d'escalier, au centre la dérivée première du signal et, à droite, la dérivée seconde dont le passage à zéro correspond très exactement au point de contour.



La figure ci-dessous montre un exemple célèbre de détection de contours.


Lena : image originale et contours obtenus par seuillage par hystérésis des extréma locaux


sur les capteurs optiques