Le coût élevé de fabrication des câbles à fibres optiques cohérentes rend nécessaire l'utilisation de la technologie CIFO dans les applications où des distances importantes entre le capteur et l'optique sont requises pour la capture d'images.
En raison de son incohérence spatiale, les images transmises par le câble apparaissent comme un mélange aléatoire de points lumineux. Cependant, une fois calibré, le CIFO peut être utilisé pour transmettre des images sans aucun composant électronique.


L'élément utilisé pour afficher les images d'entrée dans le dispositif expérimental effectuant cet étalonnage est un écran LCD plat. Afin de corriger l'aberration chromatique générée par le dispositif optique composé de lentilles conventionnelles, des diaphragmes sont utilisés. Ces diaphragmes ont pour effet supplémentaire de réduire la lumière émise, résolvant ainsi le problème de saturation du capteur CCD de la caméra. Malheureusement, cela entraîne un éclairage non uniforme sur les images de sortie, générant du bruit dans les images reconstruites.
Cet article présente et compare trois méthodes de correction de l'éclairage non homogène du système, en utilisant le CIFO et son étalonnage subséquent, et en présentant les résultats obtenus avec chaque méthode.
Mots-clés : Transmission d'images, câble à fibres optiques incohérent, correction d'éclairage non homogène.

De nombreuses applications nécessitent la capture d'informations statiques ou dynamiques provenant d'un environnement. L'obtention d'informations sur l'environnement lui-même ou son contenu permet une intervention rapide en cas d'événement imprévu. De nombreux systèmes d'inspection basés sur des techniques de vision industrielle sont utilisés à cette fin, exigeant un certain niveau de qualité visuelle.
Cependant, dans certains cas, l'utilisation de caméras conventionnelles est impossible, principalement en raison de problèmes d'accessibilité ou d'environnements dangereux où l'utilisation de signaux électriques ou de systèmes électroniques est proscrite. On peut citer comme exemples de tels environnements les milieux corrosifs, les réservoirs d'acide et d'hydrocarbures, les environnements nucléaires, etc. Dans ces situations, il devient nécessaire de trouver une alternative pour l'acquisition d'images. L'utilisation de la fibre optique pour la transmission d'images [1, 2] suscite un intérêt relativement récent. La transmission par fibre optique offre des avantages par rapport à d'autres supports, tels que l'immunité aux interférences électromagnétiques.


Une alternative pour la transmission d'images est l'utilisation de câbles à fibres optiques cohérentes, où la corrélation spatiale entre chaque fibre est maintenue. Ces câbles sont utilisés sur de courtes distances pour les endoscopies médicales. Avec ce type de câble, toute image captée à une extrémité est transmise directement à l'autre, permettant ainsi l'utilisation de cette technologie dans le domaine visible [3, 4]. Cependant, les câbles à fibres optiques cohérentes sont relativement coûteux et leurs applications pratiques sont limitées. Pour pallier cet inconvénient, l'utilisation de câbles à fibres optiques incohérentes (IFOC) a été proposée [5, 6]. Les IFOC ne présentent pas de corrélation spatiale entre les fibres. Par conséquent, un étalonnage est nécessaire avant leur utilisation pour la transmission d'images, établissant une relation entre les positions des points d'entrée et de sortie, ce qui permet la reconstruction des images obtenues en sortie [5, 6, 7].


Dans notre cas, pour l'étape d'étalonnage et la reconstruction des images de sortie, l'image d'entrée est projetée sur le CIFO (Central Optical Fiber Optic) et sa sortie sur le capteur CCD. Des diaphragmes sont nécessaires pour améliorer la définition des images transmises en réduisant les aberrations, qui entraînent une atténuation de la lumière transmise. Ce problème d'aberration chromatique survient car les différentes longueurs d'onde de la lumière ne convergent pas en un seul point lorsqu'elles traversent différentes lentilles. Par conséquent, la lumière est divisée autour des objets brillants (ce phénomène pourrait également être corrigé par l'ajout de lentilles ou de verres spéciaux). Le système optique, combiné au fait que la fibre optique ne transmet que 60 % de ce qu'elle reçoit à l'entrée, produit une image de sortie présentant des pertes d'éclairage non homogènes, ce qui génère du bruit dans les images reconstruites. Pour améliorer
la transmission de cette image, plusieurs méthodes de correction de l'éclairage non homogène résultant sont proposées et comparées.

Principe de fonctionnement :
Avant toute correction d’éclairage, une méthode d’étalonnage CIFO, proposée et décrite dans [5, 6], est sélectionnée. Cette méthode consiste à projeter un bloc de pixels blancs sur un fond noir pour constituer l’image d’entrée, laquelle est ensuite projetée sur le plan d’entrée du CIFO. En sortie, l’image résultante est projetée sur le plan du CCD où elle est capturée. À chaque position du bloc de pixels blancs correspond un ensemble de fibres illuminées. Une table de correspondance est ainsi créée, enregistrant les coordonnées des fibres illuminées en fonction de celles du bloc de pixels. Une fois cette table de correspondance obtenue, l’image de sortie peut être reconstruite en calculant la valeur moyenne des fibres illuminées à une position donnée.
Les trois méthodes décrites dans les sections suivantes traitent chaque pixel des images de sortie, en supposant un éclairage non homogène. L’éclairage non homogène présent dans le système est illustré sur la figure 1. La réponse à la sortie du câble lorsqu’un niveau de gris uniforme est appliqué à l’entrée est représentée.

 

 

 

 

 

 

Correction par facteur multiplicatif.
Le principe de la première méthode proposée consiste à utiliser une image blanche en entrée et à calculer, pour chaque pixel et chaque composante de couleur, un facteur multiplicatif qui corrige l'intensité de ce pixel, la ramenant à la valeur 255 (celle du blanc). Ainsi, pour chaque pixel i, on obtient :

a (i).Routage (i) = Rentrada (i) = 255
aG (i).Goutage (i) = Gintrade (i) = 255 (1)
aB (i).Boutage (i) = Bintrade (i) = 255

Où a représente le facteur multiplicatif de chaque composante R, G et B (rouge, vert et bleu).
Pour corriger l'éclairage d'un pixel i dans les images de sortie suivantes, chaque composante de couleur est multipliée par son facteur a associé.

Correction utilisant l'espace colorimétrique YIQ.
L'espace colorimétrique YIQ (I pour « en phase » et Q pour « en quadrature »), comme l'espace colorimétrique RGB, est représenté par une matrice tridimensionnelle. Contrairement au RGB, il présente les informations de couleur indépendamment des informations de luminance. La première matrice correspond à la luminance, tandis que les deux autres contiennent des informations de couleur appelées chrominances. L'espace YIQ était l'espace colorimétrique utilisé dans les téléviseurs conformes à la norme NTSC. La matrice de luminance contient des valeurs comprises entre 0 et 1.
Pour modifier l'intensité de couleur d'un pixel, et donc sa luminance, la valeur de luminance est élevée à la valeur g. Cette variable g est calculée selon les équations suivantes :

g = 1-b, si 1 > b > 0
(pour une image plus claire).
g = 1/
(1+b), si -1 < b < 0 (2)
(pour une image plus sombre).

Pour corriger l'éclairage non homogène, la valeur de la variable b(i) est choisie comme la différence entre 1 et la valeur d'intensité du pixel dans la matrice de luminance (valeurs comprises entre 0 et 1) de l'espace colorimétrique YIQ. La nouvelle valeur du pixel i est calculée en l'élevant à la puissance
g(i), comme indiqué dans le système d'équations suivant :

R<sub>corrigé</sub>(i) = R<sub>sortie</sub>(i)g(i) ; G
<sub>corrigé</sub>(i) = G<sub>sortie</sub>(i)g(i) (3) ;
B<sub>corrigé</sub>(i) = B<sub>sortie</sub>(i)g(i)

Il est alors possible d'augmenter l'éclairage en appliquant la même valeur g à l'ensemble de l'image.

Correction assistée par étalonnage de l'éclairage :
La troisième méthode permet de corriger l'image de sortie à l'aide des informations obtenues après une étape d'étalonnage de l'éclairage. Le processus d'étalonnage est le suivant :

• Tout d'abord, une image uniforme est générée en entrée. Chaque image d'entrée est composée d'un seul niveau de gris (les niveaux étant équidistants entre 0 et 255).
• Pour chaque pixel, chaque composante de couleur et chaque image de sortie, la valeur de sortie est corrélée à la valeur d'entrée homogène.
• Une fois le processus terminé, un registre indépendant est disponible pour chaque pixel et chaque composante de l'espace colorimétrique RGB, reliant la valeur de cette composante en entrée à la valeur de sortie.
• Pour chacun de ces registres, une approximation polynomiale de la fonction résultante est effectuée.
• Les coefficients obtenus sont stockés dans une matrice de correction.

L'étalonnage de chaque pixel est représenté par la figure 2. Chaque figure montre les valeurs de sortie pour un niveau de gris donné sur l'axe des abscisses et le numéro de l'image correspondant sur l'axe des ordonnées (ici, 20 images sont utilisées ; la première correspond à une image noire, la dernière à une image blanche). La figure 2(a) représente les réponses mesurées, tandis que les figures 2(b), (c) et (d) sont des approximations de la figure 2(a) obtenues respectivement par une droite, un polynôme du second degré et un polynôme du troisième degré.
Pour corriger l'éclairage non homogène, la nouvelle valeur de chaque composante de couleur du pixel i est calculée à l'aide des polynômes précédemment calculés ; c'est-à-dire, dans le cas d'une approximation par une droite (figure 2(b)), en résolvant les équations suivantes :

aR(i).XR + bR(i) - Rout(i) = 0
aG(i).XG + bG(i) - Gout(i) = 0 (4)
aB(i).XB + bB(i) - Bout(i) = 0


La correction est finalisée en ajustant la nouvelle valeur X = 255 x X/nombre_d'images_d'entrée ; si X > 255, la valeur 255 est utilisée, et si X < 0, la valeur 0 est utilisée.
Résultats expérimentaux :
Une fois l'image capturée à la sortie CIFO, l'éclairage non homogène est corrigé, puis le processus de reconstruction est appliqué [5, 6]. Les résultats obtenus sont présentés sur la figure 3, qui montre l'image originale, l'image reconstruite sans correction d'éclairage, et l'image reconstruite corrigée pour l'éclairage : à l'aide d'un facteur multiplicatif, à l'aide de l'espace YIQ avec une augmentation successive de l'éclairage (g = 0,6), et à l'aide d'un étalonnage de l'éclairage par approximation linéaire, respectivement sur les figures 3(a) à (e).
Conclusions :
Comme on peut le constater sur la figure 3, la méthode la plus efficace est l'étalonnage de l'éclairage (en particulier avec une approximation du premier ordre). En effet, comme le montre la figure 3(e), comparée à une reconstruction sans correction d'éclairage, cette méthode réduit considérablement le bruit et restaure les couleurs d'origine. Cependant, la méthode utilisant l'espace colorimétrique YIQ présente l'avantage d'un temps de traitement beaucoup plus court (1,6 seconde avec MATLAB® contre 20 secondes pour la correction par étalonnage d'éclairage), mais, bien qu'elle réduise le bruit de l'image, elle a pour effet d'atténuer les couleurs. Enfin, la méthode utilisant un seul facteur multiplicatif se situe entre les deux autres en termes de temps de traitement, mais elle ne réduit pas significativement le bruit ; elle en modifie même la teinte.
En définitive, cette méthode de correction d'éclairage non homogène pourrait être mise en œuvre par de nombreuses autres applications utilisant des caméras, notamment dans des environnements sombres ou lorsque la restauration des informations de couleur est nécessaire.

 

Pour plus d'informations ou un devis

 

Remerciements
Ce travail a été partiellement soutenu par le projet espagnol SILPAR (Système de localisation et de positionnement absolus de robots. Développement d'un espace intelligent), Programme national de conception et de production industrielles, Ministère de la Science et de la Technologie, réf. DPI 2003-05067, et par le projet régional TIFO (Système sensoriel de détection et de transmission d'images par fibre optique pour le développement d'un espace intelligent) de la Communauté de Madrid, réf. GR/MAT/0720/2004.
Références
[1] VI Bovrinev, Jung-Young Son, Seong-Keun Lee, « Méthode de multiplexage spectral bidimensionnel pour la transmission directe d'images par fibre optique », Opt. Eng., 36, 1, 15-21, 1997.
[2] CE Dionne, RA Gonsalves, « Imagerie optique incohérente à travers un guide d'ondes à couche mince », Opt. Eng., 39, 9, 2392-2396, 2000.
[3] Smith JS, Lucas J., « Un système de suivi de joint basé sur la vision pour le soudage TIG bout à bout », J. Phys. E. Sci. Instrum., 22, 435-440, 1989.
[4] Gamo, J; Horche, PR; Merchan, M.; Rodriguez, M. et Rosales, P, « Un système basé sur un réseau de neurones pour la reconnaissance de formes à travers un faisceau de fibres optiques », Proc. SPIE, 4305, p. 119, 2001.
[5] J. Gamo, O. Demuynck, Ó. Esteban, JL Lázaro, A. Cubillo, « Calibrage d'un faisceau de fibres optiques incohérent pour la transmission d'images », Proc. IADAT, 2005.
[6] O. Demuynck, Ó. Esteban, JL Lázaro, J. Gamo, Á. Cubillo, « Transmission d'images au moyen d'un faisceau de fibres optiques incohérent », Proc. OPTOEL'05, 2005.
[7] MJ Tsai, JS Smith, J. Lucas, « Calibrage multifibre de faisceaux de fibres optiques incohérents pour la transmission d'images », Trans. Inst. MC, 15, 5, 260-268, 1993.

Biographies des auteurs

 

Olivier Demuynck a obtenu son diplôme d'ingénieur en informatique à l'ISIMA (Institut Supérieur en Informatique, Modélisation et ses Applications) de Clermont-Ferrand en 2001. Il poursuit actuellement un doctorat au département d'électronique de l'université d'Alcalá. Ses recherches portent sur la vision pour la robotique, les espaces intelligents, le traitement d'images et de signaux, la reconstruction tridimensionnelle à partir de vues multiples et l'optique.

José Luis Lázaro a obtenu son diplôme d'ingénieur en électronique et télécommunications à l'Université polytechnique de Madrid, respectivement en 1985 et 1992, puis son doctorat en télécommunications à l'Université d'Alcalá en 1998, où il est actuellement professeur. Ses recherches portent sur les systèmes de capteurs et de lasers pour la robotique, la vision infrarouge et industrielle appliquée aux espaces intelligents, ainsi que la métrologie monoculaire.

Oscar Esteban a obtenu sa licence et son doctorat en physique, spécialisé en optique avancée, à l'Université Complutense de Madrid, respectivement en 1997 et 2001. Il est actuellement professeur au département d'électronique de l'Université d'Alcalá. Ses principaux travaux de recherche portent sur les capteurs à fibres optiques et l'optoélectronique appliquée aux espaces intelligents.

Daniel Pizarro a obtenu son diplôme d'ingénieur en télécommunications à l'Université d'Alcalá en 2003. De 2003 à 2005, il a été chercheur au département d'électronique de cette même université. Depuis 2005, il y occupe le poste de maître de conférences. Ses recherches portent sur la vision par ordinateur, les espaces intelligents, la théorie de l'optimisation, la reconstruction tridimensionnelle à partir de vues multiples, le SLAM visuel et la théorie du contrôle.

Javier Gamo a obtenu sa licence en physique à l'Université de Saragosse et son doctorat en sciences à l'Université polytechnique de Madrid, respectivement en 1993 et ​​2000. En 2000, il a rejoint le département Recherche et Développement de la Monnaie royale espagnole (Fábrica Nacional de Moneda y Timbre - Real Casa de la Moneda). Depuis, il est également maître de conférences au département d'électronique de l'Université d'Alcalá. Ses principaux travaux de recherche portent sur la sécurité optique des documents de valeur et d'identité.

 

Auteurs :

O. Demuynck, JL Lázaro, Ó. Esteban, D. Pizarro, J. Gamo

Département d'électronique, École polytechnique supérieure,

Université d'Alcalá. Campus universitaire, s/n

28871 Alcalá de Henares (Madrid-Espagne).

E-mail: Cette adresse e-mail est protégée contre les robots spammeurs. Vous devez activer JavaScript pour la visualiser.