Fibraoptica1(3)Se presenta un método de corrección de la iluminación no-homogénea de un cable incoherente de fibras ópticas (CIFO) para la transmisión de imágenes.
El uso de CIFO para transmisión de imágenes en entornos peligrosos, donde no es posible el uso de cámaras convencionales por la electrónica y señal eléctrica que llevan, está plenamente justificado.

El alto coste que presenta la fabricación de cables coherentes de fibras ópticas hace necesario el uso de CIFO en aplicaciones donde se requieren distancias apreciables entre el sensor y la óptica para la captación de imágenes.
Debido a su incoherencia espacial, las imágenes en salida del cable aparecen como una mezcla aleatoria de puntos iluminados. Sin embargo, una vez  calibrado, el CIFO puede ser utilizado para transmitir imágenes sin uso  de ninguna electrónica.


El elemento utilizado para emitir las imágenes de entrada, en el dispositivo experimental que permite realizar dicha calibración, es una pantalla plana LCD. Para resolver un problema de aberración cromática generado por el dispositivo óptico compuesto de lentes convencionales, se utilizan unos diafragmas, que tienen como efecto adicional de reducir la luz emitida y así se resuelve también el problema de saturación del CCD de la cámara. Desafortunadamente, eso genera en las imágenes de salida una iluminación no uniforme, creando ruido en las imágenes reconstruidas.
En este trabajo se presentan y comparan tres métodos de corrección de  la iluminación no homogénea presente en el sistema, utilizando el CIFO y su posterior calibración, mostrando los resultados obtenidos con cada método.
Palabras claves: Transmisión de imagen, cable incoherente de fibras ópticas, corrección de iluminación no homogénea. 

Existen múltiples aplicaciones que requieren captura de información estática o dinámica de un entorno. La obtención de información referida al entorno mismo o a su contenido,  permite actuar rápidamente cuando se produce un acontecimiento inesperado. Para ellos, se emplean muchos sistemas de inspección basados en técnicas de visión artificial, que requieren cierta calidad visual para su uso.
Sin embargo, en determinados casos no es posible el uso de cámaras convencionales, principalmente por cuestiones de accesibilidad o por el entorno peligroso en el cual no pueden ser empleadas señales eléctricas o sistemas electrónicos. Algunos ejemplos de estos entornos pueden ser los ambientes corrosivos, tanques de ácidos e hidrocarburos, entornos nucleares, etc. En dicho caso, se hace necesario encontrar una alternativa para la adquisición de imágenes. El uso de tecnología de fibra óptica para transmitir imágenes [1, 2] ha suscitado un interés relativamente reciente. La transmisión mediante fibra óptica ofrece ventajas frente a otros medios, como por el ejemplo la inmunidad a las interferencias electromagnéticas.


Una alternativa para la transmisión de imágenes es el uso de cable coherente de fibras ópticas en el cual se conserva la correlación espacial entre cada fibra. Estos son empleados en distancias cortas para endoscopias en medicina. Con este tipo de cable, cualquier imagen a un extremo del cable se transfiere directamente a su otro extremo, permitiendo el uso de esta tecnología en el rango visible [3, 4]. Sin embargo, los cables coherentes de fibras ópticas son considerablemente caros y limitadas las aplicaciones reales. Para superar este inconveniente, se ha propuesto la utilización de cables incoherentes de fibras ópticas (CIFO) [5, 6]. Los CIFO presentan una falta de correlación espacial entre las fibras. Por ello se hace necesario una calibración previa a su utilización para la transmisión de imágenes, estableciendo una relación entre las posiciones de los puntos de entrada y salida, lo que permite reconstruir las imágenes obtenidas a la salida [5, 6, 7].


En nuestro caso, para la etapa de calibración y la reconstrucción de las imágenes de salida, se proyecta la imagen de entrada sobre el CIFO y la salida de éste sobre el sensor CCD. Es necesario el uso de diafragmas para mejorar la definición de las imágenes transmitidas disminuyendo las aberraciones, lo que tiene como consecuencia la atenuación de la luz transmitida. Este inconveniente de aberración cromático se debe al hecho de que las diferentes longitudes de onda de la luz no forman un único punto de convergencia de los rayos luminosos cuando atraviesan las diferentes lentes. Como efecto se observa un desdoblamiento de la luz en los alrededores de los objetos brillantes (este fenómeno también podría ser corregido añadiendo lentes o vidrios especiales). El sistema óptico, combinado con el hecho de que la fibra óptica transmite un 60% de lo que recibe en la entrada, produce una imagen de salida con pérdidas no-homogéneas de iluminación, lo que genera ruido en las imágenes reconstruidas.
Para mejorar esta transmisión de imagen, se proponen y comparan varios métodos de corrección de la iluminación no-homogénea resultante.

Principio de funcionamiento
En primer lugar y previamente a la corrección de la iluminación, se selecciona un método de calibración del CIFO propuesto y descrito en [5, 6]. En resumen este método consiste en proyectar como imagen de entrada, un bloque de píxeles blancos sobre un fondo negro, que es proyectada sobre el plano de entrada del CIFO. En la salida, la imagen resultante es proyectada sobre el plano del CCD donde se capta. Para cada posición del bloque de píxeles blanco, se obtiene en la salida un conjunto de fibras iluminadas. Se crea de esta manera una tabla de reconstrucción (lookup table), grabando las coordenadas de las fibras iluminadas en correspondencia con las coordenadas del bloque de píxeles. Una vez obtenida esta tabla de reconstrucción, la imagen de salida puede ser reconstruida calculando el valor medio de las fibras que fueron iluminadas por una posición.
Los tres métodos descritos en las secciones siguientes tratan cada píxel de las imágenes de salida, considerando que la iluminación es no-homogénea. La iluminación no-homogénea presente en el sistema se ilustra en la figura 1. Se representa la respuesta a la salida del cable cuando se envía en la entrada un nivel de gris uniforme.

 

 

 

 

 

 

Corrección mediante factor multiplicativo
El principio de funcionamiento del primer método propuesto es de emitir una imagen blanca en entrada y calcular para cada píxel y cada componente de color un factor multiplicativo que corrija el nivel de intensidad para ese píxel restaurándolo al valor 255 (valor del blanco). De este modo, por cada píxel i se obtiene:

a (i).Rsalida (i) = Rentrada (i) = 255
aG (i).Gsalida (i) = Gentrada (i) = 255 (1)
aB (i).Bsalida (i) = Bentrada (i) = 255

Donde a es el factor multiplicativo para cada componente R, G, y B (rojo, verde, y azul).
Para corregir la iluminación de un píxel i de las siguientes imágenes de salida, se multiplica cada componente de color por el a asociado.

Corrección usando el espacio de color YIQ
El espacio de color YIQ (I representa “in-phase”, y Q representa “quadrature”), como el espacio de color RGB, es representado por una matriz tridimensional. A diferencia del RGB presenta la información de color desacoplada de la información de iluminación. La primera matriz corresponde a la luminancia, siendo las otras dos información de color denominadas crominancias. El espacio YIQ era el espacio de color utilizado en las televisiones de estándar NTSC. La matriz de luminancia contiene valores en el rango [0 1].
Para modificar la intensidad de color de un píxel, y actuar sobre la luminancia, se eleva el valor de ésta a g. Esta variable g está calculada según las ecuaciones siguientes:

g = 1-b, si 1 > b > 0
(para que la imagen resulte más luminosa).
g =  1
1+b , si -1 < b < 0  (2)
(para que la imagen resulte más oscura).

Para realizar la corrección de la iluminación no-homogénea, se elige como valor de la variable b (i) la resta de 1 menos el valor de intensidad de un píxel en la matriz de luminancia (valores en el rango [0 1]) del espacio de color YIQ. Se calcula el nuevo valor de un píxel i elevando a la potencia
g (i), como se ve en el sistema de ecuaciones siguiente.

Rcorregido (i) = Rsalida (i)g (i)
Gcorregido (i) = Gsalida (i)g (i) (3)
Bcorregido (i) = Bsalida (i)g (i)

Después es posible aumentar la iluminación aplicando el mismo valor de g en toda la imagen.

Corrección asistida por una calibración en iluminación
El tercer método permite corregir la imagen de salida usando la información obtenida tras un paso de calibración en iluminación. El proceso de calibración es el siguiente:

• En primer lugar se emite una  imagen uniforme en la entrada. Cada imagen de entrada generada está compuesta por un nivel de gris (con niveles equiespaciados entre 0 y 255).
• Para cada píxel, cada componente de color, y cada imagen emitida, se relacionan el valor de salida con el valor de entrada homogéneo.
• Una vez terminado el proceso, se encuentra disponible un registro independiente por cada píxel y cada componente del espacio RGB, que relaciona un valor de dicha componente en la entrada y el valor en salida.
• Para cada uno de dichos registros, se realiza una aproximación polinómica de la función resultante.
• Los coeficientes obtenidos se almacenan en una matriz de corrección.

Esta calibración para un píxel cualquiera se ve representada por la figura 2. Cada una expone en el eje de abscisas los valores de la salida por un nivel de gris dado, y en el de ordenadas el número de la imagen refiriéndose a un nivel de gris (En este caso se trabaja con 20 imágenes. La primera corresponde a una imagen negra, la última a una imagen blanca). La figura 2 (a) representa las respuestas medidas, las figuras 2 (b), (c) y (d) son las aproximaciones de la figura 2 (a) mediante: una recta, un polinomio de segundo grado, y un polinomio de tercer grado, respectivamente.
Para corregir la iluminación no-homogénea se calcula el nuevo valor de cada componente de color de un píxel i mediante los polinomios previamente calculados, es decir, en el caso de una aproximación a una recta (fig. 2 (b)), resolviendo las ecuaciones siguientes:

aR (i).XR + bR (i) - Rsalida (i) = 0
aG (i).XG + bG (i) - Gsalida (i) = 0 (4)
aB (i).XB + bB (i) - Bsalida (i) = 0


Se finaliza la corrección ajustando el nuevo valor X = 255 x X/numero_imagenes_entrada; y si X > 255 se afecta el valor 255, si X < 0 se afecta el valor 0.
Resultados experimentales
Una vez captada la imagen en la salida del CIFO, se corrige la iluminación no homogénea para, posteriormente, aplicar el proceso de reconstrucción de la misma [5, 6]. Los resultados obtenidos aparecen en la figura 3 en la cual se observa la imagen original, la imagen reconstruida sin corrección de iluminación, la imagen reconstruida corregida en iluminación: mediante un factor multiplicativo, usando el espacio YIQ con aumento posterior de la iluminación (g = 0,6), y usando la calibración en iluminación mediante la aproximación a una recta, en las figuras 3 (a) a (e) respectivamente.
Conclusiones
Según se puede apreciar en la figura 3, el método más eficiente es el de calibración en iluminación (particularmente con una aproximación de primer grado). En efecto, se observa en la figura 3 (e), comparando con la reconstrucción sin corrección en iluminación, que con este método se reduce bastante el ruido y se restituyen los colores originales. Sin embargo, el método usando el espacio de color YIQ tiene la ventaja de procesar en un tiempo muy inferior (con MATLAB®: 1,6 segundos contra los 20 segundos de la corrección mediante la calibración en iluminación), pero, aunque reduce el ruido de la imagen, tiene el efecto de atenuar los colores. Finalmente, el método usando un solo factor multiplicativo se encuentra entre los otros dos métodos por lo que concierne su tiempo de procesamiento, pero no reduce significativamente el ruido sino que lo cambia de tonalidad.
Finalmente, este método de corrección de iluminación no-homogénea podría ser implementado por muchas otras aplicaciones, que hacen uso de cámaras, cuando el entorno es oscuro o cuando se necesita restituir las informaciones de color.

 

Más información o presupuesto

 

Agradecimientos
Este trabajo ha sido parcialmente apoyado por el proyecto español SILPAR (Sistema de Localización y Posicionamiento Absoluto de Robots. Desarrollo de un Espacio Inteligente), Programa Nacional de Diseño y Producción Industrial, Ministerio de Ciencia y Tecnología, ref. DPI 2003-05067, y el proyecto regional TIFO (Sistema sensorial de detección y transmisión de imágenes por fibra óptica para el desarrollo de un espacio inteligente) de la comunidad de Madrid, ref. GR/MAT/0720/2004.
Referencias
[1] V.I. Bovrinev, Jung-Young Son, Seong-Keun Lee, “Two-dimensional spectral multiplexing method for direct image transmission trough an optical fiber”, Opt. Eng., 36, 1, 15-21, 1997.
[2] C.E. Dionne, R. A. Gonsalves, “Optical incoherent imaging though a thin slab waveguide”, Opt. Eng., 39, 9, 2392-2396, 2000.
[3] Smith J.S, Lucas J., “A vision-based system seam tracker for butt-plate TIG welding”, J. Phys. E. Sci. Instrum., 22, 435-440, 1989.
[4] Gamo, J; Horche, P. R.; Merchan, M.; Rodriguez, M. y Rosales, P, “A neural-network based system for pattern recognition through a fiber-optic bundle”, Proc. SPIE, 4305, pp. 119, 2001.
[5] J. Gamo, O. Demuynck, Ó. Esteban, J.L. Lázaro, A. Cubillo, “Calibration of incoherent optical-fiber-bundle for image transmisión purpose”, Proc. IADAT, 2005.
[6] O. Demuynck, Ó. Esteban, J. L. Lázaro, J. Gamo, Á. Cubillo, “Transmisión de imagen por medio de un mazo de fibra óptica incoherente”, Proc. OPTOEL’05, 2005.
[7] M.J. Tsai, J.S. Smith, J. Lucas, “Multi-fibre calibration of incoherent optical fibre bundles for image transmission”, Trans. Inst. MC, 15, 5, 260-268, 1993.

Biografías de los autores

 

Olivier Demuynck obtuvo el grado de ingeniero en Informática por el ISIMA (Institut Supérieur en Informatique, Modélisation et ses Applications) de Clermont-Ferrand (Francia) en 2001. Actualmente está realizando estudios de doctorado en el Departamento de Electrónica de la Universidad de Alcalá. Su actividad investigadora se centra en las disciplinas de visión para la robótica, espacios inteligentes,  tratamiento de imagen y de la señal, reconstrucción tridimensional mediante múltiples vistas y óptica.

José Luis Lázaro obtuvo el grado de ingeniero en Electrónica y Telecomunicación de la Universidad politécnica de Madrid en 1985 y 1992 respectivamente, y de doctor en Telecomunicación por la Universidad de Alcalá en 1998 donde es actualmente profesor. Su actividad investigadora se centra en los sistemas de sensores y láser para la robótica, infrarrojo y visión artificial aplicados a los espacios inteligentes y metrología monocular.

Oscar Esteban obtuvo el grado de licenciado en Ciencias Físicas y de doctor en Ciencias Físicas especialidad óptica avanzada por la Universidad Complutense de Madrid en 1997, y 2001 respectivamente. Actualmente, es profesor del Departamento de Electrónica de la Universidad de Alcalá. Sus principales líneas de trabajo están relacionadas con los sensores de fibra óptica y optoelectrónica aplicado a los espacios inteligentes.

Daniel Pizarro obtuvo el grado de ingeniero de Telecomunicación por la Universidad de Alcalá en 2003. Ha sido becario de investigación en el Departamento de Electrónica de la Universidad de Alcalá desde el 2003 al 2005. Desde el año 2005 ocupa una plaza de profesor ayudante en dicho departamento. Su actividad investigadora se centra en las disciplinas de visión por computador, espacios inteligentes, teoría de optimización, reconstrucción tridimensional mediante múltiples vistas, SLAM visual y teoría de control.

Javier Gamo obtuvo el grado de licenciado en Ciencias Físicas por la Universidad de Zaragoza y de doctor en Ciencias por la Universidad Politécnica de Madrid en 1993 y 2000 respectivamente. En 2000 se incorporó al Departamento de Investigación y Desarrollo de la Fábrica Nacional de Moneda y Timbre - Real Casa de la Moneda. Desde ese año, colabora además como Profesor Asociado en el Departamento de Electrónica de la Universidad de Alcalá. Sus principales líneas de trabajo están relacionadas con la seguridad óptica de documentos de valor e identificación.

 

Autores:

O. Demuynck, J.L. Lázaro, Ó. Esteban, D. Pizarro, J. Gamo

Departamento de Electrónica, Escuela Politécnica Superior,

Universidad de Alcalá. Campus Universitario, s/n

28871 Alcalá de Henares (Madrid-Spain).

E-mail: Esta dirección de correo electrónico está siendo protegida contra los robots de spam. Necesita tener JavaScript habilitado para poder verlo.">Esta dirección de correo electrónico está siendo protegida contra los robots de spam. Necesita tener JavaScript habilitado para poder verlo.

Submit to FacebookSubmit to Google PlusSubmit to TwitterSubmit to LinkedIn

Conectores Revista FTTH Electrónica industrial. Cursos de fibra Óptica, Seminarios Online, Noticias Tecnología y Ferias Tecnologicas,Cables y Conectores Industriales de Fibra Optica, Noticias Empresas, Osciloscopios y Herramientas, Centros de datos.