Die hohen Herstellungskosten von kohärenten Glasfaserkabeln machen den Einsatz von CIFO in Anwendungen notwendig, bei denen für die Bildaufnahme beträchtliche Entfernungen zwischen Sensor und Optik erforderlich sind.
Aufgrund der räumlichen Inkohärenz erscheinen die vom Kabel ausgegebenen Bilder als zufällige Mischung beleuchteter Punkte. Nach der Kalibrierung kann das CIFO jedoch zur Bildübertragung ohne jegliche Elektronik verwendet werden.


Das Element zur Anzeige der Eingangsbilder in der experimentellen Vorrichtung zur Kalibrierung ist ein LCD-Flachbildschirm. Um die durch die optische Vorrichtung mit herkömmlichen Linsen verursachte chromatische Aberration zu korrigieren, werden Blenden eingesetzt. Diese Blenden reduzieren zusätzlich das emittierte Licht und beheben so auch die CCD-Sättigung der Kamera. Dies führt jedoch zu einer ungleichmäßigen Ausleuchtung der Ausgabebilder und damit zu Rauschen in den rekonstruierten Bildern.
In diesem Beitrag werden drei Methoden zur Korrektur der inhomogenen Ausleuchtung im System mithilfe des CIFO und dessen anschließender Kalibrierung vorgestellt und verglichen. Die mit den einzelnen Methoden erzielten Ergebnisse werden dargestellt.
Schlüsselwörter: Bildübertragung, inkohärentes Glasfaserkabel, Korrektur inhomogener Ausleuchtung. 

Es gibt zahlreiche Anwendungen, die die Erfassung statischer oder dynamischer Informationen aus einer Umgebung erfordern. Die Gewinnung von Informationen über die Umgebung selbst oder deren Inhalt ermöglicht ein schnelles Eingreifen bei unerwarteten Ereignissen. Viele Inspektionssysteme, die auf maschinellen Bildverarbeitungsverfahren basieren, werden zu diesem Zweck eingesetzt und erfordern eine gewisse Bildqualität.
In manchen Fällen ist der Einsatz herkömmlicher Kameras jedoch nicht möglich, hauptsächlich aufgrund von Zugangsproblemen oder in Gefahrenbereichen, in denen elektrische Signale oder elektronische Systeme nicht verwendet werden dürfen. Beispiele für solche Bereiche sind korrosive Umgebungen, Säure- und Kohlenwasserstofftanks, nukleare Anlagen usw. In diesen Fällen ist es notwendig, eine alternative Bildaufnahmemethode zu finden. Die Nutzung von Glasfasertechnologie zur Bildübertragung [1, 2] hat in jüngster Zeit an Bedeutung gewonnen. Die Glasfaserübertragung bietet Vorteile gegenüber anderen Medien, wie beispielsweise die Unempfindlichkeit gegenüber elektromagnetischen Störungen.


Eine Alternative zur Bildübertragung ist die Verwendung kohärenter Glasfaserkabel, bei denen die räumliche Korrelation zwischen den einzelnen Fasern erhalten bleibt. Diese werden in der Medizin für Endoskopien über kurze Distanzen eingesetzt. Mit diesem Kabeltyp wird jedes Bild an einem Ende des Kabels direkt zum anderen übertragen, wodurch diese Technologie im sichtbaren Spektralbereich anwendbar ist [3, 4]. Kohärente Glasfaserkabel sind jedoch recht teuer und daher in der Praxis nur begrenzt einsetzbar. Um diesen Nachteil zu überwinden, wurde die Verwendung inkohärenter Glasfaserkabel (IFOCs) vorgeschlagen [5, 6]. IFOCs weisen keine räumliche Korrelation zwischen den Fasern auf. Daher ist vor ihrer Verwendung zur Bildübertragung eine Kalibrierung erforderlich, bei der eine Beziehung zwischen den Positionen der Eingangs- und Ausgangspunkte hergestellt wird. Dies ermöglicht die Rekonstruktion der am Ausgang erhaltenen Bilder [5, 6, 7].


In unserem Fall wird für die Kalibrierung und die Rekonstruktion der Ausgabebilder das Eingangsbild auf die CIFO (zentrale optische Faseroptik) und dessen Ausgabe auf den CCD-Sensor projiziert. Blenden sind notwendig, um die Schärfe der übertragenen Bilder durch Reduzierung von Aberrationen zu verbessern, was zu einer Dämpfung des übertragenen Lichts führt. Dieses Problem der chromatischen Aberration entsteht, weil Licht unterschiedlicher Wellenlängen beim Durchgang durch verschiedene Linsen nicht in einem Punkt gebündelt wird. Dadurch wird das Licht um helle Objekte herum aufgespalten (dieses Phänomen kann auch durch den Einsatz spezieller Linsen oder Gläser korrigiert werden). Das optische System, in Kombination mit der Tatsache, dass die optische Faser 60 % des empfangenen Lichts überträgt, erzeugt ein Ausgabebild mit inhomogenen Beleuchtungsverlusten, was zu Rauschen in den rekonstruierten Bildern führt. Um
diese Bildübertragung zu verbessern, werden verschiedene Methoden zur Korrektur der resultierenden inhomogenen Beleuchtung vorgeschlagen und verglichen.

Funktionsprinzip:
Vor der Beleuchtungskorrektur wird zunächst ein in [5, 6] beschriebenes CIFO-Kalibrierungsverfahren ausgewählt. Kurz gesagt, wird dabei ein Block weißer Pixel als Eingangsbild auf einen schwarzen Hintergrund projiziert und anschließend auf die CIFO-Eingangsebene projiziert. Das resultierende Bild wird dann auf die CCD-Ebene projiziert und dort erfasst. Für jede Position des weißen Pixelblocks wird am Ausgang eine Menge beleuchteter Fasern ermittelt. Anschließend wird eine Nachschlagetabelle erstellt, die die Koordinaten der beleuchteten Fasern den Koordinaten des Pixelblocks zuordnet. Mithilfe dieser Tabelle kann das Ausgabebild rekonstruiert werden, indem der Mittelwert der von einer bestimmten Position beleuchteten Fasern berechnet wird.
Die drei in den folgenden Abschnitten beschriebenen Verfahren behandeln jedes Pixel der Ausgabebilder unter der Annahme einer inhomogenen Beleuchtung. Die im System vorhandene inhomogene Beleuchtung ist in Abbildung 1 dargestellt. Dargestellt ist die Reaktion am Kabelausgang bei einem gleichmäßigen Grauwert am Eingang.

 

 

 

 

 

 

Korrektur mittels eines Multiplikationsfaktors.
Das Funktionsprinzip des ersten vorgeschlagenen Verfahrens besteht darin, ein weißes Bild als Eingabe zu verwenden und für jedes Pixel und jede Farbkomponente einen Multiplikationsfaktor zu berechnen, der den Intensitätswert dieses Pixels korrigiert und ihn auf den Wert 255 (den Wert von Weiß) zurücksetzt. Somit ergibt sich für jedes Pixel i Folgendes:

a (i).Routage (i) = Rentrada (i) = 255
aG (i).Goutage (i) = Gintrade (i) = 255 (1)
aB (i).Boutage (i) = Bintrade (i) = 255

Dabei ist a der Multiplikationsfaktor für jede Komponente R, G und B (Rot, Grün und Blau).
Um die Beleuchtung eines Pixels i in den folgenden Ausgabebildern zu korrigieren, wird jede Farbkomponente mit ihrem zugehörigen a multipliziert.

Korrektur mithilfe des YIQ-Farbraums.
Der YIQ-Farbraum (I steht für „in Phase“ und Q für „Quadratur“) wird, wie der RGB-Farbraum, durch eine dreidimensionale Matrix dargestellt. Im Gegensatz zu RGB stellt er Farbinformationen getrennt von Luminanzinformationen dar. Die erste Matrix entspricht der Luminanz, während die beiden anderen Farbinformationen, sogenannte Chrominanzen, enthalten. Der YIQ-Farbraum wurde in NTSC-Standardfernsehern verwendet. Die Luminanzmatrix enthält Werte im Bereich [0, 1].
Um die Farbintensität eines Pixels und damit die Luminanz zu verändern, wird der Luminanzwert mit g potenziert. Diese Variable g wird nach folgenden Gleichungen berechnet:

g = 1-b, falls 1 > b > 0
(für ein helleres Bild).
g = 1
1+b , falls -1 < b < 0 (2)
(für ein dunkleres Bild).

Um ungleichmäßige Beleuchtung zu korrigieren, wird der Wert der Variablen b(i) als Differenz zwischen 1 und dem Intensitätswert eines Pixels in der Luminanzmatrix (Wertebereich [0, 1]) des YIQ-Farbraums gewählt. Der neue Wert des Pixels i wird berechnet, indem er mit
g(i) potenziert wird, wie im folgenden Gleichungssystem dargestellt:

R<sub>korrigiert</sub>(i) = R<sub>Ausgabe</sub>(i)g(i) G<sub>korrigiert</sub>(i) =
G<sub>Ausgabe</sub>(i)g(i) (3) B
<sub>korrigiert</sub>(i) = B<sub>Ausgabe</sub>(i)g(i)

Anschließend kann die Beleuchtungsstärke erhöht werden, indem der gleiche g-Wert auf das gesamte Bild angewendet wird.

Korrektur mit Unterstützung der Beleuchtungskalibrierung:
Die dritte Methode ermöglicht die Korrektur des Ausgabebildes mithilfe von Informationen, die nach einem Beleuchtungskalibrierungsschritt gewonnen wurden. Der Kalibrierungsprozess verläuft wie folgt:

• Zunächst wird ein einheitliches Bild als Eingabe ausgegeben. Jedes generierte Eingabebild besteht aus einer einzigen Graustufenstufe (mit gleichmäßig verteilten Stufen zwischen 0 und 255).
• Für jedes Pixel, jede Farbkomponente und jedes Ausgabebild wird der Ausgabewert mit dem entsprechenden Eingabewert korreliert.
• Nach Abschluss des Prozesses steht für jedes Pixel und jede RGB-Farbkomponente ein unabhängiges Register zur Verfügung, das den Wert dieser Komponente an der Eingabe mit dem Ausgabewert verknüpft.
• Für jedes dieser Register wird eine Polynomapproximation der resultierenden Funktion durchgeführt.
• Die resultierenden Koeffizienten werden in einer Korrekturmatrix gespeichert.

Die Kalibrierung für jedes Pixel ist in Abbildung 2 dargestellt. Jede Abbildung zeigt die Ausgabewerte für einen bestimmten Grauwert auf der x-Achse und die Bildnummer für diesen Grauwert auf der y-Achse (in diesem Fall werden 20 Bilder verwendet. Das erste Bild ist schwarz, das letzte weiß). Abbildung 2(a) zeigt die gemessenen Werte, während die Abbildungen 2(b), (c) und (d) Näherungen von Abbildung 2(a) mittels einer Geraden, eines Polynoms zweiten Grades bzw. eines Polynoms dritten Grades darstellen.
Um ungleichmäßige Beleuchtung zu korrigieren, wird der neue Wert jeder Farbkomponente des Pixels i mithilfe der zuvor berechneten Polynome ermittelt; im Fall der Geradennäherung (Abb. 2(b)) durch Lösen der folgenden Gleichungen:

aR (i)XR + bR (i) - Rout (i) = 0
aG (i)XG + bG (i) - Gout (i) = 0 (4)
aB (i)XB + bB (i) - Bout (i) = 0


Die Korrektur wird durch Anpassen des neuen Wertes X = 255 × X / Anzahl_der_Eingangsbilder abgeschlossen; ist X > 255, wird der Wert 255 angepasst, ist X < 0, wird der Wert 0 angepasst.
Experimentelle Ergebnisse:
Sobald das Bild am CIFO-Ausgang erfasst ist, wird die inhomogene Beleuchtung korrigiert und anschließend der Rekonstruktionsprozess angewendet [5, 6]. Die erzielten Ergebnisse sind in Abbildung 3 dargestellt. Diese zeigt das Originalbild, das rekonstruierte Bild ohne Beleuchtungskorrektur und das rekonstruierte Bild mit Beleuchtungskorrektur: mittels eines multiplikativen Faktors, mittels des YIQ-Raums mit anschließender Beleuchtungserhöhung (g = 0,6) und mittels Beleuchtungskalibrierung durch Approximation einer Geraden (Abb. 3(a) bis (e)).
Schlussfolgerungen
: Wie in Abbildung 3 zu sehen ist, ist die Beleuchtungskalibrierung (insbesondere mit einer Approximation erster Ordnung) die effizienteste Methode. Wie Abbildung 3(e) zeigt, reduziert diese Methode im Vergleich zur Rekonstruktion ohne Lichtkorrektur das Rauschen deutlich und stellt die Originalfarben wieder her. Die Methode mit dem YIQ-Farbraum bietet den Vorteil einer wesentlich kürzeren Verarbeitungszeit (mit MATLAB®: 1,6 Sekunden gegenüber 20 Sekunden bei der Korrektur mit Lichtkalibrierung). Obwohl sie das Bildrauschen reduziert, führt sie zu einer Abschwächung der Farben. Die Methode mit einem einzigen Multiplikationsfaktor liegt hinsichtlich der Verarbeitungszeit zwischen den beiden anderen Methoden, reduziert das Rauschen jedoch nicht signifikant, sondern verändert stattdessen den Farbton.
Letztendlich könnte diese Methode zur Korrektur inhomogener Beleuchtung in vielen weiteren Anwendungen mit Kameras eingesetzt werden, insbesondere in dunklen Umgebungen oder wenn Farbinformationen wiederhergestellt werden müssen.

 

Weitere Informationen oder ein Angebot

 

Danksagung
Diese Arbeit wurde teilweise durch das spanische Projekt SILPAR (System for Absolute Robot Localization and Positioning. Development of an Intelligent Space), Nationales Programm für Industriedesign und Produktion, Ministerium für Wissenschaft und Technologie, Ref. DPI 2003-05067, und das regionale Projekt TIFO (Sensorisches System zur Bilderkennung und -übertragung über optische Faser zur Entwicklung eines intelligenten Raums) der Autonomen Gemeinschaft Madrid, Ref. GR/MAT/0720/2004, gefördert.
Literatur
[1] VI Bovrinev, Jung-Young Son, Seong-Keun Lee, „Two-dimensional spectral multiplexing method for direct image transmission through an optical fiber“, Opt. Eng., 36, 1, 15-21, 1997.
[2] CE Dionne, RA Gonsalves, „Optical incoherent imaging through a thin slab waveguide“, Opt. Eng., 39, 9, 2392-2396, 2000.
[3] Smith JS, Lucas J., „A vision-based system seam tracker for butt-plate TIG welding“, J. Phys. E. Sci. Instrum., 22, 435-440, 1989.
[4] Gamo, J; Horche, PR; Merchan, M.; Rodriguez, M. und Rosales, P, „A neural-network based system for pattern recognition through a fiber-optic bundle“, Proc. SPIE, 4305, S. 119, 2001.
[5] J. Gamo, O. Demuynck, Ó. Esteban, JL Lázaro, A. Cubillo, „Calibration of incoherent optical-fiber-bundle for image transmission purpose“, Proc. IADAT, 2005.
[6] O. Demuynck, Ó. Esteban, JL Lázaro, J. Gamo, Á. Cubillo, „Bildübertragung mittels eines inkohärenten optischen Faserbündels“, Proc. OPTOEL'05, 2005.
[7] MJ Tsai, JS Smith, J. Lucas, „Mehrfaserkalibrierung inkohärenter optischer Faserbündel für die Bildübertragung“, Trans. Inst. MC, 15, 5, 260-268, 1993.

Autorenbiografien

 

Olivier Demuynck erwarb 2001 seinen Abschluss in Computertechnik am ISIMA (Institut Supérieur en Informatique, Modélisation et ses Applications) in Clermont-Ferrand, Frankreich. Derzeit promoviert er am Institut für Elektronik der Universität Alcalá. Seine Forschungsschwerpunkte liegen in den Bereichen Bildverarbeitung für Robotik, intelligente Raumsysteme, Bild- und Signalverarbeitung, dreidimensionale Rekonstruktion mittels Mehrbildanalyse und Optik.

José Luis Lázaro erwarb 1985 und 1992 seine Abschlüsse in Elektronik und Telekommunikationstechnik an der Polytechnischen Universität Madrid und promovierte 1998 an der Universität Alcalá im Bereich Telekommunikation, wo er derzeit als Professor tätig ist. Seine Forschungsschwerpunkte liegen auf Sensor- und Lasersystemen für Robotik, Infrarot- und Bildverarbeitungsanwendungen für intelligente Umgebungen sowie monokularer Messtechnik.

Oscar Esteban erwarb 1997 seinen Bachelor-Abschluss und 2001 seinen Doktortitel in Physik mit Schwerpunkt auf fortgeschrittener Optik an der Complutense-Universität Madrid. Derzeit ist er Professor am Institut für Elektronik der Universität Alcalá. Seine Forschungsschwerpunkte liegen im Bereich faseroptischer Sensoren und optoelektronischer Anwendungen für intelligente Räume.

Daniel Pizarro schloss sein Studium der Telekommunikationstechnik an der Universität Alcalá im Jahr 2003 ab. Von 2003 bis 2005 war er als wissenschaftlicher Mitarbeiter am Institut für Elektronik der Universität Alcalá tätig. Seit 2005 ist er dort als Assistenzprofessor angestellt. Seine Forschungsschwerpunkte liegen in den Bereichen Computer Vision, intelligente Raumkonzepte, Optimierungstheorie, dreidimensionale Rekonstruktion mittels Mehrbildanalyse, visuelles SLAM und Regelungstechnik.

Javier Gamo erwarb 1993 seinen Bachelor of Science in Physik an der Universität Saragossa und 2000 seinen Doktortitel in Naturwissenschaften an der Polytechnischen Universität Madrid. Im Jahr 2000 trat er der Forschungs- und Entwicklungsabteilung der spanischen Königlichen Münze (Fábrica Nacional de Moneda y Timbre – Real Casa de la Moneda) bei. Seitdem ist er zudem als außerordentlicher Professor am Institut für Elektronik der Universität Alcalá tätig. Seine Forschungsschwerpunkte liegen im Bereich der optischen Sicherheit von Wert- und Ausweisdokumenten.

 

Autoren:

O. Demuynck, JL Lázaro, Ó. Esteban, D. Pizarro, J. Gamo

Fachbereich Elektronik, Höhere Polytechnische Schule,

Universität Alcalá. Universitätscampus, s/n

28871 Alcalá de Henares (Madrid-Spanien).

E-Mail: Diese E-Mail-Adresse ist vor Spambots geschützt. Sie benötigen aktiviertes JavaScript, um sie anzuzeigen.