1.3 Verhältnis von Lichtstärke zu Lichtstrom
1.7 Lichtfluß bei Abbildung durch Linsen
2.1 Spektrale Empfindlichkeiten
2.2 Lichtempfindlichkeit von Photodioden
2.3 Lichtempfindlichkeit von CCD-Sensoren und Kameras
4.1 Monochromes Videosignal nach CCIR 624 Elektrische Spezifikation Bildaufbau Bildsynchronisationssignale Zeilensynchronisationsimpuls RGB-Videosignal YC-Videosignal (SVHS-Signal) PAL-Videosignal Integrationszeit Field-Integration Betrieb Frame-Integration Betrieb Gain / AGC g - Korrektur 5. Grundlagen der Optik |
Grundlage jeder Bildanalyse ist die Bilderfassung in einer möglichst guten Qualität. Um dieses Ziel erreichen zu können, ist ein Grundwissen in den nachfolgend angegebenen Gebieten für den Anwender von Vorteil:
Im folgenden wird versucht, die in der Praxis am häufigsten benötigten Begriffe in möglichst kurzer und übersichtlicher Form darzustellen. Auf längere mathematische Herleitungen und physikalische Details wurde bewußt verzichtet. 1. Lichttechnische Grundlagen 1.1 Lichtstrom Der Lichtstrom F v bezeichnet den spektralen Strahlungsfluß einer Strahlungsquelle und ist damit das Maß für die gesamte abgestrahlte Leistung. Der
Strahlungsfluß des grünen Strahlers (l = 555 nm) mit 1 W Leistung entspricht dabei
einem Lichtstrom von 683 Lumen (lm). 1.2 Lichtstärke Die
Lichtstärke I v bezeichnet den Lichtstrom pro
Raumwinkel sr (Einheitskugel: Raumwinkel = 4p [sr]) und wird in Candela (cd)
gemessen. 1.3 Verhältnis von Lichtstärke zu Lichtstrom Für einen
kegelförmig abstrahlenden Strahler mit
a = halber Kegelwinkel berechnet sich der gesamte
abgestrahlte Lichtstrom (= Strahlungsleistung) aus der
Lichtstärke I v wie folgt. 1.4 Beleuchtungsstärke Die
Beleuchtungsstärke Ev bezeichnet den Lichtstrom
pro Flächeneinheit und wird in Lux (lx) gemessen. 1.5 Leuchtdichte Die Leuchtdichte
Lv bezeichnet den pro Raumwinkel und pro
Flächenelement abgestrahlten Lichtstrom
Fv einer strahlenden oder angestrahlten und
reflektierenden Fläche. Dieses Maß entspricht dem
Helligkeitseindruck einer Fläche. Die Leuchtdichte einer
Fläche wird in Nit (nt) angegeben. 1.6 Lambertstrahler Mit Lambertstrahler wird eine vollkommen diffus und verlustfrei reflektierende Fläche bezeichnet. Wird ein Lambertstrahler mit einer Beleuchtungsstärke Ev bestrahlt so berechnet sich die Leuchtdichte des Lambertstrahlers zu: In der Praxis stellen matte Oberflächen recht gute Annäherungen an den idealen Lambertstrahler dar, wobei der Reflexionsgrad oft recht unterschiedlich und spektral abhängig (bei farbigen Flächen) ist. Bei einem weißem Blatt Papier liegt der Reflexionsfaktor in einer Größenordnung von ca. 66% und kann als Orientierungswert verwendet werden. 1.7 Lichtfluß bei Abbildung durch Linsen Zur Beurteilung der benötigten Beleuchtungsstärke bei der Aufnahme von Gegenständen durch Kameras ist der Zusammenhang zwischen der Leuchtdichte der Oberfläche der Gegenstände und der daraus resultierenden Beleuchtungsstärke in der Bildebene (Sensorebene) wichtig. Die Beleuchtungsstärke in der Bildebene, im folgenden mit Evb bezeichnet, kann dabei in guter Näherung aus der Leuchtdichte Lv der aufzunehmenden Gegenstände wie folgt berechnet werden: Dabei bezeichnet Z = f/D die Blendenzahl (= Verhältnis Brennweite zu Objektivöffnung) des verwendeten Objektivs. Handelt es sich bei
der aufzunehmenden Fläche um einen Lambertstrahler, so kann
die Beleuchtungsstärke Evb in der Bildebene (=
Sensorebene) aus der Beleuchtungsstärke Evb des
Lambertstrahlers wie folgt angenähert werden: 2. Lichttechnische Eigenschaften von Bauelementen 2.1 Spektrale Empfindlichkeiten Im nachfolgenden
Diagramm sind die spektralen Empfindlichkeiten des menschlichen
Auges, eines typischen CCD-Sensors, einer Si-Photodiode sowie das
Emissionsspektrum einer Glühlampe zusammengestellt.
LED´s strahlen im Gegensatz zu Glühlampen sehr
schmalbandig ab. Ihre typische Strahlungsbandbreite liegt in der
Größenordnung von 50 nm. Wegen der guten Empfindlichkeit der CCD-Sensoren im nahen IR-Bereich bietet sich bei CCD-Kameras auch eine Beleuchtung mittels IR-LED´s an. Diese besitzen einen höheren Wirkungsgrad als LED´s im sichtbaren Bereich. In Verbindung mit einem Sperrfilter für den sichtbaren Bereich lassen sich damit Aufnahmesysteme mit einer guten Störlichtunterdrückung (insbesondere gegenüber Leuchtstofflampen) realisieren. 2.2 Lichtempfindlichkeit von Photodioden Eine Photodiode
erzeugt einen der Beleuchtungsstärke proportionalen
Photostrom. Dieser ist dabei nicht von der Belichtungszeit
abhängig. 2.3 Lichtempfindlichkeit von CCD-Sensoren und Kameras Ein CCD-Sensor
basiert auf dem Ladungsprinzip. Dabei werden durch den Lichtstrom
Ladungen erzeugt, die aus dem Sensor seriell ausgelesen und als
Spannung gemessen werden. Die Stärke der erzeugten Ladung
ist dabei dem Produkt aus Beleuchtungsstärke mal
Beleuchtungsdauer proportional. 3. Umrechnungen häufig benötigter Größen 1 J = 1 W
s 4. Videotechnik Wenn man von hochauflösenden Spezialkameras sowie sonstigen speziellen Bildgebern (z.B.: Scanner oder Slow-Scan-Systeme) absieht, wird die Bildinformation fast aller Kameras als Videosignal ausgegeben. Für monochrome Signale gilt dabei in Deutschland die CCIR 624 Norm bzw. für Farbsignale die PAL-Norm. Andere gängige Normen sind NTSC (in USA) und SECAM (in Frankreich,Osteuropa), die sich von der CCIR 624 Norm in Zeilenzahl und Zeitverhalten, jedoch nicht vom prinzipiellen Aufbau her unterscheiden. Daher wird im folgenden die CCIR 624 Norm für die Kodierung von Bildinformationen exemplarisch vorgestellt. Die Übertragung von Farbbildern basiert auf der für monochrome Signale. Die dazu nötigen Erweiterungen werden im Absatz 4.2 besprochen. 4.1 Monochromes Videosignal nach CCIR 624 Elektrische Spezifikation Videosignale werden
als Analogsignale mit einem Signalhub von 1 VSS
übertragen. Die Leitungsimpedanz für die
Signalübertragung ist mit 75 W
festgelegt. Im industriellen Bereich werden zur Anbindung
hauptsächlich BNC-Verbinder sowie 10-polige
Videosteckverbinder eingesetzt. Im Consumer-Bereich finden
häufig Cinch-Steckverbinder Verwendung. Bildaufbau Die Kodierung des
Videosignals wurde gleichzeitig mit der Entwicklung der
Fernsehtechnik festgelegt. Um das Flimmern eines Monitors in
einem erträglichen Rahmen zu halten, ist eine Bildfrequenz
von mindestens 50 Hz erforderlich. Da bei dieser Bildfrequenz die
Übertragung eines kompletten Bildes zu, damals nur schwer
beherrschbaren Signalfrequenzen führt, wird das Vollbild
(Frame) aus zwei Feldern (Field) zusammengesetzt. Dabei
enthält das eine Halbbild die Information aller geraden, das
andere die aller ungeraden Bildzeilen. Die Halbbilder werden
alternierend mit einer Frequenz von 50 Hz übertragen. Diese
Technik ermöglicht trotz der niedrigeren Vollbildfrequenz
von 25 Hz eine flimmerarme Flächendarstellung. Die Abtastung
eines Bildes erfolgt zeilenweise von oben nach unten, die Zeilen
werden von links nach rechts abgetastet. Bildsynchronisationssignale Nachfolgend werden
nur die wichtigsten Synchronisationssignale besprochen, die
üblicherweise in der Bildanalyse von Bedeutung
sind. · S:
zusammengesetztes Synchronisationssignal (composite
sync) Zeilensynchronisationsimpulse Neben dem H-Impuls
sind für die Dekodierung einer Bildzeile noch weitere
Impulse von Bedeutung. Die wichtigsten dieser Impulse sind im
nachfolgenden Diagramm dargestellt. Für die einzelnen Zeiten
gelten dabei folgende Werte: Jede Zeile eines
Videobildes läßt sich in zwei Bereiche für
Synchronisation und Bildinformation unterteilen. Die
Synchronisationsinformation wird dabei im Zeitintervall der
horizontalen Austastlücke A(H) übertragen. In der
restlichen Zeit von 52 µs erfolgt dann die Übertragung
der Zeilengrauwerte (bzw. der Intensitäts- und
Farbinformation bei Farbbildern). 4.2 Farbübertragung Zur Kodierung von Farbbildern sind in der Videotechnik hauptsächlich drei verschiedene Signalarten in Verwendung. Diese sollen im folgenden mit ihren spezifischen Eigenschaften kurz vorgestellt werden. Die verwendeten Bezeichnungen für die Impulse sind dem Schema der Zeilensynchronisationsimpulse zu entnehmen. RGB-Videosignal Diese Darstellung
findet hauptsächlich bei Monitoren sowie 3-Chip-CCD-Kameras
Verwendung. Dabei wird die Farbinformation für den roten,
grünen und blauen Spektralbereich mit drei getrennten
Videosignalen übertragen. Diese sind jeweils wie das
monochrome Signal aufgebaut, wobei die
Synchronisationsinformation entweder über getrennte Signale
oder aber dem Grünsignal überlagert übertragen
wird. YC-Videosignal (SVHS-Signal) Beim YC-Signal wird die RGB-Intensitätsinformation in eine Darstellung im HSI-Koordinatenraum umgewandelt. Dabei bezeichnen H (Hue) die Färbung, S (Saturation) die Sättigung und I (Intensity) die Helligkeit eines Bildpunktes. Die Helligkeitsinformation wird durch das Intensitätssignal Y (Luminanzsignal), welches dem monochromen Videosignal entspricht, übertragen. Die H- und S-Informationen werden durch das Chrominanzsignal C codiert. Dies erfolgt durch Modulation des Farbträgers mit einer Trägerfrequenz von 4.43 MHz. Dieser Farbträger wird durch die Sättigung amplitudenmoduliert, mit der Färbung erfolgt eine zusätzliche Phasenmodulation. Als Referenz für die Phasenlage 0° wird für jede Zeile ein Farbburstsignal mit Phasenlage 0° generiert. Durch die Modulation der Farbinformation ist diese auf eine Bandbreite von 4.43 MHz begrenzt, während die Luminanzinformation ohne Bandbreitenbegrenzung übertragen wird. PAL-Videosignal Bei einem PAL-Videosignal werden das Y- und C-Signal zu einem einzigen Signal aufsummiert. Damit eine nachfolgende Zerlegung in die Komponentensignale möglich ist, muß dazu die Bandbreite des Y-Signals auf einen Wert kleiner 4.43 MHz begrenzt werden. Bei dieser Farbdarstellung sind sowohl Chrominanz als auch Luminanzinformation bandbreitenbegrenzt, so daß mit dieser Signalart die schlechteste Bildqualität erzielt wird. 4.3 Full-Frame Kameras Der Hauptnachteil
der interlaced Aufnahmetechnik mit Videokameras besteht in der
zeitversetzten Belichtung der beiden Halbbilder. Bei der Aufnahme
von bewegten Gegenständen entsteht dadurch ein Zeilenversatz
des Gegenstandes in den beiden Bildern, so daß nur eines
der beiden Halbbilder für die Verarbeitung genutzt werden
kann, wodurch sich die nutzbare Auflösung
halbiert. 4.4 Kamerabetriebsarten Integrationszeit Die Integrationszeit ist die Belichtungszeit der Kamera. Während dieser Zeit erfolgt die Integration des einfallenden Lichtes auf den Sensor. Bei einer kürzeren Einstellung als der Halbbilddauer von 20 ms erfolgt die Belichtung am Ende eines jeden Halbbildes. Während der restlichen Zeit wird der Sensor bei einem, für gewöhnlich elektronischen Shutter entladen, so daß in dieser Zeit durch Rauschen entstehende Ladungen abgesaugt werden. Auch bei Einsatz eines Blitzgerätes als Beleuchtungsquelle ist deshalb eine zusätzliche Einstellung einer kurzen elektronischen Belichtungszeit sinnvoll. Field-Integration-Betrieb In dieser
Betriebsart erfolgt die Belichtung eines Halbbildes während
das vorangehende Halbbild ausgelesen wird. Hierbei handelt es
sich um die häufigste Betriebsart von CCD-Kameras. Die
maximale Belichtungszeit beträgt dabei 20 ms (50 Hz
PAL-Signal). Frame-Integration-Betrieb Diese, bei einigen
Kameras zusätzlich vorhandene Betriebsart ermöglicht
eine längere Belichtungszeit über zwei vorangehende
Halbbilder (40 ms). Dies bewirkt eine höhere
Lichtempfindlichkeit, wobei aber ein, technologisch bedingter,
geringer Verlust in der Auflösung in Kauf genommen werden
muß. Interessant bei dieser Betriebsart ist die Möglichkeit zur Vollbildbelichtung von Bildern mit Hilfe eines Blitzgerätes, da sich die Belichtungsintervalle für je zwei aufeinanderfolgende Halbbilder überlappen. Auf diese Weise können auch mit interlaced Kameras Vollbilder gewonnen werden. Nachteilig ist hier jedoch die hohe Fremdlichtempfindlichkeit, da sich das Fremdlicht dem Blitz überlagert und die Belichtungszeit auf 40 ms eingestellt bleiben muß. Weiterhin ist durch die lange Integrationszeit auch mit einem höheren Signalrauschen als bei einer echten Full-Frame-Kamera zu rechnen. In Sonderfällen kann diese Aufnah-metechnik jedoch eine sehr preisgünstige Alternative zu den, immer noch recht teueren, Full-Frame-Kameras darstellen. Gain / AGC Über die
Gain-Einstellung wird die Nachverstärkung des aus dem
CCD-Sensor ausgelesenen Videosignals geregelt. Durch eine hohe
Nachverstärkung kann zwar ein dunkles Bild heller
dargestellt werden, jedoch geht dies auf Kosten der
Bildqualität, da durch die Gain-Regelung die
Lichtempfindlichkeit des CCD-Sensors nicht beeinflußt wird.
Folglich führt eine hohe Verstärkung zu einer
Verschlechterung des Signalrauschens im Videosignal. g - Korrektur Mit g-Korrektur wird eine einstellbare Nichtlinearität der Verstärkungskennlinie der Kamera bezeichnet. Für einen Gammawert g = 1 wird eine lineare Verstärkung erzielt. Die Kennlinienformen für andere Werte von g sind dem folgenden Diagramm zu entnehmen. Die g- Korrektur wird angewendet, um durch die nichtlineare Verstärkung eine Optimierung des nutzbaren Bildkontrasts unter den verschiedensten Einsatzbedingungen zu ermöglichen. 5. Grundlagen der Optik Im folgenden sollen
die wichtigsten Berechnungsgrundlagen für die Berechnung von
Objektiven vorgestellt werden. Zur Vereinfachung wird ein
Objektiv dabei als eine einzelne, dünne Linse angesehen. Es
bezeichnen: 5.1 Schärfebedingung Eine scharfe
Abbildung für ein Objektiv liegt vor, wenn die nachfolgende
Bedingung erfüllt ist. Für alle weiteren Betrachtungen
wird diese Bedingung als gegeben angenommen. 5.2 Abbildungsmaßstab Der
Abbildungsmaßstab m, d. h. Bildgröße /
Gegenstandsgröße berechnet sich zu: 5.3 Blendenzahl Die Blendenzahl Z,
das Maß für die Lichtstärke eines Objektivs, ist
als Verhältnis der Brennweite zur Objektivöffnung
(Linsendurchmesser) definiert. 5.4 Tiefenschärfe Mit der
Tiefenschärfe Dg wird derjenige
Toleranzbereich der Gegenstandsweite g bezeichnet für den
ein Gegenstand noch "scharf" abgebildet wird. Dabei ist "scharf"
so zu verstehen, daß bei der Betrachtung oder Bearbeitung
des Bildes keine Unschärfe erkennbar ist. Wird von einem
punktförmigen Objekt in der Objektebene ausgegangen, so wird
bei einer Variation der Gegenstandsweite g das Objekt als mehr
oder weniger große Scheibe (Unschärfekreis, dessen
Durchmesser im folgenden mit d
bezeichnet wird) in der Bildebene abgebildet. Ist der Durchmesser
dieser Scheibe kleiner als die Auflösung in der Bildebene
(Pixelabstand bei CCD-Kameras, Filmkörnung im Fotobereich)
so wird eine Abbildung als scharf betrachtet. Für die
Berechnung der Tiefenschärfe wird g > f angenommen
(reelle Abbildung). Durch Umformung und Anwendung der Schärfebeziehungen 1/f = 1/b + 1/g = 1/b´ + 1/g´ = 1/b" + 1/g" ergibt sich: Durch Auflösung nach g´ bzw. g" berechnen sich die minimale und maximale Entfernung für die Abbildung eines Punktes auf einen Unschärfekreis < d zu: Durch Differenzbildung zur Gegenstandsweite g und Verwendung der Beziehung Z = f/D lassen sich nun die Tiefenschärfen berechnen: Die obige Formel
für Dg+ gilt nur
für Gegenstandsweiten g < (f² /
d Z). Für g >= (f² /
d Z) ist die Tiefenschärfe
Dg+ = ¥ und die
angegebene Berechnungsformel nicht mehr gültig, da in deren
Ableitung sowohl für g als auch für g" die
Schärfebedingung aus 5.1 benutzt wird. Für sehr kleine Werte von d und g << f² / d Z kann der Ausdruck (dZg / f)² vernachlässigt werden, wodurch sich die Tiefenschärfe D g wie folgt annähern läßt: 5.5 Telezentrische Objektive Insbesondere bei der Objektvermessung ist die begrenzte Tiefenschärfe sowie die Abhängigkeit des Abbildungsmaßstabs von der Gegenstandsweite (Abstand Objekt vom Objektiv) störend. Zur Unterdrückung dieser Fehler werden an Stelle der oben beschriebenen Objektive zunehmend telezentrische Optiken eingesetzt. Diese besitzen den nachfolgend skizzierten Aufbau. In die Brennebene
des Objektivs wird eine kleine Lochblende eingefügt, die nur
diejenigen Strahlen durchläßt, die durch den
Brennpunkt des Objektivs laufen. Dies sind alle parallel in des
Objektiv einfallenden Lichtstrahlen. Bei Änderung der
Gegenstandsweite g erfolgt bei einer idealen, punktförmigen
Lochblende weder Änderung des Abbildungsmaßstabs noch
der Objektschärfe. |