Grundlagen der Bildanalyse

1. Lichttechnische Grundlagen

1.1 Lichtstrom

1.2 Lichtstärke

1.3 Verhältnis von Lichtstärke zu Lichtstrom

1.4 Beleuchtungsstärke

1.5 Leuchtdichte

1.6 Lambertstrahler

1.7 Lichtfluß bei Abbildung durch Linsen


2. Lichttechnische Eigenschaften von Bauelementen

2.1 Spektrale Empfindlichkeiten

2.2 Lichtempfindlichkeit von Photodioden

2.3 Lichtempfindlichkeit von CCD-Sensoren und Kameras


3. Umrechnungen häufig benötigter Größen

4. Videotechnik

4.1 Monochromes Videosignal nach CCIR 624

Elektrische Spezifikation

Bildaufbau

Bildsynchronisationssignale

Zeilensynchronisationsimpuls

4.2 Farbübertragung

RGB-Videosignal

YC-Videosignal (SVHS-Signal)

PAL-Videosignal

4.3 Full-Frame Kameras

4.4 Kamerabetriebsarten

Integrationszeit

Field-Integration Betrieb

Frame-Integration Betrieb

Gain / AGC

g - Korrektur


5. Grundlagen der Optik

5.1 Schärfebedingung

5.2 Abbildungsmaßstab

5.3 Blendenzahl

5.4 Tiefenschärfe

5.5 Telezentrische Objektive





Grundlage jeder Bildanalyse ist die Bilderfassung in einer möglichst guten Qualität. Um dieses Ziel erreichen zu können, ist ein Grundwissen in den nachfolgend angegebenen Gebieten für den Anwender von Vorteil:

  • Licht- und Beleuchtungstechnik
  • Lichttechnische Eigenschaften von Bauelementen
  • Videotechnik
  • Optik

Im folgenden wird versucht, die in der Praxis am häufigsten benötigten Begriffe in möglichst kurzer und übersichtlicher Form darzustellen. Auf längere mathematische Herleitungen und physikalische Details wurde bewußt verzichtet.



1. Lichttechnische Grundlagen

1.1 Lichtstrom

Der Lichtstrom F v bezeichnet den spektralen Strahlungsfluß einer Strahlungsquelle und ist damit das Maß für die gesamte abgestrahlte Leistung.


Der Strahlungsfluß des grünen Strahlers (l = 555 nm) mit 1 W Leistung entspricht dabei einem Lichtstrom von 683 Lumen (lm).

1 W = 683 lm



1.2 Lichtstärke

Die Lichtstärke I v bezeichnet den Lichtstrom pro Raumwinkel sr (Einheitskugel: Raumwinkel = 4p [sr]) und wird in Candela (cd) gemessen.

1 cd = 1 lm / sr



1.3 Verhältnis von Lichtstärke zu Lichtstrom

Für einen kegelförmig abstrahlenden Strahler mit a = halber Kegelwinkel berechnet sich der gesamte abgestrahlte Lichtstrom (= Strahlungsleistung) aus der Lichtstärke I v wie folgt.

Punktförmiger Strahler: Fv = 4p * I v

Strahler mit Abstrahlwinkel a < 90° : F v = 2p * I v * (1 - cos a)



1.4 Beleuchtungsstärke

Die Beleuchtungsstärke Ev bezeichnet den Lichtstrom pro Flächeneinheit und wird in Lux (lx) gemessen.

1 lx = 1 lm / m²



1.5 Leuchtdichte

Die Leuchtdichte Lv bezeichnet den pro Raumwinkel und pro Flächenelement abgestrahlten Lichtstrom Fv einer strahlenden oder angestrahlten und reflektierenden Fläche. Dieses Maß entspricht dem Helligkeitseindruck einer Fläche. Die Leuchtdichte einer Fläche wird in Nit (nt) angegeben.

1 nt = 1 cd / m² = 1 lx / sr



1.6 Lambertstrahler

Mit Lambertstrahler wird eine vollkommen diffus und verlustfrei reflektierende Fläche bezeichnet. Wird ein Lambertstrahler mit einer Beleuchtungsstärke Ev bestrahlt so berechnet sich die Leuchtdichte des Lambertstrahlers zu:

Bild


In der Praxis stellen matte Oberflächen recht gute Annäherungen an den idealen Lambertstrahler dar, wobei der Reflexionsgrad oft recht unterschiedlich und spektral abhängig (bei farbigen Flächen) ist. Bei einem weißem Blatt Papier liegt der Reflexionsfaktor in einer Größenordnung von ca. 66% und kann als Orientierungswert verwendet werden.



1.7 Lichtfluß bei Abbildung durch Linsen

Zur Beurteilung der benötigten Beleuchtungsstärke bei der Aufnahme von Gegenständen durch Kameras ist der Zusammenhang zwischen der Leuchtdichte der Oberfläche der Gegenstände und der daraus resultierenden Beleuchtungsstärke in der Bildebene (Sensorebene) wichtig. Die Beleuchtungsstärke in der Bildebene, im folgenden mit Evb bezeichnet, kann dabei in guter Näherung aus der Leuchtdichte Lv der aufzunehmenden Gegenstände wie folgt berechnet werden:

Bild


Dabei bezeichnet Z = f/D die Blendenzahl (= Verhältnis Brennweite zu Objektivöffnung) des verwendeten Objektivs.


Handelt es sich bei der aufzunehmenden Fläche um einen Lambertstrahler, so kann die Beleuchtungsstärke Evb in der Bildebene (= Sensorebene) aus der Beleuchtungsstärke Evb des Lambertstrahlers wie folgt angenähert werden:

Evb » Ev / 4Z²

Ev » 4Evb

Bei obigen Formeln müssen in der Praxis noch der Reflexionsfaktor der angestrahlten Oberflächen sowie die spektralen Eigenschaften der Beleuchtung, der Oberflächen und des Kamerasensors berücksichtigt werden.



2. Lichttechnische Eigenschaften von Bauelementen

2.1 Spektrale Empfindlichkeiten

Im nachfolgenden Diagramm sind die spektralen Empfindlichkeiten des menschlichen Auges, eines typischen CCD-Sensors, einer Si-Photodiode sowie das Emissionsspektrum einer Glühlampe zusammengestellt. LED´s strahlen im Gegensatz zu Glühlampen sehr schmalbandig ab. Ihre typische Strahlungsbandbreite liegt in der Größenordnung von 50 nm.
Wegen der höheren IR-Empfindlichkeit der CCD-Sensoren gegenüber dem menschlichen Auge werden CCD-Kameras oft mit IR-Sperrfiltern ausgerüstet, um den Verlauf der relativen spektralen Empfindlichkeit der des menschlichen Auges anzupassen.


Bild


Wegen der guten Empfindlichkeit der CCD-Sensoren im nahen IR-Bereich bietet sich bei CCD-Kameras auch eine Beleuchtung mittels IR-LED´s an. Diese besitzen einen höheren Wirkungsgrad als LED´s im sichtbaren Bereich. In Verbindung mit einem Sperrfilter für den sichtbaren Bereich lassen sich damit Aufnahmesysteme mit einer guten Störlichtunterdrückung (insbesondere gegenüber Leuchtstofflampen) realisieren.



2.2 Lichtempfindlichkeit von Photodioden

Eine Photodiode erzeugt einen der Beleuchtungsstärke proportionalen Photostrom. Dieser ist dabei nicht von der Belichtungszeit abhängig.
Die Empfindlichkeit von Siliziumphotodioden wird im folgenden mit SD bezeichnet. Für Siliziumphotodioden beträgt dieser Wert typischerweise:

SD» 0,5 A / W

Der Photostrom I einer Siliziumphotodiode der Fläche A berechnet sich demnach aus der Beleuchtungsstärke Ev zu:

I = Ev * SD * A

Typischer Photostrom von Siliziumphotodioden: I » 0,8 nA * Ev [lx] * A [mm²]

BPX 65: I » 1 nA / lx
BPW 21R: I » 7 nA / lx

Mit Photodioden wird neben einer hohen Lichtempfindlichkeit auch ein sehr hoher Signal-Rauschabstand erzielt. Mit gängigen Photodioden sind hier nutzbare Dynamikbereiche von über 120 dB problemlos realisierbar.



2.3 Lichtempfindlichkeit von CCD-Sensoren und Kameras

Ein CCD-Sensor basiert auf dem Ladungsprinzip. Dabei werden durch den Lichtstrom Ladungen erzeugt, die aus dem Sensor seriell ausgelesen und als Spannung gemessen werden. Die Stärke der erzeugten Ladung ist dabei dem Produkt aus Beleuchtungsstärke mal Beleuchtungsdauer proportional.
Die Empfindlichkeit RCCD eines CCD-Sensors wird in V / mJcm² angegeben. Eine weitere wichtige Kenngröße ist die Sättigungsgrenze SECCD [mJ / cm²]. Um beim Betrieb eines CCD-Sensors ein möglichst gutes Signal-Rauschverhältnis zu erzielen, sollten die Betriebsbedingungen so gewählt werden, daß der Sensor an den hellsten Bildpunkten nahe an der Sättigungsgrenze betrieben wird.
Typische Werte für die Sättigungsgrenze gängiger CCD-Sensoren (Zeilen- und Matrixsensoren):

SECCDtyp » 0,005 - 0,5 mJ / cm² » 0,034 - 3,4 lx s

Der nutzbare Dynamikbereich (Signal-Rauschabstand) beträgt bei Zeilensensoren bis zu 80 dB, bei CCD-Kameras sind Dynamikbereiche von 50 - 60 dB gängig.
Die, von den meisten Kameraherstellern genannte Kameraempfindlichkeit in lx ist daher schon von der Einheit eine irreführende Angabe. (Allerdings wird meistens eine Belichtungszeit von 20 ms als gegeben angenommen). Da oft auch die Prüfbedingungen, wie der verwendete spektrale Bereich sowie insbesondere der Grad der Aussteuerung (sichtbares Bild oder Vollaussteuerung) nicht angegeben sind, kann aus den Daten im allgemeinen nur wenig Nutzen gezogen werden. Auch ein Vergleich verschiedener Kameratypen ist mit diesen Daten generell nur schwer möglich. Sinnvoller wäre hier die Angabe der Sättigungsgrenze SECCD, des Signal-Rauschabstandes sowie der spektralen Empfindlichkeit. Diese Daten müssen entweder vom Kamerahersteller erfragt oder den Datenblättern der CCD-Sensoren entnommen werden.



3. Umrechnungen häufig benötigter Größen

1 J = 1 W s

1 W = 683 lm

1 cd = 1 lm / sr = 1,464 mW / sr

1 lx = 1 lm / m² = 1,464 mW / m² = 0,1464 m W / cm²

1 W / m² = 683 lx 1 mW / cm² = 6830 lx 1 m W / cm² = 6,83 lx

1 m J / cm² = 1 m W s / cm² = 6,83 lx s



4. Videotechnik

Wenn man von hochauflösenden Spezialkameras sowie sonstigen speziellen Bildgebern (z.B.: Scanner oder Slow-Scan-Systeme) absieht, wird die Bildinformation fast aller Kameras als Videosignal ausgegeben. Für monochrome Signale gilt dabei in Deutschland die CCIR 624 Norm bzw. für Farbsignale die PAL-Norm. Andere gängige Normen sind NTSC (in USA) und SECAM (in Frankreich,Osteuropa), die sich von der CCIR 624 Norm in Zeilenzahl und Zeitverhalten, jedoch nicht vom prinzipiellen Aufbau her unterscheiden. Daher wird im folgenden die CCIR 624 Norm für die Kodierung von Bildinformationen exemplarisch vorgestellt. Die Übertragung von Farbbildern basiert auf der für monochrome Signale. Die dazu nötigen Erweiterungen werden im Absatz 4.2 besprochen.



4.1 Monochromes Videosignal nach CCIR 624

Elektrische Spezifikation

Videosignale werden als Analogsignale mit einem Signalhub von 1 VSS übertragen. Die Leitungsimpedanz für die Signalübertragung ist mit 75 W festgelegt. Im industriellen Bereich werden zur Anbindung hauptsächlich BNC-Verbinder sowie 10-polige Videosteckverbinder eingesetzt. Im Consumer-Bereich finden häufig Cinch-Steckverbinder Verwendung.
Ein Videosignal setzt sich aus dem Intensitätssignal (der eigentlichen Bildinformation) und den Signalen zur Bildsynchronisation zusammen. Das Intensitätssignal mit einem Signalhub von ca. 0.75 VSS und die Synchronisationssignale mit ca. 0.25 VSS werden dabei durch Addition dem eigentlichen Videosignal überlagert. Die Ankoppelung des Videosignals erfolgt bei Kameras üblicherweise durch AC-Koppelung (kapazitiv, ohne festes Spannungspotential), so daß für Intensitätsmessungen der Referenzspannungswert für Schwarz (im folgenden mit Schwarzwert bezeichnet) aus dem Signal regeneriert werden muß. Zu diesem Zweck wird vor und nach der Bildinformation jeder Zeile der Schwarzwert übertragen. Durch Differenzbildung der Intensitätsmeßwerte innerhalb der Zeile mit diesem Schwarzwert ist dadurch eine absolute Intensitätsmessung möglich.


Bildaufbau

Die Kodierung des Videosignals wurde gleichzeitig mit der Entwicklung der Fernsehtechnik festgelegt. Um das Flimmern eines Monitors in einem erträglichen Rahmen zu halten, ist eine Bildfrequenz von mindestens 50 Hz erforderlich. Da bei dieser Bildfrequenz die Übertragung eines kompletten Bildes zu, damals nur schwer beherrschbaren Signalfrequenzen führt, wird das Vollbild (Frame) aus zwei Feldern (Field) zusammengesetzt. Dabei enthält das eine Halbbild die Information aller geraden, das andere die aller ungeraden Bildzeilen. Die Halbbilder werden alternierend mit einer Frequenz von 50 Hz übertragen. Diese Technik ermöglicht trotz der niedrigeren Vollbildfrequenz von 25 Hz eine flimmerarme Flächendarstellung. Die Abtastung eines Bildes erfolgt zeilenweise von oben nach unten, die Zeilen werden von links nach rechts abgetastet.
Die im folgenden beschriebenen Bildsynchronisationssignale müssen im allgemeinen aus einem gegebenen Videosignal durch eine Synchronisationsschaltung erzeugt werden. Bei industriellen Kameras im Bereich der Bildanalyse stehen einige dieser Signale auch häufig direkt zur Verfügung, was einen einfacheren Aufbau und höhere Genauigkeit in der Bilderfassung ermöglicht.


Bildsynchronisationssignale

Nachfolgend werden nur die wichtigsten Synchronisationssignale besprochen, die üblicherweise in der Bildanalyse von Bedeutung sind.
Ein Vollbild besteht aus 625 Zeilen, die auf die beiden Halbbilder zu je 312½ Zeilen aufgeteilt sind. Dabei werden in den Halbbildern jeweils alle geraden bzw. ungeraden Bildzeilen übertragen. Der Beginn eines Halbbildes wird durch einen V-Sync-Impuls gekennzeichnet, die Zeilen eines der beiden Halbbilder sind zu diesem Impuls um eine halbe Zeilendauer versetzt. Innerhalb eines Halbbildes werden die Zeilen durch H-Sync-Impulse getrennt. Die Überlagerung der H-Sync- und V-Sync-Impulse ergibt das mit S bezeichnete Synchronisationssignal, welches den Intensitätsdaten überlagert wird.
Videosynchronisationssignale im 1. und 2. Halbbild


Bild


· S: zusammengesetztes Synchronisationssignal (composite sync)
· S*: S-Signal ohne Trabantenimpulse
· H-Imp: horizontaler Synchronisationsimpuls
· V-Imp: vertikaler Synchronisationsimpuls
· TR-Imp: Trabantenimpuls
· U-Imp: Unterbrechungsimpuls

In der Praxis findet als Synchronisationssignal neben dem S-Signal auch des S*-Signal (häufig bei Monitoren oder speziellen Bildgebern) Verwendung. Beim Aufbau einer Bildsynchronisation ist daher darauf zu achten, daß diese mit beiden Arten von Synchronisationssignalen lauffähig sind.



Zeilensynchronisationsimpulse

Neben dem H-Impuls sind für die Dekodierung einer Bildzeile noch weitere Impulse von Bedeutung. Die wichtigsten dieser Impulse sind im nachfolgenden Diagramm dargestellt. Für die einzelnen Zeiten gelten dabei folgende Werte:

Zeilendauer Z = 64 µs Delay d = 1,55 µs

H-Impuls h = 4,65 µs TR-Impuls tr = 2,25 µs

U-Impuls u = 4,65 µs Austastlücke A(H) = 12 µs

Burst delay db = 7 µs Burst-Impuls b = 2,25 µs

Bild


Jede Zeile eines Videobildes läßt sich in zwei Bereiche für Synchronisation und Bildinformation unterteilen. Die Synchronisationsinformation wird dabei im Zeitintervall der horizontalen Austastlücke A(H) übertragen. In der restlichen Zeit von 52 µs erfolgt dann die Übertragung der Zeilengrauwerte (bzw. der Intensitäts- und Farbinformation bei Farbbildern).
In der Austastlücke wird zunächst der H-Synchronisationsimpuls übertragen. Anschließend erfolgt bei monochromen Bildern die Übertragung des Schwarzwertes, sowie bei Farbbildern (PAL) ein, dem Schwarzwert überlagerter Burst-Impuls zur Phasensynchronisation der Farbdekodierung. Der Signalpegel in diesem Bereich ist der Referenzwert für die Intensitätsinformation innerhalb der Zeile.
Die TR- und U-Impulse werden im Bereich der Bildsynchronisation an Stelle der H-Impulse in den jeweiligen Zeilen übertragen. In diesen Zeilen erfolgt dabei keine Übertragung von Bildinformation.
Von den vorhandenen 625 Zeilen werden üblicherweise ca. 580 Zeilen zu Übertragung von Bildinformationen genutzt. Der Intensitätswert der übrigen Zeilen ist auf 0 gesetzt oder sie werden für spezielle Informationen wie VITC-Timecode oder Videotext verwendet.



4.2 Farbübertragung

Zur Kodierung von Farbbildern sind in der Videotechnik hauptsächlich drei verschiedene Signalarten in Verwendung. Diese sollen im folgenden mit ihren spezifischen Eigenschaften kurz vorgestellt werden. Die verwendeten Bezeichnungen für die Impulse sind dem Schema der Zeilensynchronisationsimpulse zu entnehmen.



RGB-Videosignal

Diese Darstellung findet hauptsächlich bei Monitoren sowie 3-Chip-CCD-Kameras Verwendung. Dabei wird die Farbinformation für den roten, grünen und blauen Spektralbereich mit drei getrennten Videosignalen übertragen. Diese sind jeweils wie das monochrome Signal aufgebaut, wobei die Synchronisationsinformation entweder über getrennte Signale oder aber dem Grünsignal überlagert übertragen wird.
Qualitativ stellt das RGB-Signal die beste Lösung zur Farbkodierung dar, da die Bandbreite für die Signale nicht begrenzt ist.



YC-Videosignal (SVHS-Signal)

Beim YC-Signal wird die RGB-Intensitätsinformation in eine Darstellung im HSI-Koordinatenraum umgewandelt. Dabei bezeichnen H (Hue) die Färbung, S (Saturation) die Sättigung und I (Intensity) die Helligkeit eines Bildpunktes. Die Helligkeitsinformation wird durch das Intensitätssignal Y (Luminanzsignal), welches dem monochromen Videosignal entspricht, übertragen. Die H- und S-Informationen werden durch das Chrominanzsignal C codiert. Dies erfolgt durch Modulation des Farbträgers mit einer Trägerfrequenz von 4.43 MHz. Dieser Farbträger wird durch die Sättigung amplitudenmoduliert, mit der Färbung erfolgt eine zusätzliche Phasenmodulation. Als Referenz für die Phasenlage 0° wird für jede Zeile ein Farbburstsignal mit Phasenlage 0° generiert. Durch die Modulation der Farbinformation ist diese auf eine Bandbreite von 4.43 MHz begrenzt, während die Luminanzinformation ohne Bandbreitenbegrenzung übertragen wird.



PAL-Videosignal

Bei einem PAL-Videosignal werden das Y- und C-Signal zu einem einzigen Signal aufsummiert. Damit eine nachfolgende Zerlegung in die Komponentensignale möglich ist, muß dazu die Bandbreite des Y-Signals auf einen Wert kleiner 4.43 MHz begrenzt werden. Bei dieser Farbdarstellung sind sowohl Chrominanz als auch Luminanzinformation bandbreitenbegrenzt, so daß mit dieser Signalart die schlechteste Bildqualität erzielt wird.



4.3 Full-Frame Kameras

Der Hauptnachteil der interlaced Aufnahmetechnik mit Videokameras besteht in der zeitversetzten Belichtung der beiden Halbbilder. Bei der Aufnahme von bewegten Gegenständen entsteht dadurch ein Zeilenversatz des Gegenstandes in den beiden Bildern, so daß nur eines der beiden Halbbilder für die Verarbeitung genutzt werden kann, wodurch sich die nutzbare Auflösung halbiert.
Abhilfe schaffen hier die, in den letzten Jahren speziell für die Bildanalyse entwickelten, Full-Frame Kameras, bei denen das komplette Bild zu einem einzigen Zeitpunkt belichtet wird. Das Grundprinzip des Ausgangssignals entspricht auch bei diesen Kameras dem des Videosignals. Das aufgenommene Vollbild wird je nach Kamera auf einmal oder aus Kompatibilitätsgründen auch in zwei Halbbilder gesplittet ausgegeben. Entscheidend ist hier also nicht die Kodierung des Ausgangssignals, sondern die Aufnahmetechnik der Kamera.



4.4 Kamerabetriebsarten

Integrationszeit

Die Integrationszeit ist die Belichtungszeit der Kamera. Während dieser Zeit erfolgt die Integration des einfallenden Lichtes auf den Sensor. Bei einer kürzeren Einstellung als der Halbbilddauer von 20 ms erfolgt die Belichtung am Ende eines jeden Halbbildes. Während der restlichen Zeit wird der Sensor bei einem, für gewöhnlich elektronischen Shutter entladen, so daß in dieser Zeit durch Rauschen entstehende Ladungen abgesaugt werden. Auch bei Einsatz eines Blitzgerätes als Beleuchtungsquelle ist deshalb eine zusätzliche Einstellung einer kurzen elektronischen Belichtungszeit sinnvoll.


Field-Integration-Betrieb

In dieser Betriebsart erfolgt die Belichtung eines Halbbildes während das vorangehende Halbbild ausgelesen wird. Hierbei handelt es sich um die häufigste Betriebsart von CCD-Kameras. Die maximale Belichtungszeit beträgt dabei 20 ms (50 Hz PAL-Signal).

Funktionsdiagramm für Field-Integration-Betrieb mit 10 ms Belichtungszeit

Bild



Frame-Integration-Betrieb

Diese, bei einigen Kameras zusätzlich vorhandene Betriebsart ermöglicht eine längere Belichtungszeit über zwei vorangehende Halbbilder (40 ms). Dies bewirkt eine höhere Lichtempfindlichkeit, wobei aber ein, technologisch bedingter, geringer Verlust in der Auflösung in Kauf genommen werden muß.

Funktionsdiagramm für Frame-Integration-Betrieb

Bild



Interessant bei dieser Betriebsart ist die Möglichkeit zur Vollbildbelichtung von Bildern mit Hilfe eines Blitzgerätes, da sich die Belichtungsintervalle für je zwei aufeinanderfolgende Halbbilder überlappen. Auf diese Weise können auch mit interlaced Kameras Vollbilder gewonnen werden. Nachteilig ist hier jedoch die hohe Fremdlichtempfindlichkeit, da sich das Fremdlicht dem Blitz überlagert und die Belichtungszeit auf 40 ms eingestellt bleiben muß. Weiterhin ist durch die lange Integrationszeit auch mit einem höheren Signalrauschen als bei einer echten Full-Frame-Kamera zu rechnen. In Sonderfällen kann diese Aufnah-metechnik jedoch eine sehr preisgünstige Alternative zu den, immer noch recht teueren, Full-Frame-Kameras darstellen.



Gain / AGC

Über die Gain-Einstellung wird die Nachverstärkung des aus dem CCD-Sensor ausgelesenen Videosignals geregelt. Durch eine hohe Nachverstärkung kann zwar ein dunkles Bild heller dargestellt werden, jedoch geht dies auf Kosten der Bildqualität, da durch die Gain-Regelung die Lichtempfindlichkeit des CCD-Sensors nicht beeinflußt wird. Folglich führt eine hohe Verstärkung zu einer Verschlechterung des Signalrauschens im Videosignal.
Mit AGC wird eine automatische Regelung der Verstärkung bezeichnet, wodurch die Signalamplitude des Videosignals auch bei wechselnden Lichtverhältnissen konstant gehalten wird. Neben der AGC-Regelung bieten einige Kameras auch die Möglichkeit der automatischen Integrationszeitregelung sowie der Blendensteuerung der Objektive an. Auf diese Weise ergibt sich ein sehr großer Beleuchtungsspielraum, der ohne manuelle Nachregelung abgedeckt werden kann. Dies ist vor allem für Anwendungen im Überwachungsbereich von großem Nutzen.



g - Korrektur

Mit g-Korrektur wird eine einstellbare Nichtlinearität der Verstärkungskennlinie der Kamera bezeichnet. Für einen Gammawert g = 1 wird eine lineare Verstärkung erzielt. Die Kennlinienformen für andere Werte von g sind dem folgenden Diagramm zu entnehmen.


Bild



Die g- Korrektur wird angewendet, um durch die nichtlineare Verstärkung eine Optimierung des nutzbaren Bildkontrasts unter den verschiedensten Einsatzbedingungen zu ermöglichen.



5. Grundlagen der Optik

Im folgenden sollen die wichtigsten Berechnungsgrundlagen für die Berechnung von Objektiven vorgestellt werden. Zur Vereinfachung wird ein Objektiv dabei als eine einzelne, dünne Linse angesehen. Es bezeichnen:

Z: Blendenzahl

D: Objektivöffnung [mm]

f: Brennweite [mm]

b: Bildweite [mm]

g: Gegenstandsweite [mm]

Dg: Tiefenschärfe = Intervallbreite der Gegenstandsweite für eine scharfe Abbildung [mm]


Bild



5.1 Schärfebedingung

Eine scharfe Abbildung für ein Objektiv liegt vor, wenn die nachfolgende Bedingung erfüllt ist. Für alle weiteren Betrachtungen wird diese Bedingung als gegeben angenommen.

1/g + 1/b = 1/f oder f² = (g - f) ( b - f)

Dabei muß für reelle Bilder g > f gelten. Für g < f entstehen virtuelle Bilder (Lupe). g = f liefert keine Abbildung.



5.2 Abbildungsmaßstab

Der Abbildungsmaßstab m, d. h. Bildgröße / Gegenstandsgröße berechnet sich zu:

m = b / g = (b - f) / f = f / (g - f)

Für b = g = 2f wird ein Abbildungsfaktor von m = 1 erzielt.



5.3 Blendenzahl

Die Blendenzahl Z, das Maß für die Lichtstärke eines Objektivs, ist als Verhältnis der Brennweite zur Objektivöffnung (Linsendurchmesser) definiert.

Z = f / D

Eine Verdoppelung der Blendenzahl führt zu einer Verringerung der Beleuchtungsstärke in der Bildebene auf ¼. Siehe dazu auch Absatz 1.7.


5.4 Tiefenschärfe

Mit der Tiefenschärfe Dg wird derjenige Toleranzbereich der Gegenstandsweite g bezeichnet für den ein Gegenstand noch "scharf" abgebildet wird. Dabei ist "scharf" so zu verstehen, daß bei der Betrachtung oder Bearbeitung des Bildes keine Unschärfe erkennbar ist. Wird von einem punktförmigen Objekt in der Objektebene ausgegangen, so wird bei einer Variation der Gegenstandsweite g das Objekt als mehr oder weniger große Scheibe (Unschärfekreis, dessen Durchmesser im folgenden mit d bezeichnet wird) in der Bildebene abgebildet. Ist der Durchmesser dieser Scheibe kleiner als die Auflösung in der Bildebene (Pixelabstand bei CCD-Kameras, Filmkörnung im Fotobereich) so wird eine Abbildung als scharf betrachtet.

Für CCD-Kameras liegt d in der Größenordnung von ca. 0.01 - 0.005 mm.


Bild


Für die Berechnung der Tiefenschärfe wird g > f angenommen (reelle Abbildung).
Es bezeichnen:

G: Gegenstandsebene B: Bildebene

g: Gegenstandsweite b: Bildweite

Ein Punkt in der Gegenstandsebene G wird bei korrekt eingestellter Schärfe (Bedingung in 5.1) auf einen Punkt in der Bildebene B abgebildet. Die Punkte an den Positionen G´ und G" werden auf B´ bzw. B" punktförmig abgebildet. Aus der Zeichnung ist zu ersehen, daß das Bild dieser Punkte in der Bildebene B ein Kreis mit Radius d ist.

Ziel ist die Berechnung der Tiefenschärfen Dg-:= g-g´ sowie Dg+:=g"-g in Abhängigkeit von der Objektivöffnung D und dem Durchmesser des Unschärfekeises d.
Auf Grund des Strahlensatzes gilt:


Bild

Bild



Durch Umformung und Anwendung der Schärfebeziehungen 1/f = 1/b + 1/g = 1/b´ + 1/g´ = 1/b" + 1/g" ergibt sich:


Bild

Bild



Durch Auflösung nach g´ bzw. g" berechnen sich die minimale und maximale Entfernung für die Abbildung eines Punktes auf einen Unschärfekreis < d zu:


Bild

Bild



Durch Differenzbildung zur Gegenstandsweite g und Verwendung der Beziehung Z = f/D lassen sich nun die Tiefenschärfen berechnen:


Bild

Bild



Die obige Formel für Dg+ gilt nur für Gegenstandsweiten g < (f² / d Z). Für g >= (f² / d Z) ist die Tiefenschärfe Dg+ = ¥ und die angegebene Berechnungsformel nicht mehr gültig, da in deren Ableitung sowohl für g als auch für g" die Schärfebedingung aus 5.1 benutzt wird.

Die gesamte Tiefenschärfe Dg ergibt sich als Addition von Dg+ und Dg- unter den Randbedingungen für Dg+ zu:


Bild



Für sehr kleine Werte von d und g << f² / d Z kann der Ausdruck (dZg / f)² vernachlässigt werden, wodurch sich die Tiefenschärfe D g wie folgt annähern läßt:


Bild



5.5 Telezentrische Objektive

Insbesondere bei der Objektvermessung ist die begrenzte Tiefenschärfe sowie die Abhängigkeit des Abbildungsmaßstabs von der Gegenstandsweite (Abstand Objekt vom Objektiv) störend. Zur Unterdrückung dieser Fehler werden an Stelle der oben beschriebenen Objektive zunehmend telezentrische Optiken eingesetzt. Diese besitzen den nachfolgend skizzierten Aufbau.

Bild


In die Brennebene des Objektivs wird eine kleine Lochblende eingefügt, die nur diejenigen Strahlen durchläßt, die durch den Brennpunkt des Objektivs laufen. Dies sind alle parallel in des Objektiv einfallenden Lichtstrahlen. Bei Änderung der Gegenstandsweite g erfolgt bei einer idealen, punktförmigen Lochblende weder Änderung des Abbildungsmaßstabs noch der Objektschärfe.

In der Praxis wird dieser ideale Zustand jedoch durch den realen Durchmesser der Telezentrieblende begrenzt. Die erzielbare Steigerung der Tiefenschärfe sowie erreichbare Stabilität des Abbildungsmaßstabs bei Änderung der Gegenstandsweite stellen dennoch eine deutliche Verbesserung gegenüber konventionellen Optiken dar.

Nachteilig an den telezentrischen Optiken sind in erster Linie die benötigte große Objektivöffnung D, die der Objektgröße entsprechen muß sowie die, durch die Telezentrieblende bedingte geringen Lichtstärke.



...zurück