Lexikon neutral S.1-32/09.10 - Hochschule...

download Lexikon neutral S.1-32/09.10 - Hochschule Bochumhochschule-bochum.de/.../Automatisierung/LexikonIndustrBildverarb.pdf · 3964-R-Protokoll 2 Lexikon der industriellen Bildverarbeitung

If you can't read please download the document

Transcript of Lexikon neutral S.1-32/09.10 - Hochschule...

  • Ingmar Jahr

    LEXIKON der industriellen Bildverarbeitung

    Begriffe und Abkrzungen aus der industriellen Bildverarbeitung

    Lexikon neutral S.1-32/09.10.03 16.03.2004 10:52 Uhr Seite 1

  • 3964-R-Protokoll

    Lexikon der industriellen Bildverarbeitung2

    0-9

    3964-R-Protokoll standardisiertes, herstellerneutrales se-rielles Protokoll zur bertragung von Hexadezimal-Wer-ten. Von Siemens entwickelte Datenbertragungsproze-dur fr eine Punkt-zu-Punkt-Verbindung (Punktsteue-rung). Zeichenorientiertes Protokoll. Die Steuerzeichenfr das Protokoll entsprechen DIN 66003/ISO 646 (7-Bit-Zeichencode).

    A

    Abbildung optische AbbildungAbbildungsfehler Optische Abbildungsfehler werden

    durch optische Elemente verursacht. Nicht alle von ei-nem Punkt auf dem Objekt ausgehenden Lichtstrahlentreffen sich nach der optischen Abbildung im gleichenPixel. Das fhrt dazu, dass das Objekt nicht originalge-treu (mathematisch hnlich) im Bild erscheint hinsicht-lich seiner Mastabstreue, Schrfe, seines Kontrastesund seiner Farbtreue. Fnf Abbildungsfehler sind typisch:ffnungsfehler (auch sphrische Aberration), Astig-matismus, Koma, Bildfeldwlbung, Verzeichnung.Farbfehler werden aus den Abbildungsfehlern abgelei-tet. Eine anschauliche Zusammenfassung und Quantifi-zierung aller Abbildungsfehler (auer Verzeichnung) lie-fert die Modulationsbertragungsfunktion. Abbil-dungsfehler knnen an realen optischen Systemen nieganz beseitigt werden. Sie knnen nur auf ein fr den je-weiligen Anwendungsfall akzeptables Ma reduziertwerden. Allgemeine Aussagen zu Abbildungsfehlern: Ab-bildungsfehler sind im achsnahen Bereich (um die opti-sche Achse) i. A. am kleinsten und am Bildrand am gr-ten; Abbildungsfehler sind in Zonen von konzentrischenKreisen gleich gro; Abbildungsfehler knnen durch be-wusste Blendeneinstellung (mittlere Blende) verringertwerden es gibt ein Optimum; die Spezifikationen derAbbildungsfehler gelten nur innerhalb des festgelegtenBetriebsbereiches (z.B. durch Schneckengang vorgege-benen Entfernungsbereich), auerhalb dessen werdendie Abbildungsfehler grer; jedes sphrische optischeBauelement hat Abbildungsfehler; Objektive gleicherBrennweite/ffnung knnen sehr verschiedene Abbil-dungsfehler aufweisen; die Korrektion der Abbildungs-fehler erfolgt immer hinsichtlich des Anwendungs-zweckes; Korrektion ist ein Kompromiss zwischen Auf-wand (Komplexitt, Materialaufwand, Entwicklung) undKorrektionszustand

    Abbildungsgte, auch Bildgte, Abbildungsleistung. All-

    gemeine Charakterisierung der Abbildungseigenschaf-ten eines optischen Systems. Dazu gehren z.B. Auf-lsungsvermgen, Kontrast, Verzeichnung. Ein guteAussage ber die Abbildungsgte liefern die Modulati-onsbertragungskurven sowie die Korrektionsdarstel-lung der Verzeichnung.

    Abbildungsleistung AbbildungsgteAbbildungsmastab, , flschlicherweise auch Ver-

    grerung. Vorzeichenbehaftetes Verhltnis der Bild-gre y zur Objektgre y: = y/y. Der Abbildungs-mastab ist die Brcke zur metrisch-malichen Kali-brierung von Bildverarbeitungssystemen. Er gibt dieVergrerung/Verkleinerung von senkrecht zur opti-schen Achse stehenden Objekten im Bild an und be-sitzt bei der hhenvertauschten optischen Abbildungeinen negativen Wert. Zum Teil wird auch nur der Be-trag angegeben.|| < 1 verkleinerte Abbildung, typisch: Landschafts-

    aufnahme|| = 1 Objekt- und Sensorgre sind identisch|| > 1 vergrerte Abbildung, typisch: mikroskopi-

    sche AufnahmeBeispiele fr synonyme Sprechweise: = -8,8 : 1 = -8,8 = 8,8-fach vergrerte Abbildung = -3,6/60 = -0,05 = 20-fach verkleinerte AbbildungDie Beziehungen zur Brennweite f und Arbeitsab-stand WD/ Objektabstand a sind nherungsweise: = f/(a + f) mit (f > 0, a > 0, a WD)

    Abbildungstiefe Bildseitiges Pendant zur Schrfentiefe.Bereich, in dem sich der Bildaufnehmer entlang deroptischen Achse verschieben darf, solange ein scharfesBild entsteht. Im Sinne der geometrischen Optik durchdie Struktur des Bildaufnehmers hervorgerufen.

    Ablenkwinkel Winkelangabe, die die genderte Lichtaus-trittrichtung gegenber dem einfallenden Licht angibt.

    Abschaltung VignettierungAbschnittstest Direkte Testmglichkeit fr genderte

    Prfprogrammabschnitte in modernen Benutzerober-flchen. Genderte Programmteile knnen sofort ausdem Prfprogrammeditor heraus auf ihre Funktions-fhigkeit getestet werden. Das setzt die Mglichkeit derdirekten Funktionsausfhrung aus dem Prfprogram-meditor voraus (z.B. durch Fernsteuerung des Bildver-arbeitungssystems). Besonders gut ist der Abschnitts-test bei der Inbetriebnahme von Bildverarbeitungsanla-gen sowie bei der Fehlersuche nutzbar.

    Absorption Schwchung von Strahlung beim Durchgangdurch ein Medium unter Energieumwandlung. Absorptionermglicht das Abbilden von Prfobjekten mitDurchlichtbeleuchtung. Ein reales Prfobjekt ist meisteine unbekannte Mischung aus Reflexion, Absorption,Transmission. (s. auch Absorptionsgrad)

    0-9

    Lexikon neutral S.1-32/09.10.03 16.03.2004 10:52 Uhr Seite 2

  • Airy-Scheibchen

    Absorptionsfilter Lichtfilter, das durch AbsorptionLicht wellenlngenabhngig durchlsst, z.B. Farbfilter.

    Absorptionsgrad Kurzzeichen . Verhltnis von absor-biertem zu einfallendem Strahlungsfluss. Es gilt derEnergieerhaltungssatz: Reflexion + Absorption +Transmission = 100%. Der Absorptionsgrad hat beiDurchlichtbeleuchtung und Auflichtbeleuchtung ei-nen starken Einfluss auf den Kontrast, der im Bild er-reicht wird. Der Absorptionsgrad ist material-, wellen-lngen- und winkelabhngig. Ein groer Absorptions-grad lsst ein Prfobjekt dunkel erscheinen.

    Abstand Messung des Abstandes ist eine typische Aufga-be fr Bildverarbeitungssysteme. Zur Ermittlung geome-trischer Mae knnen Abstnde zwischen Geometrie-elementen berechnet werden durch: Abstand zwischenzwei Punkten; Lotabstand Punkt auf Gerade; Lotab-stand Kreismittelpunkt auf Gerade; Abstand Punkt Kreismittelpunkt; Abstand Kreismittelpunkt Kreismit-telpunkt

    Abstrahlcharakteristik, auch Indikatrix. Lichtquellenverteilen die von ihnen ausgesendete Strahlung in einerbestimmten charakteristischen Form, der Abstrahlcha-rakteristik. Solche Charakteristika fr Leuchtdichte kn-nen dem Lambertstrahler entsprechend halbkugelfr-mig, in anderen Fllen keulen- oder nierenfrmig sein.Die Form der Abstrahlung heit fr dieses Beispiel auchLeuchtdichteindikatrix. Die Abstrahlcharakteristik wirktber das Prfobjekt oder einen Diffusor direkt aufdie Beleuchtungsstrkeverteilung auf dem Bildauf-nehmer. (s. auch Leuchtdichteindikatrix)

    Abtastfrequenz Frequenz, mit der ein zeitliches oder rt-liches Signal abgetastet wird. (s. auch Abtasttheorem)

    Abtasttheorem Bei der Inspektion kleinster Strukturenmuss zur Vermeidung von Informationsverlust das Ab-tasttheorem beachtet werden. Bezogen auf die Bildver-arbeitung bedeutet das: Ein Bildaufnehmer kann ma-ximal sicher Details auflsen (besonders bei kleinen pe-riodisch wiederkehrenden Mustern), die mindestens 2Pixel gro sind. Bei dieser Abtastfrequenz = Ortsfre-quenz fg (Nyquistfrequenz) entsteht kein Informations-verlust. Sind die Details kleiner als 2 Pixel (Ortsfrequenzf > fg), kommt es zu Alaising (Unterabtastung)/Schwe-bungen, die nicht vorhandene Objektdetails vortu-schen: Informationen gehen verloren. Grenzortsfre-quenz fg = 1/2p; p Pixelabstand.Beispiel: Ein CCD-Chip besitzt 100 Pixel/mm, also eineBildpunktgre von 0,01 mm. Bei einer Abbildung mitAbbildungsmastab 1 knnen nur Strukturen sichervom CCD-Chip aufgelst werden, deren Abstnde > =0,02 mm sind.

    Achromat Linsenart, die aus mindestens zwei verkittetenLinsen besteht und in Bezug auf zwei Wellenlngen kor-

    rigiert ist. Anwendung in vielen in der Bildverarbeitunggebruchlichen Objektiven.

    Achsnaher Bereich, auch paraxiales Gebiet. Bereich umdie optische Achse, bei dem alle Winkelfunktionen durchden Winkel selbst ersetzt werden (sin a = tan a = a, cosa = 1). In einem kleinen Bereich (ca. < +/-3 Grad) kn-nen dadurch lineare Funktionen zur Beschreibung ge-nutzt werden. Die Optik des Paraxialgebietes wird auchGausche Optik oder kollineare Abbildung genannt. DieNutzung des achsnahen Bereiches stellt eine Vereinfa-chung der optischen Beziehungen dar, so dass umkehr-bar eindeutige Beziehungen zwischen Objekt und Bildgenutzt werden knnen. Fr die Belange der industriel-len Bildverarbeitung ist diese Betrachtungsweise fr dieweitaus meisten Flle ausreichend.

    Active X Programmierschnittstelle, ber die andere Anwenderprogramme auf Daten von PC-basiertenBildverarbeitungssystemen unter Windows zugreifenknnen.

    Adaptation Fhigkeit des menschlichen Auges, sich in sei-ner Empfindlichkeit an die Leuchtdichte der Objekte an-zupassen. Das betrifft einen Bereich von 1012cd.

    Adaptive Beleuchtung Strukturierte Beleuchtung, dieein individuell konfigurierbares Helligkeitsmuster zuls-st. Als Lichtquellen sind dazu ausschlielich LEDs ge-eignet. Durch die Einstellung von Helligkeitsmusternlassen sich adaptive Beleuchtungen intelligent an Bild-verarbeitungsaufgaben anpassen. Einzelne LEDs oderLED-Gruppen werden durch die integrierte Elektronikseparat angesteuert. Das betrifft Helligkeit und Zeitdau-er. Blitz-Modus und statischer Modus werden durch einund dieselbe Beleuchtung realisiert (Triggerung ber di-gitale oder serielle Schnittstelle) Der Zugriff auf adapti-ve Beleuchtungen kann ber verschiedene Schnittstel-len erfolgen: Digitale Ein-/Ausgnge, RS-232,Ethernet, USB, Profibus. Mit adaptiven Beleuch-tungen knnen strende Reflexe verhindert werden oderBildbereiche objektspezifisch hervorgehoben werden.Sie sind ein Teil der Bildvorverarbeitung durch Licht.

    ADC Analogue Digital Converter Analog-Digital-UmsetzerAdditive Farbmischung FarbmischungADU Analog Digital UmsetzerAES Automatic Electronic ShutterAF Auto-Fokus-ObjektivAfokal Optisches System mit unendlich groer Brennwei-

    te, z.B. Fernglser, Zielfernrohre.AGC Automatic Gain Control.AIA American Imaging Association. Bildverarbeitungsver-

    einigung fr die Industrie in den USA. www.machinevi-siononline.org

    Airy-Scheibchen Zentrales Maximum der Energievertei-lung bei Beugung an einer kreisfrmigen ffnung.

    3

    A

    Lexikon der industriellen Bildverarbeitung

    Lexikon neutral S.1-32/09.10.03 16.03.2004 10:52 Uhr Seite 3

  • Akkommodation

    Das Airy-Scheibchen ist durch den ersten dunklen Ringim Beugungsmuster begrenzt. Bedeutung hat das Airy-Scheibchen fr die Beschreibung der maximalen Auf-lsung eines optischen Systems.Sein Durchmesser betrgt D = 2,44 k = Wellenlngek = Blendenzahl

    Akkommodation Entfernungseinstellung des menschli-chen Auges.

    Aktive Flche Lichtempfindliche FlcheAktor, auch Stellglied, das in den Prozess eingreift. Typi-

    sche Aktoren sind Magnetventile, Pneumatikzylinder,Sortierklappen u.., knnen aber auch komplexerer Na-tur sein: Handhabungssysteme, Roboter. Aktoren kn-nen ber Leistungsendstufen, eine speicherprogram-mierbare Steuerung oder direkt von Bildverbeitungs-systemen angesteuert werden.

    Algorithmus ist eine Berechnungsvorschrift, die in einComputerprogramm umgesetzt wurde. Algorithmen bil-den die Grundlage der Bildverarbeitung. So beruhen z.B.die Filterung von Bildern und Segmentierung auf Algo-rithmen. Weiteres in DIN 19226.

    Aliasing UnterabtastungAmerican Society for Quality 1946 gegrndete ameri-

    kanische Organisation, die sich mit der Frderung desQualittsbewusstsein befasst. www.asq.org

    Analog-Digital-Umsetzer, ADU. Setzt Analogsignale ineiner elektronischen Schaltung in Digitalsignale um.Dieser Vorgang der Digitalisierung analoger Signaleist zentraler Bestandteil von Framegrabbern fr Ana-logkameras. Das Bildsignal der Kamera wird durch dieDigitalisierung in ein rechnerlesbares Format umgesetzt,das im Bildspeicher abgelegt wird. Die Abtastfrequenz(Abtasttheorem) des ADU muss fr die Bandbreite desVideosignals gro genug sein. Generell gilt: je grerdie Bildpunktzahl des Bildaufnehmers, desto hherdie erforderliche Abtastfrequenz. Die Digitalisie-rungstiefe des ADU bestimmt, wie viele verschiedeneHelligkeitsstufen aufgelst werden knnen.

    Analog-Digital-Wandler Analog-Digital-UmsetzerAnalogkamera Kamera, die Bilddaten ber das Video-

    signal als Analogsignal ausgibt. Zur Verarbeitung derBilddaten in einem Bildverarbeitungssystem muss dasVideosignal ber ein Kabel bertragen und im Frame-grabber digitalisiert werden. (s. auch Analog-Digital-Umsetzer)

    Analogsignal Signal, dessen Informationsparameter in be-liebig feinen Abstufungen, im Rahmen der technischenGrenzen, vorkommen kann. Unendliche viele Signalzu-stnde sind mglich. Die Speicherung und Verarbeitungvon Analogsignalen ist schwierig, weshalb in der Auto-matisierungstechnik wie auch der Bildverarbeitung fast

    ausschlielich digitale oder digitalisierte Analogsignale(Digitalisierung) verwendet werden.

    Analysator dient dem Nachweise der linearen Polarisa-tion.

    Anamorphotische Abbildung, nicht rotationssymmetri-sche Abbildung durch verschiedene Abbildungsma-stbe in x- und y-Richtung. Das Verfahren nutzt Zylin-derlinsen zum Stauchen bzw. Strecken bei Aufnahmebzw. Wiedergabe. Die asymmetrische Abstrahlung vonLaser-Dioden wird ebenfalls so kompensiert. Oft wirdein zentriertes optisches System mit einem anamorpho-tischen Vorsatz versehen (z.B. Breitwandkino mit 35mm-Film).

    American National Standards Institute, amerikanischeOrganisation (Mitglied der ISO), die einheitliche Rege-lungen/Normen erstellt und deren Einhaltung ber-wacht. ANSI-Standards sind weltweit anerkannt.www.ansi.org

    Ansteuerschaltung LED-BeleuchtungenAntastalgorithmus Mathematischer Algorithmus beim

    Antasten zur Bestimmung des Kantenortes. Gemdem Kantenortskriterium werden fr verschiedene An-wendungszwecke und verschieden geformte Kanten un-terschiedliche Antastalgorithmen verwendet. Die An-tastalgorithmen sind unterschiedlich empfindlich undzeitlich aufwendig. Verschiedene typische Algorithmenwerden genutzt:Binrverfahren: Einfachstes Verfahren. Mit dem Parame-ter Schwellwert wird vorgegeben, welche Pixel alsdunkel (unterhalb des Schwellwertes) und welche alshell (oberhalb des Schwellwertes) definiert werden. Mitdem Schwellwert kann die Helligkeit im Bild angepasstwerden.Eine robustere Version gegen Helligkeitsnderungen istdas Binrverfahren mit dynamischem Schwellwert.Strfilter werden genutzt.Vorteil: sehr schnell.Nachteile: sehr lichtabhngig, kein definierter Kantenort,keine 2D-Rauschunterdrckung, funktioniert nur hinrei-chend bei symmetrischer Kantenform. Typische Kan-tengenauigkeit: +/- 1...2 Pixel.Anwendung: bei gutem Kontrast (mindestens 30% Grau-wertunterschied, bei homogener Ausleuchtung, relativsicher nur im Durchlicht, typisches Beispiel: Stanzteiler-kennung im diffusen Durchlicht).Grauwertverfahren: Bei diesem Verfahren muss in einemfestgelegt breiten Kantenbergang (Parameter Un-schrfe) ein bestimmter Kontrast (Parameter Kontrast)auftreten, damit eine Kante erkannt wird. Strfilterwerden genutzt. Vorteile: schnell, wenig lichtempfind-lich, Nachteile: kein definierter Kantenort, keine 2D-Rau-schunterdrckung, breite Kanten werden ungenauer er-

    4 Lexikon der industriellen Bildverarbeitung

    A

    Lexikon neutral S.1-32/09.10.03 16.03.2004 10:52 Uhr Seite 4

  • Antaststrahl

    kannt, typische Kantengenauigkeit: +/- 1 Pixel. Anwen-dung: auch im Auflicht. Typisches Beispiel: Oberflchen-kontrolle.Grauwertverfahren mit Subpixel: Enthlt aufeinanderfol-gende Prozesse: 1.) Grauwertverfahren (s.o.), 2.) Fein-analyse der unter 1. gefundenen Kante mittels Subpi-xel-Antastung. Dabei werden drei Bereiche untersucht:die dunkle Zone, der Kantenbergang, die helle Zone.Zur Genauigkeitssteigerung und Mittelung von Kanten-strungen werden mehrere Antaststrahlen nebenein-ander genutzt (Parameter Breite). Vorteil: Sehr wieder-holgenau: real 1/3 bis 1/10 Pixel (Interpolationsfaktor).Nachteil: braucht etwas mehr Zeit als das Grauwertver-fahren, Strunterdrckung nur zum Teil mglich. Anwen-dung: besonders fr przise Messungen im Durchlichtund beim telezentrischen Messen. Typisches Beispiel:Przisionsmessungen von Drehteilen. Bemerkung: Dieerreichbaren Genauigkeiten hngen stark vom Gesamt-messystem (Optik, Objekt, Beleuchtung, Kamera, Frame-grabber, Algorithmus, etc.) ab.Gradientenverfahren: das Standardverfahren in industri-ellen Prozessen. Sucht nach der ersten Kante, die demeingestellten Parameter Gradientenschwelle gengt,also dem ersten gengend steilen Grauwertanstieg. ZurGenauigkeitssteigerung und Mittelung von Kanten-strungen werden mehrere Antaststrahlen nebenein-ander genutzt (Parameter Breite). Vorteil: sehr geringeBeleuchtungsabhngigkeit, gute 2D-Strunterdrckung,groe Antastsicherheit bei guter Genauigkeit, Kontrasthat so gut wie keinen Einfluss, arbeitet schneller als Fal-tungsverfahren, typische Kantengenauigkeit: +/- 1 Pixel.Nachteil: durch Nutzung der 2D-Strunterdrckung et-was langsamer als das Grauwertverfahren. Anwendung:fr scharfe Kanten, sowohl im Durchlicht als auch imAuflicht. Typisches Beispiel: fr Teile mit stark wechseln-den Teileeigenschaften.Gradientenverfahren mit maximalem Koeffizienten (Va-riante vom Gradientenverfahren) sucht im Gegensatzzum Gradientenverfahren nach der Kante mit dem gr-ten Gradienten. Typisches Beispiel: Vermessung vonGlhwendeln in Glaskolben.Faltungsverfahren: arbeitet hnlich wie das Gradienten-verfahren (s.o.), jedoch mit zweidimensionaler Spektral-analyse. Vorteile: 2D-Rauschunterdrckung, sehr str-lichtunabhngig, Kontrast hat so gut wie keinen Einfluss,selbst unter ungnstigen Bedingungen auf +/-1 Pixel ge-nau. Anwendung: fr unscharfe Kanten, fr breite, flacheKanten, gut auch im Auflicht anzuwenden.Typisches Bei-spiel: Formkontrolle an Spritzgussteilen.Faltungsverfahren mit maximalem Koeffizient. Sonderfalldes Faltungsverfahrens: Sucht nach der kontrastreichstenKante. Vorteile: 2D-Rauschunterdrckung, sehr strlich-

    tunabhngig, selbst unter ungnstigen Bedingungen auf+/- 0,5 Pixel genau.Typisches Beispiel:Analyse unscharferBilder.

    Antastbreite Zur Verbesserung der Robustheit und sta-tistischen Sicherheit beim Antasten werden mehrereparallele Antaststrahlen in Antastrichtung zur Er-mittlung des Kantenortes genutzt. Die Anzahl der par-allel liegenden Antaststrahlen ist die Antastbreite (an-gegeben in Pixeln).

    Antasten, auch Kantenerkennung, Kantendetektion.bertragung eines Begriffes aus der berhrenden Messtechnik auf die berhrungslose Messtechnik.Berhrungsloses Antasten ist die Suche nach einemStrukturbergang in einem ortsaufgelsten Bild. In derBildverarbeitung werden Bilder mit Helligkeitsunter-schieden (Grauwertdifferenzen, Farbdifferenzen)untersucht. Das Antasten erfolgt entlang eines odermehrerer Antaststrahlen mittels Antastalgorith-men. Der Ort, an dem die Kante gem des Kante-nortkriteriums detektiert wurde, ist der Kantenort.Grundproblem: Die bertragung des Begriffes Anta-sten aus der berhrenden auf die berhrungsloseMesstechnik stellt ein Grundproblem der Bildverarbei-tung hinsichtlich der Vergleichbarkeit von Ergebnissenunterschiedlicher Messverfahren dar.Praktische Tipps zum Antasten: kurze Antaststrahlen nut-zen, so ist die Rechenzeit krzer. Eine zweistufige Vorge-hensweise nutzen: 1.) Finden der Kante mit einem robu-sten Algorithmus (z.B. Gradientenverfahren). 2.) Feinana-lyse mit sehr kurzen Antaststrahlen, z.B. durch Grauwert-verfahren mit Subpixeling.

    Antastparameter Parameter fr die Antastalgorithmen,die einen direkten Einfluss auf den ermittelten Kan-tenort haben. Die Wahl und Optimierung der Antastpa-rameter bestimmt in hohem Mae die Zuverlssigkeitund Genauigkeit der Antastung unter wechselndenBedingungen, wie sie im Industriealltag typisch sind.Antastparameter sind: gewhlter Antastalgorithmus,Start-/Endkoordinaten des Antaststrahles, Antast-breite, Art des Kantenberganges, Strfilter, zulssi-ge Unschrfe, Mindestkontrast, Parameter fr die ab-zulegenden Ergebnisse (Koordinaten, Kantenrichtung).Durch Einstellung der Antastparameter kann sich aufdie zu erwartende Kantenform eingestellt werden undeine geringe Antastunsicherheit hergestellt werden.

    Antastrichtung KantenrichtungAntaststrahl, auch Antastpfeil, Suchpfeil, Suchstrahl. Der

    Antaststrahl beschreibt die Richtung, in der ein Kan-tenbergang untersucht wird. In Richtung des Antast-strahles werden die Antastalgorithmen abgearbeitet.Die Richtung des Antaststrahles (Antastrichtung) be-stimmt die einzustellenden Antastparameter Kan-

    5Lexikon der industriellen Bildverarbeitung

    A

    Lexikon neutral S.1-32/09.10.03 16.03.2004 10:52 Uhr Seite 5

  • Antastunsicherheit

    tenrichtung und Start- und Endkoordinaten. (s. auchAntastbreite)

    Antastunsicherheit Die auf das Antasten bezogeneMessunsicherheit. Antastunsicherheiten wirken sichnicht nur hinsichtlich der Messergebnisse aus, sondernknnen auch bei nichtmalichem Prfen die Funktioneiner gesamten Anlage in Frage stellen. Die Antastunsi-cherheit lsst sich durch Optimieren der Antastpara-meter verkleinern. Diese Optimierung ist wesentlicherBestandteil der Inbetriebnahme von Anlagen mit Bild-verarbeitung.

    Antastverfahren AntastalgorithmusAntireflex-Schicht reflexionsmindernde Schichten.Anwesenheitskontrolle Vorgang des nichtmalichen

    Prfens. Typischer Anwendungsfall der Bildverarbei-tung, bei dem auf Vorhandensein/Nichtvorhandenseinvon Merkmalen des Prfobjektes geprft wird.

    Anzeigeseite Die auf einem Monitor dargestellte Bild-speicherseite.

    AOI 1.) area of interest Prffenster 2.) Automatical Opti-cal Inspection: Automatische optische Inspektion. Ausder Elektroniktechnologie stammende Technik zur Be-stckungskontrolle von Leiterplatten in einem ferti-gungstechnisch frhen Stadium.

    Apertur ffnungAperturblende ffnungsblendeAR-Beschichtung Antireflex-Beschichtung, reflexions-

    mindernde SchichtenArbeitsabstand Abk. WD (working distance). Abstand zwi-

    schen dem Prfobjekt und der ersten Krperkante desoptischen Systems aus Richtung des Prfobjektes. Erwird als praxisbezogenes Ma fr Objektive in derBildverarbeitung angegeben. Eingefgte optische Bau-teile (z.B. Filter und Schutzglser), Prismenvorstzeund mechanische Zubehrteile mssen mit eingerechnetwerden (Vergrerung der optischen Weglnge). DerArbeitsabstand ist abhngig vom: Abbildungsmastab,Brennweite, Objektivtyp. Telezentrische Objektivehaben meist einen fest eingestellten Arbeitsabstand. Ein-fluss der Beleuchtungswellenlnge: durch Dispersionkommt es zu vernderten Arbeitsabstnden. Fr MachineVision ist ein mglichst groer Arbeitsabstand der Ob-jektive von Bedeutung, um einen freien Eingriff frHandhabungsgerte, Zufhreinheiten oder Roboter zuermglichen. (s. auch Objektabstand, Auflagenma)

    Arbeitsbereich PrffensterArea of Interest PrffensterArtefakte sind Objekte im Bild, die nicht real in der auf-

    genommenen Szene existieren, sondern erst durchFehler in der Bildaufnahme (Abbildungsfehler,Aliasing, begrenzte Grauwertauflsung) oder -ver-arbeitung u.a. entstanden sind.

    ASA American Standards Association. Vorgngervereini-gung des ANSI. Von der ASA wurde u.a. die Empfind-lichkeit von Filmen und CCD-Sensoren definiert.

    ASCII American Standard Code for Information Interchange.Codierung von Zeichendarstellung fr die Datenverar-beitung und -bertragung. Mit 7 bit knnen 128 Zei-chen (Gro-/Kleinbuchstaben und Sonder-, Steuerzei-chen) dargestellt werden. Erweiterte Version mit 8 bit(256 Zeichen) mglich. Wird von Bildverarbeitungssy-stemen u.a. benutzt zur bergabe diskreter Ergebnisse.

    aspect ratio Seitenverhltnisasphrische Linse LinsenformASQ American Society for QualityAstigmatismus auch Zweischalenfehler. Abbildungsfeh-

    ler, der bei der Abbildung von schief in das Objektiveintretenden Strahlenbndeln auftritt. Beispielsweisewird ein kreuzfrmiges Prfobjekt, das astigmatis-musbehaftet abgebildet wird, in zwei verschieden weitentfernte Bildebenen abgebildet. Das heit: der waa-gerechte Balken des Kreuzes erscheint in einer, dersenkrechte Balken des Kreuzes in einer anderen Ebe-ne scharf. In einer Bildauffangebene bewirkt der Astig-matismus eine unscharfe Abbildung. Astigmatismusentsteht auch beim Einfgen von planparallelen Plat-ten (Lichtfilter, Schutzglser, rckverspiegelte Planspie-gel, Prismen) in konvergente Strahlengnge.

    Asymmetriefelder KomaAsynchron blitzen ist ein triggergesteuerter Bildaufnah-

    mebefehl. Die Bildaufnahme beginnt sofort nach derTriggerung, wogegen das Triggersignal fr die Blitzbe-leuchtung erst nach einer einstellbaren Verzgerungs-zeit ausgegeben wird. (s. auch Blitzsynchronisation)

    Asynchrone Bildaufnahme bedeutet, dass die Bildauf-nahme in der Kamera zu jedem beliebigen Zeitpunkt(asynchron zum Videotakt) durch einen externen Trigger-impuls gestartet werden kann. Das setzt im Gegensatzzur synchronen Bildaufnahme, die nach einem von derKamera vorgegeben festen Bildraster arbeitet und zu be-kannten Zeitpunkten Bilder liefert, einerseits einen Fra-megrabber voraus, der die asynchrone Bildaufnahmestartet, andererseits eine start/restart-fhige Kamera(Progressive Scan). Wird meist zusammen mit asyn-chron blitzen verwendet. Asynchrone Bildaufnahme wirdzur Aufnahme schnell laufender Prfobjekte sowie beiunregelmig erscheinenden Objekten genutzt, z.B. inder Verpackungs-, Stanz- oder Lebensmittelindustrie.

    Attributive Prfung Vorgang des nichtmalichen Pr-fens. Typischer Anwendungsfall der Bildverarbeitung,bei dem auf den Grad der Ausprgung von Merkma-len des Prfobjektes geprft wird.

    Auflagema bezeichnet bei Kameras die Entfernung zwi-schen der Bildebene (Lage der lichtempfindlichen

    Lexikon der industriellen Bildverarbeitung

    A

    6

    Lexikon neutral S.1-32/09.10.03 16.03.2004 10:52 Uhr Seite 6

  • Ausbreitungsgeschwindigkeit

    Schicht des Bildaufnehmers) und der Objektivanla-geflche. Das Auflagema ist eine optische Weglnge,d.h. die durch das Deckglas des Sensorchips verursach-te optische Wegdifferenz geht in das Auflagema mitein. Bei C-Mount-Kameras betrgt das Auflagema17,526 mm, bei CS-Mount-Kameras 12,526 mm. Eswird zusammen mit dem Objektivanschluss angege-ben. Das Auflagema ist ein empfindlicher optischer Pa-rameter. Schon kleine Abweichungen haben groe Wir-kung auf die nderung der Objektweite/des Ar-beitsabstandes. Ist das Auflagenma zu klein, erscheintdas Objekt nher, als es die Angabe auf dem Entfer-nungseinstellring des Objektivs angibt, ein Ausgleich istmglich. Ist das Auflagenma zu gross kann u.U. nichtscharf abgebildet werden (wirkt wie ein eingefgterZwischenring).Hinweis: Das Entfernen eines Infrarotsperrfilters ausder Kamera wirkt wie eine Verkleinerung des Auflagen-maes.

    Auflichtbeleuchtung Beleuchtungsrichtung, bei dem dieBeleuchtung im Halbraum vor der Objektebene liegt, indem sich auch das Abbildungssystem befindet. Anwen-dungen u.a. in der Robotik, Verpackungsindustrie,Prfobjekte auf Transportbndern. Auflichtbeleuch-tung bentigt i.A. diffus reflektierende Objekte. GroeLeuchtflchen sorgen bei Auflichtbeleuchtung frgleichmige Helligkeit.Grenzen der Auflichtbeleuchtung: Die Abbildungsqua-litt bei Auflichtbeleuchtung ist sehr stark von den Ei-genschaften der Prfobjekte abhngig. Porse Ober-flche, ausgerissene Objektkanten, verrundete Objekt-kanten, unterschiedlicher Reflexionsgrad, Verschmut-zungen beeinflussen direkt die Messgenauigkeit. Die er-reichbaren Messgenauigkeiten liegen im Bereich vonmehreren Pixeln (vgl. auch VDI-Richtlinie 2617, Bl. 6.1,S. 10). Typische Beipiele fr Auflichtbeleuchtungskom-ponenten sind: Ringlichter, Halogenstrahler, Leucht-stofflampenbeleuchtungen.

    Auflsung Auflsungsvermgen GrauwertauflsungAuflsungsvermgen 1.) Ortsauflsungsvermgen, vgl.

    Grauwertauflsung. Das Auflsungsvermgen be-schreibt die Unterscheidbarkeit feiner Objektstrukturen.Begrenzt wird das Auflsungsvermgen durch die Struk-tur des Bildaufnehmers, die beugungsbegrenzte Ab-bildung des Objektivs und die Abbildungsfehler. Beimoptischen Auflsungsvermgen mssen zwei getrenntebenachbarte Objekte einzeln abgebildet werden. Der Ab-stand x fr zwei deutlich auflsbarer Punkte (Kontrast14%) ist: fr entozentrische Objektive = WD tan (1,22 k/f); fr telezentrische und Mikroskopobjektive: Y-min = 0,61 /NA. = Beleuchtungswellenlnge, k = Blendenzahl, f =

    Brennweite, NA = numerische Apertur, WD = Arbeitsab-stand.Schlussfolgerungen: Fr mglichst gut auswertbare De-tails mit Bildverarbeitung sind Abbildungsmastbe >= 5 zu nutzen. Leere Vergrerung tritt bei sichtbaremLicht fr Abbildungsmastbe > 10 auf. Kurze Be-leuchtungswellenlnge (blaues Licht) erhht das Aufl-sungsvermgen (bei mikroskopischer Abbildung). Groenumerische Apertur oder weit geffnete Blende erhhtdas Auflsungsvermgen, steht aber einer groenSchrfentiefe entgegen.2.) Bezogen auf den Bildaufnehmer bedeutet Aufl-sungsvermgen das durch die Pixelgre begrenzteVermgen, Details abzubilden (Abtasttheorem). DasAuflsungsvermgen eines Bildaufnehmers kann in ho-rizontaler und vertikaler Richtung verschieden sein,wenn die Pixel nicht quadratisch sind. Je grer dieBildpunktauflsung eines Bildaufnehmers (grereBildpunktzahl), desto besser ist sein Auflsungsverm-gen. Das Auflsungsvermgen eines Bildaufnehmersbetrgt unter Beachtung des Abtasttheorems: Bild-punktauflsung/2In das Gesamtauflsungsvermgen einer Anlage mitBildverarbeitung gehen die Einzelauflsungsvermgenein von: Beleuchtung, Optik, Bildaufnehmer, Kamerae-lektronik, Framegrabber, Software, Mechanik (Genau-igkeit einer Bildverarbeitungsanlage)3.) Das Auflsungsvermgen eines Sensors fr Hellig-keiten wird durch das Grauwertauflsungsvermgen,Farbauflsungsvermgen beschrieben.

    Augenempfindlichkeit V-Lambda-KurveAugenschutz Sichtbare, energiereiche Strahlung (z.B.

    durch Laser) schdigt das menschliche Auge (Laser-klassen). Daher mssen Schutzmanahmen ergriffenwerden (siehe EN 60825). Aber auch nicht sichtbareStrahlung (infrarotes Licht und ultraviolettes Licht)schdigt, wenn sie in hoher Leistung auftritt, da derSchutzmechanismus des Schlieens der Iris sowie derAugenlider wegen der fehlenden Wahrnehmung nichtfunktioniert. In vielen Anwendungen der industriellenBildverarbeitung, die von strendem Tages-, Sonnen-oder Hallenlicht unabhngig gemacht werden sollen,wird mit infrarotem Licht gearbeitet. Wegen der immerleistungsfhiger werdenden Lichtquellen (auch LEDs)muss die Euronorm EN 171 beachtet werden.

    Ausbreitungsgeschwindigkeit Die hchste Ausbrei-tungsgeschwindigkeit hat Licht im Vakuum mit < 300.000 km/s. hnlich in Luft. Entsprechend derBrechzahl breitet sich Licht in allen anderen Medienlangsamer aus. Auf Grund verschiedener materialspezi-fischer Ausbreitungsgeschwindigkeit des Lichtes kommtes zur Brechung. (s. auch optische Weglnge)

    7Lexikon der industriellen Bildverarbeitung

    A

    Lexikon neutral S.1-32/09.10.03 16.03.2004 10:52 Uhr Seite 7

  • Ausgleichsgerade

    Ausgleichsgerade BestgeradeAusgleichskreis BestkreisAusrichtung beschreibt die Lage und Drehlage von Prf-

    objekten. In vielen Fllen kann auf die Ausrichtung derPrfobjekte kein Einfluss genommen werden, da sie vonHandhabungs- und Transportsystemen vorgegeben ist.In diesen Fllen muss durch entsprechende invarianteAnordnungen (Einsatz telezentrischer Objektive,kontrast- und kantenformunabhngiger Antast-algorithmen, Lage- und Drehlagenachfhrung u.a.)eine mglichst groe Unabhngigkeit der Prfung vonder Teileausrichtung erreicht werden. (s. auch Justierung)

    Ausrichtung telezentrischer Systeme JustierungAustrittspupille Bild der ffnungsblende, das von der

    optischen Achse vom Bildaufnehmer aus sichtbar ist.Auto-Fokus-Objektiv Objektiv, die die Einstellentfer-

    nung automatisch nachregelt. Die zur Entfernungsmes-sung notwendige Sensorik reicht von einfachen Fotot-ransistoren bis hin zu Bildverarbeitung (Fokustest).Auto-Fokus-Objektive werden in der industriellen Bild-verarbeitung nur selten genutzt, da durch die variableEinstellentfernung keine definierten Verhltnisse bezg-lich des Abbildungsmastabes und der Schrfentie-fe vorliegen.

    Auto-Iris-Objektiv Objektiv mit Nachfhrung der Blen-de. ber einen lichtempfindlichen Sensor (im Objektivintegriert oder Nutzung des Bildaufnehmers der ange-schlossenen Kamera mit Rckfhrung des Helligkeits-signals) wird die Blendenffnung automatisch gesteu-ert. Auto-Iris-Objektive werden hufig in der Sicherheits-technik angewendet, wo es darauf ankommt, unter ver-schiedensten Helligkeitsverhltnissen gleich helle Bilderzu erhalten. Fr die industrielle Bildverarbeitung sindAuto-Iris-Objektive ungeeignet, da sich durch variieren-de Blende auch die Schrfentiefe ndert und damitkeine konstanten Verhltnisse im Bild vorliegen.

    Auto White Balance Automatischer Weiabgleich.Weiabgleich

    Automatic Electronic Shutter Automatische Steuerungder Integrationszeit eines CCD-Bildaufnehmers/-Ka-mera. AES wird bei Kameras in der Sicherheitstechnikoft verwendet, um sie an wechselnde Helligkeiten anzu-passen. In der industriellen Bildverarbeitung ist AESnicht zu empfehlen, da sich durch die variable Integrati-onszeit die Bewegungsunschrfe ndern kann. (s.auch Shutter)

    Automatic Gain Control AGC: Automatische Verstr-kungsregelung fr einen konstanten Videoausgangspe-gel, unabhngig vom Eingangssignal des Bildaufneh-mers. Bei schwankender Beleuchtung sorgt AGC frgleichbleibende Helligkeit und regelt die Verstrkungdes Videosignales innerhalb des Regelbereiches. Aus

    den Anforderungen der Sicherheitstechnik entstanden,ist die automatische Verstrkungsregelung fr die Bild-verarbeitung nicht geeignet, da sie alle Bilder auf einengleichen mittleren Grauwert anhebt. Fr die Bildver-arbeitung muss AGC ausgeschaltet und mit festen Ver-strkungen gearbeitet werden.

    AWB Auto White Balance. Automatischer Weiabgleich

    B

    Bahnsteuerung Continuous Path Control, Steuerungsartvon Computerized Numerical Control. Die Bewegungwird entlang einer durch eine Funktion vorgegebenenKurve durchgefhrt. Hufiger Einsatz in Industrierobo-tern, Brennschneid-, Dreh-, Frsmaschinen. Vgl. Punkt-steuerung.

    Bandpassfilter Filter, das nur fr eine bestimmten schma-len Wellenlngenbereich eine maximale Durchlssig-keit (Transmissionsgrad) aufweist. Wird wesentlichcharakterisiert durch Mittenwellenlnge (Wellenlngebester Durchlssigkeit) und Halbwertsbreite (Abfallauf 50% der maximalen Transmission). Meist durchInterferenzfilter realisiert. Bandpassfilter mssen hin-sichtlich ihrer Mittenwellenlnge sehr genau auf dieeingesetzte Beleuchtung abgestimmt werden. Mit ih-nen lsst sich die beste Unterdrckung von Fremd-licht erreichen.

    Bar-Code Eindimensionaler Code aus schmalen/breitenStrichen und Lcken zur Darstellung alphanumerischerZeichen. Verschiedenste Codes werden verwendet: EAN(EAN13: Lebensmittel, Bcher, Zeitschriften.Besteht aus Balken und Zwischenrumen in vier ver-schiedenen Breiten, u.U. schwierig zu lesen; EAN8: kos-metische Produkte), CODABAR (Medizin-/Klinikbereich),PZN (Medikamente), Code 2/5 (zwei verschiedene Brei-ten von Balken und Zwischenrumen, auch unterungnstigen Bedingungen gut zu lesen), Code 39 (ge-ringe Informationsdichte, da auch Buchstaben darstell-bar sind). Die Ablesung erfolgt meist mit Laserscannern,da die Auflsung von CCD- oder CMOS-Kameras i.A. zugering ist. Das Lesen mit Bildverarbeitung ist sinnvoll,wenn das Bar-Code-Lesen in komplexe Aufgabenstellun-gen integriert ist oder bei Nutzung spezieller oder spezi-ell angeordneter Codes (ringfrmige oder deformierteCodes). www.ean.de

    BAS-Signal Bild-Austast-Synchron-Signal. VideosignalBaudrate Einheit fr die Schrittgeschwindigkeit der Da-

    tenbertragung. Wird pro Schritt ein bit bertragen, istdie Baudrate gleich der bertragungsrate in bit/s. Beider Datenfernbertragung knnen mehrere bit/Schritt

    8 Lexikon der industriellen Bildverarbeitung

    A

    B

    Lexikon neutral S.1-32/09.10.03 16.03.2004 10:52 Uhr Seite 8

  • Beleuchtungsrichtung

    bertragen werden, weshalb dabei Baudrate und ber-tragungsrate nicht gleichzusetzen sind. Allgemein bli-che Stufung: 300, 1200, 2400, 4800, 9600 etc. (jeweilsVerdopplung)

    Bearbeitungsseite Bildspeicherseite, auf der aktuell dieBildverarbeitungsalgorithmen ausgefhrt werden

    Bedienoberflche, auch Benutzeroberflche. Schnittstellezwischen der elementaren Funktionalitt eines Bildver-arbeitungssystems und der Bedienung durch den Bild-verarbeitungsanwender. Die Nutzerfeundlichkeit moder-ner Bedienoberflchen zeichnet sich durch Intuitivitt,die Mglichkeit, die Bildverarbeitungsfunktionen sofortonline zu testen, grafische Bedienerfhrung und Para-metrierung statt Programmierung aus. Bekannte Bedie-noberflchen fr die industrielle Bildverarbeitung sindu.a.: Spreadsheet, VCWin, Framework.

    Bedingter Sprung Element strukturierter Prfprogramm-gestaltung. Bedingte Sprnge in Bildverarbeitungssyste-men nehmen auf das Ergebnis vorhergehender BefehleBezug. So kann nach erfolgreichen oder fehlgeschla-genen Einzelbefehlen oder nach erfolgreichen oder fehl-geschlagenen Bedingungsblcken an andere Prfpro-grammstellen gesprungen werden. Bedingte Sprngesind effektive Funktionen, Bildverarbeitungsanwender-programme flexibel zu machen.

    Bedingungsblock Bedingungsblcke fassen die Ergebnis-se der Ausfhrung aller im Bedingungsblock vereinigtenBefehle durch eine UND-Verknpfung zusammen. Wardie Ausfhrung aller Befehle im Bedingungsblock feh-lerfrei, so gilt der ganze Bedingungsblock als fehlerfrei.War nur ein Befehl im Bedingungsblock fehlerbehaftet,so gilt der ganze Bedingungsblock als fehlgeschlagen.

    Beleuchtung mit Kameradurchblick Spezielle Form ei-ner Auflichtbeleuchtung. Eine groflchige Flchen-beleuchtung hat in ihrem Zentrum einen Durchbruch,durch den das Objektiv Durchblick durch die Beleuch-tung hat. Das ermglicht eine groflchige und gleich-mige Ausleuchtung aus Kamerarichtung, auch beileicht gewlbten und diffus reflektierenden Teilen. An-wendungen u.a. in der Robotik (am Greifer) sowie in derVerpackungsindustrie.

    Beleuchtungsabstand ist der Abstand zwischen demPrfobjekt und der Lichtaustrittsflche der Beleuch-tung. Bei der Auflichtbeleuchtung bestimmt der Be-leuchtungsabstand bestimmt in starkem Mae die Hel-ligkeit des Kamerabildes durch das Wirken des foto-metrischen Entfernungsgesetzes. Aus diesem Grundsollte die Beleuchtung so dicht wie mglich an das Pr-fobjekt herangebracht werden.Bei der Durchlichtbeleuchtung spielt der Beleuch-tungsabstand durch die konstante Leuchtdichte einegeringere Rolle. Dennoch sollte der Beleuchtungsab-

    stand mglichst mehr als 3 mal so gro wie der Schr-fentiefebereich sein, damit Schmutz auf der Beleuch-tung nicht abgebildet wird. (s. auch Beleuchtungsrich-tung, Beleuchtungswinkel)

    Beleuchtungsapertur ist ein Ma fr den zur Beleuch-tung genutzten ffnungswinkel. Somit haben diffuseBeleuchtungen groe Beleuchtungsaperturen, gerich-tete Beleuchtungen kleine und telezentrische Be-leuchtungen besonders kleine Beleuchtungsaperturen.Dunkelfeldbeleuchtungen haben eine Beleuchtungs-apertur in Form eines Hohlkegels. Hier wird hier die Be-leuchtungsapertur durch die innere und uere Aperturangegeben.

    Beleuchtungseigenschaften Neben einer Vielzahl mgli-cher Eigenschaften, die Beleuchtungen charakterisierenknnen, sind in der Bildverarbeitung die gebruchlichsten:a) Eigenschaften des verwendeten Lichtes: Lichtausbrei-tungsrichtung (diffus, gerichtet, telezentrisch, parallel);rtliche Homogenitt (Gleichmigkeit, Struktur); zeitli-che Homogenitt (Modulation, Blitz, statisch); Wellen-lnge (UV, VIS, IR); Kohrenzgrad; Leistung (Licht-energie); Polarisation;b) Herkunftsrichtung des Lichtes: Auflicht; Durch-licht;c) Eigenschaften des beleuchteten Feldes: Hellfeldbe-leuchtung; Dunkelfeldbeleuchtung

    Beleuchtungsprofil BeleuchtungsstrkeverteilungBeleuchtungsregelung Regelung von Beleuchtungspara-

    metern (Konstanz der emittierten Wellenlnge, zeitli-che Konstanz der Lichtemission (Blitzlnge, Licht-strke)). Wird meist zum Konstanthalten der Beleuch-tungsstrke auf dem Prfobjekt und Bildaufnehmerangewendet. LED-Beleuchtungen ermglichen durchihre einfache elektrische Ansteuerbarkeit in idealer Wei-se die Beleuchtungsregelung. In ihren Ansteuerschal-tungen sind verschiedenste Mglichkeiten dazu vorge-sehen. Die Motivationen fr eine Regelung der Hellig-keit einer Beleuchtung knnen verschieden sein. Es las-sen sich: die Helligkeitsdrift durch Alterung der Beleuch-tung kompensieren; die Helligkeitsdrift durch Erwr-mung der Beleuchtung kompensieren; verschiedenePrfobjekte durch Anpassung der Beleuchtungspara-meter mit ein und derselben Beleuchtung prfen; kom-plexe Beleuchtungsszenarien mit mehreren in ihrer Hel-ligkeit und Leuchtdauer (auch Blitzbetrieb) aufeinanderabgestimmten Beleuchtungen realisieren. (s. auch adap-tive Beleuchtung)

    Beleuchtungsrichtung lsst sich in zwei grundstzlicheRichtungen aufteilen, die durch die Objektebene von-einander getrennt sind: Beleuchtung aus Richtung derKamera: Auflichtbeleuchtung; Beleuchtung aus Rich-tung hinter der Objektebene: Durchlichtbeleuchtung

    9Lexikon der industriellen Bildverarbeitung

    B

    Lexikon neutral S.1-32/09.10.03 16.03.2004 10:52 Uhr Seite 9

  • Beleuchtungsstrke

    Beleuchtungsstrke Lichttechnische Gre, Formelzei-chen E. Die durch die Augenempfindlichkeit (V-Lamb-da-Kurve) bewertete Bestrahlungsstrke. Die Beleuch-tungsstrke beschreibt den Lichtstrom, der auf einebeliebig ausgerichtete Flche fllt. E = d/dA Einheit in Lumen [lm]/m2 = Lux [lx] oder Candela[cd] Steradiant [sr]/m2.

    Beleuchtungsstrke auf dem Bildaufnehmer DieLeuchtdichte kann bei Abbildung durch Objektivenicht vergrert werden. Dagegen kann die Beleuch-tungsstrke beeinflusst werden: Fr die Beleuchtungs-strke auf dem Sensor gilt in Nherung:E = Eob /(4 k2 [1 - 2]) mitk = Blendenzahl = Transmissionsgrad beim Lichtdurchgang

    durch das Objektiv ( 0,9) = Reflexionsgrad des PrfobjektesEob = Beleuchtungsstrke auf dem Prfobjekt = Abbildungsmastab ( < 0!)Diese Angaben gelten nur in der Bildmitte, zustzlich istdie natrliche Vignettierung zu bercksichtigen.Die Beleuchtungsstrke auf dem Bildaufnehmer ist ge-naugenommen von einer Reihe weiterer Faktoren ab-hngig: Wellenlnge (spektrale Empfindlichkeit desBildaufnehmers); Licht-einfallswinkel, (diffus, gerichtet,telezentrisch, strukturiert); Beleuchtungsstrke derLichtquelle; Reflexions-, Absorptions-, Transmissi-onsgrad des Objekts; Reflexions-, Absorptions-, Trans-missionsgrad des Objektivs, Verwendung von Lichtfil-tern

    Beleuchtungsstrkediagramm Beleuchtungsstrke-verteilung

    Beleuchtungsstrketest, auch Luxwerttest. KomplexerBefehl zur Ermittlung der Beleuchtungsstrkevertei-lung einer beleuchteten Flche. Wird u.a. zur Bewertungder Eigenschaften bei der Scheinwerferprfung genutzt.Es knnen mittlere, minimale oder maximale Beleuch-tungsstrke ermittelt und bewertet werden. Fr den Be-leuchtungsstrketest ist eine Kalibrierung des Nenn-wertes der Beleuchtungsstrke mit einem Lux-Meternotwendig. Dazu werden Korrekturfaktoren zur Berck-sichtigung von Filtern und Kameraempfindlichkeiteneingefgt.

    Beleuchtungsstrkeverteilung, auch Beleuchtungspro-fil. Gibt die Verteilung der Beleuchtungsstrke berdie beleuchtete Flche an, die von einer Beleuchtunghervorgerufen wird. Die gewnschte Verteilung kann jeAnwendungsfall verschieden sein.a) zeitlich konstante Beleuchtungsstrkeverteilung. Kurz-zeit- und Langzeitstabilitt knnen Kriterien sein.b) rtlich homogene Beleuchtung, grafisch dargestelltmit dem Beleuchtungsstrkediagramm

    c) definierte Verteilung der Beleuchtungsstrke: struk-turierte Beleuchtungen, adaptive Beleuchtungen.Die praktische Beleuchtungsstrkeverteilung weicht vonden Idealzustnden ab, z.B. durch prinzipbedingten Hel-ligkeitsabfall zur Bildmitte bei Dunkelfeldringlichtern;qualittsbedingt durch den Einsatz von Low-cost-Objek-tiven und Beleuchtungen; falschen Einsatz von Beleuch-tungen (Ringlicht bei glnzender Oberflche).Weitere Einflussfaktoren fr die auf dem Bildaufneh-mer erscheinende Beleuchtungsstrkeverteilung sind:der Beleuchtungsabstand; der Lichteinfallswinkel;die Lichteinfallsrichtung; die natrliche Vignettie-rung durch das Objektiv. Die Beleuchtungsstrkevertei-lung von Ringlichtern kann z.B. gezielt zur Korrekturder natrlichen Vignettierung genutzt werden.

    Beleuchtungstechniken Die Kombination der Beleuch-tungseigenschaften (Eigenschaft des Lichtes, Herkunfts-richtung des Lichtes und Eigenschaft des beleuchtetenFeldes) ergibt eine Reihe von Kombinationsmglichkei-ten, die Beleuchtungstechniken (zu lesen v.u.n.o.):

    Auflichtbeleuchtung DurchlichtbeleuchtungHellfeld Dunkelfeld Hellfeld Dunkelfelddiffus diffus diffus diffusgerichtet gerichtet gerichtet gerichtet(telezentrisch) telezentrisch strukturiert Beispiel fr Bezeichnung einer Beleuchtungstechnik: ge-richtete Dunkelfeld-Auflichtbeleuchtung

    Beleuchtungsverfahren BeleuchtungstechnikBeleuchtungswellenlnge Fr die Beleuchtung eines

    Prfobjektes/einer Szene verwendete Wellenlnge(Lichtfarbe). Je nach Teileeigenschaften des Prfobjek-tes treten Wechselwirkungen mit der Beleuchtungswel-lenlnge auf, wodurch Details des Prfobjektes hervor-gehoben oder unterdrckt werden knnen (Bildvorver-arbeitung). Die Beleuchtungswellenlnge bestimmt, wiestark am Prfobjekt Absorption, Transmission undReflexion stattfinden. Der gezielte Einsatz von Be-leuchtungswellenlngen fhrt zu maximalem Kontrast(Komplementrfarbe). (s. auch Weilicht)

    Beleuchtungswinkel LichteinfallswinkelBelichtung Belichtung (H) ist das Einwirken einer Be-

    leuchtungsstrke (E) auf einen Bildaufnehmer ber einegewisse Zeit (t). H = E dt. Ziel der Belichtung ist es, einausreichend kontrastreiches (hell/dunkel), kein berbe-lichtetes und kein unterbelichtetes Bild zu erzielen. Umeine konstante Helligkeit in verschiedenen Bildern zu er-reichen, muss die Belichtung konstant gehalten werden.Dazu gibt es zwei Mglichkeiten: a) die Zeit halbierenund die Beleuchtungsstrke verdoppeln; b) die Zeit ver-doppeln und die Beleuchtungsstrke halbieren (kann zuBewegungsunschrfe fhren).

    10 Lexikon der industriellen Bildverarbeitung

    B

    Lexikon neutral S.1-32/09.10.03 16.03.2004 10:52 Uhr Seite 10

  • Bewegungsunschrfe

    Je nach Applikation kann im Vordergrund stehen: lan-ge/kurze Belichtungszeit (statische/schnelle Prozesse);kleine/groe Blendenzahl (kleine/groe Schrfentiefe);oder beides.

    Belichtungszeit Zeit, fr die der Bildaufnehmer licht-empfindlich gemacht wird. Wird in industriellen Kame-ras elektronisch eingestellt. Fr CCDs auch Integra-tionszeit.

    Benutzeroberflche BedienoberflcheBerhrungsloses Antasten Suche eines Strukturbergan-

    ges (Helligkeitsunterschiedes) entlang eines Antast-strahles mit bildverarbeitenden Verfahren. Der Kanten-ort wird dort gefunden, wo der Helligkeitsverlauf demKantenortskriterium entspricht. (s. auch Antasten)

    Berhrungsschutz IP-SchutzklassenBeschreibungsgeometrie GeometrieelementeBestgerade Bildverarbeitungsfunktion zur Erzeugung

    einer bestmglich in einen Toleranzschlauch einge-passten Gerade, die aus einer mit Bildverarbeitung ge-wonnenen Punktmenge oder aus Konturen gebildetwird. Typisch dient die Verwendung der Funktion Best-gerade zum statistischen Ausgleich unregelmigerKrperkanten an Prfobjekten, die in ihrer Idealgeo-metrie gerade sind. Die Breite des gebildeten Toleranz-schlauches gibt Auskunft ber die Geradheit der vonden beschreibenden Punkten ermittelten Gerade. Jemehr Punkte oder Konturen zur Ermittlung der Bestge-rade genutzt werden, desto genauer die Bestgerade.

    Bestkreis Bildverarbeitungsfunktion zur Erzeugung einesbestmglich in einen Toleranzschlauch eingepasstenKreises, der aus einer mit Bildverarbeitung gewonnenenPunktmenge gebildet wird. Typisch dient die Verwen-dung der Funktion Bestkreis zum statistischen Ausgleichungleichmiger Krperkanten an Prfobjekten, diein ihrer Idealgeometrie rund sind. Die Breite des gebil-deten Toleranzschlauches gibt Auskunft ber die Rund-heit des von den beschreibenden Punkten ermitteltenKreises. Je mehr Punkte oder Konturen zur Ermittlungdes Bestkreises genutzt werden, desto genauer derBestkreis. Mindestanzahl ist drei.

    Bestrahlungsstrke BeleuchtungsstrkeBeugung Durch die Wellennatur des Lichtes erklrbare Er-

    scheinung, dass Licht beim Auftreffen auf eine Krper-kante seine Ausbreitungsrichtung um die Kante herumin den eigentlich dunklen Bereich hinein ndert. DieWellenflchennormale wird um die Objektkante ge-beugt. Beugung wird nicht durch Brechung, Reflexionoder Streuung hervorgerufen, sondern durch die Wel-lennatur des Lichtes. An abgebildeten Objektkanten tre-ten Beugungseffekte in Form von typischen Beugungs-mustern auf. Je nach Form des Objektes knnen diesesehr verschieden sein (z.B. bei einer geraden Kante: Par-

    allelen abnehmender Intensitt). Die Gre der Beu-gungserscheinungen ist abhngig von der verwendetenWellenlnge. Ein Punkt wird bei Abbildung mit Beu-gung vergrert zu D = 2,44 k (Durchmesser dessog. Airy-Scheibchens -Wellenlnge, k-Blendenzahl).Die Gre der Beugungserscheinung ist proportionalzur verwendeten Wellenlnge. Beugung tritt nicht nuran Kanten des Objektes sondern auch an Fassungsbau-teilen des Objektivs sowie an der Blende auf und fhrtzu Unschrfe (frderliche Blende, beugungsbe-grenztes Objektiv). Beugung begrenzt die Auflsungdurch berlagerung von Beugungserscheinungen. Sokommt es bei groen Abbildungsmastben (>10) zurleeren Vergrerung. Beugungsmuster ndern dieKantenform, was die Auswertbarkeit mit Bildverarbei-tungsalgorithmen erschwert. Beugung wird in Beu-gungsgittern gezielt genutzt um Lichtstrukturen zu er-zeugen, z.B. bei Strahlformungsoptiken fr Laser, zurTriangulation oder beim Lichtschnittverfahren.

    Beugungsbegrenztes Objektiv Ein abbildungsfehlerfrei-es Objektiv, das nur durch die Beugung des Lichtes inseiner Abbildungsgte begrenzt ist (beugungsbe-grenzte Abbildung). Hochwertige Objektive erreichen inihrem Korrektionszustand die Beugungsbegrenztheitpraktisch. Fr die meisten Anwendungen der industriel-len Bildverarbeitung sind durch die begrenzte Bild-punktauflsung beugungsbegrenzte Objektive berdi-mensioniert.

    Beugungseffekt BeugungBeugungserscheinung svw. Beugungseffekt, BeugungBeugungsgitter Anordnung regelmiger, untereinander

    gleichartiger Elemente mit konstantem Abstand in derGrenordnung der Lichtwellenlnge. Entsprechenddem Funktionsprinzip kann das Beugungsgitter licht-durchlssig (Transmissionsgitter), absorbierend (Ab-sorptionsgitter) oder reflektieren (Reflexionsgitter) sein.Beugungsgitter werden u.a. in Strahlformungsoptikenfr Diodenlaser genutzt.

    Beugungsmuster BeugungBewegungsunschrfe Bewegt sich das Prfobjekt

    whrend der lichtempfindlichen Zeit (Integrationszeit)der Kamera, so hinterlsst das Objekt im Bild eine ver-wischte Struktur. Die Breite der verwischten Strukturenstellen ein Ma fr die Bewegungsunschrfe dar. Fr diesichere Funktion von Bildverarbeitungsalgorithmen soll-ten fr die Bewegungsunschrfe im Bild weniger als 1Pixel angestrebt werden. Durch Rckrechnung von derminimal mglichen Shutterzeit und der maximalzulssigen Bewegungsunschrfe lsst sich die maxima-le Geschwindigkeit berechnen, mit der sich ein Prfob-jekt an Kamera und Objektiv vorbeibewegen darf.Bewegungsunschrfe kann verursacht werden durch:

    11Lexikon der industriellen Bildverarbeitung

    B

    Lexikon neutral S.1-32/09.10.03 16.03.2004 10:52 Uhr Seite 11

  • Bild

    Bewegung des Prfobjekes whrend der Belichtungszeit(durch Transport, aber auch Schwingungen); zu langeBelichtungszeit (Shutter), zu lange Beleuchtungszeit(Blitzzeit); Schwingungen durch instabile Befestigungder Bildverarbeitungskomponenten.

    Bild Ergebnis der optischen Abbildung. Ein Bild ist diezweidimensionale Projektion einer dreidimensionalenSzene auf einen Bildaufnehmer. Bilder knnen unter-schiedliche Datenbreite (Digitalisierungstiefe) besit-zen: Binrbild, Grauwertbild, Farbbild. Ihre rtli-che Auflsung bestimmt den Informationsgehalt ei-nes Bildes.

    Bild-Austast-Synchron-Signal VideosignalBildaddition Pixelweise Addition der Helligkeitswerte

    zweier Bilder. Dabei werden die Werte von Pixeln mitgleichen Koordinaten (Zeile, Spalte) addiert. Bildadditi-on kann zur Aufhellung dunkler Bilder oder mit zustz-licher Mittelwertbildung zur Verringerung des Bildrau-schens genutzt werden.

    Bildakquisition BildaufnahmeBildanalyse ist die Bewertung eines Bildes nach seinen Ei-

    genschaften. Dabei werden Methoden der Statistik unddes Messens, basierend auf Grauwertbildverarbeitung,kombiniert. Mit Bildanaylsefunktionen kann bestimmtwerden, ob die Bildqualitt gut genug fr die Inspekti-onsaufgabe ist. Desweiteren knnen mit Bildanalyse-funktionen auch Abbildungen auf ihren Inhalt hin ana-lysiert werden, oder um zu entscheiden, welche Funkti-on zur Aufgabenlsung verwendet werden muss.

    Bildarithmetik Punktoperation, bei der pixelweise (ohneEinfluss auf Nachbarpixel) mehrere Bilder verrechnetwerden. (s. auch Bildsubtraktion, Bildaddition)

    Bildattribute beschreiben die Eigenschaften des imBildspeicher abgelegten Bildes. Das knnen sein:Bildbreite [Pixel], Bildhhe [Pixel] binr, Schwarz/weioder Farbe Digitalisierungstiefe, Dateigre, minima-ler enthaltener Grauwert, maximaler enthaltener Grau-wert, Grauwertverteilung, Vorhandensein und Anzahlsich wiederholender Elemente,Farben.

    Bildaufnahme Vorgang von der Belichtung des Bild-aufnehmers, der Signalwandlung im Bildaufnehmer, derbertragung des Videosignals, Digitalisierung imFramegrabber, bis zum Ablegen der digitalisiertenBilddaten im Bildspeicher. (s. auch Bildeinzug)

    Bildaufnahmefrequenz BildfrequenzBildaufnahmeseite BildeinzugseiteBildaufnahmezeit Zeit, die eine Kamera bentigt, um die

    Bildinformation vollstndig auszulesen. Typische Zeitenfr CCD-Sensoren sind: 12 Hz Vollbildsensor: 83 ms;25 Hz Vollbildsensor: 40 ms; 30 Hz Vollbildsensor: 33ms; 54 Hz Volbildsensor: 19 ms. Die Bildaufnahmezeit istabhngig von der Pixelzahl und der Bildfrequenz.

    Prinzipbedingt besitzen CMOS-Sensoren krzere Bild-aufnahmezeiten, da bei ihnen durch direkte Adressie-rung der Pixel auch nur Teilbereiche des Bildaufneh-mers ausgelesen werden knnen.

    Bildaufnehmer Sensorische Baugruppe, die einen physi-kalischen Effekt nutzt und ein Signal ausgibt. Vielfachist eine Signalvorverarbeitung enthalten. Sensoren die-nen der Gewinnung von Informationen ber Produkteund Prozesse. Sensoren fr die Bildverarbeitung werdenauch Bildaufnehmer genannt und wandeln ein einfal-lendes optisches Intensittsmuster in ein elektrischesSignal. In der industriellen Bildverarbeitung werdenmeist CCD/CMOS-Sensoren genutzt, die nach ver-schiedenen Funktionsprinzipien arbeiten. Die Untertei-lung erfolgt entsprechend der Geometrie der lichtemp-findlichen Flche des Bildaufnehmers in Zeilensensoren(Zeilenkamera) und Flchensensoren (Matrixkame-ra). Die Weiterentwicklung der Sensorchips geht in Rich-tung hhere Auflsungen (grere Pixelzahl),schnelleres Bild Auslesen (grere Bildwiederholfre-quenz) sowie Integration von Intelligenz auf dem Sen-sorchip.Im Sprachgebrauch kann mit Sensor auch ein komplet-tes Stand-alone-Bildverarbeitungssystem gemeint sein,das eine festgelegte Aufgabe z.B. zum Zeichen lesenwahrnimmt.

    Bildaufnehmergre Gre des Bildaufnehmers in derBildverarbeitung. Traditionell im Breiten-/Hhenver-hltnis 4:3 (aus den Notwendigkeiten der analogenFernsehtechnik abgeleitet). Neuere Sensoren knnendurch den Einsatz der Digitaltechnik auch in anderenGren vorkommen. Die Zoll-bezogene Bezeichnunggeht auf die Gre der Vidikon-Vakuumaufnah-merhre mit dem Ursprungsformat 1" zurck. Dabeiwurde mit 1" der Rhrendurchmesser beschrieben.Daraus wurde die Sensorgre auch von Halbleitersen-soren abgeleitet:

    Bezeich- Flche Diagonale typisches nung (mm2) (mm) Pixelraster (m)1" 12,8 9,6 16 92/3" 8,8 6,6 11 6,71/2" 6,4 4,8 8 6,71/3" 4,8 3,6 6 61/4" 3,6 2,7 4,5 51/5" 2,9 2,2 3,6 41/6" 2,1 1,6 2,7 41/10" ... 1,8 3Kleinere Sensorgren stellen gesteigerte Anforderun-gen an die Optik (hhere Auflsung, Miniaturisierung)und machen sie teurer. Daher hat sich fr die industriel-le Bildverarbeitung eine Sensorgre von 1/2" als Stan-dard eingepegelt. Das zu nutzende Objektiv muss auf

    12 Lexikon der industriellen Bildverarbeitung

    B

    Lexikon neutral S.1-32/09.10.03 16.03.2004 10:52 Uhr Seite 12

  • Bildfrequenz

    die Bildaufnehmergre abgestimmt werden, sonstkommt es zu knstlicher Vignettierung.Objektive besitzen eine Angabe der maximal zur ver-wendenden Sensorgre.

    Bildbearbeitung ist ein Bereich grafischer Anwendungenam Computer. Die Bildbearbeitung ist eher knstlerischals technisch ausgerichtet, hat also mit Bildverarbeitungwenig zu tun und dient zur Bearbeitung vorhandenenBildmaterials mit dem Ziel Bilder zu retuschieren, korri-gieren (Helligkeit, Bildschrfe), verfemden. Verwendetauch Bildfilter, die die Bildverarbeitung nutzt.

    Bilddatenkompression Die bei der bertragung von Bild-daten anfallenden Datenmengen sind enorm. So lieferteine Megapixelkamera mit 30Hz Vollbildfrequenz proSekunde 30Mbyte Bilddaten. Daher werden Bilddaten,die aus Bildverarbeitungssystemen heraus bertragenwerden (z.B. zur bertragung von Fehlerbildern beider Fernwartung ber Ethernet), komprimiert. Dazugibt es verschiedene Verfahren. Einige arbeiten mit Ver-lusten an Bildinformation bei der Dekompression(jpeg), andere ohne (z.B. Lauflngencodierung). Frdie bertragung von Fehlerbildern muss ein verlustfrei-es Verfahren gewhlt werden, damit die Fehlerentste-hung am Bild mit Originaldaten nachvollzogen werdenkann.

    Bilddiagonale BildaufnehmergreBildebene, auch Bildaufnehmerebene. Ebene, in der die

    optimale optische Abbildung stattfindet. Auf die Bild-ebene bezogen werden die Abbildungsfehler. In derBildebene befindet sich z.B. Bildaufnehmer einer Ka-mera.

    Bildeinzug Art und Weise, wie die Bildinformation vomBildaufnehmer in den Bildspeicher transferiert wird. DieArt des Bildeinzuges bestimmt die Genauigkeit der Orts-auflsung der Pixel im spteren Speicherbild.Frei laufender oder pixelunsynchroner Bildeinzug: DasVideosignal wird als fortlaufendes Signal zum Frame-grabber bertragen. Nur die Synchronsignale Zeilenen-de und Bildende ermglichen die Zuordnung der Vi-deoinformation. Wo genau das Pixel innerhalb der Zeileliegt, ist damit nicht zu ermitteln.Pixelsynchroner Bildeinzug mit Videosignal und Pixel-takt ber Kamerakabel: Neben der Bildinformation wirdauch der Takt eines jeden Pixels (Pixelclock) bertra-gen. Diese Art des Bildeinzuges verspricht eine hhereGenauigkeit der Bildverarbeitung. Allerdings muss einegroer Hardware-Aufwand betrieben werden zur lauf-zeitsynchronen bertragung des Pixeltaktes.Pixelidentischer Bildeinzug direkt am Bildaufnehmer: Je-des Pixel wird in unmittelbarer Nhe des Bildsensors di-gitalisiert. Der hohe Aufwand der rumlich getrenntenVerarbeitung des Pixeltaktes entfllt. Das Videosignal

    kann mit hoher Genauigkeit weiterverarbeitet werden.Pixelsynchroner oder pixelidentischer Bildeinzug sind fralle messtechnischen Anwendungen der Bildverarbei-tung unabdingbar.

    Bildeinzugsseite Das von der Kamera erzeugte und ge-wonnene digitale Bild wird zur Bearbeitung durch dieBildverarbeitungsalgorithmen in einem Speicherbe-reich, der Bildspeicherseite, im Rechner abgelegt. Aufdie Bildeinzugsseite kann von der Bildverarbeitungs-software zugegriffen werden.

    Bildfeldwlbung Ein Abbildungsfehler. Eine Abbildungmit Bildfeldwlbung erfolgt nicht in einer Bildebene,sondern auf einer Bildschale. Dadurch ergeben sich Zo-nen gleicher Schrfe in Form von konzentrischen Ringen.Hinweis auf Bildfeldwlbung gibt es dann, wenn beimDurchfahren der Entfernungseinstellung im Bild immernur in kreisfrmigen Zonen scharf abgebildet werden.

    Bildfenster Unter Windows arbeitende Bedienober-flchen von Bildverarbeitungsprogrammen nutzen hu-fig ein Fenster, in das das aktuelle Kamerabild einge-blendet wird. Es wird als Bildfenster bezeichnet.

    Bildfilter, auch Raumfilter, sind digitale Filter, die verwen-det werden, um Merkmale eines Bildes/Bildausschnittes(Prffenster) hervorzuheben, zu unterdrcken, oderderen Bildqualitt zu verbessern. Sie dienen der Bild-vorverarbeitung. Zu den Bildfiltern gehren frequenzse-lektive Filter (Hochpassfilter, Tiefpassfilter, Band-passfilter, Bandsperre), sowie weitere, wie z.B.: Lapla-cefilter, Median, Prewitt, Sobelfilter, Min-Filter,Max-Filter.

    Bildfolge In zeitlich definierter Abfolge aufgenommeneBilder. Typisch fr Fernsehbilder. In der digitalen Bildver-arbeitung nicht so hufig genutzt, da die Anforderungenan die Geschwindigkeit der Datenbertragung und -spei-cherung sehr hoch sind. Aus Bildfolgen kann z.B. die Be-wegungsrichtung eines Objektes erkannt werden. Hoch-geschwindigkeitsaufnahmesysteme zeichnen Bildfolgenauf, um mit dem Auge nicht erkennbare Vorgnge in ih-rer Abfolge sichtbar zu machen (Zeitlupe).

    Bildfrequenz Die Bildfrequenz ist die vom Bildaufneh-mer pro Sekunde lieferbare Anzahl an Bildern. Die An-zahl der ausgelesenen Bilder ist stark abhngig von derPixelzahl. Fr CCD-Sensoren ist die Bildfrequenzschaltungstechnisch im Chip vorgegeben und kann nurunter Kompromissen (Binning) vergrert werden.CMOS-Sensoren liefern typisch bis zu 600 Hz Bildfre-quenz, knnen aber durch das Auslesen kleiner Prf-fenster wesentlich in ihrer (Teil-)Bildfequenz beschleu-nigt werden (z.B. bei Prffenster 32 128 Pixel mit60.000 Hz). Gebruchliche Vollbildfrequenzen sind 25und 30 Hz fr Standard-CCD-Kameras, die der Video-technik entstammen, 120 Hz fr leistungsfhige CCD-

    13Lexikon der industriellen Bildverarbeitung

    B

    Lexikon neutral S.1-32/09.10.03 16.03.2004 10:52 Uhr Seite 13

  • Bildgre

    Kameras der industriellen Bildverarbeitung und bis zu100.000 Hz fr Hochgeschwindigkeitskameras.

    Bildgre BildaufnehmergreBildgte AbbildungsgteBildhelligkeit Die in der Bildebene vom optischen Sys-

    tem erzeugte Bestrahlungsstrke gewichtet mit derEmpfindlichkeit des Bildaufnehmers. Die Bildhelligkeithngt von vielen Faktoren ab, u.a. der Beleuchtung desPrfobjektes, dem Prfobjekt, der Transmission undder Lichtstrke des optischen Systems, der Bildauf-nehmerempfindlichkeit und der Wellenlnge.

    Bildkontrast KontrastBildkoordinatensystem Bezugssystem, das die Lage der

    Pixel im Bildaufnehmer angibt. Bildkoordinaten er-geben sich aus der Zeilen- und Spaltenstruktur des Bild-aufnehmers. Ursprung ist links oben im Bild. Das Bild-koordinatensystem liegt im Unterschied zum Kamera-koordinatensystem in der Bildebene der Kamera.Mssen Koordinaten von mehreren Kameras miteinan-der verrechnet werden, muss dazu das Weltkoordina-tensystem verwendet werden. (s. auch Koordinaten-transformation)

    Bildleitkabel sind sortierte Lichtwellenleiter, deren Zu-ordnung der einzelnen Fasern auf der Lichteintrittsseitegenauso ist, wie auf der Lichtaustrittsseite. Jede einzel-ne Faser transportiert ein Pixel. Je nach Durchmesserder Fasern kann das Auflsungsvermgen verschie-den hoch sein. Bildleitkabel mit bis zu 100.000 Fasernsind mglich. Wird auf der Eintrittsflche ein Bild einge-koppelt, so wird das Bild auf die Austrittsflche bertra-gen. Je nach Packungsdichte (Zwischenrume durch dierunden aneinanderliegenden Fasern) kommt es zu Kon-trastverlusten. Bildleitkabel werden vorrangig fr fle-xible Endoskope genutzt.

    Bildmitte Geometrischer Ort, der den fiktiven Durchsto-punkt der optischen Achse durch die Bildebene/denBildaufnehmer kennzeichnet.

    Bildpunkt PixelBildpunktauflsung (auch Pixelauflsung) ist das kleins-

    te vom Bildaufnehmerraster unterscheidbare Detail.Nicht mit dem Auflsungsvermgen der Optik (Modu-lationsbertragungsfunktion) zu verwechseln. Berech-nung nach:Bildpunktauflsung = Gre des Gesichtsfeldes/verfg-bare Bildpunktzahl (Angabe in mm/Pixel). Bei sehr fei-nen Strukturen ist das Abtasttheorem zu beachten.Dadurch kann unter ungnstigen Umstnden die Bild-punktauflsung um die Hlfte schlechter werden.Verbesserung der Bildpunktauflsung ist mglich durch:grere Pixelzahl/hochauflsende Sensoren; maxima-le Ausnutzung des Gesichtsfeldes (am Bildrand sindAbbildungsfehler grer!); Bildaufnehmer mit Piezo-

    Verschiebung; Subpixel-Antastung; Objektiv-Sonder-bauformen wie z.B. Zweimessstellenobjektive

    Bildpunktzahl PixelzahlBildrauschen berlagerung der Bildinformation durch

    stochastisches Rauschen. Bildrauschen entsteht durchRauschanteile der beteiligten Elektronik in Bildauf-nehmer, Framegrabber, Kamera sowie durch in den Bild-aufnehmer eindringende Strahlung. Bei Bildern mitschlechtem Kontrast kann das Bildrauschen zuschlechter Auswertbarkeit fhren. Bildrauschen lsstsich vermeiden durch Aufsummierung mehrerer Bildermit Langzeit-shutter oder per Software durch Mittelungder Bildinformation einzelner Pixel.

    Bildschrfe bezeichnet die Fhigkeit eines Objektivs einscharfes Bild zu erzeugen. Sie wird durch Abbildungs-fehler, Fokussierung sowie durch Beugung einge-schrnkt.

    Bildsequenz BildfolgeBildsignal VideosignalBildspeicher Speicherbereich, in dem die digitalisierten

    Bilddaten abgelegt werden. Bildspeicher sind in Bild-speicherseiten unterteilt. Jede Bildspeicherseite kannein digitalisiertes Bild speichern. Je nach Gre knnenviele Bilder gespeichert werden. Typische Gren vonBildspeichern sind 2 ...8 Mbyte.

    Bildspeicherseite Die Bildspeicherseite nimmt die vomFramegrabber digitalisierte Bildinformation aus derKamera auf. Bildverarbeitungssysteme besitzen i.A.mehrere Bildspeicherseiten. Bildspeicherseiten knnenverschieden genutzt werden als Anzeigeseite Bear-beitungsseite Bildeinzugsseite Demoseite. Durch dieTrennung von Bildeinzugsseite und Bearbeitungsseitelsst sich die Abarbeitungsgeschwindigkeit von Prf-programmen steigern. So kann bei paralleler Bildauf-nahme der Bildeinzug einer Bildaufnahme auf die Bild-aufnahmeseite gestartet werden, whrend auf der Be-arbeitungsseite das zuvor aufgenommene Bild parallelverarbeitet wird. (s. auch Parallelverarbeitung)

    Bildsubtraktion Bildpunktweise Subtraktion der Grau-werte zweier Bilder. Dabei werden jeweils die Grauwer-te der Pixel mit gleichen Zeilen- und Spaltenkoordinatensubtrahiert. Kann bei sehr lagegenauen bereinstim-menden Bildern mittels Grauwerttest zur Anwesen-heitskontrolle genutzt werden.

    Bildtransformation Bilddaten fr ein Ausgangsbild wer-den aus Bilddaten eines Eingangsbildes gem einerTransformationsvorschrift berechnet. Beispiele sind dieFourier- und die Hough-Transformation.

    Bildverarbeitung ist eine noch recht junge Technologie,die ihren Durchbruch Anfang der 80er Jahre des letztenJahrhunderts geschafft hat. Sie beschftigt sich mit Bil-dern, Bildfolgen mit dem Ziel der Manipulation und Aus-

    14 Lexikon der industriellen Bildverarbeitung

    B

    Lexikon neutral S.1-32/09.10.03 16.03.2004 10:52 Uhr Seite 14

  • Bitmaske

    wertung mit Hilfe technischer Mittel, um: die Bildqualittzu verbessern (Kontrast, Farbe, Bildschrfe); Bilderzu restaurieren (Rauschbefreiung, geometrische Ent-zer-rung, ...); Bildern zu codieren (Datenkompression, ...);Bilder zu verstehen und zu interpretieren (Bildanalyse,Mustererkennung).Diese Merkmale lassen die Bildverarbeitung berall dortanwenden, wo Bilder anfallen und ausgewertet werdenmssen: in der Biologie (Zellen zhlen), in der Medizin(Computertomogramme auswerten), im Bauwesen(Auswertung von Wrmebildern), in der Sicherheitstech-nik (Kontrolle biometrischer Mae).Die industrielle Bildverarbeitung (= industrielle Anwen-dung der Bildverarbeitung) hat sich zu einer Leittechno-logie der Automatisierungstechnik entwickelt, die in na-hezu allen Branchen der verarbeitenden Industrie anzu-treffen ist. Bildverarbeitung ist eine Synthesetechnolo-gie, an der viele Fachrichtungen beteiligt sind: Lichttech-nik, Optik, Elektronik, Informatik, Informationstechnik,Automatisierungstechnik. Dadurch sind die Funktionszu-sammenhnge sehr komplex. (s. auch Machine Vision)

    Bildverarbeitungs-Bibliothek stellt Grundfunktionen derBildverarbeitung als DLL- oder OCX-Datei fr das Prf-programm zur Verfgung fr immer wiederkehrendegrundlegende Funktionen (Bildfilter, Klassifikationetc.). Die Bildverarbeitungs-Bibliothek wird in die Appli-kationssoftware eingebunden.

    Bildverarbeitungssensor Smart Camera SensorBildverarbeitungssystem Anlage zur Gewinnung, Aufbe-

    reitung (Vorverarbeitung),Verarbeitung,Analyse und Er-gebnisermittlung aus visuellen Daten. Ein Bildverarbei-tungssytem ist ein komplexes technisches System undsetzt sich aus einer Reihe von sehr verschiedenen Sy-stemkomponenten zusammen: Beleuchtung, Optik, Ka-mera, Framegrabber, Computer, Kommunikations-schnittstellen, Prozessschnittstellen, Software

    Bildverbesserung Die durch optische Abbildung ge-wonnenen und im Bildspeicher abgelegten Bilder wei-sen hinsichtlich Helligkeitsverteilung, geometrischer Ei-genschaften, Rauschen u.a. Eigenschaften auf, diedurch gezielten Einsatz von Algorithmen und Bildfil-tern verbessert werden knnen, ohne dabei die vorhan-dene Bildinformation zu beschdigen. (s. auch Bildvor-verarbeitung, Kontrastverstrkung)

    Bildvorverarbeitung dient der Informationsreduktion zureffektiven Bildverarbeitung. Die Bildinformation wirdmit dem Zweck der Bildverbesserung gendert. Bild-vorverarbeitung findet statt, bevor Bildverarbeitungsal-gorithmen mit der Informationsgewinnung aus demBild beginnen (Segmentierung). Zur Bildvorverarbei-tung werden hufig Bildfilter verwendet.Drei Bereiche sind fr die Bildvorverarbeitung typisch:

    Geometrische Entzerrung (z.B. Beheben von Verzeich-nung), Bildverbesserung (Homogenisieren, Kontrast,Bildschrfe, Beseitigung von Rauschen), Bildrestau-rierung (bei gestrter Bildbertragung).In einigen Softwarepaketen zur Bildverarbeitung sindAlgorithmen zur Bildvorverarbeitung schon in den Funk-tionen eingebaut. Damit wird sichergestellt, dass dieBildvorverarbeitung nur in bestimmten Bereichen(Prffenster) wirksam wird, was zur Steigerung derVerabeitungsgeschwindigkeit beitrgt.Optische Bildvorverarbeitung ist durch die Ausfhrungin Lichtgeschwindigkeit besonders effektiv: durch ge-zielten und bewussten Optik- und Beleuchtungseinsatzlassen sich Abbildungsform, Kontrast und Bildschrfedramatisch steigern und durch eingesparten Hard- und-Softwareaufwand Kosten sparen.

    Bildwandler BildaufnehmerBildwiederholfrequenz, auch Bildwiederholrate. Bild-

    frequenzBinralgorithmus AntastalgorithmusBinrbild Digitales Bild im Bildspeicher, bei dem jedem

    Pixel ein Wert schwarz (0) oder wei (1) zugeordnetist. Sonderfall eines Grauwertbildes. (s. auch Schwell-wert)

    Binrbildverarbeitung Merkmalsextraktion aus einemBinrbild. Sehr schnelles Verfahren, da sehr hard-warenah gearbeitet werden kann. Empfindlich gegennderungen in der Beleuchtung. (s. auch Grauwertbild-verarbeitung, Farbbildverarbeitung)

    Binre Antastung AntastalgorithmusBinre Morphologie Morphologische BildverarbeitungBinrschwelle SchwellwertBinrverfahren AntastalgorithmusBinarisierung Einstellung eines Schwellwertes zwischen

    minimalem und maximalem Grauwert, in dessen Er-gebnis ein Binrbild mit nur zwei Helligkeitsstufen(hell und dunkel) vorliegt. (s. auch Look up Tabelle)

    Binarisierungsschwelle SchwellwertBinning Technik zum Zusammenfassen von Ladungen von

    benachbarten Pixeln in CCD-Sensoren. Dadurchwird das Signal-Rausch-Verhltnis verringert und derBildaufnehmer kann schneller ausgelesen werden(Bildfrequenz), allerdings auf Kosten einer geringerenBildpunktauflsung. Der Binningfaktor gibt an, wieviele Pixel zusammengefasst werden. 2 2 bedeutet,dass jeweils die Pixel aus 2 benachbarten Zeilen undSpalten kombiniert werden.Beim Software-Binning werden benachbarte Pixel ausdem Bildspeicher zusammengefasst, wodurch sichdas Bildrauschen verringert.

    Bitmap BMP-DateiformatBitmaske Portkontrolle

    15Lexikon der industriellen Bildverarbeitung

    B

    Lexikon neutral S.1-32/09.10.03 16.03.2004 10:52 Uhr Seite 15

  • Blende

    Blende ffnung im optischen System, die den Durchgangvon Strahlen mechanisch beschneidet (ffnungsblen-de, Feldblende). Blenden knnen von ihrer Gre fixsein (Festblende) oder vernderlich ( einstellbareBlende). (s. auch frderliche Blende)

    Blendenautomatik Auto-Iris-ObjektivBlendendurchmesser LichtstrkeBlendenreihe BlendenzahlBlendensteuerung/Blendenregelung Auto-Iris-ObjektivBlendenstufe BlendenzahlBlendenzahl ber ffnungsblenden wird Einfluss auf

    die Gre der freien ffnung, und damit auf die Licht-strke und die Blendenzahl k genommen. Die kleinsteeinstellbare Blendenzahl entspricht dem Kehrwert desffnungsverhltnisses:k = f/EP mit k = Blendenzahl; f = Brennweite des Ob-jektivs; EP = Durchmesser Eintrittspupille.Beispiel: Ein Objektiv mit f= 50 mm hat einen Frontlin-sen- von 28 mm. Bei diesem Objektiv ist die sichtbarefreie ffnung (Eintrittspupille) etwa gleich dem Front-linsendurchmesser. Damit wird k = 50 mm/28 mm = 1,78 1,8.Fr die nherungsweise Umrechnung der Blendenzahlin die numerische Apertur NA (Umgebung Luft) gilt:k = 1/2NA mit NA = NA mit (NA = bildseitige nu-merische Apertur, = Abbildungsmastab).Die Gre der kleinsten Blendenzahl bestimmt die Licht-strke eines Objektivs. Eine Halbierung des durchgehen-den Lichtstroms geschieht bei Halbierung der Licht-durchtrittsflche der Blende. Irisblenden umschlieeni.A. eine Kreisflche, so dass bei Halbierung der Flcheder Blendendurchmesser um 2 kleiner wird. So ent-steht die typische Blendenzahlreihe: 0,7; 1; 1,4; 2; 2,8; 4;5,6; 8; 11; 16; 22; 32. (s. auch frderliche Blende, Schr-fentiefe, Bewegungsunschrfe)

    Blitzbeleuchtungen sind Beleuchtungen, deren Leucht-dauer sehr kurz ist (Blitzzeit) im Verhltnis zu Belich-tungszeit der aufnehmenden Kamera. Im Allgemeinenwerden Leuchtdauern < 1ms als Blitz bezeichnet. ImUnterschied zur Stroboskopbeleuchtung wird dieBlitzbeleuchtung durch einen Trigger ausgelst undkommt nach der Blitzverzgerungszeit zum Leuchten.Die Blitzfrequenz ist abhngig von der Applikationund kann u.U. die Bildfrequenz erreichen.Charakteristisch fr Blitzbeleuchtungen sind die kon-stante emittierte Lichtenergie (auch bei Vernderungder Blitzzeit, gleiche Helligkeit!), schnelle Anstiegs- undAbfallzeiten der Lichtaussendung sowie geringe Verz-gerungszeiten, was durch komplexe elektrische Schal-tungen realisiert wird.Als Lichtquellen kommen hauptschlich Infrarot-LEDszum Einsatz, die kurzzeitig mit dem 10-fachen ihres

    Nennstromes betrieben werden und dabei die 10-facheLichtausbeute liefern. Gasentladungslampen liefernsehr helles Licht, sind aber problematisch hinsichtlichEMV, sind gefhrlich durch die interne Verwendungvon Hochspannung, altern recht schnell (bis zu 70%Helligkeitsverlust am Ende der Lebensdauer) und be-sitzen ein nicht ausgeglichenes Spektrum des ausge-sendeten Lichtes. Um verschiedene Beleuchtungs-techniken realisieren zu knnen, werden verschieden-ste Formen (Flchen, Ringlichter) verwendet als auchVarianten, bei dem das Blitzlicht in Lichtwellenleitereingekoppelt wird.An die Blitzsynchronisation bei schnelllaufendenProzessen werden hohe Ansprche hinsichtlich desZeitverhaltens gestellt.Leistungsfhige Bildverarbeitungssysteme stellendafr fertige Funktionen (asynchron Blitzen) zur Ver-fgung.Blitzlichtbeleuchtungen werden dort genutzt, woschnelle und bewegte Prozesse sichtbar gemacht wer-den mssen (Stanzteile, Halbleiterindustrie), intensivesDauerlicht zu berhitzung fhren wrde (Verpackungwrmeempfindlicher Produkte) oder wo Bediener beipermanentem Betrieb der Beleuchtung gestrt werden.Anforderungen an Blitzbeleuchtungen fr Machine Vi-sion: hell wegen dem bevorzugten Einsatz im Durch-licht; kurze Verzgerungszeiten, Anstiegs-, Abfallzeitenim Blitz selbst; Blitzfrequenz > Bildfrequenz der Ka-mera; EMV-Tauglichkeit; lange Lebensdauer, auch beiVibrationen, Luftfeuchtigkeit, Wrme; geringer Hellig-keitsverlust ber die Lebensdauer; nderbare Blitzzeitbei konstanter Lichtenergie; nderbare Blitzhelligkeitohne nderung der Blitzzeit; Arbeit mit verschiedenenTriggerpegeln (TTL/SPS).

    Blitzlnge BlitzzeitBlitzrhre BlitzbeleuchtungBlitzsynchronisation Schnelllaufende Prozesse bentigen

    zur sicheren Funktion eine Synchronisation verschiede-ner Vorgnge u. a. derer zur Bildaufnahme. Die Blitz-synchronisation schliet Kamera (Shutter), Trigger undBlitzbeleuchtung ein.Nach der Blitzverzgerungszeit erreicht die Blitzbe-leuchtung ihre volle Helligkeit. Danach sollte die Shut-terzeit beginnen und enden, bevor die Blitzhelligkeit ab-nimmt.Moderne Bildverarbeitungsprogramme bernehmen dieSynchronisation der Blitzauslsung und Bildaufnahme.So lassen sich damit u.a. aus der Software heraus kom-fortabel die Blitzdauer, Verzgerungszeit, die Trigger-flanke oder -zustand und die zu belegende Bildspei-cherseite parametrieren.nderungen in der Synchronisation knnen verursacht

    16 Lexikon der industriellen Bildverarbeitung

    B

    Lexikon neutral S.1-32/09.10.03 16.03.2004 10:52 Uhr Seite 16

  • Brennweite

    werden durch: variable/unbekannte Zeitpunkte des Trig-gerimpulses; variable/unbekannte Verzgerungszeiten;variable/unbekannte Blitzzeiten; variable/unbekannteShutterzeiten; Start Bildaufnahme zu frh/zu spt; va-riable/unbekannte Signallaufzeiten in der Maschine

    Blitzverzgerungszeit Zeit, die vom Anliegen eines Trig-gersignals (50% des Endpegels) an einer Blitzbeleuch-tung vergeht, bis die Blitzbeleuchtung 50% ihrer End-helligkeit erreicht hat.

    Blitzwiederholfrequenz Frequenz mit der eine Blitzbe-leuchtung im Dauerbetrieb arbeiten kann. Sie wird be-grenzt durch die Fhigkeit einiger Lichtquellen,schnell nacheinander Blitzen zu knnen: Gasentla-dungslampen brauchen Zeit zur Abkhlung. LED-Blitz-beleuchtungen sind theoretisch bis in den MHz-Bereichblitzfhig. Ein weiteres Hindernis, das die Blitzwieder-holfrequenz begrenzt, ist die schnelle Bereitstellungkurzzeitig groer Energiemengen, wie sie fr Blitzbe-leuchtungen typisch sind. Stroboskope realisieren einegroe Blitzwiederholfrequenz.

    Blitzzeit Zeitdauer der Lichtaussendung einer Blitzbe-leuchtung, whrenddessen die Helligkeit >90% desMaximalwertes ist. MitGasentladungslampen lassensich Blitzzeiten

  • Bus

    Gesichtsfeld fest und ist verbunden mit den Ge-sichtsfeldwinkeln: eine kurze Brennweite (Weitwinkel-objektiv) verursacht bei festem Arbeitsabstand groeGesichtsfeldwinkel und kleine Details, eine lange Brenn-weite (Teleobjektiv) verursacht kleine Gesichtsfeldwin-kel und groe Objektdetails. Brennweitenangaben wer-den nur fr fokale Systeme (Systeme mit Brennpunkt)gemacht. Die typische Brennweitenstufung in der Bild-verarbeitung ist: 3.5, 4.5, 6, 8, 10, 12, 16, 25, 35, 50, 75,100 mm. Diese Folge ermglicht die Austauschbarkeit.Wird eine Kamera mit nchstkleinerer Bildaufnehmer-gre gewhlt, bleibt bei gleichzeitiger Auswahl dernchstkrzeren Brennweite der Arbeitsabstand, dieGre des Gesichtsfeldes und damit der Gesichtsfeld-winkel gleich. Brennweiten sind in der Objektivbezeich-nung codiert: z.B. Tevidon 2/10 (10 mm Brennweite); Fu-jinon 1:1,4/50 (50 mm Brennweite). Die Beziehungen zuAbbildungsmastab und Arbeitsabstand WD/Ob-jektabstand a sind nherungsweise: f = a /(1- ) mit(a > 0, a WD, < 0)

    Bus, oder Bussystem tauscht als Sammelleitung Daten undSteuerinformationen zwischen Komponenten gem ei-nem vereinbarten Protokoll aus. Es gibt serielle undparallele Busse. Serielle Busse bertragen bitserielle In-formationen ber groe Entfernungen, z.B. ber Zwei-drahtleitung, Koaxialleitung oder Lichtwellenleiter.Tpische Vertreter sind CAN-Bus, Ethernet,Profibus,Interbus. Parallele Busse nutzen mehrere parallele Lei-tungen, auf denen bitparallel ber kurze Enfernungenbertragen wird. Beispiele sind der VME-Bus und derPCI-Bus (Peripherical Component Interface). Die in-nerhalb von Bildverarbeitungssystemen genutzen Bus-systeme bentigen fr die Informationsbertragung im-mer grere Bandbreiten, weswegen vorzungsweiseparallele Bussysteme genutzt werden. An der Schnitt-stelle zum industriellen Prozess kommen meist serielleBusse zum Einsatz.

    C

    C Betriebssystemunabhngige Programmiersprache. Durchdie maschinennahe Programmierung und Effektivittder Routinen ist C die bevorzugte Sprache der Entwick-ler von Bildverarbeitungssoftwarepaketen. Weiterent-wicklung ist C++ sowie Visual C.

    CiA CAN in Automation. Hersteller- und Informationsverei-nigung fr den CAN-Bus. www.can-cia.de

    CDI, Cloudy-Day-Illuminator Schattenfreie BeleuchtungC-Mount Standardgewindeanschluss fr Matrix-Kame-

    ras in der Machine Vision. Gewinde 1-32 UN2A 1"

    Auendurchmesser mit 32 Gngen auf 1", Auflagen-ma: 17,526 mm. C-Mount-Objektive knnen mit 5mm-Zwischenring an CS-Mount-Kameras verwendetwerden.

    C-Signal Chrominaz-Signal. VideosignalCamera Link Kabelspezifikation fr ein Kommunikations-

    interface fr Bildverarbeitungsapplikationen. Speziellfr die Bildbertragung zwischen Kamera und Frame-grabber ausgelegt. Nutzt Niedervolt-Differenzsignalezur strsicheren Signalbertragung. Theoretisch auf 2,3Gbit/s verlustlose bertragung begrenzt (Spezifikatio-nen: Camera Link basic configuration: ca. 192 Mbyte/s,Camera Link full configuration: ca. 512 Mbyte/s). Zurbertragung von Video-, Steuer-, Kommunikationsdaten(serielle Datenbertragung). MDR-26 pin Steckverbin-der. Camera Link wurde im Jahr 2000 spezifiziert.

    CAN-Bus Controller Area Network. Serielles Bussystem, ur-sprnglich fr die Automobilindustrie entwickelt. Spezifi-ziert in ISO 11898. Arbeitet ber verdrillte Zweidrahtlei-tung vorwiegend mit Entfernungen < 40 m. Begrenzt auf1 Mbit/s Datenbertragungsrate. Praktisch bis zu 64 Bus-teilnehmer. Echtzeitfhig und zuverlssig durch umfang-reiche Fehlererkennungsmanahmen. www.can-cia.de

    Candela Abkrzung cd. SI-Einheit der Lichtstrke. Definiertdurch die Lichtstrke einer Lichtquelle, die eine mono-chromatische Strahlung mit einer Frequenz von 540 THzausstrahlt und deren Strahlstrke 1/683 W sr-1 betrgt.Eine Punktquelle von 1 Candela strahlt 1 Lumen in einenRaumwinkel von 1 Steradiant ab.

    CCD Charge Coupled DeviceCCD-Iris Ein spezieller Betriebsmodus des Shutters einer

    CCD-Kamera. Die Shutterzeit wird vom CCD mitder Zielgabe geregelt, das Niveau des Videosignalsmglichst konstant zu halten, auch bei Beleuchtungsn-derungen und trotz einer konstanten Blendeneinstel-lung.Wird vorrangig fr die Anwendung in der Sicherheits-technik genutzt. Fr eine Reihe von industriellen Appli-kationen fhrt die selbstttige nderung der Shutterzeitzu Problemen mit der Bewegungsunschrfe, beson-ders dann, wenn bewegte Prfobjekte untersuchtwerden mssen. Auch fhrt die variable Shutterzeit zuunterschiedlichen Rauschanteilen im Bild.

    CCD-Kamera Kamera, die einen CCD als Bildaufneh-mer nutzt. Einteilung in Zeilenkameras, Matrixka-meras. Ausfhrung in Schwarz/wei und als Farbka-mera. Das verwendete CCD erzeugt ein analoges Vi-deosignal. Je nach Weiterverarbeitung des Videosignalsin der CCD-Kamera gibt es Analogkameras und Di-gitalkameras. CCD-Kameras nach dem Stand der Tech-nik haben Vollbild-Sensoren und arbeiten mit Pro-gressiv Scan. CCD-Kameras sind die in der Bildverarbei-

    18 Lexikon der industriellen Bildverarbeitung

    B

    C

    Lexikon neutral S.1-32/09.10.03 16.03.2004 10:52 Uhr Seite 18

  • CMOS-Sensor

    tung am weitesten verbreiteten Kameras und sind tech-nologisch sehr weit ausgereift. (s. auch Pixelzahl, Sen-sorgre)

    CCD-Rauschen Unerwnschtes Signal am Ausgang desCCDs, das dem Viedeosignal berlagert ist. Entstehtdurch Dunkelstrom, sowie durch Rauschanteile dersteuernden und signalverarbeitenden Elektronik im In-neren des CCD-Chips.

    CCFL Cold Cathode Fluorescent LampCCIR Comit Consultatif International des Radiocommuni-

    cations. Internationaler Ausschuss fr den Funkdienst.CCIR steht in Zusammenhang mit CCD-Kameras frdie europische Video-Norm von Schwarz/wei-Bildernmit einer Bildfrequenz von 50 Halbbildern pro Sekun-de und 625 Zeilen.

    CCTV-Objektiv, Closed-circuit-television-Objektiv. Be-zeichnung fr Objektive, die fr Beobachtungszwecke(Sicherheitstechnik) entwickelt wurden. Hufig, trotz ih-rer Nachteile (mangelnde Abbildungsgte, fehlendeIndustrietauglichkeit) auch in der Bildverarbeitung ge-nutzt.

    CDS Correlated Double SamplingCg-/Cgk-Wert Cgm, Capability; gauge measurement. Fhig-

    keitsindex fr die Wiederholgenauigkeit eines Prfmit-tels (Messgertestreuung mit einem Normal als Prf-objekt).Die Prfmittelfhigkeit ist gegeben, wenn Cgm > = 1,33ist. Cgm = 0,2 T/6 s mit s = Standardabweichung,T = Toleranzbereich.Cgmk, Capability; gauge measurement koefficient. Fhig-keitsindex fr die Genauigkeit eines Prfmittels (Mess-gertestreuung mit einem Normal als Prfobjekt). Die-ser Index enthlt systematische und zufllige Anteile(Fehler) der Messwertabweichung. Die Fhigkeit ist ge-geben, wenn Cgmk > = 1,33 ist. Cgmk = (Xnormal + 0,1 T) - Xq ges/3 s oder Cgmk = Xq ges - (Xnormal - 0,1 T)/3 s mit s = Standardabweichung, T = Toleranzbereich,Xnormal = Istwert des Normals, Xq ges = Mittelwert al-ler Messwerte. Cg-, Cgk-Werte werden auch angewendetzur Qualifizierung von Prfmitteln mit Bildverarbeitung.

    Charge Coupled Device, CCD. Integrierter Schaltkreis, derLichtinformation (Photonen) in Ladungen umwandelt.In eindimensionaler (CCD-Zeile) oder zweidimensiona-ler (CCD-Matrix) Form (Zeilen und Spalten) werden La-dungen in Pixeln (lichtempfindlicher Kondensator)gesammelt. Wo viel Licht einfllt, entstehen viele La-dungen, wo wenig Licht einfllt, wenige. So entsteht einortsdiskretes Ladungsbild, das in seiner Intensitt berdie optische Abbildung der Helligkeitsverteilung aufdem lichtgebenden Objekt entspricht. Um die Ladungs-pakete, die sich in den Pixeln gesammelt haben, auszu-lesen, werden die Ladungen mit Hilfe getaktet angeleg-

    ter elektrischer Felder vertikal und horizontal sukzessivedurch den ganzen Bildaufnehmer (durch vertikale undhorzontale Shiftregister) verschoben. Fr das Verschie-ben der Ladungen gibt es verschiedene Prinzipien (In-terline-Transfer-Sensor, Frame-Transfer-Sensor). AmEnde der Ladungsverschiebung entsteht ein seriellesanaloges Videosignal. Nach diesem Prinzip funktio-nieren die meisten heute gebruchlichen (CCD-)Kame-ras fr die industrielle Bildverarbeitung. Die einzelnenCCD-Pixel sind nur hellempfindlich (spektrale Emp-findlichkeit). Farbfhigkeit kann nur durch den Einsatzvon Lichtfiltern (Farbsensor) oder spektrale Strahl-teiler erreicht werden.Vorteile der CCD-Technik: ist empfindlicher als CMOS;Pixel wirken integrierend (sammeln Helligkeit); Kurz-zeitbelichtung sehr effektiv mglich; billig, genau, undsehr przise (Maverkrperung); hoher Fllaktor.Grenzen der CCD-Technologie: Serieller Datenzugriff.Um an die Bildinformation eines Pixels zu kommen,muss der gesamte Bildaufnehmer ausgelesen werden.(Auslesezeit!); geringer Dynamikumfang; Auftretenvon Blooming; Auftreten von Smear (besonders beiFrame-transfer-Sensoren). (s. auch Pixelzahl, Pixelgre,Progressive Scan, CMOS-Sensor)

    Checksumme Prfsummechromatische Aberration FarbfehlerChrominanz-Signal VideosignalCIE Commission Internationale dclairageClipping Abschneiden von Objekten an den Rndern des

    Prffensters. So entstehen z.B. offene Konturen.Closing Morphologische Operation, bei der nacheinan-

    der Dilatation und Erosion durchgefhrt wird. DieZahl der Erosionsschritte muss genauso gro sein wiedie der Dilatationsschritte. Durch Closing wachsen engbeieinanderliegende helle Objekte zusammen, Lcherwerden geschlossen und konkave Strukturen am Randvon Objekten geschlossen.

    Cloudy day-Beleuchtung Schattenfreie BeleuchtungCMOS-Sensor Complementary Metal Oxide Semincon-

    ductor-Sensor. Integrierter Schaltkreis, der Lichtinforma-tion (Photonen) in Ladungen umwandelt. In allgemeinzweidimensionaler Form (Matrix von Fotodioden oder -transistoren) werden Ladungen in Pixeln gesammelt.Wo viel Licht einfllt entstehen viele Ladungen, wo we-nig Licht einfllt, wenige. So entsteht ein ortsdiskretesLadungsbild, das in seiner Intensitt ber die optischeAbbildung der Helligkeitsverteilung auf dem lichtgeben-den Objekt entspricht. Die Information, die das La-dungsbild erzeugt, wird ber sukzessive Adressierungder Spalten- und Zeilenadresse der Pixel ausgelesen.Auch einzelne Pixel knnen zu jeder Zeit und sehrschnell nacheinander ausgelesen werden. Damit ist ein

    19Lexikon der industriellen Bildverarbeitung

    C

    Lexikon neutral S.1-32/09.10.03 16.03.2004 10:52 Uhr Seite 19

  • CMYK

    CMOS-Sensor wie ein digitaler Speicherschaltkreis an-sprechbar. Da die Adressierungslogik fr jedes Pixelmindestens zwei Transistoren bentigt, geht Flche frden lichtempfindlichen Teil des Sensors verloren, wassich in dem geringer Fllfaktor als bei CCD-Sensorenniederschlgt und zu einer geringeren Lichtempfindlich-keit fhrt. Auch ist die Pixel-Response-Non-Uniformitydurch Streuung der Bauelementedaten der groen not-wendigen Anzahl an Ansteuerbauelementen wesentlichschlechter als bei CCDs. Bei CMOS-Sensoren ist prin-zipbedingt kein Blooming mglich, der Dynamikbe-reich betrgt typisch 120dB bei einer logarithmischenEmpfindlichkeitskennlinie. Durch die verwendete Tech-nologie erfolgt die Analog-Digital-Umsetzung der Pi-xelhelligkeitssignale sofort auf dem Chip (pixelidenti-scher Bildeinzug), weshalb CMOS-Sensoren i.A. di-gitale Videosignale liefern. Auch Bildvorverarbeitungauf dem CMOS-Chip ist mglich. Nahezu beliebige geo-metrische Formen der Pixelanordnung knnen erreichtwerden. Im Gegensatz zu CCDs wirkt ein CMOS-Sensornicht integrierend, er liefert Augenblickswerte der Hel-ligkeit auf den Bildaufnehmern.Weitere CMOS-Vorteile: Dynamikumfang bis 150 db(CCD typ. 50 dB) ist mglich; direkte Adressierung derPixel (Bildausschnitte sehr schnell lesbar); hohe Bildra-ten (1,3 Mpixel-Vollbil