Objekterkennung in QuickBird Daten mit „eCognition“

85
Objekterkennung in QuickBird Daten mit „eCognition“: Szene Zürich, Anwendung auf Ausschnitte des Flughafens Zürich und des Flugplatzes Dübendorf Diplomarbeit von Christian Binzegger durchgeführt am Geographischen Institut der Universität Zürich unter der Leitung von Prof. Dr. K. I. Itten betreut von Dr. T. Kellenberger Zürich 2003

Transcript of Objekterkennung in QuickBird Daten mit „eCognition“

Page 1: Objekterkennung in QuickBird Daten mit „eCognition“

Objekterkennung in QuickBird Daten mit „eCognition“:

Szene Zürich, Anwendung auf Ausschnitte des Flughafens

Zürich und des Flugplatzes Dübendorf

Diplomarbeit von

Christian Binzegger

durchgeführt am Geographischen Institut der Universität Zürich unter der Leitung von Prof. Dr. K. I. Itten

betreut von Dr. T. Kellenberger

Zürich 2003

Page 2: Objekterkennung in QuickBird Daten mit „eCognition“

Dank An dieser Stelle möchte ich allen Personen und Instituten danken, die in irgend einer Art zum Gelingen dieser Diplomarbeit beigetragen haben. Prof. Dr. K. I. Itten für die Ermöglichung dieser Diplomarbeit und für das Durchlesen des Manuskriptes. Dr. Tobias Kellenberger für die Hilfestellung bei der Themenwahl meiner Diplomarbeit, die Bereitstellung der Daten, die hervorragende und unkomplizierte Betreuung, sowie für das Durchlesen des Manuskriptes. Gregor Willhauck vom Support Team von Definiens für die Hilfestellung bei der Lösung von programmbezogenen Problemen. Meinem Arbeitgeber Belair-Airlines für die Ermöglichung des Studiums dank Teilzeitanstellung und flexibler Einsatzplanung. Postholder Flightoperation CMD Stephan Maurer, Postholder Training CMD Alex Dysli, sowie allen Commandern von Belair-Airlines für ihr entgegengebrachtes Vertrauen. Meinen Staffelkommandanten Maj Urs Fiechter und Maj Daniel Knecht für die jahrelange Unterstützung und die flexible Dienstplanung während dem Studium, sowie allen Staffelkameraden für die aufmunternden Worte und Unterstützung. Meinem Mitstudenten Nico Lehmann für die unterhaltsamen Stunden im Büro welche ein ausgezeichnetes Arbeitsklima entstehen liessen, sowie für seine fachliche Unterstützung. Meinen Freunden und Mitbewohnern Stefan Gehrig und Fabio Weibel für viele humorvolle Stunden und dafür, dass sie mich immer wieder auf den Boden zurückholen. Meiner Familie für das Interesse an meiner Arbeit und die Unterstützung in allen Lebenslagen. Zürich im Dezember 2003 Christian Binzegger

Page 3: Objekterkennung in QuickBird Daten mit „eCognition“

Inhalt

Inhalt Abbildungsverzeichnis...................................................................... v Tabellenverzeichnis......................................................................... ix 1 Einführung 1

1.1 Vorwort ..............................................................................................1 1.2 Problemstellung.................................................................................1 1.3 Zielsetzung........................................................................................2 1.4 Aufbau der Arbeit ..............................................................................3

2 Grundlagen 5

2.1 Bilddaten ...........................................................................................5 2.1.1 Der Satellit QuickBird............................................................5 2.1.2 Spezifikationen von QuickBird ..............................................8

2.2 Vorgehen mit „eCognition“ ..............................................................10 2.2.1 Der Regionen-basierte Ansatz............................................10 2.2.2 Importieren der QuickBird Daten in ein eCognition Projekt.11 2.2.3 Die „multiresolution segmentation“ .....................................13 2.2.4 Durchführung einer Segmentierung mit eCognition............14 2.2.5 Die „classification-based segmentation“ .............................15 2.2.6 Information über die Bildsegmente .....................................15

2.2.6.1 „Image object information“....................................16 2.2.6.2 „Feature view“ ......................................................17 2.2.6.3 „2D feature space plot“.........................................17 2.2.6.4 “Sample editor”.....................................................18

2.2.7 Klassifikation mit eCognition...............................................19 2.2.7.1 „Membership function“ .........................................20 2.2.7.2 Die „nearest neighbor“ Methode...........................20 2.2.7.3 Klassifikationsmerkmale.......................................21

2.3 Versuchsbeispiele Segmentierung ..................................................22 2.3.1 Scale parameter .................................................................22 2.3.2 Layer weight .......................................................................24 2.3.3 Zusammensetzung des “Homogenitäts-Kriteriums”............25 2.3.4 Potential und Probleme multiskaliger Segmentierungsmethoden in der Fernerkundung .........................28

3 Objekterkennung in eCognition Projekten 29

3.1 Szene „Dübendorf“, Halle 7/8 ..........................................................29 3.1.1 Bildausschnitt .....................................................................29

i

Page 4: Objekterkennung in QuickBird Daten mit „eCognition“

Inhalt

3.1.2 Durchführung der Segmentierung.......................................29 3.1.3 Durchführung der Klassifikation..........................................30 3.1.4 Diskussion der Ergebnisse .................................................33

3.2 Szene „Dübendorf“, Halle 3 und Querpiste .....................................34 3.2.1 Bildausschnitt .....................................................................34 3.2.2 Durchführung der Segmentierung.......................................35 3.2.3 Durchführung der Klassifikation..........................................35

3.2.3.1 Beispiel „Falcon 50“ .............................................35 3.3 Szene „Flughafen Zürich“................................................................37

3.3.1 Bildausschnitt .....................................................................37 3.3.2 Der Ansatz..........................................................................39 3.3.3 Durchführung der Segmentierung.......................................39 3.3.4 Durchführung der ersten Klassifikation ...............................40 3.3.5 Durchführung der „classification-based segmentation“.......45 3.3.6 Durchführung der Klassifikation einzelner Flugzeugtypen ..47 3.3.7 Resultat der Klassifikation ..................................................49 3.3.8 Diskussion der Ergebnisse .................................................49

3.4 Objekterkennung in weiteren Szenen..............................................51 3.4.1 Szene „Tucson“, Arizona ....................................................51

3.4.1.1 Bildausschnitt .......................................................51 3.4.1.2 Der Ansatz ...........................................................52 3.4.1.3 Durchführung der Segmentierung ........................52 3.4.1.4 Durchführung der ersten Klassifikation ................52 3.4.1.5 Durchführung der „classification-based segmentation“ .....................................................................54 3.4.1.6 Durchführung der Klassifikation einzelner Flugzeugtypen ....................................................................55 3.4.1.7 Resultat der Klassifikation ....................................55 3.4.1.8 Diskussion der Ergebnisse...................................55

3.4.2 Szene „Vancouver Airport“, Kanada ...................................58 3.4.2.1 Bildausschnitt .......................................................58 3.4.2.2 Der Ansatz ...........................................................60 3.4.2.3 Durchführung der Segmentierung ........................60 3.4.2.4 Diskussion der Ergebnisse...................................60

3.4.3 Szene „Lingshui“, China .....................................................63 3.4.3.1 Bildausschnitt .......................................................63 3.4.3.2 Der Ansatz ...........................................................64 3.4.3.3 Durchführung der Segmentierung ........................64 3.4.3.4 Resultat der Klassifikation ....................................65 3.4.3.5 Diskussion der Ergebnisse...................................66

4 Schlussfolgerungen und Ausblick 67

4.1 Der objektorientierte Ansatz von eCognition ...................................67

ii

Page 5: Objekterkennung in QuickBird Daten mit „eCognition“

Inhalt

4.2 Grösse der Szene und Anzahl gesuchter Objekte...........................67 4.3 Ausblick...........................................................................................68

5 Literaturverzeichnis 70

iii

Page 6: Objekterkennung in QuickBird Daten mit „eCognition“

Inhalt

iv

Page 7: Objekterkennung in QuickBird Daten mit „eCognition“

Abbildungsverzeichnis

Abbildungsverzeichnis 2.1 Der QuickBird Satellit (DigitalGlobe, 2003)................................................5 2.2 Polnahe, kreisförmige Umlaufbahn mit eingezeichneter Bodenspur

(Canada Centre of Remote Sensing, 2003)...............................................7 2.3 Pushbroom Scanner (Canada Centre of Remote Sensing, 2003) .............8 2.4 Fenster zur „image object information“ .................................................... 16 2.5 Dialogfenster für die Informationen der einzelnen „features”: „feature view“ ........................................................................................................ 17 2.6 Darstellung des „2D feature space plot“ .................................................. 17 2.7 Der „sample editor“ erlaubt den Wertevergleich zweier Klassen ............. 18 2.8 Beispiel einer „class hierarchy“................................................................ 19 2.9 Dialogbox zur Festlegung der „membership function“ ............................. 20 2.10 Ausschnitt aus der Szene ZRH, Terminal B, RGB-Darstellung, PAN- Kanal zur optischen Schärfung hinterlegt ................................................ 22 2.11 Segmentierung mit „scale parameter“ 100 (links) und 250 (rechts) ......... 23 2.12 Segmentierung mit „scale parameter“ 500 (links) und 1000 (rechts) ....... 23 2.13 Eingabemaske für die Gewichtung der einzelnen Kanäle (0 bis 1) und

Festlegung des „output levels“................................................................. 24 2.14 Nur Kanal 1 segmentiert (links) und nur Kanal 2 segmentiert (rechts) .... 24 2.15 Nur Kanal 3 segmentiert (links) und nur der PAN-Kanal segmentiert (rechts) .................................................................................................... 24 2.16 Nur Kanal 1 segmentiert .......................................................................... 25 2.17 Nur PAN-Kanal segmentiert .................................................................... 25 2.18 Eingabemaske für die Gewichtung des „Homogenitäts-Kriteriums“......... 25 2.19 Segmentierung unter Verwendung aller Kanäle, 100% color (links) und

Segmentierung unter Verwendung des PAN-Kanals, 100% color (rechts) .................................................................................................... 26

2.20 Segmentierung unter Verwendung aller Kanäle, 90% shape 10% color (links) und Segmentierung unter Verwendung des PAN-Kanals, 80%

shape 20% color (rechts)......................................................................... 26 2.21 Segmentierung unter Verwendung aller Kanäle, 50% color, 50% shape

mit 10% smoothness und 90% compactness (links) und aller Kanäle, 50% color, 50% shape mit 90% smoothness und 10% compactness (rechts) .................................................................................................... 26

v

Page 8: Objekterkennung in QuickBird Daten mit „eCognition“

Abbildungsverzeichnis

2.22 Segmentierung unter Verwendung aller Kanäle, 10% color, 90% shape mit 90% smoothness und 10% compactness (links) und aller Kanäle,

10% color, 90% shape mit 10% smoothness und 90% compactness (rechts) .................................................................................................... 27

2.23 Segmentierung unter Verwendung aller Kanäle, 20% color, 80% shape mit 90% smoothness und 10% compactness, scale parameter 800 ....... 27

3.1 Ausschnitt aus der verwendeten Szene Dübendorf F 5........................... 29 3.2 Segmente der F 5 im Level 5 .................................................................. 31 3.3 Segmente der Ju 52 im Level 4 (links) und Klassierung (rechts)............. 31 3.4 Klassifikation der F 5 (links) und Ju 52 (Mitte) mit der dazugehörigen

Legende (rechts) ..................................................................................... 32 3.5 Verfeinerte Klassifikation der Ju 52 (links) und Zusammenfassung als

ganzes Objekt (Mitte) mit der dazugehörigen Legende (rechts).............. 33 3.6 Originalbild PAN (links) und Kanal 1 bis 4 (rechts) .................................. 33 3.7 Segmentgrösse bei „scale parameter“ 700 (Level 5, links) und

Segmentgrösse bei „scale parameter“ 50 (Level 1, rechts) ..................... 34 3.8 Ausschnitt aus der verwendeten Szene Dübendorf MR .......................... 34 3.9 Falcon 50 (Luftwaffe, 2003)..................................................................... 35 3.10 Bildausschnitt des PAN Kanals im Original (links), und grobe Klas- sierung im Level 5 (rechts) ...................................................................... 36 3.11 Ergänzung der groben Klassierung des Level 5 im Level 1 durch neue

Klassen (links) und Klassierung des umliegenden Schlagschattens (L1 falcon shadow) mit der dazugehörigen Legende (rechts)........................ 36

3.12 Zusammenfassung aller „falconspezifischen“ Klassen zur Klasse „L1 falcon“ mit dem dazugehörenden Schatten „L1 falcon shadow“.............. 36 3.13 Ausschnitt aus der verwendeten Szene Zürich Flughafen....................... 37 3.14 Ausschnitt aus der Bodenkarte des Flughafens Zürich mit eingezeich- neter Dimension des untersuchten Szenenausschnittes ......................... 38 3.15 Spekulare Reflektion im PAN Kanal (links) und im multispektralen Bereich (rechts) ....................................................................................... 38 3.16 Klassierung im höchsten Level. Sämtliche Flugzeugregionen erschei- nen pink................................................................................................... 41 3.17 Mit Hilfe der „classification based segmentation“ erstellter Level (6) mit

den Flugzeugregionen als zusammengefasste Segmente ...................... 41 3.18 Visualisierung der Wahrscheinlichkeit des Vorhandenseins eines

Flugzeuges auf Grund von „class related features“. Schwarze Seg- mente stellen Räume mit geringer Wahrscheinlichkeit dar, je heller, desto grösser ist die Wahrscheinlichkeit.................................................. 43 3.19 Feinere Klassierung eines Airbus im Level 2 mit der dazugehörigen

Legende .................................................................................................. 43

vi

Page 9: Objekterkennung in QuickBird Daten mit „eCognition“

Abbildungsverzeichnis

3.20 Klassierung im Level 2 mit Hilfe vertikaler Beziehungen ......................... 44 3.21 Erweiterte Klassierung mit neuer Klasse „L2 flaps/stabilizer“, welche mit Hilfe spektraler Parameter und horizontalen Beziehungen im glei- chen Level (2) erzeugt wurde, mit der dazugehörigen Legende.............. 44 3.22 Vergleich zwischen der ursprünglichen „aircraft region“ im Level 6 (blaue Linie) mit der verbesserten Form im Level 1 (orange) .................. 45 3.23 Nach der „classification-based segmentation“ entstandene Segmente (rot).......................................................................................................... 46 3.24 Segmentbildung bei den kleineren Flugzeugen des nördlichen Vorfelds.

Embraer 145 befinden sich ganz links, in der Mitte und rechts (3 Flug- zeuge)...................................................................................................... 46

3.25 Segmentbildung bei den Boeing 737 des südlichen Terminals (B38/B39) ................................................................................................ 47 3.26 Darstellung eines Embraer 145 (links) und eines Saab 2000 (rechts)..... 48 3.27 Darstellung aller verschiedenen Klassen................................................. 49 3.28 Bildausschnitt aus der verwendeten Szene Tucson, AZ.......................... 51 3.29 Darstellung der „aircraft region“ (rot) im Level 5 ...................................... 53 3.30 Darstellung der ersten Klassifikation mit der dazugehörigen Legende .... 54 3.31 Darstellung Klasse „L1 dark aircraft“ (dunkelblau) und „L1 bright aircraft“ (hellblau) im Level 1 ................................................................... 54 3.32 Ausschnitt aus der klassierten Tucson Szene mit der dazugehörigen

Legende .................................................................................................. 55 3.33 Das zweite Flugzeug von rechts wurde nicht erkannt, die Klassierung

muss anschliessend manuell durchgeführt werden ................................. 56 3.34 Vergleich gut erfasster Objekte (links) mit schwierigen Klassierungen bei dunklen Objekten (rechts).................................................................. 56 3.35 Verbesserung der Segmente mit Hilfe der manuellen Fusion einzelner

unklassierter Segmente zu einem objektumfassenden Segment (Mitte) und der Anpassung und Neugestaltung einzelner Segmente mittels

„manual object cut“ (rechts)..................................................................... 58 3.36 Gesamtübersicht der Szene Vancouver Airport, Kanada (mit rot markiertem Bildausschnitt) ...................................................................... 58 3.37 Bildausschnitt der Szene Vancouver Airport, Bereich „main terminal,

apron 6 .................................................................................................... 59 3.38 Segmentbildung in der Szene Vancouver Airport mit rot eingezeich- neten problematischen Zonen bezüglich Schlagschatten und Seg- mentierung............................................................................................... 61 3.39 Beispiel einer extremen off-Nadir-Aufnahme von San Francisco mit einem off-Nadir-Winkel von 42° [Eurimage, 2003] .................................. 62 3.40 Bildausschnitt aus der verwendeten Szene Lingshui, China ................... 63

vii

Page 10: Objekterkennung in QuickBird Daten mit „eCognition“

Abbildungsverzeichnis

3.41 Detailansicht aus der Szene Lingshui, China, Ausschnitt ca. 50m x 60m......................................................................................... 64 3.42 Die drei Bildausschnitte sollen aufzeigen, wie unterschiedlich die

verschiedenen Objekte in Erscheinung treten ......................................... 65 3.43 Beim linken Beispiel konnten die Objekte bei der Segmentierung er- fasst werden, das rechte Beispiel zeigt die Grenzen der Objekterfass- sung durch die Segmentierung deutlich auf............................................. 65

viii

Page 11: Objekterkennung in QuickBird Daten mit „eCognition“

Tabellenverzeichnis

Tabellenverzeichnis 2.1 Einteilung von einigen heute verfügbaren optischen Fernerkundungssys- temen anhand ihrer geometrischen Auflösung sowie erreichbarer

Massstabsbereich (nach [de Kok, R., 2001] mit eigenen Ergänzungen)...6 2.2 Repetitionsrate des QuickBird Satelliten in Abhängigkeit der

geographischen Breite bis maximal 25° off-nadir [DigitalGlobe, 2002]......7 2.3 Zusammenstellung der QuickBird Kanäle Kanäle der verwendeten Szene Zürich .............................................................................................9

2.4 Technische Einzelheiten zum QuickBird Satelliten [Eurimage, 2003] .......9 2.5 Eckkoordinaten der verwendeten Szenenausschnitte ............................. 12 3.1 Parameter für die Segmentierung der Szene Dübendorf F 5 .................. 30 3.2 Parameter für die Segmentierung der Szene Dübendorf MR .................. 35 3.3 Parameter für die Segmentierung der Szene Zürich Flughafen .............. 39 3.4 Parameter für die Klassierung im Level 5 der Szene Zürich Flughafen... 40 3.5 Parameter für die Klassierung der Szene Zürich Flughafen .................... 48 3.6 Parameter für die Segmentierung der Szene Tucson, Arizona ............... 52 3.7 Parameter für die Segmentierung der Szene Vancouver Airport, Kanada .................................................................................................... 60 3.8 Parameter für die Segmentierung der Szene Lingshui, China................. 64

ix

Page 12: Objekterkennung in QuickBird Daten mit „eCognition“

Tabellenverzeichnis

x

Page 13: Objekterkennung in QuickBird Daten mit „eCognition“

1. Einführung

1 Einführung

1.1 Vorwort Die Fernerkundung bildet schon seit dem Beginn des Studiums den Schwerpunkt meines Interesses innerhalb der verschiedenen Teildisziplinen der Geographie. Die Verbundenheit mit der dritten Dimension und den sich damit ergebenden Möglichkeiten, aus Distanz Sachverhalte zu erfassen und daraus entsprechende Schlüsse zu ziehen, faszinieren mich. Auch bin ich von dem Potential dieser Methoden mit zunehmendem Fachwissen erstaunt und davon überzeugt, dass die Fernerkundung einen wichtigen Teil zur Lösung von Problemen unterschiedlicher Art und Tragweite beitragen kann. Dass ich mich mit grosser Begeisterung für eine Diplomarbeit in der Abteilung Fernerkundung des Geographischen Instituts der Universität Zürich entschieden habe, ergab sich schlussendlich von selbst. Ausgangspunkt für meine Diplomarbeit war das Mitwirken an einer Projektarbeit („Aufklären und Erkennen mit Satelliten“), welche das RSL für die Gruppe Rüstung (GR) zwischen September 2002 und August 2003 durchführte. Dr. Tobias Kellenberger gab mir die Möglichkeit, an dieser Arbeit teilzunehmen und mir dabei die Eigen- schaften der benutzten Methoden anzueignen. In diesem Projekt sollte die Kombination QuickBird/eCognition genauer untersucht wer- den und das daraus entstehende Potential bezüglich Objekterken- nung abgeklärt werden. Anschliessend wurde die Arbeit auf die objektorientierte Klassifikation mit dem damit verbundenen Ansatz von eCognition ausgeweitet. Dieser Ansatz bietet eine enorme Anzahl Möglichkeiten zur Problemlösung. Bildsegmente können auf Grund verschiedenster (auch benutzerdefinierter) Parameter in unter-schiedliche Klassen eingeteilt werden, wobei durch Segmentierung gebildete „Objektprimitiven“ die Grundlage bilden. Spektralwerte bilden dabei nicht wie bis anhin den Schwerpunkt in der Klassierung, sie spielen vor allem bei der Segmentierung der Szene eine wichtige Rolle. In der anschliessenden Klassierung hingegen können sie durch andere Parameter (beispielsweise Formparameter) ersetzt werden.

1.2 Problemstellung In der Fernerkundung können für die Datenauswertung verschiedene Verfahren eingesetzt werden, mit welchen die bei der Datenaufnahme erfassten Daten bearbeitet werden können. Mit Hilfe dieser Verfahren soll das Informationspotential einer Szene nutzbar gemacht werden. Die Verfahren der Digitalen Bildauswertung benutzen dazu Computerverfahren, welche zum Ziel haben, Bildinhalte durch auto- matische Verfahren festzustellen. [Albertz, J., 2001] schreibt dazu: „Einfache Überlegungen zeigen, dass unser menschliches Sehvermögen gewisse in Bilddaten vorliegende Informationen – z. B. Grauwerte oder Flächengrössen – nur sehr ungenau wahrnehmen kann und dabei sogar vielfach optischen Täuschungen unterliegt. Andererseits ist seine Leistungs-

1

Page 14: Objekterkennung in QuickBird Daten mit „eCognition“

1. Einführung

fähigkeit enorm, wenn es um die Wahrnehmung vom Bildstrukturen, Formen, Texturen usw., um das Erkennen von Objekten oder um die Analyse von Zusammenhängen geht. Beim Computer ist es genau umgekehrt. Er kann mit hoher Präzision Grauwerte analysieren oder Flächen ermitteln, ohne dabei Täuschungen zu unterliegen“. Mit der entsprechenden Software können Bilddaten sehr gut quantitativ analysiert werden, bei der Objekterkennung hingegen kann der Mensch viel schneller ein Bild interpretieren und darin beispielsweise Objekte erkennen. „eCognition“ ist ein Softwarepaket, welches für die Bildauswertung einen objektbasierten Ansatz ver- wendet und bietet - gegenüber dem pixelbasierten Ansatz - neuartige Möglichkeiten in der digitalen Bildauswertung. Die Schwachstellen des konventionellen pixelbasierten Ansatzes, dem die Möglichkeiten fehlen, räumliche Abhängigkeiten zwischen Objekten zu beschreiben, kann mit diesem Ansatz begegnet werden.

1.3 Zielsetzung Mit dieser Arbeit soll herausgefunden werden, was sich mit der Anwendung des objektorientierten Ansatzes von eCognition für Möglichkeiten bezüglich Objekterkennung bieten und wo dies- bezüglich die Grenzen in der Anwendung liegen. Die Methode soll auf drei Ausschnitte einer QuickBird Satelliten-Szene angewendet werden. Diese Bilddaten weisen eine räumliche Auflösung von weniger als einem Meter im panchromatischen (PAN) Bereich auf und haben eine grosse Datendichte. Zusätzlich beinhalten die Daten jeweils vier multispektrale Kanäle mit 2.4 m Auflösung. Die drei bearbeiteten Szenenausschnitte sind von den Flugplätzen Zürich und Dübendorf, genauer vom jeweiligen Vorfeld. Die als Untersuchungs- gegenstände definierten Objekte sind Flugzeuge. Diese Objekte sollten sich eigentlich gut erfassen lassen, da sie sich klar von ihrem Hintergrund abheben und so als ganzheitliche Objekte erscheinen. Im weiteren stellen sie auf Grund unterschiedlicher Spektraleigen- schaften und Grössenverhältnisse einen interessanten Unter- suchungsgegenstand dar, mit welchem die Grenzen dieser Methode erkannt werden sollen. Zusätzlich soll eine Vorgehensweise erarbeitet werden, welche es erlaubt, Interessensobjekte zu erfassen und zu klassieren. Das benutzte Softwarepaket eCognition - und damit der objektorientierte Ansatz - soll dabei auf die Erfassung und Klassierung von Einzel- objekten untersucht und die benutzten Methoden kritisch hinterfragt werden.

2

Page 15: Objekterkennung in QuickBird Daten mit „eCognition“

1. Einführung

1.4 Aufbau der Arbeit Zu Beginn der Arbeit wird das System QuickBird vorgestellt. In diesem Kapitel wird kurz auf die Spezifikationen des Sensors und der Plattform eingegangen und dabei die Aufnahme, Prozessierung und die angebotenen Produkte erläutert und aufgelistet. Anschliessend wird das Untersuchungsgebiet aufgezeigt und beschrieben. Das Softwarepaket eCognition und dessen Spezifikationen und Bezeichnungen werden erklärt und damit die Grundlage für das Verständnis der Vorgehensweise geschaffen. In diesem Kapitel werden auch mittels diverser Versuche die Funktionsweise von eCognition und der zentrale Begriff „multiresolution segementation“ erläutert. Im nächsten Kapitel wird der verwendete Ansatz erklärt und auf die drei beschriebenen Ausschnitte der QuickBird Szene angewendet. Anschliessend werden die Ergebnisse dargestellt und kritisch hinter- fragt. Zusätzlich werden die erarbeiteten Methoden auf drei weitere Szenen (eine QuickBird- und zwei IKONOS-Szenen) angewendet. Damit soll untersucht werden, ob der verwendete Ansatz bei gleicher Problemstellung übertragbar ist. Gleichzeitig wird das verwendete Softwarepaket eCognition auf die Kombination mit unterschiedlichen Quelldaten mit kleinerer Auflösung (räumlich und spektral) überprüft. Im Kapitel „Schlussfolgerungen und Ausblick“ werden die erhaltenen Resultate nochmals kritisch hinterfragt, die Möglichkeiten der Kom- bination hochauflösender Fernerkundungsdaten mit eCognition auf- gezeigt und der objektorientierte Ansatz gewürdigt. Dieses Kapitel beschliesst die Arbeit in zusammenfassenden Worten.

3

Page 16: Objekterkennung in QuickBird Daten mit „eCognition“

1. Einführung

4

Page 17: Objekterkennung in QuickBird Daten mit „eCognition“

2. Grundlagen

2 Grundlagen

2.1 Bilddaten

2.1.1 Der Satellit QuickBird QuickBird ist ein hochauflösender, optischer Erderkundungssatellit und wurde am 18. Oktober 2001 von der Vandenberg Air Force Base (USA, Kalifornien) mit einer Boeing Delta II Rakete auf seine Umlauf- bahn gebracht. Mit ungefähr 0.61 m Bodenauflösung (Nadir) im pan- chromatischen und 2.44 m im multispektralen Bereich ist QuickBird zur Zeit der einzige kommerzielle Satellit mit einer räumlichen Auf- lösung von weniger als einem Meter. Die Bilddaten sind seit 9. April 2002 verfügbar. Der Satellit wurde ursprünglich für eine höhere Umlaufbahn mit einer schlechteren geometrischen Auflösung konzipiert. Im Dezember 2000 erhielt die Betreiberfirma DigitalGlobe die Lizenz von NOAA (National Oceanic and Atmospheric Administration) mit dem Auftrag, einen hochauflösenden Satelliten (ungefähr 0.5 m räumliche Auflösung) kommerziell operieren zu dürfen. Davor lag die maximale räumliche Auflösung kommerzieller Satelliten bei ca. 1 m, Systeme mit höherer räumlicher Auflösung wurden nicht bewilligt. Darauf wurden die Pläne für QuickBird kurzfristig angepasst, die Auflösung konnte unter anderem durch neue Bahnparameter (die Flughöhe wurde von den geplanten 600 km auf 450 km abgesenkt) von den ursprünglich 1 m auf ca. 0.61 m verringert werden (im PAN-Kanal). Die Plattform musste mit mehr Treibstoff versehen werden, die voraussichtliche Einsatzdauer konnte trotzdem auf 7 Jahren belassen werden. Konstruiert wurde QuickBird von Ball Aerospace & Technologies Corp., Kodak, und Fokker Space. Betreiberin ist die US-amerikanische Firma DigitalGlobe mit Sitz in Longmont, Colorado. Eurimage ist der exklusive Vertreiber der Daten für Europa.

Abb. 2.1: Der QuickBird Satellit [DigitalGlobe, 2003]

5

Page 18: Objekterkennung in QuickBird Daten mit „eCognition“

2. Grundlagen

QuickBird umkreist ca. fünfzehn mal täglich die Erde in 450 km Höhe auf einer quasipolaren sonnensynchronen Umlaufbahn. Diese ist gegenüber der Äquatorebene geneigt (97.2°), die Pole werden nicht direkt überflogen. Eine Erdumkreisung dauert 93.5 Minuten. QuickBird überquert den Äquator von Nord nach Süd jeweils um ca. 10:30 Uhr Ortszeit. Der Satellit kann daher alle Gebiete auf gleicher geo- graphischen Breite unter ähnlichen Beleuchtungsverhältnissen auf- nehmen. Dies ermöglicht eine gute Vergleichbarkeit verschiedener Szenen. DigitalGlobe schickte vor QuickBird die Satelliten EarlyBird und QuickBird 1 in den Orbit, beide gingen jedoch verloren. EarlyBird wies kurz nach dem Start (1997) Fehlfunktionen auf und QuickBird 1 wurde bei einem missglückten Raketenstart im November 2000 zer- stört. Der zur Zeit operationelle Satellit erscheint in der Literatur entweder unter “QuickBird” oder aber er wird mit “QuickBird 2“ bezeichnet, da er eigentlich das Nachfolgemodell von QuickBird 1 darstellt. Die neuesten Entwicklungen im Bereich der Sensoren kommerzieller Satelliten lassen erwarten, dass mit hochauflösenden Satellitendaten ein Massstabsbereich erreicht werden kann, welcher die Lücke zwischen Luftbildern und klassischen Satellitendaten zu schliessen vermag. So erscheint mit der Auflösung seit der IKONOS Sensor-Generation im 1 m Bereich ein Kartiermassstab von 1:10’000 für Landnutzungskartierungen oder forstliche Zwecke durchaus erreich- bar. Zur Unterscheidung von den bisher als „hochauflösend“ bezeich- neten Systemen der sogenannten „Landsat Generation“ werden Sensoren, die Auflösungsbereiche unter 5 m erreichen als „sehr hoch auflösend“ oder, aus dem englischen Sprachgebrauch, „very high resolution“ (VHR) bezeichnet (nach [Schneider, T., De Kok, R., Buck, A., Manakos, I., 2000] und [Furlan, S., 2002]). Räumliche Auflösung

Charakteristik Beispiele, Systeme

Erreichbarer Massstabsbereich

500 – 5000 m global Meteosat, NOAA AVHRR, SPOT Vegetation

1 : 1'000’000

50 – 500 m regional Landsat MSS 1 : 500’000 5 – 50 m „high

resolution“ (HR)

Landsat TM und ETM, Spot, IRS, MOMS-2P

1 : 50’000

< 5 m „very high resolution“ (VHR)

IKONOS, Quick-Bird, OrbView3

1 : 10’000

Tab. 2.1: Einteilung von einigen heute verfügbaren optischen Fernerkundungs- systemen anhand ihrer geometrischen Auflösung sowie erreichbarer Massstabs- bereich (nach [de Kok, R., 2001] mit eigenen Ergänzungen) Die verwendete QuickBird Szene beinhaltet eine Fläche von 272 km2 (16.5 km x 16.5 km, Nadir) und besteht aus 27'424 Pixel (Zeile) x

6

Page 19: Objekterkennung in QuickBird Daten mit „eCognition“

2. Grundlagen

27'552 Pixel (Spalte) im PAN-Kanal und 6856 Pixel (Zeile) x 6888 Pixel (Spalte) im multispektralen Bereich.

Abb. 2.2: Polnahe, kreisförmige Umlaufbahn mit eingezeichneter Bodenspur [Canada Centre of Remote Sensing, 2003] Die Bodenspur deckt pro Umgang eine konstante Breite ab („swathwith“). Da beim Äquator die abzubildende Erdoberfläche viel grösser ist als bei den Polen, muss diese öfters überflogen werden um ganzheitlich erfasst zu werden. Darum ist in höheren Breiten die Wiederholungsrate grösser und in Äquatornähe entsprechend kleiner [Abb. 2.2]. Die von DigitalGlobe publizierte breitenabhängige Repeti- tionsrate von QuickBird ist in [Tab. 2.2] dargestellt.

QuickBird revisit time in days Latitude 0° to 15° off-nadir 0° to 25° off-nadir

0° 11 6 10° 11 6 20° 9 5 30° 9 5 40° 8 5 50° 7 4 60° 7 4 70° 5 3 80° 3 2

Tab. 2.2: Repetitionsrate des QuickBird Satelliten in Abhängigkeit der geographischen Breite bis maximal 25° off-nadir [DigitalGlobe, 2002] Mit dem maximalen off-nadir Winkel von 45° beträgt die Repeti- tionsrate 1 bis 3.5 Tage. Die Datenqualität nimmt jedoch auf Grund der geometrischen Verzerrungen [Abb. 3.39] mit zunehmendem off-nadir Winkel ab, was die weitere Verwendung solcher Daten einschränkt [DigitalGlobe, 2002].

7

Page 20: Objekterkennung in QuickBird Daten mit „eCognition“

2. Grundlagen

QuickBird besitzt einen „Pushbroom Scanner“ (linear arrays) als Sensor mit einem panchromatischen und vier multispektralen Kanälen.

A Sensorzeilen (lin-ear array of detec-tors)

B Bildebene (focal plane of the image)

C Objektiv (lens system)

D Pixelgrösse (ground resolution cell)

Abb. 2.3: Pushbroom Scanner [Canada Centre of Remote Sensing, 2003] Bei Pushbroom Scannern kommen für die Bildaufnahme CCD’s (Charge Coupled Devices) zur Anwendung. Sie bestehen aus Ketten von Kondensatoren, in welchen durch Belichtung Ladungen erzeugt werden. Diese Ladungen werden zum Ausgang des Chips verscho- ben und ergeben dadurch eine Bildzeile in Form eines Videosignals. Zur Bildaufnahme aus Flugzeugen oder Satelliten aus werden Zeilen von CCD-Sensoren (A) in der Bildebene (B) eines Objektives angeordnet. Damit ist es möglich, alle Pixel (D) einer quer zur Flug-richtung orientierten Bildzeile gleichzeitig zu erfassen. Durch die Eigenbewegung des Sensorträgers wird bei entsprechender Auf- nahmefrequenz ein Geländestreifen zeilenweise abgebildet [Albertz, J., 2001].

2.1.2 Spezifikationen von QuickBird Der Satellit QuickBird kann sowohl in Flugrichtung als auch quer dazu manövriert werden, zusätzlich kann der Sensor bis maximal 45° (off-nadir Winkel) geschwenkt werden. Diese Spezifikationen ermöglichen dem System nicht nur Aufnahmen von der Erdoberfläche, ver- suchsweise sind Aufnahmen von Mars und Mond entstanden. Die Auflösung variiert von 61 cm (Nadir) zu 72 cm (25° off-nadir Winkel) im PAN-Kanal und 2.44 m (Nadir) zu 2.88 m (25° off-nadir Winkel) im multispektralen Bereich.

8

Page 21: Objekterkennung in QuickBird Daten mit „eCognition“

2. Grundlagen

Szene Zürich Spektralbereich Pixelgrösse Farbtiefe Kanal 1 Blue: 450 - 520 nm 0.5 m 16 bit Kanal 2 Green: 520 - 600 nm 0.5 m 16 bit Kanal 3 Red: 630 - 690 nm 0.5 m 16 bit Kanal 4 Near-IR: 760 - 900 nm 0.5 m 16 bit PAN-Kanal 450 - 900 nm 0.5 m 16 bit Tab. 2.3: Zusammenstellung der QuickBird Kanäle der verwendeten Szene Zürich Aus der [Tab. 2.3] wird ersichtlich, dass der PAN-Kanal zusätzlich zum sichtbaren Spektralbereich bis in den Nahinfrarotbereich Daten aufnimmt. Launch October 18, 2001, Vandenberg Air Force Base, Cali-

fornia Vehicle Boeing Delta II Orbit 450 km altitude, 93.5 minute orbit time, 10:30 am

crossing time (descending) Inclination 97.2° sun-synchronus Nominal Swathwith 16.5 km at nadir

Sensor Panchromatic Multi-spectral Resolution Basic: 0.61 meters at

nadir, 0.72 meters at 25° off-nadir Standard and Ortho- rectified resampled to 0.7 meter GSD

Basic: 2.44 meters at nadir, 2.88 meters at 25° off-nadir Standard and Orthorectified resampled to 2.8 meter GSD

Spectral Bandwith 450–900 nanometers Blue: 450–520 nanometers Green: 520–600 nanometers Red: 630–690 nanometers Near IR: 760–900 nanometers

Dynamic Range 11 bits per pixel 11 bits per pixel

Tab. 2.4: Technische Einzelheiten zum QuickBird Satelliten [Eurimage, 2003] Die Bilddaten werden in drei verschiedenen Kategorien angeboten: • Basic Imagery • Standard Imagery • Orthorectified Imagery Basic Imagery sind Daten, welche nur eine Systemkorrektur erfahren haben. Die innere Radiometrie sowie die Sensorgeometrie wurde korrigiert. Die Abbildungsgeometrie wurde nicht korrigiert. Die Raster- weite eines Pixels ist abhängig vom Blickwinkel der jeweiligen Szene [vgl. Tab 2.4]. Alle Zusatzdaten werden als ASCII (*.TXT)-File den jeweiligen Szenen beigelegt.

9

Page 22: Objekterkennung in QuickBird Daten mit „eCognition“

2. Grundlagen

Im Detail werden folgende Korrekturen durchgeführt:

• “relative radiometric response between detectors“ • “non-responsive detector fill” • “conversion for absolute radiometry“

Folgende Sensorkorrekturen werden vorgenommen:

• “internal detector geometry” • “optical distortion” • “scan distortion”

Diese kommen bei „linerate variations” und “misregistration of the mul-tispectral bands” zur Anwendung, nicht aber bei “misregistration of the panchromatic and multispectral bands“. Standard Imagery sind Daten, welche eine Systemkorrektur und eine Geokodierung erfahren haben. Die Daten werden in einer karto- graphischen Projektion geliefert. Folgende Rasterweiten sind möglich; 0.6, 0.7, 2.4 und 2.8 Meter. Als Geländemodell wird das GTOPO30 verwendet. Es wird davon ausgegangen, dass 90% der Daten innerhalb eines Lagefehlers von 23 Metern zu liegen kommen und für eine Szene ein RMS von 14 Metern erreicht wird. Diese Daten können nicht mehr auf der Basis eines Aufnahme- modelles geokodiert werden. Die Daten sind nicht geeignet, wenn eine hohe Lagegenauigkeit gefordert wird. Orthorectified Imagery sind Daten, die eine Systemkorrektur und eine Geokodierung mit Passpunkten, gemäss Kundenwunsch, erfahren haben. Die Daten werden in einer kartographischen Projek- tion geliefert. Folgende Rasterweiten sind möglich; 0.6, 0.7, 2.4 und 2.8 Meter. Je nach Geländemodell und vorhandenen Passpunkten wird eine Lagegenauigkeit mit einem RMS von besser als 8 Metern generiert. Die Qualität des Produktes ist vom Kundenwunsch ab- hängig. (Die Ausführungen in diesem Kapitel beruhen nebst den angegebenen Quellen weitgehend auf den Ausführungen von Eurimage.com und DigitalGlobe.com, sowie Spaceandtech.com und [Kellenberger, T., et al., 2003])

2.2 Vorgehen mit „eCognition“

2.2.1 Der Regionen-basierte Ansatz Mit der Entwicklung und Einführung hochauflösender Satellitendaten konnten Probleme bei der Klassierung - wie beispielsweise dem Klassieren von Mischpixel - stark reduziert werden. Innerhalb einer Klasse nimmt mit der höheren Auflösung jedoch die Variabilität und das Grundrauschen zu, was wiederum eine Klassierung mit klas- sischen Methoden wie z. B. der pixelbasierten „maximum-likelihood“ Methode erschwert, da diese zu viele oder nicht gut definierte Klassen

10

Page 23: Objekterkennung in QuickBird Daten mit „eCognition“

2. Grundlagen

produzieren und ihre „cluster“ allein auf spektralen Homogenitäten basieren [nach Schiewe, J. et al., 2001]. Zur Verbesserung der klassischen Probleme pixelbasierter Ansätze wurden in der Ver- gangenheit Versuche mit Alternativmethoden unternommen („per-field-“ und „per-parcel-Ansatz“), diese konnten jedoch nicht die ge- wünschten Resultate liefern [Hoffmann, A. et al., 2000] worauf der Fo- kus mehr auf Regionen-basierte Ansätze - wie sie in eCognition zur Anwendung kommen - gelenkt wurde. Diese Ansätze beinhalten eine Segmentierung der Bilddaten, die entstandenen Segmente werden anschliessend klassiert wobei neben spektralen Eigenschaften auch andere Parameter wie Textur, Form u. Ä. zur Anwendung kommen können. Dieser Ansatz entspricht in etwa der menschlichen Wahrnehmung. [Forman, R., 1995] beschreibt diese Tatsache mit der folgenden Me- tapher: „If a person gradually descends with a balloon, human percep-tion abruptly starts to discover patterns and mosaics“. [Gorte, B., 1998] fügt hinzu: „Human vision generally tends to generalise images into homogeneous areas first, and then characterises these areas more carefully later“. [Blaschke, T. & Strobl, J., 2001] folgern daraus: „Following this observation, it can be argued that by successfully sub-dividing an image into meaningful objects of the land surface, more in-tuitive features will result”. Natürlich ist es bei diesem Ansatz ein Hauptproblem, “meaningful objects” zu definieren. In der Natur existieren selten klare Grenzen zwischen einzelnen Klassen, gleichzeitig gibt es klar erkennbare, oft aber sehr feine Klassen-unterschiede wie beispielsweise bei Landnutzungsklassierungen. Die Klassengrenzen müssen entsprechend definiert werden und sind massstabsabhängig. Darum wird ein klassiertes Objekt nicht unbe- dingt für alle Auflösungsebenen (siehe: [2.2.4: „Durchführung einer Segmentierung mit eCognition“]: „scale parameter“) die gleiche Klasse repräsentieren [Blaschke, T. & Strobl, J., 2001]. In Folge muss bei je- dem Projekt die optimale Segmentierung der Bilddaten in ver- schiedenen Auflösungsebenen iterativ gefunden werden. Einzelne Klassen können anschliessend in unterschiedlichen Auflösungsstufen spezifisch erfasst und - bei Bedarf - in andere Auflösungsstufen weitervererbt werden.

2.2.2 Importieren der QuickBird Daten in ein eCognition Projekt Ein eCognition Projekt setzt sich normalerweise aus einem hierarchischen Netzwerk verschiedener Bildebenen („object levels“) zusammen. Diese Ebenen können verschiedene Segmentgrössen aufweisen (siehe: [2.2.3: „Die multiresolution segmentation“]) und repräsentieren Bildinformationen unterschiedlicher Auflösungsstufen. Der verwendete Datensatz besteht aus drei Ausschnitten einer Quick- Bird Satelliten-Szene, welche vorgängig in „PCI Geomatics“ geometrisch entzerrt wurde und in einem 16 bit GeoTIFF-Format vor- liegt. Beim verwendeten Zuordnungsverfahren (Verfahren der nächs- ten Nachbarschaft, „nearest neighbor“) wird der Grauwert desjenigen

11

Page 24: Objekterkennung in QuickBird Daten mit „eCognition“

2. Grundlagen

Pixels des ursprünglichen Eingabebildes übernommen, welches dem transformierten Pixel am nächsten liegt [Löffler, E., 1994]. Dies kann - vor allem bei kontrastreichen Bildkanten - zu einer störenden Trep- penstruktur führen. In der verwendeten hochaufgelösten Szene fällt dieses „Ausfransen“ linearer Strukturen jedoch kaum auf und wird sich nur wenig auf die Objekterfassung auswirken. Das genaue Vorgehen der geometrischen Korrektur wird in [Kellenberger, T. et al., 2003, Kapitel: „Geometrische Orthorektifizierung von QuickBird Basic Daten, Gebiet‚ Zürich’ “] detailliert beschrieben. Die Geocodierung stellt einen Spezialfall der Georeferenzierung (An- passung eines Bildes an eine Karte) dar, welche zusätzlich die Ska- lierung zu einer Standardpixelgrösse beinhaltet [Furlan, S., 2002]. eCognition bietet in den neueren Versionen (2.1 und 3) die Mög- lichkeit, verschiedene Daten mit unterschiedlicher Auflösung (z. B. multisensorale Daten) im selben Projekt zu prozessieren. Daten mit niedriger Auflösung werden dabei automatisch auf die kleinste Pixel- grösse des Projekts skaliert, vorausgesetzt die unterschiedlichen Datensätze haben die gleiche geographische Ausdehnung oder sie wurden vorher georeferenziert. Eine vorgängige Skalierung entfällt somit. Im weiteren besteht die Möglichkeit das Projekt einzugrenzen, in dem ein Ausschnitt („subset selection“) definiert wird. In dieser Arbeit wurden als Hauptprojekt folgende Interessensgebiete untersucht:

• Flughafen Zürich (Vorfeld) • Flugplatz Dübendorf (Querpiste und Halle 3: MR) • Flugplatz Dübendorf (Halle 7/8: F 5).

QuickBird Szene Zürich

L&T Koordinaten (W-E) L&T Koordinaten (N-S)

Ausschnitt Flughafen

683980.00E - 684730.00E (1500 Pixel)

256780.00N - 256030.00N (1500 Pixel)

Ausschnitt Dübendorf MR

689920.00E - 690670.00E (1500 Pixel)

251490.00N - 250740.00N (1500 Pixel)

Ausschnitt Dübendorf F 5

689780.00E - 690530.00E (1500 Pixel)

250820.00N - 250070.00N (1500 Pixel)

Tab. 2.5: Eckkoordinaten der verwendeten Szenenausschnitte

Die Multispektral-Kanäle wurden von ihrer ursprünglichen Auflösung von ca. 2.44 m mittels bilinearer Interpolation auf 0.5 m interpoliert. Mit dem gleichen Verfahren wurde der PAN-Kanal von ca. 0.6 m auf eine Pixelgrösse von 0.5 m skaliert. Bei dieser geometrischen Trans- formation wird der gesuchte Grauwert durch lineare Interpolation zwischen den vier direkt benachbarten Grauwerten berechnet. Dieser Vorgang wird allgemein auch als „Resampling“ bezeichnet (nach [Albertz, J., 2001]).

12

Page 25: Objekterkennung in QuickBird Daten mit „eCognition“

2. Grundlagen

Die Daten wurden ursprünglich vom Sensor in 11 bit codiert (2’048 Graustufen), DigitalGlobe liefert diese jedoch im 16 bit GeoTIFF For- mat (65’536 Graustufen) aus. Dies hat den Vorteil, dass es sich bei 16 bit um eine geläufige Datentiefe handelt, was die weitere Verwendung der Daten erleichtert. Die Datenmenge nimmt dabei zu, die radio- metrische Auflösung hingegen bleibt unverändert. Die einzelnen GeoTIFF-files werden als „image layers“ importiert und nach ihrem Spektralbereich sortiert. Darauf müssen jedem einzelnen Layer die Informationen für die Geokodierung und ein entsprechendes Alias hinzugefügt werden (z.B. “K1, blue ZRH“ für den Kanal 1). Erst jetzt kann das neue Projekt mittels „create“ eröffnet werden. Danach können dem Projekt keine Georeferenzdaten mehr hinzugefügt werden, einzelne Layer („image“ und „thematic“) können jedoch zu einem beliebigen Zeitpunkt beigefügt werden.

Die verschiedenen Kanäle können nun in einer dem Benutzer ver- trauten Art visualisiert werden, vorzugsweise in einer RGB-Dar- stellung. Der PAN-Kanal kann dem Farbbild hinterlegt werden und dient so zur optischen Schärfung des Ausschnittes, da der PAN-Kanal schon vor dem Resampling mit einer höheren räumlichen Auflösung (0.6 - 0.7 m) aufgenommen wurde als die Kanäle 1 bis 4 (2.4 - 2.9 m).

2.2.3 Die „multiresolution segmentation“ „Multiresolution segmentation“ ist ein patentiertes Verfahren von eCognition, welches neuartige Möglichkeiten zur Objekterkennung in Bilddaten bietet. [Definiens, 2001] schreibt dazu: „Segmentation is not an aim in itself. The purpose of image analysis can be a land cover / land use classification or the extraction of objects of interest.” Das Verfahren der „multiresolution segmentation“ ermöglicht die Aufteilung eines Multispektralbildes in mehr oder weniger homogene Bildsegmente (Objekte) welche wiederum Bildinformationen in einer abstrakten Form darstellen. Einzelne Pixel werden zu Objekten (image objects) zusammengefasst, welche als Bausteine und Informationsträger für eine weitere Klassifikation genutzt werden können. Zur Anwendung kommt hierbei eine „data driven“ Methode (oder: „bottom-up“). Die Segmente werden auf Grund verschiedener statistischer Methoden und Parameter erzeugt, welche über das ganze Bild gerechnet werden. Zu Beginn der Segmentierung wird - im Gegensatz zu den „knowledge driven“ Methoden (oder: „top-down“) - wenig Vorwissen benötigt. Die durch die „multiresolution seg- mentation“ entstehenden Segmente repräsentieren vorderhand noch keine spezifischen Klassen oder reale Objekte, sie werden daher auch als Objektprimitiven (oder: „object primitives“) bezeichnet. Erst zu einem späteren Zeitpunkt können diese Segmente vom Benutzer klassiert werden. Dieses Verfahren bietet grundlegende Vorteile: Nebst den rein spektralen Informationen enthalten die erzeugten Bild- segmente zusätzliche Attribute, welche für eine Klassifikation ver- wendet werden können. Es können beispielsweise Informationen über

13

Page 26: Objekterkennung in QuickBird Daten mit „eCognition“

2. Grundlagen

die Geometrie oder die Textur des einzelnen Bildsegmentes extrahiert werden, aber auch Nachbarschaftsbeziehungen über verschiedene Spektralbereiche und Auflösungsebenen können aufgezeigt und her- gestellt werden. Mit Hilfe dieser Beziehungen eröffnen sich in der Objekterkennung neue Möglichkeiten.

2.2.4 Durchführung einer Segmentierung mit eCognition Bildsegmente können bei eCognition nach erfolgter Definition ver- schiedener Inputparameter erzeugt werden. Folgende Parameter kön- nen vom Benutzer beeinflusst werden: • „Layer weight“: Gewichtung der einzelnen Kanäle oder von

thematischen Ebenen. • „Scale parameter“ (Massstabsparameter): Dieser abstrakte Wert

definiert die maximal erlaubte Heterogenität der resultierenden Objekte, indirekt kann hier die Grösse der entstehenden Segmente bestimmt werden.

• „Segmentation mode“: Die Art der Segmentierung kann ausgewählt werden („Normal“ oder „Sub obj. line analysis“). Der „normal mode“ kommt fast ausschiesslich zur Anwendung, „Sub obj. line analysis“ wird nur verwendet, wenn mit der Seg- mentierung Subobjekte für eine Analyse linearer Objekte geschaffen werden muss.

• „Composition of the homogeneity criterion“: Hier kann die Gewichtung von Form und Farbe als Kriterium für die erwünschte Homogenität der einzelnen Bildobjekte definiert werden, die Form kann dann noch weiter nach “smoothness” (Glättekriterium) und “compactness” (Kompaktheitskriterium) gewichtet werden:

• Farbkriterium („color criterion“): Das Farbkriterium minimiert die Standardabweichung der Spektralwerte eines Bildobjektes.

• Formkriterium („shape criterion“): Das Formkriterium wird nochmals unterteilt in Kompaktheitskriterium und Glättekriterium.

• Kompaktheitskriterium („compactness criterion“): In einem Raster ist die ideale kompakte Form eines Objektes ein Quadrat. Das Kompaktheitskriterium minimiert die Abweichung von einer idealen kompakten Form. Dieses Kriterium wird vor allem benutzt um Objekte zu extrahieren, welche selber kompakt erscheinen, sich aber von ihren weniger kompakten Nachbarn schlecht mittels Kontrast unterscheiden lassen.

• Glättekriterium („smoothness criterion“): Das Glättekriterium minimiert das Verhältnis der Kantenlänge eines Objektes zur Kantenlänge des Rechtecks entlang des Rasters, welches das Objekt beinhaltet [de Kok, R., 2001]. Dieses Kriterium kommt bei heterogenen Bilder – wie Radarbilder – zur Anwendung. So werden beispielsweise ausgefranste Objektbegrenzungslinien verhindert.

• „Type of neighborhood“: Hier kann bestimmt werden, ob bei der Segmentierung die „diagonal pixel neighborhood mode“ verwendet werden soll. Dieser Modus sollte nur dann gewählt werden, wenn die untersuchten Objekte in etwa Pixelgrösse aufweisen. Ein

14

Page 27: Objekterkennung in QuickBird Daten mit „eCognition“

2. Grundlagen

typisches Beispiel wäre die Extraktion von Strassen aus Bilddaten mit grober Auflösung wie z. B. TM.

Nach erfolgter Festlegung der oben erwähnten Parameter kann die Segmentierung durchgeführt werden. In mehreren subsequenten Schritten werden nun kleinere Objekte in grössere zusammengefasst. Während diesem Prozess wird die gewichtete Heterogenität „nh“ der resultierenden Objekte durch die verwendete Prozedur minimiert. „n“ ist hierbei ein Parameter für die Segmentgrösse, „h“ ein Wert für die definierte Heterogenität. Werden zwei benachbarte Objekte zu einem neuen zusammengefasst, wird der neu entstandene Hetero- genitätswert mit dem vorher definierten Korrelationsgrenzwert (Ge- wichtung der Homogenität) verglichen und beim allfälligen Erreichen wird der Prozess gestoppt. Damit wird bei der „multiresolution segmentation“ eine lokale Optimierung dieses Kriteriums durch- geführt. Um neue Segmente mit ähnlicher Grösse zu erhalten, welche auch vergleichbar und somit zur Weiterverwendung brauchbar sind, wird die Berechnung gleichmässig über Objekte des ganzen Bildes verteilt. Somit wird eine gleichmässige Verschmelzung der Objekte über die ganze Szene ermöglicht.

2.2.5 Die „classification-based segmentation“ Eine segmentierte und klassierte Szene kann zu einem späteren Zeitpunkt mit der Methode der „classification-based segmentation“ in ihrer Struktur verändert werden, in dem bei der erneuten Segmentierung die vorher bestimmten klassierten Segmente in den Prozess miteinbezogen werden. Zur „classification-based seg- mentation“ (klassenbasierenden Segmentierung) von Bildobjekten stellt eCognition klassenbasierende Operatoren zur Verfügung: die Fusion („classification-based fusion“), die von den Subobjekten ab- hängige Grenzkorrektion, die ihrerseits aus der Grenzoptimierung („classification-based border optimization“) und der Bildobjekt-Extraktion („classification-based image object extraction“) besteht. Grundlage für die Operatoren sind nicht die Klassen, sondern die in der „class hierarchy“ definierten Strukturen („structure groups“). Eine Struktur kann aus einer oder mehreren Klassen bestehen. Das Prinzip der Fusion ist einfach: alle Bildobjekte die zu einer Struk- tur gehören werden zusammengefasst und bilden ein neues grosses Bildobjekt [nach Definiens, 2003 und Haarmann, B., 2001]. Die genaue Funktionsweise der einzelnen erwähnten Operatoren wird in [Definiens, 2003] unter „concepts & methods“ beschrieben, in dieser Diplomarbeit wird nur die Methode der „classification-based fusion“ verwendet.

2.2.6 Information über die Bildsegmente Um eine Szene in verschiedene Klassen aufteilen zu können, müssen zuerst die charakteristischen Eigenschaften der entstandenen Bild- segmente gefunden werden können. Diese Informationen werden benötigt um herauszufinden, inwiefern sich die einzelnen Segmente

15

Page 28: Objekterkennung in QuickBird Daten mit „eCognition“

2. Grundlagen

zu ähnlichen Gruppen zusammenfassen lassen, respektive wodurch sie sich von anderen Segmenten typischerweise unterscheiden. Für die Erarbeitung dieses Basiswissens stellt eCognition verschiedene Hilfsmittel zur Verfügung. (Die Ausführungen in diesem Kapitel [2.2.6] beruhen weitgehend auf den Ausführungen von [Definiens, 2003, Furlan, S., 2002 und Steiner, C., 2003])

2.2.6.1 „Image object information“

Abb. 2.4: Fenster zur „image object information“ Diesem Dialogfeld [Abb. 2.4] können sämtliche Informationen über ein selektiertes Bildsegment entnommen werden. Es besteht zudem die Möglichkeit, dass für jedes Projekt gewünschte Objektmerkmale („features“) im Dialogfenster „features“ individuell definiert werden können. Nebst Objektmerkmalen (Spektralwerte, Formparameter, Texturparameter, Hierarchiemerkmale und thematische Merkmale) können - nach einer ersten Klassierung - auch die Werte für klassen- bezogene Merkmale (Verhältnis zu benachbarten Klassen, Bezie- hungen zu Klassen in anderen Levels) entnommen werden.

16

Page 29: Objekterkennung in QuickBird Daten mit „eCognition“

2. Grundlagen

2.2.6.2 „Feature view“

Abb. 2.5: Dialogfenster für die Informationen der einzelnen „features”: „feature view“ Die „feature view“ [Abb. 2.5] ist eine Anwendung in eCognition mit welcher der Benutzer über alle „features“ verfügen kann. Durch das Anwählen einzelner „features“ in dieser Dialogbox ist es möglich die entsprechenden Werte in dem gerade sichtbaren „level“ (Bildebene) zu visualisieren. Allen angezeigten Segmenten wird dadurch ein Grauton zugeordnet, der demjenigen Wert entspricht, der auf Grund des gewählten „features“ dafür berechnet worden ist. Dieses Ver- fahren ermöglicht eine sehr schnelle Übersicht über den Wertebereich gewisser Objekte und stellt somit ein geeignetes Hilfsmittel für die Ermittlung der Trennbarkeit einzelner Klassen dar.

2.2.6.3 „2D feature space plot“

Abb. 2.6: Darstellung des „2D feature space plot“

17

Page 30: Objekterkennung in QuickBird Daten mit „eCognition“

2. Grundlagen

Mit Hilfe des „2D feature space plot“ können alle Objekte im zweidimensionalen Raum dargestellt werden. Damit kann auf ein- fache Weise die Korrelation zweier (oder mehrerer) Objektmerkmale ermittelt werden. Unklassierte Objekte erscheinen als schwarze Kreuze, klassierte erhalten die Farbe ihrer definierten Klassen- zugehörigkeit. Die X-Achse und Y-Achse können einem bestimmten „feature“ zugeordnet werden, in [Abb. 2.6] ist für die Bildebene 2 die Standardabweichung und der Mittelwert eines Bildkanals (Kanal 1) aufgetragen worden. Diese Darstellungsart gibt uns zusätzlich Auskunft über die Position eines Objektes im Merkmalsraum („feature space“).

2.2.6.4 “Sample editor”

Abb. 2.7: Der „sample editor“ erlaubt den Wertevergleich zweier Klassen Im „sample editor“ können die Histogramme der „samples“ (Test- regionen) einzelner Klassen einander gegenüber gestellt werden indem jeweils zwei Klassen gleichzeitig dargestellt und verglichen werden können. Damit kann ein Überblick gewonnen werden, wie „samples“ und klassierte Objekte über den gesamten Wertebereich streuen, was wiederum Aufschluss über die Trennbarkeit einzelner Klassen ergeben kann.

18

Page 31: Objekterkennung in QuickBird Daten mit „eCognition“

2. Grundlagen

2.2.7 Klassifikation mit eCognition Die Klassifikation der segmentierten Objekte erfolgt bei eCognition überwacht. Zur Beschreibung der einzelnen Klassen für die überwachte Klassifikation wird die sogenannte „class hierarchy“ verwendet [Definiens, 2003 und Furlan, S., 2002].

Abb. 2.8: Beispiel einer „class hierarchy“ In der „class hierarchy“ werden spektrale und geometrische Eigenschaften sowie wissensbasierte Kontextinformationen für die Klassifikation beschrieben. Diese werden für jede Klasse individuell bestimmt, zusätzlich spielt die Klassenhierarchie eine wichtige Rolle. Klassenspezifische Eigenschaften können weitervererbt werden. Die Information über die Trennbarkeit der einzelnen Klassen erhält der Benutzer mit den im Kapitel [2.2.6: „Information über die Bildseg- mente“] beschriebenen Hilfsmitteln, die Festlegung der Parameter der einzelnen Klassen erfolgt jedoch erfahrungsgemäss in einem iterativen Prozess parallel zur Informationssuche [Steiner, C., 2003]. Für die Klassifikation verwendet eCognition den „fuzzy logic“ Ansatz. Bei diesem Ansatz gibt es für bestimmte Merkmalswerte eines Objek- tes nicht nur die beiden Aussagen „nein“ (0) und „ja“ (1), die zu einer Klassenzuordnung führen, die Zuweisung erfolgt über eine in der „membership function“ Dialogbox definierte Funktion mit dem Werte- bereich (0 bis 1), wobei 0 ein exaktes Nein und 1 ein exaktes Ja be- deuten [Definiens, 2003 und Furlan, S., 2002]. Eine solche Zu- gehörigkeitsfunktion („membership function“) kann mit Hilfe der in [Abb. 2.9] dargestellten Dialogbox definiert werden.

19

Page 32: Objekterkennung in QuickBird Daten mit „eCognition“

2. Grundlagen

2.2.7.1 „Membership function“

Abb. 2.9: Dialogbox zur Festlegung der „membership function“ Auf Grund dieser Zugehörigkeitsfunktion wird beim Klas- sierungsprozess einem Segment mit einem bestimmten Merkmalswert (in [Abb. 2.9] beispielsweise der Mittelwert des blauen Kanals) eine Wahrscheinlichkeit für die Zugehörigkeit zu einer Klasse zugeordnet. Der „fuzzy logic“ Ansatz kommt in der [Abb. 2.9] für den Wertebereich von 90 bis 100 zur Anwendung, die entsprechende Wahrscheinlichkeit für die Zugehörigkeit zu einer Klasse wird aus der Darstellung der Zuordnungskurve ersichtlich.

2.2.7.2 Die „nearest neighbor“ Methode Eine weitere Möglichkeit für eine Klassierung bietet eCognition mit der „nearest neighbor“ Methode. Dieses Verfahren wird auch als „minimum distance“ Methode (Verfahren der nächsten Nachbarschaft) bezeichnet. Bei dieser Methode muss der Benutzer zuerst re- präsentative Trainingsgebiete („samples“) für jede Objektklasse definieren. Beim Klassierungsprozess wird durch eCognition zu jeder Objektklasse eine mehrdimensionale Zugehörigkeitsfunktion berech- net [Definiens, 2003]. Für jedes zu klassierende Bildelement wird der Abstand zum Mittelpunkt aller Klassen berechnet, welche auf Grund der „samples“ berechnet wurden. Das Objekt wird jener Klasse zugeteilt, zu deren Mittelpunkt der Abstand am kleinsten ist. Dieses

20

Page 33: Objekterkennung in QuickBird Daten mit „eCognition“

2. Grundlagen

Verfahren hat den Nachteil, dass es die unterschiedlichen Streubereiche der Messwerte nicht berücksichtigt, weshalb ein Bildelement einer Klasse zugewiesen werden kann, der es mit grosser Wahrscheinlichkeit nicht zugehört [Albertz, J., 2001]. Die Methode kann zu einer schnellen Klassierung beitragen, sie kann jedoch nicht in jedem Fall angewandt werden. [Definiens, 2003] gibt folgende Faustregel vor: „ […] if a class can be separated from other classes by just a few features or only one feature, we recommend the application of member-ship functions, otherwise the nearest neighbor is suggested.”

2.2.7.3 Klassifikationsmerkmale Um die durch die Segmentierung entstandenen Bildobjekte zu klassieren, können in der „class hierarchy“ sowohl Objektmerkmale, als auch klassenbezogene Merkmale implementiert werden. Folgende Objektmerkmale können bei eCognition verwendet werden [nach Haarmann, B., 2001 und Furlan, S., 2002]: Objektmerkmale: • Spektralwerte (Durchschnitt, Standardabweichung, Ratio,

Differenz zum Nachbar etc.) der einzelnen Kanäle • Form (Länge, Fläche, Ausrichtung, Länge der Umrisslinie, etc.)

des Bildobjektes oder der Subobjekte (Objekte aus höher auf- gelösten Segmentierungsniveaus)

• Textur (Spektral- und Formtextur) des Bildobjektes abgeleitet aus Subobjekten

• Hierarchiemerkmale (Segmentierungsebene (Level), Anzahl der Nachbar- und Subobjekte)

• Thematische Merkmale (z.B. aus GIS) Klassenbezogene Merkmale („class-related features“): • Verhältnis (Relative und absolute Grenze, relative Fläche, Distanz,

etc.) zu Nachbarobjekten des gleichen Segmentierungslevels • Verhältnis (relative und absolute Fläche, Anzahl) zu Objekten

eines anderen Segmentierungslevels Auf die in diesem Abschnitt [2.2.7.3] beschriebenen Klas- sifikationsmerkmale kann mit den in [2.2.6: „Information über die Bild- segmente“] beschriebenen Hilfsmittel zugegriffen werden.

21

Page 34: Objekterkennung in QuickBird Daten mit „eCognition“

2. Grundlagen

2.3 Versuchsbeispiele Segmentierung

Abb. 2.10: Ausschnitt aus der Szene ZRH, Terminal B, RGB-Darstellung, PAN-Kanal zur optischen Schärfung hinterlegt Definiens empfiehlt, denjenigen Layer zuerst zu erstellen, mit wel- chem man später die erste Klassifikation durchführen wird. So sollten die wichtigsten Objekte nicht von Sub- oder Superobjekten negativ beeinflusst werden. Darum ist es bei einem eCognition-Projekt von äusserster Wichtigkeit herauszufinden, wie die Parameter bei der ersten Segmentierung optimal gesetzt werden. Die folgenden Seiten [Kap. 2.3] zeigen die Ergebnisse verschiedener Versuche mit dem Szenenausschnitt ZRH bezüglich „multiresolution segmentation“. Dabei wurde mit den Variablen “scale parameter”, “layer weight” und “composition of homogeneity criterion” experimentiert, welche in [2.2.4: „Durchführung einer Segmentierung mit eCognition“] be- schrieben worden sind.

2.3.1 Scale parameter Um einen Eindruck zu bekommen, wie sich die Veränderung des „scale parameters“ auf die Segmentierung auswirken kann, habe ich diverse Versuche mit verschiedenen Parametern unternommen. Auf eine unterschiedliche Gewichtung einzelner Kanäle habe ich hier noch verzichtet. Sämtliche Kanäle wurden mit dem Faktor 1 gewichtet (ausser der NIR-Kanal, da dieser zum Zeitpunkt der Versuche noch nicht verfügbar war).

22

Page 35: Objekterkennung in QuickBird Daten mit „eCognition“

2. Grundlagen

Abb. 2.11: Segmentierung mit „scale parameter“ 100 (links) und 250 (rechts)

Abb. 2.12: Segmentierung mit „scale parameter“ 500 (links) und 1000 (rechts) Für eine anschliessende Objektklassierung muss schon zum Zeitpunkt der Segmentierung der Szene darauf geachtet werden, dass die entstehenden Objektprimitiven so gut wie möglich mit dem Objekt übereinstimmen. Die obigen Abbildungen zeigen auf, wie schwierig es sein kann, beim untersten der drei Flugzeuge zu- friedenstellende Segmente zu erhalten. Die ursprüngliche Form des Flugzeuges muss darum in einem späteren Zeitpunkt mit Nach- barschaftsbeziehungen wieder hergestellt werden. Dieses zeitauf- wendige Verfahren kann bei einer guten Segmentierung verhindert werden, darum muss bei der Wahl der Parameter mit grosser Sorgfalt vorgegangen werden.

23

Page 36: Objekterkennung in QuickBird Daten mit „eCognition“

2. Grundlagen

2.3.2 Layer weight

Abb. 2.13: Eingabemaske für die Gewichtung der einzelnen Kanäle (0 bis 1) und Festlegung des „output levels“ Bei diesem Versuch [Abb. 2.14 und 2.15] wurden die unterschiedli- chen Eigenschaften der einzelnen spektralen Kanäle und ihre Auswir- kung auf die Segmentierung untersucht. Der „scale parameter“ wurde dabei nicht verändert und bei 500 belassen. Es fällt hierbei auf, dass bei diesem Massstabsparameter nur geringfügige Unterschiede zu erkennen sind. Das beste Ergebnis liefert erwartungsgemäss der PAN-Kanal, da dieser die ursprünglich grösste räumliche Auflösung aufweist. Das Bild wird am besten entlang der realen Objekte in ver- schiedene Segmente unterteilt [Abb. 2.15, rechts].

Abb. 2.14: Nur Kanal 1 segmentiert (links) und nur Kanal 2 segmentiert (rechts)

Abb. 2.15: Nur Kanal 3 segmentiert (links) und nur der PAN-Kanal segmentiert (rechts)

24

Page 37: Objekterkennung in QuickBird Daten mit „eCognition“

2. Grundlagen

Folgende Beispiele [Abb. 2.16 und 2.17] mit einem kleineren „scale parameter“ (100) sollen die Problematik der geringeren räumlichen Auflösung der ersten vier Kanäle aufzeigen:

Abb. 2.16: Nur Kanal 1 segmentiert

Abb. 2.17: Nur der PAN-Kanal segmentiert Auch hier ist zu erkennen, dass beim PAN-Kanal die Grenzlinien der Segmente besser mit dem realen Objekt übereinstimmen, als beim Kanal 1 (blue). Diese Tatsache ist mit Bestimmtheit auf die ursprüng- lich (vor dem Resampling) höhere räumliche Auflösung zurückzu- führen.

2.3.3 Zusammensetzung des “Homogenitäts-Kriteriums” Der Einfluss der zwei Variablen Farbe und Form auf die Segmentbildung kann nach dem unten abgebildeten Schema gewählt werden. Auf Grund dieser Einstellungen wird die Objekt-Homogenität bestimmt auf welche wiederum der „scale parameter“ zurückgreift.

Abb. 2.18: Eingabemaske für die Gewichtung des „Homogenitäts-Kriteriums“ Die drei Variablen „color“, „smoothness“ und „compactness“ können vom Benutzer mit einem Wert von 0 bis 1 definiert werden. In den

25

Page 38: Objekterkennung in QuickBird Daten mit „eCognition“

2. Grundlagen

meisten Fällen ist das Kriterium der Farbe das wichtigste und wird dementsprechend stark gewichtet, die Formparameter können jedoch helfen, eine bessere Qualität der Objektbildung zu erzielen. Die ver- schiedenen Versuche [Abb. 2.19 bis 2.22] habe ich mit einem fixen „scale parameter“ von 500 durchgeführt um eine Vergleichbarkeit der Resultate zu gewährleisten.

Abb. 2.19: Segmentierung unter Verwendung aller Kanäle, 100% color (links) und Segmentierung unter Verwendung des PAN-Kanals, 100% color (rechts)

Abb. 2.20: Segmentierung unter Verwendung aller Kanäle, 90% shape 10% color (links) und Segmentierung unter Verwendung des PAN-Kanals, 80% shape 20% color (rechts)

Abb. 2.21: Segmentierung unter Verwendung aller Kanäle, 50% color, 50% shape mit 10% smoothness und 90% compactness (links) und aller Kanäle, 50% color, 50% shape mit 90% smoothness und 10% compactness (rechts)

26

Page 39: Objekterkennung in QuickBird Daten mit „eCognition“

2. Grundlagen

Abb. 2.22: Segmentierung unter Verwendung aller Kanäle, 10% color, 90% shape mit 90% smoothness und 10% compactness (links) und aller Kanäle, 10% color, 90% shape mit 10% smoothness und 90% compactness (rechts) Die Versuche zeigen auf, dass eine starke Gewichtung der Form zwar einzelne Flugzeuge relativ gut zu einem Objekt zusammenfasst, klei- nere Flugzeuge hingegen werden nicht als Objekt erkannt und ver- schwinden ganz (vor allem im nördlichen Vorfeldbereich, am oberen Rand der Szene). Grosse Flugzeuge hingegen (ab der Grösse eines Airbus 320 oder einer Boeing 757) können als ganze Objekte erfasst werden. Diese Tatsache zeigt das Beispiel von [Abb. 2.23] mit einem „scale parameter“ von 800:

Abb. 2.23: Segmentierung unter Verwendung aller Kanäle, 20% color, 80% shape mit 90% smoothness und 10% compactness, scale parameter 800

27

Page 40: Objekterkennung in QuickBird Daten mit „eCognition“

2. Grundlagen

2.3.4 Potential und Probleme multiskaliger Segmentierungsmethoden in der Fernerkundung Mit der Einführung kommerzieller hochauflösender Sensoren wurde die Fernerkundung zu einer wichtigen Quelle für die Generierung oder dem Nachführen von GIS Datenbanken. Wie in [2.2.1: „Der Regionen-basierte Ansatz“] beschrieben wurde es mit der entwicklungsbedingten zunehmenden Verbesserung der räumlichen Auflösung schwieriger, mit klassischen Methoden wie der „maximum likelihood“ Methode befriedigende Landnutzungsklassie- rungen zu erzielen, da diese Methoden jeweils zu viele oder nicht gut definierte Klassen bilden. Ein Problem hierbei ist, dass die „cluster“ ausschliesslich auf Grund spektraler Unterschiede gebildet werden, was bei sehr hoher Auflösung und der damit verbundenen grossen Datenmenge problematisch werden kann. Wird eine Szene jedoch schon vor der eigentlichen Klassierung in einzelne Segmente (Regio- nen) aufgeteilt, so können Schwierigkeiten wie beispielsweise beim Klassieren von inhomogenen grossflächigen Bildelementen deutlich verringert werden. Grundlage dieses Vorgehens bildet die Hypothese, dass benachbarte Bildelemente mit grösster Wahrscheinlichkeit zur selben Klasse gehören. eCognition überprüft diese Hypothese anhand der gesetzten Parameter (Homogenität) und bildet auf diese Weise die Segmente [siehe 2.2.4: „Durchführung einer Segmentierung mit eCognition“] welche wiederum – je nach „scale parameter“ – einer Klasse angehören können. Im Zusammenhang mit objektorientierten (oder: „regionen-basierten) Ansätzen, welche in der Fernerkundung zum Einsatz kommen, muss darum besonderer Wert auf die Segmentierung der multisensoralen und multiskaligen Eingabedaten gelegt werden, sowohl im Hinblick auf die geometrische und semantische Robustheit der Ergebnisse, als auch auf den Grad der Automatisierung bzw. der Transparenz der Al- gorithmen. Die Segmentierung muss schon vor der Klassierung mit der nötigen Sorgfalt durchgeführt werden, die Festlegung der Parame- ter hat in einem iterativen, manuellen Prozess für jedes Projekt neu zu erfolgen. [Schiewe, J. et al., 2001] kommen zum Schluss, dass die traditionellen (pixelbasierten) Klassifikationsmethoden für die Aus- wertung von hochauflösenden multisensoralen Fernerkundungs- daten ausgedient haben. Empirische Studien mit regionen-basierten Projekten (mit eCognition) haben befriedigende Ergebnisse geliefert, grundsätzlich wird vom erwähnten Forschungsteam aber die fehlende Automation bei der Parametrisierung in eCognition bemängelt. Inwie- fern diese Schlussfolgerungen in meine fortlaufende Arbeit über- nommen werden kann wird sich erweisen, es handelt sich bei den QuickBird Szenen nicht um multisensorale Daten, aber um Daten verschiedener geometrischer Auflösung, welche auf eine gemeinsame Pixelgrösse skaliert wurden. Ein ähnliches Vorgehen findet bei eCognition beim Fusionieren von verschiedenen Eingabedaten im gleichen Projekt statt [siehe 2.2.2: „Importieren der QuickBird Daten in ein eCognition Projekt“].

28

Page 41: Objekterkennung in QuickBird Daten mit „eCognition“

3. Objekterkennung in eCognition Projekten

3 Objekterkennung in eCognition Projekten

3.1 Szene „Dübendorf“, Halle 7/8

3.1.1 Bildausschnitt

Abb. 3.1: Ausschnitt aus der verwendeten Szene Dübendorf F 5

3.1.2 Durchführung der Segmentierung Wie im [Kap. 2.3: „Versuchsbeispiele Segmentierung“] erwähnt, werden die verschiedenen Parameter für die Segmentierung durch „trial and error“ in einem iterativen Prozess ermittelt. Definiens gibt zwei Faustregeln vor, an welche sich Benutzer von eCognition halten sollten: 1. Es soll versucht werden, so grosse Objekte wie möglich zu gene-

rieren, bei welchen immer noch verschiedene Bildregionen unter- scheidbar sind („as large as possible and as fine as necessary“). Der Unterscheidung von verschiedenen Regionen sollte hierbei mehr Beachtung geschenkt werden, als der Grösse der entste- henden Bildobjekte.

2. Es soll versucht werden, das Farbkriterium („color criterion“) so stark wie möglich zu gewichten während das Formkriterium („shape criterion“) nur so stark zum Einsatz kommen sollte, wie es den entstehenden Objekten eine klare Grenzlinie verschaffen kann. Wird das Formkriterium zu stark in die Segmentierung mit- einbezogen, ergibt sich eine Qualitätseinbusse, da grundsätzlich die spektralen Eigenschaften die Grundlage für die Segmentierung bilden sollten [Definiens 2003].

29

Page 42: Objekterkennung in QuickBird Daten mit „eCognition“

3. Objekterkennung in eCognition Projekten

Für die Heterogenitätskriterien wurden im Beispiel „Dübendorf Halle 7/8“ für alle Segmentierungslevels folgende Werte verwendet: „color“: 0.8, „shape“: 0.2, „smoothness“: 0.9, „compactness“: 0.1. Mit einer stärkeren Gewichtung der Form konnte kein befriedigenderes Ergeb- nis erreicht werden. Es wurden insgesamt fünf Segmentierungen in verschiedenen Auflösungen durchgeführt, was fünf Segmentierungsebenen (Levels) ergibt. Die Benennung der Levels erfolgt bei eCognition nach Auf- lösungsgrad, wobei die höchstaufgelöste Ebene (mit dem kleinsten „scale parameter“) dem Level 1 entspricht.

Benutzter Kanal und Gewichtung Level Scale pa-rameter Blue Green Red NIR PAN

5 700 1 1 1 1 5 4 500 1 1 1 1 5 3 150 1 1 1 1 5 2 100 1 1 1 1 5 1 50 1 1 1 1 5 Tab. 3.1: Parameter für die Segmentierung der Szene Dübendorf F 5 Die relativ hohe Gewichtung des PAN-Kanals ist auf dessen höheren Detaillierungsgrad zurückzuführen. Die erzeugten Segmente konnten auf Grund ihrer unterschiedlichen Grösse für die Erkennung von Objekten verschiedener Grösse und Genauigkeit für die nun folgende Klassifikation weiterbenutzt werden.

3.1.3 Durchführung der Klassifikation Ziel dieses Versuches ist es, einzelne Objekte (Flugzeuge) zu erkennen und so klar wie möglich vom umliegenden Hintergrund auszuscheiden. Auch soll aufgezeigt werden, wie weit man mit der Kombination von QuickBird-Daten (mit einer Auflösung von ca. 61 cm im PAN-Bereich) mit eCognition gehen kann und bei welcher Objektgrössenordnung die Grenzen liegen. Das Vorgehen folgt grundsätzlich dem Schema der „masking tech- nique“ [Definiens 2003]. Es ist sinnvoll, mit einer einfach auszu- scheidenden Klasse zu beginnen und diese klassierte Fläche vom Rest abzutrennen. Nach dieser Vorgehensweise sollte man schritt- weise durch das Ausscheiden neu gewonnener Klassen zum Ziel kommen. In diesem ersten Beispiel wurde ähnlich vorgegangen. Im Unterschied zur „masking technique“ werden die einzelnen Klassen in hohen Levels (grosse Segmentgrösse) benutzt, um mit Hilfe von diesen in tieferen Levels mit einer feineren Abgrenzung weiterzufahren. Es wurde also nicht die ganze Szene klassiert sondern nur versucht, die einzelnen Flugzeuge auszuscheiden und optimal gegenüber der Um- gebung abzugrenzen. Die erste Klassierung in hohen Levels ist also nicht „endgültig“, sie dient nur zur Eingrenzung eines Interes-

30

Page 43: Objekterkennung in QuickBird Daten mit „eCognition“

3. Objekterkennung in eCognition Projekten

sengebietes, die Grenzlinien werden in tieferen Levels wieder neu erstellt und besser dem Objekt angepasst. Im höchsten Level (5) werden zuerst die F 5 Flugzeuge grob klassiert und vom Rest der Umgebung abgegrenzt (ausmaskiert). Die Klas- sierung erfolgt ausschliesslich auf Grund eines Formparameters (Segmentflächengrösse).

Abb. 3.2: Segmente der F 5 im Level 5 Weitere Versuche ergaben keine befriedigendere Lösung betreffend Segmentbildung. Störend ist hierbei das Segment des zweitobersten Flugzeuges, bei welchem die Flugzeugnase auch ins Segment ein- bezogen worden ist. Dieses Segment wird im Verlaufe der weiteren Klassierung in tieferen Levels etwas stören und das weitere Vorgehen beeinflussen. Grundsätzlich kann aber gesagt werden, dass es sehr einfach ist, die Flugzeuge schon bei dieser groben Auflösungsstufe als Objekte zu erkennen. Im nächsten Level (4) kann die Ju 52 gut ausgeschieden werden.

Abb. 3.3: Segmente der Ju 52 im Level 4 (links) und Klassierung (rechts)

31

Page 44: Objekterkennung in QuickBird Daten mit „eCognition“

3. Objekterkennung in eCognition Projekten

Dieses Objekt kann durch zwei Parameter (Spektralwert im PAN-Kanal und Segmentfläche) klassiert werden. Anschliessend kann der Flugzeugschatten durch einen Helligkeitsparameter und durch Nach- barschaftsbeziehungen (relative Nähe zur Klasse „Ju 52“) definiert werden. Hierbei kommen erstmals „class related features“ zur Anwen- dung. Danach werden in tieferen Levels (1 und 2) auf Grund der feine- ren Segmente die Gesamtheit der Objektgrenzen genauer erfasst und neue Klassen erstellt. Mit Hilfe von Spektralwerten, Formparametern und den Beziehungen zu höheren Levels konnten folgende Klassierungen erreicht werden:

Abb. 3.4: Klassifikation der F 5 (links) und Ju 52 (Mitte) mit der dazugehörigen Legende (rechts) Bei den F 5 ist die Klassifikation auf diesem Level zufriedenstellend, zusätzlich konnten kleinere Objekte (z. B. „airstarterunit“) erkannt und klassiert werden. Als Problem erscheint der Bereich des Cockpits, welcher (wahrscheinlich auf Grund der geringen unterschiedlichen Spektralwerte) praktisch nicht vom Hintergrund zu unterscheiden ist und so in der Segmentbildung dementsprechend mit Segmenten der umgebenden Betonplatte vereint wurde. So erscheinen die Flugzeug- nasen als eigene Objekte („nose“) und können auf diesem Level nicht mit der Flugzeugstruktur („body/wing“) verbunden werden. Auch wur- den drei Segmente falsch klassiert („nose“ anstatt „body/wing“), diese habe ich jedoch belassen, da ich zu einem späteren Zeitpunkt alle flugzeugspezifischen Klassen wieder zu einer Klasse zusammenfas- sen (gruppieren) möchte. Bei der Ju 52 konnte auf diesem Level nur der Schatten etwas ver- bessert werden, ansonsten sind die Umrisse praktisch die selben geblieben. Im weiteren wird versucht, auf dem tiefsten Level (1, kleinste Seg- mentgrösse) eine noch detailliertere Klassierung zu erreichen und die dort erstellten Klassen in einer Klasse zusammenzufassen, welche wiederum ein einziges Objekt (Flugzeug F5 oder Ju 52) darstellen soll. Im tiefsten Level kommen vor allem „class related features“ zur Anwendung. Nachbarschaftsbeziehungen in der gleichen Ebene oder aber Beziehungen zu übergeordneten Ebenen stellen die nötigen Voraussetzungen zur verfeinerten Objektabgrenzung dar.

32

Page 45: Objekterkennung in QuickBird Daten mit „eCognition“

3. Objekterkennung in eCognition Projekten

Abb. 3.5: Verfeinerte Klassifikation der Ju 52 (links) und Zusammenfassung als ganzes Objekt (Mitte) mit der dazugehörigen Legende (rechts)

3.1.4 Diskussion der Ergebnisse Die erreichte Klassifikation zeigt die Grenzen der benutzten Methoden in Kombination mit QuickBird Daten auf. Die ursprünglichen Bilddaten weisen eine Auflösung auf, welche bei der Segmentierung von kon- trastarmen Objekten nur schwer Unterteilungen in verschiedene Ob- jektprimitiven zulässt. Diese bilden aber die Voraussetzung für eine Unterscheidbarkeit von verschiedenen Objekten. Die Cockpitregionen beider Flugzeugtypen beispielsweise zeigen auf, dass dort ein Flug- zeug äusserst schlecht vom Hintergrund abgrenzbar ist. Im weiteren ist in den Kanälen 1 bis 4 die ursprüngliche räumliche Auflösung zu schlecht um kleinere Objekte mit wenig Kontrast sauber abzugrenzen, was eine spätere Klassierung nur mit entsprechendem Aufwand er- möglicht.

Abb. 3.6: Originalbild PAN (links) und Kanal 1 bis 4 (rechts) Die Abbildung [Abb. 3.6] lässt erahnen, dass es schwierig ist, bei der Segmentbildung ein Objekt gegenüber der Umgebung abzugrenzen.

33

Page 46: Objekterkennung in QuickBird Daten mit „eCognition“

3. Objekterkennung in eCognition Projekten

Abb. 3.7: Segmentgrösse bei „scale parameter“ 700 (Level 5, links) und Segmentgrösse bei „scale parameter“ 50 (Level 1, rechts) Diese Beispiele sollen aufzeigen, wie es im Falle der F 5 nicht möglich war, die Klassen „nose“ und „body/wing“ miteinander zu verbinden, da die einzelnen Segmente (blaue Trennlinien in [Abb. 3.7]) nicht ver- bunden sind, respektive verbunden werden können. Die Grenzlinien der einzelnen Objektprimitiven grenzen sich pfeilartig gegeneinander ab, sogar eine manuelle Zuweisung einzelner Segmente in grosser Auflösung (rechts) hätte keine befriedigende Lösung gebracht, da die- se sich die im 45° Winkel von der ursprünglichen Längsachse des Flugzeuges ausbreiten und so eine falsche Form des gesuchten Ob- jektes wiedergeben. Zur Lösung dieses Problems bestünde noch eine weitere Möglichkeit: die Segmentierung auf die ungefähre ursprüngliche Pixelgrösse. Die- se kleinen Objektprimitiven könnten dann manuell einer Klasse zuge- ordnet werden. Dieses Vorgehen macht hier aber wenig Sinn, da in dieser Arbeit die objektorientierte Klassierung, nicht aber die pixel- orientierte Klassierung Untersuchungsgegenstand ist.

3.2 Szene „Dübendorf“, Halle 3 und Querpiste

3.2.1 Bildausschnitt

Abb. 3.8: Ausschnitt aus der verwendeten Szene Dübendorf MR

34

Page 47: Objekterkennung in QuickBird Daten mit „eCognition“

3. Objekterkennung in eCognition Projekten

3.2.2 Durchführung der Segmentierung

Benutzter Kanal und Gewichtung Level Scale parameter Blue Green Red NIR PAN

6 420 1 1 1 1 0 5 400 1 1 1 1 5 4 300 1 1 1 1 5 3 200 1 1 1 1 5 2 100 1 1 1 1 5 1 80 1 1 1 1 5 Tab. 3.2: Parameter für die Segmentierung der Szene Dübendorf MR Die Wahl der Parameter folgt den gleichen Überlegungen des vorangegangenen Beispiels mit der Ausnahme des Levels 6. Dieser wurde für die Eliminierung der spekularen Reflektion (blenden) im PAN Kanal in der Region eines PC 7 Flugzeuges (Halle 3, zweiter PC 7 von links) benutzt. Zwei Problembereiche fallen bei diesem Beispiel bereits bei der Segmentierung auf: bei den drei Mirages auf der Querpiste kann keine bessere Segmentierung erreicht werden, es wird jeweils die Schattenseite einer Mirage als Segment zusammengefasst, die beleuchtete Seite hingegen ist auch bei kleinen „scale parameter“ oder einer starken Gewichtung des NIR Kanals nicht vom Hintergrund zu unterscheiden. Als zweites stellt sich dasselbe Problem bei einem Pilatus Porter (vor Halle 3, dritter PC 6 von links). Auch dieser hebt sich zu wenig stark vom Hintergrund ab, als dass schon bei der Segmentbildung eine zufriedenstellende Lösung gefunden werden konnte.

3.2.3 Durchführung der Klassifikation

3.2.3.1 Beispiel „Falcon 50“ Mit dem Beispiel des „Falcon 50“ vor der Halle 3 kann die Vorgehensweise verdeutlicht werden. Diese Klassierung gestaltet sich bei diesem Objekt etwas einfacher als bei den restlichen Flugzeugen dieser Szene, da der Falcon die Grösse eines Businessjets besitzt und sich mit seiner weissen Grundfarbe besser vom „grauen“ Hinter- grund abhebt.

Abb. 3.9: Falcon 50 [Luftwaffe, 2003]

35

Page 48: Objekterkennung in QuickBird Daten mit „eCognition“

3. Objekterkennung in eCognition Projekten

Abb. 3.10: Bildausschnitt des PAN Kanals im Original (links), und grobe Klassierung im Level 5 (rechts)

Abb. 3.11: Ergänzung der groben Klassierung des Level 5 im Level 1 durch neue Klassen (links) und Klassierung des umliegenden Schlagschattens (L1 falcon shadow) mit der dazugehörigen Legende (rechts)

Abb. 3.12: Zusammenfassung aller „falconspezifischen“ Klassen zur Klasse „L1 falcon“ mit dem dazugehörenden Schatten „L1 falcon shadow“ Dies ist ein gelungenes Beispiel der oben besprochenen Vorgehens- weise. Zum guten Ergebnis beigetragen haben - neben den oben er- wähnten Objekteigenschaften welche schon eine gute Segmentierung zugelassen haben - vor allem die Möglichkeiten der „class related

36

Page 49: Objekterkennung in QuickBird Daten mit „eCognition“

3. Objekterkennung in eCognition Projekten

features“ (vgl. [2.2.5]). Dank dem Miteinbezug verschiedener Auflö- sungsebenen konnte ein kleines Interessensgebiet eingegrenzt und bearbeitet werden. Die Objektprimitiven der verschiedenen Segmen- tierungsstufen (Layer) konnten miteinander in Verbindung gebracht und schlussendlich zu einem Objekt zusammengefasst werden.

3.3 Szene „Flughafen Zürich“

3.3.1 Bildausschnitt

Abb. 3.13: Ausschnitt aus der verwendeten Szene Zürich Flughafen Diese Szene stellt eine grosse Herausforderung dar, da die gesuchten Objekte viel zahlreicher und von unterschiedlicher Form, Grösse und Farbe sind. Im Vergleich zu den zwei vorherigen Szenen von Düben- dorf wird es auch schwieriger sein, die Objekte freizustellen, da diese oft von anderen Objekten (Passagierbrücken, Lastwagen, Gepäck- container o. Ä.) umgeben sind. Zusätzlich gibt es in dieser Szene bedeutend mehr störende spekulare Reflektion (blenden), auch ist die Szene reich an äusserst inhomogenen Regionen, wie beispielsweise der Baustelle zwischen den beiden Passagierterminal A und B („airside center“). Darum wird es kaum möglich sein, mittels „samples“

37

Page 50: Objekterkennung in QuickBird Daten mit „eCognition“

3. Objekterkennung in eCognition Projekten

eine „nearest neighbor“-Klassifikation (vgl. [2.2.7.2]) durchzuführen, wie dies bei einer Land- oder Waldklassifikation der Fall wäre. Nebst den rein spektralen Informationen spielen vor allem auch geo- metrische, kontextuelle, topologische Informationen und Nachbar- schaftsbeziehungen eine Rolle. Diese zusätzlichen Informationen werden alle in den Ansatz miteinbezogen.

Abb. 3.14: Ausschnitt aus der Bodenkarte des Flughafens Zürich mit eingezeichneter Dimension des untersuchten Szenenausschnittes Die Überprüfung der Datenqualität ergab, dass die Szene in einer hohen Qualität vorliegt, vereinzelt ist spekulare Reflektion (blenden) vorhanden, am ausgeprägtesten im PAN Kanal.

Abb. 3.15: Spekulare Reflektion im PAN Kanal (links) und im multispektralen Bereich (rechts)

38

Page 51: Objekterkennung in QuickBird Daten mit „eCognition“

3. Objekterkennung in eCognition Projekten

3.3.2 Der Ansatz Zuerst wird eine „area of interest“ definiert, indem versucht wird, jedes vorhandene Flugzeug im obersten Level so gut wie möglich zu erfas- sen und gegenüber dem Hintergrund abzugrenzen. Dabei entstehen die Klassen „aircraft region“ und „rest“. Anschliessend soll die Klasse „aircraft region“ auf tiefere Ebenen weitervererbt werden (mit „class related features“: „relations to super-objects“), respektive tiefere Segmente werden in Beziehung zu über- geordneten Objekten gebracht. Hier sollen die feineren Segmente der tieferen Level mit vertikalen Beziehungen in der Hierarchie etwas eingeschränkt und dem ursprünglichen Objekt besser angepasst wer- den um anschliessend mittels Nachbarschaftsbeziehungen in der horizontalen Hierarchie (z. B. „relations to neighbor objects“) wieder ergänzt und somit genauer dem Objekt angepasst zu werden. Zum Schluss sollen die klassierten Objekte zusammengefasst und in verschiedene Flugzeugklassen eingeteilt werden. Dabei soll ermittelt werden, inwiefern sich verschiedene Flugzeugtypen unterscheiden lassen.

3.3.3 Durchführung der Segmentierung Es wurden insgesamt fünf Segmentierungen in verschiedenen Auflösungen durchgeführt. Dies ergibt fünf Segmentierungsebenen (Levels). Die Benennung der Levels erfolgt bei eCognition nach Auf- lösungsgrad, wobei die höchstaufgelöste Ebene (mit dem kleinsten „scale parameter“) dem Level 1 entspricht. Der höchste Level sollte später ermöglichen, aus den Objektprimitiven ungefähre Regionen mit erhöhter Wahrscheinlichkeit für das Vorhandensein eines Flugzeuges zu extrahieren. Die einzelnen Segmente weisen in etwa dieselbe Grösse auf, wie die Flugzeuge, sind aber nicht deckungsgleich. Die Segmentierungen wurden nach folgendem Schema durchgeführt:

Benutzter Kanal und Gewichtung Level Scale pa-rameter Blue Green Red NIR PAN

5 1500 5 1 1 0 2 4 500 2 1 1 2 5 3 150 1 0 0 1 5 2 100 2 1 1 2 5 1 90 2 1 1 2 5 Tab. 3.3: Parameter für die Segmentierung der Szene Zürich Flughafen Bei diesem Beispiel kann mit der Wahl der Parameter die Segmentbildung auf Grund der Inhomogenität der Szene besser be- einflusst werden. In [Tab. 3.3] widerspiegelt sich diese Aussage. Die starke Gewichtung des ersten Kanals für den Level 1 ist bei- spielsweise auf die Boeing 737 der KLM am Fingerdock des Terminal B zurückzuführen. Dieses Flugzeug weist auf Grund der blauen Bemalung ein anderes Verhalten auf und konnte in den nicht-blauen Kanälen nur schlecht vom Hintergrund unterschieden werden.

39

Page 52: Objekterkennung in QuickBird Daten mit „eCognition“

3. Objekterkennung in eCognition Projekten

3.3.4 Durchführung der ersten Klassifikation Die zur Anwendung kommende Art der Klassifikation ist die wissens- basierte Klassifikation. Im höchsten Level werden nun die Klassen „aircraft region“ und „rest“ definiert. Zur Unterscheidung der zwei Klassen wird auf folgende Attribute zurückgegriffen:

Parameter Limitierender Faktor Limitierende Werte Logik Area Maximale Segmentgrösse

wird bestimmt 730 bis 750 Kleiner als

Length/width Maximales Längen- Breitenverhältnis 3.8 bis 3.9 Kleiner als

Mean differ-ence to neighbor (abs) channel 1

Mittelwert wird mit dem des Nachbarsegmentes verglichen (Kanal 1)

3360 bis 3370 Grösser als

Std devitation channel 3

Standardabweichung im Kanal 3 2100 bis 2150 Grösser

als Distance to line

Maximale Distanz zu einer definierten Linie 61 bis 62 Kleiner als

Mean K1, blue Mittelwert im Kanal 1 (blau) 14000 bis 14500 Grösser

als Compactness (polygon)

Formindex eines einzelnen Segmentes 0.55 bis 0.56 Kleiner als

X-distance to image right border

Distanz zum rechten Bildrand 15 bis 20 Grösser

als

Tab. 3.4: Parameter für die Klassierung im Level 5 der Szene Zürich Flughafen Diese Bedingungen müssen alle erfüllt werden (additiv), nur so wird ein Segment der Klasse „aircraft region“ zugeteilt. Alle anderen Seg- mente werden mit der Funktion: „similarity to classes“ der Klasse „rest“ zugewiesen.

40

Page 53: Objekterkennung in QuickBird Daten mit „eCognition“

3. Objekterkennung in eCognition Projekten

Abb. 3.16: Klassierung im höchsten Level. Sämtliche Flugzeugregionen erscheinen pink Das oben abgebildete Beispiel soll nun helfen, mit Hilfe eines tieferen Levels, welcher natürlich viel detaillierter ist und feinere Segmente aufweist, die Umrisse der einzelnen Flugzeuge genauer zu bestim- men. Mit Hilfe der Klasse „aircraft region“ wird nun eine „area of interest“ eingegrenzt, mit welcher ab jetzt weiter gearbeitet wird. Als weiteren Versuch habe ich eine Maske erstellt, welche die einzel- nen klassierten Segmente zu einem Segment der gleichen Klasse in einer neuen Ebene (Level 6) zusammenfasst und verbindet (vgl. [2.2.5: Die „classification-based segmentation“]).

Abb. 3.17: Mit Hilfe der „classification based segmentation“ erstellter Level (6) mit den Flugzeugregionen als zusammengefasste Segmente

41

Page 54: Objekterkennung in QuickBird Daten mit „eCognition“

3. Objekterkennung in eCognition Projekten

Die Abbildung [Abb. 3.17] zeigt die neu entstandenen Segmente. Die- se haben jedoch auf den weiteren Verlauf der Klassierung keinen Ein- fluss, da diese hierarchisch tieferen Segmente bei der anschliessen- den Klassierung Bezug auf die „ursprüngliche“ Klasse „aircraft region“ nimmt. Ein Zusammenfassen dieser Klasse zu jeweils einem Segment pro Flugzeug ist also nicht nötig, dieses Beispiel kann als „Testlauf“ für die Methode der „classification based segmentation“ angeschaut werden. Diese wird zu einem späteren Zeitpunkt zur Verschmelzung einzelner Klassen zu einer übergeordneten Klasse beitragen und zu diesem Zeitpunkt genauer erklärt werden. In weiteren Versuchen habe ich die Bildung der übergeordneten Klas- se „aircraft region“ manuell durchgeführt („manual classification“: ma- nuelle Zuweisung einzelner Segmente („samples“) zu einer Klasse), dies hat jedoch kein befriedigenderes Resultat ergeben und war zu- sätzlich mit einem enormen Mehraufwand verbunden. Der Grund da- für ist erneut in der Segmentierung zu finden: die Objekte können zu- wenig eindeutig vom Hintergrund unterschieden und in verschiedene Segmente aufgeteilt werden, worauf sie – auch manuell – nicht ein- deutig in eine Klasse eingeteilt werden können. Ich habe im weiteren versucht, den manuellen Einfluss bei der Klassierung so klein wie möglich zu halten. Mittels „class related features“ („relative area of“) wurde darauf für ei- nen tieferen Level ein Wahrscheinlichkeitsraum für bestimmte Klassen geschaffen. Diese Region soll eine horizontale Erweiterung der höheren Klasse „aircraft region“ auf einem tieferen Level ermöglichen. Wurden beispielsweise die Segmente eines Flügels nicht schon vorher der Klasse „aircraft region“ im Level 5 zugeordnet, so kann dies nun auf einem tieferen Level bestimmt werden. Dazu können spektrale Eigenschaften als klassenspezifische Merkmale verwendet werden. Zusätzlich müssen sich die Segmente jedoch auch in dem vorher definierten Wahrscheinlichkeitsraum befinden. Auf diese Weise können Gegenstände der Baustelle mit ähnlichen spektralen Eigen- schaften - wie beispielsweise denen eines Flugzeugflügels - eliminiert werden.

42

Page 55: Objekterkennung in QuickBird Daten mit „eCognition“

3. Objekterkennung in eCognition Projekten

Abb. 3.18: Visualisierung der Wahrscheinlichkeit des Vorhandenseins eines Flugzeuges auf Grund von „class related features“. Schwarze Segmente stellen Räume mit geringer Wahrscheinlichkeit dar, je heller, desto grösser ist die Wahrscheinlichkeit Schon mit wenigen Parametern („brightness“ und PAN-Spektralwert) kann die ursprüngliche „aircraft region“ des Levels 6 im Level 2 in drei weitere Klassen eingeteilt werden.

Abb. 3.19: Feinere Klassierung eines Airbus im Level 2 mit der dazugehörigen Legende Der abgebildete Airbus [Abb. 3.19] wurde bei dieser Klassierung schon gut als Objekt erkannt und konnte mit dem anliegenden Schat- ten klassiert werden. Dieses Objekt konnte aber schon bei der Seg- mentierung gut zusammengefasst werden, bei anderen Objekten, welche schon bei der Segmentierung durch schwache Kontraste oder Saturierung durch spekulare Reflektion Schwierigkeiten bereiteten, wird es nicht möglich sein, so schnell zu einem befriedigenden Resul- tat zu kommen. Als Nächstes wird nun versucht, mittels geeigneter Parameter und Operationen die einzelnen voneinander getrennten Segmente eines Objektes zu verbinden. Dabei werden die vorher erhaltenen Klassie- rungen erweitert.

43

Page 56: Objekterkennung in QuickBird Daten mit „eCognition“

3. Objekterkennung in eCognition Projekten

Abb. 3.20: Klassierung im Level 2 mit Hilfe vertikaler Beziehungen

Abb. 3.21: Erweiterte Klassierung mit neuer Klasse „L2 flaps/stabilizer“, welche mit Hilfe spektraler Parameter und horizontalen Beziehungen im gleichen Level (2) erzeugt wurde, mit der dazugehörigen Legende Die beiden oben dargestellten Beispiele zeigen auf, dass vor allem die Klassierung der hinteren Teile der Flugzeuge deutlich verbessert wer- den konnte. Die neue Klasse („L2 flaps/stabilizer“) wurde mit einem Spektralwert und Nachbarschaftsbeziehungen im gleichen Level zur Klasse „L2 aircraft“ definiert. Der Rechenaufwand für diese Klassie- rung wird durch die „class related features“ erheblich angehoben, das Resultat hingegen ist befriedigend. Neu sind aber andere (oft metalli- sche) Gegenstände wie beispielsweise Tanklastwagen oder die Pas- sagierbrücken im Terminal B mitklassiert worden, da auch diese sich in räumlicher Nähe eines Flugzeuges befinden und gleichzeitig ähnli- che Spektraleigenschaften aufweisen. Diese Fehlklassifikationen kann in einem späteren Zeitpunkt wieder verbessert werden. Saturierte Ge- biete (Blendung durch spekulare Reflektion) konnten im Level 3 klassiert und im Level 2 der Klasse „L2 blend“ zugeordnet werden. Im weiteren konnten als Versuch zahlreiche herumstehende Gepäck- container der Klasse „L2 container“ zugeordnet werden. Die Treffer- quote bei dieser Klasse liegt jedoch bei etwa 70%, zu oft wurden mehrere Container in mehreren Segmenten zusammengefasst und wurden so der Klasse „L2 aircraft shadow“ zugeordnet oder aber nicht klassiert.

44

Page 57: Objekterkennung in QuickBird Daten mit „eCognition“

3. Objekterkennung in eCognition Projekten

Abb. 3.22: Vergleich zwischen der ursprünglichen „aircraft region“ im Level 6 (blaue Linie) mit der verbesserten Form im Level 1 (orange) Die Objekte konnten durch Beziehungen in der gleichen horizontalen Ebene deutlich verbessert werden.

3.3.5 Durchführung der „classification-based segmentation“ Die bisherige Klassierung erlaubt es, die entstandenen Klassen zu Gruppen zusammenzufassen, welche zusammen ein Objekt umfas- sen. Es werden nun alle Klassen, welche zu einem Flugzeug gehören zusammen zur Gruppe „aircraft area“ zusammengefasst und auf den tiefsten Level weitervererbt. In diesem Level wird dann der ganze Szenenausschnitt in zwei Klassen eingeteilt: In der [Abb. 3.22] er- scheinen diese als „aircraft“ (orange) und „rest“ (hellgrau), sie sind jedoch noch in sehr feine Segmente unterteilt (weisse Trennlinien). Diese feinen Segmente sollen nun zu einem grossen Segment vereint werden. Dieses Vorgehen soll die endgültige Klassierung verschiede- ner Flugzeuge auf Grund ihrer geometrischen Eigenschaften ermögli- chen, da diese jetzt als zusammengefasste Einzelobjekte mit ihren Eigenschaften („features“) weiterverwendet werden können. Für dieses Vorgehen müssen die betreffenden Klassen in „structure groups“ zusammengefasst werden und anschliessend sämtliche höheren Level gelöscht werden, da auf Grund der Objekthierarchie eine „classification-based segmentation“ nur durchgeführt werden kann, wenn sich darüber kein weiterer Level befindet. Das Projekt kann nun unter einem neuen Namen gespeichert werden, anschlies- send wird die „classification-based segmentation“ durchgeführt. Der entstehende Level beinhaltet noch kleinere Segmente, welche auf eine falsche Klassifikation zu einem früheren Zeitpunkt zurück- zuführen ist. Diese Segmente können alle auf Grund ihrer geringen räumlichen Ausdehnung erfasst und bei einer neuen Klassierung ausgeschieden werden. Anschliessend wird erneut eine „classifi- cation-based segmentation“ durchgeführt. Damit kann das erwünschte Resultat erzielt werden.

45

Page 58: Objekterkennung in QuickBird Daten mit „eCognition“

3. Objekterkennung in eCognition Projekten

Abb. 3.23: Nach der „classification-based segmentation“ entstandene Segmente (rot) Das in [Abb. 3.23] abgebildete Resultat der „classification-based segmentation“ lässt erahnen, dass die weitere Klassierung in ver- schiedene Flugzeugtypen nun nicht mehr allzu schwierig werden soll- te. Die neuen Segmente stimmen mit wenigen Ausnahmen gut mit dem Umriss der Flugzeuge überein. Zwei Flugzeugtypen bilden je- doch die Ausnahme: Die Embraer 145, welche sich im nördlichen Teil der Szene befinden, werden jeweils ohne ihr Höhenleitwerk als Objekt erfasst:

Abb. 3.24: Segmentbildung bei den kleineren Flugzeugen des nördlichen Vorfelds. Embraer 145 befinden sich ganz links, in der Mitte und rechts (3 Flugzeuge)

46

Page 59: Objekterkennung in QuickBird Daten mit „eCognition“

3. Objekterkennung in eCognition Projekten

Da dieses Problem jedoch bei allen Flugzeugen dieses Typs auftritt, kann diese Eigenschaft zur weiteren Klassierung weiterverwendet werden. Als zweites fallen die Boeing 737 beim südlichen Terminal (Terminal B, Standplätze B38/B39) auf.

Abb. 3.25: Segmentbildung bei den Boeing 737 des südlichen Terminals (B38/B39) Bei diesen zwei Objekten konnte der jeweils südliche Flügel auf Grund der Beleuchtungsverhältnisse bei der Segmentierung nicht gut erfasst werden. Die Segmente konnten anschliessend nicht für Ein- grenzung der Flugzeuggeometrie weiterverwendet werden, was die entstandenen zusammengefassten Segmente erklären sollte. Trotz- dem konnte dieser Flugzeugtyp klassiert werden.

3.3.6 Durchführung der Klassifikation einzelner Flugzeugtypen Die Segmente des obersten Levels (3) können nun in verschiedene Klassen eingeteilt werden. Auf Grund von verschiedenen geometri- schen Eigenschaften, welche als „membership functions“ definiert werden, können diese Klassen bestimmt werden. Grundsätzlich habe ich sämtliche (10) Flugzeugtypen in 7 verschiedene Klassen zusam- mengefasst. Eine weitere Unterteilung wäre grundsätzlich möglich, der Benutzer müsste jedoch bei sehr ähnlichen Flugzeugen (z. B. Boeing 757 und Airbus 321) mit einer ausführlichen Parametrisierung und viel Fachwissen nachhelfen. Gegebenenfalls könnte auch vermehrt mit Spektraleigenschaften gearbeitet werden. Grundsätzlich kann aber gesagt werden, dass in jedem Fall eine saubere Ein- grenzung der Geometrie der Objekte viel zum Erfolg der Klassifikation beiträgt. Weitere Klassen könnten noch hinzugefügt und ebenfalls auf Grund geometrischer Parameter unterschieden werden (z. B. Boeing MD-80), der Szenenausschnitt beinhaltet jedoch keine weiteren Objekte. Folgende Klassen wurden gebildet:

47

Page 60: Objekterkennung in QuickBird Daten mit „eCognition“

3. Objekterkennung in eCognition Projekten

Type Flugzeugtyp(en) Verwendete Parameter zur Klassierung 1 Boeing 747

(Jumbo) Fläche

2 Boeing MD-11 Fläche und “compactness” (Formparameter)3 Airbus 330

Boeing 777/767 Fläche und “not type 2”

4 Airbus 319 - 321Boeing 757

Fläche

5 Avro RJ 85/100 Boeing 737

Fläche, Formindex und Formasymmetrie

6 Embraer RJ 145 Fläche und Umrisslänge des Segments 7 Saab 2000 Fläche und “not type 6” Tab. 3.5: Parameter für die Klassierung der Szene Zürich Flughafen Der Tabelle kann entnommen werden, dass zur Klassierung aus- schliesslich Formparameter benutzt wurden. Die Flächengrösse der Segmente spielt hierbei eine zentrale Rolle. Da die einzelnen Segmente jeweils ziemlich genau mit dem Umriss der Flugzeuge übereinstimmen, ist es ein leichtes Unterfangen diese zu ermitteln und als Parameter weiterzuverwenden. Überschneiden sich jedoch die Flächenbereiche zweier Klassen, so muss diese durch einen zu- sätzlichen Parameter unterschieden werden. Im Falle der zwei kleinsten Flugzeugtypen kann diese Vorgehensweise verdeutlicht werden.

Abb. 3.26: Darstellung eines Embraer 145 (links) und eines Saab 2000 (rechts) Da sich die Klasse „Embraer 145“ (grün) flächenmässig kaum von der Klasse „Saab 2000“ (blau) unterscheidet [vgl. Abb. 3.26], konnte zu- sätzlich die rot eingezeichnete Grenzlinie der einzelnen Segmente als Parameter für die Klassierung verwendet werden. Da bei sämtlichen Saab 2000 der Szene die zwei Propellertriebwerke jeweils in die Segmentbildung miteinbezogen werden konnten, ergibt sich eine bedeutend grössere Grenzlinie als bei den Embraern.

48

Page 61: Objekterkennung in QuickBird Daten mit „eCognition“

3. Objekterkennung in eCognition Projekten

3.3.7 Resultat der Klassifikation

Abb. 3.27: Darstellung aller verschiedenen Klassen

3.3.8 Diskussion der Ergebnisse Sämtliche Flugzeuge konnten - nach aufwendiger Vorarbeit - relativ einfach einer Klasse zugeordnet werden. Die Schwierigkeit des Vor- gehens ist in der Klassierung in den hierarchisch tiefen Level zu su- chen. Ähnlich wie bei den vorherigen Beispielen von Dübendorf ist die Segmentbildung in kontrastarmen Regionen ein Hauptproblem. Im Beispiel des Flughafens Zürich tritt dieses Problem jeweils bei den Flügelwurzeln und dem Höhenleitwerk der Flugzeuge auf. Deren Schatten ist unter anderem auf die Aufnahmezeit der Szene zurück- zuführen, denn die Datenaufnahme von QuickBird findet frühmorgens statt und die Bilder beinhalten grosse Schlagschatten. Die Flügel- wurzeln erhalten den Schlagschatten vom Rumpf, die Höhenleitwerke vom Seitensteuer (Schwanzflosse). Diese kontrastarmen Segmente konnten während des Projektes nur unter grossem Aufwand gebildet und klassiert werden. Als Lösung des Problems musste im Level 2 die Klasse „L2 manual connection“ gebildet werden, mit welcher - unter geringem Aufwand - einzelne nicht klassierte kontrastarme Segmente der Flugzeugstruktur zugeordnet werden konnten. Aus diesem Grund konnte die Klassierung mit einem befriedigenden Resultat weiter- geführt werden. Eine weitere Möglichkeit wäre ein manueller Eingriff an einzelnen Segmenten gewesen. Bei einem Level mit entsprechend feiner Auf- lösung könnten einzelne Segmente mittels „manual object fusion“ ver- bunden werden und würden auf diese Weise genauer dem gesuchten

49

Page 62: Objekterkennung in QuickBird Daten mit „eCognition“

3. Objekterkennung in eCognition Projekten

Objekt angepasst. Ebenso kann mit „manual object cut“ ein Segment zerlegt werden. Damit könnten sehr einfach z. B. angedockte Tank- lastwagen oder Passagierbrücken vom Flugzeugsegment abgetrennt werden. Die manuell editierten Segmente können dem Objekt genauer angepasst werden, was eine noch genauere Klassierung er- möglichen würde. Dieses Vorgehen gleicht jedoch beinahe dem manuellen Digitalisieren und ich habe in dieser Arbeit bewusst auf solche manuelle Eingriffe verzichtet. Ein weiteres Problem liegt in der Eingrenzung der „area of interest“. Möchte man die oben beschriebene Vorgehensweise auf eine be- liebige andere Szene anwenden, so kann diese grundsätzlich über- nommen werden. Eine Ausnahme bildet jedoch die Vorausscheidung der Interessensgebiete. Dieses Vorgehen muss für jede Szene neu definiert werden. Beim Beispiel vom Flughafen Zürich habe ich diesen Schritt mit Hilfe einer aufwendigen und zeitraubenden Klassierung durchgeführt. Es wäre jedoch auch möglich - im Sinne einer Vorverarbeitung - diese Regionen durch einen vorgängig erstellten thematischen Layer zu bestimmen. Dieser „thematic layer“ könnte zusätzlich in die Segmentierung miteinbezogen werden, was die weitere Klassierung vereinfachen würde.

50

Page 63: Objekterkennung in QuickBird Daten mit „eCognition“

3. Objekterkennung in eCognition Projekten

3.4 Objekterkennung in weiteren Szenen

3.4.1 Szene „Tucson“, Arizona

3.4.1.1 Bildausschnitt

Abb. 3.28: Bildausschnitt aus der verwendeten Szene Tucson, AZ Dieser Bildausschnitt zeigt die Davis-Monthan Air Force Base in Tuc- son, Arizona, welche auch unter dem Namen „Boneyard“ in der Litera- tur erscheint. Hier werden ausgediente Flugzeuge verschiedenster Bauart zwischen- und endgelagert. Das aride Klima der Wüste von Arizona stellt eine ideale Umgebung für die Konservierung solcher Objekte dar, da sich auf Grund der extremen Trockenheit praktisch kein Rost ansetzt und diese auch nach vielen Jahren ohne grossen Aufwand wieder flugtüchtig gemacht werden können. Die Daten- aufnahme erfolgte am 11. August 2002 durch QuickBird und weist demzufolge ursprünglich ähnliche Eigenschaften wie die schon ver- wendete Szene vom Flughafen Zürich auf. Die Auflösung beträgt demnach ca. 61 cm im PAN-Bereich und 2.5 m im Multispektral-Bereich. Beim verwendeten Beispiel handelt es sich aber nicht um die Originalszene, sondern um ein „sample“ von der DigitalGlobe Home- page (http://digitalglobe.com/gallery), welches im Jpeg-Format allen

51

Page 64: Objekterkennung in QuickBird Daten mit „eCognition“

3. Objekterkennung in eCognition Projekten

Internetbenutzern zugänglich ist und mit Hilfe eines Graphik- programms in drei Kanäle (RGB) aufgeteilt wurde. Als Unterschied fällt auf, dass auf Grund der tieferen geographischen Breite gegenüber der Szene vom Flughafen Zürich deutlich weniger Schlagschatten auftreten, was eine Objekterkennung vereinfachen sollte. Ich erwarte, dass die bei der Szene Flughafen Zürich auf- getretenen Probleme bezüglich Schlagschatten und Inhomogenität bei der Tucson-Szene weniger in Erscheinung treten werden und so die Segmentierung weniger negativ beeinflussen sollten.

3.4.1.2 Der Ansatz Bei dieser Szene wurde der gleiche Ansatz verwendet, welcher schon im Szenenausschnitt des Flughafens von Zürich zur Anwendung kam. Damit soll unter anderem auch aufgezeigt werden, dass die gewählte Vorgehensweise auch auf andere Szenen ihre Anwendung finden kann. Diverse Versuche mit dem „nearest neigbor“-Verfahren haben die Eingrenzung der „area of interest“ nicht vereinfacht, darum wurde auch bei diesem Beispiel auf diese Methode verzichtet. Die ersten Klassierungen wurden ohne Hilfe von Testregionen (samples) durch- geführt.

3.4.1.3 Durchführung der Segmentierung Es wurden insgesamt fünf Segmentierungen in verschiedenen Auflö- sungen durchgeführt. Dieses Vorgehen ergibt fünf Segmentierungs- ebenen (Levels). Die Segmentierungen wurden nach folgendem Schema durchgeführt:

Benutzter Kanal und Gewichtung Level Scale parameter Blue Green Red

5 40 1 1 5 4 30 1 1 5 3 20 1 1 5 2 10 1 1 5 1 5 1 1 5 Tab. 3.6: Parameter für die Segmentierung der Szene Tucson, Arizona Der Grund der hohen Gewichtung des roten Kanals ist in der Erkenn- barkeit dunkler Objekte zu suchen. Diese heben sich im roten Kanal am besten von ihrer Umgebung ab und dessen starke Gewichtung wirkt sich positiv auf die Bildung der Objektprimitiven aus. Die Objekt- grenzen stimmen nach der Segmentierung besser mit den gesuchten Objekten überein. Das Farbkriterium wurde gegenüber dem Form- kriterium maximal gewertet (0.9), was die Segmentierung verbesserte.

3.4.1.4 Durchführung der ersten Klassifikation Während bei der Szene „Zürich Flughafen“ die Inhomogenität des Bil- des ein Problem darstellte, bereiten hier dunkle Objekte die meisten Schwierigkeiten. Sie unterscheiden sich nur unwesentlich von an- deren dunklen Stellen der Szene, wie beispielsweise Strassen,

52

Page 65: Objekterkennung in QuickBird Daten mit „eCognition“

3. Objekterkennung in eCognition Projekten

Wegen und Containern. Aus diesem Grund konnten diese Objekte auch mit der „nearest neighbor“ Methode nicht besser erfasst werden, da sich die diversen Wertebereiche der (dunklen) Klassen zu stark überschnitten. Die erste Klassifikation wurde mit Hilfe von spektralen Eigenschaften durchgeführt. Auf allen Auflösungsstufen (Levels) wurde experimen- tiert, die befriedigendste Lösung ergab die starke Gewichtung der ro- ten und blauen Kanäle, sowie des „vertikalen“ Bezugs zu einem über- geordneten Level, analog zum Beispiel „aircraft region“ vom Zürcher Flughafen.

Abb. 3.29: Darstellung der „aircraft region“ (rot) im Level 5 Mit diesem Verfahren kann erneut viel von der Umgebung ausge- schlossen werden und eine „area of interest“ definiert werden, auf welche die spätere Klassierung Bezug nehmen wird Für die Klassierung im tiefsten Level wurden vier Klassen erstellt. Die Klassen „L2 road“ und „L2 rest“ umfassen die hellen (rest: Boden) und dunklen (road: Schatten, Strassen und Container) Teile der Objekt- umgebung. Die Klasse „L2 dark aircraft“ umfasst dunkle Flugzeuge und teilweise auch die unmittelbare Umgebung von hellen Objekten (Schatten), die Klasse „L2 bright aircraft“ alle hellen Objekte. Die hel- len Flugzeuge waren erwartungsgemäss einfach zu erkennen und konnten mit wenigen Parametern klassiert werden. Die zwei flugzeug- spezifischen Klassen (dark/bright aircraft) wurden zusammen in der Klasse „L2 aircraft region“ gruppiert. Diese wird später in die untersten Level weitervererbt wo die Objekte noch besser abgegrenzt werden können.

53

Page 66: Objekterkennung in QuickBird Daten mit „eCognition“

3. Objekterkennung in eCognition Projekten

Abb. 3.30: Darstellung der ersten Klassifikation mit der dazugehörigen Legende Wie aus dem Resultat [vgl. Abb. 3.30]) ersichtlich wird, stimmen die Klassen mit den Objekten noch nicht genau überein. Eine leichte Verbesserung konnte im tiefsten Level mit der grössten Auflösung erreicht werden [Abb. 3.31]).

Abb. 3.31: Darstellung Klasse „L1 dark aircraft“ (dunkelblau) und „L1 bright aircraft“ (hellblau) im Level 1 Drei der insgesamt 87 Objekte konnten auf Grund ihrer spektralen Eigenschaften nicht erfasst werden. Auch andere Parameter (Formpa- rameter o. Ä.) erbrachten nicht den erwünschten Erfolg. Diese drei Objekte müssten allenfalls später manuell hinzugefügt und einer Klas- se zugewiesen werden.

3.4.1.5 Durchführung der „classification-based segmentation“ Die Klasse „L1 aircraft“, welche die gruppierte Zusammenfassung der zwei flugzeugspezifischen Klassen darstellt, wird in einer „structure group“ zusammengefasst. Anschliessend müssen sämtliche höheren Level gelöscht werden und dann kann die „classification-based seg- mentation“ durchgeführt werden. Die feinen Segmente der gleichen „structure group“ werden nun zu einem Objekt zusammengefasst und das Ergebnis erscheint in einem neuen übergeordneten Level.

54

Page 67: Objekterkennung in QuickBird Daten mit „eCognition“

3. Objekterkennung in eCognition Projekten

3.4.1.6 Durchführung der Klassifikation einzelner Flugzeugtypen Die Klassifikation findet ausschliesslich über die Formparameter der einzelnen Segmente statt. Die falsch klassierten Segmente des tiefsten Levels werden auf Grund ihrer geringen räumlichen Aus- dehnung und ihres - im Vergleich zu den Flugzeugen - anderen Län- gen/Breitenverhältnisses eliminiert. Danach konnten insgesamt 24 verschiedene Flugzeugklassen gebildet werden. Da abgesehen von den viermotorigen Propellerflugzeugen (P3-Orion) fast jedes Flugzeug nur ein- bis dreimal auftritt, muss fast jedes Objekt einzeln para- metrisiert werden.

3.4.1.7 Resultat der Klassifikation

Abb. 3.32: Ausschnitt aus der klassierten Tucson-Szene mit der dazugehörigen Legende

3.4.1.8 Diskussion der Ergebnisse Der Ansatz der Szene „Flughafen Zürich“ kann auch auf diese Szene angewendet werden, die Definition einer „area of interest“ stellt jedoch auch hier ein Hauptproblem dar. Es ist hinzuzufügen, dass - im Ge- gensatz zu allen bisher untersuchten Szenen - nur drei Kanäle zur Verfügung stehen. Ein separater NIR Kanal hätte zu einer besseren Unterscheidbarkeit beitragen können, da die metallischen Komponen- ten der Flugzeuge gegenüber dem trockenen Wüstenboden ein an-

55

Page 68: Objekterkennung in QuickBird Daten mit „eCognition“

3. Objekterkennung in eCognition Projekten

deres Reflektionsverhalten aufweisen und die spektralen Unter- schiede in dieser Bandbreite demzufolge signifikanter sein sollten, was wiederum eine Objekterkennung begünstigen würde. Auch sind viele der Objekte mit einer Tarnfarbe versehen, was eine Abgrenzung gegenüber dem Hintergrund im sichtbaren Bereich enorm erschwert.

Abb. 3.33: Das zweite Flugzeug von rechts wurde nicht erkannt, die Klassierung muss anschliessend manuell durchgeführt werden Allgemein kann festgehalten werden, dass - im Vergleich zu den Beispielen von Kloten und Dübendorf - die Objekte viel ungenauer erfasst werden konnten. Dunkle Objekte wurden oft sehr schlecht er- fasst und das erzeugte Segment stimmt nur teilweise mit dem Objekt überein.

Abb. 3.34: Vergleich gut erfasster Objekte (links) mit schwierigen Klassierungen bei dunklen Objekten (rechts) Da sich in dieser Szene sehr viele unterschiedliche Einzelobjekte be- finden, konnte die Klassierung jedoch trotzt schlechter Erfassung durchgeführt werden, da für jede Klasse die Parameter neu definiert werden müssen und so eine genaue Abgrenzung gegenüber dem Hintergrund nicht zwingend Voraussetzung ist. Kommen Objekte je- doch mehrmals vor, so ist es unumgänglich, diese so kongruent wie möglich zu erfassen um sämtliche Objekte dieser Klasse mit wenigen Parametern beschreiben zu können. Dies ist im Falle der P3-Orion (blaue Flugzeuge in der linken Abbildung [Abb. 3.34]) gut gelungen. Die spektralen Eigenschaften dieser Objekte haben diese Klassierung vereinfacht. Vom gleichen Flugzeugtyp wurden drei verschiedene Farbanstriche (grau, weiss, orange) der richtigen Klasse zugewiesen, dies einzig auf Grund der übereinstimmenden Formparameter.

56

Page 69: Objekterkennung in QuickBird Daten mit „eCognition“

3. Objekterkennung in eCognition Projekten

Eine qualitative Verbesserung der Objekterfassung kann durch einen anderen Ansatz erreicht werden: eCognition (Version 3) erlaubt grundsätzlich auf drei verschiedene Ar- ten den manuellen Eingriff (ausserhalb der Parametrisierung der Segmentierung) in Segmentbildung und Klassierung („manual editing of image objects“):

• “Manual object fusion” • “Manual classification“ • “Manual object cut”

Bei der manuellen Klassifikation werden einzelne Segmente einer bestimmten Klasse zugewiesen. Dieses Verfahren wurde bereits bei der Zürich-Szene für die Klasse „L2 manual connection“ angewendet und dort beschrieben [3.3.8: Diskussion der Ergebnisse]. Dieses Ver- fahren ist vor allem sinnvoll, wenn wenige Segmente manuell klassiert werden müssen, der grösste Teil der Objektprimitiven jedoch mit den entsprechenden „features“ beschrieben werden und so automatisch klassiert werden kann. Das manuelle Fusionieren von Objekten erlaubt es, benachbarte Segmente in ein neues zusammenzufassen. Dieses Verfahren kann auf Grund des hierarchischen Aufbaus jedoch nur angewendet werden, wenn das entstehende Objekt nicht zwei übergeordnete „super-objects“ aufweist. Diese Tatsache limitiert die Möglichkeiten für das manuelle Fusionieren von Objekten, da zwei benachbarte Objekte nicht zusammengefasst werden können, wenn sie zwei verschie- denen „super-objects“ angehören [Definiens, 2003]. Selbstverständ- lich können (analog der Anwendung der „classification-based seg- mentation“ bei der Szene vom Flughafen Zürich) die übergeordneten Ebenen gelöscht werden um dieses Problem zu umgehen. Auf diese Variante kann jedoch nicht immer zurückgegriffen werden, da die darin enthaltenen Daten eventuell noch für eine Klassierung weiter- verwendet werden, wie etwa bei der Verwendung von „class related features“ mit Bezug zu übergeordneten Ebenen (z. B. „relations to super-object“). Stimmen die Segmente auch nach der Fusion noch nicht mit dem Objekt überein, können die einzelnen Segmente zertrennt und neu fusioniert werden. Auf diese Weise kann ein Objekt pixelgenau erfasst werden, ein grosser manueller Eingriff ist jedoch notwendig. Die [Abb. 3.35] zeigt die verschiedenen Schritte vom „ursprünglichen Ansatz“ bis zur manuellen Neugestaltung der einzelnen Segmente.

57

Page 70: Objekterkennung in QuickBird Daten mit „eCognition“

3. Objekterkennung in eCognition Projekten

Abb. 3.35: Verbesserung der Segmente mit Hilfe der manuellen Fusion einzelner unklassierter Segmente zu einem objektumfassenden Segment (Mitte) und der Anpassung und Neugestaltung einzelner Segmente mittels „manual object cut“ (rechts) Je genauer ein Objekt erfasst wird, desto genauer kann die anschlies- sende Klassierung erfolgen. Einzelne Klassen können auf Grund fei- nerer Unterschiede besser definiert werden, das gebildete Segment widerspiegelt mit seinen geometrischen Parametern die Charakteristik des Objekts genauer. Da bei dieser Szene – wie schon beschrieben – einzelne Objekte nur einmal auftreten war es nicht nötig, sämtliche Objekte genau zu erfassen, da die Klassierung auch ohne manuelles Editieren der Segmente erfolgen konnte.

3.4.2 Szene „Vancouver Airport“, Kanada

3.4.2.1 Bildausschnitt

Abb. 3.36: Gesamtübersicht der Szene Vancouver Airport, Kanada (mit rot markiertem Bildausschnitt)

58

Page 71: Objekterkennung in QuickBird Daten mit „eCognition“

3. Objekterkennung in eCognition Projekten

Abb. 3.37: Bildausschnitt der Szene Vancouver Airport, Bereich „main terminal, apron 6“ Diese Szene beinhaltet den „Vancouver International Airport“. Die Da- tenaufnahme erfolgte am 29. Oktober 2002 durch den Satelliten IKONOS von Space Imaging, einer US-amerikanischen Firma. Dieser Satellit ist wie QuickBird ein kommerzieller Erderkundungssatellit mit hoher räumlicher Auflösung (von ungefähr einem Meter). Stefania Fur- lan hat sich in ihrer Diplomarbeit „IKONOS und Oberflächenmodelle: Synergien hochauflösender Daten für Walduntersuchungen“ intensiv mit IKONOS-Daten beschäftigt und darin auch den Sensor genauer beschrieben [Furlan, S., 2002]. Die verwendete Szene befindet sich auf der Space Imaging Homepage (http://www.spaceimaging.com) und ist im Jpeg-Format der Öffentlichkeit zugänglich. Nach dem Download wurde diese Szene wie im vorherigen Beispiel von Tucson in drei Kanäle aufgeteilt und in ein eCognition-Projekt importiert. Die Szene beinhaltet eine sehr grosse Anzahl von Objekten und im Ge- gensatz zum Beispiel von Zürich besteht der Datensatz aus dem ganzen Flughafenareal, nicht nur aus einem Ausschnitt des Vorfeldes. Wie in Zürich ist dieses Projekt von der hohen geographische Breite (49° 11’ N) und der damit verbundenen Beleuchtungscharakteristik geprägt. Die Schlagschattenproblematik fällt beim Betrachten des Bildausschnittes sofort auf. Ähnliche Probleme wie bei der Szene vom Flughafen Zürich können erwartet werden. Zusätzlich wurde diese Szene mit einem grösseren off-Nadir Winkel aufgenommen, was eine grundrissgetreue Erfassung hoher Objekte (die Heckflosse eines Grossraumflugzeuges kann sich bis 20 m über den Boden erstrecken) verunmöglicht.

59

Page 72: Objekterkennung in QuickBird Daten mit „eCognition“

3. Objekterkennung in eCognition Projekten

3.4.2.2 Der Ansatz Auch bei dieser Szene wurde versuchsweise der gleiche Ansatz ver- wendet, welcher schon in der Szene vom Flughafen Zürich verwendet wurde. Da bei diesem Projekt auf Grund der schwierigen Beleuch- tungsverhältnisse und der geringfügig kleineren Auflösung der IKO- NOS-Daten nur eine unvorteilhafte Segmentierung der Szene erzielt werden konnte, führte dieser Ansatz nicht zu der erwünschten Klas- sierung. Mit der „nearest neighbor“ Methode konnte keine Verbesse- rung erreicht werden.

3.4.2.3 Durchführung der Segmentierung

Benutzter Kanal und Gewichtung Level Scale parameter Blue Green Red

3 30 0 0 1 2 15 1 1 5 1 5 1 1 5 Tab. 3.7: Parameter für die Segmentierung der Szene Vancouver Airport, Kanada Da sich die Flugzeuge im roten Kanal am markantesten vom Hinter- grund abheben wurde dieser Kanal entsprechend stärker gewichtet. Mit der Segmentierung dieser Szene konnte der gewünschte Effekt - die Objekt zu erfassen - nicht erreicht werden.

3.4.2.4 Diskussion der Ergebnisse Bei dem Versuch, diese Szene zu klassieren stösst die Kombination hochauflösender Fernerkundungsdaten mit eCognition an ihre Gren- zen. Eine automatische Durchführung der Objekterkennung ist nicht möglich, die Segmentierung müsste unter enormem Aufwand nach- träglich editiert werden (vgl. Beispiel Tucson, [3.4.1.8: „Diskussion der Ergebnisse“]: „manual editing of image objects“). Könnten in eCogni- tion Interessensgebiete benutzerfreundlich ausmaskiert werden, so würde dieses Vorgehen um einen grossen Faktor beschleunigt. Trotz- dem müssten die einzelnen Segmente mit grossem Aufwand dem Objekt angepasst werden um eine Klassierung zu ermöglichen. Die aufgetretenen Schwierigkeiten sind nur geringfügig auf die gerin- gere räumliche Auflösung von IKONOS gegenüber QuickBird zurück- zuführen. Die Charakteristik dieser Szene spielt eine massgebendere Rolle.

60

Page 73: Objekterkennung in QuickBird Daten mit „eCognition“

3. Objekterkennung in eCognition Projekten

Abb. 3.38: Segmentbildung in der Szene Vancouver Airport mit rot eingezeichneten problematischen Zonen bezüglich Schlagschatten und Segmentierung Der Bildausschnitt [Abb. 3.38] zeigt folgende Problemkreise auf:

• Schlagschatten: Diese treten vor allem bei den Flügelwurzeln und beim Höhen- ruder am Heck auf. Die hellen Flugzeugteile werden bei der Seg- mentierung durch die dunkleren Teile vom Rest des Flugzeuges abgetrennt, was eine problematische Ausgangslage für den wei- teren Verlauf der Klassierung ergibt. Da sich der Schatten jeweils über die ganze Flugzeuglänge erstreckt erweist es sich als schwierig, diese verschiedenen Segmente richtig zu klassieren, da auch mit „Wahrscheinlichkeitsräumen“ (vgl. Beispiel „Flugha- fen Zürich“, [Abb. 3.18]) auf Grund der grossen Anzahl Objekte nur mit erheblichen Schwierigkeiten gearbeitet werden kann. Eine „area of interest“ kann in dieser Szene nicht mit der ähnlichen Präzision der Szene „Zürich Flughafen“ definiert werden.

• Off-Nadir Aufnahme: Bei der Betrachtung der Heckflosse des unteren Flugzeuges in [Abb. 3.38] fällt die aufnahmebedingte Radialverzerrung des Bil- des auf. Können die Objekte genau erfasst werden, dann führen diese Verzerrungen zur Veränderung des „Grundrisses“ des Ob- jektes und bereiten bei der Klassierung Schwierigkeiten. Dieses Problem ist jedoch als hintergründig zu betrachten, da das Bei- spiel des Flughafen Zürich gezeigt hat, dass eine gute Klassie- rung auch bei leicht abgeänderten Geometrieparametern (kleine

61

Page 74: Objekterkennung in QuickBird Daten mit „eCognition“

3. Objekterkennung in eCognition Projekten

Ungenauigkeiten bei der Erfassung der Objekte) trotzdem mög- lich ist. Eine extreme Form dieser Problematik wird mit der [Abb. 3.39] ersichtlich. Nehmen Radialverzerrungen bei hohen Objek- ten solche Formen an, ist eine Objekterkennung mit dem ange- wandten Ansatz nicht möglich. Aufnahmen für Orthophotos mit QuickBird („DigitalGlobe Orthoimagery“) finden typischerweise mit einem off-Nadir-Winkel von weniger als 5° statt [Nale, D., 2002].

Abb. 3.39: Beispiel einer extremen off-Nadir-Aufnahme von San Francisco mit einem off-Nadir-Winkel von 42° [Eurimage, 2003]

• Passagierbrücken und angedockte Fahrzeuge:

Diese Objekte treten mit ähnlichen Eigenschaften wie die der Flugzeugrümpfe in Erscheinung (Spektrum und Textur). Darum lassen sie sich bei der Segmentierung nur bei kleinen „scale parameter“ und ausgeprägtem Schlagschatten vom Rumpf trennen. Dieser Schwierigkeit kann nur schwer mit „class related features“ (wie im Beispiel vom Flughafen Zürich) entgegen- getreten werden. Eine grössere spektrale Auflösung - welche in der Originalszene vorhanden wäre - könnte hier ihren Beitrag zur Unterscheidbarkeit verschiedener Klassen machen.

• Räumliche Ausdehnung der Szene: Vergleichen wir die Szene „Vancouver“ mit den vorgängig klas- sierten Szenen, so fällt auf, dass sie eine bedeutend grössere räumliche Ausdehnung aufweist. Eine diesbezügliche Einschrän- kung (Definition eines „subset“) würde die Festlegung einer „area of interest“ - wie sie in den vorangegangenen Szenen durchge- führt wurde - enorm erleichtern. Da sich aber auf der ganzen Szene Interessensobjekte befinden, wurde der erwähnte Ansatz auf die ganze Szene angewandt. Dabei hat sich herausgestellt,

62

Page 75: Objekterkennung in QuickBird Daten mit „eCognition“

3. Objekterkennung in eCognition Projekten

dass diese Vorgehensweise bei inhomogenen Szenen von sol- cher Ausdehnung nicht zum Ziel führt. Eine benutzerfreundliche Maskierung der Interessensgebiete ändert jedoch nichts an der Schwierigkeit der Segmentierung dieser Szene.

3.4.3 Szene „Lingshui“, China

3.4.3.1 Bildausschnitt

Abb. 3.40: Bildausschnitt aus der verwendeten Szene Lingshui, China Diese Szene beinhaltet den Flugplatz „Lingshui“, welcher sich an der Südostküste der chinesischen Insel Hainan im südchinesischen Meer befindet. Die Datenaufnahme erfolgte am 10 April 2001 durch den Sa- telliten IKONOS von Space Imaging. Dieser Szenenausschnitt ent- stand im Zusammenhang mit einer Notlandung eines US-Flugzeuges im Anschluss an eine Kollision mit einem chinesischen Abfangjäger. Die verwendete Szene und eine Szene vom 4. April 2001 wurde im Internet der Öffentlichkeit im Jpeg-Format zugänglich gemacht (http://www.spaceimaging.com). Wie im Fall von Tucson treten bei dieser Szene auf Grund der tiefen geographischen Breite des Auf- nahmegebietes nur schwache Schlagschatten auf, was sich positiv auf die Segmentierung auswirkt. Die gegenüber QuickBird geringere räumliche Auflösung des Sensors wird jedoch bei den kleineren

63

Page 76: Objekterkennung in QuickBird Daten mit „eCognition“

3. Objekterkennung in eCognition Projekten

Objekten zu Schwierigkeiten führen, da sich diese nur unwesentlich vom Hintergrund unterscheiden. Auch dieses Projekt wurde aus einem Jpeg-Format erstellt, wobei das Gesamtbild erneut in drei Kanäle (RGB) aufgeteilt wurde. Wie beim Beispiel von Tucson kann darum nicht auf die spektralen Eigenschaften aller IKONOS-Kanäle zugegriffen werden.

Abb. 3.41: Detailansicht aus der Szene Lingshui, China, Ausschnitt ca. 50m x 60m Die Detailansicht [Abb. 3.41] lässt erkennen, dass die Klassierung in den dunklen Regionen der Szene durch die ähnliche Umgebung er- schwert wird, die Segmentierung auf dem hellen Vorfeld hingegen wird ein befriedigendes Resultat liefern.

3.4.3.2 Der Ansatz Bei dieser Szene kommt derselbe Ansatz zur Anwendung, welcher bei den vorherigen Beispielen verwendet wurde. Es soll damit eine allge- meine Anwendung auf unterschiedliche Szenen untersucht werden.

3.4.3.3 Durchführung der Segmentierung

Benutzter Kanal und Gewichtung Level Scale parameter Blue Green Red

4 25 0 1 0 3 20 0 1 0 2 15 1 1 1 1 10 0 1 0 Tab. 3.8: Parameter für die Segmentierung der Szene Lingshui, China Das Hauptproblem der Bearbeitung dieser Szene stellt die optimale Segmentierung dar. Die Objekte variieren in Form, Farbe und Grösse. Zusätzlich befinden sie sich an unterschiedlichsten Stellen der Szene und erscheinen in unterschiedlichster Umgebung.

64

Page 77: Objekterkennung in QuickBird Daten mit „eCognition“

3. Objekterkennung in eCognition Projekten

Abb. 3.42: Die drei Bildausschnitte sollen aufzeigen, wie unterschiedlich die verschiedenen Objekte in Erscheinung treten Erwartungsgemäss konnten die grossen Objekte bei der Segmentie- rung gut erfasst werden, die kleineren Objekte konnten auch mit un- terschiedlichsten Kombinationen von Kanal, Farb- und Formparameter nicht befriedigend erfasst werden.

Abb. 3.43: Beim linken Beispiel konnten die Objekte bei der Segmentierung erfasst werden, das rechte Beispiel zeigt die Grenzen der Objekterfassung durch die Segmentierung deutlich auf Es wurden zahlreiche Versuche in verschiedenen Auflösungsebenen durchgeführt. Damit sollte die ideale Segmentierung für jeden Objekt- typ ermittelt werden. Kleine Objekte wie beispielsweise die „J-8 Finback“, welche eine Länge von 19 m und eine Breite von 10 m auf- weisen, konnten nicht erfasst werden. Das Hauptproblem war hierbei der Kontrast zum Rest der Szene. Diese Objekte hoben sich zuwenig stark vom Hintergrund ab. Ähnlich wie bei der Tucson-Szene erwies es sich als äusserst schwierig, die mit Tarnfarbe versehenen Objekte im sichtbaren Bereich gegenüber ihren mit Grünfläche umrahmten Standplätzen abzugrenzen.

3.4.3.4 Resultat der Klassifikation Auf Grund der Schwierigkeiten bei der Segmentierung konnte die Objekterkennung ohne manuellen Eingriff nur für die grössten vier Ob- jekte durchgeführt werden. Es handelt sich hierbei um grössere Trans- portflugzeuge (EP-3 Orion, Yunshu Y-8, IL-76 oder H-6), welche sich mit ihrer Länge von über 34 Metern und einer Spannweite von mehr

65

Page 78: Objekterkennung in QuickBird Daten mit „eCognition“

3. Objekterkennung in eCognition Projekten

als 30 Metern von den kleineren Objekten abheben. Zusätzlich sind diese Objekte nicht getarnt, unterscheiden sich also spektral gut vom Hintergrund, was eine Erkennung vereinfacht hat.

3.4.3.5 Diskussion der Ergebnisse Eine erfolgreiche Objekterkennung aller Objektgrössen ist in diesem Beispiel nur unter enormem manuellem Eingriff möglich. Analog zum Beispiel von Tucson kann die dort erwähnte Vorgehensweise („ma- nual object fusion”, „manual classification“ und “manual object cut“, vgl. [3.4.1.8]) angewendet werden. Auch bei diesem Beispiel stösst die Kombination hochauflösender Fernerkundungsdaten mit eCognition an ihre Grenzen. Hier ist die Aufnahmecharakteristik der Bildes weniger der entscheidende Faktor. Die geringere räumliche Auflösung und die fehlenden Möglichkeiten zur Eingrenzung von Interessensgebieten sind der limitierende Faktor. Die [Abb. 3.41, rechts] verdeutlicht diese Schlussfolgerung. Eine Klas- sierung von Objekten mit der Ausdehnung weniger Pixel ist in einer ähnlichen Umgebung – wie sie in dieser Szene vorkommt – ohne ma- nuellen Eingriff nicht möglich.

66

Page 79: Objekterkennung in QuickBird Daten mit „eCognition“

4. Schlussfolgerungen und Ausblick

4 Schlussfolgerungen und Ausblick

4.1 Der objektorientierte Ansatz von eCognition Der objektorientierte Ansatz von eCognition ist für die Erkennung von Objekten in hochauflösenden Fernerkundungsdaten ein geeignetes Mittel, welches gegenüber dem klassischen pixelorientierten Ansatz viele Vorteile aufweist. Bei sorgfältiger Segmentierung können Objek- te mit gutem Kontrast zu ihrem Hintergrund sehr gut erfasst und mit geringem Aufwand anhand weniger Parameter klassiert werden. Kann bei der Segmentierung ein Objekt nur ungenau erfasst werden, so muss zu einem späteren Zeitpunkt und mit Hilfe einer grossen Anzahl verschiedener Parameter (Form, Spektrum, Textur, u. Ä.) die Klassie- rung weitergeführt werden. Zusätzlich bieten die „class related fea- tures“ (klassenbezogene Merkmale) eine hervorragende Möglichkeit, Informationen von verschiedenen räumlichen Auflösungsebenen und ersten Klassierungsschritten in eine weitere Klassierung miteinzube- ziehen. Kann ein Objekt auf Grund seiner spektralen Eigenschaften oder störenden Effekten wie beispielsweise der Schlagschattenbil- dung oder der spekularen Reflektion der Objekte (blenden des Sen- sors) nicht erfasst werden, so können die bei der Segmentierung ent- standenen Polygone manuell editiert werden. Diese Methode sollte in jedem Fall eine Klassifikation unterschiedlicher Objektklassen er- möglichen, der manuelle Eingriff wurde jedoch in dieser Arbeit auf ein Minimum beschränkt. Im Gegensatz zu Wald- oder Landnutzungsklassierungen, wie sie bei [Furlan, S., 2002] und [Steiner, C., 2003] zur Anwendung gekommen sind, wurden bei dieser Arbeit die Klassierung mit „membership functions“ [vgl. 2.2.7.1] ohne „(standard) nearest neigbor“ Verfahren durchgeführt. Dies hatte zur Folge, dass die Parametrisierung über den „membership function dialog“ erfolgte. Eine auf Testregionen basierte automatische Generierung von multidimensionalen „mem- bership functions“, wie sie beim „nearest neigbor“ Verfahren [vgl. 2.2.7.2] stattfindet, ergab keine besseren Ergebnisse.

4.2 Grösse der Szene und Anzahl gesuchter Objekte Da für die Objekterkennung - im Gegensatz zu Wald- oder Land- nutzungsklassierungen - nicht zwingend die ganze Region flächen- deckend klassiert werden muss, treten mit zunehmender Grösse der Szene Schwierigkeiten auf, gesuchte Objekte vom Rest der Szene zu trennen, da die Anzahl der zu klassierenden ähnlichen Segmente zu gross wird. Konnte bei den beiden Beispielen vom Flugplatz Dübendorf eine Klassierung mit Hilfe weniger Parameter und dem Einsatz von „class related features“ durchgeführt werden, traten bei den Beispielen der Flughäfen von Zürich und Vancouver Probleme auf, da sich auf Grund des grossen Datensatzes zu viele flugzeugähnliche Segmente in der Szene befanden. Kann ein Interessensgebiet definiert werden, redu- ziert sich die Anzahl der in Frage kommenden Segmente um ein

67

Page 80: Objekterkennung in QuickBird Daten mit „eCognition“

4. Schlussfolgerungen und Ausblick

Vielfaches und erleichtert eine anschliessende Klassierung enorm. Die Abgrenzung eines Interessensgebietes kann auf verschiedene Arten erfolgen. Bei dem in dieser Diplomarbeit angewandten Ansatz habe ich versucht, in einem ersten Schritt jedes Objekt zu erfassen und in einer weiteren Klassierung jeweils einen Bezug zu diesen Objekten herzustellen, um die räumliche Nähe zum Flugzeug zu gewährleisten. Als weitere Methode zur Abgrenzung eines Interes- sensgebietes könnte während der Datenvorverarbeitung ein the- matischer Layer erstellt werden, welcher anschliessend als Maske ins Projekt integriert werden könnte. Dieses Vorgehen müsste jedoch ausserhalb von eCognition stattfinden, da dieses Programm in der aktuellen Version (Version 3) keine solche Möglichkeiten vorsieht. Eine Georeferenzierung dieses thematischen Layers und der Szene wäre für das Importieren jedoch eine Voraussetzung. Diese Vor- gehensweise beinhaltet gegenüber der beim Flughafen Zürich zur Anwendung gekommenen Methode einen erheblichen Mehraufwand. Als letzte Möglichkeit würde sich noch ein Aufteilen der Szene in kleine Teilszenen anbieten, dieses Vorgehen macht aber keinen Sinn, da die Klassierung nicht über verschiedene Projekte stattfinden kann und der Gesamtkontext verloren gehen würde. Für die Objekterkennung würde es sich anbieten, wenn eCognition um ein Maskierungsfeature erweitert würde. Ein benutzerfreundliches Ausscheiden von Interessensgebieten als Datenvorverarbeitung würde eine schnellere Klassierung ermöglichen, diverse Verarbei- tungsschritte würden dadurch wegfallen.

4.3 Ausblick [Schiewe, J. et al., 2001] kamen in ihrer Publikation „potential and problems of multi-scale segmentation methods in remote sensing“ zu folgendem Schluss: „With respect of the degree of automatization it has to be pointed out that important steps of the region-based method definitively imply time-consuming manual interactions:

• Firstly, during the segmentation process the choice of scale parameters as well as the setting of weights for the input data sources have to be done by the user.

• Secondly, in contrast to human analysis the segmentation has to produce a reasonable basis, so that the evaluation of the extracted regions implies a visual inspection.

• Thirdly, also the following fuzzification within the classification process is a costly process which is not automated.”

Die vom Expertenteam bemängelte Automation in eCognition ist meines Erachtens für die Fragestellung der Objekterkennung eher von zweitrangiger Bedeutung, da der Anwender sowohl bei der Seg- mentierung als auch bei der Klassierung viel Expertenwissen ins Projekt einbringen muss. Die zeitintensiven Interaktionen könnten je- doch durch gewisse Automatismen – wie beispielsweise dem auto- matischen Vorschlag zur Parametersetzung für die Segmentierung (z. B. mit diversen „previews“) – deutlich verringert werden. Auch

68

Page 81: Objekterkennung in QuickBird Daten mit „eCognition“

4. Schlussfolgerungen und Ausblick

wäre die benutzerfreundliche Eingrenzung von Interessensgebieten für die Objekterkennung in hochauflösenden Satellitendaten sehr zu begrüssen [vgl. 4.2]. Diese würden den Arbeitsaufwand enorm ver- ringern. Grundsätzlich muss festgehalten werden, dass die bearbeiteten Objekte von blossem Auge schneller erfasst und klassiert werden können, als mit dem Computer. Der objektorientierte Ansatz von eCognition eröffnet jedoch viele neue Möglichkeiten. Zukünftige An- wendungsbereiche sehe ich mit der zunehmenden Kommer- zialisierung hochaufgelöster Bilddaten vor allem in der thematischen Kartographie und GIS-Anwendungen. Objekte können auf diese Weise schnell erfasst werden, die Genauigkeit der Daten wird paral- lel zur Entwicklung der Sensoren sicherlich noch zunehmen. Die erkannten Objekte können in GIS-Datenbanken übernommen oder in denselben angepasst werden. Kann in Zukunft in der Vorgehens- weise eine grössere Automation erreicht werden, wird dieser Ansatz mit Sicherheit Anwendung finden. Die Datenkompatibilität vom Satellitenbetreiber bis zu den GIS-Softwarepaketen und eCognition muss hierbei gewährleistet werden.

69

Page 82: Objekterkennung in QuickBird Daten mit „eCognition“

5. Literaturverzeichnis

5 Literaturverzeichnis ALBERTZ, J. (2001): Einführung in die Fernerkundung. Wissenschaftliche Buchgesellschaft, Darmstadt ANTUNES, A. (2003): ANTUNES, A.F., C. LINGNAU & J. C. DA SILVA (2003): Object oriented analysis and semantic network for high resolution image classification. In: Anais XI SBSR, p 273 - 279, Belo Horizonte, Brasilien BAATZ, M & SCHÄPE, A (2000): Multiresolution Segmentation: an optimization approach for high quality multi-scale image segmentation. In: Symposium für Angewandte Geographische Informationsverarbeitung (AGIT), Salzburg http://www.agit.at/papers, (gesehen am 4.8.2003) BLASCHKE, T & STROBL, J (2001): What’s wrong with pixels? Some recent developments interfacing remote sensing and GIS. In: GIS 6/2001, Hüthig GmbH & Co. KG, Heidelberg CANADA CENTRE FOR REMOTE SENSING (2003): Website: http://www.ccrs.nrcan.gc.ca/ccrs/learn/tutorials/ (gesehen am 3.6.2003) DARWISH, A, LEUKERT, K & REINHARDT, W (2003): Image Segmentation for the Purpose Of Object-Based Classification. University of the Bundeswehr Mu-nich, Neubiberg DEFINIENS (2003): eCognition. Object Oriented Image Analysis. User Guide. Version 3, Definiens Imaging GmbH, München DE KOK, R. (2001): Objektorientierte Bildanalyse. (Ein Lösungsansatz für den automatisierten Einsatz sehr hoch auflösender Satellitendaten für forstliche Fragestellungen). Technische Universität München, München DEUTSCHES LUFT- UND RAUMFAHRTZENTRUM (DLR) (2003): Websites: http://www.dlr.de/, http://www.caf.dlr.de/, http://www.dlr.de/Oberpfaffenhofen (gesehen am 3.6.2003) DIGITALGLOBE (2003): Websites: http://www.digitalglobe.com/products/quickbird.shtml, (gesehen am 12.3.2003), http://digitalglobe.com/images/qb/tucson_boneyard_col08112_dg.jpg (gesehen am 4.6.2003) ESCH, T et al. (2003): Object-oriented classification of landsat-7 data for regional planning purposes. In: Carstens, J. (Ed.): Remote Sensing of Urban Areas 2003, p.50-55, Regensburg EURIMAGE (2003): Website: http://www.eurimage.com/Products/quickbird.html (gesehen am 4.2.2003)

70

Page 83: Objekterkennung in QuickBird Daten mit „eCognition“

5. Literaturverzeichnis

FORMAN, R (1995): Land mosaics. The ecology of landscapes and regions. Cambridge University Press, Cambridge FURLAN, S (2002): IKONOS und Oberflächenmodelle: Synergien hochauflösender Daten für Walduntersuchungen. Diplomarbeit, Geographisches Institut der Universität Zürich, Remote Sensing Laboratories (RSL), Zürich GOMES, A & MARCAL, A. (2003): Land Cover Revision through Object Based Supervised Classification of Aster Data. Paper for the ASPRS 2003 Annual Con-ference Proceedings (Anchorage, Alaska). Website: http://www.definiens-imaging.com/down/asprs0052.pdf (gesehen am 23.6.2003) GORTE, B (1998): Probabilistic Segmentation of Remotely Sensed Images. In: ITC Publication Series No. 63 HAARMANN, B. (2001): Untersuchung zur Verwendbarkeit der Software eCognition für Zwecke der CORINE Landnutzungs-Klassifikation. Diplomarbeit, Institut für Photogrammetrie und Ingenieurvermessung der Universität Hannover HOFFMANN, A. et al. (2000): Die Klassifizierung hochauflösender Daten – ein Per-Parcel-Ansatz mit Daten des digitalen Kamerasystems HRSC-A. In: Strobl, S. et al.: Angewandte Geographische Informationsverarbeitung XII, Wichmann Verlag: 228 – 237, Heidelberg HOFFMANN, A. et al. (2001): New Sensor systems and new Classification Methods: Laser- and Digital Camera-data meet object-oriented strategies. In: GIS 6/2001, Hüthig GmbH & Co. KG, Heidelberg HOFMANN, P. (2001): Detecting buildings and roads from IKONOS data using additional elevation information. In: GIS 6/2001, Hüthig GmbH & Co. KG, Heidelberg JANE’S (2003): Website: http://www.janes.com (gesehen am 5.6.2003) KELLENBERGER, T. Extracting forest inventory parameters with IKONOS, DEM and DSM data. Website: http://www.geo.unizh.ch/rsl/research/LACOMM/-ecognition (gesehen am 5.11.2003) KELLENBERGER, T. et al. (2003): Aufklären und Erkennen mit Satelliten, 2002-2003, Abschlussbericht Gruppe Rüstung (GR), Geographisches Institut der Universität Zürich, Remote Sensing Laboratories (RSL), Zürich LIDO FLIGHTSUPPORT, FLIGHTVIEWER (2003): Website: http://viewer.flightsupport.com/ (gesehen am 4.7.2003, Passwort erforderlich) LÖFFLER, E. (1994): Geographie und Fernerkundung. Teubner Studienbücher der Geographie, Stuttgart

71

Page 84: Objekterkennung in QuickBird Daten mit „eCognition“

5. Literaturverzeichnis

LUFTWAFFE (2003): MIL AIP, Airport Information der Schweizerischen Luftwaffe, Dübendorf NALE, D. (2002): QuickBird aerial product comparison prepared by Emap Inter-national for DigitalGlobe, the Nale report. Emap International, Reddick, Florida. NEUBERT, M. & G. MEINEL (2002): Segmentbasierte Auswertung von IKONOS-Daten. Anwendung der Bildanalyse-Software eCognition auf unterschiedliche Testgebiete. In: Blaschke, T. (Hrsg.): GIS und Fernerkundung: Neue Sensoren . Innovative Methoden. Wichmann Verlag: 108-117, Heidelberg PCI GEOMATICS (2003): Website: http://www.pcigeomatics.com (gesehen am 13.6.2003) REGO, L et al. (2003): Automatic classification of land cover with high resolution data of the Rio de Janeiro City (Brazil) comparison between pixel and object classification. In: Carstens, J. (Ed.): Remote Sensing of Urban Areas 2003, 153-157, Regensburg RENDALL, D (1996): Jane’s Aircraft Recognition Guide. Harper Collins Pub- lishers, Glasgow SATGEO (2003): Website: http://www.satgeo.de/satgeo/ (gesehen am 18.3.2003) SCHNEIDER ,T.,DE KOK, R., BUCK, A., MANAKOS, I. (2000): Objektorientierte Bildanalyse-Paradigmawechsel in der thematische Auswertung von Erdbeobachtungsdaten, Landnutzungsplanung und Naturschutz, Aktuelle Forschungsberichte, Festschrift zur Emeritierung von Prof.Dr. U. Ammer, Lehrstuhl für Landnutzungsplanung und Naturschutz, Freising SCHIEWE, J. et al. (2001): Potential and problems of multi-scale segmentation methods in remote sensing. In: GIS 6/2001, Hüthig GmbH & Co. KG, Heidelberg SCHOWENGERDT, R.A. (1997): Remote Sensing. Models and methods for Im-age Processing. Academic Press, San Diego SPACEANDTECH (2003): Website: http://www.spaceandtech.com/spacedata/ (gesehen am 25.4.2003) SPACEIMAGING (2003): Websites: http://www.spaceimaging.com (gesehen am 12.3.2003), http://www.spaceimaging.com/gallery/top10_2002/vancouver.htm http://www.spaceimaging.com/gallery/top1001/lingshui.htm (gesehen am 4.6.2003) STEINER, C. (2003): Klassifikation landwirtschaftlicher Gebiete im Limpachtal mit ‘eCognition’. Diplomarbeit, Geographisches Institut der Universität Zürich, Remote Sensing Laboratories (RSL), Zürich

72

Page 85: Objekterkennung in QuickBird Daten mit „eCognition“

5. Literaturverzeichnis

UNIVERSITÄT KIEL (2003): Website: http://www.uni-kiel.de/ewf/geographie/forum/unterric/material/einf_fe/index.htm (gesehen am 18.3.2003) UNIVERSITY OF CALIFORNIA, BERKELEY (2003): Dictionary of abbreviations and acronyms in geographic information systems, cartography and remote sens-ing. Website: http://www.lib.berkeley.edu/EART/abbrev2.html#index (gesehen am 13.6.2003)

73