ahrzeugklassi k - · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1...

170

Transcript of ahrzeugklassi k - · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1...

Page 1: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw
Page 2: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

Fahrzeugklassi�kation und Sch�atzungstreckenbezogener Verkehrsdaten mitMethoden der MustererkennungVom Promotionsausschu� derTechnischen Universit�at Hamburg-Harburgzur Erlangung des akademischen GradesDoktor-Ingenieurgenehmigte Dissertation

vonJens Wohlersaus Rendsburg1997

Page 3: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

1. Gutachter Prof. Dr.-Ing. N. Fliege2. Gutachter Prof. Dr.-Ing. M. Cremer3. Gutachter Dr.-Ing. habil. A. MertinsTag der m�undlichen Pr�ufung: 29. August 1997

Page 4: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

IIIVorwortDie vorliegende Arbeit entstand w�ahrend meiner T�atigkeit als wissen-schaftlicher Mitarbeiter im Arbeitsbereich Nachrichtentechnik der Tech-nischen Universit�at Hamburg-Harburg.Mein besonderer Dank gilt Herrn Prof. Dr.-Ing. N. Fliege f�ur dieM�oglichkeit der Durchf�uhrung und die Betreuung dieser Arbeit.Herrn Prof. Dr.-Ing. M. Cremer danke ich f�ur das Interesse an derArbeit und f�ur die �Ubernahme des Gutachtens.Herrn Dr.-Ing. habil. A. Mertins danke ich ebenfalls f�ur die �Ubernahmedes Gutachtens sowie f�ur viele wertvolle Sachdiskussionen und Anregun-gen und f�ur die besonders gute Zusammenarbeit.Schlie�lich m�ochte ich mich bei allen Mitarbeitern und Mitarbeiterin-nen des Arbeitsbereiches, insbesondere bei Herrn Dipl.-Ing. A. Manea, f�urdie freundschaftliche und sehr angenehme Arbeitsatmosph�are bedanken.Hamburg, im August 1997 Jens Wohlers

Page 5: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw
Page 6: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

Inhaltsverzeichnis VInhaltsverzeichnis1 Einf�uhrung 12 Signalerfassung und -vorverarbeitung 42.1 Signalerfassung : : : : : : : : : : : : : : : : : : : : : : : : 42.2 Signalvorverarbeitung : : : : : : : : : : : : : : : : : : : : : 53 Diskrete Signaltransformationen zur Merkmalsextraktion 113.1 Signalapproximation mit orthonormalen Reihenentwicklun-gen : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 123.2 Diskrete Karhunen-Lo�eve-Transformation : : : : : : : : : : 133.3 Whitening-Transformation : : : : : : : : : : : : : : : : : : 153.4 MerkmalsextraktionmitderKarhunen-Lo�eve-Transformation 163.4.1 Klassenspezi�sche Transformation : : : : : : : : : : 173.4.2 Gemeinsame Transformation : : : : : : : : : : : : : 183.4.3 Anwendung der Karhunen-Lo�eve-Transformationauf Fahrzeugsignale : : : : : : : : : : : : : : : : : : 193.5 Diskriminanzanalyse : : : : : : : : : : : : : : : : : : : : : 214 Fahrzeugklassi�kation 254.1 Mustererkennungssystem : : : : : : : : : : : : : : : : : : : 264.2 Signalvorverarbeitung und Merkmalsextraktion : : : : : : 274.3 Klassi�kation : : : : : : : : : : : : : : : : : : : : : : : : : 284.3.1 Bayes-Klassi�kation : : : : : : : : : : : : : : : : : : 294.3.2 Maximum-a-posteriori- und Maximum-Likelihood-Klassi�kation : : : : : : : : : : : : : : : : : : : : : 314.4 Parametrische Klassi�kationsverfahren : : : : : : : : : : : 334.5 Nichtparametrische Klassi�kationsverfahren : : : : : : : : 354.5.1 N�achster-Nachbar-Klassi�kator : : : : : : : : : : : 35

Page 7: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

VI Inhaltsverzeichnis4.5.2 Polynomklassi�kator : : : : : : : : : : : : : : : : : 374.5.3 Histogrammklassi�kator : : : : : : : : : : : : : : : 384.5.4 Klassi�kation mit neuronalen Netzwerken : : : : : : 404.6 Mehrstu�ge Klassi�kationsverfahren : : : : : : : : : : : : : 434.7 Verfahrensvergleich : : : : : : : : : : : : : : : : : : : : : : 464.8 Sch�atzung des Bayes-Fehlers : : : : : : : : : : : : : : : : : 545 Streckenbezogene Verkehrsdatenerfassung 575.1 Mustererkennungssystem : : : : : : : : : : : : : : : : : : : 585.1.1 Signalvorverarbeitung und Merkmalsextraktion : : 605.1.2 Entscheidungsfunktion : : : : : : : : : : : : : : : : 625.1.3 Parameterfestlegung : : : : : : : : : : : : : : : : : 635.1.4 Voruntersuchungen : : : : : : : : : : : : : : : : : : 665.2 Sch�atzverfahren mit Fahrzeugfolgenkorrelation : : : : : : : 685.2.1 Der Sch�atzalgorithmus : : : : : : : : : : : : : : : : 685.2.2 Simulationsergebnisse : : : : : : : : : : : : : : : : : 765.3 Sch�atzverfahren mit Kostenfunktionen : : : : : : : : : : : 795.3.1 Der Sch�atzalgorithmus : : : : : : : : : : : : : : : : 805.3.2 Optimierung des Verfahrens : : : : : : : : : : : : : 845.3.3 Simulationsergebnisse : : : : : : : : : : : : : : : : : 895.4 Sch�atzverfahren mit Hidden-Markov-Modellen : : : : : : : 925.4.1 Hidden-Markov-Modelle : : : : : : : : : : : : : : : 935.4.2 Der Sch�atzalgorithmus : : : : : : : : : : : : : : : : 1035.4.3 Optimierung des Verfahrens : : : : : : : : : : : : : 1065.4.4 Beispiel zur Fahrzeugwiedererkennung : : : : : : : 1125.4.5 Simulationsergebnisse : : : : : : : : : : : : : : : : : 1175.5 Verfahrensvergleich : : : : : : : : : : : : : : : : : : : : : : 1186 Verkehrszustandssch�atzung mit streckenbezogenen Ver-kehrsdaten 1206.1 Das makroskopische Verkehrsmodell : : : : : : : : : : : : : 122

Page 8: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

Inhaltsverzeichnis VII6.1.1 Variablen des Verkehrs u�modells : : : : : : : : : : 1226.1.2 Modellvalidierung : : : : : : : : : : : : : : : : : : : 1256.1.3 Modellerweiterung zur St�orfallerkennung : : : : : : 1266.1.4 Modellerweiterung mit streckenbezogenen Verkehrs-daten : : : : : : : : : : : : : : : : : : : : : : : : : : 1276.2 Modellgest�utzte Verkehrszustandssch�atzung : : : : : : : : 1296.2.1 Das stochastische Verkehrs u�modell : : : : : : : : 1296.2.2 Zustandsraumdarstellung : : : : : : : : : : : : : : : 1316.2.3 Zustandssch�atzung mit dem erweiterten Kalman-Filter : : : : : : : : : : : : : : : : : : : : : : : : : : 1326.2.4 Verkehrszustandssch�atzung mit Reisezeitinformation 1346.3 Beobachtbarkeitsanalyse : : : : : : : : : : : : : : : : : : : 1356.3.1 Theoretische Grundlagen : : : : : : : : : : : : : : : 1366.3.2 Analyse des erweiterten Verkehrs u�modells : : : : 1386.4 Simulationsergebnisse : : : : : : : : : : : : : : : : : : : : : 1416.4.1 Parameterfestlegung : : : : : : : : : : : : : : : : : 1416.4.2 Ergebnisse der Verkehrszustandssch�atzung : : : : : 1436.4.3 Ergebnisse der St�orungserkennung : : : : : : : : : : 1457 Zusammenfassung 147Abk�urzungs- und Symbolverzeichnis 149Literaturverzeichnis 153

Page 9: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw
Page 10: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

11 Einf�uhrungZur Verbesserung der Stra�enverkehrssicherheit und -e�zienz sowie derdurch den Stra�enverkehr verursachten Umweltsch�aden wurden von derEurop�aischen Union Mitte der achtziger Jahre Forschungsprogramme wieDRIVE (Dedicated Road Infrastructure for Vehicle Safety in Europe)und PROMETHEUS (Program for an European Tra�c with HighestE�ciency andUnprecedented Safety) ins Leben gerufen. Parallel wurdenin den Vereinigten Staaten Forschungsarbeiten zur Automatisierung desStra�enverkehrs durchgef�uhrt, die in die Programme IVHS (IntelligentVehicle-Highway Systems) und ATT (Advanced Transport Telematics)eingebettet sind.Fazit der Programme ist, da� im Zuge der stetig wachsenden Zahl vonKraftfahrzeugen und einer weiterhin zunehmenden Mobilit�at der Bev�olke-rung eine Optimierung des Verkehrsablaufs durch Stra�enverkehrskon-trollsysteme unumg�anglich erscheint. Die Systeme m�ussen jederzeit ein-wandfreie Informationen �uber den aktuellen Verkehrszustand liefern undzus�atzlich in einem Streckenabschnitt auftretende St�orungen detektieren.Durch Stau- und Unfallmeldungen k�onnen die Verkehrsteilnehmer speziellauf Autobahnen direkt auf der Strecke �uber kritische Verkehrssituationeninformiert und gewarnt sowie notfalls �uber andere Autobahnabschnitteumgeleitet werden.Zur Bereitstellung der notwendigen Informationen wurden in den letz-ten zwanzig Jahren Sch�atzverfahren entwickelt, die eine Prognose desVerkehrszustandes liefern und St�orungen im Verkehr detektieren. Die zurSch�atzung notwendigen Daten werden heutzutage vorwiegend durch In-duktionsschleifen zur Verf�ugung gestellt. Mit diesen Sensoren k�onnen zumeinen querschnittsbezogene Verkehrsdaten wie Fahrzeuggeschwindigkei-ten und Verkehrsst�arken erfa�t werden, zum anderen ist es auch m�oglich,anhand der vom Fahrzeug abh�angigen Induktivit�ats�anderung der Schlei-fe Fahrzeugmuster aufzunehmen und mit diesen Mustern Fahrzeuge zu

Page 11: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

2 1 Einf�uhrungklassi�zieren und streckenbezogene Verkehrsdaten wie die Reisezeit einesFahrzeugs zu ermitteln.Die Klassi�kation von Fahrzeugen zur statistischen Auswertung desFahrzeugverkehrs wurde erstmals in den siebziger Jahren mit relativ ein-fachen Methoden durchgef�uhrt [57], [28], [68] und Mitte der achtzigerJahre mit Verfahren der Merkmalsextraktion verbessert [11]. Der n�achsteSchritt in der Auswertung von Fahrzeugmustern liegt in der genauenKlassi�zierung von Einzelfahrzeugen, wodurch Fahrzeuge oder Fahrzeug-kollektive an einem zweiten Me�querschnitt wiedererkannt und somitstreckenbezogene Verkehrsdaten gesch�atzt werden k�onnen. Dieses For-schungsgebiet wird seit den achtziger Jahren bearbeitet und erste Er-gebnisse werden heute in verschiedenen Verkehrsleitsystemen eingesetzt[11], [62], [47]. Die Untersuchung der optimalen Entscheidungsregel so-wohl f�ur die Klassi�kation als auch f�ur die Sch�atzung streckenbezogenerVerkehrsdaten ist hierbei in den bisherigen Arbeiten nahezu unber�uck-sichtigt geblieben.Die Zielsetzung der vorliegenden Arbeit liegt in der Untersuchung undim Vergleich verschiedener Verfahren zur Klassi�kation und zur individu-ellen Wiedererkennung von Fahrzeugen. Beide Probleme lassen sich mitMethoden der Mustererkennung l�osen. Diese Methoden f�uhren auf dieBayes-Klassi�kation [31], bei der die Entscheidungsregeln dahingehendoptimiert werden, da� die Fehlerrate eines Mustererkennungssystems mi-nimal wird. Daraus ergeben sich eine Vielzahl von Klassi�kationsverfah-ren. Durch das Auf�nden e�zienter Lernverfahren und einer Vielzahl anForschungsarbeiten im Rahmen der Spracherkennung haben in den letz-ten Jahren neuronale Netzwerke und Hidden-Markov-Modelle Einzug inzahlreiche technische Applikationen erhalten. Diese Verfahren werden indieser Arbeit ebenfalls untersucht und zur Klassi�kation bzw. strecken-bezogenen Verkehrsdatenerfassung eingesetzt.In Kapitel 2 wird die Erfassung von Fahrzeugen mit Induktionsschlei-fendetektoren beschrieben. Die erfa�ten Fahrzeugsignale k�onnen nach ei-ner Normierung in Zeit und Amplitude, wodurch die Signale von nicht-fahrzeugspezi�schen Eigenschaften befreit werden, zur Klassi�kation undzur streckenbezogenen Verkehrsdatenerfassung eingesetzt werden.

Page 12: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

3In Kapitel 3 sind diskrete Signaltransformationen zusammengestellt,die im vorliegenden Fall ihren Einsatz in der Gewinnung geeigneter Merk-male f�ur die in dieser Arbeit untersuchten Sch�atzverfahren �nden.Kapitel 4 bildet den ersten Schwerpunkt dieser Arbeit und stellt dieKlassi�kation von Fahrzeugen dar. Hierbei wird nach der Pr�asentati-on eines Mustererkennungssystems auf die Bayes-Klassi�kation und ih-re Durchf�uhrung eingegangen. Dabei wird zwischen nichtparametrischenund parametrischen Verfahren unterschieden, wobei unter letztere auchdie neuronalen Netzwerke fallen. Es wird gezeigt, da� mit den hier auf-gef�uhrten Klassi�katoren eine Fehlerrate erzielt werden kann, die nahebeim optimalen Bayes-Fehler liegt.Im zentralen Kapitel 5 wird die Sch�atzung streckenbezogener Verkehrs-daten behandelt. Ausgehend von einem mit einer Korrelationsanalysearbeitenden Referenzverfahren [61], das heutzutage eine weite Verbrei-tung gefunden hat, werden zwei neue, unterschiedliche Sch�atzmethodenpr�asentiert, die mit einer Wiedererkennung von Individualfahrzeugen imFahrzeugverbund arbeiten. Das erste Verfahren arbeitet mit Kostenfunk-tionen auf der Basis von Fahrzeugmerkmalen und lokalen Streckenpro-gnosen, das zweite Verfahren ber�ucksichtigt die statistischen Bindungender Fahrzeuge im Streckenabschnitt, die durch Hidden-Markov-Modellemodelliert werden. Die Verfahren werden anhand von Simulations- undMe�daten bewertet und abschlie�end einander gegen�ubergestellt.Aufbauend auf die M�oglichkeit der streckenbezogenen Verkehrsdaten-erfassung befa�t sich Kapitel 6 mit der Verkehrszustandssch�atzung mitReisezeitinformation. Das vorgestellte Modell zur Zustandssch�atzung gehtauf Cremer zur�uck [22] und arbeitet mit querschnitts- und streckenbe-zogenen Verkehrsdaten [25]. Es wird gezeigt, da� eine Erweiterung desModells um die Reisezeit und die anschlie�ende Sch�atzung des Verkehrs-zustandes mit einem erweiterten Kalman-Filter eine Verbesserung derSch�atzergebnisse bringt und eine zuverl�assige St�orungsdetektion erm�og-licht.In Kapitel 7 erfolgt eine Zusammenfassung der Ergebnisse dieser Ar-beit sowie eine abschlie�ende Diskussion.

Page 13: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

4 2 Signalerfassung und -vorverarbeitung2 Signalerfassung und-vorverarbeitungIn diesem Kapitel wird zun�achst die Erfassung von Fahrzeugsignalenmit Induktionsschleifendetektoren erl�autert. Die erfa�ten Fahrzeugsigna-le k�onnen zur Klassi�kation und zur Wiedererkennung und damit zurstreckenbezogenen Verkehrsdatenerfassung eingesetzt werden. Die Signa-le m�ussen allerdings durch geeignete Vorverarbeitungsverfahren von nichtfahrzeugspezi�schen Eigenschaften befreit werden. Dieses gelingt durcheine Normierung der Signale in Zeit und Amplitude. Aus den normiertenFahrzeugsignalen k�onnen die Merkmalsvektoren f�ur das entsprechendeMustererkennungssystem ermittelt werden.2.1 SignalerfassungNeben Infrarot- und Radardetektoren sind Induktionsschleifendetektorendie derzeit geeignetesten Sensoren zur Detektion von Fahrzeugen im Stra-�enverkehr. Dieses gilt vor allem unter dem Gesichtspunkt der Verf�ugbar-keit, der Zuverl�assigkeit und der Kosten. Die Induktionsschleife ist ei-ne in die Fahrbahn eingelassene, von einem Wechselstrom durch osseneLeiterschleife mit mehreren Windungen. Die Schleifenbreite wird durchdie Fahrbahnbreite bestimmt, die Kantenl�angen der Schleife variieren jenach Anwendung und betragen meistens 1m oder 2,5m. Der Wechsel-strom erzeugt ein elektromagnetisches Feld, in dem metallische, leitf�ahigeOber �achen �uber den E�ekt der Feldverdr�angung eine kleine �Anderungder Induktivit�at der Schleife verursachen. In dem Detektor wird dieseInduktivit�ats�anderung L+�L(t) in ein Signal umgesetzt, das zur Detek-tion von Fahrzeugen eingesetzt werden kann (Bild 2.1). Dieses Signal wirdhaupts�achlich von der Metallmassenverteilung der Fahrzeuge im Unter-bodenbereich bestimmt, und somit ist die Induktivit�ats�anderung neben

Page 14: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

2.2 Signalvorverarbeitung 5∆L(t)Bild 2.1: Erfassung eines Fahrzeugsignalsder Schleifengeometrie auch von der Fahrzeugart abh�angig.Verschiedene Me�verfahren �nden sich in [10]. Ein neuartiges Verfah-ren zur Erfassung von Fahrzeugen mit Induktionsschleifen ist in [34] be-schrieben. Bild 2.2 zeigt einige Beispiele von Fahrzeugsignalen �L(t) f�urverschiedene Fahrzeugklassen. Die Signale wurden mit 1m-Schleifen er-fa�t. Die Geschwindigkeiten der Fahrzeuge liegen im Bereich von 50 bis80 km/h. Deutlich erkennbar sind die von der Metallmassenverteilunghervorgerufenen unterschiedlichen Signalverl�aufe und Signalamplitudender verschiedenen Fahrzeugklassen.2.2 SignalvorverarbeitungDie am Ausgang des Induktionsschleifendetektors gewonnenen Me�da-ten �L(t) beinhalten irrelevante Eigenschaften und Ein �usse des Me�-aufnehmers und des Fahrzeugs. Hierunter fallen die geometrischen Ab-messungen der Induktionsschleife, die Emp�ndlichkeit und Verst�arkungdes Detektors, Fahrbahneigenschaften, die Fahrzeuggeschwindigkeit unddas Fahrverhalten. Zur Beseitigung dieser Ein �usse mu� eine Normierungder Fahrzeugsignale in Zeit und Amplitude vorgenommen werden, so da�anschlie�end aussagekr�aftige und gut reproduzierbare Merkmalsvektorenaus den Schleifensignalen ermittelt werden k�onnen. Bei der Normierungk�onnen die nichtlinearen Verzerrungen, die z.B. bei einem versetzten Fah-ren �uber die Schleife entstehen, im Rahmen der Me�genauigkeit unber�uck-sichtigt bleiben [61].Die Signalvorverarbeitung beinhaltet folgende Schritte:

Page 15: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

6 2 Signalerfassung und -vorverarbeitung

0 0.5 10

100

200

300

400

t [s]→

∆ L(

t) →

PKW

0 0.5 10

100

200

300

400

t [s]→

∆ L(

t) →

PKW mit Anhanger

0 0.5 10

100

200

300

400

t [s]→

∆ L(

t) →

LKW

0 0.5 10

100

200

300

400

t [s]→

∆ L(

t) →

LKW mit Anhanger

0 0.5 10

100

200

300

400

t [s]→

∆ L(

t) →

Bus

0 0.5 10

100

200

300

400

t [s]→

∆ L(

t) →

Sattelzug

Bild 2.2: FahrzeugsignaleAnalog-Digital-UmsetzungNach einer Anti-Aliasing-Filterung werden aus dem zeitkontinuierli-chen Signal durch eine Analog-Digital-Umsetzung Abtastwerte der Fahr-zeugsignale gewonnen [33].SignaldetektionDie Signaldetektion erfolgt in zwei Schritten. Nach einer ersten Schwell-wertabfrage erfolgt eine amplitudenunabh�angige Erkennung des Signalan-fangs und -endes. Die feste Schwelle mu� so festgelegt werden, da� nahe-zu alle Fahrzeuge detektiert werden und die durch Rauschvorg�ange undMe�fehler verursachten St�orungen unber�ucksichtigt bleiben. Eine zweite,amplitudenabh�angige Schwelle sorgt daf�ur, da� nur noch repr�asentativeMe�signale weiterverarbeitet werden und die nachfolgende Normierungsowie die Geschwindigkeits- und L�angenbestimmung vom Fahrverhaltenunabh�angig ist.

Page 16: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

2.2 Signalvorverarbeitung 7ZeitnormierungDie Abtastwerte des Fahrzeugsignals k�onnen in einem Intervall derL�ange `T zu einem zeitabh�angigen Vektorr(kT ) = [�L(kT );�L([k + 1]T ); : : : ;�L([k + `� 1]T )]T= [r(kT ); r([k + 1]T ); : : : ; r([k + `� 1]T )]T (2.1)zusammengefa�t werden. Hierbei ist ` eine nat�urliche Zahl und nochabh�angig von der Fahrzeuggeschwindigkeit, der Fahrzeugl�ange und derSchleifengeometrie. Zur Elimination der Geschwindigkeit und der Schlei-fenabmessung erfolgt eine Abtastratenumwandlung durch Interpolationbzw. durch Dezimation auf eine feste Signall�ange n. Aufwendige Interpo-lationsverfahren, wie sie z.B. in [87] aufgef�uhrt sind, sind bei dieser An-wendung nicht notwendig, da hochfrequente Signalanteile f�ur die Klassi�-kation und die Wiedererkennung eine untergeordnete Rolle spielen. Viel-mehr k�onnen die neuen Abtastwerte durch eine lineare Interpolation bzw.Dezimation bestimmt werden und dem n�achsten Vorverarbeitungsschrittzugef�uhrt werden.Tiefpa��lterungDurch eine Tiefpa��lterung im normierten Signalraum gelingt es, mitgeringem Aufwand eine Unabh�angigkeit der normierten Signale von derFahrzeuggeschwindigkeit zu erreichen und gleichzeitig hochfrequente St�or-anteile zu unterdr�ucken. Gleichzeitig mit der Tiefpa��lterung kann dieAbtastrate noch um einen ganzzahligen Faktor reduziert werden. DieseReduktion sorgt f�ur eine Verringerung des Rechenaufwands bei der an-schlie�enden Merkmalsextraktion (siehe Kapitel 3).AmplitudennormierungDa die Signalamplitude von der Emp�ndlichkeit des Me�aufnehmersabh�angig ist, erfolgt eine Normierung auf eine einheitliche Signalampli-tude.EnergienormierungEine Energienormierung erm�oglicht eine Unabh�angigkeit des Signal-vektors von der Signalenergie.

Page 17: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

8 2 Signalerfassung und -vorverarbeitung

0 10 20 300

0.2

0.4

0.6

0.8

1

n →

r →

PKW

0 10 20 300

0.2

0.4

0.6

0.8

1

n →

r →

PKW mit Anhanger

0 10 20 300

0.2

0.4

0.6

0.8

1

n →

r →

LKW

0 10 20 300

0.2

0.4

0.6

0.8

1

n →

r →

LKW mit Anhanger

0 10 20 300

0.2

0.4

0.6

0.8

1

n →

r →

Bus

0 10 20 300

0.2

0.4

0.6

0.8

1

n →

r →

Sattelzug

Bild 2.3: Normierte FahrzeugsignaleAus der Signalvorverarbeitung ergeben sich zeitabh�angige Vektorenrn(kTn) = [rn(kTn); rn([k + 1]Tn); : : : ; rn([k + n� 1]Tn)]T : (2.2)Die Dimension der Vektoren, n, ist abh�angig von der gew�unschten An-wendung und mu� sowohl bei der Fahrzeugklassi�kation als auch bei derFahrzeugwiedererkennung experimentell bestimmt werden.In Bild 2.3 sind die zu Bild 2.2 geh�orenden energienormierten Fahr-zeugsignale f�ur n = 32 dargestellt.Geschwindigkeits- und L�angenbestimmungW�ahrend der Signalnormierung k�onnen Fahrzeuggeschwindigkeit und-l�ange bestimmt werden. Dieses geschieht mit Hilfe von Doppelschleifen.Als Doppelschleife wird ein Induktionsschleifenpaar bezeichnet, dessenKopfabstand sehr gering ist, so da� eine eindeutige Zuordnung der De-tektorausgangssignale zu einem Fahrzeug m�oglich ist. Die Fahrzeugge-

Page 18: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

2.2 Signalvorverarbeitung 9∆ L1(t) ∆ L2(t) r12(τ)

τS →←t → τ →Bild 2.4: Bestimmung der Zeitverz�ogerung �Sschwindigkeit ergibt sich aus der Zeitdi�erenz �S der Fahrzeugdetektionan den Schleifen und dem Kopfabstand d zuvFz = d�S : (2.3)Die Zeitdi�erenz kann aus den gemittelten Detektionszeiten des Signal-anfangs und -endes an den Schleifen oder genauer, aber auch rechenin-tensiver, aus dem Maximum der Kreuzkorrelationsfolge der beiden Fahr-zeugsignale berechnet werden (siehe Bild 2.4).Die Fahrzeugl�ange ergibt sich aus der Fahrzeuggeschwindigkeit vFz, derSignall�ange �Fz, die aus der ersten Schwellwertabfrage ermittelt werdenkann, sowie der L�ange der Induktionsschleife in Fahrtrichtung lS zulFz = �FzvFz � lS: (2.4)Die Fahrzeugl�ange ist ein wesentliches Merkmal eines Fahrzeugs undwird zus�atzlich zum Fahrzeugsignal zur Klassi�kation und Wiedererken-nung eingesetzt.Falls die Me�stelle lediglich mit einer Schleife ausgestattet ist, kanndie Fahrzeuggeschwindigkeit aus einem Signal r(kT ) mit dem Mittelwert� = 1 `�1Xi=0�L([k + i]T ) (2.5)durch vFz = k a� (2.6)

Page 19: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

10 2 Signalerfassung und -vorverarbeitung

0 20 40 60 800

0.5

1

1.5

2

t/T →

r(kT

)/m

a) Beispiel

0 5 10 15 2002468

101214161820

l in [m] →

l in

[m]

b) Geschatzte Langen

-50 0 500

20

40

60

80

100

120

(l-l)/l in % →

c) Schatzfehlerverteilung

Bild 2.5: Sch�atzung der Fahrzeugl�ange aus einem Fahrzeugsignalgesch�atzt werden. k ist hierbei eine von der Abtastrate T abh�angige Kon-stante, a gibt die maximale Steigung des Fahrzeugsignals an. Zur Bestim-mung der maximalen Steigung k�onnen verschiedene Verfahren herangezo-gen werden. Die beste Approximation gelingt allerdings mit einer linearenRegression �uber eine feste Anzahl von Abtastwerten. Nach [81] kann dieSteigung eines Signals mit 2p + 1 Abtastwerten zum Zeitpunkt iT mitai = (tT t)�1tTwi (2.7)f�ur einen Zeitvektor t = [�p; : : : ; p]T (2.8)und einen Signalvektorwi = [�L([k + i� p]T ); : : : ;�L([k + i+ p]T )]T (2.9)bestimmt werden.Die maximale Tangente wird dann durcha = `�1�pmaxi=p ai (2.10)festgelegt. Die Fahrzeugl�ange kann wiederum nach Gleichung (2.4) er-mittelt werden. Bild 2.5a zeigt ein Beispiel eines Fahrzeugsignals undder dazugeh�origen maximalen Tangente. In Bild 2.5b sind Sch�atzwertef�ur Fahrzeugl�angen gegen�uber den aus der Doppelschleifenmessung er-mittelten Werten aufgetragen. Bild 2.5c zeigt die aus dieser Stichproberesultierende Verteilung des Sch�atzfehlers.

Page 20: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

113 Diskrete Signaltransformationenzur MerkmalsextraktionDiskrete Signaltransformationen oder Reihenentwicklungen besitzen einezentrale Bedeutung in der Verarbeitung von Signalen, die durch diskreteWerte repr�asentiert werden. Im vorliegenden Fall �nden sie ihren Einsatzin der Gewinnung geeigneter Merkmale (Merkmalsextraktion) f�ur die indieser Arbeit untersuchten Sch�atzverfahren.In der Mustererkennung ist es wichtig, die zu klassi�zierenden Signa-le durch einige wenige, besonders aussagekr�aftige Merkmale zu beschrei-ben. Besonders geeignet sind Verfahren, die Merkmale extrahieren, die dieTrennbarkeit unterschiedlicher Klassen optimieren. Da bei der Optimie-rung der Merkmalsextraktion im allgemeinen nicht das gesamte Erken-nungssystem ber�ucksichtigt werden kann, werden geeignete G�utekriterienfestgelegt, die eine Beurteilung der ausgew�ahlten Merkmale erm�oglichen.Die Merkmalsextraktion wird dann unabh�angig von der Signalvorverar-beitung und der Signalerkennung nur unter Betrachtung des G�utekriteri-ums optimiert.Bei den Signaltransformationen unterscheidet man zwischen sogenann-ten signalabh�angigen und signalunabh�angigen Transformationen. Signal-abh�angige Transformationen sind an den zugrundeliegenden stochasti-schen Proze� angepa�t. Eine besondere Bedeutung kommt hierbei derKarhunen-Lo�eve-Transformation zu, die optimale Eigenschaften bez�ug-lich der Approximation von stochastischen Signalen besitzt. Die diskreteKarhunen-Lo�eve-Transformation und ihr Einsatz zur Merkmalsextrakti-on wird nach einer �Ubersicht �uber diskrete Signalapproximationen mitorthonormalen Reihenentwicklungen zu Beginn dieses Kapitels erl�autert.Eine Abwandlung der Karhunen-Lo�eve-Transformation ist die Whitening-Transformation, die anschlie�end kurz pr�asentiert wird und zur optimalenTrennung unterschiedlicher Signalklassen zusammen mit der Karhunen-Lo�eve-Transformation in der Diskriminanzanalyse eingesetzt wird.

Page 21: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

12 3 Diskrete Signaltransformationen zur Merkmalsextraktion3.1 Signalapproximation mit orthonorma-len ReihenentwicklungenMit diskreten Reihenentwicklungen erfolgt eine Transformation eines Si-gnals in einen geeigneten Signalraum. Die Merkmalsextraktion kann alsanschlie�ende Projektion des Signals in einen Unterraum verstanden wer-den.Betrachtet werde ein n-dimensionaler Hilbert-Raum, in dem das Ska-larprodukt zweier beliebiger Vektoren x = [x1; : : : ; xn]T und y = [y1; : : :,yn]T mit hx;yi = nXi=1 xi yi = xTy (3.1)und die hierdurch implizierte Norm mitkxk = qhx;xi (3.2)de�niert sind. Der Abstand zweier Vektoren berechnet sich durch die ausder Norm abgeleitete Metrikd(x;y) = kx� yk = qhx� y;x� yi: (3.3)Die lineare Transformation eines Signals l�a�t sich mit Hilfe einer ortho-normalen Basis fu1; : : : ;ung und eines Repr�asentanten y = [y1; : : : ; yn]Tals x = nXi=1 yi ui (3.4)schreiben, wobei f�ur die Koe�zientenyi = uTi x (3.5)gilt. Mit der orthogonalen Matrix U = [u1; : : : ;un] k�onnen die Gleichun-gen (3.4) und (3.5) kompakt alsx = U y und y = UT x (3.6)geschrieben werden.

Page 22: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

3.2 Diskrete Karhunen-Lo�eve-Transformation 13F�ur die orthonormalen Basisvektoren ui gilt:uTi uj = �ij; i; j = 1; : : : ; n: (3.7)Hierbei ist �ij das Kronecker-Symbol�ij = ( 1 f�ur i = j;0 sonst: (3.8)Zur Merkmalsreduktion wird eine Ann�aherung des Signals x mit einerbegrenzten Anzahl vonm < n Basisvektoren gew�unscht. Die Ann�aherungergibt einen Sch�atzvektor x = mXi=1 yi ui; (3.9)der resultierende Sch�atzfehler ergibt sich bei einem orthonormalen Basis-system zu e = x� x = nXi=m+1 yi ui: (3.10)Gesucht wird die Matrix U , die eine optimale Projektion in den m-dimensionalen Unterraum durch Weglassen der n�m letzten Basisvekto-ren erm�oglicht. Die Optimalit�at mu� hierzu durch ein geeignetes G�utema�festgelegt werden. Sinnvoll sind hierbei G�utema�e, die die f�ur die Signal-erkennung relevante Information aus einem Signal extrahieren k�onnen.Bei der im folgenden dargestellten diskreten Karhunen-Lo�eve-Transfor-mation wird die Approximation eines Signals bewertet, w�ahrend bei dersp�ater diskutierten Diskriminanzanalyse eine Bewertung der Konzentra-tion der Merkmale einer Klasse gegen�uber Merkmalen anderer Klassenstatt�ndet.3.2 Diskrete Karhunen-Lo�eve-TransformationBei der diskreten Karhunen-Lo�eve-Transformation erfolgt die Wahl derBasisvektoren fuig, i = 1; : : : ; m, derart, da� der mittlere quadratische

Page 23: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

14 3 Diskrete Signaltransformationen zur MerkmalsextraktionFehler " = Efkek2g = Efkx� xk2g (3.11)minimiert wird. Nach [31] ergibt sich f�ur mittelwertfreie Zufallsprozessex als L�osung dieses Minimierungsproblems die EigenwertgleichungRxxui = �iui; i = m+ 1; : : : ; n: (3.12)Gleichung (3.12) besagt, da� die gesuchten Basisvektoren ui die Ei-genvektoren der Kovarianzmatrix Rxx = EfxxTg sind. Unter dieser Be-dingung kann (3.11) als " = nXi=m+1�i (3.13)geschrieben werden [31], und die auszuw�ahlenden Basisvektoren m�ussendiejenigen Eigenvektoren der Kovarianzmatrix Rxx sein, die zu den mgr�o�ten Eigenwerten �1; : : : ; �m mit �1 � : : : � �m geh�oren.Die diskrete Karhunen-Lo�eve-Transformation besitzt eine Reihe wei-terer wichtiger Eigenschaften, die ebensogut zum Ansatzpunkt f�ur dieOptimierung eingesetzt werden k�onnen. So kann die Karhunen-Lo�eve-Transformation auch als dekorrelierende Lineartransformation aufgefa�twerden. Die Repr�asentanten und damit die transformierten Merkmale yisind unkorreliert. Die Kovarianzmatrix Ryy = EfyyTg ist eine Diagonal-matrix und lautetRyy = UT RxxU = � = 2664 �1 0. . .0 �n 3775 : (3.14)Nach der Transformation sind die transformierten Merkmale somitnicht mehr durch Linearkombination auseinander vorhersagbar. Die vorder Transformation in dieser gegenseitigen Vorhersagbarkeit durch Li-nearkombination liegende Redundanz wird durch die Karhunen-Lo�eve-Transformation entfernt. Die Redundanzbefreiung �au�ert sich in einerUmverteilung unter den Werten, die die Varianzen der einzelnen Merk-male vor und nach der Transformation annehmen. Es ergibt sich, da�

Page 24: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

3.3 Whitening-Transformation 15

1

2uu1

z

z 2

Bild 3.1: Geometrische Deutung der Karhunen-Lo�eve-Transformationdie Karhunen-Lo�eve-Transformation unter allen m�oglichen Lineartrans-formationen die am st�arksten ungleichf�ormige Werteverteilung der Vari-anzen im Sinne minimaler Entropie erzeugt. Zudem hat die Karhunen-Lo�eve-Transformation die Eigenschaft, da� die Gesamtvarianz des durchdie Transformation erzeugten Prozesses maximal wird [72].Bild 3.1 verdeutlicht die Eigenschaften der Karhunen-Lo�eve-Transfor-mation anhand einer H�ohenliniendarstellung der Verteilungsdichte einesgau�schen Prozesses x = z � �. Der Eigenvektor u1, der zum gr�o�tenEigenwert geh�ort, zeigt in die Richtung der gr�o�ten Abweichung vomSchwerpunkt �.3.3 Whitening-TransformationEine Abwandlung der Karhunen-Lo�eve-Transformation ist die Whitening-Transformation. Die Forderung der Karhunen-Lo�eve-Transformation nachunkorrelierten Koe�zienten der Kovarianzmatrix des Repr�asentantenwird bei der Whitening-Transformation dahingehend erweitert, da� alleKoe�zienten die gleiche Varianz besitzen. Die Whitening-Transformation

Page 25: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

16 3 Diskrete Signaltransformationen zur Merkmalsextraktion�uberf�uhrt damit einen farbigen Proze� mit der Kovarianzmatrix Rxx 6= Iin einen wei�en Proze� mit der KovarianzmatrixRyy = EfyyTg = EfW TxxTW g =W TRxxW = I: (3.15)Durch die Karhunen-Lo�eve-Transformation l�a�t sich die Kovarianzma-trix eines Prozesses x als Rxx = U �UT (3.16)schreiben. Die Matrix U setzt sich aus den Eigenvektoren und die Matrix� aus den Eigenwerten der Kovarianzmatrix Rxx zusammen (3.14).Mit der Matrix� = ��1=2 = 26664 q1=�1 0. . .0 q1=�n37775 : (3.17)l�a�t sich die Whitening-Transformation alsW = U ��1=2 = U � (3.18)angeben, was sich durch Einsetzen in Gleichung (3.15) zeigen l�a�t.Alternativ ist es auch m�oglich, die TransformationsmatrixW mit Hilfeder Cholesky-Zerlegung der Kovarianzmatrix Rxx zu bestimmen [54].3.4 Merkmalsextraktion mit derKarhunen-Lo�eve-TransformationDie diskrete Karhunen-Lo�eve-Transformation ist die Entwicklung von Zu-fallsprozessen nach einem orthonormalen Vektorsystem mit der bestm�og-lichen Approximation f�ur das G�utekriterium nach Gleichung (3.11). Aller-dings bedeutet die bestm�ogliche Approximation eines Signals nicht un-bedingt bestm�ogliche Klassi�kation. Der Nachteil der diskreten Karhu-nen-Lo�eve-Transformation liegt darin, da� sie eine Klassentrennung im

Page 26: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

3.4 Merkmalsextraktionmit derKarhunen-Lo�eve-Transformation 17Merkmalsraum unber�ucksichtigt l�a�t. Dieses ber�ucksichtigt die generali-sierte Karhunen-Lo�eve-Transformation, in der klassenspezi�sche Erwar-tungswerte miteinbezogen werden.Betrachtet werden stochastische Prozesse zk, k = 1; : : : ; K, die ver-schiedenen Klassen eines Signalerkennungssystems entstammen. Die Rea-lisationen dieser Prozesse werden mit zi;k bezeichnet, wobei i = 1; : : : ; Nkdie Nummer der Realisation und Nk die Anzahl der Realisationen derKlasse k angibt.Der erste Schritt zur Merkmalsextraktion ist die Erzeugung mittel-wertfreier Prozesse xk = zk � �k: (3.19)Die klassenspezi�schen Mittelwerte k�onnen mit�k = Efzkg � 1Nk NkXi=1 zi;k (3.20)abgesch�atzt werden.Zur Merkmalsextraktion k�onnen zwei verschiedene Transformations-arten verwendet werden.3.4.1 Klassenspezi�sche TransformationEine M�oglichkeit in der Merkmalsextraktion liegt darin, klassenspezi�scheTransformationen durchzuf�uhren. In diesem Fall wird f�ur jede Klasse eineKovarianzmatrixRxxk = Efxk xTk g � 1Nk + 1 NkXi=1 xi;k xTi;k (3.21)ermittelt. Die Karhunen-Lo�eve-Transformation wird auf jede Kovarianz-matrix angewandt und es entstehen K verschiedene Basissysteme U k.Nach der Transformation liegen die Muster verschiedener Klassen somitin verschiedenen Merkmalsr�aumen.Bei der Signalerkennung erfolgt eine Abbildung des unbekannten Si-gnals in jeden der K Merkmalsr�aume und die Zuordnung zu einer der

Page 27: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

18 3 Diskrete Signaltransformationen zur Merkmalsextraktionm�oglichen Klassen erfolgt z.B. durch Minimierung des Abstands des un-bekannten Musters zu den entsprechenden Klassenmittelpunkten (Kapitel4). Eine ungleichm�a�ige Verteilung der Muster in den verschiedenen Klas-sen mu� in diesem Fall allerdings ber�ucksichtigt werden. Hierzu erfolgtnach der Transformation eine Skalierung der Achsen auf gleiche Varianzdurch die Whitening-Transformation. Damit ergibt sich der transformier-te Vektor mit (3.18) zu yk = �UTk x =W Tk x: (3.22)Aufgrund der Skalierung ist die Transformationsmatrix W k nicht mehrorthonormal.3.4.2 Gemeinsame TransformationF�ur die praktische Anwendung ist es oftmals g�unstiger, unter Ber�ucksich-tigung der A-priori-Wahrscheinlichkeiten der Klassen pk einen Proze�x = KXk=1 pk xk (3.23)zu betrachten und eine gemeinsame Transformation und somit auch einengemeinsamen Merkmalsraum zu verwenden.Die Kovarianzmatrix wird aus den klassenspezi�schen Kovarianzma-trizen gebildet, Rxx = EfxxTg = KXk=1 pkRxxk : (3.24)Die Karhunen-Lo�eve-Transformation wird in diesem Fall nur einmaldurchgef�uhrt, das entstehende Basissystem U = [u1; : : : ;un] beinhaltetdie geordneten Eigenvektoren der Kovarianzmatrix Rxx und f�ur den Vek-tor im transformierten Raum gilty = UT x: (3.25)

Page 28: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

3.4 Merkmalsextraktionmit derKarhunen-Lo�eve-Transformation 193.4.3 Anwendung der Karhunen-Lo�eve-Transforma-tion auf FahrzeugsignaleDie Approximationseigenschaften der Karhunen-Lo�eve-Transformationsollen im folgenden mit normierten Fahrzeugsignalen dargestellt werden.Jede Fahrzeugklasse liefert einen stochastischen Proze�, dessen Reali-sationen einer Lernstichprobe entnommen sind. Die klassenspezi�schenMittelwerte und Kovarianzmatrizen k�onnen mit (3.20) und (3.21) ab-gesch�atzt werden. Die A-priori-Wahrscheinlichkeiten der Klassen sind al-lerdings nicht bekannt. Sie k�onnen entweder als gleich angenommen wer-den oder aus der Anzahl der klassenspezi�schen Realisationen ebenfallsabgesch�atzt werden: pk � NkN : (3.26)Hierbei ist N die Summe aller Realisationen,N = KXk=1Nk: (3.27)Die Approximation der Fahrzeugsignale erfolgt dann durchzi;k = U UT (zi;k � �k) + �k: (3.28)Die Matrix U beinhaltet die m Eigenvektoren, die zu den m gr�o�tenEigenwerten der gesch�atzten Kovarianzmatrix geh�oren. Bild 3.2 zeigt dieaus einer Lernstichprobe ermittelten Elemente der KovarianzmatrizenRxx und �. Deutlich erkennbar ist die dekorrelierende Wirkung der Kar-hunen-Lo�eve-Transformation. Gleichzeitig zeigt sich, da� der gr�o�te Teilder Information in sehr wenigen Koe�zienten von � komprimiert ist, soda� eine Approximation mit sehr wenigen Koe�zienten sehr gute Ergeb-nisse liefert. Die zu den vier gr�o�ten Eigenwerten geh�orenden Eigenvek-toren wurden zur Approximation von Fahrzeugsignalen der Dimensionn = 32 verwendet. Bild 3.3 zeigt beispielhafte Signalverl�aufe verschiede-ner Fahrzeugklassen und deren Approximation f�ur normierte Signale, diemit 2,5m-Schleifen erfa�t wurden.

Page 29: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

20 3 Diskrete Signaltransformationen zur Merkmalsextraktion

1020

3010

2030

-1

0

1

2

x 107

Rxx

5 10 15 20 25 30

10

20

300

10

20x 10

7

Λ →

Bild 3.2: Kovarianzmatrix Rxx des Prozesses x und Kovarianzmatrix� des Repr�asentanten y

0 10 20 300

0.2

0.4

0.6

0.8

1

n →

z →

PKW

0 10 20 300

0.2

0.4

0.6

0.8

1

n →

z →

PKW mit Anhanger

0 10 20 300

0.2

0.4

0.6

0.8

1

n →

z →

LKW

0 10 20 300

0.2

0.4

0.6

0.8

1

n →

z →

LKW mit Anhanger

0 10 20 300

0.2

0.4

0.6

0.8

1

n →

z →

Bus

0 10 20 300

0.2

0.4

0.6

0.8

1

n →

z →

Sattelzug

Bild 3.3: Beispielhafte Signalverl�aufe verschiedener Fahrzeugklassen(|) und deren Approximation (- -) (2,5m-Schleife)

Page 30: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

3.5 Diskriminanzanalyse 213.5 DiskriminanzanalyseNeben dem Kriterium der bestm�oglichen Approximation von Zufallspro-zessen nach einem orthogonalen Vektorsystem �nden sich in der Pra-xis unter dem Begri� Diskriminanzanalyse noch weitere Kriterien zurMerkmalsextraktion [30], [31], [37]. In der Diskriminanzanalyse wird ei-ne optimale Klassentrennung von Merkmalsvektoren dadurch angestrebt,da� der Abstand der Muster einer Klasse (Intraklassenabstand) minimiertwird und der Abstand der Muster verschiedener Klassen (Interklassenab-stand) gleichzeitig maximiert wird.Hierzu werden zur Formulierung der Kriterien sogenannte Scatter-matrizen eingef�uhrt. Die Intraklassen-Scattermatrix (within-class scattermatrix) gibt die Streuung der Mustervektoren um ihren Mittelwertsvektoran: SW = KXk=1 pk Ef(zk � �k)(zk � �k)Tg= KXk=1 pk EfxkxTk g = KXk=1 pkRxxk : (3.29)Diese Matrix ist mit der Kovarianzmatrix aus Gleichung (3.24) identisch.Die Interklassen-Scattermatrix (between-class scatter matrix) ber�uck-sichtigt die Streuung der klassenspezi�schen Mittelwertsvektoren um dengemeinsamen Schwerpunkt aller Klassen:SB = KXk=1 pk (�k � �)(�k � �)T ; (3.30)wobei der gemeinsame Mittelwert mit� = Efzg = KXk=1 pk �k (3.31)gegeben ist. Hieraus ergibt sich, da� der Rang der Matrix SB h�ochstensK � 1 sein kann.

Page 31: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

22 3 Diskrete Signaltransformationen zur MerkmalsextraktionDie gemeinsame Scattermatrix (mixture scatter matrix) ist die Kova-rianzmatrix aller Mustervektoren unabh�angig von ihrer Klasse:SM = Ef(z � �)(z � �)Tg = SW + SB: (3.32)Die lineare Transformation eines n-dimensionalen Prozesses x in einenm-dimensionalen Proze� y (m < n) erfolgt mity =W T x: (3.33)Die Spaltenvektoren der n�m-MatrixW m�ussen linear unabh�angig abernicht orthonormal sein. Da alle Scattermatrizen die Form einer Kovari-anzmatrix besitzen, k�onnen die entsprechenden Scattermatrizen Sw undSb des Prozesses y aus den Scattermatrizen des Prozesses x abgeleitetwerden [31]: Sw = W T SW W ; (3.34)Sb = W T SBW : (3.35)Die MatrixW mu� jetzt so gew�ahlt werden, da� sie das Verh�altnis vomInterklassenabstand zum Intraklassenabstand optimiert. Als Ma� diesesVerh�altnisses �nden sich in der Literatur verschiedene Kriterien.Ein m�ogliches Kriterium liegt darin, da� die Klassenzentren im trans-formierten Merkmalsraum m�oglichst weit auseinander liegen. Bei der Ma-ximierung des Interklassenabstandes d�urfen allerdings die Intraklassen-abst�ande nicht ver�andert werden. Dieses gelingt dadurch, da� die Intra-klassen-Scattermatrix mit einer Whitening-Transformation in einen wei-�en Proze� �uberf�uhrt wird. In diesem Fall ist die Matrix invariant gegenjede orthonormale Transformation. Das Kriterium l�a�t sich folgenderma-�en de�nieren:J(W ) = spurn[W TSWW ]�1[W TSBWo = spur fSbg != max (3.36)unter der NebenbedingungSw =W TSWW = I: (3.37)

Page 32: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

3.5 Diskriminanzanalyse 23Dieses sogenannte Fisher-Kriterium (Fisher discriminant ratio) l�a�t sichf�ur die Auswahl der Achsen im transformierten Raum einsetzen.Aus der Whitening-Transformation ergibt sichW = U ��1=2W : (3.38)Die Matrix U enth�alt die Eigenvektoren und �W ist die Diagonalma-trix der Eigenwerte der Scattermatrix SW . Eine optimale Transformationbez�uglich der Klassenmittelpunkte kann durch L�osung der Eigenwertauf-gabe f�ur die Matrix Sb gefunden werden:SbV = V �b: (3.39)Die relevante Information der Klassenmittelpunkte wird durch dieseTransformation in den K � 1 Eigenvektoren V = [v1; : : : ;vK�1] kom-primiert. Die Matrix �b ist wiederum die Diagonalmatrix der Eigenwerteder Matrix Sb.Die gesamte Transformation l�a�t sich alsA =WV = U ��1=2W V (3.40)zusammenfassen. Ein Datenvektor z wird dann durchy = AT (z � �) (3.41)in das neue Koordinatensystem �uberf�uhrt. Man kann zeigen, da� die Ma-trix A aus den Eigenvektoren der Produktmatrix S�1W SB besteht [30].Alternativ kann die Merkmalsextraktion ebenso bez�uglich des mitt-leren quadratischen Abstands aller Vektoren optimiert werden oder dasVerh�altnis des gesamten Interklassenabstands zum gesamten Interklas-senabstand kann maximiert werden [30], [31]. Interessanterweise f�uhrenauch diese Kriterien auf die gleiche L�osung wie das Kriterium (3.36).Die Qualit�at der durch diese optimalen Transformationen ausgew�ahl-ten Merkmale h�angt davon ab, wie genau die genannten Kriterien eineTrennbarkeit der Klassen angeben k�onnen. Die Kriterien arbeiten sehrgut, wenn die Klassenverteilungsdichten unimodal sind und durch die

Page 33: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

24 3 Diskrete Signaltransformationen zur MerkmalsextraktionStreuung der Mittelwertsvektoren gut getrennt sind. Sind die Mittelwerts-vektoren �ahnlich und die Verteilungen multimodal, f�uhrt eine Clusterana-lyse und eine nachtr�agliche Aufteilung der Klassen in mehrere Unterklas-sen noch zu guten Ergebnissen. Im Falle von unimodalen Verteilungenmit �ahnlichen Mittelwertsvektoren f�uhrt die Diskriminanzanalyse zu un-befriedigenden Ergebnissen.Da die Verteilungsdichte der Merkmale unbekannt ist, kann von vorn-herein keine Aussage dar�uber gemacht werden, welche Art der Merkmals-extraktion sinnvoll ist. Vielmehr m�ussen die m�oglichen Transformationenzusammen mit den m�oglichen Klassi�katoren f�ur ein vorliegendes Erken-nungsproblem getestet und bewertet werden.

Page 34: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

254 Fahrzeugklassi�kationDie automatische Klassi�kation von Fahrzeugen im Stra�enverkehr wirdseit zwanzig Jahren in Verkehrsleitsystemen zur statistischen Auswertungdes Fahrzeugverkehrs durchgef�uhrt. Waren die ersten Ans�atze aufgrundder geringen Rechenleistung in den siebziger Jahren noch relativ einfach[57], [28], [68], so wurden Mitte der achtziger Jahre schon aufwendige-re Verfahren der Merkmalsextraktion zur Klassi�kation eingesetzt, z.B.[11]. Grundlage der Fahrzeugklassi�kation sind vorwiegend Induktions-schleifensignale, in den letzten Jahren wurden allerdings auch Verfahrenmit Mikrowellensignalen und mit digitalen Bildsignalen untersucht undimplementiert, z.B. [70], [86], [60].Die Klassi�kation von Fahrzeugen ist ein typisches Beispiel eines eindi-mensionalen Mustererkennungsproblems. Anhand der erfa�ten Fahrzeug-muster wird ein detektiertes Fahrzeug einer vorgegebenen Klasse zuge-ordnet. Hierbei eignen sich die Ausgangssignale von Induktionsschleifenzur Zuordnung der Fahrzeuge. Das Problem der Klassi�kation liegt nebender Merkmalsextraktion vorwiegend in der Festlegung des Klassi�kators.Bei den Klassi�katoren unterscheidet man zwischen parametrischen undnichtparametrischen Verfahren. Zu letzteren geh�oren auch die neuronalenNetzwerke, die in den letzten zehn Jahren durch den Einsatz von Parallel-rechnern Einzug in zahlreiche technische Applikationen erhalten haben.Im folgenden soll die E�zienz verschiedener Fahrzeugklassi�katoren un-tersucht und miteinander verglichen werden.Zu Beginn des Kapitels wird die Struktur eines Mustererkennungs-systems zur Fahrzeugklassi�kation dargestellt. Die Vorverarbeitung undMerkmalsextraktion der Fahrzeugsignale zur Klassi�kation wird disku-tiert und anschlie�end werden die theoretischen Grundlagen der Muster-erkennung sowie der parametrischen und nichtparametrischen Verfahrenaufgef�uhrt. Ein Verfahrensvergleich und eine Sch�atzung des minimalenKlassi�kationsfehlers bilden den Abschlu� dieses Kapitels.

Page 35: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

26 4 Fahrzeugklassi�kation4.1 MustererkennungssystemDie Fahzeugklassi�kation gelingt mit Hilfe der Theorie der Mustererken-nung. Mustererkennungssysteme sind technische Einrichtungen, die un-bekannte Objekte oder Muster mit Hilfe von �Aquivalenzregeln in vor-gegebene Objektklassen einordnen. Bild 4.1 gibt einen �Uberblick �uberdie Struktur eines Mustererkennungssystems zur Fahrzeugklassi�kation.Nach der Signalerfassung und Vorverarbeitung m�ussen aus dem normier-ten Fahrzeugsignal geeignete Merkmale extrahiert werden. Diese werdenzum einen durch die in Kapitel 3 beschriebenen Verfahren aus dem Fahr-zeugsignal gewonnen und zum anderen aus den �Uberfahrkurven als Son-dermerkmale selektiert. Nach der Merkmalsextraktion sollten klassenglei-che Signale m�oglichst �ahnlich sein und die Klassenzentren m�oglichst weitauseinander liegen. Anschlie�end m�ussen f�ur jede Klasse Entscheidungs-funktionen bestimmt werden, aus denen dann durch Auswahl der maxi-malen Funktion die Fahrzeugklasse bestimmt werden kann. Die Bestim-mung der Entscheidungsfunktionen und die Merkmalsextraktion m�ussenin der Regel kombiniert betrachtet werden.Lernstich-probefrig Festlegung derVorverarbeitung Festlegung derMuster-merkmale Festlegung derKlassi�kator-daten- - -Vorver-arbeitung Merkmals-extraktionm = f(r)

Klassi�kationSch�atzvektord(m)=264d1(m)...dK(m)375Entscheide Hi,wenn di(m) =maxk dk(m)- --------

? ? ?

Bild 4.1: Struktur eines Mustererkennungssystems zur Fahrzeugklas-si�kation

Page 36: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

4.2 Signalvorverarbeitung und Merkmalsextraktion 27Tabelle 4.1: M�ogliche Einteilung der Fahrzeugklassenk1 PKWk2 Kleintransporterk3 LKWk4 Busk5 PKW mit Anh�angerk6 LKW mit Anh�angerk7 Sattelzugk8 R�uckweisungEine m�ogliche Einteilung der Fahrzeugklassen �ndet sich in Tabelle4.1. Die Aufteilung der Fahrzeugklassen richtet sich nach der Anwendungund somit kann es sein, da� z.B. f�ur statistische Auswertungen mehre-re Fahrzeugklassen ben�otigt werden, f�ur andere Anwendungen hingegeneine einfachere Klasseneinteilung ausreicht. Da in einem Mustererken-nungssystem nicht eindeutig festgelegt werden kann, ob ein gemessenerMerkmalsvektor �uberhaupt einer der vorgegebenen Klassen entstammt,wird h�au�g noch eine zus�atzliche R�uckweisungsklasse de�niert.4.2 Signalvorverarbeitung und Merkmals-extraktionBild 4.2 gibt einen �Uberblick �uber die Methoden und die Signalvektorender Vorverarbeitung und Merkmalsextraktion zur Fahrzeugklassi�kation.Die Eingangssignale des Mustererkennungssystems sind die mit denInduktionsschleifen erfa�ten Abtastwerte eines Fahrzeugsignalsr(kT ) = [�L(kT );�L([k + 1]T ); : : : ;�L([k + `� 1]T )]T : (4.1)Jedes Fahrzeugsignal stellt eine Realisation eines stochastischen Prozes-ses r dar. Zur Festlegung des Klassi�kators und der Transformationsma-trizen der Merkmalsextraktion erfolgt eine Analyse einer Lernstichprobebestehend aus den Realisationen ri, i = 1; : : : ; L. L gibt den Umfang derLernstichprobe an.

Page 37: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

28 4 Fahrzeugklassi�kation-r Normie-rung -rn KLT /DIS -y-s Klassi�-kationBild 4.2: Signalvorverarbeitung und Merkmalsextraktion zur Fahr-zeugklassi�kationNach der Signalnormierung erh�alt man nach Abschnitt 2.2 die Signalern(kTn) = [rn(kTn); rn([k + 1]Tn); : : : ; rn([k + n� 1]Tn)]T : (4.2)Die anschlie�ende Merkmalsextraktion kann mit der Karhunen-Lo�eve-Transformation oder mit einer Diskriminanzanalyse durchgef�uhrt werdenund der neue Signalvektor y ergibt sich aus Gleichung (3.25) bzw. (3.41).Die zur Klassi�kation eingesetzten Merkmalsvektoren setzen sich ausden Realisationen der Prozesse y und s zusammen. Der Proze� s bein-haltet die aus den �Uberfahrkurven selektierten Sondermerkmale, auf diesp�ater noch eingegangen wird. Dem Klassi�kator werden somit die Rea-lisationen des Prozesses m = [yT ; sT ]T zugef�uhrt.4.3 Klassi�kationDie Vorgehensweisen in der Mustererkennung sind ausf�uhrlich in [30], [31],[36], [37], [72], [77], [78], [85] beschrieben. In den n�achsten Abschnittenwerden lediglich die f�ur diese Arbeit eingesetzten Klassi�kationsalgorith-men erl�autert.Die Aufgabe der Klassi�kation besteht darin, einen gemessenen Merk-malsvektorm einer bestimmten Klasse ki vonK m�oglichen Klassen zuzu-ordnen. Der Merkmalsvektor mu� hierf�ur die zur Klassi�kation notwen-dige Information anhand geeigneter Merkmale enthalten.Am Eingang des Klassi�kators steht ein gest�ortes Signal m zur Ver-f�ugung, f�ur welches eine Entscheidung f�ur eine der Hypothesen

Page 38: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

4.3 Klassi�kation 29H1 : k1 eingetreten... ...HK : kK eingetretenherbeigef�uhrt werden mu�. Hierbei k�onnen Kosten f�ur richtige und falscheEntscheidungen aufgestellt werden, und die Entscheidung f�allt zugun-sten der Hypothese, die zu den geringsten Kosten gef�uhrt hat (Bayes-Klassi�kation). Eine Entscheidung f�ur diejenige Hypothese, die mit ma-ximaler Wahrscheinlichkeit richtig ist, ist ebenfalls m�oglich (Maximum-a-posteriori-Klassi�kation).In Bild 4.3 wird die Problematik der Entscheidungs�ndung verdeut-licht. Der Merkmalsraum wird in K Raumgebiete Rk aufgeteilt. Die Zu-ordnung des Klassi�kators l�a�t sich als Abbildung des N -dimensionalenMerkmalsraums in einen K-dimensionalen Entscheidungsraum au�assen.Liegt der Merkmalsvektor m im Gebiet Rk, f�allt die Entscheidung f�urdie Hypothese Hk. Liegt der Vektor auf der Trenn �ache zwischen zweiRaumgebieten, f�allt die Entscheidung entsprechend den A-priori-Wahr-scheinlichkeiten der Ereignisse.Bei statistischen Mustererkennungsverfahren wird die Klassi�kation ei-nes Musters auf sogenannte Diskriminanz- oder Entscheidungsfunktionenzur�uckgef�uhrt. F�ur jede Klasse k = 1; : : : ; K wird eine Entscheidungs-funktion dk(m) bestimmt. Die Zuordnung des Merkmalsvektors zu einerder K Klassen geschieht dann z.B. durch Auswahl der gr�o�ten Entschei-dungsfunktion. Die Festlegung der Entscheidungsfunktionen beinhaltetdie Hauptaufgabe bei einer Klassi�katorentwicklung.4.3.1 Bayes-Klassi�kationIn Mustererkennungssystemen kann keine absolute Fehlerfreiheit verlangtwerden. Vielmehr m�ussen die Entscheidungsregeln eines Klassi�kators sofestgelegt werden, da� die Fehlerrate des Systems m�oglichst gering gehal-ten wird. Beim Bayes-Klassi�kator geht man zur Festlegung der optima-len Entscheidungsfunktion davon aus, da� jede Entscheidungs�ndung mit

Page 39: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

30 4 Fahrzeugklassi�kationH1

Quelle

ii R

H2

H

. . .

1R

1

1

Entscheide H

K

m|Hp (m|H )

Entscheide HK

2Entscheide H

RK

R2m

Bild 4.3: Entscheidungsbereiche f�ur zweidimensionale Empfangsvekto-reneinem Risiko verbunden ist, welches nach [79] mitR = KXi=1 KXk=1CikP (Hi; kk) (4.3)festgelegt werden kann. Die Gr�o�en Cik k�onnen als Kosten verstandenwerden, die durch ein Verbundereignis fHi; kkg mit der Wahrscheinlich-keit P (Hi; kk) verursacht werden. Im folgenden wird davon ausgegangen,da� die Verbundereignisse fHi; kkg f�ur i = k eine richtige Entscheidungund f�ur i 6= k eine falsche Entscheidung bedeuten und die Kosten Cikf�ur richtige Entscheidungen kleiner sind als f�ur falsche Entscheidungen.Das Ziel bei der Klassi�katorentwicklung besteht nun darin, das mit demKlassi�kationsproblem verbundene Risiko zu minimieren. Bei vorgegebe-nem Proze� und festgelegten Kosten ist das Risiko nur durch die Wahl derRaumgebiete bestimmt, so da� eine Minimierung des Risikos nur durcheine Optimierung der Raumgebiete erfolgen kann.Aus diesen �Uberlegungen kann die Entscheidungsregel f�ur den Bayes-Klassi�kator abgeleitet werden, siehe z.B. [79], [54]. Die Entscheidungbeim Bayes-Klassi�kator f�allt zugunsten der Hypothese Hi mit dem ge-

Page 40: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

4.3 Klassi�kation 31ringsten bedingten Risiko Ri(m), das mitRi(m) = KXk=1CikP (kkjm) (4.4)de�niert ist. Die Gr�o�en P (kkjm) sind die A-posteriori-Wahrscheinlich-keiten f�ur die Ereignisse kk nach Beobachtung des Merkmalsvektors m.Das in (4.3) de�nierte Risiko l�a�t sich als R = EfPKi=1Rig interpretierenund gibt das sogenannte Bayes-Risiko des Klassi�kators an.4.3.2 Maximum-a-posteriori- und Maximum-Likelihood-Klassi�kationWerden die Kosten f�ur richtige Entscheidungen zu Null gesetzt (Cik = 0f�ur i = k) und f�ur falsche Entscheidungen mit Eins festgelegt (Cik = 1 f�uri 6= k), so ergibt sich die Maximum-a-posteriori-Klassi�kation. Bei die-ser Klassi�kation f�allt die Entscheidung zugunsten derjenigen Hypothese,die mit gr�o�ter A-posteriori-Wahrscheinlichkeit richtig ist. Die Entschei-dungsregel lautet damit:Entscheide Hi; falls di(m) = P (kijm) = maxk=1;:::;K P (kkjm): (4.5)Mit der gemischten Bayes-RegelP (kkjm) = pk pmjkk(mjkk)pm(m) (4.6)erh�alt man alternativ die Entscheidungsregel:Entscheide Hi; falls di(m) = pipmjki(mjki) = maxk=1;:::;K pkpmjkk(mjkk):(4.7)Darin sind pk die A-priori-Wahrscheinlichkeiten der Ereignisse kk undpmjkk(mjkk) die bedingten Wahrscheinlichkeitsdichten f�ur den Merkmals-vektor m unter der Beobachtung des Ereignisses kk. Die Wahrscheinlich-keitsdichte pm(m) ist klassenunabh�angig und braucht deshalb bei der

Page 41: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

32 4 Fahrzeugklassi�kation21 P(k |m)P(k |m)

1H H2 m

1 11 2 2 2p p (m|k )

m

p p (m|k )

1H H2

m|k m|k

Bild 4.4: Entscheidungsbereiche aus den A-posteriori-Wahrscheinlich-keiten und den WahrscheinlichkeitsdichtefunktionenEntscheidungsregel nicht ber�ucksichtigt zu werden. Falls die A-priori-Wahrscheinlichkeiten der Ereignisse gleich sind oder als gleich angenom-men werden, ergibt sich aus (4.7) die Entscheidungsregel der Maximum-Likelihood-Klassi�kation:Entscheide Hi; falls di(m) = pmjki(mjki) = maxk=1;:::;K pmjkk(mjkk): (4.8)Bild 4.4 verdeutlicht die Einteilung der Entscheidungsbereiche f�ur dieMaximum-a-posteriori-Klassi�kation anhand der Entscheidungsregeln(4.5) und (4.7).In der Entscheidungsfunktion (4.5) m�ussen die A-posteriori-Wahr-scheinlichkeiten P (kkjm) der verschiedenen Klassen bestimmt werden.Die Sch�atzung dieser Wahrscheinlichkeiten erweist sich als sehr schwie-rig, so da� in der Regel bei einer Klassi�katorentwicklung die Sch�atzungder bedingten Dichten pmjkk(mjkk) sowie unter Umst�anden der Wahr-scheinlichkeiten pk aus der Entscheidungsregel (4.7) das Hauptproblemist. Zur Bestimmung der bedingten Dichten �ndet man in der Literatureine Vielzahl von M�oglichkeiten, die in parametrische und nichtparametri-sche Verfahren eingeteilt werden und im folgenden kurz dargestellt werdensollen.

Page 42: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

4.4 Parametrische Klassi�kationsverfahren 334.4 Parametrische Klassi�kationsverfahrenEine M�oglichkeit der Sch�atzung der bedingten Dichten liegt in der An-nahme einer gau�schen Dichte. In diesem Fall lassen sich die bedingtenDichten alspmjkk(mjkk) = [(2�)n2 jRkj 12 ]�1 e� 12 [m��k]TR�1k [m��k]; k = 1; : : : ; K;(4.9)angeben. Die Festlegung der Entscheidungsregel beschr�ankt sich bei die-sem Verfahren auf die Sch�atzung der klassenspezi�schen Mittelwertsvek-toren �k und der klassenspezi�schen Kovarianzmatrizen Rk der Merk-malsvektoren. In Abh�angigkeit der Kovarianzmatrizen ergeben sich ver-schiedene Klassi�katoren, die in der Literatur als Gau�klassi�katoren zu-sammengefa�t werden.Quadratischer Klassi�katorEinsetzen der gau�schen Dichte (4.9) in die Entscheidungsregel (4.7)gibt di(m) = maxk=1;:::;K pk [(2�)n2 jRkj 12 ]�1 e� 12 [m��k]TR�1k [m��k]: (4.10)Zur Vereinfachung ist ein Logarithmieren sinnvoll und es ergibt sich:di(m) = maxk=1;:::;K 2 ln pk � ln jRkj � [m� �k]TR�1k [m� �k]: (4.11)Der Summand �n ln (2�) ist klassenunabh�angig und braucht bei derEntscheidungs�ndung nicht berechnet zu werden. F�ur verschiedene Kova-rianzmatrizen Rk ergibt sich eine quadratische Abh�angigkeit der Trenn- �ache von den Komponenten des Merkmalsvektors. Bild 4.5a zeigt einBeispiel f�ur die Entscheidungsbereiche eines quadratischen Klassi�katorsf�ur zweidimensionale Merkmalsvektoren.Linearer Klassi�katorBei klassenunabh�angigen Kovarianzmatrizen gilt R = Rk. In diesemFall lautet die Entscheidungsregeldi(m) = maxk=1;:::;K pk [(2�)n2 jRj 12 ]�1 e� 12 [m��k]TR�1[m��k]: (4.12)

Page 43: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

34 4 Fahrzeugklassi�kation

1

2 2H H1

1

1 11 2 2 2

m

m

µ

p p (m|k )m|k p p (m|k )m|k

µ2

1

2

2

HH

1

1 11

2 2 2

m

m

p p (m|k )m|k

p p (m|k )m|k

µ2

Bild 4.5: Entscheidungsbereiche f�ur Merkmalsvektoren mit verschiede-nen und mit gleichen KovarianzmatrizenLogarithmieren ergibt:di(m) = maxk=1;:::;K 2 ln pk � �TkR�1�k � �TkR�1m: (4.13)Die Summanden �n ln (2�), � ln jRj und mTR�1m sind f�ur alle Klas-sen gleich und brauchen deshalb nicht ber�ucksichtigt zu werden. Manerkennt, da� die Entscheidungsfunktion (4.13) in diesem Fall nur linearvom Merkmalsvektor abh�angig ist. Es ergeben sich damit ebene Trenn- �achen, f�ur zweidimensionale Merkmalsvektoren erh�alt man eine Geradeals Trennfunktion, siehe Bild 4.5b.Bei gleichen A-priori-Wahrscheinlichkeiten ergibt sich derMahalanobis-Abstands-Klassi�kator mit dem Quadrat des Mahalanobis-Abstands alsEntscheidungsfunktion:di(m) = mink=1;:::;K[m� �k]TR�1[m� �k]: (4.14)Bild 4.6a zeigt beispielhaft die Wahrscheinlichkeitsdichte des Merk-mals Fahrzeugl�ange f�ur die Klassen LKW und LKW mit Anh�anger, diemit Hilfe einer Parzen-Sch�atzung [37] aus einer Lernstichprobe ermitteltwurden. Bild 4.6b gibt die dazugeh�origen gau�schen Dichten wieder.

Page 44: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

4.5 Nichtparametrische Klassi�kationsverfahren 35

0 0.5 1 1.5 2

x 104

0

1

2

3

4

5

6

7

8x 10

-4

m11 →

p →

Verteilungsdichte

LKW

LKW mit Anhanger

0 0.5 1 1.5 2

x 104

0

1

2

3

4

x 10-4

m11 →p

Normalverteilung

LKWLKW mit Anhanger

Bild 4.6: Wahrscheinlichkeitsdichten der Fahrzeugl�angen f�ur die Klas-sen LKW und LKW mit Anh�anger: a) Parzen-Sch�atzung, b) Ann�ahrungdurch Normalverteilungen4.5 Nichtparametrische Klassi�kationsver-fahrenDie Approximation der klassenspezi�schen Verteilungen �uber Modellan-nahmen und Sch�atzung der Modellparameter ist nur eine M�oglichkeit,die Entscheidungsfunktionen eines Klassi�kators festzulegen. Nichtpara-metrische Klassi�katoren lassen die Struktur der zugrundeliegenden Dich-tefunktion unber�ucksichtigt. Im folgenden sollen vier in der Praxis h�au�geingesetzte Methoden der nichtparametrischen Klassi�kation aufgezeigtwerden.4.5.1 N�achster-Nachbar-Klassi�katorDas Prinzip dieses Klassi�kators liegt darin, den Abstand eines Merk-malsvektors zu einem bereits klassi�zierten Vektor zu ermitteln und demunbekannten Merkmalsvektor die Klasse des n�achsten Nachbarn zuzu-ordnen. Dieses Prinzip l�a�t sich auf die k n�achsten Nachbarn erweitern,

Page 45: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

36 4 Fahrzeugklassi�kationder Merkmalsvektor wird dabei der am h�au�gsten auftretenden Klassezugewiesen.Der Vergleich eines Merkmalsvektorsmmit einem Repr�asentantenm`kder Klasse kk erfolgt mit einer Metrik, z.B. mit der euklidischen Metrik. Indiesem Fall ist der kleinste Abstand zu allen Lk Prototypen einer Klassemit d2k(m;m`k) = min`=1;:::;Lk km�m`kk2 (4.15)gegeben und f�ur K Klassen gilt dann folgende Entscheidungsregel:Entscheide Hi; falls d2i (m;m`k) = mink=1;:::;K d2k(m;m`k): (4.16)Das Abstandsma� f�uhrt auf Trennfunktionen, die aus allen Mittel-senkrechten zwischen jeweils zwei Prototypen zusammengesetzt sind, d.h.auf st�uckweise lineare Trennfunktionen, siehe Bild 4.7. Der Nachteil die-ses Klassi�kators liegt darin, da� im allgemeinen eine gro�e Anzahl anPrototypen gespeichert werden m�ussen und in der Anwendungsphase dieAbst�ande zu allen Prototypen berechnet werden m�ussen. Der Vorteil wie-derum ist darin zu sehen, da� die Gebietsaufteilung im Merkmalsraumauch kompliziertere Formen zul�a�t. Bei gen�ugend gro�em Stichproben-umfang kann mit dem k-NN-Klassi�kator eine Absch�atzung der Dichte-funktion der Muster im Merkmalsraum und damit eine Absch�atzung derzu erwartenden Fehlerrate des Klassi�kators vorgenommen werden [20],[37]. Hierauf wird in Abschnitt 4.8 noch eingegangen.+

+

+

++

+

+ +

+

+

+

+

+

+

+

++ +

Bild 4.7: Trennfunktionen des NN-Klassi�kators

Page 46: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

4.5 Nichtparametrische Klassi�kationsverfahren 374.5.2 Polynomklassi�katorEin pragmatisches Konzept zur Bestimmung der Verbunddichten liegtdarin, die unbekannte Dichte pmjkk(mjkk) durch eine Funktion dk(m)anzun�ahern. Dieses f�uhrt auf ein Variationsproblem.Gesucht ist der Vektor d(m) = [d1(m); : : : ; dK(m)]T , der den Zielvek-tor c = [c1; : : : ; cK ]T (4.17)mit ci = ( 1 falls ki zum Vektor m gef�uhrt hat,0 falls kj, j 6= i, zum Vektor m gef�uhrt hat, (4.18)im Sinne des QuadratmittelansatzesJ(d) = Efjc� dj2g != min (4.19)am besten ann�ahert.Diese Vorgehensweise f�uhrt auf den Regressionsklassi�kator, bei demder Sch�atzvektor d(m) durchd(m) = ATw(m) (4.20)berechnet wird. Ein Sonderfall dieser Klassi�katoren ist der Polynom-klassi�kator [72], bei dem die Entscheidungsfunktionen durch einen Po-lynomvektor w(m) gebildet werden. Beim linearen Polynomansatz wirdder Polynomvektor mitw(m) = [1; m1; : : : ; mN ]T : (4.21)vorgegeben, beim vollst�andig quadratischen Polynomansatz hat der Po-lynomvektor folgendes Format:w(m) = h1; m1; : : : ; mN ; m12; m1m2; : : : ; mN�1mN ; mN 2iT : (4.22)Die Grenz �achen zwischen zwei Klassen sind Fl�achen zweiter Ordnung.

Page 47: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

38 4 Fahrzeugklassi�kationDie Koe�zientenmatrix A wird im Sinne des quadratischen Fehlersoptimiert, J(A) = Efjc�ATw(m)j2g != min; (4.23)und kann nach [72] mitA = EfwwTg�1EfwcTg (4.24)bestimmt werden. Die Matrizen EfwwTg und EfwcTg werden aus einerLernstichprobe ermittelt.Die Dimension des Polynomvektors steigt sehr schnell mit dem Graddes Polynoms und der Dimension des Merkmalsvektors. Deshalb wird inder Regel der Grad des Polynoms selten gr�o�er als zwei gew�ahlt, oder eswird ein unvollst�andiger Polynomansatz gew�ahlt [72].Bild 4.8 zeigt beispielhaft die Aufteilung des Entscheidungsraums f�urdie Klassen LKW und LKW mit Anh�anger f�ur einen vollst�andig quadra-tischen Polynomklassi�kator mit N = 16 Merkmalen.

0 0.5 1

0

0.5

1

d1 →

d2 →

Polynomklassifikator

LKW

LKW mit AnhangerBild 4.8: Aufteilung des Entscheidungsraums f�ur die Klassen LKW undLKW mit Anh�anger bei N = 16 Merkmalen4.5.3 Histogrammklassi�katorEin einfacher Ansatz zur Sch�atzung der bedingten Dichten ist die Er-mittlung einer H�au�gkeitsverteilung aus der Lernstichprobe. Diese Ver-teilungen k�onnen f�ur jedes Merkmal als Histogramme pmjkk(mjjkk), j =1; : : : ; N , k = 1; : : : ; K, aufgetragen werden.

Page 48: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

4.5 Nichtparametrische Klassi�kationsverfahren 39Im Fall statistisch unabh�angiger Merkmale kann die bedingte Dichtedurch pmjkk(mjkk) = NYj=1 pmjkk(mjjkk) (4.25)angen�ahert werden und die Entscheidung nach Gleichung (4.7) erfolgen.Eine praktische Schwierigkeit liegt bei dieser Technik in der geeignetenWahl der Intervallaufteilung. Die Intervalle m�ussen einerseits hinsichtlicheiner guten Approximation klein genug sein, andererseits m�ussen sie sogro� gew�ahlt werden, da� die Anzahl der in ein Intervall fallenden Stich-probenelemente eine hinreichend zuverl�assige Sch�atzung der Wahrschein-lichkeitsdichte an der betrachteten Stelle gestattet. Zus�atzlich m�ussen diestatistischen Abh�angigkeiten der Merkmale erfa�t werden, so da� h�au�geine sehr gro�e Lernstichprobe ben�otigt wird. Der Vorteil dieses Klassi-�kators liegt darin, da� keine Einschr�ankungen bez�uglich der Form derTrenn �achen zwischen den Raumgebieten bestehen.In Bild 4.9 sind die zu den Wahrscheinlichkeitsdichten aus Bild 4.6ageh�orenden H�au�gkeitsverteilungen des Merkmals Fahrzeugl�ange der Klas-sen LKW und LKW mit Anh�anger aufgetragen.

0 0.5 1 1.5 2

x 104

0

10

20

30

40

50

m11 →

Hau

figke

it →

Histogramme

LKWLKW mit Anhanger

Bild 4.9: Ann�aherung der Wahrscheinlichkeitsdichten der Fahr-zeugl�angen durch Histogramme f�ur die Klassen LKW und LKW mitAnh�anger

Page 49: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

40 4 Fahrzeugklassi�kation4.5.4 Klassi�kation mit neuronalen NetzwerkenIn den letzten Jahren haben neuronale Netzwerke Einzug in eine Viel-zahl von Klassi�kationsaufgaben erhalten. Der Grund hierf�ur liegt vor al-lem im Au�nden e�zienter Lernverfahren. Kompakte �Ubersichten �uberneuronale Netzwerke �nden sich in den Artikeln [51], [52]. DetaillierteBeschreibungen k�onnen [41], [48] oder [58] entnommen werden.Im vorliegenden Problem reicht eine Beschr�ankung auf sogenannteMulti-Layer-Feedforward-Netzwerke, die in der Literatur h�au�g auch alsMulti-Layer-Perceptron (MLP) bezeichnet werden. Diese Netzwerke zeich-nen sich dadurch aus, da� sie aus mehreren Schichten (Layer) beste-hen k�onnen, die durch Neuronen� miteinander verkn�upft sind und nurin Vorw�artsrichtung betrieben werden, siehe Bild 4.10. Die Merkmaledes Merkmalsvektors liegen an der Eingangsschicht an. In der Ausgangs-schicht wird die Entscheidungsfunktion des Netzwerks gebildet und damitdie Klassi�kation durchgef�uhrt. Dazwischen k�onnen sich eine oder meh-rere verborgene Schichten (hidden Layer) be�nden. Entfallen die verbor-genen Schichten, so handelt es sich um ein Single-Layer-Perceptron.1 1

0

Eingangs-schicht

Ausgangs-schicht

VerborgeneSchicht

m

m

mN

d

dKBild 4.10: Multi-Layer-Perceptron�Die Bezeichnung Neuron ist in sehr grober Anlehnung an die Funktionalit�at vonNervenzellen gew�ahlt

Page 50: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

4.5 Nichtparametrische Klassi�kationsverfahren 411

2v ϕ(v )

Θ

w

w

j j

m

m

mN

dj

Nj

w2j

1j

-1

jBild 4.11: Signal u�graph eines Single-Layer-PerceptronsDie Funktionsweise dieses Netzwerks l�a�t sich am einfachsten anhandeines Single-Layer-Perceptrons mit einem Ausgang erl�autern. Der Signal- u�graph eines derartigen Netzwerks ist in Bild 4.11 dargestellt.Die Eingangsschicht stellt die Merkmalem = [m1; : : : ; mN ] zur Verf�u-gung. Bei der �Ubergabe zur n�achsten Schicht werden alle Merkmale mitden Faktoren wij gewichtet. Der Trick der neuronalen Netzwerke liegt inden nachfolgenden Neuronen, die in einem ersten Schritt die gewichtetenEingangsdaten summieren,vj = NXi=1wijmi ��j = NXi=0wijmi: (4.26)Die Konstante �j ist ein Schwellwert oder Bias, der h�au�g auch als zus�atz-liches Eingangssignal w0jm0 mit m0 = �1 in die Summierung eingeht.In einem zweiten Schritt wird die Summe �uber eine nichtlineare Akti-vierungsfunktion an den Ausgang weitergeleitet. Die Nichtlinearit�at mu�eine di�erenzierbare Funktion sein, wie z.B. die Sigmoidfunktiondj = '(vj) = 11 + exp(�vj) ; �1 < vj <1: (4.27)Die Ausgangsdaten k�onnen jetzt wieder die Eingangsdaten einer verbor-genen Schicht sein. Durch die Aktivierungsfunktionen erh�alt man einenichtlineare Abbildung des Merkmalsraums auf den Entscheidungsraum.

Page 51: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

42 4 Fahrzeugklassi�kationNeuronale Netzwerke m�ussen ebenso wie andere Klassi�katoren trai-niert werden. Hierzu dienen vorklassi�zierte Merkmalsvektoren einer Lern-stichprobe. Die Merkmalsvektoren liegen als Eingangsvektorenm vor, dieFahrzeugklassen bilden die Ausgangssignale d und sollen sich einem Ziel-vektor c ann�ahern, dessen Elemente s�amtlichst Null sind. Lediglich dasElement cj soll den Wert Eins annehmen, wenn das Eingangssignal derKlasse kj entstammt. Hieraus wird die Verwandtschaft der neuronalenNetzwerke mit dem Polynomklassi�kator ersichtlich, die die gleiche Ziel-funktion besitzen. Die Bestimmung der unbekannten Gewichtsfaktoren er-folgt im Gegensatz zum Polynomklassi�kator allerdings iterativ mit Hilfedes sogenannten Backpropagation-Algorithmus [71]. Dieser Algorithmusbasiert auf einer iterativen Gradientenmethode, bei der das Fehlersignaldes Ausgangs eines Neurons j f�ur das `-te Trainingsmuster,ej(`) = dj(`)� cj(`); (4.28)durch wiederholte �Anderung der Gewichte in Richtung des negativen Gra-dienten minimiert wird. Es ergibt sich ein Minimierungsproblem f�ur denGesamtfehler aller LernstichprobenelementeJ(w) = 1L LX=1 12Xj e2j(`) != min : (4.29)Auf die Einzelheiten des Algorithmus soll hier nicht n�aher eingegangenwerden, eine genaue Beschreibung �ndet sich z.B. in [41].Der Vorteil der MLP-Netzwerke liegt in der F�ahigkeit, komplexe Trenn- �achen zu generieren. Man kann zeigen, da� die Trenn �achen eines Single-Layer-Perceptrons linear sind, ein Two-Layer-Perceptron konvexe Trenn- �achen zweiter Ordnung aber zum Teil auch nicht zusammenh�angendeEntscheidungsgebiete erzeugen kann und mit einem Three-Layer-Percep-tron Trenn �achen jeglicher Art erzeugt werden k�onnen [51], [38]. Zudemkann gezeigt werden, da� derartige neuronale Netzwerke bei erfolgreicherMinimierung der Fehlerfunktion (4.29) eine Sch�atzung f�ur die unbekann-ten A-posteriori-Wahrscheinlichkeiten der Merkmalsvektoren liefern [69].Die Aufteilung des Entscheidungsraums bei der bin�aren Klassi�ka-tion der Klassen LKW und LKW mit Anh�anger mit neuronalen Netz-

Page 52: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

4.6 Mehrstu�ge Klassi�kationsverfahren 43

0 0.5 1

0

0.5

1

d1 →

d2 →

Single-Layer-Perceptron

LKW

LKW mit Anhanger

0 0.5 1

0

0.5

1

d1 →d

2 →

Multi-Layer-Perceptron

LKW

LKW mit AnhangerBild 4.12: Aufteilung des Entscheidungsraums f�ur die Klassen LKWund LKW mit Anh�anger f�ur ein Single-Layer-Perceptron mit N = 16Merkmalen (links) und ein Multi-Layer-Perceptron mit N = 2 Merkma-len (rechts)werken ist in Bild 4.12 dargestellt. Die getestete Stichprobe entsprichtder Lernstichprobe. Man erkennt, da� mit einem Single-Layer-Perceptronmit Merkmalsvektoren der Dimension N = 16 eine fehlerfreie Klassi-�kation durchgef�uhrt werden kann. Die beiden Klassen sind linear se-parierbar. Besitzt man nur sehr wenige Merkmale, so kann mit einemMulti-Layer-Perceptron trotzdem ein gutes Klassi�kationsergebnis erzieltwerden. Als Eingangssignal eines Multi-Layer-Perceptrons mit einer ver-borgenen Schicht wurden lediglich zwei Merkmale der Fahrzeugsignalebenutzt. Die Anzahl der verborgenen Knoten, die die Zahl der Freiheits-grade des Klassi�kators bestimmt, betr�agt ebenfalls 16.4.6 Mehrstu�ge Klassi�kationsverfahrenF�ur Mehrklassenprobleme k�onnen mit linearen Klassi�katoren je nachWahl der Entscheidungsregeln verschiedenartige Entscheidungsbereicheerzeugt werden [31]. Die Entscheidungsfunktion eines linearen Klassi�ka-

Page 53: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

44 4 Fahrzeugklassi�kationtors l�a�t sich mit d(m) = wTi m (4.30)mit wi = [w0; w1; : : : ; wN ]T und m = [1; m1; : : : ; mN ]T (4.31)beschreiben. Mit der Entscheidungsregel (4.7) ergeben sich Trennfunktio-nen, wie sie in Bild 4.13a am Beispiel eines Dreiklassenproblems darge-stellt sind. Die Trennfunktionen zweier Klassen ki und kj sind in diesemFall durch die Gleichungen di(m) = dj(m) (4.32)gegeben, und es wird jedem unbekannten Merkmalsvektor damit eineKlasse zugewiesen, es existiert kein unde�niertes Gebiet.Alternativ k�onnen auch K(K � 1)=2 lineare Entscheidungsfunktionenbenutzt werden, mit denen jede Klasse paarweise von jeder anderen Klas-se getrennt wird. Man erh�alt Entscheidungsfunktionen dij(m) und dieEntscheidungsregel ergibt sich zu:Entscheide Hi; falls di(m) = wTijm > 0 f�ur alle j = 1; : : : ; K, j 6= i:(4.33)R2

R

R1

3

2

2 3

1 3

1d = d

d = d

d = d

a)

R2

R

R1

3

2kk 1

2kk 3

k 3

k 1

b)

Bild 4.13: Entscheidungsbereiche eines linearen Klassi�kators f�ur einDreiklassenproblem

Page 54: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

4.6 Mehrstu�ge Klassi�kationsverfahren 45In diesem Fall k�onnen auch Gebiete entstehen, in denen keine ein-deutige Klassi�kation durchgef�uhrt werden kann, siehe Bild 4.13b. Derdurch diese Entscheidungsregel verursachte Mehraufwand kann durch ei-ne zweistu�ge Klassi�kation umgangen werden. In der Regel mu� n�amlichkein Vergleich zwischen allen Klassen statt�nden. Relativ schnell kanndurch eine Vorklassi�kation festgestellt werden, ob ein zu klassi�zieren-der Merkmalsvektor �uberhaupt einer der m�oglichen Klassen entstammenkann. Vergleicht man die Merkmale des unbekannten Musters mit den auseiner Lernstichprobe ermittelten minimalen und maximalen Werten f�urdie einzelnen Klassen, so reduziert sich der Vergleich f�ur das vorliegendeKlassi�kationsproblem auf maximal vier Klassen. Bild 4.14 verdeutlichtdiese Vorgehensweise am Beispiel der Fahrzeugl�ange als Merkmal. Besitztein unbekanntes Muster eine Fahrzeugl�ange von z.B. 4800mm, so kannman der Dichteverteilung dieses Merkmals entnehmen, da� lediglich zwi-schen den Klassen PKW und Kleintransporter entschieden werden mu�.Die Gewichtsvektoren wij k�onnen z.B. durch einen Polynomansatzoder mit Hilfe des Backpropagation-Algorithmus f�ur ein Single-Layer-Perceptron bestimmt werden.0.5 1 1.5 2

x 104

0

0.5

1

1.5x 10

-3

m11 →

p(m

11|k

k)

m ↑

PKW Kleintransporter

LKW PKW mitAnhanger

Bus

LKW mitAnhanger

Sattelzug

Bild 4.14: Vorklassi�kation am Beispiel der Fahrzeugl�ange als Merkmal

Page 55: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

46 4 Fahrzeugklassi�kation4.7 VerfahrensvergleichBei der Untersuchung der verschiedenen Klassi�kationsverfahren liegt derSchwerpunkt darin, einen m�oglichst einfachen Klassi�kator zu �nden, dermit wenigen Parametern ein gutes Klassi�kationsergebnis liefert und alsEchtzeitsystem implementiert werden kann. Aus diesem Grund wurde aufeine feinere Aufteilung der Fahrzeugklassen verzichtet, wie sie z.B. durcheine Cluster-Bildung [31] erreicht werden kann.Die Bewertung eines Klassi�kators ist in der Regel weniger trivial als eszun�achst erscheint. Die Bestimmung des Bayes-Fehlers, der das bestm�ogli-che Klassi�kationsergebnis f�ur das vorliegende Problem angibt, ist in derPraxis �au�ert schwierig, auf sie wird in Abschnitt 4.8 noch n�aher ein-gegangen. Die verschiedenartige Einteilung der Raumgebiete bei den inden vorangegangenen Abschnitten aufgef�uhrten Klassi�katoren f�uhrt zuverschiedenen Fehlerraten der jeweiligen Klassi�katoren, die bestenfallsso gering wie der Bayes-Fehler sind.Grundlage zur Bestimmung der Entscheidungsfunktionen und damitauch der Fehlerrate eines Klassi�kators ist die Lernstichprobe. Die G�uteeines Klassi�kators kann durch die Reklassi�kation der Lernstichprobebestimmt werden. Allerdings kann es bei der Reklassi�kation zu einer�Uberadaption des Klassi�kators kommen. In diesem Fall pa�t er sich denEigenschaften der Lernstichprobe zu sehr an und suggeriert ein zu gu-tes Klassi�kationsergebnis. Dieses geschieht vor allem dann, wenn dieLernstichprobe einen geringen Umfang besitzt. In solchen F�allen kannes sein, da� die Erkennungsraten des Klassi�kators f�ur unbekannte Mu-ster (Fremdklassi�kation) sehr schlecht sind. Insofern ist es wichtig, einezweite unabh�angige Teststichprobe zu verwenden, die stellvertretend f�urden Anwendungsfall steht. Probleme entstehen hier, wenn nur sehr we-nige Stichproben zur Verf�ugung stehen. In diesem Fall m�ussen Verfahrenherangezogen werden, mit denen die Entscheidungsfunktionen optimaleingestellt werden k�onnen und trotzdem eine Aussage �uber die Erken-nungsrate im Anwendungsfall gemacht werden kann.

Page 56: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

4.7 Verfahrensvergleich 47Vorerst sollen die Fehlerrateny der verschiedenen Klassi�katoren f�urdie Reklassi�kation pr�asentiert werden. Abschlie�end folgt ein Vergleichder verschiedenen Klassi�katoren anhand ihrer Fehlerraten bei der Klas-si�kation der Lernmenge sowie bei einer Fremdklassi�kation.StichprobeDie Lernstichproben der Fahrzeugklassi�kation bestehen aus ca. 4000Fahrzeugsignalen einer 2,5m-Schleife und ca. 6000 Fahrzeugsignalen ei-ner 1m-Schleife. �Uber die Anzahl der notwendigen Stichproben pro Klas-se kann a priori keine Aussage gemacht werden, die Anzahl ist vielmehrabh�angig von der sogenannten inneren Dimensionalit�at (intrinsic dimen-sionality) der Muster [37]. Im vorliegenden Fall kann von einer ausreichen-den Lernstichprobe ausgegangen werden, lediglich die Musteranzahl derKlasse Bus mu� f�ur beide Schleifentypen als zu gering angesehen werden.Auswahl der MerkmaleDie Fahrzeugsignale werden auf n = 32 Werte normiert, nach derTransformation ergeben sich bei der Diskriminanzanalyse m = K�1 = 6Merkmale, bei der Karhunen-Lo�eve-Transformation kann die Anzahl mder Eigenvektoren der Transformationsmatrix variabel gehalten werden.Zus�atzlich enth�alt der Merkmalsvektor noch f�unf aus den �Uberfahrkur-ven selektierte Sondermerkmale, die sich aus der Fahrzeugl�ange, einerAnh�angerdetektion sowie aus einer Minimumbestimmung ergeben [55].Ein Vergleich einiger Klassi�katoren bez�uglich der gew�ahlten Trans-formation der Fahrzeugsignale ist in Bild 4.15 wiedergegeben. Zum Ver-gleich ist die Anzahl der Merkmale m aus den normierten Signalen f�urbeide Verfahren identisch. Es zeigt sich, da� die Fehlerraten der Klas-si�katoren bei einer Diskriminanzanalyse geringf�ugig gr�o�er sind als beieiner Karhunen-Lo�eve-Transformation, was sich mit einer ung�unstigenAufteilung der Klassenschwerpunkte und der Verteilungsdichten im vor-liegenden Problem begr�unden l�a�t.yDie im folgenden dargestellten Fehlerraten stellen jeweils die Gesamtfehlerratedes Klassi�kators dar. Auf eine detaillierte Darstellung der Fehlerraten zwischen deneinzelnen Klassen wird hier verzichtet, da der Vergleich der einzelnen Klassi�katorenim Vordergrund steht.

Page 57: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

48 4 Fahrzeugklassi�kation LIN QUAD POLY HIST 0

5

10

1511.911.59

5.024.98

10.337.14

4.693.7F

ehle

rrat

e in

% →

Merkmalsextraktion

KLT DIS 2,5m-Schleife

Bild 4.15: Fehlerraten einiger Klassi�katoren bei einer Merkmalsex-traktion mit der Karhunen-Lo�eve-Transformation und mit einer Diskri-minanzanalyseGau�klassi�katorBei der Nachbildung der klassenweisen Verteilungsdichten mit gau�-schen Dichten m�ussen die Klassenschwerpunkte und Kovarianzmatrizenf�ur beide Schleifentypen anhand der Lernstichprobe bestimmt werden.Die aufwendige Inversion der Kovarianzmatrizen mu� nur einmalig in derLernphase durchgef�uhrt werden und ist hier unproblematisch. Die sich ausder Klassi�kation der Lernstichprobe ergebenden Fehlerraten der Klassi-�katoren sind in Bild 4.16 in Abh�angigkeit der Dimension der Merkmals-vektoren bei einer Karhunen-Lo�eve-Transformation der Fahrzeugsignalewiedergegeben. Die bessere Erkennungsleistung des quadratischen Klassi-�kators, bei dem die Kovarianzmatrizen klassenabh�angig gebildet werden,ist ersichtlich. Gleichzeitig zeigt sich, da� bei einer gr�o�eren Anzahl vonMerkmalen auch die Erkennungsleistung beider Klassi�katoren steigt. 5 6 10 15 20 25 30 32

0

5

10

15 Linear Quadratisch

Gaußklassifikator

Koeffizienten der Hauptachsentransformation →

Feh

lerr

ate

in %

12.1611.5911.0410.7610.7610.4710.5410.38

5.17 4.98 4.67 4.43 4.36 4.1 3.93 3.86

Bild 4.16: Fehlerraten der Gau�klassi�katoren in Abh�angigkeit der Ko-e�zienten der Hauptachsentransformation (2,5m-Schleife)

Page 58: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

4.7 Verfahrensvergleich 49N�achster-Nachbar-Klassi�katorDa bei diesem Klassi�kator die Verteilung der Muster im Merkmals-raum anhand einer Vielzahl von Prototypen beschrieben wird, erzielt manmit dem NN-Klassi�kator eine sehr gute Erkennungsrate. Bezieht manmehrere Prototypen bei der Klassi�kation ein, so lassen sich theoretischnoch bessere Erkennungsraten erzielen. Bild 4.17 gibt die Fehlerraten desk-NN-Klassi�kators f�ur die 1m- und die 2,5m-Schleife wieder. Es zeigtsich, da� f�ur das vorliegende Problem eine Erh�ohung der Nachbaranzahlkeine Vorteile bringt, was sich durch die f�ur diesen Fall zu kleine Lernstich-probe begr�unden l�a�t. Bei den aufgef�uhrten Fehlerraten handelt es sichum die Fehlerraten einer Fremdklassi�kation, da bei diesem Klassi�katorjedes Muster als Testmuster mit den restlichen Mustern als Lernmusterklassi�ziert wird.Zu ber�ucksichtigen ist, da� der NN-Klassi�kator aus Aufwandsgr�undennur als Referenzklassi�kator benutzt werden kann und eine praktischeImplementierung nicht in Frage kommt. 1 3 5 7 9 11 13 15

01234

Nachster-Nachbar-Klassifikator

Anzahl nachster Nachbarn →

Feh

lerr

ate

in %

2.59 2.43 2.69 2.69 2.84 3.03 3.19 3.091m-Schleife

1 3 5 7 9 11 13 150

2

4

Nachster-Nachbar-Klassifikator

Anzahl nachster Nachbarn →

Feh

lerr

ate

in %

2.75 2.96 2.8 3.01 3.29 3.27 3.29 3.582,5m-Schleife

Bild 4.17: Fehlerraten des k-NN-Klassi�kators in Abh�angigkeit der An-zahl der n�achsten NachbarnPolynomklassi�katorBild 4.18 zeigt die Fehlerraten der Reklassi�kation f�ur einen linearenund einen quadratischen Polynomklassi�kator. Die Erkennungsrate desquadratischen Klassi�kators ist deutlich besser als die des linearen Klas-si�kators. Dieses begr�undet sich in der intern verwendeten Komponen-tenzahl, die die Zahl der Freiheitsgrade des Klassi�kators bestimmt. ImFall von 10 Merkmalen bildet der quadratische Klassi�kator aufgrund der

Page 59: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

50 4 Fahrzeugklassi�kationProduktterme in Gleichung (4.22) intern 66 Merkmale, die die Trennbar-keit der einzelnen Klassen verbessern. Die maximale Anzahl an Merkma-len wurde beim quadratischen Klassi�kator auf 25 begrenzt. Eine weitereErh�ohung f�uhrt zu numerischen Problemen bei der Bestimmung der Ko-e�zientenmatrix infolge der Invertierung nach Gleichung (4.24). Zudemsteigt der Aufwand zur Speicherung der Koe�zientenmatrix quadratischmit der Anzahl der Merkmale. 5 6 10 15 20 25 30 32

0

10

20

30 Linear Quadratisch

Polynomklassifikator

Koeffizienten der Hauptachsentransformation →

Feh

lerr

ate

in %

22.6816.6915.8916.2815.1714.4 14.3114.09

8.9 7.14 5.83 4.3 3.38Bild 4.18: Fehlerraten des linearen und quadratischen Polynomklassi-�kators in Abh�angigkeit der Merkmalsanzahl (1m-Schleife)Histogrammklassi�katorEine Ann�aherung der bedingten Dichten durch eine aus der Lernstich-probe abgeleitete H�au�gkeitsverteilung f�uhrt zum Histogrammklassi�ka-tor, bei dem die Wahl der Intervallaufteilung, wie in Abschnitt 4.5.3 ange-deutet, problematisch ist. Bild 4.19 gibt die Fehlerraten des Histogramm-klassi�kators in Abh�angigkeit der Intervallanzahl f�ur beide Schleifen wie-der. Man erkennt, da� eine zu grobe Intervallaufteilung die bedingte Dich-te nur unzureichend nachbilden kann und dementsprechend die Fehlerra-ten h�oher sind. Bei kleiner werdenden Intervallen sinkt auch die Fehlerra-te, allerdings mu� ber�ucksichtigt werden, da� es bei der Klassi�kation derLernstichprobe zu einer �Uberadaption des Klassi�kators kommen kann.Klassi�kation mit neuronalen NetzwerkenLernverfahren f�ur neuronale Netzwerke sind sehr aufwendig. Da die Ge-wichtsfaktoren allerdings nur einmalig in der Lernphase bestimmt werdenm�ussen, ergibt sich in der Anwendungsphase ein sehr einfacher Klassi�-kator. Die erforderliche Anzahl an verborgenen Schichten und Knotenkann f�ur ein gegebenes Problem a priori nicht bestimmt werden, sondern

Page 60: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

4.7 Verfahrensvergleich 51 3 5 7 9 11 13 15 17 19

0

2

4

6

8Histogrammklassifikator

Anzahl der Intervalle →

Feh

lerr

ate

in %

→ 6.86

4.223.673.283.123.022.912.752.86

1m-Schleife

3 5 7 9 11 13 15 17 190

5

10Histogrammklassifikator

Anzahl der Intervalle →

Feh

lerr

ate

in %

→ 8.51

5.214.413.533.413.1 2.962.84 2.84

1m-Schleife

Bild 4.19: Fehlerraten des Histogrammklassi�kators in Abh�angigkeitder Intervallanzahlmu� anhand der Klassi�kationsrate des Netzwerks festgelegt werden [41].Aufgrund von Konvergenzproblemen des Backpropagation-Algorithmusist die maximale Anzahl an verborgenen Schichten f�ur den Anwendungs-fall der Fahrzeugklassi�kation auf Eins beschr�ankt. Bild 4.20 stellt dieFehlerrate eines Two-Layer-Perceptrons in Abh�angigkeit der Anzahl ver-borgener Knoten dar. Es zeigt sich, da� sich bei einer Erh�ohung der Kno-tenanzahl die Klassi�kationsrate verbessern l�a�t. Allerdings nimmt derSpeicheraufwand f�ur die Gewichtsvektoren auch linear mit der Anzahlder Knoten zu.Sehr gute Ergebnisse lassen sich mit einem zweistu�gen Klassi�katormit einem Single-Layer-Perceptron erzielen. Hier m�ussen die Gewichtef�ur bin�are Entscheidungsfunktionen gelernt werden, der zugeh�orige Al-gorithmus konvergiert dabei sehr schnell, da die Anzahl der Gewichtedie Anzahl der Merkmale lediglich um Eins �ubersteigt. Der Vorteil diesesVerfahrens liegt darin, da� bei einer bin�aren Klassi�kation viele Fahrzeug-klassen linear separierbar sind. Von K(K�1)=2 = 21 m�oglichen Entschei-dungen m�ussen bei 15 Merkmalen lediglich acht Entscheidungsfunktionenf�ur die Klassenpaare PKW/Kleintransporter, PKW/LKW, Kleintranspor-ter/LKW, LKW/Bus, LKW/LKW mit Anh�anger, LKW/Sattelzug undLKW mit Anh�anger/Sattelzug berechnet und gespeichert werden. EineVerbesserung des Verfahrens kann zus�atzlich erreicht werden, wenn f�urschlecht separierbare Klassenpaare quadratische Trennfunktionen mit ei-nem Multi-Layer-Perceptron generiert werden.

Page 61: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

52 4 Fahrzeugklassi�kation20 30 40 60 80

0

2

4

6 1m-Schleife

MLP-Klassifikator

Anzahl verborgener Neuronen →

Feh

lerr

ate

in %

5.42

3.91 3.6 3.27 2.8

Bild 4.20: Fehlerraten des Multi-Layer-Perceptrons in Abh�angigkeit derAnzahl verborgener NeuronenVerfahrensvergleichVergleicht man die in dieser Arbeit untersuchten Klassi�katoren, somu� neben der Fehlerrate auch der Rechen- und Speicheraufwand ber�uck-sichtigt werden. Aus diesem Grund ist eine Klassi�kation mit dem NN-Klassi�kator und mit dem quadratischen Polynomklassi�kator ine�zient.Am geeignetesten ist die zweistu�ge lineare Klassi�kation mit einem neu-ronalen Netzwerk. Die Fehlerrate liegt sehr nahe am Bayes-Fehler und derSpeicheraufwand beschr�ankt sich auf maximal K(K� 1)=2 Gewichtsvek-toren der Dimension des Merkmalsvektors. Unter den �ubrigen Klassi�ka-toren erweist sich der Histogrammklassi�kator als g�unstig, da auch hierder Rechen- und Speicheraufwand gering ist und die Fehlerrate anderenKlassi�katoren gleichzusetzen ist, wie Bild 4.21 zeigt. LIN QUAD POLY HIST MLP NN SLP

0

5

10

Feh

lerr

ate

in %

1m-Schleife

6.47

3.03

5.833.12 3.6 2.59 1.79

LIN QUAD POLY HIST MLP NN SLP 0

5

10

Feh

lerr

ate

in %

2,5m-Schleife11.04

4.67 5.473.41 3.34 2.75 2.37

Bild 4.21: Fehlerraten bei der Reklassi�kation mit 15 MerkmalenEin Verfahren zur Klassi�kation einer unabh�angigen Teststichprobebei geringem Lernstichprobenumfang ist mit der sogenannten Leave-One-Out-Methode [37] gegeben. Bei diesem Verfahren wird ein Muster derStichprobe als Testmuster herausgenommen. Der entsprechende Klassi-

Page 62: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

4.7 Verfahrensvergleich 53�kator wird mit den �ubrigen Stichprobenmustern trainiert. Die Klassi-�kation des Testmusters ist entweder erfolgreich oder falsch. Diese Vor-gehensweise wird f�ur alle Elemente der Lernstichprobe wiederholt undaus der Anzahl der falsch klassi�zierten Fahrzeuge ergibt sich dann eineFehlerrate f�ur die Fremdklassi�kation. Diese Methode ist allerdings sehrrechenintensiv, da f�ur alle Klassi�katoren bei dem gegebenen Stichproben-umfang ca. 10000 Trainingsl�aufe f�ur beide Schleifen durchgef�uhrt werdenm�u�ten. Deshalb werden f�ur Fahrzeugklassen, f�ur die die Stichprobe um-fangreicher ist, mehrere Fahrzeuge als Testmuster verwendet. Bild 4.22gibt die Fehlerraten einiger Klassi�katoren bei einer Fremdklassi�kationnach der Leave-One-Out-Methode wieder.Dieses Verfahren ist f�ur die Lernphase der neuronalen Netzwerke un-geeignet, da die Trainingsphase sehr umfangreich ist. F�ur derartige Klas-si�katoren wird deshalb die Gesamtstichprobe in eine Lern- und Test-stichprobe sowie in eine zus�atzliche dritte Stichprobe getrennt. Diese Me-thode ist in der Literatur unter dem Begri� Cross Validation bekannt[41]. Mit Hilfe der Erkennungsleistung der zus�atzlichen Stichprobe l�a�tsich w�ahrend des iterativen Lernverfahrens feststellen, wann eine �Uber-adaption eintritt. Die vor der �Uberadaption ermittelten Gewichtsfaktorenwerden dann zur Klassi�kation der unabh�angigen Teststichprobe einge-setzt. Anhand der resultierenden Erkennungsrate kann auf die Leistungdes Klassi�kators in der Anwendungsphase geschlossen werden. F�ur dasvorliegende Problem ist der Umfang der Gesamtstichprobe allerdings zugering, um eine zuverl�assige Sch�atzung des Klassi�kationsfehlers bei einerFremdklassi�kation durchzuf�uhren. LIN QUAD POLY HIST NN

0

5

10

Feh

lerr

ate

in %

1m-Schleife

6.97

3.88

6.71

3.862.59

LIN QUAD POLY HIST NN 0

5

10

Feh

lerr

ate

in %

2,5m-Schleife11.18

5.56.71

5.282.75

Bild 4.22: Fehlerraten bei der Fremdklassi�kation mit 15 Merkmalen

Page 63: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

54 4 Fahrzeugklassi�kation4.8 Sch�atzung des Bayes-FehlersDie Entscheidungsregel der Bayes-Klassi�kation ist mit Gleichung (4.5)gegeben. Der Klassi�kator entscheidet sich beim Muster m f�ur die Hy-pothese Hi, falls die A-posteriori-Wahrscheinlichkeit P (kijm) f�ur alle i =1; : : : ; K maximal ist. Ein Fehler tritt dann auf, wenn das Muster zu einerKlasse geh�ort, deren A-posteriori-Wahrscheinlichkeit nicht den gr�o�tenWert annimmt. Die Wahrscheinlichkeit hierf�ur kann durch die bedingteBayessche Fehlerwahrscheinlichkeite(m) = 1�maxk P (kkjm) (4.34)ausgedr�uckt werden. Der Bayes-Fehler ist der Erwartungswert von e(m):"B = Efe(m)g = Zm p(m) (1�maxk P (kkjm)) dm (4.35)und kann mit der Bayes-Formel (4.6) auch als"B = Efe(m)g = 1� Zmmaxk (pk pmjkk(mjkk)) dm (4.36)geschrieben werden. Der Fehler setzt sich aus den �Uberlappungs �achender mit den A-priori-Wahrscheinlichkeiten gewichteten Likelihood-Funk-tionen zusammen, siehe Bild 4.23.Der Bayes-Fehler ist wegen der Unkenntnis der Verteilungsfunktionenin der Regel analytisch nicht berechenbar. Deshalb werden in der Litera-tur G�utema�e genannt, die eine Absch�atzung des Bayes-Fehlers erlauben.Eine Eingrenzung des Bayes-Fehlers ist durch die Klassi�kationsratedes N�achsten-Nachbar-Klassi�kators nach [37] mit"B � "NN � (2� K"BK � 1) "B < 2 "B (4.37)gegeben.F�ur ein Zweiklassenproblem kann der maximale Bayes-Fehler nach [37]mit der Cherno�-Grenze"C(s) = Zm psmjk1(mjk1)p1�smjk2(mjk2) dm f�ur 0 � s � 1 (4.38)

Page 64: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

4.8 Sch�atzung des Bayes-Fehlers 551 11 2 2 2p p (m|k )

m

p p (m|k )

1H H2

m|k m|k

Bild 4.23: Fehlerrate des Bayes-Klassi�katorsgesch�atzt werden: "B � ps1p1�s2 "C(s): (4.39)Bei Annahme einer Normalverteilung der Dichten kann das Integral in(4.38) geschlossen gel�ost werden und es ergibt sich"C(s) = e��(s) (4.40)mit �(s) = s(1� s)2 [�1 � �2]T [sR1 + (1� s)R2]�1[�1 � �2]+ 12 ln jsR1 + (1� s)R2jjR1jsjR2j1�s : (4.41)Der Term �(s) ist auch als Cherno�-Abstand bekannt. Mit dem optimalenWert s0 aus dem Intervall [0; 1] kann eine obere Grenze des Bayes-Fehlersf�ur ein Zweiklassenproblem mit"B � ps01 p1�s02 "C(s0) (4.42)bestimmt werden. F�ur ein Mehrklassenproblem m�ussen die einzelnenCherno�-Grenzen aufsummiert werden.

Page 65: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

56 4 Fahrzeugklassi�kation

0 0.2 0.4 0.6 0.8 10

1

2

3

4

5

6

s →

ε C(s

) in

[%] →

1m-Schleife

e-µ(s0) = 2.09 %

εNN/2 = 1.295 %

s0 = 0.5

0 0.2 0.4 0.6 0.8 10

1

2

3

4

5

6

s →

ε C(s

) in

[%] →

2,5m-Schleife

e-µ(s0) = 2.687 %

εNN/2 = 1.375 %

s0 = 0.47 Bild 4.24: Absch�atzung des Bayes-FehlersDer Bayes-Fehler kann demnach bei gleich angenommenen A-priori-Wahrscheinlichkeiten durch"NN=2 � "B � "C(s0) (4.43)eingegrenzt werden und liegt unter der Annahme ann�ahernd normalver-teilter Muster f�ur die Klassi�kation mit 1m-Schleifen im Intervall [1,30 %,2,09 %] und f�ur die Klassi�kation mit 2,5m-Schleifen im Intervall [1,38%, 2,69 %], siehe Bild 4.24.

Page 66: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

575 Streckenbezogene Verkehrsdaten-erfassungDie Erfassung streckenbezogener Verkehrsdaten ist ein Forschungsgebiet,das vor allem in Europa seit Beginn der achtziger Jahre bearbeitet wirdund dessen Ergebnisse heute in verschiedenen Verkehrsleitsystemen ein-gesetzt werden [11], [62], [47]. Die Verfahren basieren auf einer genauenKlassi�zierung von Einzelfahrzeugen aus den gemessenen Ausgangssigna-len von Induktionsschleifen, wodurch Fahrzeuge oder Fahrzeugkollekti-ve identi�ziert und am n�achsten Me�querschnitt wiedererkannt werdenk�onnen. Ein Problem stellt sich hierbei in den Anforderungen an dieDetektoren. Sie m�ussen auch bei ung�unstigen Materialbedingungen ei-ner Fahrbahn oder Schr�agfahrten der Fahrzeuge noch gen�ugend genaueund mit anderen Querschnitten vergleichbare Signalverl�aufe liefern. Die-ses Problem kann durch geeignete Verfahren zur Vorverarbeitung undMerkmalsextraktion der Fahrzeugsignale reduziert werden. Gleichzeitigm�ussen die Merkmale im Vergleich zu den Merkmalen der �ubrigen Fahr-zeuge eine eindeutige Wiedererkennung erm�oglichen.Zur Zuordnung von Ereignissen existieren verschiedene Ans�atze, vondenen die in [61] hergeleitete Korrelationsanalyse am h�au�gsten eingesetztwird. In diesem Verfahren werden Fahrzeugkollektive wiedererkannt undaus der Verz�ogerungszeit der Detektion an zwei Me�querschnitten wirdauf die mittlere Reisezeit des Fahrzeugkollektivs im Streckenabschnittgeschlossen. Der Nachteil hierbei liegt allerdings darin, da� ein Fahrzeug-kollektiv nach einer Durchmischung der Fahrzeuge im Streckenabschnittdurch �Uberholvorg�ange nicht mehr eindeutig wiedererkannt werden kann.Zwei neue Ans�atze, die mit einer Wiedererkennung von Individualfahr-zeugen im Fahrzeugverbund arbeiten, sollen in dieser Arbeit pr�asentiertund diesem Verfahren gegen�ubergestellt werden.Das erste Verfahren arbeitet mit Kostenfunktionen, die die gesamteStreckeninformation nutzen. Jedem Fahrzeug im Streckenabschnitt wer-

Page 67: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

58 5 Streckenbezogene Verkehrsdatenerfassungden Kosten zugeordnet, die sich aus den Unterschieden der Merkmals-vektoren an den Me�querschnitten sowie den Unterschieden von pro-gnostizierten und wahren Me�daten der Fahrzeuge an den Induktions-schleifen ergeben. Die individuelle Zuordnung eines Fahrzeugs geschiehtdann durch Minimierung der Kostenfunktionen. Das Ergebnis dieses An-satzes f�uhrt zu einem weiteren Verfahren, das die statistischen Bindun-gen der Fahrzeuge im Streckenabschnitt ber�ucksichtigt. Diese zeitlichenAbh�angigkeiten k�onnen �ahnlich wie in der Spracherkennung durch soge-nannte Hidden-Markov-Modelle modelliert werden. Die Wiedererkennungder Fahrzeuge im Verbund erfolgt e�zient durch die dynamische Pro-grammierung mit dem Viterbi-Algorithmus.Im folgenden soll zun�achst die Struktur eines Mustererkennungssy-stems zur streckenbezogenen Verkehrsdatenerfassung aufgezeigt werden.Die Vorverarbeitung und Merkmalsextraktion der Fahrzeugsignale wirddiskutiert und zusammen mit einer Entscheidungsfunktion anhand vonDaten aus einer Lernstichprobe �xiert. Anschlie�end werden die Sch�atz-verfahren zur streckenbezogenen Verkehrsdatenerfassung pr�asentiert undmit Simulationsergebnissen bewertet. Ein Verfahrensvergleich bildet denAbschlu� dieses Kapitels.5.1 MustererkennungssystemDie Sch�atzung streckenbezogener Verkehrsdaten gelingt �ahnlich wie dieKlassi�kation von Fahrzeugen in Kapitel 4 mit der Theorie der Muster-erkennung. Im Gegensatz zu den Problemen der Fahrzeugklassi�kationsind jetzt aber keine festen Objektklassen vorgegeben, sondern der Merk-malsvektor eines am stromabw�artigen Me�querschnitt erfa�ten Fahrzeugsmu� einem Fahrzeug im Streckenabschnitt zugeordnet werden. Die Fahr-zeuge im Streckenabschnitt bilden demnach die aktuellen Objektklassenund die statistischen Eigenschaften sind durch die am stromaufw�artigenMe�querschnitt extrahierten Merkmalsvektoren festgelegt.Bild 5.1 gibt einen �Uberblick �uber die Struktur eines Mustererken-nungssystems zur streckenbezogenen Verkehrsdatenerfassung. Ausgehend

Page 68: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

5.1 Mustererkennungssystem 59von einer Lernstichprobe von beiden Me�querschnitten werden die Vor-verarbeitung und Merkmalsextraktion festgelegt. In der Vorverarbeitungm�ussen sowohl die irrelevanten Eigenschaften der Me�aufnehmer als auchschleifenspezi�sche Abweichungen an den Me�querschnitten beseitigt wer-den. Die Zielsetzung der Merkmalsextraktion bei der Fahrzeugklassi�ka-tion liegt darin, klassenweise m�oglichst �ahnliche Signale zu erhalten unddie Klassenzentren m�oglichst weit zu streuen. F�ur die Wiedererkennunghingegen sollen die Signale sich f�ur alle Fahrzeuge und hierbei insbeson-dere f�ur Fahrzeuge der gleichen Klasse m�oglichst gut unterscheiden.Nach der Signalvorverarbeitung und der Merkmalsextraktion mu� eineMetrik festgelegt werden, die ein Ma� f�ur den Unterschied verschiedenerMerkmalsvektoren liefert. Bei der Wiedererkennung wird der Merkmals-vektor eines Fahrzeugs vom zweiten Me�querschnitt mit allen Merkmals-vektoren der Fahrzeuge vom ersten Me�querschnitt verglichen und dieEntscheidung f�allt auf das Fahrzeug mit dem geringsten Abstand. DieEinbeziehung anderer Kosten oder Wahrscheinlichkeiten ist in Bild 5.1noch nicht enthalten.Lernstich-probefr1;ig ; fr2;ig Festlegungder Vorver-arbeitung Festlegungder Muster-merkmale Festlegungder Sch�atz-parameterVorver-arbeitung Merkmals-extraktionv1;i = f(r1;i);v2;j = f(r2;j)

Sch�atzungEntscheide Hi, wenndij = d(v1;i � v2;j)= mink dkj;k = 1; : : : ;K ...2,j

1,1

1,2

1,K

-- - -

- ---

? ? ?

Bild 5.1: Struktur eines Mustererkennungssystems zur streckenbezo-genen Verkehrsdatenerfassung

Page 69: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

60 5 Streckenbezogene Verkehrsdatenerfassung5.1.1 Signalvorverarbeitung undMerkmalsextraktionBild 5.2 gibt einen zusammenfassenden �Uberblick �uber die Methodenund die Signalvektoren der Vorverarbeitung und Merkmalsextraktion zurstreckenbezogenen Verkehrsdatenerfassung.-r Normie-rung -rn DCT-IDCT -rd KLT -y-s WT -vBild 5.2: Signalvorverarbeitung und Merkmalsextraktion zurstreckenbezogenen VerkehrsdatenerfassungZur Beschreibung der Sch�atzverfahren werden die Abtastwerte derFahrzeugsignale in einem Intervall der L�ange `T nach Gleichung (2.1)zu einem zeitabh�angigen Vektorr(kT ) = [r(kT ); r([k + 1]T ); : : : ; r([k + `� 1]T )]T (5.1)zusammengefa�t, wobei ` eine nat�urliche Zahl und abh�angig von der Fahr-zeuggeschwindigkeit und der Fahrzeugl�ange ist.Die Vektoren sollen nach ihrem Entstehungsort unterschieden werden.Signale vom stromaufw�artigen Me�querschnitt werden analog zur Nu-merierung des Me�querschnitts mit r1 bezeichnet. Signale vom strom-abw�artigen Me�querschnitt sollen mit r2 beschrieben werden.Jedes Fahrzeugsignal stellt eine Realisation des stochastischen Pro-zesses r1 bzw. r2 dar. Zur Erzeugung der bei der streckenbezogenenVerkehrsdatenerfassung eingesetzten Transformationsmatrizen erfolgt ei-ne Analyse einer Lernstichprobe bestehend aus den Realisationen r1;i undr2;i, i = 1; : : : ; L, wobei L die Anzahl der Elemente der Lernstichprobenangibt.Ein Fahrzeugsignal wird in einem ersten Schritt zum Ausgleich derunterschiedlichen Detektoremp�ndlichkeiten in der Signalamplitude nor-miert. Des weiteren erfolgt zur Elimination der Fahrzeuggeschwindigkeit

Page 70: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

5.1 Mustererkennungssystem 61eine Abtastratenumwandlung durch Interpolation bzw. Dezimation aufeine feste Signall�ange n, siehe Kapitel 2. Die entstehende AbtastperiodeTn ist dann lediglich von der Fahrzeugl�ange abh�angig.Es ergeben sich zeitabh�angige Signalvektorenrn(kTn) = [rn(kTn); rn([k + 1]Tn); : : : ; rn([k + n� 1]Tn)]T (5.2)und damit die stochastischen Prozesse r1;n und r2;n.Die schleifenspezi�schen Abweichungen k�onnen durch eine Tiefpa��l-terung eliminiert werden. Die Filterung kann durch Anwendung der dis-kreten Cosinus-Transformation [1], [67] gleichzeitig zu einer Merkmals-extraktion eingesetzt werden. Die Transformation des Signals in den Fre-quenzbereich durch die DCT und die anschlie�ende R�ucktransformationdes reduzierten Signals in den Zeitbereich durch die inverse DCT kannalsr1;d =KKTr1;n =Dr1;n bzw. r2;d =KKTr2;n =Dr2;n (5.3)geschrieben werden. Die Matrix K = [k1; : : : ;km] setzt sich aus denersten m Basisvektoren der DCT zusammen [67].Der n�achste Schritt der Merkmalsextraktion liegt in der Karhunen-Lo�eve-Transformation der ge�lterten Signale. Zur Karhunen-Lo�eve-Trans-formation wird die KovarianzmatrixRdd = EfrdrTd g (5.4)des gemeinsamen Prozessesrd = 12 (r1;d + r2;d) (5.5)gebildet. Die optimale Transformation erfolgt aus der GleichungRdduj = �juj; j = 1; : : : ; n: (5.6)Das entstehende Basissystem U = [u1; : : : ;uk] beinhaltet nach Abschnitt3.2 die zu den k gr�o�ten Eigenwerten geh�orenden Eigenvektoren.

Page 71: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

62 5 Streckenbezogene VerkehrsdatenerfassungNach der Karhunen-Lo�eve-Transformation liegen die Prozessey1 = U r1;d und y2 = U r2;d (5.7)vor.Die zur Weiterverarbeitung eingesetzten Merkmalsvektoren setzen sichaus den Realisationen der Prozesse y1 und s1 bzw. y2 und s2 zusammen,wobei die Prozesse s1 und s2 die aus den �Uberfahrkurven selektiertenSondermerkmale beinhalten. Es ergeben sich damit die Prozessem1 = " y1s1 # und m2 = " y2s2 # : (5.8)Der letzte Schritt der Merkmalsextraktion liegt in einer Whitening-Transformation des Prozessesm =m1�m2, die f�ur eine gleiche Varianzund damit auch Bewertung aller Koe�zienten des Prozesses sorgt, deraus der Di�erenz der Signale an den jeweiligen Detektoren entsteht. NachAbschnitt 3.3 kann die Transformationsmatrix W aus der GleichungRvv = EfvvTg =WEfmmTgW T =WRmmW T = I (5.9)ermittelt werden. Die Ausgangsprozesse ergeben sich dann zuv1 =Wm1 und v2 =Wm2: (5.10)Werden keine Sondermerkmale eingesetzt, kann die Signalvorverarbei-tung und Merkmalsextraktion durch Zusammenfassen der oben beschrie-benen Transformationen auch in einem Schritt erfolgen.Die Realisationen der Prozesse v1 und v2 werden mit v1;i und v2;ibezeichnet.5.1.2 EntscheidungsfunktionDer Vergleich eines Merkmalsvektors v2;j vom zweiten Me�querschnittmit den Mermalvektoren v1;i, i = 1; : : : ; K, einer Gruppe von K Fahr-zeugen vom ersten Me�querschnitt erfolgt mit der Metrikdij(v1;i;v2;j) = " NXk=1 jv1;i;k � v2;j;kjp# 1p ; 0 < p <1;v1;i;v2;j 2 `p(1; N) ; (5.11)

Page 72: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

5.1 Mustererkennungssystem 63wobei der Parameter p im angegebenen Intervall beliebig gew�ahlt werdenkann.Ein Beispiel ist die euklidische Metrikdij(v1;i;v2;j) = " NXk=1 jv1;i;k � v2;j;kj2# 12 ; v1;i;v2;j 2 `2(1; N): (5.12)Quadriert man Gleichung (5.12), dann ergibt sichd2ij(v1;i;v2;j) = kv1;i � v2;jk2= [v1;i � v2;j]T [v1;i � v2;j]= vT1;iv1;i � 2vT1;iv2;j + vT2;jv2;j: (5.13)als leicht berechenbarer Wert f�ur den Abstand zweier Fahrzeugsignale.Die Zuordnung eines Fahrzeugs an der zweiten Me�stelle mit demMerkmalsvektor v2;j zu einem Fahrzeug an der ersten Me�stelle mit demMerkmalsvektor v1;i kann nun f�ur dasjenige Fahrzeug erfolgen, dessenMetrik d(v1;i;v2;j) minimal ist. Man entscheidet sich f�ur die HypotheseHi, d.h. der Merkmalsvektor v1;i stammt von dem gleichen Fahrzeug wieder Merkmalsvektor v2;j, wennd2ij = min1�k�K �[v1;k � v2;j]T [v1;k � v2;j]� : (5.14)5.1.3 ParameterfestlegungFreie Parameter aus der Vorverarbeitung und Merkmalsextraktion erge-ben sich aus der L�ange der normierten Signale (n), der Anzahl extra-hierter Merkmale aus der DCT-IDCT (m) und der KLT (k), sowie ausder gew�ahlten Metrik (p). Untersuchungen zur Bestimmung der g�unstig-sten Parameter wurden in [76] durchgef�uhrt. Als Datengrundlage standenFahrzeugsignale von 1m- und 2,5m-Schleifen zur Verf�ugung, wobei jeweilsca. 2000 Fahrzeugkurven von einer 1m- und einer 2,5m-Doppelschleife undca. 2000 Fahrzeugkurven von zwei verschiedenen Me�stellen mit 2,5m-Schleifen aufgenommen wurden. Zur Ermittlung der g�unstigsten Para-meter werden die Wiedererkennungsraten von Fahrzeugen aus einer be-stimmten Fahrzeuggruppe herangezogen.

Page 73: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

64 5 Streckenbezogene Verkehrsdatenerfassung

0 10 20 30 40 50 60 70 80 905

6

7

8

9

10

11

12

n →

Feh

ler

[%] →

1m-Schleife1000 Fz.2000 Fz.

0 10 20 30 40 50 60 70 80 9020

22

24

26

28

30

32

34

n →F

ehle

r [%

] →

2,5m-Schleife1000 Fz.2000 Fz.

Bild 5.3: Abh�angigkeit der Fehlerrate von der Anzahl normierter Werte(n) bei 1000 und 2000 VergleichsfahrzeugenNormierungBild 5.3 zeigt die Fehlerraten der Wiedererkennung in Abh�angigkeitder Signall�ange n aus der L�angennormierung f�ur Signale von 1m- und2,5m-Schleifen. F�ur kleine Werte von n (n < 40) erh�oht sich die Fehlerra-te, da die Au �osung der Signale zur Fahrzeugunterscheidung im Gegen-satz zur Fahrzeugklassenunterscheidung verloren geht (hier wurde n = 32gew�ahlt). Es bietet sich daher an, die L�angennormierung auf n = 64Wertefestzulegen, da diese normierten Signale durch Dezimation um den Faktorzwei gleichzeitig zur Fahrzeugklassi�kation eingesetzt werden k�onnen.MerkmalsextraktionDie Merkmalsextraktion mit Hilfe der diskreten Cosinus-Transforma-tion und der Karhunen-Lo�eve-Transformation f�uhrt auf Signale der L�angem bzw. k. Da nach der Karhunen-Lo�eve-Transformation maximal m Ei-genwerte ungleich Null sind und beide Transformationen in einem Schrittberechnet werden sollten, ist es sinnvoll, beide Parameter zusammen zubetrachten. Bild 5.4 zeigt die Fehlerraten der Wiedererkennung in Ab-h�angigkeit von m und k < m f�ur Signale von 1m- und 2,5m-Schleifen. Alsg�unstigste Wahl der Parameter ergibt sich f�ur beide Schleifentypen dasIntervall 12 < k � m < 18.

Page 74: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

5.1 Mustererkennungssystem 65

2040

60 2040

600

5

10

15

20

k → m →

Feh

ler

[%] →

1m-Schleife

2040

6020

4060

20

25

30

35

40

k → m →F

ehle

r [%

] →

2,5m-Schleife

Bild 5.4: Abh�angigkeit der Fehlerrate von der Anzahl der Koe�zientenbei der DCT-IDCT (m) und der KLT (k) bei ca. 2000 Vergleichsfahr-zeugenAus den Untersuchungen in [76] ergibt sich, da� im Gegensatz zurFahrzeugklassi�kation aus der Merkmalsselektion lediglich die Fahrzeug-l�ange als Sondermerkmal miteinbezogen werden mu�. Somit besitzen dieresultierenden Merkmalsvektoren die Dimension N = k + 1.EntscheidungsfunktionF�uhrt man die Wiedererkennung der Fahrzeuge nach der Entschei-dungsregel (5.11) durch, so bietet der in der Metrik auftretende Parameterp einen Freiheitsgrad. In den durchgef�uhrten Untersuchungen wurde derParameter p im Bereich 0 < p < 5 variiert. In Bild 5.5 sind die Fehlerra-ten bez�uglich des Parameters p dargestellt. Zur Wiedererkennung wurdendabei ca. 2000 �Uberfahrkurven von 1m-Schleifensignalen eingesetzt.F�ur diese Kon�guration liegt der optimale Wert bei p � 1:8, die Fehler-raten sind allerdings im Bereich 1 < p < 3 nahezu gleich. Somit erscheinteine Wahl von p = 2 als g�unstig, da der Aufwand zur Berechnung derMetrik nach Gleichung (5.13) am geringsten ist.

Page 75: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

66 5 Streckenbezogene Verkehrsdatenerfassung

0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 56

7

8

9

10

11

12

13

14

p →

Feh

ler

[%] →

1m-Schleife1000 Vergleichsfahrzeuge

Bild 5.5: Prozentuale Fehlerrate bez�uglich des Parameters p der Metrik5.1.4 VoruntersuchungenDie Entscheidungsregel (5.14) ordnet Fahrzeuge lediglich nach ihren ex-trahierten Merkmalsvektoren zu. Die folgenden Voruntersuchungen sollenzeigen, wie gro� die Fehlerrate dieser Zuordnung in Abh�angigkeit der An-zahl der zu vergleichenden Fahrzeuge ist. Die Anzahl der Fahrzeuge h�angtim Verkehrs u� von der L�ange des Streckenabschnitts, der Anzahl derFahrspuren und der Verkehrsdichte ab. Zudem soll diese UntersuchungAufschlu� �uber die Schleifeneigenschaften zur Fahrzeugwiedererkennunggeben.Die aus verschiedenen Durchl�aufen ermittelten prozentualen Fehlerra-ten sind gemittelt in Bild 5.6 f�ur die vorhandenen Stichproben dargestellt.Die Fehlerrate steigt mit zunehmender Vergleichsanzahl an und strebtgegen einen Grenzwert, der vom Schleifentyp und von den Me�stellenabh�angig ist.Aus Bild 5.6a geht hervor, da� die Wiedererkennung von Fahrzeugenmit Signalen von 1m-Schleifen deutlich bessere Ergebnisse liefert als mitSignalen von 2,5m-Schleifen. Die Fehlerrate ist f�ur 2,5m-Schleifen je nachAnzahl der Vergleichsfahrzeuge um den Faktor drei bis vier gr�o�er.Dieses Ergebnis stimmt mit theoretischen Untersuchungen von B�oker�uberein, der in [10] ein informationstheoretisches G�utema� f�ur Merk-

Page 76: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

5.1 Mustererkennungssystem 67

0 500 1000 1500 20000

5

10

15

20

25

30

35

Anzahl der Vergleichsfahrzeuge →

Feh

ler

[%] →

a) Abhangigkeit vom Schleifentyp

1m-Schleife2,5m-Schleife

0 500 1000 1500 20000

10

20

30

40

50

60

70

Anzahl der Vergleichsfahrzeuge →F

ehle

r →

b) Abhangigkeit vom Meßquerschnitt

1 Meßstelle2 Meßstellen

Bild 5.6: Prozentuale Fehlerrate in Abh�angigkeit der Anzahl der Ver-gleichsfahrzeuge: a) 1m- und 2,5m-Doppelschleifen, b) 2,5m-Doppel-schleife und 2,5m-Schleifen von verschiedenen Me�querschnittenmalsvektoren in Abh�angigkeit der geometrischen Abmessungen der ver-wendeten Induktionsschleifen de�niert. Die in den Merkmalen enthalteneTransinformation� ist f�ur Signale von 1m-Schleifen am gr�o�ten, da dieserSchleifentyp eine bestm�ogliche Kombination aus der Au �osung und derReproduzierbarkeit eines Fahrzeugsignals bietet.F�ur Fahrzeugsignale, die mit Doppelschleifen an einem Me�querschnittaufgenommen wurden, ergibt sich eine doppelt so gute Wiedererken-nungsrate, wie bei Fahrzeugsignalen, die von zwei verschiedenen Me�-querschnitten aufgenommen wurden (Bild 5.6b). Die Reproduzierbarkeitder Fahrzeugsignale an Doppelschleifen kann als optimal angesehen wer-den, da die geometrischen Schleifenabmessungen nahezu identisch sind,das Fahrverhalten �uber die Schleifen gleich ist und die Fahrbahneigen-schaften ebenfalls identisch sind. Die mit Doppelschleifen erzielbaren Wie-dererkennungsraten k�onnen allerdings nur als obere Schranke angesehenwerden.Da von 1m-Schleifen keine Messungen an verschiedenen Querschnitten�Als Transinformation wird der durch das Eingangssignal verursachte im Ausgangs-signal enthaltene Informationsanteil bezeichnet

Page 77: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

68 5 Streckenbezogene Verkehrsdatenerfassungzur Verf�ugung standen, kann auch das Ergebnis aus den Doppelschleifen-messungen nur als minimale Fehlerrate aus der Fahrzeugwiedererkennunginterpretiert werden. Da die Zusammensetzung des Verkehrs f�ur alle dreiStichproben �ahnlich ist, ist auch bei 1m-Schleifen eine doppelt so ho-he Fehlerrate zu erwarten, wenn die Fahrzeugsignale von verschiedenenMe�querschnitten stammen.Es zeigt sich, da� f�ur Merkmalsvektoren von 1m-Schleifen allein ausder Entscheidungsregel (5.14) schon eine recht gute Wiedererkennungs-rate erreicht werden kann, da zur Bestimmung der streckenbezogenenVerkehrsdaten �uber ein Zeitintervall oder eine Fahrzeuggruppe gemitteltwerden mu�. Die Wiedererkennungsraten bei 2,5m-Schleifen und einergro�en Anzahl von Fahrzeugen im Streckenabschnitt reichen allerdingszur Bestimmung der streckenbezogenen Verkehrsdaten nicht aus. Deshalbm�ussen weitere Informationen aus dem Verkehrs u� genutzt werden, umdie streckenbezogenen Verkehrsdaten zu sch�atzen. Derartige Sch�atzver-fahren sollen in den n�achsten drei Abschnitten dargestellt werden.5.2 Sch�atzverfahren mitFahrzeugfolgenkorrelationDas Sch�atzverfahren mit Fahrzeugfolgenkorrelationen soll als Referenz-verfahren herangezogen werden. Dieses Verfahren wird in den letztenJahren erfolgreich eingesetzt [62], [47], und ist in [9] und [61] ausf�uhr-lich beschrieben. In dieser Arbeit sollen nur die wichtigsten Schritte desSch�atzalgorithmus vorgestellt werden. Nach der Herleitung der theoreti-schen Ans�atze erfolgt eine Erprobung des Verfahrens f�ur wahre Me�datenund simulierte Verkehrszust�ande.5.2.1 Der Sch�atzalgorithmusZielsetzung des Verfahrens ist die Beschreibung des aktuellen Verkehrs-zustandes in einem Stra�enabschnitt. Die zur Beschreibung des Zustands

Page 78: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

5.2 Sch�atzverfahren mit Fahrzeugfolgenkorrelation 69eingesetzten streckenbezogenen Gr�o�en werden durch die Wiedererken-nung von Fahrzeugkollektiven gewonnen, die an einem stromaufw�arti-gen Me�querschnitt in den Streckenabschnitt eingefahren sind und denStreckenabschnitt an einem stromabw�artigen Me�querschnitt wieder ver-lassen. Der Streckenabschnitt wird im folgenden als System betrachtet,die Fahrzeuge seien Folgen von Objekten, die das System durchlaufen. EinFahrzeug i wird durch seine Merkmalsvektoren v1;i und v2;i repr�asentiert,die an den beiden Me�querschnitten extrahiert werden.KorrelationsanalyseZur Bestimmung der streckenbezogenen Verkehrsdaten werden Gruppenvon Objekten mit einem Korrelationsverfahren zugeordnet. Hierzu wer-den Folgen von Objekten f(s1; t) und f(s2; t) de�niert, die an den Me�-querschnitten zum Zeitpunkt t beobachtet werden. Zu einem festen Zeit-punkt wird am Me�querschnitt 1 eine Gruppe von L Objekten herausge-gri�en, und diese Folge wird fortlaufend mit den den Me�querschnitt 2passierenden Objekten verglichen. Die Reihenfolge der Objekte innerhalbder Gruppe sei vorerst unver�andert (keine Vermischung der Fahrzeuge).Die Folge f(s2; t) wird an der Folge f(s1; t) der L�ange L vorbeigescho-ben. Bei jedem Verschiebungsschritt n werden im Bereich der GruppeKonjunktionen qi;j(n) (i = 1; : : : ; L, j = n; : : : ; n + L � 1) aufgestellt,wobei qi;j(n) = ( 1 bei einer �Ubereinstimmung,0 bei keiner �Ubereinstimmung (5.15)der Fahrzeuge i und j ist. Aus der Summe der L Konjunktionen ergibtsich f�ur jeden Verschiebungsschritt eine sogenannte Korrelationsfunktionvon Objektfolgen r(n) = 1L LXi=1 qi;j(n); (5.16)die proportional zur Anzahl der zugeordneten Fahrzeuge ist. Bild 5.7 zeigtschematisch die Vorgehensweise bei diesem Sch�atzverfahren.Bild 5.8a zeigt ein Beispiel einer Kreuzkorrelationsfunktion r(n). Hier-zu werden die aus den Fahrzeugsignalen extrahierten Merkmalsvektoren

Page 79: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

70 5 Streckenbezogene VerkehrsdatenerfassungStreckenabschnitt

Entscheider

r(n)

0 1

vvvvv v v v v v1,i+1 1,i+2 1,i+3 1,i+61,i+51,i+4 1,i+7 2,i+32,i+22,i+1

i+6

i+7

i+5 i+4 i+2 i+1

i+3

Bild 5.7: Beispiel der Fahrzeugfolgenkorrelation zur streckenbezogenenVerkehrsdatenerfassungvon zwei in geringem Abstand auseinander liegenden Me�stellen mitein-ander verglichen. Da keine �Uberholvorg�ange in dem kurzen Streckenab-schnitt statt�nden, erfolgt eine Korrelation ohne Vermischung. Deutlicherkennbar ist das Maximum der Korrelationsfunktion r(n) bei n = N . Ne-ben dem ausgepr�agten Maximum ist ein Grundrauschen anhand zuf�alliger�Ubereinstimmungen von Fahrzeugen erkennbar.In realen Verkehrssituationen f�uhren Vermischungsvorg�ange zu einererheblichen Verminderung des theoretisch erreichbaren Korrelationsma-ximums r(n) = 1. Als Beispiel zeigt Bild 5.8b die Fahrzeugfolgenkor-relationsfunktion r(n) zu einem festen Zeitpunkt f�ur einen simuliertenVerkehrsablauf in einem 2,5 km langen Streckenabschnitt. Bedingt durchZufalls�ubereinstimmungen und durch Vermischung ist ein eindeutiges Ma-ximum der Funktion r(n) nicht mehr erkennbar und die Position N f�ur dieWiedererkennung einer Fahrzeuggruppe ist aus r(n) nicht mehr bestimm-bar. Deshalb wird eine Gl�attung der Korrelationsfunktion r(n) durch Fal-tung mit einer Gau�funktionh(n) = 1p2�� � exp � n22�2! (5.17)

Page 80: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

5.2 Sch�atzverfahren mit Fahrzeugfolgenkorrelation 71

N 0

1

n →

r(n)

a) ohne Vermischung

N 0

1

n →

r(n)

b) mit Vermischung

N 0

1

n →

p(n)

c) mit Vermischung

Bild 5.8: Beispiel der Fahrzeugfolgenkorrelationen: a) r(n) ohne Ver-mischung, b) r(n) mit Vermischung, c) p(n) mit Vermischungdurchgef�uhrt.Damit ergibt sich eine tiefpa�ge�lterte Korrelationsfunktionp(n) = r(n) � h(n): (5.18)Bild 5.8c gibt die zu r(n) geh�orende gegl�attete und normierte Korrela-tionsfunktion p(n) als Beispiel wieder. Die Wiedererkennung der Fahr-zeuggruppe erfolgt nun n�aherungsweise durch Bestimmung des Maxi-mums der Funktion p(n): N = n���p(n)=max: (5.19)Streckenbezogene VerkehrsdatenDie mittlere Reisezeit des Kollektivs ergibt sich aus der Di�erenz der ge-mittelten Detektionszeiten der Fahrzeuge eines Kollektivs an den beidenMe�querschnitten zutr = 1L L+N�1Xi=N t2;i [f(s2)]� LXi=1 t1;i [f(s1)]! : (5.20)

Page 81: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

72 5 Streckenbezogene VerkehrsdatenerfassungDie Verkehrsdichte und die mittlere Geschwindigkeit des Kollektivsk�onnen mit der Streckenl�ange s alsc = Ns und v = str (5.21)angegeben werden.EntscheidungsregelZur Berechnung der Fahrzeugfolgenkorrelation ist die Bildung von Kon-junktionen notwendig. Es mu� deshalb eine Entscheidungsregel gefundenwerden, die die �Ubereinstimmung bzw. Nicht-�Ubereinstimmung zweierMerkmalsvektoren v1;i und v2;j festlegt. In Abweichung zu [61] soll alsEntscheidungsfunktion statt der City-Block-Metrik die euklidische Me-trik benutzt werden, da sie nach Abschnitt 5.1.3 die besten Ergebnisseliefert. Die mit der Metrik (5.13) f�ur zwei Merkmalsvektoren v1;i undv2;j ermittelten Abst�ande d2i;j werden mit einer Entscheidungsschwelle dverglichen, so da� folgende Zuordnung erfolgen kann:d2i;j � d Fahrzeuge sind identisch,d2i;j > d Fahrzeuge sind nicht identisch. (5.22)Die Bestimmung der optimalen Schwelle d = dopt erfolgt durch Mi-nimierung des Zuordnungsfehlers. Unterscheidet man zwischen den Hy-pothesen H1 (Fahrzeuge sind identisch) und H2 (Fahrzeuge sind nichtidentisch), so sind folgende von der Entscheidungsschwelle d abh�angigenFehlentscheidungen m�oglich:� Fehler 1. Art { f1(d): Entscheidung f�ur H2, wenn H1 zutri�t.� Fehler 2. Art { f2(d): Entscheidung f�ur H1, wenn H2 zutri�t.Die Fehlerwahrscheinlichkeit f(d) ergibt sich damit zuf(d) = f1(d) + f2(d): (5.23)Durch Minimierung der Fehlerfunktion f(d) ergibt sich die optimaleSchwelle d = dopt: f(d)jd=dopt = min : (5.24)

Page 82: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

5.2 Sch�atzverfahren mit Fahrzeugfolgenkorrelation 73Optimale SchwelleDie Festlegung der optimalen Entscheidungsschwelle erfolgt zun�achst f�urMe�reihen ohne Vermischung. Hierzu werden die Merkmalsvektoren ausden Fahrzeugsignalen einer Doppelschleife extrahiert. Allerdings kanndann die Fahrzeugl�ange als Merkmal nicht ber�ucksichtigt werden. DurchVariation des Parameters d k�onnen die Fehlerkurven f1(d) und f2(d) be-stimmt werden. Bild 5.9a zeigt die Fehlerfunktionen f1(d), f2(d) und f(d)f�ur Signale von 1m-Schleifen. Hierbei wurden ca. 2000 Fahrzeuge mitein-ander verglichen, die Dimension der Merkmalsvektoren betr�agt N = 14.Die optimale Schwelle ergibt sich zu dopt = 33 bei einem Fehler vonf(dopt) = 12%.Man kann zeigen, da� die optimale Entscheidungsschwelle relativ un-abh�angig von der Vermischung des Verkehrs ist. In Bild 5.9b sind dieentsprechenden Fehlerfunktionen f�ur Signale von 1m-Schleifen bei einerrelativ hohen Vermischung aufgetragen. Die Vermischung ergibt sich indiesem Fall aus der Simulation eines Verkehrsablaufs mit einem mikro-skopischen Verkehrsmodell. Man erkennt, da� die relativ hohe Fehlerratedurch eine Gl�attung der Korrelationsfunktion verringert werden mu�.Variiert man die Anzahl der Merkmale, die zur Wiedererkennung ei-nes Fahrzeugkollektivs notwendig sind, so ergibt sich N � 6 f�ur Fahr-zeugsignale von der 1m-Schleife und N � 14 f�ur Fahrzeugsignale von2,5m-Schleifen.Zweidimensionale FahrzeugfolgenkorrelationDie Berechnung der Fahrzeugfolgenkorrelation erfolgt zur Bestimmungstreckenbezogener Verkehrsdaten in einem festen Zeit- oder Fahrzeugra-ster. Somit ergeben sich zweidimensionale Korrelationsfunktionen r(n;m)bzw. p(n;m), die in Form eines Korrelationsgebirges aufgetragen werdenk�onnen. Der Parameter n ist dabei im Fahrzeugraster diskretisiert. DieDiskretisierung von m erfolgt in festen Zeitabschnitten mT oder in Fahr-zeuginkrementierungen �m.Zur Berechnung der Fahrzeugfolgenkorrelation

Page 83: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

74 5 Streckenbezogene Verkehrsdatenerfassung

0 20 40 60 80 1000

20

40

60

80

100

d →

Feh

ler

[%]

a) Fehlerfunktionen ohne Vermischung

f1(d)f2(d)f(d)

0 20 40 60 80 1000

20

40

60

80

100

d →F

ehle

r [%

] →

b) Fehlerfunktionen mit Vermischung

f1(d)f2(d)f(d)

Bild 5.9: Fehlerfunktionen zur Bestimmung der optimalen Schwelle doptohne und mit Vermischungr(n;m) = 1L LXi=1 qi;j(n;m) (5.25)�uber eine Fahrzeuggruppe der L�ange L wird die Konjunktion qi;j(n;m)beim Vergleich zweier Fahrzeuge folgenderma�en bestimmt:qi;j(n;m) = 1 f�ur di;j � dopt ! �Ubereinstimmung,qi;j(n;m) = 0 f�ur di;j > dopt ! Keine �Ubereinstimmung. (5.26)Die Entscheidungsschwelle dopt wird nach Gleichung (5.24) bestimmt. Bild5.10a zeigt beispielhaft eine Korrelationsfunktion r(n;m) und ihr H�ohen-pro�l f�ur die optimale Entscheidungsschwelle dopt bei der Doppelschlei-fenmessung mit 1m-Schleifen. Es gibt eine geringe Anzahl an Zufalls�uber-einstimmungen und eine fast eindeutige Detektion von identischen Fahr-zeugen.Die Filterung der Korrelationsfunktion r(n;m) bei Vermischung ge-schieht durch Faltung mit einem zweidimensionalem Filter h(n;m):p(n;m) = r(n;m) � �h(n;m); (5.27)wobeih(n;m) = 1p2�� exp � n22�2! � exp (��m) � �(m); � � 0; (5.28)

Page 84: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

5.2 Sch�atzverfahren mit Fahrzeugfolgenkorrelation 75

N

020

400

1

n → m →

r(n,

m) →

N

020

400

1

n → m →

r(n,

m) →

N

020

400

1

n → m →

p(n,

m) →

n →

m →

r(n,m)

N 0

20

40

n →

m →

r(n,m)

N 0

20

40

n →

m →

p(n,m)

N 0

20

40

Bild 5.10: Fahrzeugfolgenkorrelation f�ur Messungen mit der 1m-Schleife: a) r(n;m) ohne Vermischung, b) r(n;m) mit Vermischung, c)p(n;m) mit Vermischunggew�ahlt wird. Damit erfolgt eine Tiefpa��lterung der Korrelationsfunk-tion mit der Gau�funktion zur Ber�ucksichtigung der Vermischung sowieeine zeitliche gleitende Mittelwertbildung.Die Verschiebungsposition N(m) f�ur die Wiederentdeckung der Fahr-zeuggruppe ergibt sich aus der Bestimmung des Maximums der Korrela-tionsfunktion N(m) = n(m)jp(n;m)=maxn : (5.29)Die gegl�attete Fahrzeugfolgenkorrelation p(n;m) soll hierzu beispiel-haft bei Vermischung dargestellt werden. Dazu wurden die dem Bild 5.10azugrunde liegenden Daten wiederum anhand eines simulierten Verkehrs-ablaufs vermischt. Bild 5.10b zeigt die Fahrzeugfolgenkorrelation r(n;m)

Page 85: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

76 5 Streckenbezogene Verkehrsdatenerfassungund in Bild 5.10c ist die gegl�attete Korrelationsfunktion p(n;m) aufgetra-gen. Im H�ohenpro�l zeigt sich, da� die Lage des Korrelationsmaximumsf�ur diesen Vermischungsgrad im Bereich n = N noch sehr ausgepr�agtist und damit eine Wiedererkennung eines Fahrzeugkollektivs eindeutigdurchgef�uhrt werden k�onnte.Die Anwendung des Verfahrens f�ur simulierte Verkehrsabl�aufe soll imfolgenden Abschnitt dargestellt werden.5.2.2 SimulationsergebnisseDer Verkehrsablauf wurde mit einem mikroskopischen Verkehrsmodell si-muliert, wodurch die Sch�atzung von Reisezeiten in gest�orten Verkehrs-abl�aufen untersucht werden konnte. Die f�ur die Simulationen gew�ahltenParameter �nden sich in Tabelle 5.1.Tabelle 5.1: Parameter zur Sch�atzung mit FahrzeugfolgenkorrelationSchleife 1m 2,5mL�ange der Fahrzeugfolge L 50Verschiebungsraster der Fahrzeuge �m 5, 10Filterkoe�zienten von h(n;m) � 8, 12, 16� 0 : : :0; 1Entscheidungsschwelle dopt 33 22Dimension der Merkmalsvektoren N 14 15Zur Demonstration der Sch�atzalgorithmen wird f�ur dieses und die fol-genden Sch�atzverfahren eine Simulation f�ur einen 2,5 km langen zweispu-rigen Streckenabschnitt einer Autobahn betrachtet. Die Simulationsdauerbetr�agt 30 Minuten und die St�orung des Verkehrsablaufs wird durch dieSperrung einer Fahrspur simuliert, die nach 10 Minuten f�ur die Dauervon 10 Minuten einsetzt. Die Me�daten dieser Simulation stammen zumeinen von Fahrzeugsignalen der 1m-Doppelschleife und zum anderen vonden 2,5m-Schleifen von verschiedenen Me�querschnitten.

Page 86: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

5.2 Sch�atzverfahren mit Fahrzeugfolgenkorrelation 77

0100

200300 0 200 400 600 800

0

0.2

0.4

0.6

0.8

1

n → m →

p(n,

m) →

a) 1m-Schleife

0100

200300 0 200 400 600 800

0

0.2

0.4

0.6

0.8

1

n → m →p(

n,m

) →

b) 2,5m-Schleife

n →

m →

0 100 200 3000

200

400

600

800

n →

m →

0 100 200 3000

200

400

600

800

Bild 5.11: Fahrzeugfolgenkorrelation im simulierten Verkehrsablauf: a)1m-Schleife, b) 2,5m-SchleifeDie St�orung im Streckenabschnitt bedingt eine Erh�ohung der Reise-zeit sowie der Verkehrsdichte im Streckenabschnitt. Die Erh�ohung derVerkehrsdichte zeigt sich deutlich in Bild 5.11, in dem die Fahrzeugfolgen-korrelation p(n;m) dargestellt ist. Die Vergr�o�erung der Verkehrsdichteim mittleren Abschnitt ist durch eine deutliche Verbreiterung des Korre-lationsgebirges sichtbar. Es wird ersichtlich, da� sich maximal bis zu 250Fahrzeuge im Streckenabschnitt be�nden. Die genaue Anzahl der Fahr-zeuge ist durch die Tiefpa��lterung der Korrelationsfunktionen r(n;m)allerdings aus dem Bild nur n�aherungsweise bestimmbar.

Page 87: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

78 5 Streckenbezogene VerkehrsdatenerfassungDie ausgepr�agten Maxima der Fahrzeugfolgenkorrelation zu Beginnder Simulation deuten auf eine sehr gute Sch�atzung der Reisezeit im frei-en Verkehrsablauf hin. Zur besseren �Ubersicht sind die Maximalwerte inden H�ohenpro�len schwarz hervorgehoben. Aus Bild 5.11 wird deutlich,da� nach der Erh�ohung der Fahrzeuganzahl durch die St�orung zwei lo-kale Maxima auftreten. Diese werden dadurch erzeugt, da� verschiedeneFahrzeuggruppen am Streckenende spurselektiv detektiert werden. DieUrsache der Aufteilung in zwei Fahrzeuggruppen liegt in der Sperrungeiner Fahrspur und dem Einf�adeln auf eine gemeinsame Fahrspur. DieseSpurselektivit�at wurde auch in realen Messungen beobachtet [9].Ein Problem ergibt sich in der Bestimmung der Reisezeit durch ei-ne Mittelwertbildung, wie sie nach Gleichung (5.20) durchgef�uhrt wird.Durch die Bestimmung der zugeordneten Fahrzeuggruppe aus dem glo-balen Maximum der Fahrzeugfolgenkorrelation geht die Information derSpurselektivit�at verloren. Im ung�unstigsten Fall erfolgt je nach der Gr�o�eder Korrelationsfunktion in den lokalen Maxima alternierend eine Zuord-nung der einen oder anderen Fahrzeuggruppe. Somit liegt der Sch�atzwertder Reisezeit entweder �uber oder unter dem wahren Mittelwert der Rei-sezeit.Dieses verdeutlicht Bild 5.12, in dem f�ur diese Simulationen die wah-ren und die aus den Fahrzeugfolgenkorrelationen gesch�atzten mittlerenReisezeiten aufgetragen sind. Es zeigt sich, da� die Mittelung im freienVerkehr problemlos durchgef�uhrt werden kann, da� die oben angespro-chenen Probleme allerdings keine eindeutige Bestimmung der Reisezeitim gest�orten Verkehrsablauf erm�oglichen.

Page 88: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

5.3 Sch�atzverfahren mit Kostenfunktionen 79

0 5 10 15 20 25 300

50

100

150

t in [min] →

t r in

[s/k

m] →

a) 1m-Schleife

trtr

0 5 10 15 20 25 300

50

100

150

t in [min] →t r

in [s

/km

] →

b) 2,5m-Schleife

trtr

Bild 5.12: Wahre und gesch�atzte mittlere Reisezeiten aus Fahrzeugfol-genkorrelationen5.3 Sch�atzverfahren mit KostenfunktionenDie Nachteile der Sch�atzung streckenbezogener Verkehrsdaten f�ur kriti-sche Belastungspro�le mit Fahrzeugfolgenkorrelationen k�onnten mit Ver-fahren, bei denen die individuelle Wiedererkennung von Fahrzeugen imVordergrund steht, �uberwunden werden. Allerdings zeigt sich aus Ab-schnitt 5.1.4, da� die Zuordnung von Fahrzeugen mit ausschlie�licherVerwendung der Merkmalsvektoren noch keine zufriedenstellenden Er-gebnisse liefern kann.In diesem Abschnitt soll ein Verfahren vorgestellt werden, das weiterecharakteristische Fahrzeugdaten ber�ucksichtigt, die zum einen aus lokalenMe�werten an den Me�querschnitten abgeleitet werden und zum anderendie Zusammensetzung des Verkehrs ber�ucksichtigen. F�ur jede m�oglicheEinzelentscheidung wird eine Fehlerwahrscheinlichkeit ermittelt, derenKehrwert als Kosten aufgefa�t werden kann. Jedes Fahrzeug wird dann imVerbund mit den �ubrigen im Streckenabschnitt be�ndlichen Fahrzeugenim Sinne einer minimalen Fehlerwahrscheinlichkeit erkannt.Das Sch�atzverfahren soll im folgenden Abschnitt hergeleitet werden.Nach einer Untersuchung und Optimierung des Verfahrens werden ab-schlie�end Simulationen zur Reisezeitsch�atzung pr�asentiert.

Page 89: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

80 5 Streckenbezogene Verkehrsdatenerfassung5.3.1 Der Sch�atzalgorithmusAn den beiden Me�querschnitten k�onnen f�ur jedes Fahrzeug i neben derExtraktion der Merkmalsvektoren v1;i und v2;i sowie der Erfassung derAuftrittszeitpunkte t1;i und t2;i bei Doppelschleifen noch die Fahrzeugge-schwindigkeiten v1;i und v2;i ermittelt werden. Wird parallel zur strecken-bezogenen Verkehrsdatenerfassung eine Fahrzeugklassi�kation durchge-f�uhrt, ist auch eine Ber�ucksichtigung der jeweiligen Fahrzeugklasse undder Entscheidungsvektoren d1;i bzw. d2;i m�oglich. Die Fahrzeugdatenk�onnen zu den neuen Fahrzeugmerkmalsvektoen u1;i und u2;i zusammen-gefa�t werden.In der Bayes-Sch�atzung werden Kostenfunktionen zur Gewichtung vonSch�atzfehlern eingesetzt [40], [79]. Mit Hilfe derartiger Kostenfunktionenk�onnen die streckenbezogenen Verkehrsdaten eines Fahrzeugs nach derDetektion am stromabw�artigen Me�querschnitt ermittelt werden. Ausden einzelnen Kostenfunktionen ergibt sich ein Kostenvektork(u1;i;u2;j) = 2664 k1(u1;i;u2;j)...kn(u1;i;u2;j) 3775 : (5.30)Aus dem Kostenvektor k�onnen die Gesamtkosten f�ur eine Fahrzeugzu-ordnung mit K(u1;i;u2;j) = gT k(u1;i;u2;j) (5.31)ermittelt werden. Der Vektor g gewichtet hierbei die einzelnen Kosten-anteile.KostenfunktionenDie direkt aus den Merkmalsvektoren vl;i resultierenden Kosten ergebensich aus der Entscheidungsfunktion (5.11):k1(u1;i;u2;j) = f(d(v1;i;v2;j)): (5.32)Ausgehend von der am ersten Me�querschnitt ermittelten lokalen Ge-schwindigkeit v1;i eines Fahrzeugs kann eine Prognose der Ankunftszeit

Page 90: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

5.3 Sch�atzverfahren mit Kostenfunktionen 81t2;i am zweiten Me�querschnitt durchgef�uhrt werden. Daraus ergibt sicheine Kostenfunktion k2(u1;i;u2;j) = f(t2;i � t2;j): (5.33)Analog zu den oben angef�uhrten �Uberlegungen kann eine Prognose derAbfahrtszeit t1;j eines Fahrzeugs aus den Messungen am zweiten Me�quer-schnitt durchgef�uhrt werden. Die Kostenfunktion hierf�ur lautetk3(u1;i;u2;j) = f(t1;j � t1;i): (5.34)Die Funktionen in (5.33) und (5.34) ergeben sich aus den statistischenAbweichungen der gesch�atzten und der wahren Ankunfts- bzw. Abfahrts-zeiten der Fahrzeuge und m�ussen anhand einer Lernstichprobe ermitteltwerden. In diesen beiden Prognosen k�onnten zus�atzlich die aktuellen quer-schnittsbezogenen Verkehrsdaten ber�ucksichtigt werden.Eine Reisezeitprognose kann anhand der Reisezeitsch�atzungen von vor-ausgegangenen Fahrzeugen erfolgen. Dieser Ansatz beruht darauf, da� dieReisezeit eine quasistation�are Gr�o�e ist, die sich auch bei pl�otzlich auf-tretenden St�orungen im Verkehrsablauf sehr langsam �andert.Die gemittelte Reisezeit von vorher detektierten Fahrzeugen soll mittr bezeichnet werden, wobei die Ermittlung dieser Gr�o�e sp�ater herge-leitet wird (siehe Abschnitt 5.3.2). Dann kann folgende Kostenfunktionaufgestellt werden: k4(u1;i;u2;j) = f(tr � [t2;j � t1;i]): (5.35)Die Funktion in Gleichung (5.35) ergibt sich ebenfalls aus den stati-stischen Abweichungen der gesch�atzten und der wahren Reisezeiten derbetrachteten Fahrzeuge.Eine weitere Kostenfunktion k�onnte aus dem Abstand der Entschei-dungsvektoren d(d1;i;d2;j) der Klassi�kation festgelegt werden. Obwohldie Vorverarbeitung und Merkmalsextraktion bei der Fahrzeugklassi�ka-tion anders als bei der Wiedererkennung ist, sind die Entscheidungsvek-toren der Fahrzeuge gleicher Klasse einander trotzdem sehr �ahnlich und

Page 91: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

82 5 Streckenbezogene Verkehrsdatenerfassungsomit kommt es fast ausschlie�lich zu Falschzuordnungen innerhalb dergleichen Fahrzeugklasse. Deshalb ist es sinnvoll, die Entscheidungsvek-toren nicht in die Kostenfunktionen zu integrieren, zumal der dann ent-stehende Merkmalsvektor um die Dimension der Klassenanzahl erweitertwerden m�u�te.Ablauf des Sch�atzverfahrensNach der Detektion eines Fahrzeugs j am stromabw�artigen Me�quer-schnitt mit dem Fahrzeugvektor u2;j erfolgt ein Vergleich des Fahrzeugsmit allen K auf der Strecke be�ndlichen Fahrzeugen mit den am strom-aufw�artigen Me�querschnitt erfa�ten Fahrzeugvektoren u1;i, i = 1; : : : ; K.F�ur jedes Fahrzeug k wird die Kostenfunktion K(u1;k;u2;j) bez�uglich desFahrzeugs j gebildet. Anschlie�end �ndet eine Vorauswahl statt, indemdasjenige Fahrzeug i von der ersten Me�stelle mit den geringsten Gesamt-kosten zugeordnet wird,K(u1;i;u2;j) = mink=1;:::;KK(u1;k;u2;j): (5.36)Eine begrenzte Anzahl der Fahrzeuge vom ersten Me�querschnitt mitden geringsten Gesamtkosten wird vorerst zusammen mit den dazugeh�ori-gen Kosten zwischengespeichert. Da es zu Doppelzuweisungen kommenkann, erfolgt anschlie�end eine Untersuchung, ob das bei der Vorauswahlzugeordnete Fahrzeug bereits zugeordnet worden ist. Ist das der Fall, sokommt es zu einer Korrektur f�ur das Fahrzeug mit den gr�o�eren Ko-sten und f�ur dieses Fahrzeug wird das n�achstwahrscheinlichere zugeord-net. Gleichzeitig �ndet auch hier wieder eine �Uberpr�ufung bez�uglich einerDoppelzuweisung statt, und die Korrekturphase wird erst beendet, wennkeine Doppelzuweisung mehr vorliegt.Nach einer Wartezeit W erfolgt die endg�ultige Zuordnung eines Fahr-zeugs. Die Wartezeit beruht auf einem festen Zeitabschnitt oder auf einerfesten Anzahl von Fahrzeugen. Die Zuweisung soll allerdings nur statt-�nden, wenn die Gesamtkosten des Fahrzeugs eine obere Schwelle nicht�uberschreiten. Ansonsten wird das Merkmalsvektorenpaar verworfen undtr�agt nicht zur Sch�atzung der streckenbezogenen Verkehrsdaten bei.

Page 92: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

5.3 Sch�atzverfahren mit Kostenfunktionen 83Streckenabschnitt

u1,i u2,j

1,i 2,j 2,j1,kK(u ,u ) = min(K(u ,u ))j+4

1,i 2,j 2,k1,i

j-1

r,j 1,i2,jt = t - t

K(u ,u ) < min(K(u ,u ))

, i=j-W+1,...,j+4

k=j-W+1

k=j-W+1

j+3 j+2 j+1 j-1 j-2

jj+4

Bild 5.13: Beispiel zur streckenbezogenen Verkehrsdatenerfassung mitKostenfunktionenNach der endg�ultigen Zuordnung eines Fahrzeugs werden die Fahr-zeugvektoren der beiden Me�stellen u1;i und u2;j eliminiert. Die Einzel-fahrzeugreisezeit wird mit tr;j = t2;j � t1;i (5.37)festgelegt. Das Sch�atzverfahren ist vereinfacht in Bild 5.13 dargestellt.Streckenbezogene VerkehrsdatenDie mittlere Reisezeit einer Fahrzeuggruppe ergibt sich aus einer Mitte-lung der Einzelfahrzeugreisezeiten �uber einen festen Zeitraum T oder einede�nierte Fahrzeuggruppe der Gr�o�e M . Die Art der Mittelung kann aufverschiedene Weisen erfolgen. Eine M�oglichkeit besteht in der Mittelwert-bildung, d.h. tr = 1M MXm=1 tr;m: (5.38)Dieses Verfahren ber�ucksichtigt alle gesch�atzten Individualreisezeiten derFahrzeuggruppe, wobei aber auch Falschzuordnungen einbezogen werden.Deshalb bietet es sich an, nach einer H�aufung von nahezu gleichen Ein-zelreisezeiten zu suchen oder aber den Median der Einzelreisezeit des

Page 93: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

84 5 Streckenbezogene VerkehrsdatenerfassungKollektivs als mittlere Reisezeit zu nehmen. Somit ist bei einer hohenWiedererkennungsrate eine richtige Bestimmung der Reisezeit gew�ahrlei-stet.Die Verkehrsdichte und die mittlere Geschwindigkeit ergeben sich ana-log zur Gleichung (5.21).5.3.2 Optimierung des VerfahrensZur optimalen Zuweisung zweier Fahrzeuge m�ussen die einzelnen Pa-rameter der Kostenfunktionen bestimmt werden. Dieses geschieht miteiner Lernstichprobe von wahren Me�daten und simulierten Verkehrs-abl�aufen, wobei vornehmlich kritische durch St�orungen verursachte Ver-kehrsverh�altnisse ber�ucksichtigt werden m�ussen.EntscheidungsfunktionenNach den Untersuchungen in Abschnitt 5.1.3 werden die Kosten f�ur denAbstand der Merkmalsvektoren v1;i und v2;j aus dem Quadrat der eukli-dischen Metrik nach Gleichung (5.13) bestimmt,k1(u1;i;u2;j) = d2ij(v1;i;v2;j): (5.39)Eine einfache Prognose der Ankunftszeit kann im freien Verkehrsablaufaus der Fahrzeuggeschwindigkeit und der Streckenl�ange s mitt2;i = t1;i + sv1;i (5.40)gewonnen werden. Daraus ergibt sich die Kostenfunktionk2(u1;i;u2;j) = f(t1;i + sv1;i � t2;j): (5.41)Zur Bestimmung der Funktion (5.41) mu� die Verteilungsdichtepn(t2;i � t2;j) ermittelt werden. Aus dieser kann auf den Verlauf der Ko-stenfunktion geschlossen werden. Hierzu wurden die Prognosen der An-kunftszeit und die wahren Ankunftszeiten von Fahrzeugen aus simulierten

Page 94: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

5.3 Sch�atzverfahren mit Kostenfunktionen 85-20 -15 -10 -5 0 5 10 15 200

0.1

0.2

0.3

0.4kµσ

= 0.7= 0= 4.133

t2,i-t2,j [s/km] →

a) Statistik der Ankunftszeitprognose

pn

-20 -15 -10 -5 0 5 10 15 200

0.1

0.2

0.3

0.4kµσ

= 0.7= 0= 3.514

t1,j-t1,i [s/km] →

b) Statistik der Abfahrtszeitprognose

pn

Bild 5.14: Beispiele zur Prognoseabweichung im freien Verkehrs u�: a)Ankunftszeitprognose, b) AbfahrtszeitprognoseVerkehrsabl�aufen verglichen. Bild 5.14a zeigt die statistischen Abweichun-gen der prognostizierten und der wahren Werte f�ur eine Simulation mitfreiem Verkehrs u�. Deutlich erkennbar ist eine symmetrische Streuungder Abweichungen im freien Verkehrsablauf.Beschreibt man die Abweichungen zwischen wahrer und prognostizier-ter Ankunftszeit als mittelwertfreien St�orproze� mit einer generalisiertengau�schen Dichtepn(t2;i � t2;j) = k2A(k)�(1=k) exp0@� " jt2;i � t2;jjA(k) #k1A ; (5.42)wobei die Gr�o�e A(k) sich mit Hilfe der Gamma-Funktionen�(b) = Z 10 xb�1 e�x dx (5.43)zu A(k) = �2�(1=k)�(3=k)!1=2 (5.44)berechnet, so ergibt sich die Kostenfunktionk2(u1;i;u2;j) = �����t1;i + sv1;i � t2;j�����k ; (5.45)wobei die Varianz in die Gewichtung der Kostenfunktion eingeht.

Page 95: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

86 5 Streckenbezogene Verkehrsdatenerfassung�Ahnliche Verh�altnisse ergeben sich bei der Prognose der Abfahrtszeitder Fahrzeuge am Streckenanfang aus der lokalen Geschwindigkeit amStreckenende. Mit der Sch�atzgleichungt1;j = t2;j � sv2;j (5.46)ergibt sich die Kostenfunktionk3(u1;i;u2;j) = �����t2;j � sv2;j � t1;i�����k : (5.47)Bild 5.14b gibt die statistischen Abweichungen zwischen der Prognoseund der wahren Abfahrtszeit f�ur ein Beispiel im freien Verkehrsablaufwieder. Grau eingetragen sind im Bild 5.14 die durch gau�sche Dichtenangen�aherten Verteilungskurven.Da sich die Individualreisezeit der Fahrzeuge im Verkehrsablauf nurlangsam �andert, kann eine Prognose der Reisezeit eines Fahrzeugs mitHilfe aktueller gesch�atzter Reisezeiten vorausfahrender Fahrzeuge durch-gef�uhrt werden. In Folge von Sch�atzfehlern mu� eine feste Anzahl vonFahrzeugen ber�ucksichtigt werden, da das Sch�atzverfahren sonst nichtsehr robust ist. Bei Ber�ucksichtigung einer Gruppe von m vorausfahren-den Fahrzeugen und einer Mittelung mit dem Median der Reisezeitenergibt sich als Prognosewert der Fahrzeugreisezeittr;j = Medianftr;j�m; : : : ; tr;j�1g; (5.48)und damit als Kostenfunktionk4(u1;i;u2;j) = f (Medianftr;j�m; : : : ; tr;j�1g � [t2;j � t1;i]) : (5.49)Die Funktion (5.49) ergibt sich aus den statistischen Abweichungender wahren und der prognostizierten Reisezeiten. Bild 5.15 gibt dieseAbweichungen f�ur zwei simulierte Verkehrsabl�aufe wieder. Es zeigt sich,da� die statistischen Abweichungen sich im freien Verkehrsablauf und imgest�orten Verkehrsablauf nur unwesentlich unterscheiden.Bild 5.15 zeigt, da� die Reisezeitdi�erenzen aufeinanderfolgender Fahr-zeuge sich ebenfalls als mittelwertfreier St�orproze� mit einer generalisier-ten gau�schen Dichte nach den Gleichungen (5.42) bis (5.44) beschreiben

Page 96: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

5.3 Sch�atzverfahren mit Kostenfunktionen 87-20 -15 -10 -5 0 5 10 15 20

0

0.05

0.1

kµσ

= 1= 0.25= 4.91

tr,j-(t2,j-t1,i) [s/km] →

pn

a) Statistik der Reisezeitprognose

-20 -15 -10 -5 0 5 10 15 200

0.05

0.1

kµσ

= 1= 0.15= 7

tr,j-(t2,j-t1,i) [s/km] →

pn

b) Statistik der Reisezeitprognose

Bild 5.15: Beispiele zur Abweichung der Reisezeitprognose: a) freierVerkehrs u�, b) gest�orter Verkehrs u�lassen. Der Parameter k mu� optimiert werden, die Standardabweichung� ist nahezu vom Verkehrszustand unabh�angig. Die Kostenfunktion hatdann folgende Form:k4(u1;i;u2;j) = jMedianftr;j�m; : : : ; tr;j�1g � [t2;j � t1;i]jk: (5.50)GewichtsvektorNach der Festlegung der Kostenfunktionen m�ussen die optimalen Ge-wichtsfaktoren der Kostenfunktionen ermittelt werden. Die Gewichtungder Kostenfunktion k1 wird mit 1 vorgegeben, d.h. g = [1; g2; g3; g4]T .Grundlage zur Bestimmung des Gewichtsvektors sind verschiedene mi-kroskopische Verkehrssimulationen, aus denen die wahren Streckengr�o�enhervorgehen. Die Berechnung der Merkmalsvektoren vl;i erfolgt anhandgemessener Fahrzeugsignale. Die weiteren Gr�o�en sind Resultate des Si-mulationsprogramms. Die Erzeugung des gesamten Fahrzeugvektors er-folgt anschlie�end durch die Zuordnung der Merkmalsvektoren eines de-tektierten Fahrzeugs zu den lokalen Verkehrsdaten eines simulierten Fahr-zeugs.F�ur die Kostenfunktionen (5.45) und (5.47) aus den Ankunfts- undAbfahrtszeitprognosen liegt der optimale Wert f�ur den Parameter k beik = 0; 7. Bild 5.16a zeigt die Fehlerrate der Einzelfahrzeugerkennung f�ureinen Gewichtsvektor g = [1; g2; 0; 0]T in einem 2,5 km langen Streckenab-schnitt f�ur verschiedene Verkehrsbelastungen und -zust�ande. Es zeigt sich,

Page 97: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

88 5 Streckenbezogene Verkehrsdatenerfassung

10-6

10-4

10-2

100

0

10

20

30

40

50a) Ankunftszeitprognose

g2 →

Feh

ler

in [%

] →

2500 Fz/h - Storung

2500 Fz/h2000 Fz/h1500 Fz/h

10-3

10-2

10-1

100

0

10

20

30b) Reisezeitprognose

g4 →

Feh

ler

in [%

] →

2500 Fz/h - Storung

2500 Fz/h2000 Fz/h1500 Fz/h

Bild 5.16: Fehlerraten der Wiedererkennung in Abh�angigkeit der Ge-wichtsfaktoren: a) Prognose der Ankunftszeit, b) Prognose der Reisezeitda� ein Gewichtsfaktor von g2 = 0; 01 die Fehlerrate f�ur nicht gest�orteVerkehrsverh�altnisse nahezu halbiert. Bei einer St�orung im Verkehrsab-lauf f�uhrt die Einbeziehung der Ankunftszeitprognose zu einer Erh�ohungder Fehlerrate, so da� der Gewichtsfaktor g2 in diesem Fall zu Null ge-setzt werden sollte. F�ur die Abfahrtszeitprognose ergeben sich die gleichenErgebnisse.Aus Simulationen f�ur unterschiedliche Verkehrsverh�altnisse ergibt sich,da� der Wert k = 1 in der Kostenfunktion (5.50) f�ur die Reisezeitprognoseoptimal ist und die Kosten somit linear zum Abstand der Reisezeitpro-gnose zunehmen. Der Gewichtsfaktor g4 liegt im Bereich 0; 2 � g4 � 0; 4.Dieses geht aus Bild 5.16b hervor, in dem die Fehlerrate der Wiederer-kennung f�ur einen Gewichtsfaktor g = [1; 0; 0; g4] aufgetragen ist. Dabeiist der optimale Gewichtsfaktor vom Verkehrszustand unabh�angig.Die Gewichtsfaktoren wurden f�ur Merkmalsvektoren der DimensionN = 14 bzw. N = 15 festgelegt. Bei einer Verringerung der Dimen-sion geht die Kostenfunktion k1 mit einer anderen Gewichtung in dasVerfahren ein und die restlichen Gewichtsfaktoren m�u�ten entsprechendangepa�t werden.

Page 98: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

5.3 Sch�atzverfahren mit Kostenfunktionen 895.3.3 SimulationsergebnisseDie den hier dargebrachten Ergebnissen zugrundeliegenden Fahrzeug-signale und mikroskopischen Verkehrssimulationen sind mit denen ausAbschnitt 5.2.2 identisch. Die f�ur die Simulationen gew�ahlten Parameter�nden sich in Tabelle 5.2Tabelle 5.2: Parameter zur Sch�atzung mit KostenfunktionenSchleife 1m 2,5mWartel�ange bis zur Zuordnung W 1,. . . ,70Gewichtsfaktoren g1 1g2 0 : : : 0; 1g3 0 : : : 0; 1g4 0, 0,2, 0,4Dimension der Merkmalsvektoren N 14 15F�uhrt man die Einzelfahrzeugwiedererkennung ausschlie�lich mit denMerkmalsvektoren der Fahrzeuge ohne weitere Kostenfunktionen durch,so ergibt sich wie erwartet eine Vielzahl von Falschzuordnungen f�ur dieseSimulation. Bild 5.17a zeigt die aus der Simulation stammenden wah-ren und die gesch�atzten Reisezeiten der Fahrzeuge f�ur Messungen mitder 2,5m-Schleife. In Bild 5.18a ist der �uber drei Zeitperioden der L�angeT = 10 s gemittelte Median der Reisezeiten der Fahrzeuge aufgetragen.Die Intervall�ange wurde hierbei dem zur Verkehrszustandssch�atzung inKapitel 6 eingesetzten makroskopischen Verkehrsmodell angepa�t. Bei derWahl des Medians statt des Ensemble-Mittelwerts hat man den Vorteil,da� Falschentscheidungen weniger gewichtet werden. Es zeigt sich, da�der Anstieg der mittleren Reisezeit im St�orungsbereich trotz der Vielzahlvon individuellen Fehlentscheidungen noch erkennbar ist. Die entspre-chenden Simulationsergebnisse f�ur die Daten der 1m-Schleife �nden sichin den Bildern 5.17c und 5.18c.Erweitert man die Fahrzeugzuordnungen durch die �ubrigen Kosten-funktionen, so reduziert sich die Anzahl der Fehlentscheidungen betr�acht-lich. Ein weiterer Vorteil liegt darin, da� die falsch zugewiesenen Fahrzeu-

Page 99: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

90 5 Streckenbezogene Verkehrsdatenerfassung

0 5 10 15 20 25 300

50

100

150

t in [min] →

t r,j in

[s/k

m] →

a) 2,5m-Schleife

tr,j tr,jg2 = 0 g3 = 0 g4 = 0

0 5 10 15 20 25 300

50

100

150

t in [min] →t r

,j in

[s/k

m] →

b) 2,5m-Schleife

tr,j tr,jg2 = 0..0.1g3 = 0..0.1g4 = 0.2

0 5 10 15 20 25 300

50

100

150

t in [min] →

t r,j in

[s/k

m] →

c) 1m-Schleife

tr,j tr,jg2 = 0 g3 = 0 g4 = 0

0 5 10 15 20 25 300

50

100

150

t in [min] →

t r,j in

[s/k

m] →

d) 1m-Schleife

tr,j tr,jg2 = 0..0.1g3 = 0..0.1g4 = 0.2

Bild 5.17: Wahre und gesch�atzte Fahrzeugreisezeitenge eine sehr geringe Reisezeitdi�erenz zu den wahren Werten aufweisen.Hier wirkt sich der Abstand der Reisezeitprognose als Kostenfaktor aus.Damit ist auch eine erheblich bessere Sch�atzung der mittleren Reisezeitder Fahrzeuge m�oglich. In Bild 5.18b ist analog zum Bild 5.18a der wahreund der gesch�atzte Median der Reisezeiten f�ur Signale der 2,5m-Schleifeaufgetragen. Deutlich bessere Sch�atzergebnisse lassen sich auch hier mitSignalen der 1m-Schleife erzielen. In Bild 5.18d sind die Werte aus derSimulation dargestellt. Die Fehlerrate der Falschzuordnungen liegt bei 1%, wobei aber wieder ber�ucksichtigt werden mu�, da� die Signale vonDoppelschleifen stammen und damit hinsichtlich der Wiedererkennungoptimal sind.

Page 100: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

5.3 Sch�atzverfahren mit Kostenfunktionen 91

0 5 10 15 20 25 300

50

100

150

t in [min] →

t r in

[s/k

m] →

a) 2,5m-Schleife

tr trg2 = 0 g3 = 0 g4 = 0

0 5 10 15 20 25 300

50

100

150

t in [min] →t r

in [s

/km

] →

b) 2,5m-Schleife

tr trg2 = 0..0.1g3 = 0..0.1g4 = 0.2

0 5 10 15 20 25 300

50

100

150

t in [min] →

t r in

[s/k

m] →

c) 1m-Schleife

tr trg2 = 0 g3 = 0 g4 = 0

0 5 10 15 20 25 300

50

100

150

t in [min] →

t r in

[s/k

m] →

d) 1m-Schleife

tr trg2 = 0..0.1g3 = 0..0.1g4 = 0.2

Bild 5.18: Wahrer und gesch�atzter Median der Reisezeiten f�ur T = 10 sF�ur die dargestellten Simulationen betr�agt die Wartezeit bis zur end-g�ultigen Zuordnung W = 50 Fahrzeuge. Als Anzahl der Merkmale wurdenach den Ergebnissen aus Abschnitt 5.1.3 N = 14 f�ur die Signale der 1m-Schleife und N = 15 f�ur die Signale der 2,5m-Schleife gew�ahlt. Mit Hilfeweiterer Simulationen kann gezeigt werden, da� die Sch�atzungen auchbei einer Wahl von N = 6 noch gute Ergebnisse liefern und die Wartezeiteinen Wert von W = 30 Fahrzeugen nicht unterschreiten sollte. Bei ei-ner Verkehrsst�arke von 2500 Fz/h bedeutet das, da� das Sch�atzergebnismit einer Verz�ogerung von maximal 40 s bereitgestellt wird. F�ur l�angereStreckenabschnitte erh�oht sich diese Verz�ogerungszeit entsprechend.

Page 101: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

92 5 Streckenbezogene Verkehrsdatenerfassung5.4 Sch�atzverfahren mit Hidden-Markov-ModellenDie Ergebnisse aus dem letzten Abschnitt zeigen, da� die Einbeziehungder zeitlichen statistischen Bindungen zwischen einzelnen Fahrzeugen imStreckenabschnitt die Bestimmung streckenbezogener Verkehrsdaten ver-bessert. K�onnte man diese Bindungen durch einen mathematischen Pro-ze� beschreiben, so m�u�ten sich verh�altnism�a�ig einfache Algorithmen zurSch�atzung der streckenbezogenen Verkehrsdaten ergeben. In [45] wird ge-zeigt, da� die Bewegung von Fahrzeugen in einem Streckenabschnitt alsPunkt-Proze� modelliert werden kann. Betrachtet man die extrahiertenMerkmalsvektoren der Fahrzeuge als sogenannte Markierungen (marks)der Fahrzeuge, so kann man von einem markierten Punkt{Proze� (mar-ked oder compound point-process) sprechen [75]. F�ur derartige Prozessek�onnen die Verz�ogerungen der Auftrittszeitpunkte einzelner Objekte zwi-schen zwei Orten mit Hidden-Markov-Modellen bestimmt werden [84].In diesem Abschnitt soll ein Sch�atzverfahren mit Hidden-Markov-Mo-dellen pr�asentiert werden. Die Theorie der Hidden-Markov-Modelle wur-de Ende der sechziger Jahre von Baum et.al. eingef�uhrt [5], [6], [7] undin den siebziger Jahren in ersten Anwendungen in der Spracherkennungimplementiert [42], [4]. In den letzten Jahren ist die Theorie der Hidden-Markov-Modelle intensiv behandelt und erweitert worden, woraus schlie�-lich Anwendungen in zahlreichen technischen Applikationen resultierten,siehe hierzu z.B. [63]. In Abschnitt 5.4.1 erfolgt eine �Ubersicht �uberdie Generierung von Hidden-Markov-Modellen, der die Entwicklung ei-nes Modells zur L�osung des vorliegenden Sch�atzproblems folgt. DiesesModell benutzt die extrahierten Merkmalsvektoren der Fahrzeuge als Be-obachtungen und bestimmt diejenige unbekannte Fahrzeugfolge, die mith�ochster Wahrscheinlichkeit zu dieser Beobachtung gef�uhrt hat. Aus derermittelten Fahrzeugfolge k�onnen die streckenbezogenen Verkehrsdatenabgeleitet werden. Eine Optimierung des Verfahrens und Simulationser-gebnisse schlie�en auch diesen Abschnitt ab.

Page 102: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

5.4 Sch�atzverfahren mit Hidden-Markov-Modellen 935.4.1 Hidden-Markov-ModelleHidden-Markov-Modelle sind umfassend in [64], [65], [66] und [32] be-schrieben. Im folgenden sollen die zur streckenbezogenen Verkehrsdaten-erfassung relevanten De�nitionen und Algorithmen aufgef�uhrt werden.De�nition eines Hidden-Markov-ModellsZur De�nition eines Hidden-Markov-Modells werde ein System betrach-tet, das sich zu jedem Zeitpunkt in einem von N m�oglichen Zust�andenbe�ndet. Dieses System kann in jedem Zeitschritt seinen Zustand miteiner bestimmten Wahrscheinlichkeit �andern. Die diskreten Zeitschrittewerden mit t = 1; 2; : : : ; T bezeichnet, der aktuelle Zustand zum Zeit-punkt t wird mit qt festgelegt. Im allgemeinen ist die Wahrscheinlichkeit,da� das System sich in einem bestimmten Zustand j zum Zeitpunkt taufh�alt, abh�angig von den Zust�anden, die das System zu vergangenenZeitpunkten t � 1; t � 2; : : : durchlaufen hat. F�ur den speziellen Fall ei-ner diskreten Markov-Kette 1. Ordnung ist die Wahrscheinlichkeit daf�ur,da� ein Zustand j zum Zeitpunkt t erreicht wird, allerdings lediglich vomZustand i des vorhergehenden Zeitpunktes t� 1 abh�angig:P (qt = jjqt�1 = i; qt�2 = k; : : :) = P (qt = jjqt�1 = i): (5.51)Die Wahrscheinlichkeit in Gleichung (5.51) wird �Ubergangswahrschein-lichkeit genannt. Sind die �Ubergangswahrscheinlichkeiten P (qt = jjqt�1 =i) f�ur alle Zust�ande i und j unabh�angig vom Zeitpunkt t, so ist die diskreteMarkov-Kette homogen und die �Ubergangswahrscheinlichkeiten k�onnenabgek�urzt mit aij = P (qt = jjqt�1 = i); 1 � i; j � N; (5.52)bezeichnet werden. F�ur die Wahrscheinlichkeiten gilt:aij � 0 8j; i; (5.53)NXj=1aij = 1 8i: (5.54)

Page 103: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

94 5 Streckenbezogene VerkehrsdatenerfassungDer hierdurch bestimmte stochastische Proze� kann als beobachtbaresMarkov-Modell bezeichnet werden. Der Proze� liefert eine Anzahl de-terminierter Zust�ande zu jedem Zeitpunkt, und jeder Zustand ist direktbeobachtbar. Anhand der beobachteten Zust�ande kann nun eine Wahr-scheinlichkeitsaussage �uber folgende Zust�ande getro�en werden, falls dieZustands�ubergangswahrscheinlichkeiten vorliegen.In den meisten technischen Anwendungen sind die betrachteten Zu-st�ande jedoch nicht direkt beobachtbar. Das Markov-Modell wird da-hingehend erweitert, da� die vorliegenden Beobachtungen stochastischeAbh�angigkeiten von den Zust�anden besitzen. Das hieraus resultierende so-genannte Hidden-Markov-Modell besteht somit aus einem stochastischenProze�, dem ein weiterer nicht beobachtbarer (hidden) stochastischer Pro-ze� unterliegt.Zur Beschreibung von Hidden-Markov-Modellen werden folgende Pa-rameter de�niert:� Zust�ande Q = fq1; q2; : : : ; qNg� Anzahl der Zust�ande im Modell N� Aktueller Zustand qt� Aktueller Zeitpunkt t� Beobachtungssequenz O = (o1;o2; : : : ;oT )� Anzahl der Objekte T� Beobachtete Symbole V = fv1;v2; : : : ;vMg� Anzahl der Symbolklassen M� Die �Ubergangswahrscheinlichkeiten von einem Zustand i zum Zeit-punkt t in einen Zustand j zum Zeitpunkt t + 1 werden mit derTransitionsmatrix A = faijg mit aij nach (5.52) angegeben.

Page 104: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

5.4 Sch�atzverfahren mit Hidden-Markov-Modellen 95� Die Erzeugungswahrscheinlichkeiten eines Symbols werden mit derMatrix B = fbj(ot)g beschrieben, wobeibj(ot) = P (ot = vkjqt = j); 1 � k �M; (5.55)die Wahrscheinlichkeit f�ur die Beobachtung des Symbols ot = vkim Zustand j mit j = 1; 2; : : : ; N angibt.� Die Wahrscheinlichkeiten f�ur die Anfangszust�ande zum Zeitpunktt = 1 werden mit � = f�ig bezeichnet, wobei�i = P (q1 = i); 1 � i � N; (5.56)ist.Aus diesen Festlegungen wird ersichtlich, da� zur eindeutigen Anga-be eines Hidden-Markov-Modells die Modellparameter N und M sowiedie Symbole vk festgelegt und die Wahrscheinlichkeiten A, B und � be-stimmt werden m�ussen. Hierzu wird die kompakte Schreibweise� = (A;B;�) (5.57)zur Indizierung des Modells eingef�uhrt.Berechnung der BeobachtungswahrscheinlichkeitBei gegebener Beobachtungssequenz O = (o1;o2; : : : ;oT ) und gegebe-nen Modellparametern � = (A;B;�) ergibt sich die Frage nach einere�zienten Berechnung von P (Oj�), d.h. der Wahrscheinlichkeit f�ur dieErzeugung der vorliegenden Beobachtungssequenz unter der Bedingung,da� das Modell mit � vorgegeben ist. F�ur ein bestimmtes Modell undfestem � soll die Wahrscheinlichkeit im folgenden mit P (O) bezeichnetwerden.Bei einem Modell mit N Zust�anden und einer Beobachtungssequenzvon T Objekten existieren insgesamt NT m�ogliche Zustandssequenzen.Betrachtet man eine feste Zustandssequenzq = (q1; q2; : : : ; qT ); (5.58)

Page 105: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

96 5 Streckenbezogene Verkehrsdatenerfassungwobei der Zustand q1 der Initialisierungszustand ist, so kann die Wahr-scheinlichkeit f�ur die Beobachtungssequenz O bei gegebener Zustandsse-quenz q mit (5.55) alsP (Ojq) = TYt=1 P (otjqt) = bq1(o1) � bq2(o2) : : : bqT (oT ) = TYt=1 bqi(oi) (5.59)geschrieben werden, wobei eine statistische Unabh�angigkeit der einzelnenBeobachtungen vorausgesetzt ist.Die Wahrscheinlichkeit f�ur eine Zustandssequenz q kann mit (5.52)und (5.56) als P (q) = �q1 � aq1q2 � aq2q3 : : : aqT�1qT (5.60)geschrieben werden. Die Verbundwahrscheinlichkeit vonO und q, d.h. dieWahrscheinlichkeit, da� die Beobachtungssequenz O und die Zustandsse-quenz q gleichzeitig auftreten, ergibt sich zuP (O; q) = P (Ojq) � P (q): (5.61)Die gesuchte Wahrscheinlichkeit f�ur das Auftreten der gegebenen Be-obachtungssequenz O ergibt sich nun aus der Summe der Verbundwahr-scheinlichkeiten von O und allen m�oglichen Zustandssequenzen q:P (O) = Xalle q P (Ojq)P (q) (5.62)= Xq1;:::;qT �q1bq1(o1)aq1q2bq2(o2) : : : aqT�1qT bqT (oT ): (5.63)Der Aufwand zur direkten Bestimmung von P (O) nach Gleichung(5.63) ist allerdings enorm, da zu jedem Zeitpunkt N m�ogliche Zust�andeerreicht werden k�onnen und f�ur jede Zustandssequenz 2T Berechnungennotwendig sind. Zur e�zienten Berechnung der Wahrscheinlichkeit einerBeobachtungssequenz bedient man sich deshalb eines Trellis-Diagramms,in dem alle Pfade enthalten sind, auf denen das Hidden-Markov-Modelldurchlaufen werden kann. Bild 5.19 zeigt ein Trellis-Diagramm f�ur N = 6Zust�ande und T = 4 Beobachtungen.

Page 106: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

5.4 Sch�atzverfahren mit Hidden-Markov-Modellen 97

1

3

2

1

2 3 4

4

5

6

t

i

a q 2 66b (o )

2

Bild 5.19: Beispiel eines Trellis-Diagramms f�ur die Beobachtungszeit-punkte t und die Zust�ande i mit T = 4 und N = 6Die vereinfachte Berechnung im Trellis erfolgt mit einer sogenann-ten Vorw�arts-Prozedur [66]. Betrachtet wird dabei eine Vorw�arts-Variable�t(i), die die Wahrscheinlichkeit angibt, da� bis zum Zeitpunkt t unterErzeugung der Teil-Beobachtungssequenz o1;o2; : : : ;ot der Zustand i er-reicht worden ist: �t(i) = P (o1;o2; : : : ;ot; qt = i): (5.64)Die Berechnung der Gr�o�e �t(i) erfolgt iterativ:� Initialisierung �1(i) = �i bi(oi); 1 � i � N: (5.65)� Induktion�t+1(j) = " NXi=1 �t(i) aij# bj(ot+1); 1 � t � T � 1;1 � j � N: (5.66)� Ende P (O) = NXi=1 �T (i): (5.67)

Page 107: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

98 5 Streckenbezogene Verkehrsdatenerfassung

t t+1

t+1t

1

2

3

N

a

a

a

a

α (i)

1j

2j

3j

Nj

α (j)

j

tq =

tq =

tq =

tq =

t+1q =

Bild 5.20: Berechnung der Vorw�artswahrscheinlichkeit �t+1(j)Der erste Schritt initialisiert die Vorw�arts-Wahrscheinlichkeit als Ver-bundwahrscheinlichkeit des Zustandes i und der Beobachtung o1. Der In-duktionsschritt wird anhand von Bild 5.20 verdeutlicht. Beim �Ubergangt! t+ 1 kann der Zustand j von N m�oglichen Zust�anden i, 1 � i � N ,aus erreicht werden. Da �t(i) als Wahrscheinlichkeit daf�ur, da� der Zu-stand i bei gegebener Sequenz o1; : : : ;ot erreicht worden ist, bereits be-kannt ist, gibt das Produkt �t(i) aij die Wahrscheinlichkeit daf�ur an, da�der Zustand j zum Zeitpunkt t + 1 vom Zustand i aus erreicht wor-den ist. Die Summe dieser Produkte �uber alle N m�oglichen Zust�andeergibt die Wahrscheinlichkeit daf�ur, da� der Zustand j bei gegebener Be-obachtungssequenz o1; : : : ;ot erreicht worden ist. Die Multiplikation mitbj(ot+1) schlie�t jetzt die Beobachtung ot+1 zum aktuellen Zeitpunkt mitein, so da� sich hieraus die neue Vorw�arts-Variable �t+1(j) ergibt.Nach T � 1 Iterationsschritten erh�alt man die Variable�T (i) = P (o1 o2 : : : oT ; qT = i): (5.68)Die Summation �uber alle Zust�ande ergibt dann nach Gleichung (5.67) diegesuchte Wahrscheinlichkeit P (O).Die Anzahl der Rechenoperationen reduziert sich durch diese iterativeBerechnung drastisch, da die Wahrscheinlichkeiten f�ur alle Wege durch

Page 108: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

5.4 Sch�atzverfahren mit Hidden-Markov-Modellen 99einen Zustand i in Form von �t(i) zusammengefa�t werden.In gleicher Weise wie die Vorw�arts-Variable �t(i) kann auch eine R�uck-w�arts-Variable �t(i) de�niert werden [66].Der Viterbi-AlgorithmusAus den unbekannten Zustandssequenzen q = (q1; : : : ; qT ) mu� die opti-male Sequenz ermittelt werden, die am wahrscheinlichsten zur gegebenenBeobachtungssequenz O = (o1; : : : ;oT ) geh�ort, d.h. deren Wahrschein-lichkeit P (qjO) maximal ist. Diese Maximierung kann e�zient mit derMethode der dynamischen Programmierung durchgef�uhrt werden, was instochastischen Anwendungen gleichbedeutend mit dem Viterbi-Algorith-mus ist [80], [35].Der Viterbi-Algorithmus ist der Vorw�arts-Prozedur sehr �ahnlich. Derwesentliche Unterschied liegt in der Maximierung anstelle der Summie-rung �uber alle Zust�ande nach Gleichung (5.66). Hierzu wird die Gr�o�e�t(i) = maxq1;:::;qt P (q1; : : : ; qt�1; qt = i;o1; : : : ;ot) (5.69)eingef�uhrt. �t(i) gibt f�ur die ersten t Beobachtungen die maximale Wahr-scheinlichkeit entlang eines Pfades an, der zum Zeitpunkt t im Zustand iendet. Durch Induktion ergibt sich f�ur den n�achsten Zeitschritt der Wert�t+1(j) = [maxi �t(i)] � bj(ot+1): (5.70)Zur Bestimmung der Zustandssequenz m�ussen noch die Argumente t(i) gespeichert werden, die Gleichung (5.70) maximieren. Der Viterbi-Algorithmus hat damit folgenden Ablauf:� Initialisierung �1(i) = �i bi(o1); (5.71) 1(i) = 0; 1 � i � N: (5.72)

Page 109: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

100 5 Streckenbezogene Verkehrsdatenerfassung� Rekursion�t(j) = max1�i�N [�t�1 aij ] bj(ot); (5.73) t(j) = arg max1�i�N [�t�1(i) aij]; 2 � t � T;1 � j � N: (5.74)� Ende P � = max1�i�N [�T (i)] (5.75)q�T = arg max1�i�N [�T (i)]: (5.76)� R�uckrechnung des optimalen Pfades der Zustandssequenzenq�t = t+1(q�t+1); t = T � 1; T � 2; : : : ; 1: (5.77)Die Berechnung der Summenpfadkosten zur Bestimmung des optima-len Pfades nach den Gleichungen (5.71) bis (5.77) geschieht vorwiegenddurch Multiplikationen. In der Praxis werden die vorgeschriebenen Be-rechnungen mit logarithmierten Werten durchgef�uhrt, so da� anstelleder Multiplikationen nur noch Additionen ben�otigt werden. E�ektive Al-gorithmen zur Implementierung des Viterbi-Algorithmus �nden sich in[53].Ein Problem ergibt sich aus der L�ange der abzuspeichernden Zustands-sequenz, die sich in jedem Iterationsschritt um eins erh�oht, so da� sichbei fortlaufender Ber�ucksichtigung neuer Beobachtungssymbole ein ak-kumulierender Speicherplatzbedarf ergeben w�urde. In der Praxis zeigtes sich allerdings, da� die von einem Zeitpunkt t aus zur�uckverfolgtensogenannten �uberlebenden Pfade sich nach einer endlichen Anzahl tmaxan Zeitschritten vereinigen und die den N Zust�anden zugeordneten Be-obachtungssymbole ab der Speicherzelle tmax identische Werte aufweisen.Somit kann zum Zeitschritt t eine Entscheidung �uber den Zustand qt�tmaxgetro�en werden [44].

Page 110: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

5.4 Sch�atzverfahren mit Hidden-Markov-Modellen 101Klassi�zierung von Hidden-Markov-ModellenHidden-Markov-Modelle k�onnen anhand der Struktur der Transitionsma-trix A klassi�ziert werden. K�onnen von einem Zustand i zu einem Zeit-punkt t = 1; : : : ; T �1 im n�achsten Zeitschritt alle Zust�ande j = 1; : : : ; Nerreicht werden, so ist die Transitionsmatrix A voll besetzt. Das zugeh�ori-ge Hidden-Markov-Modell hei�t in diesem Fall ergodisch. Ein Beispiel f�urein derartiges Modell ist in Bild 5.21a f�ur N = 4 dargestellt.1 2

34

1 2

34

a) b)

Bild 5.21: Beispiele f�ur Hidden-Markov-Modelle mit jeweils 4Zust�anden: a) Ergodisches Modell, b) Nicht-ergodisches ModellIn vielen Anwendungen treten nicht-ergodische Modelle auf, in denenbestimmte Zustands�uberg�ange nicht erlaubt sind und die Transitionsma-trix nicht mehr voll besetzt ist. Ein Beispiel hierf�ur ist in Bild 5.21b dar-gestellt. Die Koe�zienten der Transitionsmatrix des zugeh�origen Hidden-Markov-Modells haben die Eigenschaft, da�aij = 0 f�ur i = j (5.78)ist. In diesem Fall mu� sich beim �Ubergang von einem Zeitschritt t zumn�achsten Zeitschritt t+1 der Zustand des Systems �andern. Ein derartigesModell wird zur streckenbezogenen Verkehrsdatenerfassung eingesetzt.

Page 111: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

102 5 Streckenbezogene VerkehrsdatenerfassungBeobachtungssymbole mit kontinuierlichenWahrscheinlichkeitsdichtefunktionenDie bislang durchgef�uhrten Betrachtungen bezogen sich ausschlie�lich aufBeobachtungssequenzen mit diskreten Beobachtungssymbolen aus einembegrenzten Wertevorrat der Gr�o�e M . F�ur diesen Fall konnte f�ur jedenZustand j zu einem beobachteten Symbol vk eine diskrete Wahrschein-lichkeitsdichte angegeben werden. In vielen Anwendungsf�allen bestehendie Beobachtungen allerdings aus kontinuierlichen Signalen oder Vekto-ren. In diesen F�allen besteht zum einen die M�oglichkeit, solche Signalemittels Vektorquantisierung einem diskreten Prototypen zuzuordnen. Dieandere M�oglichkeit liegt in der Modellierung der Wahrscheinlichkeitsdich-tefunktionen der Vektoren durch parametrische Funktionen.Der einfachste Fall liegt vor, wenn die Wahrscheinlichkeitsdichtefunk-tion der kontinuierlichen Signale oder Vektoren durch eine Normalvertei-lung angen�ahert werden kann. Die Wahrscheinlichkeitsdichte im Zustandj kann dann mitbj(o) = 1[2�]n=2 jRjj1=2 exp(�12[o� �j]TR�1j [o� �j]) (5.79)beschrieben werden. Rj ist die Kovarianzmatrix und �j der Mittelwerts-vektor der Beobachtungsvektoren o im Zustand j.Besitzt der Proze� eine Einheitsmatrix I als Kovarianzmatrix, so ver-einfacht sich Gleichung (5.79) zubj(o) = 1[2�]n=2 exp(�12[o� �j]T [o� �j]): (5.80)Die Konstante ([2�]n=2)�1 und der Faktor �1=2 sind unabh�angig vomZustand j. Die Erzeugungswahrscheinlichkeitsdichte eines Beobachtungs-vektors kann somit auch durch das Quadrat des euklidischen Abstandsd2(o;�j) = (o� �j)T (o� �j) (5.81)ausgedr�uckt werden. Diese Vereinfachung kann zur streckenbezogenenVerkehrsdatenerfassung durchgef�uhrt werden.

Page 112: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

5.4 Sch�atzverfahren mit Hidden-Markov-Modellen 1035.4.2 Der Sch�atzalgorithmusDie Idee dieses Sch�atzverfahrens liegt darin, die am stromabw�artigenMe�querschnitt erfa�ten Merkmalsvektoren einer Fahrzeuggruppe als Be-obachtungsvektoren eines Hidden-Markov-Modells anzusehen. Die auf-grund der Vermischung des Verkehrs im Streckenabschnitt unbekanntenPositionen dieser Fahrzeuggruppe am stromaufw�artigen Me�querschnittentsprechen der unbekannten Zustandssequenz des Modells. Die Anzahlder Fahrzeuge im Streckenabschnitt bestimmt die Anzahl der Zust�ande.Mit dem Viterbi-Algorithmus kann ausgehend von der Beobachtungsse-quenz eine optimale Zustandssequenz und damit die wahrscheinlichsteFahrzeuggruppe gesch�atzt werden. Aus dieser Sch�atzung k�onnen danndie streckenbezogenen Verkehrsdaten der einzelnen Fahrzeuge bestimmtwerden.Die im letzten Abschnitt de�nierten Parameter eines Hidden-Markov-Modells sind in diesem Verfahren folgenderma�en belegt:Zust�ande Q = fq1; q2; : : : ; qTgDie Position der Fahrzeuge am stromaufw�artigen Me�querschnitt wirddurch die Zust�ande beschrieben.Anzahl der Zust�ande NDie Anzahl der Zust�ande entspricht der Fahrzeuganzahl im Streckenab-schnitt.Aktueller Zustand qtDie Position des am zweiten Me�querschnitt detektierten Fahrzeugs beimEintritt in den Streckenabschnitt entspricht dem aktuellen Zustand.Aktueller Beobachtungszeitpunkt tDie Position des aktuell detektierten Fahrzeugs am stromabw�artigen Me�-querschnitt innerhalb der betrachteten Fahrzeuggruppe ist gleichbedeu-tend mit dem aktuellen Beobachtungszeitpunkt t, der bei diesem Modellsomit als diskreter Wert verstanden wird.Beobachtungssequenz O = (o1; o2; : : : ; oT )Die Beobachtungssequenz setzt sich aus den Merkmalsvektoren v2;t derbetrachteten Fahrzeuggruppe vom zweiten Me�querschnitt zusammen.

Page 113: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

104 5 Streckenbezogene VerkehrsdatenerfassungAnzahl der Objekte TDie Gr�o�e der untersuchten Fahrzeuggruppe am zweiten Me�querschnittentspricht der Anzahl der Objekte des Modells.�Ubergangswahrscheinlichkeiten ADie �Ubergangswahrscheinlichkeiten von einem Zustand i zum Zeitpunktt in einen Zustand j zum Zeitpunkt t+ 1aij = P (qt+1 = jjqt = i); 1 � i; j � N; (5.82)ergeben sich aus der Vermischung der Fahrzeuge im Streckenabschnitt.Die Zustands�uberg�ange sollen an einem Beispiel mit Bild 5.22 ver-deutlicht werden. Dargestellt sind zwei M�oglichkeiten f�ur einen Zustands-�ubergang anhand der Positionen von drei Fahrzeugen am ersten und amzweiten Me�querschnitt. Zum Zeitpunkt t wird in Bild 5.22a am zweitenMe�querschnitt ein LKW detektiert, dessen Position am ersten Me�quer-schnitt mit dem Zustand i bezeichnet werden soll. Anschlie�end erfolgtzum Zeitpunkt t+1 die Detektion des wei�en PKWs, dessen Position bzw.Zustand j = i+1 ist, da er am ersten Me�querschnitt unmittelbar hinterdem LKW in den Streckenabschnitt eingefahren ist. Im zweiten Fall wirdam zweiten Me�querschnitt zum Zeitpunkt t+ 1 ein grauer PKW detek-tiert, dessen Zustand j = i + 2 ist, da er am ersten Me�querschnitt zweiFahrzeuge hinter dem LKW detektiert wurde.Aus diesen �Uberlegungen ergibt sich ein nicht-ergodisches Modell nachBild 5.21b. Da Mehrfachzuweisungen von Fahrzeugen unterdr�uckt werdensollen, ist ein Verbleiben des Systems in einem Zustand nicht erlaubt undnach Gleichung (5.78) ist aij = 0 f�ur i = j. Die Beschr�ankung auf einMarkov-Modell 1. Ordnung f�uhrt allerdings dazu, da� ein �Ubergang ineinen schon einmal belegten Zustand nach mehr als einem Zeitschrittnicht unterbunden werden kann.Als Transitionsmatrix ergibt sich eine Bandmatrix mit Nullelementen

Page 114: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

5.4 Sch�atzverfahren mit Hidden-Markov-Modellen 105a)1 2b)1 2Bild 5.22: Beispiel f�ur den �Ubergang vom Zustand i in den Zustand j:a) j = i+ 1, b) j = i+ 2auf der Hauptdiagonalen:

A = 26666664 0 a1 � � � aN�1a�1 0 . . . ...... . . . 0 a1a�N+1 � � � a�1 037777775 : (5.83)

Die �Ubergangswahrscheinlichkeiten m�ussen aus einer Lernstichprobebestimmt werden. Hierauf wird in Abschnitt 5.4.3 noch n�aher eingegan-gen.Erzeugungswahrscheinlichkeiten BZum Vergleich eines Merkmalsvektors v2;j mit den Merkmalsvektorenvom ersten Me�querschnitt v1;i m�ussen kontinuierliche Wahrscheinlich-keitsdichtefunktionen verwendet werden. Nach Abschnitt 5.1.3 handelt essich bei dem Proze� der Merkmalsvektorendi�erenzen um einen wei�enProze�, so da� die Erzeugungswahrscheinlichkeitsdichte mit Gleichung(5.80) angegeben werden kann. Hierbei sind der Beobachtungsvektor mito = v2;j und die Mittelwertsvektoren mit �i = v1;i gegeben und die

Page 115: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

106 5 Streckenbezogene VerkehrsdatenerfassungWahrscheinlichkeitsdichte lautet:bi(o) = 1[2�]n=2 exp(�12[v2;j � v1;i]T [v2;j � v1;i]): (5.84)Bei der Berechnung der Summenpfadkosten zur Ermittlung der opti-malen Zustandssequenz mit dem Viterbi-Algorithmus in logarithmierterForm ergibt sich die FunktionBi(o) = ln[bi(o)] = � ln([2�]n=2)� 12[v2;j � v1;i]T [v2;j � v1;i])= � ln([2�]n=2)� 12 d2(v2;j;v1;i): (5.85)Die Konstante ln([2�]n=2) ist ebenso wie der Vorfaktor 1=2 unabh�angigvom Zustand i und braucht deshalb beim Viterbi-Algorithmus nicht be-r�ucksichtigt zu werden.Wahrscheinlichkeiten f�ur die Anfangszust�ande �Die Wahrscheinlichkeiten f�ur die Anfangszust�ande � = f�ig zum Zeit-punkt t = 1 werden mit�i = P (q1 = i) = 1=N; 1 � i � N; (5.86)als gleich angenommen. Damit ist auch diese Gr�o�e unabh�angig vom Zu-stand i und bleibt ebenso unber�ucksichtigt.Das Sch�atzverfahren ist vereinfacht in Bild 5.23 dargestellt. Das vor-liegende Beispiel wird in Abschnitt 5.4.4 noch n�aher erl�autert.5.4.3 Optimierung des VerfahrensF�ur verschiedenartige Streckenabschnitte und Verkehrszusammensetzun-gen mu� ein entsprechendes Modell mit den Parametern � = (A;B;�)festgelegt werden. Die in der Literatur beschriebenen Verfahren zur Para-meteroptimierung ([6], [29], [50], [43]) brauchen bei diesem Modell nicht

Page 116: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

5.4 Sch�atzverfahren mit Hidden-Markov-Modellen 107 Streckenabschnitt

t

i

1 4 3 5Q={q ,q ,q ,q }

r,k 2,k 1,it = t - t , k=1,...,4, i=1,4,3,5Bild 5.23: Beispiel zur streckenbezogenen Verkehrsdatenerfassung mitHidden-Markov-Modellenangewendet werden, da die Parameter der Wahrscheinlichkeitsdichtefunk-tion (5.77) mit den Merkmalsvektoren vom ersten Me�querschnitt gege-ben sind bzw. durch die Whitening-Transformation festgelegt sind. DieAnfangswahrscheinlichkeiten werden a priori als gleich angenommen. Des-halb wird bei diesem Modell die Transitionsmatrix direkt aus einer um-fassenden Lernstichprobe gesch�atzt, in der Zustands�uberg�ange aus ver-schiedenen Verkehrsabl�aufen beinhaltet sind.Sch�atzung der �UbergangswahrscheinlichkeitenF�ur die folgenden Betrachtungen wird ein zweispuriger Streckenabschnittmit einer L�ange von 2,5 km betrachtet. Als Grundlage zur Bestimmungder �Ubergangswahrscheinlichkeiten dienen mikroskopische Verkehrssimu-lationen, mit denen verschiedene Verkehrszust�ande ber�ucksichtigt werden

Page 117: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

108 5 Streckenbezogene Verkehrsdatenerfassung

-40 -20 0 20 400

0.01

0.02

0.03

0.04

0.05

0.06

0.07

j-i →

a ij=

P(q

t+1=

j|qt=

i) →

Bild 5.24: Aus einer Stichprobe ermittelte Wahrscheinlichkeitsvertei-lung f�ur die �Uberg�ange vom Zustand i zu einem Zeitpunkt t in einenZustand j zu einem Zeitpunkt t+ 1k�onnen. Bild 5.24 zeigt die aus einer Stichprobe von ca. 8000 Fahrzeugenermittelten �Ubergangswahrscheinlichkeiten aij von einem Zustand i zueinem Zeitpunkt t in einen Zustand j zu einem Zeitpunkt t + 1 f�ur denVerkehrsablauf in dem betrachteten Streckenabschnitt.Die wahrscheinlichsten �Uberg�ange vom Zustand i in den Zustand jliegen f�ur j = i+ 1 und j = i+ 2 vor. Dieses entspricht den Beispielen inBild 5.22. Somit werden zwei am ersten Me�querschnitt kurz hinterein-ander detektierte Fahrzeuge mit einer hohen Wahrscheinlichkeit auch amzweiten Me�querschnitt wieder zusammen detektiert.Bestimmung des optimalen Pfades mit Viterbi-DetektionF�ur eine vorliegende Beobachtungssequenz o1; : : : ;oT wird die optimalezugrundeliegende Zustandssequenz q1; : : : ; qT gesucht. Im Fall der Fahr-zeugwiedererkennung bedeutet dieses, da� ausgehend von der Beobach-tungssequenz der Merkmalsvektoren v2;1; : : : ;v2;T vom zweiten Me�quer-schnitt bei Kenntnis der Merkmalsvektoren v1;1; : : : ;v1;N vom ersten Me�-querschnitt aller sich zum Zeitpunkt T im Streckenabschnitt be�ndlichen

Page 118: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

5.4 Sch�atzverfahren mit Hidden-Markov-Modellen 109Fahrzeuge diejenige Fahrzeuggruppe aus den N Fahrzeugen ausgew�ahltwerden soll, deren Wahrscheinlichkeit P (qjO) am gr�o�ten ist.Die optimale Zustandssequenz wird nach Abschnitt 5.4.1 mit demViterbi-Algorithmus ermittelt. Bei der Initialisierung des Verfahrens wer-den die euklidischen Distanzen zwischen dem Merkmalsvektor v2;1 desersten am stromabw�artigen Me�querschnitt detektierten Fahrzeugs mitallen Merkmalsvektoren v1;i der bis dahin am ersten Me�querschnitt er-fa�ten Fahrzeuge ermittelt. Die Initialisierung erfolgt in logarithmierterForm mit �1(i) = Bi(o1); (5.87)1(i) = 0; 1 � i � N: (5.88)Anschlie�end folgt f�ur die nachfolgenden Fahrzeugdetektionen amzweiten Me�querschnitt mitAij = ln[aij ]; 1 � i; j � N; (5.89)der Rekursionsschritt�t(j) = max1�i�N [�t�1 + Aij ] +Bj(ot); (5.90)t(j) = arg max1�i�N [�t�1(i) + Aij]; 2 � t < T;1 � j � N: (5.91)Am Ende der Rekursion ergeben sich der Logarithmus der maximalenWahrscheinlichkeit zu P � = max1�i�N [�T (i)] (5.92)und der wahrscheinlichste Zustand zuq�T = arg max1�i�N [�T (i)]: (5.93)Der optimale Pfad der Zustandssequenzen ergibt sich wieder zuq�t = t+1(q�t+1); t = T � 1; T � 2; : : : ; 1: (5.94)

Page 119: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

110 5 Streckenbezogene VerkehrsdatenerfassungPraktisch erfolgt die Viterbi-Detektion der Fahrzeuge wie in Abschnitt5.4.1 beschrieben mit unbegrenzten Beobachtungssequenzen. In diesemFall mu� die Anzahl an Zeitschritten, tmax, festgelegt werden, bei der sichdie �uberlebenden Pfade vereinigen. G�unstigerweise w�ahlt man die L�angeder Beobachtungssequenz zu T = tmax + 1, so da� zum Zeitpunkt t = 1alle Pfade vereinigt sind.Zur Bestimmung des Fahrzeugs mit der Beobachtung o1 wird der mitGleichung (5.94) festgelegte optimale Pfad der Zustandssequenzen be-stimmt und das Fahrzeug dem Zustand q�1 zugeordnet. Anschlie�end wirddie Beobachtung o1 aus dem Speicher sofort oder nach einer festen Warte-zeit eliminiert. Die Beobachtungssequenz o2; : : : ; oT wird dann der neuenBeobachtungssequenz zum Zeitpunkt T +1 zugeordnet, die um die Beob-achtung eines neuen Fahrzeugs oT+1 erg�anzt wird. Gleichzeitig erfolgt eineKorrektur der Zust�ande der verbleibenden Fahrzeuge, da der Zustand q1eliminiert wurde. Au�erdem werden die Zust�ande um diejenigen Fahrzeu-ge erweitert, die im neuen Zeitintervall den ersten Me�querschnitt passierthaben. Nach dem �Ubergang T + 1 ! T und o2; : : : ; oT+1 ! o1; : : : ; oTwird wieder mit der Bestimmung des optimalen Zustands q�1 fortgefahren.Die streckenbezogenen Verkehrsdaten k�onnen nach der Wiedererkennungeines Fahrzeugs gem�a� den Gleichungen (5.21) und (5.38) bestimmt wer-den.Die Zeitpunkte der Pfadvereinigung k�onnen allgemein nicht bestimmtwerden, sie sind vielmehr abh�angig von der betrachteten Verkehrslagesowie der Zusammensetzung des Verkehrs. F�ur die Untersuchungen miteinem 2,5 km langen Streckenabschnitt kann die minimale Entscheidungs-verz�ogerung mit tmax = 10 festgelegt werden.Die Zusammenh�ange zwischen der Bestimmung der optimalen Zu-standssequenz und der Pfadvereinigung zeigt beispielhaft Bild 5.25. Dar-gestellt sind bei einer Anzahl von ca. 110 Fahrzeugen im Streckenab-schnitt und fortlaufender Fahrzeugdetektion zu den Zeitpunkten t0; t0 +1; : : : ; t0+5 die jeweils �uberlebenden Pfade. In den ersten 5 Zeitschrittensind deutlich zwei divergierende Pfade zu erkennen (tmax = 7 f�ur t0 + 4).Im Zeitschritt t0+5 entf�allt ein Pfad, da die in ihm enthaltenen Zust�andenicht mehr optimal sind.

Page 120: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

5.4 Sch�atzverfahren mit Hidden-Markov-Modellen 111

2 4 6 8 100

20

40

60

80

100

120

t-t0 →

i →

2 4 6 8 100

20

40

60

80

100

120

t-(t0+1) →i →

2 4 6 8 100

20

40

60

80

100

120

t-(t0+2) →

i →

2 4 6 8 100

20

40

60

80

100

120

t-(t0+3) →

i →

2 4 6 8 100

20

40

60

80

100

120

t-(t0+4) →

i →

2 4 6 8 100

20

40

60

80

100

120

t-(t0+5) →

i →

Bild 5.25: Beispiel zur Bestimmung des optimalen Pfades mit einemGed�achtnis von tmax = 10 Fahrzeugen

Page 121: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

112 5 Streckenbezogene Verkehrsdatenerfassung5.4.4 Beispiel zur FahrzeugwiedererkennungDie Fahrzeugwiedererkennung zur streckenbezogenen Verkehrsdatenerfas-sung mit Hilfe eines Hidden-Markov-Modells soll nachfolgend anhand ei-nes Beispiels verdeutlicht werden. Betrachtet wird der in Bild 5.26 darge-stellte Streckenabschnitt mit den zu 5 verschiedenen Zeitpunkten vorlie-genden Verkehrsverh�altnissen. Typische �Uberfahrkurven aller in diesemBeispiel betrachteten Fahrzeuge sind in Bild 5.27 dargestellt.Zum Zeitpunkt t = 0 be�nden sich f�unf Fahrzeuge im Streckenab-schnitt. Ihre Positionen sind anhand der Me�zeitpunkte am stromaufw�arti-gen Me�querschnitt festgelegt und entsprechen den Zust�anden 1 bis 5. ImZeitintervall ]0; 1] passieren drei Fahrzeuge den ersten Me�querschnitt.Streckenabschnitt

1245 3

145 3268 79

145 3210 6879

145 32687910

145 326879

t=1

t=2

t=3

t=4

Bild 5.26: Beispiel zur Fahrzeugwiedererkennung mit Hidden-Markov-Modellen

Page 122: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

5.4 Sch�atzverfahren mit Hidden-Markov-Modellen 113

20 40 600

0.05

0.1

0.15

0.2

Fahrzeug 1:

20 40 600

0.05

0.1

0.15

0.2

Fahrzeug 2:

20 40 600

0.05

0.1

0.15

0.2

Fahrzeug 3:

20 40 600

0.05

0.1

0.15

0.2

Fahrzeug 4:

20 40 600

0.05

0.1

0.15

0.2

Fahrzeug 5:

20 40 600

0.05

0.1

0.15

0.2

Fahrzeug 6:

20 40 600

0.05

0.1

0.15

0.2

Fahrzeug 7:

20 40 600

0.05

0.1

0.15

0.2

Fahrzeug 8:

20 40 600

0.05

0.1

0.15

0.2

Fahrzeug 9:

20 40 600

0.05

0.1

0.15

0.2

Fahrzeug 10:

Bild 5.27: Beispielhafte �Uberfahrkurven an zwei Me�stellen

Page 123: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

114 5 Streckenbezogene VerkehrsdatenerfassungIhnen werden die Positionen 6, 7 und 8 zugeordnet. Zum Zeitpunkt t = 1wird am stromabw�artigen Me�querschnitt der LKW mit Anh�anger mitdem noch unbekannten Zustand q1 = 1 erfa�t. Der von diesem Fahrzeugextrahierte Merkmalsvektor sei v2;1, die Anzahl der Zust�ande N = 8entspricht der Anzahl der Fahrzeuge im Streckenabschnitt (einschlie�lichdes LKWs mit Anh�anger).Die Erzeugungswahrscheinlichkeiten der einzelnen Zust�ande k�onnennach Gleichung (5.85) mit den euklidischen Abst�anden der Merkmalsvek-toren v1;i zum Merkmalsvektor v2;1 ermittelt werden.Im n�achsten Zeitschritt t = 2 erfolgt die Detektion des Fahrzeugs mitder Position 4, das im Streckenabschnitt die Fahrzeuge mit den Positio-nen 2 und 3 �uberholt hat. Der Merkmalsvektor dieses Fahrzeugs ist v2;2.Nachfolgend werden die Fahrzeuge mit den Positionen 3 zum Zeitpunktt = 3 und 4 zum Zeitpunkt t = 4 detektiert. Mittlerweile sind die Fahr-zeuge mit der Position 9 im Zeitintervall ]2; 3] und mit der Position 10 imZeitintervall ]3; 4] in den Streckenabschnitt eingefahren und vervollst�andi-gen die betrachtete Fahrzeuggruppe. Es ergibt sich die Zustandssequenzq = f1; 4; 3; 5g, die mit dem Viterbi-Algorithmus bestimmt werden mu�.Die logarithmierten Werte der Erzeugungswahrscheinlichkeiten sindB(o) = �12266666664 d(v2;1;v1;1) d(v2;2;v1;1) : : : d(v2;4;v1;1)... ... . . . ...d(v2;1;v1;8) d(v2;2;v1;8) : : : d(v2;4;v1;8)�1 �1 d(v2;3;v1;9) d(v2;4;v1;9)�1 �1 �1 d(v2;4;v1;10)

377777775(5.95)=

266666666666666666664�25 �9846 �10037 �10660�1601 �7942 �8030 �8737�9531 �21 �3 �63�9455 �4 �15 �37�10157 �39 �55 �2�10195 �37 �52 �2�5458 �935 �1025 �1180�9588 �20 �4 �59�1 �1 �15 �63�1 �1 �1 �8902

377777777777777777775: (5.96)

Page 124: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

5.4 Sch�atzverfahren mit Hidden-Markov-Modellen 115Die Erzeugungswahrscheinlichkeiten b9(o1) und b10(o1), b10(o2) undb10(o3) sind Null, da die entsprechenden Fahrzeuge bei den gegebenenZuordnungen noch nicht im Streckenabschnitt sind und somit unber�uck-sichtigt bleiben m�ussen.Mit den logarithmierten Werten der Zustands�ubergangswahrschein-lichkeiten ergibt sich die folgende Transitionsmatrix:A =

2666666666666666666664

�1 �2:82 �2:80 �3:27 �3:35 �3:57 �3:61 �3:75 �3:86 �3:96�3:44 �1 �2:82 �2:80 �3:27 �3:35 �3:57 �3:61 �3:75 �3:86�3:39 �3:44 �1 �2:82 �2:80 �3:27 �3:35 �3:57 �3:61 �3:75�3:50 �3:39 �3:44 �1 �2:82 �2:80 �3:27 �3:35 �3:57 �3:61�3:59 �3:50 �3:39 �3:44 �1 �2:82 �2:80 �3:27 �3:35 �3:57�3:60 �3:59 �3:50 �3:39 �3:44 �1 �2:82 �2:80 �3:27 �3:35�3:80 �3:60 �3:59 �3:50 �3:39 �3:44 �1 �2:82 �2:80 �3:27�3:87 �3:80 �3:60 �3:59 �3:50 �3:39 �3:44 �1 �2:82 �2:80�3:96 �3:87 �3:80 �3:60 �3:59 �3:50 �3:39 �3:44 �1 �2:82�3:93 �3:96 �3:87 �3:80 �3:60 �3:59 �3:50 �3:39 �3:44 �1

3777777777777777777775:

(5.97)Die Wahrscheinlichkeiten f�ur die Anfangszust�ande � werden als gleichangenommen und deshalb nicht ber�ucksichtigt.Wird die Erzeugungswahrscheinlichkeit in jedem Zustand maximiert,so ergibt sich mit Gleichung (5.96) allein die korrekte Fahrzeugfolge q =f1; 4; 3g f�ur die Zeitpunkte t = 1; : : : ; 3. Bei der Bestimmung des Zustan-des q4 sind die Erzeugungswahrscheinlichkeiten b5(o4) und b6(o4) beidemaximal. Der Grund hierf�ur liegt darin, da� es sich bei beiden Fahrzeugenum den gleichen Fahrzeugtyp handelt und somit auch ihre extrahiertenMerkmalsvektoren �ahnlich sind y.Bei der Ermittlung der optimalen Zustandssequenz bei der vorliegen-den Beobachtungssequenz mit dem Viterbi-Algorithmus ergeben sich fol-gende Gr�o�en:yDieses verdeutlicht auch Bild 5.27

Page 125: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

116 5 Streckenbezogene Verkehrsdatenerfassung� =

266666666666666666664�25 �11450 �10073 �10702�1601 �7970 �8066 �8779�9531 �49 �39 �107�9455 �33 �66 �78�10157 �67 �90 �43�10195 �66 �87 �44�5458 �964 �1061 �1222�9588 �49 �40 �101�1 �1 �51 �105�1 �1 �1 �8944

377777777777777777775; =

2666666666666666666642 4 31 4 31 4 81 3 31 4 31 4 31 4 31 4 34 33

377777777777777777775: (5.98)

Die maximale Wahrscheinlichkeit P � = max1�i�N [�4(i)] = �43 f�uhrtauf die Zuordnung des Zustandes q�4 = arg max1�i�N [�4(i)] = 5. DieR�uckrechnung des optimalen Pfades mit q�k = k+1(qk+1) liefert die ge-suchte Zustandssequenz q� = f1; 4; 3; 5g. Bild 5.28 zeigt die m�oglichenTrellispfade sowie den optimalen Pfad f�ur das gegebene Beispiel.

1 2 3 4

2

4

6

8

10

k →

n →

Bild 5.28: Trellis-Diagramm und optimaler Pfad bei der Fahrzeugzu-ordnung

Page 126: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

5.4 Sch�atzverfahren mit Hidden-Markov-Modellen 1175.4.5 SimulationsergebnisseDie den hier dargebrachten Ergebnissen zugrunde liegenden Fahrzeugsi-gnale und mikroskopischen Verkehrssimulationen sind wiederum mit de-nen aus Abschnitt 5.2.2 identisch. Die f�ur die Simulationen gew�ahltenParameter �nden sich in Tabelle 5.3Tabelle 5.3: Parameter zur Sch�atzung mit Hidden-Markov-ModellenSchleife 1m 2,5mVerz�ogerung bei der Viterbi-Detektion tmax 10Anzahl der Beobachtungsobjekte T 11Transitionsmatrix A siehe Bild 5.24Dimension der Merkmalsvektoren N 14 15Bild 5.29 zeigt die Ergebnisse der Einzelfahrzeugwiedererkennung f�urdiese Simulation f�ur die Signale von den 1m-Doppelschleifen und den2,5m-Schleifen. Die Signale der 1m-Schleife k�onnen wiederum als nahe-zu ideal betrachtet werden und dementsprechend ist auch bei dieser Si-mulation die Fehlerrate der Wiedererkennung sehr gering. Sie liegt beidiesem Beispiel bei ungef�ahr 2 %. Realistischer sind die Bedingungen f�urdie Simulationen mit den Merkmalsvektoren von den weiter auseinanderliegenden 2,5m-Schleifen.

0 5 10 15 20 25 300

50

100

150

t in [min] →

t r,j in

[s/k

m] →

a) 1m-Schleife

tr,j tr,j

0 5 10 15 20 25 300

50

100

150

t in [min] →

t r,j in

[s/k

m] →

b) 2,5m-Schleife

tr,j tr,j

Bild 5.29: Wahre und gesch�atzte Fahrzeugreisezeiten

Page 127: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

118 5 Streckenbezogene Verkehrsdatenerfassung

0 5 10 15 20 25 300

50

100

150

t in [min] →

t r in

[s/k

m] →

a) 1m-Schleife

tr tr

0 5 10 15 20 25 300

50

100

150

t in [min] →t r

in [s

/km

] →

b) 2,5m-Schleife

tr tr

Bild 5.30: Wahrer und gesch�atzter Median der Reisezeiten f�ur T = 10 sEs zeigt sich allerdings, da� die Sch�atzergebnisse trotz der relativschlechten Schleifeneigenschaften als gut angesehen werden k�onnen. �Ahn-lich wie bei dem letzten Verfahren mit Kostenfunktionen ergibt sich auchbei diesem Verfahren, da� Falschzuordnungen von Fahrzeugen nur einenkleinen Fehler in der Reisezeitsch�atzung bewirken, da die durch die Tran-sitionsmatrix festgelegten Abh�angigkeiten der Fahrzeugpositionen "Aus-rei�er\ unterbinden.In Bild 5.30 sind die dazugeh�origen gemittelten Reisezeiten aufgetra-gen. Es werden der wahre und der gesch�atzte Median der Fahrzeugrei-sezeiten in Zeitintervallen von T = 10 s einander gegen�ubergestellt. ZurGl�attung der Werte wurde auch f�ur diese Darstellung �uber drei Periodengemittelt.5.5 VerfahrensvergleichAbschlie�end sollen die in den letzten drei Abschnitten vorgestellten Ver-fahren miteinander verglichen werden. Hierbei m�ussen die Sch�atzergeb-nisse dem jeweiligen Realisierungsaufwand gegen�ubergestellt werden.Aus den Simulationsergebnissen wird anhand der Bilder 5.12, 5.18 und5.30 deutlich, da� alle Verfahren eine zuverl�assige Sch�atzung f�ur die mitt-

Page 128: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

5.5 Verfahrensvergleich 119leren Reisezeiten liefern. Auf den Nachteil der Mittelung der Reisezeit imgest�orten Verkehrsablauf bei dem Sch�atzverfahren mit Fahrzeugfolgen-korrelationen wurde hingewiesen. Aus diesem Grund m�ussen die Verfah-ren mit Kostenfunktionen und mit Hidden-Markov-Modellen als besserbewertet werden.Der Rechenaufwand wird in allen drei Verfahren vorwiegend von derBerechnung der Metriken zwischen dem am stromaufw�artigen Me�quer-schnitt detektierten Fahrzeug und den Fahrzeugen im Streckenabschnittgepr�agt. Im Vergleich schneidet das Verfahren mit den Kostenfunktionenam besten ab, da hier nach der Zuordnung eines Fahrzeugs nur dannweitere Berechnungen notwendig sind, wenn das bei der Vorauswahl zu-geordnete Fahrzeug bereits mit geringeren Kosten zugeordnet wurde. Beidem Verfahren mit Fahrzeugfolgenkorrelation folgt nach der Metrikbe-rechnung eine zweidimensionale Faltung. Am aufwendigsten ist das Ver-fahren mit Hidden-Markov-Modellen, in dem nach der Zuordnung einesFahrzeugs eine aufwendige Neuordnung der Modellzust�ande und der Zei-ger f�ur die R�uckrechnung des optimalen Pfades der Zustandssequenzen f�urden n�achsten Zeitschritt erfolgen mu�. Insgesamt sind f�ur dieses Verfah-ren ungef�ahr doppelt so viele Rechenoperationen erforderlich wie f�ur dasVerfahren mit Kostenfunktionen. Das Verfahren mit Fahrzeugfolgenkor-relation ist bez�uglich des Rechenaufwands zwischen den beiden anderenVerfahren angesiedelt.Der Vorteil des Verfahrens mit Hidden-Markov-Modellen ist in derschnellen Entscheidung zu sehen. Nach einer Verz�ogerung von 10 Fahrzeu-gen konnte bei der dargestellten Simulation bereits eine eindeutige Zuord-nung eines Fahrzeugs statt�nden, das Sch�atzergebnis wird demnach miteiner Verz�ogerung von ca. 20 s bereitgestellt. Bei dem Verfahren mit Ko-stenfunktionen ergab sich, da� die Wartezeit einen Wert von 30 Fahrzeu-gen nicht unterschreiten sollte. Legt man zum Vergleich eine Anzahl von10 fest, so ist dieses Verfahren demjenigen mit Hidden-Markov-Modellendeutlich unterlegen. F�ur das Verfahren mit Fahrzeugfolgenkorrelationenmu� eine Fahrzeuggruppe von 50 Fahrzeugen detektiert werden, ehe daserste Sch�atzergebnis vorliegt. Somit ist dieses Verfahren auch unter die-sem Aspekt als schlechter zu bewerten.

Page 129: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

120 6 Verkehrszustandssch�atzung mit streckenbezogenen Verkehrsdaten6 Verkehrszustandssch�atzung mitstreckenbezogenenVerkehrsdatenAuf dem Gebiet der Verkehrszustandssch�atzung und der St�orungserken-nung sind in den letzten beiden Jahrzehnten zahlreiche Verfahren entstan-den, z.B. [2], [18], [19], [23], [39], [49], [56], [59], [82]. Man unterteilt dieseVerfahren in sogenannte Querschnittsverfahren und Abschnittsverfahren.Bei den Querschnittsverfahren werden lediglich Verkehrsdaten von einemeinzigen Me�querschnitt ausgewertet, w�ahrend die Abschnittsverfahrendie Verkehrsdaten von mindestens zwei benachbarten Me�stellen mitein-beziehen. Die Verkehrsdaten k�onnen hierbei mikroskopisch oder makro-skopisch vorliegen. Mikroskopische Verkehrsdaten stammen von Einzel-fahrzeugen w�ahrend makroskopische Verkehrsdaten kollektive Daten sind,die �uber r�aumliche oder zeitliche Intervalle gemittelt werden.Aufbauend auf den Ergebnissen des letzten Kapitels steht im Mittel-punkt dieses Kapitels die Erweiterung eines makroskopischen Abschnitts-verfahrens, das die Fahrzeugdaten durch besondere Sch�atzverfahren undFiltertechniken verarbeitet. Bislang wurden allerdings als Ein- und Aus-gangsgr�o�en vorwiegend querschnittsbezogene Verkehrsdaten wie die Ver-kehrsst�arken oder lokale zeitlich gemittelte Geschwindigkeiten an denMe�querschnitten benutzt. Durch Hinzunahme der mittleren Reisezeitder Fahrzeuge als Me�gr�o�e soll dieses Verfahren im folgenden erwei-tert werden. Ziel ist es, hierdurch eine Verbesserung der Verkehrszu-standssch�atzung sowie der Detektion von Verkehrsst�orungen zu erreichen.Auf der Basis eines Modells von Payne [59] wurde von Cremer einSch�atzverfahren entwickelt [21] und sp�ater validiert und laufend verbes-sert [23], [24], [25], [26], [27], [74]. Dieses Sch�atzverfahren zeichnet sichdadurch aus, da� es als einziges auch bei einem gro�en Abstand der Me�-querschnitte (3 bis 5 km) noch akzeptable Sch�atzwerte liefert. Dieses gehtaus einem Verfahrensvergleich von Busch eindrucksvoll hervor [16], [17].

Page 130: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

121

Fehler-signal

Eingangs-größen

Korrektur

Simulationsmodell

Verkehrs-zustand

Verkehrs-parameter

Störungs-erkennung

Ausgangs-schätzungen

Ausgangs-messungen

Realer Verkehrsprozeß

Bild 6.1: Blockdiagramm des modellgest�utzten Sch�atzverfahrensKern des Verfahrens ist ein aus nichtlinearen Di�erenzengleichungenbestehendes dynamisches Modell f�ur den Stra�enverkehrs u�. Auf diesemmakroskopischen Verkehrsmodell aufbauend wird eine Pr�adiktion aktu-eller Messungen von den Me�querschnitten durchgef�uhrt. Ein Vergleichder vorausgesagten und der realen Messungen f�uhrt zu einer Korrekturdes gesch�atzten Verkehrszustandes (Bild 6.1).Zu Beginn des Kapitels wird das dem Sch�atzverfahren zugrundelie-gende makroskopische Verkehrsmodell vorgestellt. Anschlie�end wird dieErweiterung des Modells um streckenbezogene Verkehrsdaten aufgef�uhrt.Einer Darstellung der stochastischen Zustandsvektoren des Verkehrsmo-dells schlie�t sich die L�osung des modellgest�utzten Sch�atzproblems un-ter Hinzunahme der mittleren Reisezeit mit einem erweiterten Kalman-Filter an. Anschlie�end wird der Ein u� der zus�atzlichen Kenntnis vonstreckenbezogenen Verkehrsdaten auf das Sch�atzproblem mit einer Beob-achtbarkeitsanalyse bewertet. Nach der Analyse bildet eine Pr�asentationvon Simulationsergebnissen den Abschlu� dieses Kapitels.

Page 131: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

122 6 Verkehrszustandssch�atzung mit streckenbezogenen Verkehrsdaten6.1 Das makroskopische VerkehrsmodellDas makroskopische Verkehrsmodell ist umfassend in [22] beschrieben.In diesem Abschnitt soll lediglich eine �Ubersicht �uber die Variablen unddie Gleichungen des Modells gegeben und die Erweiterungen des Modellsdargestellt werden.6.1.1 Variablen des Verkehrs u�modellsZur Beschreibung der Modellgleichungen wird eine mehrspurige Rich-tungsfahrbahn eines Autobahnabschnitts herangezogen, die eine L�angevon wenigen Kilometern hat. Dieser Stra�enabschnitt wird in n Segmen-te mit einer L�ange �j von ungef�ahr 500 m unterteilt, in denen die Ver-kehrsverh�altnisse in erster N�aherung als gleichf�ormig angesehen werdenk�onnen. Falls in diesem Autobahnabschnitt Zu- und Abfahrten bestehen,werden diese am Ein- bzw. am Ausgang des Stra�enst�ucks angenommen(Bild 6.2).r s

n-1q q q1 2q0 n

2 n-1

Streckenabschnitt

nn11c ,v 22c ,v c ,vn-1 c ,v

Segment 1 Segment n

Bild 6.2: Unterteilung eines Schnellstra�en-StreckenabschnittsDer Verkehrs u� in einem Segment j kann mit folgenden Parameternbeschrieben werden:� Verkehrsdichte cj(k) in [Fz/km]Anzahl der Fahrzeuge im Segment j zum Zeitpunkt k T bezogenauf die Segmentl�ange �j.

Page 132: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

6.1 Das makroskopische Verkehrsmodell 123� Mittlere Geschwindigkeit vj(k) in [km/h]Mittelwert der Geschwindigkeiten der Fahrzeuge im Segment j zumZeitpunkt k T .� Verkehrsst�arke qj(k) in [Fz/h]Anzahl der Fahrzeuge, die im Zeitintervall k T � t < (k + 1)T denFahrbahnquerschnitt zwischen den Segmenten j und j+1 passieren,bezogen auf die Intervalldauer T .� Rampenverkehrsst�arken rj(k) und sj(k) in [Fz/h]Anzahl der Fahrzeuge, die im Zeitintervall k T � t < (k + 1)T amAnfang bzw. Ende des Segments j den Stra�enabschnitt befahrenbzw. verlassen, bezogen auf die Intervall�ange T .� Lokale Geschwindigkeit wj(k) in [km/h]Mittelwert der Geschwindigkeiten der Fahrzeuge, die im Zeitinter-vall k T � t < (k + 1)T den Fahrbahnquerschnitt zwischen denSegmenten j und j + 1 �uberfahren.Mit diesen Parametern ergibt sich ein zeitdiskretes Modell mit derZeitschrittweite T und dem laufenden Zeitindex k 2 IN. Der Systemzu-stands�ubergang vom Zeitpunkt k T zum Zeitpunkt (k + 1)T kann durchDi�erenzengleichungen f�ur die Verkehrsdichte cj(k) und f�ur die mittlereGeschwindigkeit vj(k) im Segment j beschrieben werden.F�ur die Verkehrsdichte ergibt sich aus einer einfachen Fahrzeugbilanzcj(k + 1) = cj(k) + T�j [qj�1(k)� qj(k)]: (6.1)Die Rampenverkehrsst�arken rj(k) und sj(k) eventuell vorhandener Zu-und Abfahrten werden im Klammerausdruck f�ur j = 1 addiert bzw. f�urj = n subtrahiert.Die mittlere Geschwindigkeit wird von drei Termen beein u�t undkann durch folgende Di�erenzengleichung beschrieben werden:vj(k + 1) = vj(k) + T� [V (cj(k))� vj(k)] + T�j vj(k) [vj�1(k)� vj(k)] ++ �T�j� cj(k)� cj+1(k)cj(k) + � : (6.2)

Page 133: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

124 6 Verkehrszustandssch�atzung mit streckenbezogenen VerkehrsdatenDer erste Term ber�ucksichtigt die dynamische Ann�aherung der sta-tion�aren Geschwindigkeits-Dichte-Charakteristik V (c). Der zweite Termberechnet die Konvektion von einem Geschwindigkeitsgradienten, und derletzte Term beinhaltet eine stromabw�artige Vorausschau des Fahrers aufden Dichtegradienten. Die Parameter in dieser Gleichung werden sp�aternoch n�aher spezi�ziert.W�ahrend die Verkehrsst�arken q0(k) und qn(k) am �Ubergang verschie-dener Autobahnabschnitte gemessen werden, werden die Verkehrsst�arkenqj(k) zwischen den Segmenten als gewichteter �ortlicher Mittelwert �uberdie Produkte aus Geschwindigkeit und Dichte berechnet:qj(k) = � cj(k) vj(k) + (1� �) cj+1(k) vj+1(k); (6.3)� ist ein konstanter Gewichtsfaktor aus dem Intervall [0:5; 1].Die lokalen Geschwindigkeiten wj(k) errechnen sich analog zu den Ver-kehrsst�arken zu wj(k) = � vj(k) + (1� �) vj+1(k): (6.4)Die station�are Geschwindigkeits-Dichte-Charakteristik V (c) in Glei-chung (6.2) wird mit V (cj) = vf "1� � cjcmax�l#m (6.5)berechnet. vf ist die mittlere Geschwindigkeit der Fahrzeuge bei freiemVerkehr und cmax die maximale Verkehrsdichte. Die Gr�o�en l und m sindreelle positive Exponenten.Die lokalen Geschwindigkeiten und Verkehrsst�arken am Ein- und Aus-gang des Stra�enabschnitts werden als Eingangs- oder Ausgangsgr�o�endes Systems betrachtet. Die Eingangsverkehrsst�arke q0 wird dem Systemals Eingangsgr�o�e zur Verf�ugung gestellt, w�ahrend die Me�werte w0, qnund wn als Systemreaktion (Ausgangsgr�o�en) behandelt werden.Diese Gr�o�en werden wie folgt aus den Zustandsgr�o�en berechnet:w0(k) = (1 + � �) v1(k)� � � v2(k); (6.6)qn(k) = (1 + (1� �) �) cn(k) vn(k)� (1� �) � cn�1(k) vn�1(k); (6.7)wn(k) = (1 + (1� �) �) vn(k)� (1� �) � vn�1(k): (6.8)

Page 134: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

6.1 Das makroskopische Verkehrsmodell 125Tabelle 6.1: ModellparameterT Zeitschrittweite des diskreten Modells 10 s�j L�ange des Segments j 500 m� Gewichts- oder Mittelungsfaktor 0.8� Extrapolationsfaktor 0.2� minimale Dichte 20 Fz/km� Emp�ndlichkeitsfaktor 21.4 km2/h� Anpassungszeit 34 svf freie Geschwindigkeit 122.4 km/hcmax maximale Verkehrsdichte 200 Fz/kmm 4.0l dimensionslose Konstanten 1.4� ist ein Extrapolationsfaktor.6.1.2 ModellvalidierungDie Gleichungen (6.1) bis (6.3) und (6.5) beschreiben ein nichtlineares,zeitdiskretes Modell der Ordnung 2n zur Simulation des Verkehrs ussesin einem Autobahnabschnitt.Die freien Systemparameter sind in [23] mit einer Sensitivit�atsanalyseidenti�ziert und anhand realer Me�daten kalibriert worden. In Tabelle6.1 sind die optimalen Modellparameter in ihrer Gr�o�e und Bedeutungaufgetragen.Die Verh�altnisse aus der Geschwindigkeits-Dichte-Charakteristik (6.5)lassen sich unter der Voraussetzung gleichf�ormiger, station�arer Verkehrs-bedingungen durch die Beziehungq = c � v = c � V (c) (6.9)in das Fundamentaldiagramm �ubertragen, das den station�aren Zusam-menhang zwischen der Verkehrsst�arke q und der Verkehrsdichte c wie-dergibt. Bild 6.3 zeigt die V-C-Charakteristik und das Fundamentaldia-gramm f�ur die in Tabelle 6.1 beschriebenen Parameter.

Page 135: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

126 6 Verkehrszustandssch�atzung mit streckenbezogenen Verkehrsdaten

0 20 40 60 80 100 120 1400

20

40

60

80

100

120

c in [Fz/km] →

v in

[km

/h] →

V-C-Charakteristik

0 20 40 60 80 100 120 1400

500

1000

1500

2000

2500

3000

c in [Fz/km] →q

in [F

z/h]

Fundamentaldiagramm

Bild 6.3: V-C-Charakteristik und Fundamentaldiagramm6.1.3 Modellerweiterung zur St�orfallerkennungZur Nachbildung von St�orungsein �ussen auf die Me�daten am Rand einesuntersuchten Stra�enabschnitts wurde in [22] und [73] ein hypothetischerZu u� qd eingef�uhrt, der in das Segment eines St�orungsbereiches hinein- ie�t und diesen am n�achsten Segmentanfang wieder verl�a�t (Bild 6.4).Dadurch k�onnen Auswirkungen von St�orungen untersucht werden, diedurch ein pl�otzlich verringertes Fassungsverm�ogen in dem entsprechen-den Segment durch Sperrung einer oder mehrerer Fahrspuren verursachtwerden.r s

q q1q0 nnn11 i i

qii+1 i+1

q qd d

Streckenabschnitt

Segment 1 Segment i Segment n

c ,v c ,v c ,v c ,vqi+1

Bild 6.4: Schnellstra�enabschnitt mit hypothetischem Zu u�Der hypothetische Zu u� wird in den zwei Segmenten i und i+1 jeweilsals linearer Term hinzugef�ugt bzw. abgezogen. Damit ergeben sich f�ur die

Page 136: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

6.1 Das makroskopische Verkehrsmodell 127Verkehrsdichten in diesen Segmenten folgende ver�anderten Gleichungen:ci(k + 1) = ci(k) + T�i [qi�1(k)� qi(k) + qd(k)]; (6.10)ci+1(k + 1) = ci+1(k) + T�i+1 [qi(k)� qi+1(k)� qd(k)]: (6.11)Der hypothetische Zu u�qd(k + 1) = qd(k) + nq(k) (6.12)erweitert das makroskopische Modell um eine weitere Di�erenzenglei-chung. Hier ist nq(k) ein mittelwertfreier, wei�er Rauschterm mit ent-sprechender Varianz.6.1.4 Modellerweiterung mit streckenbezogenenVerkehrsdatenF�ur eine Erweiterung des makroskopischen Verkehrsmodells um strecken-bezogene Verkehrsdaten mu� eine Me�gleichung aufgestellt werden, in derdie mittlere Reisezeit der Fahrzeuge durch die makroskopischen Gr�o�ender Verkehrsdichte und der mittleren Geschwindigkeit ausgedr�uckt wer-den kann: tr(k) = f [cj(k); vj(k)]; j = 1; : : : ; n; k 2 IN: (6.13)Nicht festgelegt ist die Form der Mittelung der individuellen Reisezei-ten. Unter der Annahme einer eindeutigen Wiedererkennung von Fahr-zeugen am stromabw�artigen Me�querschnitt (siehe Kapitel 5) kann dieMittelung �uber alle Fahrzeuge, die den Querschnitt im betrachteten Zeit-intervall passieren, erfolgen. Somit sind folgende De�nitionen sinnvoll:� Reisezeit trfz in [s]Reisezeit eines Fahrzeugs vom Eingang bis zum Ausgang des Stra-�enabschnitts.

Page 137: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

128 6 Verkehrszustandssch�atzung mit streckenbezogenen Verkehrsdaten� Mittlere Reisezeit im Segment trj(k) in [s]Mittlere Reisezeit der Fahrzeuge vom Eingang bis zum Ausgangdes Segments j. Die Mittelung erfolgt �uber alle Fahrzeuge, die imZeitintervall k T � t < (k + 1)T das Segment j verlassen.� Mittlere Reisezeit tr(k) in [s]Mittlere Reisezeit der Fahrzeuge vom Eingang bis zum Ausgang desStreckenabschnitts. Die Mittelung erfolgt �uber alle Fahrzeuge, dieim Zeitintervall k T � t < (k+1)T den Streckenabschnitt verlassen.Die Reisezeit eines Fahrzeugs vom Eingang des Streckenabschnitts amOrt s1 zum Ausgang am Ort s2 ergibt sich als Trajektorie entlang desGeschwindigkeitspro�ls v[s; t(s)] zutrfz = s2Zs1 1v[s; t(s)]ds: (6.14)Im zeitdiskreten Fall geht das Integral in eine Summe �uber die Wegele-mente �s mit dem Zeitindex k 2 IN �uber:trfz = s2Xs1 �sv[s; k(s)] : (6.15)Aus Untersuchungen von Geschwindigkeitspro�len und Reisezeiten f�urverschiedene Szenarien geht hervor, da� die mittlere Reisezeit der Fahr-zeuge im Falle eines quasistation�aren Geschwindigkeitspro�ls mittr(k) = nXj=1 trj(k) =

8>>>>>>><>>>>>>>:nXj=1 �jvj(k) f�ur vj(k) > vminnXj=1 2 vmin�jv2j (k) + v2min f�ur 0 � vj(k) < vmin (6.16)

aus den Zustandsgr�o�en berechnet werden kann [83], [25]. Der Parame-ter vmin ber�ucksichtigt eine obere Beschr�ankung der mittleren Reisezeitim Streckenabschnitt. Die mittlere Reisezeit der Fahrzeuge im betrach-teten Streckenabschnitt erweitert das bisher beschriebene Systemmodellum eine weitere Ausgangsgr�o�e.

Page 138: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

6.2 Modellgest�utzte Verkehrszustandssch�atzung 1296.2 Modellgest�utzte Verkehrszustands-sch�atzungDas Zeitverhalten eines dynamischen Systems ist bei einem gegebenenmathematischen Modell und Kenntnis der Eingangsgr�o�en sowie des An-fangszustands berechenbar. Daf�ur wird ein Zustandsvektor zur Ermitt-lung des Zeitverhaltens ben�otigt. Dieser ist allerdings h�au�g me�technischnicht zug�anglich, sondern mu� aus den me�baren Ausgangsgr�o�en des Sy-stems berechnet werden. Wegen auftretender Me�fehler liefert die Berech-nung allerdings nur einen Sch�atzwert f�ur den Zustandsvektor. Bei Kennt-nis der stochastischen Verteilungen der Me�werte kann die Sch�atzung desZustandsvektors mit einem Kalman-Filter erfolgen.In diesem Abschnitt werden die stochastischen Zustandsvektoren desmakroskopischen Verkehrsmodells aufgestellt. Nach einer kurzen Darstel-lung der Gleichungen des erweiterten Kalman-Filters schlie�t sich dieL�osung des modellgest�utzten Verkehrszustandssch�atzproblems unter Hin-zunahme von streckenbezogenen Verkehrsdaten an.6.2.1 Das stochastische Verkehrs u�modellZur Anwendung stochastischer Filterverfahren wird ein stochastischesVerkehrs u�modell ben�otigt. Dieses besteht aus einer Erweiterung desin Abschnitt 6.1.1 beschriebenen makroskopischen Verkehrsmodells. DieDi�erenzengleichungen des stochastischen Modells ergeben sich nach [22]f�ur die Verkehrsdichte cj und f�ur die mittlere Geschwindigkeit vj wie folgt:cj(k + 1) = cj(k) + T�j [qj�1(k)� qj(k) + �j�1(k)� �j(k)]; (6.17)vj(k + 1) = vj(k) + T� [V (cj(k))� vj(k)] + T�j vj(k) [vj�1(k)� vj(k)] ++ �T�j� cj(k)� cj+1(k)cj(k) + � + �j(k): (6.18)Die Verkehrsst�arken und die lokalen Geschwindigkeiten werden als lo-

Page 139: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

130 6 Verkehrszustandssch�atzung mit streckenbezogenen Verkehrsdatenkale Referenzgr�o�en an den Me�querschnitten n betrachtet:qn(k) = � cn(k) vn(k) + (1� �) cn+1(k) vn+1(k) + �n(k) + �qn(k);(6.19)wn(k) = � vn(k) + (1� �) vn+1(k) + �wn(k): (6.20)�n(k), �n(k), �qn(k) und �wn(k) sind stochastische Korrekturterme, die alswei�e Rauschprozesse mit gau�scher Amplitudenverteilung angenommenwerden.�n(k) steht stellvertretend f�ur die Abweichungen der tats�achlichen Ver-kehrsst�arkewerte von den aus Gleichung (6.1) errechneten Werten. �qn(k)enth�alt die Me�fehler der aufnehmenden Sensoren und ist mit �n(k) un-korreliert. Da die lokale Geschwindigkeit wn(k) nicht in die Aufstellungder Systemgleichungen eingeht, er�ubrigt sich eine derartige Trennung f�urden stochastischen Korrekturterm �wn(k).�Ahnlich mu� nun noch eine stochastische Fehlerbehandlung der mitt-leren Reisezeit tr(k) am Me�querschnitt n erfolgen. Dahingehend wird(6.16) zutr(k) = 8>>>>>>><>>>>>>>:

nXj=1 �jvj(k) + �tr(k) f�ur vj(k) � vminnXj=1 2 vmin�jv2j (k) + v2min + �tr(k) f�ur 0 � vj(k) < vmin (6.21)erweitert, wobei �tr sowohl die statistisch schwankenden Abweichungender Gr�o�e tr(k) vom nach (6.16) errechneten Wert als auch Me�fehlerber�ucksichtigt.Mit diesen Gleichungen kann der dynamische Ablauf des stochasti-schen Verkehrs usses makroskopisch beschrieben werden. Die vollst�andi-ge Information �uber den Systemzustand liegt in den Verkehrsdichten cjund den mittleren Geschwindigkeiten vj f�ur j = 1; : : : ; n, die bei bekann-ter Eingangsgr�o�e q0 zum Zeitpunkt (k + 1)T in eindeutiger Weise ausden Werten cj(k) und vj(k) hervorgehen.

Page 140: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

6.2 Modellgest�utzte Verkehrszustandssch�atzung 1316.2.2 ZustandsraumdarstellungDie Vektoren des stochastischen Zustandsraummodells sollen im folgen-den zusammenfassend dargestellt werden:� Zustandsvektor{ Modell ohne St�orfallerkennungx(k) = [c1(k); : : : ; cn(k); v1(k); : : : ; vn(k)]T (6.22){ Modellerweiterung zur St�orfallerkennungx(k) = [c1(k); : : : ; cn(k); v1(k); : : : ; vn(k); qd(k)]T (6.23)� Eingangsvektor u(k) = [q0(k)] (6.24)� Ausgangsvektor{ Ausschlie�liche Verwendung querschnittsbezogener Verkehrs-daten y(k) = [w0(k); qn(k); wn(k)]T (6.25){ Modellerweiterung mit streckenbezogenen Verkehrsdateny(k) = [w0(k); qn(k); wn(k); tr(k)]T (6.26)� St�orproze� am Systemeingang{ Modell ohne St�orfallerkennungw(k) = [�0(k); : : : ; �n(k); �1(k); : : : ; �n(k)]T (6.27){ Modellerweiterung zur St�orfallerkennungw(k) = [�0(k); : : : ; �n(k); �1(k); : : : ; �n(k); nq(k)]T (6.28)� St�orproze� am Systemausgang

Page 141: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

132 6 Verkehrszustandssch�atzung mit streckenbezogenen Verkehrsdaten{ Ausschlie�liche Verwendung querschnittsbezogener Verkehrs-daten n(k) = [�w0(k); �qn(k) + �n(k); �wn(k)]T (6.29){ Modellerweiterung mit streckenbezogenen Verkehrsdatenn(k) = [�w0(k); �qn(k) + �n(k); �wn(k); �tr(k)]T (6.30)Die Zustandsgleichungen und Gleichungen der Ausgangsgr�o�en f�ur dasstochastische Verkehrs u�modellx(k + 1) = f(x(k);u(k);w(k)) (6.31)y(k) = g(x(k)) + n(k) (6.32)k�onnen zur Parametersch�atzung mit dem erweiterten Kalman-Filter her-angezogen werden.6.2.3 Zustandssch�atzung mit dem erweitertenKalman-FilterDer Einsatz des erweiterten Kalman-Filters zur modellgest�utzten Zu-standssch�atzung des Verkehrs usses ist ausf�uhrlich in [22] beschrieben.An dieser Stelle soll nur ein kurzer �Uberblick �uber die Arbeitsweise unddie Gleichungen des Filters gegeben werden, womit eine Darstellung desSch�atzproblems bei zus�atzlicher Kenntnis der Fahrzeugreisezeiten im fol-genden Abschnitt durchgef�uhrt werden kann. Herleitungen der Filterglei-chungen �nden sich z.B. in [3], [12], [13] und [46].Gegeben sei ein durch die Zustandsgleichungen (6.31) und (6.32) be-schriebenes nichtlineares, zeitdiskretes System, in dem x(k) den Signal-oder Zustandsvektor, u(k) den Eingangsvektor, y(k) den Empfangs- oderAusgangsvektor und w(k) und n(k) wei�e, gau�verteilte St�orprozesse amEingang und am Empf�anger darstellen.

Page 142: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

6.2 Modellgest�utzte Verkehrszustandssch�atzung 133F�ur die Erwartungswerte der St�orprozesse gelte:Efw(k)g = Efn(k)g = 0; (6.33)Efw(k)wT (`)g = Rww(k) � �k`; (6.34)Efn(k)nT (`)g = Rnn(k) � �k`; (6.35)Efw(k)nT (`)g = Rwn(k) � �k`: (6.36)Der Anfangszustand des Systems sei gau�verteilt mit der Kovarianz-matrix E n[x(0)� Efx(0)g][x(0)� Efx(0)g]To = Rxx(0): (6.37)Zudem seien der Anfangszustand des Systems und die St�orprozesseunkorreliert: Efx(0)nT (k)g = Efx(0)wT (k)g = 0: (6.38)Die Komponenten der nichtlinearen Vektorfunktionen f(�) und g(�)seien nach allen Argumenten stetig di�erenzierbar. Durch Linearisierungin den interessierenden Arbeitspunkten ergibt sichF (k) = @f@x ����� x = x(k)u = u(k)w = 0 ;�(k) = @f@w ����� x = x(k)u = u(k)w = 0 ;H(k) = @g@x ����� x = x(k):(6.39)Gesucht wird eine lineare, erwartungstreue Sch�atzung des Signalvektorsx(k) auf der Basis der Empfangssignale y(0); : : : ;y(k). F�ur diesen Fallliefert das erweiterte Kalman-Filter Sch�atzwerte x(k) kleinster Fehlerva-rianz f�ur die unbekannten Werte x(k).Das erweiterte Kalman-Filter setzt sich aus folgenden Gleichungen zu-sammen:Filtermodellx(k + 1jk) = f(x(k);u(k); 0); x(0j � 1) = Efx(0)g (6.40)x(k) = x(kjk � 1) +K(k)[y(k)� g(x(kjk � 1))] (6.41)

Page 143: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

134 6 Verkehrszustandssch�atzung mit streckenbezogenen VerkehrsdatenVerst�arkungsmatrixK(k) = Ree(kjk�1)HT (k)[H(k)Ree(kjk�1)HT (k)+Rnn(k)]�1 (6.42)FehlerkovarianzmatrizenRee(k) = Ree(kjk � 1)�K(k)H(k)Ree(kjk � 1) (6.43)Ree(k + 1jk) = F (k)Ree(k)F T (k) + �(k)Rww(k)�T (k) (6.44)Anfangsbedingung Ree(0j � 1) = Rxx(0) (6.45)F�ur lineare, zeitinvariante Proze�gleichungen und bei wei�en St�orpro-zessen mit gau�scher Amplitudenverteilung ist der Sch�atzwert optimal indem Sinne, da� die Komponenten des Sch�atzfehlers minimale Varianzenaufweisen. Im nichtlinearen Fall ist die Sch�atzung allerdings nur sub-optimal. Die Sch�atzung des Verkehrszustandes bei Erweiterung der Aus-gangsgleichungen durch die Me�gr�o�e Reisezeit soll im folgenden erl�autertwerden.6.2.4 Verkehrszustandssch�atzung mitReisezeitinformationMit dem Einsatz des erweiterten Kalman-Filters kann das Sch�atzproblemf�ur den Verkehrs u� auf Schnellstra�en gel�ost werden. Der Verkehrsab-lauf werde durch das stochastische Verkehrs u�modell (6.31), (6.32) re-pr�asentiert, wobei der Ausgangsvektor die in Gleichung (6.26) beschrie-bene Form besitzt. Die Modellparameter sind nach Tabelle 6.1 festgelegt.Das erweiterte Kalman-Filter bildet den Verkehrs u� nach dem determi-nistischen Modell (w(k) = n(k) = 0) nach und korrigiert die Sch�atzwertein jedem Zeitschritt durch den Korrekturterm.Die f�ur diesen Fall einzusetzenden Werte f�ur die Matrizen F (k),H(k),�(k), Rww(k) und Rnn(k) �nden sich in [22]. Dabei m�ussen die Kovari-anzmatrix Rnn(k) und die Linearisierung H(k) jeweils in jeder Kompo-nente um eine Dimension vergr�o�ert werden, um die Me�gleichung f�ur dieReisezeit in das Filterproblem einzubeziehen.

Page 144: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

6.3 Beobachtbarkeitsanalyse 135Mit den stochastischen Korrekturtermen �j und �j hat die Kovarianz-matrix Rnn(k) f�ur die Me�abgri�e w0, qn, wn und tr folgende Struktur:Rnn(k) = 266664 Ef�2w0(k)g 0 0 00 Ef�2qn(k)g+ Ef�2n(k)g 0 00 0 Ef�2wn(k)g 00 0 0 Ef�2tr(k)g377775 : (6.46)Im station�aren Geschwindigkeitspro�l ergab sich Gleichung (6.21) alskombinierte Me�gleichung f�ur die mittlere Reisezeit. Deshalb mu� dieJacobische Matrix H(k) aus (6.39) um die Werte@trj(k)@vj(k) = 8>>>>>><>>>>>>: � �jvj2(k) f�ur vj(k) � vmin� 4 vmin vj(k)�j(vj2(k) + v2min)2 f�ur 0 � vj(k) < vmin (6.47)erweitert werden.Die Vorgehensweise der modellgest�utzten Verkehrszustandssch�atzungmit dem erweiterten Kalman-Filter wird im Blockdiagramm in Bild 6.5verdeutlicht.Anhand von realistischen Situationen soll im folgenden das Filter f�urdie Modellerweiterung durch die Fahrzeugreisezeit erprobt werden. ImVordergrund steht dabei die Frage der Verbesserung der Sch�atzung durchdie zus�atzliche Reisezeitinformation. Diese Frage soll zun�achst durch dieBerechnung eines Beobachtbarkeitsma�es theoretisch beantwortet wer-den.6.3 BeobachtbarkeitsanalyseDie aus den Me�gr�o�en gewonnene Information �uber den Verkehrszustandin einem Stra�enabschnitt kann quantitativ bewertet werden. Hierzu wur-den in den letzten Jahrzehnten Beobachtbarkeitsma�e eingef�uhrt, die dieBeobachtbarkeit der einzelnen Zustandsvariablen eines Systems in einergegebenen Kon�guration bewerten.

Page 145: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

136 6 Verkehrszustandssch�atzung mit streckenbezogenen Verkehrsdaten

Kalman-Filter

^ ^ ^ ^

^

qq0 n

Streckenabschnitt

nn11c ,v c ,v

^

n

^

w

tr

qn nwtr

StreckenbezogeneVerkehrsdatenerfassung

w

w

0

0Bild 6.5: Zustandssch�atzung f�ur ein Verkehrs u�modell mit dem erwei-terten Kalman-FilterEin in [22] eingef�uhrtes und in [15] in vielen Anwendungsf�allen einge-setztes Beobachtbarkeitsma� soll in diesem Kapitel nach einer kurzen Her-leitung zur Absch�atzung der Beobachtbarkeitsg�ute f�ur das um strecken-bezogene Verkehrsdaten erweiterte Verkehrsmodell benutzt werden.6.3.1 Theoretische GrundlagenDe�nition des Beobachtbarkeitsma�esNach [22] und [14] wird ein lineares, zeitinvariantes, zeitdiskretes Sy-stem ohne Eingangsgr�o�en betrachtet:x(k + 1) = Fx(k); x 2 IRn; (6.48)y(k) = Hx(k); y 2 IRm; (6.49)wobei x(k) den Zustandsvektor und y(k) den Me�vektor zum Zeitpunktk T repr�asentieren. Die Matrizen F und H sind die Systemmatrizen ent-sprechender Dimension.

Page 146: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

6.3 Beobachtbarkeitsanalyse 137Der Me�informationsvektor y zum Zeitpunkt K T l�a�t sich ausgehendvon einem Anfangszustand x(0) durch wiederholte Anwendungen von(6.48) und (6.49) zuy = 2666664 y(0)y(1)...y(K)3777775 = 2666664 HH F...HFK

3777775x(0) = Qx(0) (6.50)berechnen, wobei Q f�ur K = n�1 Beobachtbarkeitsmatrix genannt wird.Ist der Rang der Matrix Q gleich der Ordnung n des Systems, so hei�tdas System (6.48), (6.49) vollst�andig beobachtbar.Das Ma� der Beobachtbarkeit einer Zustandsvariablen xi geht aus derBetrachtung des Informationsvektors yi hervor, der sich errechnen l�a�t,wenn zum Zeitpunkt t = 0 nur die i-te Zustandsvariable um eine Einheitaus der Ruhelage ausgelenkt wird.yi = yjx(0)=ei = Qei = qi (6.51)ei ist der i-te Einheitsvektor, qi die i-te Spalte der Matrix Q. Gesuchtwird ein Ma�, das ausdr�uckt, wie gut sich der Me�informationsvektoryi von den Me�informationsvektoren y�i unterscheidet, die sich aus be-liebigen Linearkombinationen der �ubrigen Zustandsvektoren berechnenlassen. y�i = nXj=1j 6=i �j qj (6.52)Insbesondere interessiert die Unterscheidbarkeit von demjenigen Me�-folgenvektor y�i , der dem Vektor yi im Sinne der euklidischen Norm am�ahnlichsten ist. Das Beobachtbarkeitsma� �(xi) f�ur die i-te Zustandsva-riable xi wird damit durch die Norm�(xi) := min�jj 6=i ky�i � yik2 (6.53)de�niert. Je gr�o�er die Ma�zahl �(xi) ist, desto besser l�a�t sich die Zu-standsvariable xi aus den Me�werten rekonstruieren. F�ur den Fall �(xi) =0 ist die Zustandsvariable xi nicht beobachtbar.

Page 147: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

138 6 Verkehrszustandssch�atzung mit streckenbezogenen VerkehrsdatenBerechnung des Beobachtbarkeitsma�esDas Beobachtbarkeitsma� l�a�t sich f�ur lineare, zeitinvariante, zeitdis-krete Systeme in geschlossener Form f�ur den Fall berechnen, da� die An-zahl der Zeitschritte K gegen 1 strebt.Nach [15] gilt f�ur das Beobachtbarkeitsma� �(xi) der i-ten Zustands-variable �(xi) = ((R�1)ii)� 12 ; (6.54)(R�1)ii ist hierbei das i-te Diagonalelement der Inversen der Matrix R.Die Matrix R ist f�ur asymptotisch stabile Systeme positiv-(semi-)de-�nit und symmetrisch. Sie ist die L�osung der Ljapunov-GleichungF TRF �R = �HTH : (6.55)F�ur nichtlineare, zeitinvariante, zeitdiskrete Systeme sind die System-matrizen F und H die Jacobi-Matrizen der Vektorfunktionen f(�) undg(�) in vorgegebenen Arbeitspunkten.Die Berechnung des Beobachtbarkeitsma�es beschr�ankt sich somit aufdie L�osung der Ljapunov-Gleichung (6.55) und einer Matrixinversion(6.54). Die Anwendung des Beobachtbarkeitsma�es auf das Verkehrs u�-modell soll im folgenden im Hinblick auf die Erweiterung der Messungender Fahrzeugreisezeiten diskutiert werden.6.3.2 Analyse des erweiterten Verkehrs u�modellsF�ur das Verkehrs u�modell ist das Beobachtbarkeitsma� abh�angig vonder Segmentanzahl n (und damit von der Dimension des Systems) und vonder Anzahl der Me�gr�o�en m (Dimension des Me�vektors). Der gew�ahlteArbeitspunkt der linearisierten Systembeschreibung hingegen hat wenigEin u� auf die Beobachtbarkeit der einzelnen Variablen [22]. Die Qualit�atdes Sch�atzverfahrens soll nun f�ur unterschiedliche Kon�gurationen durchAnwendung des Beobachtbarkeitsma�es untersucht werden. Damit dieZahlenwerte der makroskopischen Verkehrsgr�o�en gleiche Gr�o�enordnun-gen besitzen, werden f�ur alle Zahlenangaben die Werte wie folgt normiert:

Page 148: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

6.3 Beobachtbarkeitsanalyse 139

10-3

10-2

10-1

100

101

0 1 2 3 4 5 6 7 8 9 10

Verkehrsdichte

Segment j →

β(c j

) →

-⋅-- -⋅⋅⋅

w0,q9,w9,trw0,q9,w9q9,w9w0,q9

10-3

10-2

10-1

100

101

0 1 2 3 4 5 6 7 8 9 10

Mittlere Geschwindigkeit

Segment j →

β(v

j) →

-⋅-- -⋅⋅⋅

w0,q9,w9,trw0,q9,w9q9,w9w0,q9Bild 6.6: Beobachtbarkeitsma� f�ur die Verkehrsdichten und mittlerenGeschwindigkeiten bei Auswertung verschiedener Kombinationen vonMe�gr�o�en f�ur 9 Segmente (4,5 km)

Verkehrsdichte: [Fz/100m];Mittlere Geschwindigkeit: [100m/5 s];Verkehrsst�arke: [Fz/5 s]:Abh�angigkeit von der Anzahl der Me�gr�o�enNach [22] werden die Gr�o�en w0, qn und wn als Me�gr�o�en und die Ver-kehrsst�arke q0 als die den Verkehrsablauf bestimmende Eingangsgr�o�ebetrachtet. Durch die Modellerweiterung liegt mit der mittleren Reisezeittr eine weitere Me�gr�o�e vor.Bild 6.6 zeigt den Verlauf des Beobachtbarkeitsma�es f�ur die Verkehrs-dichten und die mittleren Geschwindigkeiten f�ur verschiedene Kombina-tionen von Me�gr�o�en bei einem Arbeitspunkt von 2000 Fz/h. Der be-trachtete zweispurige Streckenabschnitt ist in 9 Segmente unterteilt undbesitzt eine L�ange von 4,5 km. Deutlich erkennbar ist, da� die Erweite-rung der Me�gr�o�en durch die Reisezeit tr die Beobachtbarkeit des Sy-stems entscheidend verbessert. Gleiche Ergebnisse ergeben sich auch beianderen Streckenl�angen.

Page 149: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

140 6 Verkehrszustandssch�atzung mit streckenbezogenen Verkehrsdaten

10-3

10-2

10-1

100

101

0 2 4 6 8 10 12

Verkehrsdichte

Segment j →

β(c j

) →

10-3

10-2

10-1

100

101

0 2 4 6 8 10 12

Verkehrsdichte

Segment j →

β(c j

) →

10-3

10-2

10-1

100

101

0 2 4 6 8 10 12

Mittlere Geschwindigkeit

Segment j →

β(v

j) →

10-3

10-2

10-1

100

101

0 2 4 6 8 10 12

Mittlere Geschwindigkeit

Segment j →

β(v

j) →

Bild 6.7: Beobachtbarkeitsma� f�ur die Verkehrsdichten (oben) und diemittleren Geschwindigkeiten (unten) in Abh�angigkeit der Segmentan-zahl f�ur 2000 Fz/h ohne Reisezeitinformation (links) und mit Reisezeit-information (rechts)Abh�angigkeit von der SegmentanzahlIn Bild 6.7 wird der Verlauf des Beobachtbarkeitsma�es f�ur die Verkehrs-dichten und die mittleren Geschwindigkeiten f�ur drei und vier Me�gr�o�en(mit Reisezeit) in Abh�angigkeit der Anzahl der Segmente bei einem Ar-beitspunkt von 2000 Fz/h gezeigt. Deutlich wird, da� die Beobachtbar-keit in beiden F�allen mit zunehmender Streckenl�ange sinkt. Au�erdemwirkt sich die Tendenz, da� die Zustandsvariablen im Innern des Strecken-abschnitts schlechter beobachtbar sind als an den R�andern, mit zuneh-mender Segmentanzahl aus. Aus dem Vergleich der Werte ohne und mit

Page 150: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

6.4 Simulationsergebnisse 141Reisezeitinformation zeigt sich allerdings, da� bei einer Erweiterung derMe�gr�o�en um die Reisezeit eine Vergr�o�erung der Sensorabst�ande um ei-nige Segmente theoretisch die Beobachtbarkeit einzelner Zustandsgr�o�enkaum mindert.6.4 SimulationsergebnisseZur Durchf�uhrung der Filtererprobung wird ein mikroskopisches Ver-kehrsmodell herangezogen, welches f�ur verschiedenartige Verkehrszust�an-de makroskopische Verkehrsgr�o�en generiert. Die aus dem mikroskopi-schen Modell hervorgehenden makroskopischen Gr�o�en gehen zum einenals Me�gr�o�en in die Filtergleichungen ein, zum anderen werden die Zu-standsgr�o�en mit den vom erweiterten Kalman-Filter berechneten Sch�atz-werten verglichen. Somit ist eine Aussage �uber die Sch�atzg�ute m�oglich.Vor einem Vergleich der erzielbaren Genauigkeiten der Zustandssch�atzungohne und mit Reisezeitinformation und der Darstellung der St�orungsde-tektion mit Hilfe streckenbezogener Verkehrsdaten mu� die Varianz derReisezeitmessung bestimmt werden.6.4.1 ParameterfestlegungAls freie Parameter des Sch�atzverfahrens sind die Varianzen des St�orpro-zesses am Systemausgang anzusehen, die in der Kovarianzmatrix Rnn(k)nach Gleichung (6.46) aufgef�uhrt sind. Anhaltswerte f�ur die VarianzenEf�n(k)g2, Ef�w0(k)g2, Ef�qn(k)g2 und Ef�wn(k)g2 �nden sich in [22].Die aus den Me�fehlern und den Abweichungen von den tats�achlichenWerten resultierende Varianz Ef�tr(k)g2 kann durch die Filtererprobungfestgelegt werden.Streng genommen ist die Varianz der mittleren Reisezeit von der Ver-kehrsdichte und vom Verkehrszustand abh�angig. Im Rahmen der folgen-den Betrachtungen wird allerdings von einer konstanten Varianz ausge-gangen. Eine zu gro� gew�ahlte Varianz der Reisezeiten bewirkt, da� derUnterschied zur Sch�atzung ohne Reisezeit nicht mehr erkennbar ist. Eine

Page 151: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

142 6 Verkehrszustandssch�atzung mit streckenbezogenen Verkehrsdaten

0 50 100 150 200

0.8

0.85

0.9

0.95

1

ζ tr →

Nor

mie

rter

Feh

ler →

Streckenlange: 2500 m

w0,q5,w5w0,q5,w5,tr

0 50 100 150 200

0.8

0.85

0.9

0.95

1

ζ tr →

Nor

mie

rter

Feh

ler →

Streckenlange: 4500 m

w0,q9,w9w0,q9,w9,trBild 6.8: Normierter quadratischer Sch�atzfehler in Abh�angigkeit von�tr f�ur zwei verschiedene Streckenabschnitte

zu klein gew�ahlte Varianz der Reisezeit f�uhrt zu einer zu starken Ge-wichtung der Reisezeitinformation. Eine Optimierung der Varianz kanndurch die Berechnung des normierten quadratischen Sch�atzfehlers derZustandsvariablen anhand mehrerer Simulationsdurchl�aufe verschiedenerTopologien erfolgen. Bild 6.8 zeigt beispielhaft den normierten quadrati-schen Sch�atzfehler f�ur Sch�atzungen mit und ohne Reisezeitinformation inAbh�angigkeit von �tr f�ur Simulationen bei einer Streckenl�ange von 2,5 kmund 4,5 km bei einer Eingangsverkehrsst�arke von 2500 Fz/h. Da hier nurdie Relation der Sch�atzfehler interessiert, wurde der Sch�atzfehler ohneReisezeitinformation auf Eins normiert.Aus mehreren Simulationen folgt, da� das Minimum im Bereich von�tr � 40 s liegt, d.h. die Varianz kann mit Ef�2tr(k)g � 1600 s2 festge-legt werden. Die Varianz der mittleren Reisezeit, die aus den Me�fehlernresultiert, liegt bei den in Kapitel 5 beschriebenen Verfahren bei ca. 36s2. Der �ubrige Anteil an der Varianz resultiert aus den Abweichungen dertats�achlichen mittleren Reisezeiten zu den aus Gleichung (6.16) errechne-ten Werten. Da die mittlere Reisezeit nicht auf die Streckenl�ange normiertist, mu� dieser Wert je nach Streckenl�ange geringf�ugig verkleinert odervergr�o�ert werden.

Page 152: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

6.4 Simulationsergebnisse 1436.4.2 Ergebnisse der Verkehrszustandssch�atzungIn diesem Abschnitt wird exemplarisch eine Simulation f�ur einen zwei-spurigen, 5,5 km langen Streckenabschnitt betrachtet und den theoreti-schen Untersuchungen gegen�ubergestellt. Es wird eine Simulation von 30Minuten Dauer zugrunde gelegt. Nach 10 Minuten wird f�ur die Dauervon 10 Minuten ein Unfall durch die Sperrung einer Fahrspur simuliert.Der St�orbereich be�ndet sich im siebten von 11 Segmenten. Die Ein-gangsverkehrsst�arke ist mit 2500 Fz/h relativ hoch, so da� es durch dieSt�orung zu einem Stau im Streckenabschnitt kommt. Dieses wirkt sichnach 10 Minuten direkt auf die Zustandsgr�o�en im sechsten Segment aus.Es folgt zu einer Abnahme der mittleren Geschwindigkeit und einer Zu-nahme der Verkehrsdichte. Mit entsprechender Zeitverz�ogerung gilt dasgleiche f�ur die Zustandsgr�o�en in den anderen eingangsseitigen Segmen-ten. Das resultierende Verkehrsdichte- und Geschwindigkeitspro�l ist imBild 6.9 dargestellt.Im Bild 6.9 sind zudem die ohne und mit Reisezeitinformation gesch�atz-ten Werte der Verkehrsdichten und der mittleren Geschwindigkeiten auf-getragen. Man erkennt, da� beide Sch�atzverfahren auf die St�orung imStreckenabschnitt reagieren. Deutlich wird aber, da� der Anstieg der Ver-kehrsdichten am Anfang des Streckenabschnitts beim Sch�atzverfahren oh-ne Reisezeitinformation nicht erkannt wird. Auch die Abnahme der mitt-leren Geschwindigkeiten wird nicht so gut gesch�atzt wie bei Kenntnis derReisezeit. Aus den Sch�atzergebnissen mit Reisezeitinformation hingegenzeigt sich, da� auch bei gro�en Streckenl�angen noch gute Sch�atzergebnissef�ur den Verkehrszustand erzielt werden k�onnen. Diese Ergebnisse deckensich mit den Resultaten aus der Beobachtbarkeitsanalyse in den Bildern6.6 und 6.7.Auch weitere Simulationen f�ur verschiedene Konstellationen belegen,da� die Erweiterung mit streckenbezogenen Verkehrsdaten zu einer Ver-besserung der Verkehrszustandssch�atzung f�uhrt [83].

Page 153: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

144 6 Verkehrszustandssch�atzung mit streckenbezogenen Verkehrsdaten

02

4 05001000150020002500

0

50

100

150

← s in [km] ← t in [s]

c in

[Fz/

km] →

02

4 05001000150020002500

0

50

100

150

← s in [km] ← t in [s]

v in

[km

/h] →

02

4 0500100015002000

0

50

100

150

← s in [km] ← t in [s]

c in

[Fz/

km] →

02

4 05001000150020002500

0

50

100

150

← s in [km] ← t in [s]

v in

[km

/h] →

02

4 0500100015002000

0

50

100

150

← s in [km] ← t in [s]

c in

[Fz/

km] →

02

4 05001000150020002500

0

50

100

150

← s in [km] ← t in [s]

v in

[km

/h] →

Bild 6.9: Von oben nach unten: Wahres, ohne und mit Reisezeitinforma-tion gesch�atztes Verkehrsdichtepro�l (links) und Geschwindigkeitspro�l(rechts)

Page 154: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

6.4 Simulationsergebnisse 1456.4.3 Ergebnisse der St�orungserkennungEin Vorteil der Modellerweiterung mit dem hypothetischen Zu u� nachAbschnitt 6.1.3 liegt darin, da� neben der Sch�atzung des aktuellen Ver-kehrszustandes auch noch eine St�orungserkennung durchgef�uhrt werdenkann. Grundlage der nachfolgenden Darstellungen ist wiederum eine Si-mulation von 30 Minuten Dauer, bei der nach 10 Minuten durch die Sper-rung einer Fahrspur im mittleren Streckenbereich f�ur den Zeitraum von 10Minuten eine St�orung erzeugt wird. Der Streckenabschnitt besitzt in die-sem Fall eine L�ange von 2,5 km und die Eingangsverkehrsst�arke variiertum den Wert von 2500 Fz/h.In [73] wurde ein Vergleich des St�orungserkennungsverfahrens mit demhypothetischen Zu u� mit zwei anderen Verfahren durchgef�uhrt. DieseVerfahren, der California-Algorithmus [82] und die r�aumliche Verkehrs-st�arkeprognose [8], werden in [16] f�ur den vorgegebenen Detektorabstandvorgeschlagen. Aus dem Vergleich in [73] geht hervor, da� die Sch�atzungdes hypothetischen Zu usses zur St�orungserkennung f�ur die hier vorlie-gende Simulation am besten geeignet ist.Gleichzeitig kann aber auch die Reisezeitinformation zur St�orungs-erkennung herangezogen werden. Ein deutlicher Anstieg der mittlerenReisezeiten ist signi�kant f�ur das Vorliegen einer St�orung. Der Abfallder mittleren Reisezeiten kann als St�orungsende interpretiert werden. InBild 6.10 ist die aus der Simulation hervorgegangene mittlere Reisezeitder Fahrzeuge aufgetragen. Zur besseren �Ubersicht sind die zeitdiskretenWerte als Polygonzug dargestellt und der Zeitraum der St�orung ist graugekennzeichnet. Zudem ist die Reisezeit durch eine gleitende Mittelwert-bildung �uber drei Abtastwerte gegl�attet worden.Bildet man eine Di�erenz dieser Reisezeitwerte, tr(k) � tr(k � `), sokann diese Reisezeitdi�erenz bei g�unstiger Wahl der Zeitverz�ogerung sehrgut zur St�orungserkennung eingesetzt werden. F�ur eine Zeitverz�ogerungvon `T = 2 Minuten ist im Bild 6.11 die aus dieser Simulation resultie-rende Reisezeitdi�erenz zusammen mit dem gegl�atteten hypothetischenZu u� aufgetragen. Aus dem Bild wird deutlich, da� die Reisezeitdi�e-renz ungef�ahr das gleiche Zeitverhalten und einen �ahnlichen Amplitu-

Page 155: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

146 6 Verkehrszustandssch�atzung mit streckenbezogenen Verkehrsdatendenanstieg liefert wie der hypothetische Zu u�. Das Zeitverhalten wirdhierbei vom Abstand der Fahrspursperrung zum stromabw�artigen Me�-querschnitt und der damit verbundenen Verz�ogerung der Fahrzeugdetek-tion bestimmt. Zum besseren Vergleich der beiden Verfahren sind im Bildlediglich die positiven Werte der Reisezeitdi�erenz aufgetragen.Der Vorteil der St�orungserkennung mit der Reisezeitinformation liegtjetzt darin, da� mit der mittleren Reisezeit der Fahrzeuge auch anders-artige St�orungen, die z.B. durch die �Uberlastung des Verkehrs entstehen,identi�ziert werden k�onnen. In solchen F�allen ist eine sichere St�orungser-kennung mit dem hypothetischen Zu u� nicht mehr gew�ahrleistet, da der�ktive Zu u� nur die herabgesetzte Kapazit�at durch die Sperrung einerFahrspur im Zustandsmodell ausgleichen soll.0 5 10 15 20 25 30

0

100

200

300

400

t in [min] →

t r in

[s] →

Bild 6.10: Mittlere Reisezeit

0 5 10 15 20 25 30

Zeit in [min] →

Hypothetischer Zufluß

Reisezeitdifferenz

Bild 6.11: St�orungserkennung mit der Reisezeitdi�erenz und dem hy-pothetischen Zu u�

Page 156: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

1477 ZusammenfassungDie Untersuchungen der vorliegenden Arbeit zeigen, da� f�ur die Klassi�ka-tion und Wiedererkennung von Fahrzeugen mit Signalen von Induktions-schleifen e�ziente Verfahren auf der Basis von Mustererkennungssyste-men angegeben werden k�onnen. Anhand eines entscheidungstheoretischenAnsatzes wird die Gesamtaufgabe durch die Aufteilung in verschiedeneVerarbeitungsstufen gegliedert. Beide Probleme basieren auf der gleichenSignalvorverarbeitung und einer �ahnlichen Merkmalsextraktion, so da�diese Stufen in einem System zusammen realisiert werden k�onnten. DerUnterschied beider Probleme liegt in der Klassi�kation, bei der entwederdie Entscheidung f�ur eine vorgegebene Fahrzeugklasse oder f�ur ein Fahr-zeug im Streckenabschnitt zur Ermittlung der streckenbezogenen Datenerw�unscht ist.Ausgangspunkt f�ur die Klassi�kation von Fahrzeugen ist die Bayes-Klassi�kation, f�ur die zur Bestimmung der optimalen Entscheidungsfunk-tionen die A-posteriori-Wahrscheinlichkeiten der Fahrzeugklassen bzw.alternativ die bedingten Dichten der Merkmalsvektoren sowie die A-pri-ori-Wahrscheinlichkeiten der Klassen ermittelt werden m�ussen. Da dieSch�atzung der A-posteriori-Wahrscheinlichkeiten problematisch ist, be-schr�ankt man sich auf die Sch�atzung der bedingten Dichten, die mitparametrischen oder nichtparametrischen Verfahren erfolgen kann. An-hand der wichtigsten Verfahren wird die Einsatzm�oglichkeit verschiede-ner Klassi�katoren bez�uglich der genannten Problemstellung untersuchtund bewertet. Bez�uglich der Merkmalsextraktion erweist sich die Karhu-nen-Lo�eve-Transformation im Vergleich zu einer Diskriminanzanalyse f�urden vorliegenden Fall als die beste Methode. Es zeigt sich, da� mit einemzweistu�gen Verfahren mit neuronalen Netzwerken aufgrund der gutenbin�aren Trennbarkeit der Fahrzeugklassen eine Fehlerrate des Klassi�ka-tors erreicht werden kann, die dem minimalen Bayes-Fehler sehr nahekommt.

Page 157: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

148 7 ZusammenfassungDie Sch�atzung streckenbezogener Verkehrsdaten gelingt mit der Wie-dererkennung von Fahrzeugen oder Fahrzeugkollektiven im Streckenab-schnitt. Im Vergleich zu einem Referenzverfahren, das mit einer Kor-relationsanalyse zur Wiedererkennung von Fahrzeugkollektiven arbeitet,werden zwei verschiedene, neuartige Methoden entwickelt, die beide aufder Basis der individuellen Wiedererkennung von Fahrzeugen arbeiten.Das erste Verfahren arbeitet mit Kostenfunktionen, in die neben der Me-trik der Merkmalsvektorendi�erenz weitere charakteristische Fahrzeug-daten einbezogen werden. Zur Bestimmung der Kostenfunktionen wer-den die statistischen Abweichungen zwischen wahren und prognostiziertenWerten analysiert und anschlie�end die optimalen Gewichtsfaktoren be-stimmt. Eine zweite vollst�andig andere Methodik ber�ucksichtigt die stati-stischen Bindungen der Fahrzeuge im Streckenabschnitt, die mit Hidden-Markov-Modellen modelliert werden k�onnen. Eine unbekannte Fahrzeug-sequenz wird anhand der beobachteten Merkmalsvektoren mit der dy-namischen Programmierung mit maximaler Wahrscheinlichkeit ermittelt.Beide Verfahren werden mit Simulations- und Me�daten bewertet. Auseinem Vergleich mit dem Referenzverfahren werden die Vorteile der neuentwickelten Verfahren abgeleitet und die Unterschiede der beiden neuenVerfahren aufgedeckt. Es zeigt sich, da� das Sch�atzverfahren mit Kosten-funktionen den geringsten Rechenaufwand besitzt, w�ahrend das Verfah-ren mit Hidden-Markov-Modellen die geringste Verz�ogerungszeit zwischenFahrzeugdetektion und Sch�atzung der Fahrzeugreisezeit hat.Die Einsatzm�oglichkeit der streckenbezogenen Verkehrsdatenerfassungwird in dieser Arbeit abschlie�end anhand der Verkehrszustandssch�atzungmit einem modellgest�utzten Sch�atzverfahren beschrieben. Dieses bislangvorwiegend mit querschnittsbezogenen Me�daten arbeitende makrosko-pische Abschnittsverfahren wird um streckenbezogene Me�daten, die ausder mittleren Reisezeit der Fahrzeuge im betrachteten Streckenabschnittbestehen, erweitert. Anhand einer theoretischen Analyse mit einem Be-obachtbarkeitsma� und Ergebnissen aus Simulationen mit und ohne Rei-sezeitinformation kann eine Verbesserung der Verkehrszustandssch�atzungaufgezeigt werden. Gleichzeitig kann die Reisezeitinformation zur Detek-tion von Verkehrsst�orungen eingesetzt werden.

Page 158: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

Abk�urzungs- und Symbolverzeichnis 149Abk�urzungs- und SymbolverzeichnisAbk�urzungenDCT Diskrete Cosinus-TransformationDIS DiskriminanzanalyseLIN Linearer Gau�klassi�katorHIST Histogrammklassi�katorHMM Hidden-Markov-ModellIDCT Inverse diskrete Cosinus-TransformationKLT Karhunen-Lo�eve-TransformationMAP Maximum a posterioriML Maximum LikelihoodMLP Multi-Layer-PerceptronNN N�achster-Nachbar-Klassi�katorPOLY Polynomklassi�katorQUAD Quadratischer Gau�klassi�katorSLP Single-Layer-PerceptronWT Whitening-TransformationSymbolea(t) Kontinuierliche Funktion der Zeit ta(n) Zeitdiskrete Folgea SpaltenvektoraT Transponierter des Vektors aA MatrixAT Transponierte der Matrix AA�1 Inverse der Matrix Aha; bi Skalarprodukt der Vektoren a und bkak Norm des Vektors aa Sch�atzung des Vektors aa Realisation eines Prozesses a

Page 159: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

150 Abk�urzungs- und SymbolverzeichnisA = faijg TransitionsmatrixB = fbj(o)g ErzeugungswahrscheinlichkeitsmatrixCik Kostenfaktorcj(k) Verkehrsdichtec Zielvektor der Polynomklassi�kationconst Konstanted Kopfabstand der Induktionsschleifend(x;y) = kx� yk Metrik der Vektoren x und ydi(m) Entscheidungsfunktiondopt Optimale EntscheidungsschwelledetfXg, jXj Determinante der Matrix Xe Eulersche Zahle Sch�atzfehlerEf�g Erwartungswertoperatorg Gewichtsvektorh(n) ImpulsantwortHi Hypothese f�ur das Eintre�en von kiI EinheitsmatrixJf�g G�utema�ki FahrzeugklasseK Anzahl der Fahrzeugklassenk(x;y) KostenvektorK Matrix der DCTlFz Fahrzeugl�angelS L�ange der Induktionsschleifen� Mittelwert� Mittelwertsvektorm Merkmalsvektormax Maximalwertmin MinimalwertMedian(�) Median eines VektorsO = fo1;o2; : : : ;oTg Beobachtungssequenzpk A-priori-Wahrscheinlichkeit der Klasse kp(n;m) Gegl�attete Korrelationsfolge

Page 160: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

Abk�urzungs- und Symbolverzeichnis 151P (Hi; kk) Verbundwahrscheinlichkeit f�ur fHi; kkgpm(m) Verbunddichte der Komponenten eineszuf�alligen Vektors mpmjHi(mjHi) Dichte eines zuf�alligen Vektors m unterder Bedingung, da� Hi eingetreten istP (qt = ijqt�1 = j) Zustands�ubergangswahrscheinlichkeitqj(k) Verkehrsst�arkeQ = fq1; q2; : : : ; qNg Zustandssequenzr(kT ) Signalvektor mit AbtastwertenrN(kTN ) Normierter Signalvektor mit Abtastwertenrxy(�) Kreuzkorrelationsfunktion von x(t) und y(t)rxy(m) Kreuzkorrelationsfolge von x(n) und y(n)r(n;m) Zweidimensionale KorrelationsfolgeRi Raumgebiet von kiRxx Autokovarianzmatrix des Prozesses xRxy Kreuzkovarianzmatrix der Prozesse x, yR Risikospur fXg Spur einer Matrix Xs SondermerkmalsvektorSB Interklassen-ScattermatrixSM Gemeinsame ScattermatrixSW Intraklassen-Scattermatrixtrfz Reisezeit eines Fahrzeugstr(k) Mittlere ReisezeitT Abtastintervallu Merkmalsvektor zur Wiedererkennung mitKostenfunktionenU Matrix der Karhunen-Lo�eve-Transformationvj(k) Mittlere GeschwindigkeitvFz FahrzeuggeschwindigkeitV (cj) Geschwindigkeits-Dichte-Charakteristikv Merkmalsvektor zur Wiedererkennungwj(k) Lokale Geschwindigkeitwij Gewichte eines neuronalen Netzwerks

Page 161: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

152 Abk�urzungs- und SymbolverzeichnisW Wartezeitw(m) PolynomvektorW Matrix der Whitening-Transformationy Merkmalsvektor aus Karhunen-Lo�eve-Transformation�t(i) Vorw�arts-Variable�t(i) R�uckw�arts-Variable�(xi) Beobachtbarkeitsma� f�ur xi�ij Kronecker-Delta�t(i) Maximale Wahrscheinlichkeit�j Segmentl�ange�L Induktivit�ats�anderung" Fehlerma�"B Bayes-Fehler"C(s) Cherno�-Grenze�(k) Gammafunktion� = (A;B;�) Hidden-Markov-Modell�i i-ter Eigenwert einer quadratischen Matrix� = f�ig Anfangswahrscheinlichkeitsvektor'(vj) Aktivierungsfunktion t(i) Argument�Fz Signall�ange�S Zeitdi�erenz�j Schwellwert oder BiasC Menge der komplexen ZahlenIN Menge der nat�urlichen ZahlenIR Menge der reellen ZahlenZZ Menge der ganzen Zahlen0 Nullvektor, Nullmatrix

Page 162: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

Literaturverzeichnis 153Literaturverzeichnis[1] N. Ahmed, T. Natarajan und K. R. Rao: \Discrete cosine transform,"IEEE Trans. Computers, Vol. 23, S. 88{93, Januar 1974.[2] M. S. Ahmed und A. R. Cook: \Analysis of freeway tra�c time seriesdata by using Box-Jenkins techniques," Transp. Res. Rec., No. 722, S. 1{9, 1979.[3] B. D. Anderson und J. B. Moore: Optimal Filtering. Englewood Cli�s,NJ: Prentice Hall, 1979.[4] L. R. Bahl, F. Jelinek und R. L. Mercer: \A maximum likelihood ap-proach to continuous speech recognition," IEEE Trans. Pattern Analysisand Machine Intelligence, Vol. PAMI-5, S. 179{190, 1983.[5] L. E. Baum und T. Petrie: \Statistical inference for probabilistic functionsof �nite state Markov chains," Ann. Math. Stat., Vol. 37, S. 1554{1563,1966.[6] L. E. Baum, T. Petrie, G. Soules und N. Weiss: \A maximization techniqueoccurring in the statistical analysis of probabilistic functions of Markovchains," Ann. Math. Stat., Vol. 41, No. 1, S. 164{171, 1970.[7] L. E. Baum: \An inequality and associated maximization technique instatistical estimation for probabilistic functions of a Markov process,"Inequalities, Vol. 3, No. 1, S. 1{8, 1972.[8] R. B�ottger: \Ein Verfahren zur me�technischen Feststellung von Verkehrs-st�orungen auf Fernstra�en und Autobahnen," Stra�enverkehrstechnik, Ju-ni 1979.[9] P. B�ohnke: Beitrag zu einer Systemtheorie von Objektfunktionen. Disser-tation, RWTH Aachen, 1980.[10] R. B�oker: Physikalische und informationstheoretische Untersuchung vonInduktionsschleifen zur Wiederentdeckung von Fahrzeugen. Dissertation,RWTH Aachen, 1984.[11] P. B�ohnke, R. B�oker, E. Pfannerstill, W. Stremme und R. Ziegler: \EinVerkehrsdatenerfassungssystem f�ur das Stra�ennetz { Konzept und Rea-lisierung," Frequenz, Vol. 41, S. 88{94, April 1987.

Page 163: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

154 Literaturverzeichnis[12] K. Brammer und G. Si�ing: Stochastische Grundlagen des Kalman-Bucy-Filters. M�unchen: Oldenbourg, 2. Au age, 1986.[13] K. Brammer und G. Si�ing: Kalman-Bucy-Filter. M�unchen: Oldenbourg,3. Au age, 1989.[14] M. Bredeh�oft: \Entwurf eines Beobachtersystems f�ur zeitvariable Str�o-mungsvorg�ange zur �Uberwachung der Schadsto�belastung in Fl�ussen,"Schriftenreihe der Arbeitsgruppe Automatisierungstechnik, Heft 3, TUHamburg-Harburg, 1988.[15] M. Bredeh�oft und M. Cremer: \Ein physikalisches Beobachtbarkeitsma�f�ur den Entwurf von Zustandsbeobachtern f�ur Systeme von gr�o�erer Kom-plexit�at," Automatisierungstechnik, No. 2, 1988.[16] F. Busch: Automatische St�orungserkennung auf Schnellverkehrsstra�en.Dissertation, Universit�at Karlsruhe, 1986.[17] F. Busch undM. Fellendorf: \Automatic incident detecion on motorways,"Tra�c Engineering and Control, S. 221{227, April 1990.[18] R. L. Cheu, S. G. Ritchie, W. W. Recker und B. Bavarian: \Investigationof a neural network model for freeway incident detection," in Second Inter-national Conference on the Application of Arti�cial Intelligence Techni-ques to Civil and Structural Engineering, Oxford, September 1991, S. 3{5.[19] A. R. Cook und D. E. Cleveland: \The detection of freeway capacitiy-reducing incidents by tra�c stream measurements," Transp. Res. Rec.,No. 495, S. 1{11, 1974.[20] T. M. Cover und P. E. Hart: \Nearest neighbor pattern classi�cation,"IEEE Trans. Information Theory, Vol. IT-13, S. 21{27, Januar 1967.[21] M. Cremer: \A new scheme for tra�c ow estimation and control with atwo component model," in Proc. of the IFAC/IFIP/IFORS 3rd Symposi-um on Control in Transportation Systems, Columbus, Ohio, August 1976,S. 29{37.[22] M. Cremer: Der Verkehrs u� auf Schnellstra�en. Berlin: Springer, 1979.[23] M. Cremer: \Incident detection of freeways by �ltering techniques," inPreprints of the 8th IFAC Congress, Kyoto, 1981.

Page 164: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

Literaturverzeichnis 155[24] M. Cremer und M. Papageorgiou: \Parameter identi�cation for a tra�c ow model," Automatica, Vol. 17, No. 6, S. 837{843, 1981.[25] M. Cremer und K. Putensen: \Monitoring of tra�c density pro�les usingmeasurements from loop detectors and vehicle trip data," in Proc. Int.Conf. on Advanced Tra�c Management Systems, St. Petersburg, Florida,Oktober 1993, S. 241{258.[26] M. Cremer und K. Putensen: \An approach for tra�c state estimationusing invehicle information," in Proc. 7th Symposium on TransportationSystems, Tianjin, China, August 1994, S. 643{648.[27] M. Cremer und S. Schrieber: \Monitoring tra�c load pro�les with hete-rogeneous data source con�gurations," in Proc. 13th Int. Symposium onTransport and Tra�c Theory, Lyon, Juli 1996.[28] M. Dalgeish und R. Tuthill: \The development of a microprocessor-basedvehicle classi�er," Tra�c, Engineering, and Control, Vol. 19, No. 3, 1978.[29] A. P. Dempster: \Maximum likelihood from incomplete data via the EMalgorithm," J. Royal Stat. Soc. B., Vol. 39, S. 1{18, 1977.[30] P. A. Devijver und J. Kittler: Pattern Recognition: A Statistical Approach.London: Prentice-Hall, 1982.[31] R. O. Duda und P. E. Hart: Pattern Classi�cation and Scene Analysis.New York: Wiley, 1973.[32] R. J. Elliott, L. Aggoun und J. B. Moore: Hidden Markov Models. NewYork: Springer, 1995.[33] N. Fliege: Systemtheorie. Stuttgart: Teubner, 1991.[34] N. Fliege: Multiraten-Signalverarbeitung. Stuttgart: Teubner, 1993.[35] G. D. Forney: \The Viterbi algorithm," Proc. IEEE, Vol. 61, S. 268{278,M�arz 1973.[36] K.-S. Fu: Digital Pattern Recognition. Berlin: Springer, 1980.[37] K. Fukunaga: Introduction to Statistical Pattern Recognition. Boston:Academic Press, 1990.

Page 165: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

156 Literaturverzeichnis[38] G. J. Gibson und C. F. N. Cowan: \On the decision regions of multilayerperceptrons," Proc. IEEE, Vol. 78, S. 1590{1594, Oktober 1990.[39] F. L. Hall: \An interpretation of speed- ow-concentration relationshipsusing catastrophe theory," Transportation Research A, No. 21A, S. 191{201, 1987.[40] J. C. Hancock und P. A. Wintz: Signal Detection Theory. New York:McGraw-Hill, 1966.[41] S. S. Haykin: Neural Networks. New York: Macmillan, 1994.[42] F. Jelinek: \Continuous speech recognition by statistical methods," Proc.IEEE, Vol. 64, S. 532{536, April 1976.[43] B. H. Juang und L. R. Rabiner: \The segmental k-means algorithm forestimating parameters of hidden Markov models," IEEE Trans. Acoustics,Speech, and Signal Processing, Vol. ASSP-38, S. 1639{1641, September1990.[44] K. D. Kammeyer: Nachrichten�ubertragung. Stuttgart: Teubner, 1992.[45] J. F. Kingman: Poisson Processes. Oxford: Clarendon Press, 1993.[46] K. Kroschel: Statistische Nachrichtentheorie, Band 2: Signalsch�atzung.Berlin: Springer, 2. Au age, 1988.[47] R. K�uhne und S. Immes: \Freeway control systems using section-relatedtra�c variable detection," in Proc. Paci�c Rim TransTech Conference,Seattle, WA, Juli 1993, S. 56{62.[48] S. Y. Kung: Digital Neural Networks. Englewood Cli�s, NJ: Prentice-Hall,1993.[49] M. Levin und G. M. Krause: \Incident detection: A Bayesian approach,"Transp. Res. Rec., No. 682, S. 52{58, 1978.[50] S. E. Levinson, L. R. Rabiner und M. M. Sondhi: \An introduction to theapplication of the theory of probabilistic functions of a Markov process toautomatic speech recognition," Bell Systems Technical Journal, Vol. 62,No. 4, S. 1035{1075, 1983.[51] R. P. Lippmann: \An introduction to computing with neural networks,"IEEE ASSP Magazine, Vol. 4, S. 4{22, April 1987.

Page 166: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

Literaturverzeichnis 157[52] R. P. Lippmann: \Pattern classi�cation using neural networks," IEEECommunications Magazine, S. 47{64, November 1989.[53] H.-L. Lou: \Implementing the Viterbi algorithm," IEEE Signal ProcessingMagazine, Vol. 12, S. 42{52, September 1995.[54] A. Mertins: Signaltheorie. Stuttgart: Teubner, 1996.[55] H. A. Moland: \Pre-Processing and Feature Extraction for Pattern Reco-gnition in Tra�c Control Systems," Diplomarbeit, TU Hamburg-Harburg,Arbeitsbereich Nachrichtentechnik, 1992.[56] F. P. D. Navin: \Tra�c congestion catastrophes," Transportation Plan-ning and Technology, No. 11, S. 19{25, 1986.[57] J. T. Olesik: Use of Loop Detector Phase Signatures for Vehicle Speedand Type Classi�cation. Dissertation, M.I.T., Department of ElectricalEngineering and Computer Science, 1976.[58] Y.-h. Pao: Adaptive Pattern Recognition and Neural Networks. Reading,Mass.: Addison-Wesley, 1989.[59] H. J. Payne: \Models of freeway tra�c control," Simulation Council Proc.,Vol. 1, S. 51{61, 1971.[60] S. Peng und C. Harlow: \Systems for vehicle classi�cation from rangeimagery," in Proc. of the 28th Southeastern Symposium on System Theory,Baton Rouge, LA, M�arz 1996, S. 327{330.[61] E. Pfannerstill: Ein Verfahren zur Merkmalextraktion aus Linienmusternzur Zuordnung von Fahrzeugkollektiven. Dissertation, RWTH Aachen,1983.[62] E. Pfannerstill: \Measuring section-related tra�c data by correlation me-thods: A new approach to tra�c monitoring and control," in Proc. 2ndInternational Conference on Applications of Advanced Technologies inTransportation Engineering, Minneapolis, MN, August 1991.[63] A. B. Poritz: \Hidden Markov models: A guided tour," in Proc. IEEE In-ternational Conference on Acoustics, Speech, and Signal Processing, NewYork, 1988, S. 7{12.

Page 167: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

158 Literaturverzeichnis[64] L. R. Rabiner und B. H. Juang: \An introduction to hidden Markov mo-dels," IEEE ASSP Magazine, Vol. 3, S. 4{16, Januar 1986.[65] L. R. Rabiner: \A tutorial on hidden Markov models and selected appli-cations in speech recognition," Proc. IEEE, Vol. 77, S. 257{285, Februar1989.[66] L. R. Rabiner und B. H. Juang: Fundamentals of Speech Recognition.Englewood Cli�s, NJ: Prentice Hall, 1993.[67] K. R. Rao und P. Yip: Discrete Cosine Transform. Boston: AcademicPress, 1990.[68] P. Reichelt: Die Steuerung von dynamischen Verkehrsbeein ussungsanla-gen mit Hilfe der Reisezeit. Dissertation, RWTH Aachen, 1980.[69] M. D. Richard und R. P. Lippmann: \Neural network classi�ers estimateBayesian a posteriori probabilities," Neural Computation, Vol. 3, S. 461{483, April 1991.[70] H. Roe und S. Hobson: \Classi�cation of road vehicles from microwavepro�les," in 6th International Conference on Road Tra�c Monitoring andControl, London, April 1992, S. 128{129.[71] D. E. Rumelhart und J. R. McClelland: Parallel Distributed Processing:Explorations in the Microstructure of Cognition, Vol. 1: Foundations.Cambridge, Mass.: MIT Press, 1986.[72] J. Sch�urmann: Polynomklassi�katoren f�ur die Zeichenerkennung. M�un-chen: Oldenbourg, 1977.[73] H. Sch�utt und M. Cremer: \On-line-Identi�zierung von St�orungen undwesentlichen Parameterver�anderungen im Autobahnverkehr," Schriften-reihe der Arbeitsgruppe Automatisierungstechnik, Heft 4, TU Hamburg-Harburg, 1990.[74] S. Schrieber und M. Cremer: \A scheme for monitoring the tra�c stateon motorways using delayed data," in Proc. 3rd World Congress on In-telligent Transport Systems, Orlando, Florida, Oktober 1996.[75] D. L. Snyder und M. I. Miller: Random Point Processes in Time andSpace. New York: Springer, 1991.

Page 168: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

Literaturverzeichnis 159[76] M. Sprotte: \Signalvorverarbeitung zur streckenbezogenenVerkehrsdaten-erfassung," Diplomarbeit, TU Hamburg-Harburg, Arbeitsbereich Nach-richtentechnik, 1993.[77] C. W. Therrien: Decision, Estimation, and Classi�cation. New York: Wi-ley, 1989.[78] J. T. Tou und R. C. Gonzalez: Pattern Recognition Principles. Reading,Mass.: Addison-Wesley, 1974.[79] H. L. VanTrees: Detection, Estimation, and Linear Modulation Theory,Vol. 1. New York: Wiley, 1968.[80] A. J. Viterbi: \Error bounds on convolutional codes and an asymptoticallyoptimum decoding algorithm," IEEE Trans. Information Theory, Vol. IT-13, S. 260{269, April 1967.[81] H. Vo�: \Mathematik f�ur Ingenieure I," Vorlesungsskript, TU Hamburg-Harburg, 1984.[82] J. T. West: \California makes its move," Tra�c Engineering, Vol. 41,No. 4, 1971.[83] J. Wohlers: \Verwendung streckenbezogener Verkehrsdaten bei der mo-dellgest�utzten Sch�atzung kritischer Belastungspro�le auf Autobahnen,"Diplomarbeit, TU Hamburg-Harburg, Arbeitsgruppe Automatisierungs-technik und Arbeitsbereich Nachrichtentechnik, 1991.[84] J. Wohlers, A. Mertins und N. Fliege: \Time-delay estimation for com-pound point-processes using hidden Markov models," in Proc. IEEE Inter-national Conference on Acoustics, Speech, and Signal Processing, Atlanta,GA, Mai 1996.[85] T. Y. Young und T. W. Calvert: Classi�cation, Estimation, and PatternRecognition. New York: American Elsevier, 1974.[86] X. Yuan, Y.-J. Lu und S. Sarraf: \Computer vision system for automaticvehicle classi�cation," ASCE, Vol. 120, S. 861{876, November 1994.[87] U. Z�olzer: Digitale Audiosignalverarbeitung. Stuttgart: Teubner, 1996.

Page 169: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw
Page 170: ahrzeugklassi k -   · PDF fileJens W ohlers. Inhaltsv erzeic hnis V Inhaltsv erzeic hnis 1 Einf uhrung 2 ... ehrs u mo dells: 122 6.1.2 Mo dellv alidierung: 125 6.1.3 Mo dellerw

LebenslaufPers�onliche Daten:Name: Jens WohlersGeburtsdatum: 8. Oktober 1963Geburtsort: RendsburgAusbildung und Beruf:08/70 - 06/74 Grundschule Westerr�onfeld07/74 - 06/83 Gymnasium Herderschule Rendsburg07/83 - 06/85 Wehrdienst09/85 - 02/92 Studium der Elektrotechnik an derTechnischen Universit�at Hamburg-Harburgseit 04/92 Wissenschaftlicher Mitarbeiter imArbeitsbereich Nachrichtentechnik derTechnischen Universit�at Hamburg-Harburg