8. Repräsentation von Zeit in neuronalen Netzen (KNN mit Speichervermögen)

17
1 8. Präsentation von Zeit in KNN SS 2005 2 17 Zeit in neuronalen Netzen (KNN mit Speichervermögen) Jörg Krone, Ulrich Lehmann, Hans Brenig, Oliver Drölle

description

8. Repräsentation von Zeit in neuronalen Netzen (KNN mit Speichervermögen). Jörg Krone, Ulrich Lehmann, Hans Brenig, Oliver Drölle. Inhalt. Grundlangen Assoziation von Zeitverhalten Jordan-Netze Elman-Netze Hierarchische Elman-Netze Lernverfahren für partiell rekurrente Netze Fragen. - PowerPoint PPT Presentation

Transcript of 8. Repräsentation von Zeit in neuronalen Netzen (KNN mit Speichervermögen)

Page 1: 8.  Repräsentation von Zeit  in neuronalen Netzen  (KNN mit Speichervermögen)

18. Präsentation von Zeit in KNNSS 2005

2

17

8. Repräsentation von Zeit in neuronalen Netzen

(KNN mit Speichervermögen)Jörg Krone, Ulrich Lehmann, Hans Brenig, Oliver Drölle

Page 2: 8.  Repräsentation von Zeit  in neuronalen Netzen  (KNN mit Speichervermögen)

2

17

28. Präsentation von Zeit in KNNSS 2005

Inhalt

a. Grundlangen Assoziation von Zeitverhalten

b. Jordan-Netze

c. Elman-Netze

d. Hierarchische Elman-Netze

e. Lernverfahren für partiell rekurrente Netze

f. Fragen

Page 3: 8.  Repräsentation von Zeit  in neuronalen Netzen  (KNN mit Speichervermögen)

38. Präsentation von Zeit in KNNSS 2005

2

17

Grundlagen

Repräsentation von Zeit in neuronalen Netzen kann, wie bei der Prognose von Zeitreihen gezeigt, mit einfachen Feedforward-Netzen (MLP) erfolgen, wenn:

• mit einer Trainingsmustersequenz gearbeitet wird, bei der auch die zeitliche Folge f(t) wesentlich ist

• die Reihenfolge der Muster also eine Rolle spielt (siehe Beispiel „Analyse eines Umformprozesses mit KNN)

• dabei wird ein Fenster über die Datenfolge = f(t) geschoben (sliding window) und es wird eine Teilfolge von n-Mustern gleichzeitig als Vektor präsentiert

• n: die Fenstergröße entspricht der Mindestanzahl von Eingabeneuronen

• das dynamische Verhalten von Systemen kann so gelernt werden

Damit wurden gute Ergebnisse in der Praxis erzielt.

Page 4: 8.  Repräsentation von Zeit  in neuronalen Netzen  (KNN mit Speichervermögen)

48. Präsentation von Zeit in KNNSS 2005

2

17

Prinzip der Speicherung mit KNN

Ähnlich wie in digitalen Filtern kann die Zeitfunktion auch direkt in partiell rekurrenten Netzen (mit partieller Rückkopplung) gespeichert werden:

• sie sind abgeleitet von Feedforward-Netzen

• sie enthalten spezielle verdeckte Zellen Kontextzellen

• sie besitzen zusätzlich eine Rückkopplungsschleife mit den Kontextzellen

• die Rückkopplungen erfolgen in genau definierter Weise (feste Gewichte)

• sie können mit geringfügig modifizierten Standardlernverfahren für Feedforward-Netze trainiert werden

• die Standardlernverfahren sind wesentlich effizienter als spezielle Lernverfahren für beliebig rekurrente Netze, wie z.B. für Hopfield-Netze

• einem partiell rekurrenten Netz wird eine Teilfolge von n-Mustern gleichzeitig als Vektor präsentiert

• dabei wird ein Fenster mit n-Mustern über die Datenfolge = f(t) geschoben (sliding window)

Page 5: 8.  Repräsentation von Zeit  in neuronalen Netzen  (KNN mit Speichervermögen)

58. Präsentation von Zeit in KNNSS 2005

2

17

Architektur Jordan-Netzwerk

• Kontextzellen mit der Identität als Aktivierung und festen Gewichtenw = = 1 speichern den Ausgabezustand o(t-1) (grüne Verbindungen)

• die Kontextzellen besitzen weiterhin direkte Rückkopplungen (gelbe Verbindungen), die ebenfalls fest sind w = = 0,5 bis 1 (nicht trainierbar)

• die Anzahl der Kontextzellen (hier 2) ist gleich der Anzahl der Ausgabezellen

Page 6: 8.  Repräsentation von Zeit  in neuronalen Netzen  (KNN mit Speichervermögen)

68. Präsentation von Zeit in KNNSS 2005

2

17

Funktion des Jordan-Netzwerk

O(t) = F (S(t) , I(t) )

S(t+1) = Ğ (S(t) , O(t) )

S(t)

I(t)

O(t)

S(t+1)

S(t+1) = Ğ (S(t) , F (S(t) , I(t) ))

Der Folgezustand ergibt sich aus dem aktuellen Zustand der Eingabe

Page 7: 8.  Repräsentation von Zeit  in neuronalen Netzen  (KNN mit Speichervermögen)

78. Präsentation von Zeit in KNNSS 2005

2

17

Zustandsspeicherung

Die Aktivierungsfunktion der Kontextzellen ist die identische Abbildung. Ausgehend von einem Startzustand S0 ergibt sich für den Zustandsvektor S zur Zeit t:

S(0) falls t = 1

S(t) = S(t-1) + O(t-1) falls t > 1

Der Wert steuert das Erinnerungsvermögen des Netzes. Er liegt im Bereich [0,1].

• Für 1 ist der Einfluss der älteren Ausgaben wichtiger.

• Ein Wert von = 0,5 bildet einen Kompromiss zwischen Speicherung der alten Ausgaben und Flexibilität für neue Änderungen.

Page 8: 8.  Repräsentation von Zeit  in neuronalen Netzen  (KNN mit Speichervermögen)

88. Präsentation von Zeit in KNNSS 2005

2

17

Bewertung Jordan-Netzwerke

ein Jordan-Netz kann zu einem festen Eingabewert eine ganze Ausgabesequenz assoziieren, ähnlich der Antwort von einem digitalen Filter auf eine Testfunktion

mit verschiedenen festen Eingabevektoren können verschiedene Ausgabesequenzen assoziiert werden

- Wahl von viele Probleme verlangen einerseits ein kleines 0,5um flexibel auf neue Änderungen zu reagieren, andererseits aber auch einen großen Wert nahe 1, um länger zurückliegende Ausgaben zu berücksichtigen

- die Kontextzellen erlauben keine Speicherung des internen Zustands der verdeckten Schicht, sondern nur der Ausgaben.

o Abhilfe: Verwendung von Elman-Netzen (siehe nächste Folie).

Page 9: 8.  Repräsentation von Zeit  in neuronalen Netzen  (KNN mit Speichervermögen)

98. Präsentation von Zeit in KNNSS 2005

2

17

Prinzip der Elman-Netze

Sie sind eine Modifikation der Jordan-Netze:

• Rückkopplung von der verdeckten Schicht zur Kontextschicht

• die direkten Rückkopplungen der Kontextschicht zu sich selbst können entfallen 0

• die Zahl der Kontextzellen ist gleich der Zahl der verdeckten Zellen

• jede verdeckte Zelle besitzt eine Rückkopplungsverbindung der ihr 1:1 zugeordneten Kontextzelle mit festem Gewicht 1,0

• die Kontextzellen besitzen wiederum die Identität als Aktivierungsfunktion.

Page 10: 8.  Repräsentation von Zeit  in neuronalen Netzen  (KNN mit Speichervermögen)

108. Präsentation von Zeit in KNNSS 2005

2

17

Architektur Elman-Netzwerk

• Kontextzellen mit festen Gewichten w = 1 speichern den Zustand o(t-1) (rosa Verbindung) der verdeckten Zellen

• die Anzahl der Kontextzellen ist gleich der Anzahl der verdeckten Zellen

Page 11: 8.  Repräsentation von Zeit  in neuronalen Netzen  (KNN mit Speichervermögen)

118. Präsentation von Zeit in KNNSS 2005

2

17

Funktion der Elman-Netze

• Zu Beginn der Verarbeitung werden die Aktivierungen der Kontextzellen auf einen definierten Wert gesetzt

• nach Eingabe des ersten Musters der Musterfolge werden die verdeckten Zellen sowohl von den Eingabezellen als auch von den Kontextzellen aktiviert

• da die Kontextzellen die Identität als Aktivierungsfunktion besitzen, ergibt sich der neue Zustand als Kopie der Ausgabe der verdeckten Zellen

• die verdeckten Zellen propagieren wie üblich zu den Ausgangszellen

• beim nächsten Eingabemuster enthalten allerdings die Kontextzellen die Aktivierung (t-1) der verdeckten Zellen

• auf diese Weise kann der zeitliche Bezug zu früheren Mustern hergestellt werden

Page 12: 8.  Repräsentation von Zeit  in neuronalen Netzen  (KNN mit Speichervermögen)

128. Präsentation von Zeit in KNNSS 2005

2

17

Bewertung Elman-Netzwerke

die Eignung des Netzes für eine bestimmte Anwendung ist nicht direkt von der zu erzeugenden Ausgabesequenz abhängig, wie dies bei Jordan-Netzwerken der Fall ist

die internen Zustände (gespeicherte Zustände) ergeben sich aus den Zuständen der verdeckten Zellen

die verdeckten Zellen werden so zu einer Repräsentation des zeitlichen Kontexts gezwungen

- die einfachen Elman-Netze besitzen nur eine verdeckte Schicht Neuronen. Für viele komplexe Problemstellungen erzielen jedoch Netze mit mehreren verdeckten Schichten etwas bessere Ergebnisse.

o Abhilfe: Hierarchische Elman-Netze mit mehreren Hidden Layern.

Page 13: 8.  Repräsentation von Zeit  in neuronalen Netzen  (KNN mit Speichervermögen)

138. Präsentation von Zeit in KNNSS 2005

2

17

Architektur hierarchischer Elman-Netze

• Kontextzellen (hellblau) mit festen Gewichten w = 1 speichern den Zustand o(t-1) der verdeckten Zellen und in der dritten Schicht auch der Ausgangszellen

• die Kontextzellen können direkte Rückkopplungen besitzen, die ebenfalls fest sind (nicht trainierbar), allerdings für jede Schicht individuelle Werte 123annehmen können

• die Anzahl der Kontextzellen ist gleich der Anzahl der verdeckten Zellen plus Ausgangszellen

Page 14: 8.  Repräsentation von Zeit  in neuronalen Netzen  (KNN mit Speichervermögen)

148. Präsentation von Zeit in KNNSS 2005

2

17

Bewertung Hierarchische Elman-Netze

für komplexe Problemstellungen mit Zeitverhalten (dynamische Systeme) einsetzbar

die Kontextschichten können durch die Wahl unterschiedlicher Parameter i

unterschiedliches Speicherverhalten assoziieren

hierarchische Elman-Netze wurden bereits erfolgreich für Prognose von dynamischen Vorgängen in der Biologie und Physik, z.B. Prognose des Intensitätsverlaufs eines chaotisch pulsierenden NH3-Lasers, eingesetzt (siehe auch A. Zell)

- das Training ist geringfügig aufwendiger als beim MLP mit Fenstertechnik (siehe auch Beispiel: Analyse von Umformprozessen mit KNN)

Page 15: 8.  Repräsentation von Zeit  in neuronalen Netzen  (KNN mit Speichervermögen)

158. Präsentation von Zeit in KNNSS 2005

2

17

Lernverfahren für partiell rekurrente Netze

Ablauf des Backpropagation-Algorithmus für partielle rekurrente Netze:

1. Initialisierung Kontextzellen

2. Für jedes Trainigsmuster erfolgt:

• Anlegen des Eingabemusters und Vorwärtspropagierung bis Ausgabe (ohne Beachtung der rekurrenten Verbindungen / Rückkopplung (oBrV))

• Kontextzellen liefern konstant den gespeicherten Zustand t-1

• Vergleich der tatsächlichen Ausgabe mit erwünschter und Fehlerberechnung für jede Ausgabezelle

• Backpropagation der Fehlersignale bis zur Eingabe (oBrV)

• Berechnung der Gewichtsänderung

• Adaption der Gewichte (bei offline-Verfahren außerhalb der Schleife – nur nach jeder Epoche)

• Berechnung des Folgezustands t der Kontextzellen gemäß ihrer Eingangsverbindungen. Einziger Schritt mit Beachtung der rekurrenten Verbindungen

Page 16: 8.  Repräsentation von Zeit  in neuronalen Netzen  (KNN mit Speichervermögen)

168. Präsentation von Zeit in KNNSS 2005

2

17

Fragen

Fragen Sie bitte!

Page 17: 8.  Repräsentation von Zeit  in neuronalen Netzen  (KNN mit Speichervermögen)

178. Präsentation von Zeit in KNNSS 2005

2

17

Danke

Vielen Dank für Ihr Interesse!