(hoffentlich kurze) Einführung: Neuronale Netze...Neuronale Netze Vergleich: Gehirn serieller...

29
Dipl.-Inform. Martin Lösch Labor Wissensrepräsentation (hoffentlich kurze) Einführung: Neuronale Netze Dipl.-Inform. Martin Lösch [email protected] (0721) – 608 45944

Transcript of (hoffentlich kurze) Einführung: Neuronale Netze...Neuronale Netze Vergleich: Gehirn serieller...

Page 1: (hoffentlich kurze) Einführung: Neuronale Netze...Neuronale Netze Vergleich: Gehirn serieller Rechner Numerische präzise Be- rechnungen Fehlerloses Speichern v. Daten Rekonstrukt.

Dipl.-Inform. Martin Lösch Labor Wissensrepräsentation

(hoffentlich kurze) Einführung: Neuronale Netze

Dipl.-Inform. Martin Lösch

[email protected] (0721) – 608 45944

Page 2: (hoffentlich kurze) Einführung: Neuronale Netze...Neuronale Netze Vergleich: Gehirn serieller Rechner Numerische präzise Be- rechnungen Fehlerloses Speichern v. Daten Rekonstrukt.

Dipl.-Inform. Martin Lösch Labor Wissensrepräsentation Neuronale Netze

Überblick •  Einführung

•  Perzeptron

•  Multi-layer Feedforward Neural Network

•  MLNN in der Anwendung

2

Page 3: (hoffentlich kurze) Einführung: Neuronale Netze...Neuronale Netze Vergleich: Gehirn serieller Rechner Numerische präzise Be- rechnungen Fehlerloses Speichern v. Daten Rekonstrukt.

Dipl.-Inform. Martin Lösch Labor Wissensrepräsentation Neuronale Netze

EINFÜHRUNG

3

Page 4: (hoffentlich kurze) Einführung: Neuronale Netze...Neuronale Netze Vergleich: Gehirn serieller Rechner Numerische präzise Be- rechnungen Fehlerloses Speichern v. Daten Rekonstrukt.

Dipl.-Inform. Martin Lösch Labor Wissensrepräsentation Neuronale Netze

Vorbild Gehirn •  Gehirn des Menschen

–  Neuron Schaltzeit: > 0.001 sec –  Anzahl Neuronen: 1010 –  Verbindungen (Synapsen) pro Neuron: 104-105 –  Szenenerkennung: 0.1 sec

•  Auffallende Eigenschaften –  hochparallele Berechnung –  verteilte Repräsentation von Wissen

4

Page 5: (hoffentlich kurze) Einführung: Neuronale Netze...Neuronale Netze Vergleich: Gehirn serieller Rechner Numerische präzise Be- rechnungen Fehlerloses Speichern v. Daten Rekonstrukt.

Dipl.-Inform. Martin Lösch Labor Wissensrepräsentation Neuronale Netze

Vergleich: Gehirn serieller Rechner

Numerische präzise Be- rechnungen

Fehlerloses Speichern v. Daten

Rekonstrukt. teilw. zerst. Daten

Verallgem. v. Bsp. auf implizite Regeln

Selbst- organisation

schlecht schlecht gut gut ja

gut gut schlecht schlecht bisher nicht

Eigenschaft

Gehirn ser. Rechner

Eigenschaft

Gehirn ser. Rechner

Parallelität Präzision Fehler-toleranz

Speicher- zugriff

Erkennen v. Mustern u. Ähnlichkeiten

hoch mäßig hoch global gut

noch mäßig

hoch niedrig lokal mäßig

5

Page 6: (hoffentlich kurze) Einführung: Neuronale Netze...Neuronale Netze Vergleich: Gehirn serieller Rechner Numerische präzise Be- rechnungen Fehlerloses Speichern v. Daten Rekonstrukt.

Dipl.-Inform. Martin Lösch Labor Wissensrepräsentation Neuronale Netze

Was ist „konnektionistisches Rechnen“? •  Rechnerarchitekturen, Rechenmodelle und Lernmodelle, die

in Anlehnung an natürliche Neuronenmodelle entwickelt werden.

•  kennzeichnende Eigenschaften solcher Systeme –  Große Anzahl einfacher Recheneinheiten (Künstliche

Neuronen) –  Durch gewichtete Kanäle verbunden (Netz) –  Kein Rechnen mit symbolisch kodierten Nachrichten –  Wissen wird in der Struktur der Verbindungen

repräsentiert –  Massiver Parallelismus

6

Page 7: (hoffentlich kurze) Einführung: Neuronale Netze...Neuronale Netze Vergleich: Gehirn serieller Rechner Numerische präzise Be- rechnungen Fehlerloses Speichern v. Daten Rekonstrukt.

Dipl.-Inform. Martin Lösch Labor Wissensrepräsentation Neuronale Netze

PERZEPTRON

7

Page 8: (hoffentlich kurze) Einführung: Neuronale Netze...Neuronale Netze Vergleich: Gehirn serieller Rechner Numerische präzise Be- rechnungen Fehlerloses Speichern v. Daten Rekonstrukt.

Dipl.-Inform. Martin Lösch Labor Wissensrepräsentation Neuronale Netze

Perzeptron: Idee [Rosenblatt 1960]

Grundidee: Anlehnung an das Funktionsprinzip der natürlichen Wahrnehmung/Reaktion im Tierreich

Biologie Computer

8

Page 9: (hoffentlich kurze) Einführung: Neuronale Netze...Neuronale Netze Vergleich: Gehirn serieller Rechner Numerische präzise Be- rechnungen Fehlerloses Speichern v. Daten Rekonstrukt.

Dipl.-Inform. Martin Lösch Labor Wissensrepräsentation Neuronale Netze

Perzeptron: Aufbau [Rosenblatt 1960] •  Aufbau eines Perzeptrons

. . .

x1

xn

x0=1 w1

x2 w2

wn

w0

Σ

x – Eingabevektor t – Target (Soll-Ausgabe)

w – Gewichtsvektor o – Output (Ist-Ausgabe)

Bias – Trick

x0 =1w0 = −θ

9

o =

+1

n∑i=1

wixi ≥ θ

−1 sonsto =

+1

n∑i=0

wixi ≥ 0

−1 sonst

Page 10: (hoffentlich kurze) Einführung: Neuronale Netze...Neuronale Netze Vergleich: Gehirn serieller Rechner Numerische präzise Be- rechnungen Fehlerloses Speichern v. Daten Rekonstrukt.

Dipl.-Inform. Martin Lösch Labor Wissensrepräsentation Neuronale Netze

Perzeptron: Geometrische Interpretation •  „Positive und Negative“ Daten (P,N) •  Erweiterung der Dimension durch x0 •  Trennhyperebene (in R2: Gerade), definiert durch Gewichte

(Normalen der Ebene) •  Gewichtete Summe = Skalarprodukt

...

x1

xn

x0=1 w1

x2 w2

wn

w0

Σ

o = { 1 wixi ≥ 0i=1

n

∑−1 sonst

Lernen = Anpassen der Gewichte Gesucht wird die beste Trennebene

10

Page 11: (hoffentlich kurze) Einführung: Neuronale Netze...Neuronale Netze Vergleich: Gehirn serieller Rechner Numerische präzise Be- rechnungen Fehlerloses Speichern v. Daten Rekonstrukt.

Dipl.-Inform. Martin Lösch Labor Wissensrepräsentation Neuronale Netze

Lernen - Geometrische Interpretation

Hilfsmenge′ N = ′ x | ′ x = −x,∀x ∈ N{ }

Neues Lernproblemxw > 0 ,∀x ∈ ′ N ∪ P Im Beispiel: alle xi aus P

Page 12: (hoffentlich kurze) Einführung: Neuronale Netze...Neuronale Netze Vergleich: Gehirn serieller Rechner Numerische präzise Be- rechnungen Fehlerloses Speichern v. Daten Rekonstrukt.

Dipl.-Inform. Martin Lösch Labor Wissensrepräsentation Neuronale Netze

Perzeptron – Lernalgorithmus

Start: Gegeben Lerndatenmenge P ∪ N Der Gewichtsvektor w(0) wird zufällig generiert. Setze t:=0.

Testen: Ein Punkt x in P ∪ N wird zufällig gewählt. Falls x ∈ P und w(t)⋅x > 0 gehe zu Testen Falls x ∈ P und w(t)⋅x ≤ 0 gehe zu Addieren Falls x ∈ N und w(t)⋅x < 0 gehe zu Testen Falls x ∈ N und w(t)⋅x ≥ 0 gehe zu Subtrahieren

Addieren: Setze w(t+1) = w(t)+x. Setze t:= t+1. Gehe zu Testen.

Subtrahieren: Setze w(t+1) = w(t)-x. Setze t:=t+1. Gehe zu Testen.

Page 13: (hoffentlich kurze) Einführung: Neuronale Netze...Neuronale Netze Vergleich: Gehirn serieller Rechner Numerische präzise Be- rechnungen Fehlerloses Speichern v. Daten Rekonstrukt.

Dipl.-Inform. Martin Lösch Labor Wissensrepräsentation Neuronale Netze

Perzeptron: Kapazität •  Bsp. Logik:

x2

x1 1

1

XOR: ???

Durch Kombination von Perzeptronen sind viele Funktionen möglich

N I C H T M Ö G L I C H !

x2

x1 1

1

x1 1

1

x1 OR x2: 0.5x1 + 0.5 x2 > 0.3 x1 AND x2 : 0.5x1 + 0.5 x2 > 0.8

x2

13

Page 14: (hoffentlich kurze) Einführung: Neuronale Netze...Neuronale Netze Vergleich: Gehirn serieller Rechner Numerische präzise Be- rechnungen Fehlerloses Speichern v. Daten Rekonstrukt.

Dipl.-Inform. Martin Lösch Labor Wissensrepräsentation Neuronale Netze

MULTI LAYER FEEDFORWARD NEURAL NETWORK

14

Page 15: (hoffentlich kurze) Einführung: Neuronale Netze...Neuronale Netze Vergleich: Gehirn serieller Rechner Numerische präzise Be- rechnungen Fehlerloses Speichern v. Daten Rekonstrukt.

Dipl.-Inform. Martin Lösch Labor Wissensrepräsentation Neuronale Netze

Nichtlineare Entscheidungsregionen •  Wie kann man nichtlineare Entscheidungsregionen mit KNN

lernen? •  Beispiel: Erkennung von Lauten anhand von 2 Formanten

(Teiltönen)

[Lippmann90]

15

Page 16: (hoffentlich kurze) Einführung: Neuronale Netze...Neuronale Netze Vergleich: Gehirn serieller Rechner Numerische präzise Be- rechnungen Fehlerloses Speichern v. Daten Rekonstrukt.

Dipl.-Inform. Martin Lösch Labor Wissensrepräsentation Neuronale Netze

Multi Layer Neural Network (MLNN) •  Netzaufbau: mehrere versteckte (innere) Schichten

•  Lernverfahren: Backpropagation-Algorithmus [Rumelhart86, Werbos74]

•  Neuronenaufbau: nichtlineare Aktivierungsfunktion -1

i1

i2

i3

i4

i5

-1

-1

16

Page 17: (hoffentlich kurze) Einführung: Neuronale Netze...Neuronale Netze Vergleich: Gehirn serieller Rechner Numerische präzise Be- rechnungen Fehlerloses Speichern v. Daten Rekonstrukt.

Dipl.-Inform. Martin Lösch Labor Wissensrepräsentation Neuronale Netze

. . .

x1

xn

x0=1 w1

x2 w2

wn

w0

Σ

Aufbau der Neuronen

•  xij = i-te Eingabe des Neurons j •  wij = das Gewicht zwischen Neuron i und Neuron j •  netj = ∑iwijxij Propagierungsfunktion •  oj = Ausgabe des Neurons j •  tj = Zielausgabe (target) des Ausgabeneurons j •  f(x) = Aktivierungsfunktion

•  output = Menge der Ausgabeneuronen •  Downstream (j) = direkte Nachfolger des Neurons j

17

Page 18: (hoffentlich kurze) Einführung: Neuronale Netze...Neuronale Netze Vergleich: Gehirn serieller Rechner Numerische präzise Be- rechnungen Fehlerloses Speichern v. Daten Rekonstrukt.

Dipl.-Inform. Martin Lösch Labor Wissensrepräsentation Neuronale Netze

Nichtlineare Aktivierungsfunktionen

f (x) =1

1+ e−x

f (x) = tanh(x)

∂f∂x

= f (x) (1− f (x))

∂f∂x

= (1+ f (x)) (1− f (x))

Sigmoid:

18

Page 19: (hoffentlich kurze) Einführung: Neuronale Netze...Neuronale Netze Vergleich: Gehirn serieller Rechner Numerische präzise Be- rechnungen Fehlerloses Speichern v. Daten Rekonstrukt.

Dipl.-Inform. Martin Lösch Labor Wissensrepräsentation Neuronale Netze

Backpropagation Algorithmus I •  Vorgaben

–  Menge T von Trainingsbeispielen (Eingabevektor/Ausgabevektor)

–  Lernrate η –  Netztopologie

•  Anzahl und Ausmaße der Zwischenschichten •  Schichten sind vollständig vorwärts gerichtet

verbunden

•  Lernziel –  Finden einer Gewichtsbelegung W, die T korrekt

wiedergibt

19

Page 20: (hoffentlich kurze) Einführung: Neuronale Netze...Neuronale Netze Vergleich: Gehirn serieller Rechner Numerische präzise Be- rechnungen Fehlerloses Speichern v. Daten Rekonstrukt.

Dipl.-Inform. Martin Lösch Labor Wissensrepräsentation Neuronale Netze

Backpropagation Algorithmus II •  Initialisieren der Gewichte mit kleinen zufälligen Werten

•  Wiederhole… –  Auswahl eines Beispielmusters d –  Bestimmen der Netzausgabe –  Bestimmen des Ausgabefehlers (bzgl. Sollausgabe) –  Sukzessives Rückpropagieren des Fehlers auf die einzelnen

Neuronen

–  Anpassen der Gewichtsbelegung um

•  … solange ein gewähltes Abbruchkriterium nicht erfüllt ist!

20

Page 21: (hoffentlich kurze) Einführung: Neuronale Netze...Neuronale Netze Vergleich: Gehirn serieller Rechner Numerische präzise Be- rechnungen Fehlerloses Speichern v. Daten Rekonstrukt.

Dipl.-Inform. Martin Lösch Labor Wissensrepräsentation Neuronale Netze

MLNN IN DER ANWENDUNG

21

Page 22: (hoffentlich kurze) Einführung: Neuronale Netze...Neuronale Netze Vergleich: Gehirn serieller Rechner Numerische präzise Be- rechnungen Fehlerloses Speichern v. Daten Rekonstrukt.

Dipl.-Inform. Martin Lösch Labor Wissensrepräsentation Neuronale Netze

Entwurf von Neuronalen Netzen •  Subsymbolische Repräsentation der Ein- und Ausgabe •  Auswahl der Topologie •  Auswahl des Lernverfahrens •  Parametereinstellung •  Implementierung / Realisierung •  Training & Verifikation (Test)

22

Page 23: (hoffentlich kurze) Einführung: Neuronale Netze...Neuronale Netze Vergleich: Gehirn serieller Rechner Numerische präzise Be- rechnungen Fehlerloses Speichern v. Daten Rekonstrukt.

Dipl.-Inform. Martin Lösch Labor Wissensrepräsentation Neuronale Netze

Topologieauswahl •  Zusammenhang zwischen Anzahl der (hidden) layer und

Zielfunktion? –  3 Layer (1 hidden Layer - sigmoid):

•  jede Boolsche Funktion •  jede kontinuierliche beschränkte Funktion

[Cybenko 1989, Hornik et al. 1989] –  4 Layer (2 hidden Layer -sigmoid)

•  beliebige Funktionen mit beliebiger Genauigkeit [Cybenko 1988]

•  Schon eine geringe Tiefe ist ausreichend

23

Page 24: (hoffentlich kurze) Einführung: Neuronale Netze...Neuronale Netze Vergleich: Gehirn serieller Rechner Numerische präzise Be- rechnungen Fehlerloses Speichern v. Daten Rekonstrukt.

Dipl.-Inform. Martin Lösch Labor Wissensrepräsentation Neuronale Netze

Lernverhalten - Topologieauswahl •  Anzahl der Neuronen pro Schicht im Bezug zu der Anzahl

von (stochastisch unabhängigen) Lerndaten ist wichtig •  Aber: allgemeine Aussage nicht möglich

•  Beispiel: gestrichelte Kurve soll eingelernt werden

wenig Neuronen

viele Neuronen wenig Lerndaten

24

Page 25: (hoffentlich kurze) Einführung: Neuronale Netze...Neuronale Netze Vergleich: Gehirn serieller Rechner Numerische präzise Be- rechnungen Fehlerloses Speichern v. Daten Rekonstrukt.

Dipl.-Inform. Martin Lösch Labor Wissensrepräsentation Neuronale Netze

Initialisierung der Gewichte •  Gewichte verschieden wählen

–  sonst funktionsgleiche Neuronen

•  zufällig, gleichverteilt und klein –  ⇒ keine anfängliche Ausrichtung

25

Page 26: (hoffentlich kurze) Einführung: Neuronale Netze...Neuronale Netze Vergleich: Gehirn serieller Rechner Numerische präzise Be- rechnungen Fehlerloses Speichern v. Daten Rekonstrukt.

Dipl.-Inform. Martin Lösch Labor Wissensrepräsentation Neuronale Netze

Auswahl repräsentativer Trainingsbeispiele •  Lerndaten

–  für die Anpassung der Gewichte •  Verifikationsdaten

–  für das Testen der Generalisierung

•  gute Verteilung der Beispiele –  Klassifikation: Daten aus allen Klassen –  Regression: gesamter Definitionsbereich

•  Beispiele insbesondere aus komplexen Regionen –  Klassifikation: Randregionen zwischen Klassen –  Regression: Verlaufsänderungen

26

Page 27: (hoffentlich kurze) Einführung: Neuronale Netze...Neuronale Netze Vergleich: Gehirn serieller Rechner Numerische präzise Be- rechnungen Fehlerloses Speichern v. Daten Rekonstrukt.

Dipl.-Inform. Martin Lösch Labor Wissensrepräsentation Neuronale Netze

Overfitting •  Fehler auf Verifikationsdaten steigt ab einer Anzahl von

Lernzyklen

•  Mögliches Abbruchkriterium für Lernvorgang

27

Page 28: (hoffentlich kurze) Einführung: Neuronale Netze...Neuronale Netze Vergleich: Gehirn serieller Rechner Numerische präzise Be- rechnungen Fehlerloses Speichern v. Daten Rekonstrukt.

Dipl.-Inform. Martin Lösch Labor Wissensrepräsentation Neuronale Netze

Entwurfs- und Optimierungskriterien

•  Wiedererkennungs-Fehlerrate •  Trainingszeit •  Wiedererkennungszeit •  Speicherbedarf •  Komplexität der Trainingsalgorithmen •  Leichte Implementierbarkeit •  Gute Anpassungsfähigkeit

•  Trade-off zwischen Anforderungen nötig

28

Page 29: (hoffentlich kurze) Einführung: Neuronale Netze...Neuronale Netze Vergleich: Gehirn serieller Rechner Numerische präzise Be- rechnungen Fehlerloses Speichern v. Daten Rekonstrukt.

Dipl.-Inform. Martin Lösch Labor Wissensrepräsentation Neuronale Netze

Literatur •  Tom Mitchell: Machine Learning. McGraw-Hill, New York,

1997. •  M. Berthold, D.J. Hand: Intelligent Data Analysis. •  P. Rojas: Theorie der Neuronalen Netze – Eine

systematische Einführung. Springer Verlag, 1993. •  C. Bishop: Neural Networks for Pattern Recognition.

Oxford University Press, 1995. •  Vorlesung „Neuronale Netze 2006“: http://isl.ira.uka.de/ •  siehe auch Skriptum „Ein kleiner Überblick über

Neuronale Netze“: http://www.dkriesel.com/