Markov-Prozesse Markov-Prozesse Gliederung 1 Was ist ein Markov-Prozess? 2...

38
Markov-Prozesse Markov-Prozesse Franziskus Diwo Literatur: Ronald A. Howard: Dynamic Programming and Markov Processes 18.10.2011

Transcript of Markov-Prozesse Markov-Prozesse Gliederung 1 Was ist ein Markov-Prozess? 2...

Page 1: Markov-Prozesse Markov-Prozesse Gliederung 1 Was ist ein Markov-Prozess? 2 Zustandswahrscheinlichkeiten 3 Z-Transformation 4 Übergangs-, mehrfach verkettetes und periodisches

Markov-Prozesse

Markov-Prozesse

Franziskus Diwo

Literatur: Ronald A. Howard:Dynamic Programming and Markov Processes

18.10.2011

Page 2: Markov-Prozesse Markov-Prozesse Gliederung 1 Was ist ein Markov-Prozess? 2 Zustandswahrscheinlichkeiten 3 Z-Transformation 4 Übergangs-, mehrfach verkettetes und periodisches

Markov-Prozesse

Gliederung

1 Was ist ein Markov-Prozess?

2 Zustandswahrscheinlichkeiten

3 Z-Transformation

4 Übergangs-, mehrfach verkettetes und periodischesVerhalten

Page 3: Markov-Prozesse Markov-Prozesse Gliederung 1 Was ist ein Markov-Prozess? 2 Zustandswahrscheinlichkeiten 3 Z-Transformation 4 Übergangs-, mehrfach verkettetes und periodisches

Markov-Prozesse

Was ist ein Markov-Prozess?

Was ist ein Markov-Prozess?

mathematisches Modell zur Untersuchung komplexerSystemeKernbegriffe:

Zustand eines Systems:Ein System befindet sich in einem Zustand, wenn eskomplett mit Variablenwerten, die diesen Zustanddefinieren, beschrieben werden kann.Zustandswechsel:Ein Zustandswechsel findet dann statt, wenn sich diesystembeschreibenden Variablen von Werten deseinen Zustands zu Werten des anderen Zustandsändern.

Page 4: Markov-Prozesse Markov-Prozesse Gliederung 1 Was ist ein Markov-Prozess? 2 Zustandswahrscheinlichkeiten 3 Z-Transformation 4 Übergangs-, mehrfach verkettetes und periodisches

Markov-Prozesse

Was ist ein Markov-Prozess?

Beispiel: Frosch im Seerosenteich

Frosch springt in fortlaufender Zeit von einem Blattauf ein anderes.Die Blätter werden dabei zufällig nach aktuellerLaune ausgewählt.Zustand: Nummer des derzeit belegten BlattesZustandswechsel: Der Sprung zum nächsten BlattAnzahl der Blätter endlich→ Prozess mit endlich vielen Zuständen(alle weitere Bemerkungen gehen von solch einemProzess aus)

Page 5: Markov-Prozesse Markov-Prozesse Gliederung 1 Was ist ein Markov-Prozess? 2 Zustandswahrscheinlichkeiten 3 Z-Transformation 4 Übergangs-, mehrfach verkettetes und periodisches

Markov-Prozesse

Was ist ein Markov-Prozess?

Beispiel: Frosch im Seerosenteich

Annahmen:zeit-diskreter Prozess:Zeit zwischen den Wechseln ist eine KonstanteEs gibt N Zustände, welche mit 1, ..,N nummeriertsind

Falls das System ein einfacher Markov-Prozess ist,dann ist die Wahrscheinlichkeit von Zustand i zuZustand j zu gelangen eine Funktion, die nicht vonden Zuständen vor Zustand i abhängt.

Page 6: Markov-Prozesse Markov-Prozesse Gliederung 1 Was ist ein Markov-Prozess? 2 Zustandswahrscheinlichkeiten 3 Z-Transformation 4 Übergangs-, mehrfach verkettetes und periodisches

Markov-Prozesse

Was ist ein Markov-Prozess?

Folgerungen

Man kann also eine Reihe bedingterWahrscheinlichkeiten, dass sich ein in Zustand ibefindliches System nach dem nächsten Wechsel inZustand j befindet, angeben.

N∑j=1

pij = 1

0 6 pij 6 1

Page 7: Markov-Prozesse Markov-Prozesse Gliederung 1 Was ist ein Markov-Prozess? 2 Zustandswahrscheinlichkeiten 3 Z-Transformation 4 Übergangs-, mehrfach verkettetes und periodisches

Markov-Prozesse

Zustandswahrscheinlichkeiten

Beispiel: Spielzeugmacher

Der Spielzeugmacher befindet sich immer in einemder folgenden zwei Zuständen:

Zustand 1: Das Spielzeug ist beliebt.Zustand 2: Das Spielzeug ist unbeliebt.

Page 8: Markov-Prozesse Markov-Prozesse Gliederung 1 Was ist ein Markov-Prozess? 2 Zustandswahrscheinlichkeiten 3 Z-Transformation 4 Übergangs-, mehrfach verkettetes und periodisches

Markov-Prozesse

Zustandswahrscheinlichkeiten

Beispiel: Spielzeugmacher

Wahrscheinlichkeiten:Wenn er im Zustand 1 ist, hat er eineWahrscheinlichkeit von 50%, dass er am Ende dernächsten Woche immer noch im ersten Zustand ist(ebenso 50% für Zustand 2)Wenn er in Zustand 2 ist, hat er eine Chance von 2

5wieder in Zustand 1 zu gelangen, mit einerWahrscheinlichkeit von 3

5 bleibt er im zweiten Zustand

Also:p11 = 1

2 p12 = 12 p21 = 2

5 p22 = 35

Page 9: Markov-Prozesse Markov-Prozesse Gliederung 1 Was ist ein Markov-Prozess? 2 Zustandswahrscheinlichkeiten 3 Z-Transformation 4 Übergangs-, mehrfach verkettetes und periodisches

Markov-Prozesse

Zustandswahrscheinlichkeiten

Beispiel: Spielzeugmacher

Man definiert:

P = [pij ] =

[12

12

25

35

]

Veranschaulichung:

Page 10: Markov-Prozesse Markov-Prozesse Gliederung 1 Was ist ein Markov-Prozess? 2 Zustandswahrscheinlichkeiten 3 Z-Transformation 4 Übergangs-, mehrfach verkettetes und periodisches

Markov-Prozesse

Zustandswahrscheinlichkeiten

Beispiel: Spielzeugmacher

Mit Hilfe der Matrix kann man alle Fragen über denProzess beantworten:

Beispielsweise interessiert uns dieWahrscheinlichkeit, dass er sich im Zustand 1 nach nWochen befindet, wenn er zu Beginn im erstenZustand war

Zu diesem Zweck definieren wir eineZustandswahrscheinlichkeit πi(n), welche dieWahrscheinlichkeit angibt, dass sich das Systemnach n Wechseln im Zustand i befindet und derZustand bei n = 0 bekannt ist.

Page 11: Markov-Prozesse Markov-Prozesse Gliederung 1 Was ist ein Markov-Prozess? 2 Zustandswahrscheinlichkeiten 3 Z-Transformation 4 Übergangs-, mehrfach verkettetes und periodisches

Markov-Prozesse

Zustandswahrscheinlichkeiten

Folgerungen

Es gilt:

N∑i=1

πi(n) = 1

πj(n + 1) =N∑

i=1

πi(n)pij ,n = 0,1,2, ...

Page 12: Markov-Prozesse Markov-Prozesse Gliederung 1 Was ist ein Markov-Prozess? 2 Zustandswahrscheinlichkeiten 3 Z-Transformation 4 Übergangs-, mehrfach verkettetes und periodisches

Markov-Prozesse

Zustandswahrscheinlichkeiten

Folgerungen

Wir definieren einen Zeilenvektor π(n), dessenKomponenten die Zustandswahrscheinlichkeitenπi(n) sind:

Es folgt:

π(n + 1) = π(n)P ,n = 0,1,2, ...

Page 13: Markov-Prozesse Markov-Prozesse Gliederung 1 Was ist ein Markov-Prozess? 2 Zustandswahrscheinlichkeiten 3 Z-Transformation 4 Übergangs-, mehrfach verkettetes und periodisches

Markov-Prozesse

Zustandswahrscheinlichkeiten

Folgerungen

Durch Rekursion erhält man:

π(1) = π(0)P

π(2) = π(1)P = π(0)P2

π(3) = π(2)P = π(0)P3

Allgemein gilt:

π(n) = π(0)Pn ,n = 0,1,2, ...

Page 14: Markov-Prozesse Markov-Prozesse Gliederung 1 Was ist ein Markov-Prozess? 2 Zustandswahrscheinlichkeiten 3 Z-Transformation 4 Übergangs-, mehrfach verkettetes und periodisches

Markov-Prozesse

Zustandswahrscheinlichkeiten

Beispiel: SpielzeugmacherUnter der Annahme, dass man mit einemerfolgreichen Spielzeug beginnt, folgt:

π1(0) = 1 und π2(0) = 0

sodass:π(0) =

[1 0

]Mittels der Formel ergibt sich:

π(1) = π(0)P =[1 0

] [12

12

25

35

]=[

12

12

]

Page 15: Markov-Prozesse Markov-Prozesse Gliederung 1 Was ist ein Markov-Prozess? 2 Zustandswahrscheinlichkeiten 3 Z-Transformation 4 Übergangs-, mehrfach verkettetes und periodisches

Markov-Prozesse

Zustandswahrscheinlichkeiten

Beispiel: Spielzeugmacher

Analog ergeben sich folgende Werte nach n Wochenbei Start mit einem beliebten Spielzeug:

n 0 1 2 3 4 5 ...π1(n) 1 0,5 0,45 0,445 0,4445 0,44445 ...π2(n) 0 0,5 0,55 0,555 0,5555 0,55555 ...

bei Start mit unbeliebtem Spielzeug:n 0 1 2 3 4 5 ...

π1(n) 0 0,4 0,44 0,444 0,4444 0,44444 ...π2(n) 1 0,6 0,56 0,556 0,5556 0,55556 ...

Page 16: Markov-Prozesse Markov-Prozesse Gliederung 1 Was ist ein Markov-Prozess? 2 Zustandswahrscheinlichkeiten 3 Z-Transformation 4 Übergangs-, mehrfach verkettetes und periodisches

Markov-Prozesse

Zustandswahrscheinlichkeiten

Folgerungen

Scheinbare Unabhängigkeit vom Startwert beigroßem n:

Viele Markov-Prozesse zeigen diese Eigenschaft.streng ergodischer Prozess

Systeme, welche vom Startwert abhängen, werdenspäter untersucht.

Page 17: Markov-Prozesse Markov-Prozesse Gliederung 1 Was ist ein Markov-Prozess? 2 Zustandswahrscheinlichkeiten 3 Z-Transformation 4 Übergangs-, mehrfach verkettetes und periodisches

Markov-Prozesse

Zustandswahrscheinlichkeiten

FolgerungenFür streng ergodische Prozesse definiert man:

πi als die Wahrscheinlichkeit, dass das System deni-ten Zustand nach sehr vielen Wechseln belegtden Zeilenvektor π mit Einträgen πi als Grenzwert

π = limn→∞

π(n)

Aus den vorherigen Überlegungen folgt:

π = πPN∑

i=1

πi = 1

Page 18: Markov-Prozesse Markov-Prozesse Gliederung 1 Was ist ein Markov-Prozess? 2 Zustandswahrscheinlichkeiten 3 Z-Transformation 4 Übergangs-, mehrfach verkettetes und periodisches

Markov-Prozesse

Zustandswahrscheinlichkeiten

Folgerungen

Für das Spielzeugmacherbeispiel folgt also:

π1 =12π1 +

25π2 , π2 =

12π1 +

35π2

π1 + π2 = 1

Lösen des Gleichungssystems führt zu:

π1 =49

und π2 =59

Page 19: Markov-Prozesse Markov-Prozesse Gliederung 1 Was ist ein Markov-Prozess? 2 Zustandswahrscheinlichkeiten 3 Z-Transformation 4 Übergangs-, mehrfach verkettetes und periodisches

Markov-Prozesse

Z-Transformation

Z-TransformationMan betrachtet nun die erzeugende Funktion bzw.Z-Transformation.Zunächst betrachtet man eine nichtnegative, diskreteZeitfunktion f (n), die für negative Zeiten Null gesetztwird.

Page 20: Markov-Prozesse Markov-Prozesse Gliederung 1 Was ist ein Markov-Prozess? 2 Zustandswahrscheinlichkeiten 3 Z-Transformation 4 Übergangs-, mehrfach verkettetes und periodisches

Markov-Prozesse

Z-Transformation

Z-TransformationSteigt f (n) nicht schneller mit wachsendem n als einegeometrische Folge (Zahlenfolge mit konstantemQuotienten der benachbarten Folgenglieder), kannman eine Z-Transformation f (z) definieren, sodass:

f (z) =∞∑

n=0

f (n)zn

Jede Zeitfunktion hat nur eine Transformation.Die Z-Transformation ist bei Markov-Prozessenhilfreich, da die Übergangswahrscheinlichkeitengeometrische Folgen sind.

Page 21: Markov-Prozesse Markov-Prozesse Gliederung 1 Was ist ein Markov-Prozess? 2 Zustandswahrscheinlichkeiten 3 Z-Transformation 4 Übergangs-, mehrfach verkettetes und periodisches

Markov-Prozesse

Z-Transformation

Berechnung einer Z-Transformation

Beispiel:

Sei die Zeitfunktion:

f (n) = αn ,n > 0

Dann folgt für die Z-Transformation:

f (z) =∞∑

n=0

f (n)zn =∞∑

n=0

(αz)n =1

1− αz

Page 22: Markov-Prozesse Markov-Prozesse Gliederung 1 Was ist ein Markov-Prozess? 2 Zustandswahrscheinlichkeiten 3 Z-Transformation 4 Übergangs-, mehrfach verkettetes und periodisches

Markov-Prozesse

Z-Transformation

Berechnung einer Z-Transformation

Analoges Vorgehen für andere Zeitfunktionen ergibt:Zeitfunktion für n > 0 Z-Transformation

f (n) f (z)f1(n) + f2(n) f1(z) + f2(z)

kf (n) ,k=const kf (z)f (n − 1) zf (z)f (n + 1) z−1[f (z)− f (0)]

αn 11−αz

1 11−z

nαn αz(1−αz)2

n z(1−z)2

αnf (n) f (αz)

Page 23: Markov-Prozesse Markov-Prozesse Gliederung 1 Was ist ein Markov-Prozess? 2 Zustandswahrscheinlichkeiten 3 Z-Transformation 4 Übergangs-, mehrfach verkettetes und periodisches

Markov-Prozesse

Z-Transformation

Z-Transformation bei Markov-Prozessen

komponentenweise Anwendung bei Vektoren undMatrizen

π(n + 1) = π(n)P ,n = 0,1,2, ...

Z-Transformation ergibt:

z−1[Π(z)− π(0)] = Π(z)P,

wobei Π(z) die Z-Transformation von π(n) darstellt.Umformungen ergeben:

Π(z) = π(0)(I− zP)−1

Page 24: Markov-Prozesse Markov-Prozesse Gliederung 1 Was ist ein Markov-Prozess? 2 Zustandswahrscheinlichkeiten 3 Z-Transformation 4 Übergangs-, mehrfach verkettetes und periodisches

Markov-Prozesse

Z-Transformation

Z-Transformation am Beispiel desSpielzeugmachers

[12

12

25

35

][

1− 12z −1

2z

−25z 1− 3

5z

]

(I− zP)−1 =

1− 35 z

(1−z)(1− 110 z)

12 z

(1−z)(1− 110 z)

25 z

(1−z)(1− 110 z)

1− 12 z

(1−z)(1− 110 z)

Page 25: Markov-Prozesse Markov-Prozesse Gliederung 1 Was ist ein Markov-Prozess? 2 Zustandswahrscheinlichkeiten 3 Z-Transformation 4 Übergangs-, mehrfach verkettetes und periodisches

Markov-Prozesse

Z-Transformation

Z-Transformation am Beispiel desSpielzeugmachers

(I− zP)−1 =1

1− z

[49

59

49

59

]+

11− 1

10z

[ 59 −5

9−4

949

]Rückgängigmachen der Z-Transformation liefert:

H(n) =

[49

59

49

59

]+

(110

)n [ 59 −5

9−4

949

],

π(n) = π(0)H(n)

Page 26: Markov-Prozesse Markov-Prozesse Gliederung 1 Was ist ein Markov-Prozess? 2 Zustandswahrscheinlichkeiten 3 Z-Transformation 4 Übergangs-, mehrfach verkettetes und periodisches

Markov-Prozesse

Z-Transformation

FolgerungenH(n) = P(n)einfachere Berechnung der Potenz der Matrix PIm Spielzeugmacherbeispiel:

bei Start mit beliebtem Spielzeug:

π(n) =[

49

59

]+

(110

)n [59 −5

9

]→ π1(n) =

49

+59

(110

)n

π2(n) =59− 5

9

(110

)n

Page 27: Markov-Prozesse Markov-Prozesse Gliederung 1 Was ist ein Markov-Prozess? 2 Zustandswahrscheinlichkeiten 3 Z-Transformation 4 Übergangs-, mehrfach verkettetes und periodisches

Markov-Prozesse

Z-Transformation

Eigenschaften von H(n)

stationäre Komponente:stochastische Matrix Salle Zeilen sind gleich dem Grenzwert desZustandsvektorsBei ergodischen Prozessen: eine Matrix mit gleichenZeilen

Übergangskomponente:besitzt einen Vorfaktor αn mit |α| 6 1Bezeichnung: T (n) (repräsentiert die abfallendegeometrische Folge)alle Zeilen ergeben addiert Nullbei ergodischen Prozessen verschwindet T (n) fürgroße n und α < 1

Page 28: Markov-Prozesse Markov-Prozesse Gliederung 1 Was ist ein Markov-Prozess? 2 Zustandswahrscheinlichkeiten 3 Z-Transformation 4 Übergangs-, mehrfach verkettetes und periodisches

Markov-Prozesse

Übergangs-, mehrfach verkettetes und periodisches Verhalten

Übergangsverhalten

Spielzeugmacherbeispiel: 0 < pij <∞bei ergodischen Prozessen: Grenzwahrscheinlichkeitkann auch Null werden

einfangender Zustand: Zustand i , wobei pii = 1Übergangszustand: Zustand, der nach langer Zeitmit Gewissheit nicht belegt wird

Page 29: Markov-Prozesse Markov-Prozesse Gliederung 1 Was ist ein Markov-Prozess? 2 Zustandswahrscheinlichkeiten 3 Z-Transformation 4 Übergangs-, mehrfach verkettetes und periodisches

Markov-Prozesse

Übergangs-, mehrfach verkettetes und periodisches Verhalten

Übergangsverhalten

Beispiel:

P =

[34

14

0 1

]Rechnung mit Z-Transformation wie oben ergibt:

H(n) =

[0 10 1

]+

(34

)n [1 −10 0

]

Page 30: Markov-Prozesse Markov-Prozesse Gliederung 1 Was ist ein Markov-Prozess? 2 Zustandswahrscheinlichkeiten 3 Z-Transformation 4 Übergangs-, mehrfach verkettetes und periodisches

Markov-Prozesse

Übergangs-, mehrfach verkettetes und periodisches Verhalten

Übergangsverhalten

Ein Übergangszustand führt nicht immer zu einemeinfangenden Zustand.Das System kann in eine Kette eintreten, die in sichgeschlossen ist (rekurrente Kette).Jede geschlossene Kette kann man somit alsverallgemeinerten einfangenden Zustand auffassen.Jeder Markov-Prozess muss eine solche Kettebesitzen.Gibt es genau eine solche Kette, ist der Prozessstreng ergodisch.

Page 31: Markov-Prozesse Markov-Prozesse Gliederung 1 Was ist ein Markov-Prozess? 2 Zustandswahrscheinlichkeiten 3 Z-Transformation 4 Übergangs-, mehrfach verkettetes und periodisches

Markov-Prozesse

Übergangs-, mehrfach verkettetes und periodisches Verhalten

mehrfach verkettetes Verhalten

Möglichlichkeit, dass mehrere rekurrente Kettenauftreten→ Erweiterung der Möglichkeiten von SStartpunkt ist entscheidend für dieGrenzwahrscheinlichkeitZeilen sind nicht mehr gleichi-te Zeile stellt die Zustände mit Startwert i dar

Page 32: Markov-Prozesse Markov-Prozesse Gliederung 1 Was ist ein Markov-Prozess? 2 Zustandswahrscheinlichkeiten 3 Z-Transformation 4 Übergangs-, mehrfach verkettetes und periodisches

Markov-Prozesse

Übergangs-, mehrfach verkettetes und periodisches Verhalten

mehrfach verkettetes Verhalten

Diagramm zum mehrfach verketteten Verhalten

Page 33: Markov-Prozesse Markov-Prozesse Gliederung 1 Was ist ein Markov-Prozess? 2 Zustandswahrscheinlichkeiten 3 Z-Transformation 4 Übergangs-, mehrfach verkettetes und periodisches

Markov-Prozesse

Übergangs-, mehrfach verkettetes und periodisches Verhalten

mehrfach verkettetes Verhalten

Beispiel:

P =

1 0 00 1 013

13

13

Mit der Z-Transformation erhält man:

H(n) =

1 0 00 1 012

12 0

+

(13

)n 0 0 0

0 0 0−1

2 −12 1

Page 34: Markov-Prozesse Markov-Prozesse Gliederung 1 Was ist ein Markov-Prozess? 2 Zustandswahrscheinlichkeiten 3 Z-Transformation 4 Übergangs-, mehrfach verkettetes und periodisches

Markov-Prozesse

Übergangs-, mehrfach verkettetes und periodisches Verhalten

Periodisches Verhalten

periodische Kette = rekurrente Kette, wobei dasSystem nach p,2p,3p, ... Übergängen wieder denAusgangszustand belegt (p ∈ N)

Diagramm zum periodischen Verhalten

Page 35: Markov-Prozesse Markov-Prozesse Gliederung 1 Was ist ein Markov-Prozess? 2 Zustandswahrscheinlichkeiten 3 Z-Transformation 4 Übergangs-, mehrfach verkettetes und periodisches

Markov-Prozesse

Übergangs-, mehrfach verkettetes und periodisches Verhalten

Periodisches Verhalten

Beispiel:

P =

[0 11 0

]Mit der Z-Transformation erhält man:

H(n) =

[12

12

12

12

]+ (−1)n

[12 −1

2

−12

12

]

Page 36: Markov-Prozesse Markov-Prozesse Gliederung 1 Was ist ein Markov-Prozess? 2 Zustandswahrscheinlichkeiten 3 Z-Transformation 4 Übergangs-, mehrfach verkettetes und periodisches

Markov-Prozesse

Übergangs-, mehrfach verkettetes und periodisches Verhalten

Periodisches Verhalten

π1(n) =12

[1 + (−1)n]

undπ2(n) =

12

[1− (−1)n]

Interpretation:Falls n ungerade ist, wird immer Zustand 1angenommenFalls n gerade ist, wird immer Zustand 2angenommen

Page 37: Markov-Prozesse Markov-Prozesse Gliederung 1 Was ist ein Markov-Prozess? 2 Zustandswahrscheinlichkeiten 3 Z-Transformation 4 Übergangs-, mehrfach verkettetes und periodisches

Markov-Prozesse

Übergangs-, mehrfach verkettetes und periodisches Verhalten

Periodisches Verhalten

Interpretation von T (n):Verschwindet nicht, sondern oszilliert, Störung von SInterpretation von S:Wahrscheinlichkeit, dass sich das System in jedemseiner Zustände zu einem zufälligem Zeitpunktbefindet

Page 38: Markov-Prozesse Markov-Prozesse Gliederung 1 Was ist ein Markov-Prozess? 2 Zustandswahrscheinlichkeiten 3 Z-Transformation 4 Übergangs-, mehrfach verkettetes und periodisches

Markov-Prozesse

Zusammenfassung

Der Markov-Prozess ist ein spezieller stochastischerProzess mit dem Ziel Wahrscheinlichkeitsaussagenüber zukünftige Ereignisse zu machenDabei ist die Z-Tranformation ein wichtigesHilfsmittelMarkov-Ketten können ein periodisches,Übergangs- oder mehrfach verkettetes Verhaltenaufweisen