Markov-Prozesse Markov-Prozesse Gliederung 1 Was ist ein Markov-Prozess? 2...

Post on 20-Aug-2019

220 views 0 download

Transcript of Markov-Prozesse Markov-Prozesse Gliederung 1 Was ist ein Markov-Prozess? 2...

Markov-Prozesse

Markov-Prozesse

Franziskus Diwo

Literatur: Ronald A. Howard:Dynamic Programming and Markov Processes

18.10.2011

Markov-Prozesse

Gliederung

1 Was ist ein Markov-Prozess?

2 Zustandswahrscheinlichkeiten

3 Z-Transformation

4 Übergangs-, mehrfach verkettetes und periodischesVerhalten

Markov-Prozesse

Was ist ein Markov-Prozess?

Was ist ein Markov-Prozess?

mathematisches Modell zur Untersuchung komplexerSystemeKernbegriffe:

Zustand eines Systems:Ein System befindet sich in einem Zustand, wenn eskomplett mit Variablenwerten, die diesen Zustanddefinieren, beschrieben werden kann.Zustandswechsel:Ein Zustandswechsel findet dann statt, wenn sich diesystembeschreibenden Variablen von Werten deseinen Zustands zu Werten des anderen Zustandsändern.

Markov-Prozesse

Was ist ein Markov-Prozess?

Beispiel: Frosch im Seerosenteich

Frosch springt in fortlaufender Zeit von einem Blattauf ein anderes.Die Blätter werden dabei zufällig nach aktuellerLaune ausgewählt.Zustand: Nummer des derzeit belegten BlattesZustandswechsel: Der Sprung zum nächsten BlattAnzahl der Blätter endlich→ Prozess mit endlich vielen Zuständen(alle weitere Bemerkungen gehen von solch einemProzess aus)

Markov-Prozesse

Was ist ein Markov-Prozess?

Beispiel: Frosch im Seerosenteich

Annahmen:zeit-diskreter Prozess:Zeit zwischen den Wechseln ist eine KonstanteEs gibt N Zustände, welche mit 1, ..,N nummeriertsind

Falls das System ein einfacher Markov-Prozess ist,dann ist die Wahrscheinlichkeit von Zustand i zuZustand j zu gelangen eine Funktion, die nicht vonden Zuständen vor Zustand i abhängt.

Markov-Prozesse

Was ist ein Markov-Prozess?

Folgerungen

Man kann also eine Reihe bedingterWahrscheinlichkeiten, dass sich ein in Zustand ibefindliches System nach dem nächsten Wechsel inZustand j befindet, angeben.

N∑j=1

pij = 1

0 6 pij 6 1

Markov-Prozesse

Zustandswahrscheinlichkeiten

Beispiel: Spielzeugmacher

Der Spielzeugmacher befindet sich immer in einemder folgenden zwei Zuständen:

Zustand 1: Das Spielzeug ist beliebt.Zustand 2: Das Spielzeug ist unbeliebt.

Markov-Prozesse

Zustandswahrscheinlichkeiten

Beispiel: Spielzeugmacher

Wahrscheinlichkeiten:Wenn er im Zustand 1 ist, hat er eineWahrscheinlichkeit von 50%, dass er am Ende dernächsten Woche immer noch im ersten Zustand ist(ebenso 50% für Zustand 2)Wenn er in Zustand 2 ist, hat er eine Chance von 2

5wieder in Zustand 1 zu gelangen, mit einerWahrscheinlichkeit von 3

5 bleibt er im zweiten Zustand

Also:p11 = 1

2 p12 = 12 p21 = 2

5 p22 = 35

Markov-Prozesse

Zustandswahrscheinlichkeiten

Beispiel: Spielzeugmacher

Man definiert:

P = [pij ] =

[12

12

25

35

]

Veranschaulichung:

Markov-Prozesse

Zustandswahrscheinlichkeiten

Beispiel: Spielzeugmacher

Mit Hilfe der Matrix kann man alle Fragen über denProzess beantworten:

Beispielsweise interessiert uns dieWahrscheinlichkeit, dass er sich im Zustand 1 nach nWochen befindet, wenn er zu Beginn im erstenZustand war

Zu diesem Zweck definieren wir eineZustandswahrscheinlichkeit πi(n), welche dieWahrscheinlichkeit angibt, dass sich das Systemnach n Wechseln im Zustand i befindet und derZustand bei n = 0 bekannt ist.

Markov-Prozesse

Zustandswahrscheinlichkeiten

Folgerungen

Es gilt:

N∑i=1

πi(n) = 1

πj(n + 1) =N∑

i=1

πi(n)pij ,n = 0,1,2, ...

Markov-Prozesse

Zustandswahrscheinlichkeiten

Folgerungen

Wir definieren einen Zeilenvektor π(n), dessenKomponenten die Zustandswahrscheinlichkeitenπi(n) sind:

Es folgt:

π(n + 1) = π(n)P ,n = 0,1,2, ...

Markov-Prozesse

Zustandswahrscheinlichkeiten

Folgerungen

Durch Rekursion erhält man:

π(1) = π(0)P

π(2) = π(1)P = π(0)P2

π(3) = π(2)P = π(0)P3

Allgemein gilt:

π(n) = π(0)Pn ,n = 0,1,2, ...

Markov-Prozesse

Zustandswahrscheinlichkeiten

Beispiel: SpielzeugmacherUnter der Annahme, dass man mit einemerfolgreichen Spielzeug beginnt, folgt:

π1(0) = 1 und π2(0) = 0

sodass:π(0) =

[1 0

]Mittels der Formel ergibt sich:

π(1) = π(0)P =[1 0

] [12

12

25

35

]=[

12

12

]

Markov-Prozesse

Zustandswahrscheinlichkeiten

Beispiel: Spielzeugmacher

Analog ergeben sich folgende Werte nach n Wochenbei Start mit einem beliebten Spielzeug:

n 0 1 2 3 4 5 ...π1(n) 1 0,5 0,45 0,445 0,4445 0,44445 ...π2(n) 0 0,5 0,55 0,555 0,5555 0,55555 ...

bei Start mit unbeliebtem Spielzeug:n 0 1 2 3 4 5 ...

π1(n) 0 0,4 0,44 0,444 0,4444 0,44444 ...π2(n) 1 0,6 0,56 0,556 0,5556 0,55556 ...

Markov-Prozesse

Zustandswahrscheinlichkeiten

Folgerungen

Scheinbare Unabhängigkeit vom Startwert beigroßem n:

Viele Markov-Prozesse zeigen diese Eigenschaft.streng ergodischer Prozess

Systeme, welche vom Startwert abhängen, werdenspäter untersucht.

Markov-Prozesse

Zustandswahrscheinlichkeiten

FolgerungenFür streng ergodische Prozesse definiert man:

πi als die Wahrscheinlichkeit, dass das System deni-ten Zustand nach sehr vielen Wechseln belegtden Zeilenvektor π mit Einträgen πi als Grenzwert

π = limn→∞

π(n)

Aus den vorherigen Überlegungen folgt:

π = πPN∑

i=1

πi = 1

Markov-Prozesse

Zustandswahrscheinlichkeiten

Folgerungen

Für das Spielzeugmacherbeispiel folgt also:

π1 =12π1 +

25π2 , π2 =

12π1 +

35π2

π1 + π2 = 1

Lösen des Gleichungssystems führt zu:

π1 =49

und π2 =59

Markov-Prozesse

Z-Transformation

Z-TransformationMan betrachtet nun die erzeugende Funktion bzw.Z-Transformation.Zunächst betrachtet man eine nichtnegative, diskreteZeitfunktion f (n), die für negative Zeiten Null gesetztwird.

Markov-Prozesse

Z-Transformation

Z-TransformationSteigt f (n) nicht schneller mit wachsendem n als einegeometrische Folge (Zahlenfolge mit konstantemQuotienten der benachbarten Folgenglieder), kannman eine Z-Transformation f (z) definieren, sodass:

f (z) =∞∑

n=0

f (n)zn

Jede Zeitfunktion hat nur eine Transformation.Die Z-Transformation ist bei Markov-Prozessenhilfreich, da die Übergangswahrscheinlichkeitengeometrische Folgen sind.

Markov-Prozesse

Z-Transformation

Berechnung einer Z-Transformation

Beispiel:

Sei die Zeitfunktion:

f (n) = αn ,n > 0

Dann folgt für die Z-Transformation:

f (z) =∞∑

n=0

f (n)zn =∞∑

n=0

(αz)n =1

1− αz

Markov-Prozesse

Z-Transformation

Berechnung einer Z-Transformation

Analoges Vorgehen für andere Zeitfunktionen ergibt:Zeitfunktion für n > 0 Z-Transformation

f (n) f (z)f1(n) + f2(n) f1(z) + f2(z)

kf (n) ,k=const kf (z)f (n − 1) zf (z)f (n + 1) z−1[f (z)− f (0)]

αn 11−αz

1 11−z

nαn αz(1−αz)2

n z(1−z)2

αnf (n) f (αz)

Markov-Prozesse

Z-Transformation

Z-Transformation bei Markov-Prozessen

komponentenweise Anwendung bei Vektoren undMatrizen

π(n + 1) = π(n)P ,n = 0,1,2, ...

Z-Transformation ergibt:

z−1[Π(z)− π(0)] = Π(z)P,

wobei Π(z) die Z-Transformation von π(n) darstellt.Umformungen ergeben:

Π(z) = π(0)(I− zP)−1

Markov-Prozesse

Z-Transformation

Z-Transformation am Beispiel desSpielzeugmachers

[12

12

25

35

][

1− 12z −1

2z

−25z 1− 3

5z

]

(I− zP)−1 =

1− 35 z

(1−z)(1− 110 z)

12 z

(1−z)(1− 110 z)

25 z

(1−z)(1− 110 z)

1− 12 z

(1−z)(1− 110 z)

Markov-Prozesse

Z-Transformation

Z-Transformation am Beispiel desSpielzeugmachers

(I− zP)−1 =1

1− z

[49

59

49

59

]+

11− 1

10z

[ 59 −5

9−4

949

]Rückgängigmachen der Z-Transformation liefert:

H(n) =

[49

59

49

59

]+

(110

)n [ 59 −5

9−4

949

],

π(n) = π(0)H(n)

Markov-Prozesse

Z-Transformation

FolgerungenH(n) = P(n)einfachere Berechnung der Potenz der Matrix PIm Spielzeugmacherbeispiel:

bei Start mit beliebtem Spielzeug:

π(n) =[

49

59

]+

(110

)n [59 −5

9

]→ π1(n) =

49

+59

(110

)n

π2(n) =59− 5

9

(110

)n

Markov-Prozesse

Z-Transformation

Eigenschaften von H(n)

stationäre Komponente:stochastische Matrix Salle Zeilen sind gleich dem Grenzwert desZustandsvektorsBei ergodischen Prozessen: eine Matrix mit gleichenZeilen

Übergangskomponente:besitzt einen Vorfaktor αn mit |α| 6 1Bezeichnung: T (n) (repräsentiert die abfallendegeometrische Folge)alle Zeilen ergeben addiert Nullbei ergodischen Prozessen verschwindet T (n) fürgroße n und α < 1

Markov-Prozesse

Übergangs-, mehrfach verkettetes und periodisches Verhalten

Übergangsverhalten

Spielzeugmacherbeispiel: 0 < pij <∞bei ergodischen Prozessen: Grenzwahrscheinlichkeitkann auch Null werden

einfangender Zustand: Zustand i , wobei pii = 1Übergangszustand: Zustand, der nach langer Zeitmit Gewissheit nicht belegt wird

Markov-Prozesse

Übergangs-, mehrfach verkettetes und periodisches Verhalten

Übergangsverhalten

Beispiel:

P =

[34

14

0 1

]Rechnung mit Z-Transformation wie oben ergibt:

H(n) =

[0 10 1

]+

(34

)n [1 −10 0

]

Markov-Prozesse

Übergangs-, mehrfach verkettetes und periodisches Verhalten

Übergangsverhalten

Ein Übergangszustand führt nicht immer zu einemeinfangenden Zustand.Das System kann in eine Kette eintreten, die in sichgeschlossen ist (rekurrente Kette).Jede geschlossene Kette kann man somit alsverallgemeinerten einfangenden Zustand auffassen.Jeder Markov-Prozess muss eine solche Kettebesitzen.Gibt es genau eine solche Kette, ist der Prozessstreng ergodisch.

Markov-Prozesse

Übergangs-, mehrfach verkettetes und periodisches Verhalten

mehrfach verkettetes Verhalten

Möglichlichkeit, dass mehrere rekurrente Kettenauftreten→ Erweiterung der Möglichkeiten von SStartpunkt ist entscheidend für dieGrenzwahrscheinlichkeitZeilen sind nicht mehr gleichi-te Zeile stellt die Zustände mit Startwert i dar

Markov-Prozesse

Übergangs-, mehrfach verkettetes und periodisches Verhalten

mehrfach verkettetes Verhalten

Diagramm zum mehrfach verketteten Verhalten

Markov-Prozesse

Übergangs-, mehrfach verkettetes und periodisches Verhalten

mehrfach verkettetes Verhalten

Beispiel:

P =

1 0 00 1 013

13

13

Mit der Z-Transformation erhält man:

H(n) =

1 0 00 1 012

12 0

+

(13

)n 0 0 0

0 0 0−1

2 −12 1

Markov-Prozesse

Übergangs-, mehrfach verkettetes und periodisches Verhalten

Periodisches Verhalten

periodische Kette = rekurrente Kette, wobei dasSystem nach p,2p,3p, ... Übergängen wieder denAusgangszustand belegt (p ∈ N)

Diagramm zum periodischen Verhalten

Markov-Prozesse

Übergangs-, mehrfach verkettetes und periodisches Verhalten

Periodisches Verhalten

Beispiel:

P =

[0 11 0

]Mit der Z-Transformation erhält man:

H(n) =

[12

12

12

12

]+ (−1)n

[12 −1

2

−12

12

]

Markov-Prozesse

Übergangs-, mehrfach verkettetes und periodisches Verhalten

Periodisches Verhalten

π1(n) =12

[1 + (−1)n]

undπ2(n) =

12

[1− (−1)n]

Interpretation:Falls n ungerade ist, wird immer Zustand 1angenommenFalls n gerade ist, wird immer Zustand 2angenommen

Markov-Prozesse

Übergangs-, mehrfach verkettetes und periodisches Verhalten

Periodisches Verhalten

Interpretation von T (n):Verschwindet nicht, sondern oszilliert, Störung von SInterpretation von S:Wahrscheinlichkeit, dass sich das System in jedemseiner Zustände zu einem zufälligem Zeitpunktbefindet

Markov-Prozesse

Zusammenfassung

Der Markov-Prozess ist ein spezieller stochastischerProzess mit dem Ziel Wahrscheinlichkeitsaussagenüber zukünftige Ereignisse zu machenDabei ist die Z-Tranformation ein wichtigesHilfsmittelMarkov-Ketten können ein periodisches,Übergangs- oder mehrfach verkettetes Verhaltenaufweisen