Random Walks and Renewal Theory - FAMsgerhold/pub_files/sem15/s...He epratse this pressco n times. I...

27

Transcript of Random Walks and Renewal Theory - FAMsgerhold/pub_files/sem15/s...He epratse this pressco n times. I...

Page 1: Random Walks and Renewal Theory - FAMsgerhold/pub_files/sem15/s...He epratse this pressco n times. I quirere the probability that after these n stretches he is at a distance etweben

Seminararbeit

Random Walks and Renewal Theory

Christoph Weber

1326964

Februar 2016

Betreuung: Privatdoz. Dipl.-Ing. Dr.techn. Stefan Gerhold

Technische Universität Wien

Page 2: Random Walks and Renewal Theory - FAMsgerhold/pub_files/sem15/s...He epratse this pressco n times. I quirere the probability that after these n stretches he is at a distance etweben

Inhaltsverzeichnis

1 Einleitung 3

2 Random Walk - Die Irrfahrt 6

2.1 Denition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62.2 Rekurrenz und Transienz . . . . . . . . . . . . . . . . . . . . . . . . . . . 72.3 Die eindimensionale Irrfahrt . . . . . . . . . . . . . . . . . . . . . . . . . 13

2.3.1 Sprungzeiten und Sprunghöhen . . . . . . . . . . . . . . . . . . . 14

3 Renewal Theory - Erneuerungstheorie 16

3.1 Denition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163.2 Erneuerungsprozesse und Stationarität . . . . . . . . . . . . . . . . . . . 173.3 Die Erneuerungsgleichung . . . . . . . . . . . . . . . . . . . . . . . . . . 23

3.3.1 Ein Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24

Literaturverzeichnis 26

Abbildungsverzeichnis 27

Page 3: Random Walks and Renewal Theory - FAMsgerhold/pub_files/sem15/s...He epratse this pressco n times. I quirere the probability that after these n stretches he is at a distance etweben

1 Einleitung

1 Einleitung

Sei Z eine faire Münze mit den beiden möglichen Zuständen z1 = Kopf und z2 = Zahl

und den Wahrscheinlichkeiten P(Z = z1) = 0, 5 und P(Z = z2) = 1− P(Z = z1) = 0, 5.

Man betrachte den Münzwurf im rechten oberen Quadranten N0 × N0 der Ebene Z2:

Start ist bei S0 = (0, 0) und bei Kopf wandert man einen Schritt nach rechts, bei

Zahl einen Schritt nach oben.

Die folgende Grak zeigt drei mögliche Ausgänge des Münzwurfs bis zu dem Zeitpunkt,

in dem eine der beiden Möglichkeiten genau 30 Mal erreicht wird:

Abbildung 1: Münzwurf

Obiges Experiment ist ein anschauliches Beispiel für eine Irrfahrt. Für ein zweites, oft-

mals verwendetes Beispiel, sei nun der ”Betrunkene” präsentiert:

A man starts from point O and walks x yards in a straight line; he then turns

through any angle whatever and walks another x yards in a second straight

line. He repeats this process n times. I require the probability that after these

n stretches he is at a distance between r and r + dr from his starting point,

O. Karl Pearson, 1905

3

Page 4: Random Walks and Renewal Theory - FAMsgerhold/pub_files/sem15/s...He epratse this pressco n times. I quirere the probability that after these n stretches he is at a distance etweben

1 Einleitung

Abbildung 2: Drunkard's Walk

Die einfachste Variante für diesen ”Drunkard's Walk” kann man auf dem Zahlenstrahl

denieren, wo mit Wahrscheinlichkeit p = q = 12nach links oder rechts gegangen wird

und der vorige Schritt nicht von Bedeutung ist.

Abbildung 3: Ein-Schritt-Wahrscheinlichkeit

Fragestellungen wie ”Findet der Betrunkene je nach Hause” (wobei ”zu Hause” ein

beliebiger Punkt auf dem Zahlenstrahl ist) beziehungsweise ”Wenn ja, in wie vielen

Schritten?” und deren Antworten sind unter anderem bei [8], Seite 3, und [9], Seite 240,

zu nden.

Man wird sehen, dass Irrfahrten trotz ihrer Einfachheit viele grundlegenden Eigen-

schaften von Markov-Prozessen in diskreter Zeit zeigen und oftmals als ein adäquater

Einstieg in die Materie gesehen werden. [3]

4

Page 5: Random Walks and Renewal Theory - FAMsgerhold/pub_files/sem15/s...He epratse this pressco n times. I quirere the probability that after these n stretches he is at a distance etweben

1 Einleitung

So wie bei der Irrfahrt lässt sich auch beim Thema der Renewal Theory gut mit einem

Beispiel starten:

Elektronische Geräte sind aus vielen kleinen Baugruppen zusammengesetzt. Jede Bau-

gruppe sei die Zusammenfassung von elektronischen Bauteilen, welche die selbe Funktion

haben. Sollte eine Baugruppe kaputt gehen nehmen wir an, dass sie durch eine unter

den selben Bedingungen hergestellte ersetzt wird.

Sei Xi der Zeitraum, den die i -te Baugruppe arbeitet und N(t) sei die Anzahl der freien

Baugruppen, die bis zum Zeitpunkt t installiert wurden. X1, X2, .. sind u.i.v. Zufalls-

variablen, also ist N(t) : t ≥ 0 ein Erneuerungsprozess (engl.: renewal process). Um

vorausschauend planen zu können ist es nun spannend, P(N(t) = n) und E[N(t)] zu wis-

sen. Diese und zusätzliche Informationen, wie z.B. wann der nächste Ausfall zu erwarten

ist oder wie lange der letzte Ausfall zurückliegt, zu akquirieren sind die primären Ziele

der Erneuerungstheorie. ([4], Seite 105)

Abbildung 4: Erneuerungsprozess

Abbildung 2 zeigt die mögliche Entwicklung eines Erneuerungsprozesses Xt mit Zyklus-

zeiten Si und Erneuerungszeiten Jn. [6]

Diese Arbeit basiert auf dem Buch Foundations of Modern Probability von Olav Kal-

lenberg, Kapitel 8: Random Walks and Renewal Theory, in PDF-Version unter an-

derem zu nden unter http://tomlr.free.fr/Math%E9matiques/Math%20Complete/

Probability%20and%20statistics/Foundations%20of%20Modern%20Probability%20-%

20Olav%20Kallenberg.pdf.

5

Page 6: Random Walks and Renewal Theory - FAMsgerhold/pub_files/sem15/s...He epratse this pressco n times. I quirere the probability that after these n stretches he is at a distance etweben

2 Random Walk - Die Irrfahrt

2 Random Walk - Die Irrfahrt

2.1 Denition

Als random walk oder Irrfahrt ist im Allgemeinen ein Zufallsprozess (Sn) in diskre-

ter Zeit deniert, dessen Zufallsgröÿen unabhängig und identisch verteilt (u.i.v. bezie-

hungsweise i.i.d.: independent and identically distributed) und dessen Schritte die Form

ξn = ∆Sn = Sn - Sn−1 besitzen. Allgemein nimmt man S0 = 0 an, so dass

Sn = ξ1 + ...+ ξn =∑n

i=1 ξi ∀n gilt.

Irrfahrten sind eine der einfachsten Versionen eines Markov-Prozesses. Demnach kann

man den Prozess mit Hilfe einer Übergangsmatrix darstellen, für die gilt:

fi,j =

p , falls j = i+ 1

q , falls j = i− 1

0 , sonst

Für die (unendlich groÿe) Übergangsmatrix folgt dann:... ...

... 0 q 0 p 0 ... ...

... ... 0 q 0 p 0 ...

... ...

6

Page 7: Random Walks and Renewal Theory - FAMsgerhold/pub_files/sem15/s...He epratse this pressco n times. I quirere the probability that after these n stretches he is at a distance etweben

2 Random Walk - Die Irrfahrt

2.2 Rekurrenz und Transienz

A drunk man will nd his way home, but a drunk bird may get lost forever.

Shizuo Kakutani, japanisch-amerikanischer Mathematiker

Sei Sn = ξ1+...+ξn ∀n ∈ Z+, wobei ξi ∀i ∈ 1..n u.i.v. Zufallsvektoren in Rd sind. Die

Verteilung der (Sn) ist bestimmt durch die gemeinsame Verteilung µ = P ξ−1n der Inkre-

mente.

Das occupation measure von (Sn) ist deniert als das zufällige Maÿ

ηB =∑

n≥0 1Sn ∈ B, B ∈ Bd,

wobei B die Borelmengen auf Rd sind. Ein zufälliges Maÿ Y ordnet jedem Zufallsereignis

ξi ∈ Ω ein Maÿ η auf Rd zu, welches auf beschränkten messbaren Mengen endliche Werte

annimmt. Für eine beliebige Borelmenge A ∈ Bd ist also

Y (A) : Ω→ [0,∞], ξ 7→ Yξ(A),

nichtnegative Zufallsvariable und das zufällige Maÿ der Menge A.

Ein occupation measure beschreibt also die erwartete Dauer, die ein stochastischer Pro-

zess in verschiedenen Teilen seines Zustandsraums zu einer gegebenen Stoppzeit ver-

bringt. [7]

Das dazu passende Intensitätsmaÿ ist deniert als

(Eη)B = E(ηB) =∑

n≥0 PSn ∈ B, B ∈ Bd.

Mit Bεx = y; |x−y| < ε seien die erreichbare Menge A, die mittlere Rekurrenzmenge

M und die Rekurrenzmenge R, gegeben durch

A =⋂ε>0

x ∈ Rd; EηBεx > 0

M =⋂ε>0

x ∈ Rd; EηBεx =∞

R =⋂ε>0

x ∈ Rd; ηBεx =∞ fast sicher

deniert.

Satz 2.1 (Dichotomie der Rekurrenz). Sei (Sn) Irrfahrt in Rd und die Mengen A, M

und R deniert wie oben. Dann tritt genau einer der beiden folgenden Zustände ein:

(i)R = M = A, und R ist eine geschlossene, additive Halbgruppe auf Rd

(ii)R = M = ∅ und |Sn| → ∞ fast sicher

7

Page 8: Random Walks and Renewal Theory - FAMsgerhold/pub_files/sem15/s...He epratse this pressco n times. I quirere the probability that after these n stretches he is at a distance etweben

2 Random Walk - Die Irrfahrt

Eine Irrfahrt heiÿt rekurrent, falls (i) zutrit, und andernfalls transient.

Beweis. Trivialerweise ist R ⊂M ⊂ A, also ist es möglich, die Relationen in (i) und (ii)

auch durch A ⊂ R für (i) und M = ∅ für (ii) zu verdeutlichen. Noch zu bemerken ist,

dass A eine geschlossene, additive Halbgruppe ist.

Man tree die Annahme P|Sn| → ∞ < 1, so dass P|Sn| < r unendlich oft > 0 für

ein r > 0. Mit ε > 0 bedecke man die r-Kugel um 0 mit endlich vielen oenen Kugeln

B1, ..., Bn mit Radius ε2. Es ist PSn ∈ Bk > 0 für mindestens ein k. Mit dem Hewitt-

Savage 0-1-Gesetz ergibt die letztere Wahrscheinlichkeit 1. Demnach ist die Stoppzeit

τ = infn ≥ 0;Sn ∈ Bk fast sicher endlich und die starke Markoveigenschaft bei τ

ergibt

1 = PSn ∈ Bk unendlich oft

≤ P|Sτ+n − Sτ | < ε unendlich oft

= P|Sn| < ε unendlich oft.

Also ist (in diesem Fall) 0 ∈ R.Um die Beziehung auf A ⊂ R zu erweitern wähle man ein xes x ∈ A und ε > 0. Durch

die starke Markoveigenschaft bei σ = infn ≥ 0; |Sn − x| < ε2 folgt

P|Sn − x| < ε unendlich oft ≥ Pσ <∞, |Sσ+n − Sσ| <ε

2unendlich oft

= Pσ <∞P|Sn| <ε

2unendlich oft > 0

und nach dem Hewitt-Savage 0-1-Gesetz ergibt die Wahrscheinlichkeit des linken Aus-

drucks 1. Demnach ist x ∈ R.Die zu geltende Gruppeneigenschaft folgt, wenn man beweisen kann, dass auch −x ∈ Aist. Man zeigt also

P|Sn + x| < ε unendlich oft = P|Sσ+n − Sσ + x| < ε unendlich oft

≥ P|Sn| <ε

2unendlich oft = 1.

Als nächstes nehme man |Sn| → ∞ fast sicher an. Für xes m, k ∈ N schlieÿe man aus

der Markoveigenschaft bei m, dass

P|Sm| < r, infn≥k|Sm+n| ≥ r ≥ P|Sm| < r, infn≥k|Sm+n − Sm| ≥ 2r

= P|Sm| < rPinfn≥k|Sn| ≥ 2r.

8

Page 9: Random Walks and Renewal Theory - FAMsgerhold/pub_files/sem15/s...He epratse this pressco n times. I quirere the probability that after these n stretches he is at a distance etweben

2 Random Walk - Die Irrfahrt

Das Ereignis links tritt für höchstens k verschiedene Werte von m ein und demnach ist

Pinfn≥k|Sn| ≥ 2r∑m

P|Sm| < r <∞, k ∈ N.

Mit k →∞ geht die Wahrscheinlichkeit auf der linken Seite nach 1. Die Summe konver-

giert also und man erhält EηB < ∞ für jede beschränkte Menge B. Diese Erkenntnis

führt zu M = ∅.

Nach dem allgemeinen Fall ergeben sich aus dem folgenden Satz zwei leichter veri-

zierbare Kriterien für Rekurrenz.

Satz 2.2 (Rekurrenz für d=1,2). Eine Irrfahrt (Sn) in Rd ist rekurrent bezüglich einer

der Konditionen:

(i) d = 1 und n−1SnP−−→ 0;

(ii) d = 2, Eξ1 = 0, und E|ξ1|2 <∞.

Beweis. Für (i) beachte man das Schwache Gesetz der groÿen Zahlen, speziell wird

die Bedingung erfüllt wenn Eξ1 = 0 ist. Im Gegensatz impliziert Eξ1 ∈ (0,∞] die

Behauptung Sn → ∞ fast sicher, nach dem Starken Gesetz der groÿen Zahlen. (Sn) ist

unter dieser Bedingung also transient.

Der weitere Beweis von Satz 2.2 basiert auf folgender Skalierungsrelation:

Lemma 2.3 (Skalierung). Für eine Irrfahrt (Sn) in Rd ist∑n≥0

P|Sn| ≤ rε . rd∑n≥0

P|Sn| ≤ ε, r ≥ 1, ε > 0,

wobei a . b bedeutet, dass a ≤ cb für eine Konstante c > 0 ist.

Der genaue Beweis von Satz 2.2 (ii) unter Berücksichtigung von Lemma 2.3 kommt

von Chung und Ornstein und ist auf Seite 139 von [1] zu nden.

Eine weitere Generalisierung des Rekurrenzkriteriums in Bezug auf die charakteristi-

sche Funktion µ von µ entwickelten Chung und Fuchs. Für deren Satz soll Bε = x ∈Rd; |x| < ε sein.

9

Page 10: Random Walks and Renewal Theory - FAMsgerhold/pub_files/sem15/s...He epratse this pressco n times. I quirere the probability that after these n stretches he is at a distance etweben

2 Random Walk - Die Irrfahrt

Satz 2.4 (Rekurrenzkriterium von Chung und Fuchs). Sei (Sn) Irrfahrt in Rd mit einer

Verteilung µ und man wähle ein xes ε > 0. Dann ist (Sn) rekurrent, falls

sup0<r<1

∫Bε

< 1

1− rµtdt =∞. (2.1)

Hier und in weiterer Folge bezeichnet < den reellen Teil der Zahl.

Der Beweis baut auf folgendem Lemma auf:

Lemma 2.5 (Parseval). Es seien µ und ν Wahrscheinlichkeitsmaÿe auf Rd mit charak-

teristischen Funktionen µ und ν. Dann ist∫µdν =

∫νdµ.

Auch hier kann der vollständige Beweis auf Seite 140 in [1] gefunden werden.

Falls µ symmetrisch ist in dem Sinne, dass ξ1d= −ξ1, dann ist µ reellwertig und das

letzte Kriterium des vorigen Beweises reduziert sich zu∫Bε

dt

1− rµt=∞.

Unter einer Symmetrisierung von (Sn) versteht man dann eine Irrfahrt

Sn = Sn − S′

n, n ≥ 0

wobei (S′n) eine unabhängige Kopie von (Sn) ist. Ohne Beweis sei folgendes Lemma

gültig:

Lemma 2.6 (Symmetrisierung). Falls eine Irrfahrt (Sn) rekurrent ist, so ist das auch

ihre symmetrische Version (Sn).

Für die Anwendung ergeben sich nun hinreichende Bedingungen für Rekurrenz und

Transienz.

Lemma 2.7 (hinreichende Bedingungen). Sei ε > 0 x. Dann ist (Sn) rekurrent, falls∫Bε

< 1

1− µtdt =∞ (2.2)

10

Page 11: Random Walks and Renewal Theory - FAMsgerhold/pub_files/sem15/s...He epratse this pressco n times. I quirere the probability that after these n stretches he is at a distance etweben

2 Random Walk - Die Irrfahrt

und transient, falls ∫Bε

dt

1−<µtdt <∞. (2.3)

Beweis. Wir nehmen an, Gleichung (2.2) sei erfüllt. Mit dem Lemma von Fatou (Seite

11 in [1]) erhält man für jede Folge rn 1

lim infn→∞

∫Bε

< 1

1− rnµ≥∫Bε

limn→∞

< 1

1− rnµ=

∫Bε

< 1

1− µ=∞.

Die Behauptung von Gleichung (2.1) ist also gezeigt und Sn ist rekurrent.

Aus dem Beweis des Rekurrenzkriteriums von Chung und Fuchs (Satz 2.4) stammt

folgende Gleichung, welche für den Verlauf des Beweises relevant ist:∫f⊗d(x/a)

∑n≥0

rnµ∗n(dx) = ad∫f⊗d(at)

1− rµtdt, r ∈ (0, 1) (2.4)

Andererseits nehme man nun an, Gleichung (2.3) sei korrekt. Mit kleinem ε nehmen wir

an, dass <µ ≥ 0 auf Bε ist. Wie vorher erhält man∫Bε

< 1

1− rµ≤∫Bε

1

1− r<µ≤∫Bε

1

1−<µ<∞,

und die Behauptung von Gleichung (2.1) ist nicht erfüllt. (Sn) ist also transient.

Bezugnehmend auf Satz 2.2 (Rekurrenz für d=1,2) entsteht die Frage, welche Eigen-

schaft die Irrfahrt für d ∈ [3,∞) zugewiesen bekommt. Aus den bis jetzt erhaltenen

Informationen resultiert der folgende Satz, welcher eine passende Antwort liefert:

Satz 2.8 (Transienz für d ≥ 3). Jede beliebige Irrfahrt mit tatsächlicher Dimension

d ≥ 3 ist transient.

Beweis. Man nehme an, dass die symmetrische Version wieder d-dimensional ist, da sich

andernfalls Transienz rasch durch das Starke Gesetz der groÿen Zahlen zeigen lässt. Mit

Lemma 2.6 (Symmetrisierung) reicht es zu beweisen, dass eine symmetrische Irrfahrt

(Sn) transient ist - wir wählen µ also symmetrisch. Unter Berücksichtigung der Anfangs-

verteilung von Br und Bcr für passendes r > 0 schreibt man µ als Konvexkombination

cµ1 + (1 − c)µ2, wobei µ1 symmetrisch und mit beschränktem Träger ist. Mit (rij) als

Kovarianzmatrix von µ1 und Lemma 4.10 aus [1] (Seite 67, Taylor Erweiterung) erhält

11

Page 12: Random Walks and Renewal Theory - FAMsgerhold/pub_files/sem15/s...He epratse this pressco n times. I quirere the probability that after these n stretches he is at a distance etweben

2 Random Walk - Die Irrfahrt

man

µ1(t) = 1− 1

2

∑i,j

rijtitj + o(|t|2), t→ 0.

Nachdem die Matrix (rij) positiv denit ist folgt, dass 1− µ1(t) & |t|2 für |t| klein genug,z.B. für t ∈ Bε, ist. Ein gleichartiger Zusammenhang trit auf µ zu, also ist∫

dt

1− µt.∫Bε

dt

|t|2.∫ ε

0

rd−3dr <∞.

Demnach ist (Sn) transient laut Satz 2.4 (Rekurrenzkriterium von Chung und Fuchs).

Rückblickend auf den Anfang des Kapitels folgt mit Satz 2.8 auch die Bedeutung des

Zitats von Shizuo Kakutani.

12

Page 13: Random Walks and Renewal Theory - FAMsgerhold/pub_files/sem15/s...He epratse this pressco n times. I quirere the probability that after these n stretches he is at a distance etweben

2 Random Walk - Die Irrfahrt

2.3 Die eindimensionale Irrfahrt

Die eindimensionale Irrfahrt Sn = ξ1 + ... + ξn, n ∈ Z+ heiÿt simpel, falls |ξ1| = 1 fast

sicher. Für eine simple, symmetrische Irrfahrt (Sn) sei

un ≡ PS2n = 0 = 2−2n(

2n

n

), n ∈ Z+.

Mit den obig eingeführten Begrien führt das folgende Lemma zu einem überraschen-

den Zusammenhang zwischen denWahrscheinlichkeiten un und der Verteilung der letzten

Rückkehr zum Ursprung.

Lemma 2.9. (Sn) sei eine simple, symmetrische Irrfahrt in Z, un sei deniert wie oben

und σn = maxk ≤ n;S2k = 0. Dann gilt:

Pσn = k = ukun−k, 0 ≤ k ≤ n.

Beweis. Mit der Markoveigenschaft beim Zeitpunkt 2k erhält man

Pσn = k = PS2k = 0Pσn−k = 0, 0 ≤ k ≤ n,

was den Beweis auf den Fall k = 0 reduziert. Es bleibt also zu zeigen:

PS2 6= 0, ..., S2n 6= 0 = PS2n = 0, n ∈ N.

Nach der Markoveigenschaft zum Zeitpunkt 1 ist die linke Seite gleich

1

2Pmink<2nSk = 0+

1

2Pmaxk<2nSk = 0 = PM2n−1 = 0,

wobei Mn = maxk≤nSk ist. Mit Lemma 8.10 aus [1], Seite 142, und τ = infk;Sk = 1erhält man

1− PM2n−1 = 0 = PM2n−1 ≥ 1

= PM2n−1 ≥ 1, S2n−1 ≥ 1+ PM2n−1 ≥ 1, S2n−1 ≤ 0

= PS2n−1 ≥ 1+ PS2n−1 ≥ 2

= 1− PS2n−1 = 1

= 1− PS2n = 0.

13

Page 14: Random Walks and Renewal Theory - FAMsgerhold/pub_files/sem15/s...He epratse this pressco n times. I quirere the probability that after these n stretches he is at a distance etweben

2 Random Walk - Die Irrfahrt

Zum jetzigen Zeitpunkt kann man eine umso erstaunlichere Verbindung zwischen dem

Maximum einer symmetrischen Irrfahrt und der letzten Rückkehrwahrscheinlichkeit aus

Lemma 2.9.

Lemma 2.10 (Erstes Maximum, Sparre-Andersen). Sei (Sn) Irrfahrt mit symmetri-

scher, diuser Verteilung, Mn = maxk≤n Sk und τn = mink ≥ 0;Sk = Mn. σn sei als

simple, symmetrische Irrfahrt, wie in Lemma 2.9, deniert. Dann gilt:

τnd= σn für jedes n ≥ 0.

”τnd= σn” steht für ”τn hat die selbe Verteilung wie σn”.

Hier und in weiterer Folge soll

(S1, ..., Sn)d= (Sn − Sn−1, ..., Sn − S0), n ∈ N (2.5)

für jede Irrfahrt (Sn) gelten. Die Formel ist dadurch gültig, dass (ξ1, ..., ξn)d= (ξn, ..., ξ1).

Beweis. Mit der Symmetrie von (Sn) und (2.5) erhält man

vk ≡ Pτk = 0 = Pτk = k, k ≥ 0. (2.6)

Unter Beachtung der Markoveigenschaft zum Zeitpunkt k kann man obige Gleichung

weiterführen:

Pτk = k = Pτk = kPτn−k = 0 = vkvn−k, 0 ≤ k ≤ n. (2.7)

Zu sehen ist, dass σ0 = τ0 = 0. Per Induktion wird der Rest gezeigt, also sei σkd= τk

und demnach uk = vk für alle k < n. Vergleicht man (2.7) mit Lemma 2.9 erhält man

Pσn = k = Pτn = k für 0 < k < n, und mit (2.6) lässt sich die Gleichheit auf k = 0

und k = n erweitern. Demnach folgt: σnd= τn.

2.3.1 Sprungzeiten und Sprunghöhen

Für eine allgemeine ein-dimensionale Irrfahrt (Sn) führt man nun ansteigende Sprung-

zeiten τ1, τ2, ... ein, rekursiv gegeben durch

τn = infk > τn−1;Sk > Sτn−1, n ∈ N

14

Page 15: Random Walks and Renewal Theory - FAMsgerhold/pub_files/sem15/s...He epratse this pressco n times. I quirere the probability that after these n stretches he is at a distance etweben

2 Random Walk - Die Irrfahrt

beginnend mit τ0 = 0. Die zugehörigen ansteigenden Sprunghöhen sind deniert als die

Zufallsvariablen Sτn , n ∈ N, wobei S∞ als ∞ interpretiert wird. Auf ähnlichem Weg

werden die absteigenden Sprungzeiten τ−n und -höhen Sτ−n , n ∈ N deniert. Die Zeiten

τn und τ−n sind beliebig, also impliziert die starke Markoveigenschaft, dass die Paare

(τn, Sτn) und (τ−n , Sτ−n ) möglicherweise beendende Irrfahrten auf R2sind.

Ersetzt man die Relation Sk > Sτn−1 in obiger Denition durch Sk ≥ Sτn−1 erhält man

die schwachen ansteigenden Sprungzeiten σn und -höhen Sσn .

Dem selben Schema folgend werden auch schwache absteigende Sprungzeiten σ−n und

-höhen Sσ−n eingeführt.

Da folgende Erkenntnisse in Kapitel 3.2 von Nöten sind, werden die beiden Lemmata

im Anschluss kurz ohne Beweis vorgestellt.

Lemma 2.11 (Schwankungen und mittlere Sprungzeiten). Für eine nicht-degenerierte

Irrfahrt (Sn) in R trit nur exakt einer von drei Fällen zu:

(i)Sn →∞ fast sicher und Eτ1 <∞;

(ii)Sn → −∞ fast sicher und Eτ−1 <∞;

(iii) lim supn

(±Sn) =∞ fast sicher und Eσ1 = Eσ−1 =∞.

Lemma 2.12 (Schwankungen und mittlere Sprunghöhen). Falls (Sn) nicht-degenerierte

Irrfahrt in R ist, dann gilt

(i)Eξ1 = 0 impliziert lim supn

(±Sn) =∞ fast sicher;

(ii)Eξ1 ∈ (0,∞] impliziert Sn →∞ fast sicher und ESτ1 = Eτ1Eξ1;

(iii)Eξ+1 = Eξ−1 =∞ impliziert ESτ1 = −ESτ−1 =∞.

15

Page 16: Random Walks and Renewal Theory - FAMsgerhold/pub_files/sem15/s...He epratse this pressco n times. I quirere the probability that after these n stretches he is at a distance etweben

3 Renewal Theory - Erneuerungstheorie

3 Renewal Theory - Erneuerungstheorie

3.1 Denition

Man beschäftige sich nun etwas detaillierter mit dem occupation measure η =∑

n≥0 δSn

einer transienten Irrfahrt auf R, die auf Übergangs- und Ursprungsverteilung µ und ν

basiert. Aus den Anfängen des Kapitels über Rekurrenz und Transienz von Irrfahrten

weiÿ man, dass das zugehörige Intensitätsmaÿ Eη = ν ∗∑

n µ∗n lokal endlich ist (Hier

und in weiterer Folge sei mit ∗ die Faltung gemeint. Eine genaue Denition ndet sich

zum Beispiel in [2], Kapitel 10.6). Nach der starken Markoveigenschaft hat die Folge

(Sτ+n − Sτ ) die selbe Verteilung für jede endliche Stoppzeit τ . Eine ähnliche Invarianz

gilt auch für das occupation measure und die zugeordneten Intensitäten müssen über-

einstimmen. Eine Erneuerung ndet dann zum Zeitpunkt τ statt, und das komplette

Thema nennt man demnach Erneuerungstheorie.

In dem Spezialfall, dass R+ Träger von µ und ν ist, bezieht man sich auf η als Erneue-

rungsprozess, basierend auf µ und ν und auf Eη als das zugehörige Erneuerungsmaÿ.

Normalerweise ist ν = δ0, andernfalls heiÿt η verzögert.

Das occupation measure η ist ein zufälliges Maÿ auf R in dem Sinn, dass ηB eine Zu-

fallsvariable für jede beschränkte Borelmenge B ist.

Mit Lemma 10.1 aus [1], Seite 177, kann man schlieÿen, dass die Verteilung eines zufäl-

ligen Maÿes auf R+ gegeben ist durch die Verteilung der Integrale ηf =∫fdη für alle

f ∈ C+K(R+), dem Raum der stetigen Funktionen f: R+ → R+ mit beschränktem Träger.

Für ein Maÿ µ auf R und Konstante t ≥ 0 führt man das verschobene Maÿ θtµ auf R+,

gegeben durch θtµB = µ(B + t) für beliebiges B ∈ B(R+), ein.

Ein zufälliges Maÿ η auf R heiÿt stationär auf R+, falls θtηd= θ0η.

Zu gegebenem Erneuerungsprozess η mit einer Verteilung µ sei der verzögerte Prozess

η = δα∗η die stationäre Version von η, falls ν = P α−1 so gewählt ist, dass das zufälligeMaÿ η stationär auf R+ wird. Der folgende Satz zeigt, dass eine solche Version existiert,

falls µ endlichen Mittelwert hat. In diesem Fall wäre ν eindeutig durch µ bestimmt.

Es sei λ das Lebesgue-Maÿ auf R+ und δx bezeichne ein Gewicht bei x.

16

Page 17: Random Walks and Renewal Theory - FAMsgerhold/pub_files/sem15/s...He epratse this pressco n times. I quirere the probability that after these n stretches he is at a distance etweben

3 Renewal Theory - Erneuerungstheorie

3.2 Erneuerungsprozesse und Stationarität

Satz 3.1 (stationärer Erneuerungsprozess). Sei η Erneuerungsprozess mit Verteilung

µ auf R+ und Mittelwert c. Dann hat η eine stationäre Version η falls c ∈ (0,∞). In

diesem Fall ist Eη = c−1λ und die Anfangsverteilung von η ist eindeutig gegeben durch

ν = c−1(δ0 − µ) ∗ λ, beziehungsweise

ν[0, t] = c−1∫ t

0

µ(s,∞)ds, t ≥ 0. (3.1)

Beweis. Mit dem Satz von Fubini folgt

Eη = E∑n

δSn =∑n

P S−1n

=∑n

ν ∗ µ∗n = ν + µ ∗∑n

ν ∗ µ∗n

= ν + µ ∗ Eη,

und so ist ν = (δ0 − µ) ∗ Eη.Ist η stationär, dann ist Eη shift-invariant und mit Lemma 1.29 (Invarianz und Lebesgue-Maÿ) aus [1] folgt Eη = aλ für eine Konstante a > 0. Demnach gilt ν = a(δ0 − µ) ∗ λ,und (3.1) stimmt, wenn man c−1 mit a ersetzt. Geht t → ∞, so bekommt man 1 = ac

nach [1], Lemma 2.4. Es ist also c ∈ (0,∞) und a = c−1.

Im Gegenzug nehme man c ∈ (0,∞) an und sei ν gegeben durch (3.1). Dann folgt

Eη = ν ∗∑n

µ∗n

= c−1(δ0 − µ) ∗ λ ∗∑n

µ∗n

= c−1λ ∗ ∑n≥0

µ∗n −∑n≥1

µ∗n

= c−1λ.

Ausgehend von Satz 3.1 kann man eine zum stationären occupation measure passende

Aussage herleiten.

Satz 3.2 (stationäres occupation measure). Sei η das occupation measure einer Irrfahrt

auf R mit Verteilungen µ und ν, von denen µ Mittelwert c ∈ (0,∞) hat und ν wie in Satz

17

Page 18: Random Walks and Renewal Theory - FAMsgerhold/pub_files/sem15/s...He epratse this pressco n times. I quirere the probability that after these n stretches he is at a distance etweben

3 Renewal Theory - Erneuerungstheorie

3.1, (3.1), gegeben durch Verteilung der Sprunghöhe µ und deren Mittelwert c, deniert

ist.

Dann ist η stationär auf R+ mit Stärke c−1.

Beweis. Mit Sn → ∞ fast sicher folgt aus Lemma 2.11 (Schwankungen und mittlere

Sprungzeiten) und 2.12 (Schwankungen und mittlere Sprunghöhen), dass die Sprungzei-

ten τn und Höhen Hn = Sτn endliches Mittel haben und mit Satz 3.1 der Erneuerungs-

prozess ζ =∑

n δHn stationär ist für die vorgegebene Wahl von ν.

Sei t ≥ 0 und σt = infn ∈ Z+;Sn ≥ t: man bemerke, dass Sσt − t die Verteilung ν

hat. Mit der starken Markoveigenschaft bei σt hat die Folge Sσt+n − t, n ∈ Z+ die selbe

Verteilung wie (Sn).

Nachdem Sk < t für k < σt erhält man θtηd= η auf R+, was die behauptete Stationarität

beweist.

Um die Stärke zu erhalten sei ηn das occupation measure der Folge Sk − Hn, τn ≤ k <

τn+1. Für Hn gilt Hn q ηnd= η0, für jedes n, nach der starken Markoveigenschaft (” q ”

bedeute paarweise Unabhängigkeit. Zur genauen Denition: [1], Seite 27). Nach dem

Satz von Fubini gilt:

Eη = E∑n

ηn ∗ δHn =∑n

E(δHn ∗ Eηn) = Eη0 ∗ E∑n

δHn = Eη0 ∗ Eζ.

Nach Satz 3.1 ist Eζ = c−1λ, so dass Eη0(0∞) = 0 und c = cEτ1 nach Lemma 2.12. Auf

R+ bekommt man

Eη =Eη0R−c

λ =Eτ1cλ = c−1λ.

Das nächste Ergebnis beschreibt das asymptotische Verhalten des occupation measure

η und seiner Intensität Eη. Unter schwachen Voraussetzungen für µ wird man sehen, wie

θtη sich der zugehörigen stationären Version η annähert, während Eη sich asymptotisch

proportional zum Lebesguemaÿ verhält. Der Einfachheit halber sei der Mittelwert von

µ in R ∪ ±∞ existent. Demnach, falls ξ eine Zufallsvariable mit Verteilung µ ist, darf

man erwarten, dass E(ξ+ ∧ ξ−) <∞ und denieren Eξ = Eξ+ − Eξ−.Es ist naheliegend, das Resultat mit Begriichkeiten der vagen Konvergenz auf R+ und

den korrespondierenden Denitionen von Konvergenz in Verteilung für Zufallsmaÿe. Zur

Denition, für lokal endliche Maÿe ν, ν1, ν2, ... auf R+ bedeutet vage Konvergenz, in

Zeichen νnv→ ν, dass νnf → νf für alle f ∈ C+

K(R+). Wenn η, η1, η2, ... zufällige Maÿe

auf R+ sind sei Konvergenz in Verteilung, i. Z. ηnd→ η, mit der Bedingung ηnf → ηf

18

Page 19: Random Walks and Renewal Theory - FAMsgerhold/pub_files/sem15/s...He epratse this pressco n times. I quirere the probability that after these n stretches he is at a distance etweben

3 Renewal Theory - Erneuerungstheorie

für jedes f ∈ C+K(R+).

Ein Maÿ µ auf R heiÿt nichtarithmetisch, falls die additive Untergruppe, entstanden

durch supp µ, dicht in R ist.

Satz 3.3 (Zweiseitiges Erneuerungstheorem, Blackwell, Feller und Orey). Sei η das occu-

pation measure einer Irrfahrt auf R mit Verteilungen µ und ν, wobei µ nichtarithmetisch

ist mit Mittelwert c ∈ R ∪ ±∞ \ 0. Falls c ∈ (0,∞) sei η die stationäre Version aus

Satz 3.2, ansonsten sei η = 0.

Dann, mit t→∞,

(i) θtηd→ η,

(ii) θtEην→ Eη = (c−1 ∨ 0)λ.

Der Beweis basiert auf zwei Lemmatas. Zuallererst wird die Verteilung νt der ersten

nichtnegativen Sprunghöhe des verschobenen Prozesses (Sn − t) betrachtet. Der ent-

scheidende Schritt für c ∈ (0,∞) ist es zu zeigen, dass νt schwach konvergiert gegen

die zugehörige Verteilung ν für die stationäre Version. Dies wird im folgenden Lemma

verdeutlicht:

Lemma 3.4 (asymptotische Verzögerung). Falls c ∈ (0,∞), dann gilt νtw→ ν mit

t→∞.

Anmerkung: νtw→ ν bedeute, dass νt schwach konvergiert gegen ν, siehe auch [1], Seite

42

Beweis. Es seien α und β zwei unabhängige Zufallsvariablen mit Verteilungen ν und ν.

Man wähle zwei u.i.v. Folgen (ξk) ⊥ (ϑ′

k) unabhängig von α und β, so dass P ξ−1k = µ

und Pϑk = ±1 = 12. Dann ist

Sn = β − α−∑k≤n

ϑkξk, n ∈ Z+,

eine Irrfahrt basierend auf einer nichtarithmetischen Verteilung mit Mittelwert 0, und

so folgt mit der Dichotomie der Rekurrenz (Satz 2.1) und der Rekurrenz für d = 1, 2

(Satz 2.2), dass die Menge Sn fast sicher dicht in R ist. Für ein ε > 0, die Stoppzeit

σ = infn ≥ 0; Sn ∈ [0, ε] ist dann fast sicher endlich.

Jetzt deniere man ϑ′

k = (−1)1k≤σϑk,k ∈ N und wie in [1], Lemma 8.10 auf Seite 142,

sei α′ , (ξk, ϑ′

k)d= α′ , (ξk, ϑk). Seien κ1 < κ2 < ... die Werte von k mit ϑk = 1, und in

gleicher Manier seien κ′1 < κ

′2 < ... für (ϑ

k) deniert. Mit einem conditioning argument

19

Page 20: Random Walks and Renewal Theory - FAMsgerhold/pub_files/sem15/s...He epratse this pressco n times. I quirere the probability that after these n stretches he is at a distance etweben

3 Renewal Theory - Erneuerungstheorie

sind die Folgen

Sn = α +∑j≤n

ξκj und S′

n = α′ −∑j≤n

ξκ′j, n ∈ Z+,

Irrfahrten von µ und den anfänglichen Verteilungen ν und ν.

Schreibt man σ± =∑

k≤σ 1ϑk = ±1, so bemerkt man dass

S′

σ−+n − Sσ++n = Sσ ∈ [0, ε], n ∈ Z+.

Sei γ = S∗σ+ ∨S′∗σ− und unter Berücksichtigung des ersten Eintrags von (Sn) und (S

′n) im

Intervall [t,∞] erhält man

ν[ε, x]− Pγ ≥ t ≤ νt[0, x] ≤ ν[0, x+ ε] + Pγ ≥ t.

Lässt man t → ∞ und dann ε → 0 gehen und berücksichtigt man ν0 = 0 durch

Stationarität, bekommt man νt[0, x]→ ν[0, x].

Mit nachfolgendem Lemma folgt die Information, die gebraucht wird, um von (i) auf

(ii) in Satz 3.3 zu schlieÿen.

Denition 3.5. Eine Menge M Σ-messbarer Funktionen auf Ω heiÿt gleichgradig (µ)-

integrierbar, wenn zu jeder reellen Zahl ε > 0 eine µ-integrierbare Funktion g ≥ 0 auf Ω

existiert derart, dass ∫|f |≥g

|f |dµ ≤ ε

für alle f ∈M gilt. ([10], Seite 138)

Lemma 3.6 (Gleichgradige Integrierbarkeit). Sei η das occupation measure einer tran-

sienten Irrfahrt (Sn) in Rd mit beliebiger Anfangsverteilun und x gewählter Menge B

∈ Bd. Dann sind die Zufallsvariablen η(B + x), x ∈ Rd, gleichgradig integrierbar.

Beweis. Sei x ∈ Rd x und τ = inft ≥ 0;Sn in B + x. Mit η0 als das occupati-

on measure einer unabhängigen Irrfahrt, die bei 0 startet, erhält man mit der starken

Markov-Eigenschaft

η(B + x)d= η0(B + x− Sτ )1τ <∞ ≤ η0(B −B).

Nachdem (Sn) transient ist, ist zu bemerken, dass Eη0(B−B) <∞ laut dem Satz über

die Dichotomie der Rekurrenz.

20

Page 21: Random Walks and Renewal Theory - FAMsgerhold/pub_files/sem15/s...He epratse this pressco n times. I quirere the probability that after these n stretches he is at a distance etweben

3 Renewal Theory - Erneuerungstheorie

Ausgestattet mit den Erkenntnissen aus Lemma 3.4 und Lemma 3.6 kann man sich

nun an den Beweis für Satz 3.3 machen.

Beweis für Satz 3.3. (c <∞) Mit Lemma 3.6 reicht es, nur (i) zu beweisen. Falls c < 0,

dann Sn → −∞ fast sicher mit dem Gesetz der groÿen Zahlen, also ist dann θtη = 0 für

t groÿ genug und (i) folgt.

Ist andererseits c ∈ (0,∞), dann νtw→ ν nach Lemma 3.4, und man darf Zufallsvariablen

αt und α mit jeweiliger Verteilung νt und ν so wählen, dass αt → α fast sicher. Weiters

sei η0 das occupation measure einer unabhängigen Irrfahrt mit Startpunkt 0.

Sei f ∈ C+K(R+) x und f erweitert auf R durch f(x) = 0 für x < 0. Nachdem ν λ

erhält man η0−α = 0 fast sicher und unter Berücksichtigung der starken Markovei-

genschaft und der dominierten Konvergenz folgt

(θtη)fd=

∫f(αt + x)η0(dx)→

∫f(α + x)η0(dx)

d= ηf.

(c = ∞) In diesem Fall ist es genug, (ii) zu beweisen. Man bemerke, dass Eη = ν ∗Eχ ∗Eζ, wobei χ das occupation measure der Folge der Sprunghöhen von (Sn−S0) und

ζ das occupation measure des selben Prozesses vor der ersten Sprungzeit ist. Es folgt

EζR− <∞ nach Lemma 2.11, mit der dominierten Konvergenz reicht es zu zeigen, dass

θtEχv= 0. Nachdem der Erwartungswert der Verteilung der Sprunghöhen unendlich ist

nach Lemma 2.12, kann man nun ν = δ0 annehmen und es sei µ eine beliebige Verteilung

auf R+ mit unendlichem Erwartungswert.

Wähle I = [0, 1] unter Berücksichtigung, dass Eη(I + t) begrenzt ist durch Lemma 3.6.

Es sei b = lim supt Eη(I + t) und wähle eine Folge tk → ∞ mit Eη(I + tk) → b. Man

kann hier die endlichen Maÿe µ∗j für j < m abziehen, um (µ∗m ∗ Eη)(I + tk) → b für

alle m ∈ Z+ zu erhalten. Mit dem umgekehrten Lemma von Fatou erhält man für ein

B ∈ B(R+)

lim infk→∞

Eη(I −B + tk)µ∗mB

≥ lim infk→∞

∫B

Eη(I − x+ tk)µ∗mdx

= b− lim supk→∞

∫Bc

Eη(I − x+ tk)µ∗m(dx)

≥ b−∫Bc

lim supk→∞

Eη(I − x+ tk)µ∗m(dx) ≥ bµ∗mB.

Für beliebiges, aber xes h < 0 mit µ ]0, h] > 0. Unter Beachtung von Eη[r, r + h] > 0

21

Page 22: Random Walks and Renewal Theory - FAMsgerhold/pub_files/sem15/s...He epratse this pressco n times. I quirere the probability that after these n stretches he is at a distance etweben

3 Renewal Theory - Erneuerungstheorie

für alle r ≥ 0 und mit J = [0, a] mit a = h+ 1 folgt aus obiger Ungleichungskette

lim infk→∞

Eη(J + tk − r) ≥ b, r ≥ a.

Als nächstes kann man aus der Identität δ0 = (δ0 − µ) ∗ Eη schlieÿen, dass

1 =

∫ tk

0

µ(tk − x,∞)Eη(dx) ≥∑n≥1

µ(na,∞)Eη(J + tk − na).

Mit k →∞ sowie obiger Abschätzung und Fatou's Lemma ergibt sich 1 ≥ b∑

k≥1 µ(na,∞).

Nachdem diese Summe laut Lemma 2.4 aus [1] divergiert folgt b = 0.

22

Page 23: Random Walks and Renewal Theory - FAMsgerhold/pub_files/sem15/s...He epratse this pressco n times. I quirere the probability that after these n stretches he is at a distance etweben

3 Renewal Theory - Erneuerungstheorie

3.3 Die Erneuerungsgleichung

All diese vorangegangene Theorie kann nun verwendet werden, um die Erneuerungs-

gleichung F = f + F ∗ µ, die oftmals in der Anwendung eine Rolle spielt, genauer zu

betrachten. Die Faltung F ∗ µ ist hier deniert als

(F ∗ µ) =

∫ t

0

F (t− s)µ(ds), t ≥ 0,

wenn das Integral auf der rechten Seite existiert.

Unter passenden Regularitätsbedingungen hat die Erneuerungsgleichung die einzige Lö-

sung F = f ∗ µ, wobei µ das Erneuerungsmaÿ∑

n≥0 µ∗n bezeichnet. Zusätzliche Bedin-

gungen versichern, dass die Lösung F bei ∞ konvergiert.

Ein genaues Statement verlangt aber nach weiterer Terminologie und Dention. Unter

einer regulären Treppenfunktion soll eine Funktion auf R+ gemeint sein, die die Form

ft =∑j≥1

aj1[j−1,j)t

h, t ≥ 0,

wobei h > 0 und a1, a2, ... ∈ R. Eine messbare Funktion f auf R+ heiÿt direkt Riemann-

integrierbar, falls λ|f | < ∞ und reguläre Treppenfunktionen f±n mit f−n ≤ f ≤ f+n und

λ(f+n − f−n )→ 0 existieren.

Lemma 3.7 (Erneuerungsgleichung). Man xiere eine Verteilung µ 6= δ0 auf R+ und

zugehörigem Erneuerungsmaÿ µ und lasse f eine lokal beschränkte und messbare Funktion

auf R+ sein. Dann hat die Gleichung F = f + F ∗ µ die eindeutige, lokal beschränkte

Lösung F = f ∗ µ. Falls f auch direkt Riemann-integrierbar ist und µ nichtarithmetisch

mit Erwartungswert c, dann gilt mit t→∞ auch Ft → c−1λf .

Beweis. Iteriert man die Erneuerungsgleichung erhält man

F =∑k<n

f ∗ µ∗k + F ∗ µn, n ∈ N.

Das Gesetz der groÿen Zahlen liefert µ∗n[0, t] → 0 bei n → ∞ für xiertes t ≥ 0, also

für lokal beschränkte F bekommt man F ∗ µ∗n → 0. Falls sogar f lokal beschränkt ist,

dann gilt mit voriger Iteration und Fubini's Theorem

F =∑k≥0

f ∗ µ∗k = f ∗∑k≥0

µ∗k = f ∗ µ.

23

Page 24: Random Walks and Renewal Theory - FAMsgerhold/pub_files/sem15/s...He epratse this pressco n times. I quirere the probability that after these n stretches he is at a distance etweben

3 Renewal Theory - Erneuerungstheorie

Im Gegenzug gilt f + f ∗ µ ∗µ = f ∗ µ, was zeigt, dass F = f ∗ µ die gegebene Gleichung

löst.

Nun sei µ nichtarithmetisch. Falls f eine reguläre Treppenfunktion ist, dann gilt nach Satz

3.3 (Zweiseitiges Erneuerungstheorem, Blackwell, Feller und Orey) und mit dominierter

Konvergenz bei t→∞

Ft =

∫ t

0

f(t− s)µ(ds) =∑j≥1

ajµ((0, h] + t− jh)

→ c−1h∑j≥1

aj = c−1λf.

Im allgemeinen Fall führe man reguläre Treppenfunktionen f±n ein mit f−n ≤ f ≤ f+n

und λ(f+n − f−n )→ 0 und erkenne, dass

(f−n ∗ µ)t ≤ Ft ≤ (f+n ∗ µ)t, t ≥ 0, n ∈ N.

Lässt man t→∞ und dann n→∞ erreicht man Ft → c−1λf .

3.3.1 Ein Beispiel

Um das ganze noch zu veranschaulichen, sei anschlieÿend ein aus [11], Seite 134, ent-

nommenes Beispiel eines deterministischen Populationsmodells. Vorab, der Terminologie

von [11] folgend, sei noch die Denition einer Erneuerungsgleichung wiederholt.

Denition 3.8. Seien Z, G und h Funktionen über R+, wobei G die Verteilungsfunktion

eines endlichen Maÿes über R+ ist (d. h. G ist wachsend und limt→∞G(t) < ∞. Dann

heiÿt die Integralgleichung

Z(t) = h(t) +

∫ t

0

Z(t− s)dG(s), ∀t ≥ 0,

Erneuerungsgleichung.

Zum Beispiel kommend:

Seien t ∈ R und x > 0. Wir betrachten eine beliebige Population und sind dabei am

Wachstum von Weibchen in dieser Population interessiert. Es wird vorausgesetzt, dass

es tendenziell so viele Weibchen wie Männchen gibt, und damit wird nur die Anzahl von

Weibchen berücksichtigt.

Wir denieren die folgende Gröÿen:

24

Page 25: Random Walks and Renewal Theory - FAMsgerhold/pub_files/sem15/s...He epratse this pressco n times. I quirere the probability that after these n stretches he is at a distance etweben

3 Renewal Theory - Erneuerungstheorie

• Z(t): Rate von Weibchen-Geburten zur Zeit t, pro Zeiteinheit

• s(x): Überlebenswahrscheinlichkeit eines Weibchens zum Alter x

• β(x): Rate von Weibchen-Geburten eines überlebenden Weibchens zum Alter x,

pro Zeiteinheit

Damit gelten die folgenden Fakten. Es gibt Z(t)dt Weibchen-Geburten in (t, t + dt). Es

gibt β(x)dt Weibchen-Geburten in (t, t + dt) eines überlebenden Weibchens zum Alter

x.

Weiter denieren wir die folgende Gröÿe, t ∈ R und x ≥ 0:

• g(x) = s(x)β(x): Rate von Weibchen-Geburten eines beliebigen Weibchens (d. h.

überlebende oder nicht) zum Alter x, pro Zeiteinheit

Damit ist g(x)dx die Anzahl von Weibchen-Geburten eines beliebigen Weibchens zwi-

schen dem Alter x und x+ dx. Wir denieren noch das folgende Integral:

• G(x) =∫ x0g(y)dy: Anzahl Weibchen-Geburten eines beliebigen Weibchens zwi-

schen dem Alter 0 und x.

Daraus folgt

G(∞) := limx→∞G(x)

> 1, Populationszunahme,

= 1, Populationsausgleich,

< 1, Populationsabnahme

Das Ziel ist es, aus Z(t), ∀t ≤ 0, eine Prognose für Z(t), ∀t > 0, zu geben.

Z(t− x)dxs(x) ist die Anzahl überlebender Weibchen in (t− x− dx, t− x) geboren und

zur Zeit t. Z(t − x)dxs(x)β(x) ist die Rate von Weibchen-Geburten aller Weibchen in

(t− x− dx, t− x) geboren und zur Zeit t, pro Zeiteinheit.

Daraus folgt die Erneuerungsgleichung

Z(t) =

∫ ∞0

Z(t− x)s(x)β(x)dx

=

∫ ∞0

Z(t− x)s(x)β(x)dx+

∫ t

0

Z(t− x)s(x)β(x)dx

=

∫ ∞0

Z(−y)s(y + t)β(y + t)dy︸ ︷︷ ︸=h(t)

+

∫ t

0

Z(t− x)g(x)dx, ∀t > 0.

25

Page 26: Random Walks and Renewal Theory - FAMsgerhold/pub_files/sem15/s...He epratse this pressco n times. I quirere the probability that after these n stretches he is at a distance etweben

Literatur

Literatur

[1] Olav Kallenberg: Foundations of Modern Probability (1997)

[2] Norbert Kusolitsch: Maÿ- und Wahrscheinlichkeitstheorie, 2. Auage (2014)

[3] Rudolf Grübel: Kombinatorische Markov-Ketten,

unter http://www.stochastik.uni-hannover.de/fileadmin/institut/

pdf/preprintAktualisiert.pdf , Abfrage am 23.10.2015

[4] Daniel P. Heyman, Matthew J. Sobel: Stochastic Models in Operation Research

(Volume I): Stochastic Processes and Operating Characteristics

unter https://books.google.at/books?id=IcVlwPS0qCwC&dq=renewal+

theory&source=gbs_navlinks_s, Abfrage am 23.10.2015

[5] Zitat von Shizuo Kakutani, unter https://de.wikipedia.org/wiki/

Drunkard's_Walk, Abfrage am 05.12.2015

[6] https://en.wikipedia.org/wiki/Renewal_theory, Abfrage am 04.12.2015

[7] J. W. Pitman: Occupation Measures for Markov Chains unter http://www.

jstor.org/stable/1425817?seq=1#page_scan_tab_contents, Abfrage am

16.11.2015

[8] https://www.mathi.uni-heidelberg.de/~thaeter/stochastik08/

Irrfahrtnew.pdf, Abfrage am 28.11.2015

[9] Albrecht Irle: Wahrscheinlichkeitstheorie und Statistik: Grundlagen - Resultate

- Anwendungen unter https://books.google.at/books?id=-mGRLA9w6VYC&,

Abfrage am 28.11.2015

[10] Heinz Bauer: Maÿ- und Integrationstheorie unter https://books.google.at/

books?id=hQUGkuT7O60C&printsec=frontcover&source=gbs_ge_summary_

r&cad=0#v=onepage&q&f=false

[11] Riccardo Gatto: Stochastische Modelle der aktuariellen Risikotheorie: Ei-

ne mathematische Einführung unter https://books.google.at/books?id=

uf4fBAAAQBAJ

26

Page 27: Random Walks and Renewal Theory - FAMsgerhold/pub_files/sem15/s...He epratse this pressco n times. I quirere the probability that after these n stretches he is at a distance etweben

Abbildungsverzeichnis

Abbildungsverzeichnis

1 Münzwurf . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3

2 Drunkard's Walk . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4

3 Ein-Schritt-Wahrscheinlichkeit . . . . . . . . . . . . . . . . . . . . . . . . 4

4 Erneuerungsprozess . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5

27