Station are Prozesse und Ergodentheoriesgerhold/pub_files/sem15/s_waschmann.pdf · 1. Einleitung...

21
TU Wien Seminararbeit WS 15/16 Station ¨ are Prozesse und Ergodentheorie Autor: Daniel Waschmann Betreuer: Dr. Stefan Gerhold 29. Februar 2016

Transcript of Station are Prozesse und Ergodentheoriesgerhold/pub_files/sem15/s_waschmann.pdf · 1. Einleitung...

TU Wien

Seminararbeit WS 15/16

Stationare Prozesse undErgodentheorie

Autor: Daniel Waschmann

Betreuer: Dr. Stefan Gerhold

29. Februar 2016

Inhaltsverzeichnis

1 Einleitung 2

2 Begriffe und Definitionen 3

3 Der Ergodensatz von Birkhoff 4

4 Multivariate Ergodensatze und Zufallsmaße 9

5 Zerlegung in ergodische Komponenten 17

Literaturverzeichnis 20

1

1. Einleitung

Bei der Untersuchung einer Große in laufender Zeit treten besteht in der Regel eine ge-wisse Abhangigkeit der Werte. Unter der Annahme, die gemeinsame Verteilung der Wertebleibe unter zeitlicher Verschiebung gleich, lasst sich die Große mithilfe eines stationarenProzesses modellieren. Leider ist das Gesetz der Großen Zahlen nur im speziellen Fall ei-ner iid (independent, identical distributed) Folge an Zufallsgroßen anwendbar; sofern eineAbhangigkeit besteht, bekommt man keine Aussage uber die Konvergenz der Mittelwerte.

Die Ergodentheorie liefert auch in diesem Fall Konvergenzaussagen und findet daherbeispielsweise in der Zeitreihenanalyse, z.B. bei gewissen AR (Auto Regression) und MA(Moving Average) -Prozessen, Anwendung. Im Allgemeinen wird der Grenzwert eine Zu-fallsgroße sein, genauer ein bedingter Erwartungswert, im ergodischen Fall ist die Sig-maalgebra in der Bedingung trivial und der Grenzwert reduziert sich auf eine Konstante.In dieser Arbeit wird neben dem Ergodensatz von Birkhoff, sowie einigen stetigen undmultivarianten Verallgemeinerungen, auch die Moglichkeit der Zerlegung eines Prozessesin ergodische Komponenten (Zufallsmaße) vorgestellt.

Die meisten Satze sind allgemein fur eine Zufallsgroße ξ auf einem Raum (S,S) formu-liert. Man stelle sich ξ beispielsweise als diskreten Prozess (ξk)k∈N auf dem Folgenraum(S,S) = (R∞,B∞) vor.

2

2. Begriffe und Definitionen

- Eine Transformation auf einem Maßraum (S,S, µ) heißt maßerhaltend, fallsµ T−1 = µ.

- Die unter T invarianten Mengen bilden eine σ-Algebra, weiters mit I bezeichnet.

- θ(x0, x1, . . . ) := (x1, x2, . . .) bezeichnet den Shift-Operator.

- Eine Folge von Zufallsvariablen X = (Xn)n∈N heißt stationar, falls θ X d= X.

- π0(x0, x1, . . . ) := x0 bezeichnet die Projektion einer Folge auf ihr erstes Element.

- Zur vereinfachten Schreibweise sei EJ : ξ 7→ E[ξ | J ] und Jξ := ξ−1J fur Zufalls-großen ξ und σ-Algebren J .

3

3. Der Ergodensatz von Birkhoff

Definition 3.1. (Ergodische Transformation) Eine Transformation T auf einem Maß-

raum (S,S, µ) heißt ergodisch bzw. µ-ergodisch, falls T maßerhaltend ist und fur alleI ∈ I gilt: µ(I) ∈ 0, 1.

Je nach Betrachtungsweise sagt man auch µ ist T-ergodisch oder µ ist ein ergodischesMaß fur T. Einen stochastischen Prozess ξ = (ξ0, ξ1, . . . ) nennt man ergodisch, falls dasBildmaß θ-ergodisch ist. Bezeichnet (Ω,F ,P) den Wahrscheinlichkeitsraum von ξ, so istIξ im ergodischen Fall P-trivial.

Lemma 3.2.Vor.: Sei ξ eine Zufallsgroße und T eine messbare Transformation T auf (S,S).Beh.: Es gilt Tξ = ξ in Verteilung genau dann, wenn (T nξ) stationar ist. In diesem

Fall ist auch (f T nξ) fur beliebiges, messbares f stationar. Umgekehrt besitztjeder stationare Prozess so eine Darstellung.

Beweis. Sei Tξ = ξ. Es gilt

θ(f T nξ) = (f T n+1ξ) = (f T nTξ) = (f T nξ)

in Verteilung. Somit ist (f T nξ) stationar. Die Umkehrung ist trivial.Ist η = (η0, η1, . . . ) stationar, so gilt ηn = π0(θ

n η), wobei π0(x0, x1, . . . ) = x0.

Lemma 3.3.Vor.: Sei ξ eine Zufallsgroße in S mit Verteilung µ und T eine maßerhaltende Trans-

formation.Beh.: Dann ist ξ T-ergodisch genau dann, wenn (T nξ) θ-ergodisch ist. In diesem Fall

ist auch η = (f T nξ) θ-ergodisch fur beliebiges, messbares f.

Beweis. Fur messbares f : S → S ′ definiere F = (f T nξ)n∈N, also F T = θ F . IstI ⊂ (S ′)∞ θ-invariant, dann gilt T−1F−1I = F−1θ−1I = F−1I, also ist F−1I T-invariantin S.Setzt man ξ als ergodisch voraus, erhalt man P(η ∈ I) = P(ξ ∈ F−1I) ∈ 0, 1. Daherist η θ-ergodisch.Sei nun (T nξ)n∈N ergodisch. Definiere F = (T n)n∈N und A = s ∈ S∞ : sn ∈ I fur ein

4

T -invariantes I in S. Dann ist I = F−1A und A ist θ-invariant. Es folgt P(ξ ∈ I) =P((T nξ) ∈ A) ∈ 0, 1, d.h. ξ ist ergodisch.

Lemma 3.4. (Maximaler Ergodensatz ):

Vor.: Sei ξ = (ξk)k∈N eine stationare Folge von integrierbaren Zufallsgroßen und setzeSn = ξ1 + · · ·+ ξn.

Beh.: Dann ist

E[ξ11[supnSn>0]] ≥ 0 (3.1)

Beweis. Setze Mn = max(S1, . . . , Sn). Es gilt

Sk = ξ1 + Sk−1 θ ≤ ξ1 + (Mn θ)+, k = 1, . . . , n

Durch Maximumsbildung erhalt man Mn ≤ ξ1 + (Mn θ)+, und die Stationaritat von ξliefert

E[ξ11[Mn>0]] ≥ E[Mn − (Mn θ)+1[Mn>0]]

≥ E[(Mn)+ − (Mn θ)+] = 0.

Da Mn ↑ supnSn folgt wegen der Integrierbarkeit von ξ1 die Behauptung mit monotoner

Konvergenz.

Satz 3.5. (Ergodensatz von Birkhoff ):

Vor.: Sei ξ eine Zufallsvariable in S mit Verteilung µ, T eine maßerhaltende Transfor-mation und I die σ-Algebra der T -invarianten Mengen.

Beh.: Fur jede messbare Funktion f ≥ 0 auf S ist

limn→∞

1

n

n∑k=1

f(T kξ) = E[f(ξ)|Iξ] f.s. (3.2)

Fur f ∈ Lp gilt Lp-Konvergenz.

Beweis. Sei f ∈ L1, ε > 0 und setze ηk = f(T k−1ξ), k ≥ 0. Da E[η1|Iξ] eine T -invarianteFunktion von ξ ist, ist die Folge ζk = ηk−E[η1|ξ−1I] nach Lemma 3.2 stationar. Definiere

Sn =n∑k=1

ζk, Aε = lim supn

Snn> ε. Nach Lemma 3.4, und da Aε ∈ ξ−1I, gilt

0 ≤ E[(ζ1 − ε)1Aε1[supn

(Sn−nε)1Aε>0]] = E[(ζ1 − ε)1Aε ]

= E[E[ζ1|Iξ]1Aε ]− εP(Aε) = −εP(Aε),

5

woraus P(Aε) = 0 folgt. Da ε beliebig war, ist lim supn

Snn≤ 0. Selbiges angewendet auf

−Sn liefert lim infn

Snn≥ 0, also Sn

n→ 0 f.s.

Sei nun f ∈ Lp, p ≥ 1. Fur ein r > 0 liefert die Jensen-Ungleichung

E[1A‖1

n

n∑k=1

f(T kξ)‖p] ≤ 1

n

n∑k=1

E[‖f(T kξ)‖p]

≤ rpP(A) + E[‖f(ξ)‖p1‖f(ξ)‖>r],

wobei die rechte Seite fur P(A) → 0 und r → ∞ gegen 0 geht. Daher ist die Funktio-

nenfamilie ‖ 1n

n∑k=1

f(T kξ)‖p, n ∈ N gleichgradig integrierbar, woraus die Lp-Konvergenz

folgt.Zuletzt sei f ≥ 0 beliebig, setze E[f(ξ)|Iξ] = η∗. Auf η∗ <∞ gilt (2.2) f.s., fur η∗ =∞und r > 0 folgt wegen

lim infn→∞

1

n

n∑k=1

f(T kξ) ≥ limn→∞

1

n

n∑k=1

(min(f(T kξ), r)

= E[min(f(ξ), r)|Iξ]r→∞−−−→ η∗ f.s.

die Behauptung.

Es sei bemerkt, dass durch Zerlegung von f und Positiv- und Negativteil f+, f− dieAussage auch fur beliebige, messbare f gilt.Damit lasst sich nun das Gesetz der Großen Zahlen, sowie einige Verallgemeinerungenbeweisen:

Korollar 3.6. (Kolmogorov’s 2. Gesetz der großen Zahlen):

Vor.: Sei (Xn)n∈N eine Folge von unabhangig, identisch verteilten Zufallsgroßen auf(Ω,F ,P), deren Erwartungswert E[X1] existiert.

Beh.:

limn→∞

1

n

n∑i=1

Xi = E[X1] P− f.s. (3.3)

Beweis. Es ist Xi = π0(θkX). Eine iid Folge an Zufallsgroßen ist auch stationar, daher

gilt θ X d= X und es folgt

µ[θ−1A] = P[X−1θ−1A] = P[(θX)−1A] = P[X−1A] = µ[A].

Also ist θ maßerhaltend. Sei nun k ∈ N beliebig und I ∈ I, der σ-Algebra der θ-

invarianten Mengen. Wegen θkXd= X gilt

X−1I = (θkX)−1I ∈ σ(Xk, Xk+1, ...)

=⇒ X−1I ∈∞⋂j=1

σ(Xj, Xj+1, ...) =: S∞,

6

also ist IX ⊆ S∞. Nach dem 0–1 - Gesetz von Kolmogorov fur iid Folgen an Zufalls-großen [2, S. 98] ist S∞ P-trivial und damit auch IX . Da π0 messbar ist, folgt mit demErgodensatz von Birkhoff

1

n

n∑i=1

Xi =1

n

n∑i=1

π0(θkX)

n→∞−−−→ E[π0(X)|IX ] = E[X1].

Korollar 3.7.Vor.: Sei ξ eine Zufallsgroße in S mit Verteilung µ, T eine maßerhaltende Transfor-

mation, f und fm,k messbare Funktionen auf S.Beh.:

(i) Falls fm,km,k→∞−−−−−→ f fast sicher und sup

m,k‖fm,k‖ ∈ L1, dann gilt

limm,n→∞

1

n

n∑k=1

fm,k(Tkξ) = E[f(ξ)|Iξ] f.s. (3.4)

(ii) Falls fm,km,k→∞−−−−−→ f in Lp, p ≥ 0, so gilt die Konvergenz aus (i) in Lp.

Beweis. (i) Setze fm,k = fm,k − f , also fm,km,k→∞−−−−−→ 0, und gr = sup

m,k>r‖fm,k‖. Es gilt

lim supm,n→∞

‖ 1

n

n∑k=1

fm,k(Tkξ)‖ ≤ lim

n→∞

1

n

n∑k=1

gr(Tkξ) = E[gr(ξ)|Iξ]

nach Satz 3.5. Da gr → 0 und in L1 ist, folgt mit dominierter Konvergenz E[gr(ξ)|Iξ]→ 0f.s.(ii) Mit fm,k wie eben, der Minowski-Ungleichung und der Invarianz von µ gilt

‖ 1

n

n∑k=1

fm,k T k‖p ≤1

n

n∑k=1

‖fm,k‖p → 0.

7

Korollar 3.8. (Ergodensatz in stetiger Zeit):

Vor.: Sei ξ eine Zufallsgroße in S mit Verteilung µ, (Ts)s∈R+0

eine Familie an maßerhal-tenden Transformationen bzgl. µ auf S mit der Eigenschaft, dass Ts+t = TsTt.

Beh.: Fur jede messbare Funktion f ≥ 0 auf S gilt

limt→∞

1

t

t∫0

f(Tsξ)ds = E[f(ξ)|Iξ] f.s. (3.5)

Falls f ∈ Lp(µ), so gilt die Konvergenz auch in Lp.

Beweis. Sei Xs = f(Tsξ). Mit der Jensen-Ungleichung und dem Satz von Fubini folgt

E[|1t

t∫0

Xsds|p] ≤ E[1

t

t∫0

Xpsds] =

1

t

t∫0

E[Xps ]ds = E[Xp

0 ] <∞.

Weiters gilt

1

n

n∫0

f(Tsξ)ds =n∑k=0

1∫0

f(TsTkξ)ds, n ∈ N (3.6)

mit dem diskreten Shift T = T1, und die Konvergenz folgt mit dem Ergodensatz von

Birkhoff angewandt auf die Funktion g(x) =1∫0

f(Tsx)ds.

Um zu zeigen, dass der Grenzwert (3.5) entspricht, sei f ∈ L1 und wir fuhren die invarianteVersion

f(ξ) := limr→∞

lim supn→∞

1

n

r+n∫r

f(Tsξ)ds

ein, welche auch Iξ-messbar ist. Wegen der Stationaritat von Tsξ gilt EIξf(Tsξ) = EIξf(ξ)f.s. fur alle s ≥ 0. Mit der L1-Konvergenz und dem Satz von Fubini folgt

EIξf(ξ) = EIξ1

t

t∫0

f(Tsξ)ds −→ EIξf(ξ) = f(ξ).

Fur f ∈ Lp verfahre man wie in 3.7.

8

4. Multivariate Ergodensatze undZufallsmaße

Proposition 4.1. (Momenten-Ungleichung):

Vor.: Sei ξ = ξk eine stationare Folge von Zufallsgroßen, Sn =n∑k=1

, M = supn

Snn

und

p > 1.Beh.:

(i) E[|M |p] ≤ cE[|ξ1|p]]

(ii) E[|M | logm+ |M |] ≤ d(1 + E[|ξ1| logm+1+ |ξ1|]

fur Konstanten c, d > 0 und log+(x) = log(max(1, x))

Der Beweis benotigt eine Verallgemeinerung von Lemma 2.4.

Lemma 4.2. (Maximal-Ungleichung):

Vor.: Sei ξ = (ξk)k∈N stationar in L1.Beh.: Es gilt

rP[supn

(Sn/n) > 2r] ≤ E[ξ11[ξ1>r]], r > 0. (4.1)

Beweis. Sei r > 0 fest und setze ξrk = ξk1[ξk>r]. ξ sei auf dem Folgenraum R∞ definiertund wir bekommen mit ξk ≤ ξrk + r und An = Sn/n

An − 2r = An (ξ − 2r) ≤ An (ξr − r),

was impliziert, dass M − 2r ≤M (ξr − r). 10.4 angewandt auf die Folge ξr − r liefert

rP[M > 2r] ≤ rP[M (ξr − r) > 0]≤ E[ξr11[M(ξr−r)>0]]

≤ E[ξr1] = E[ξ11[ξ1>r]].

9

Beweis (Proposition 4.1 ): (i) Wir nehmen an, dass ξ1 ≥ 0 f.s. Mit Lemma 4.2, dem Satzvon Fubini sowie einiger Rechnung folgt

E[Mp] = pE[

M∫0

rp−1dr] = p

∫ ∞0

P [M > r]rp−1dr

≤ 2p

∞∫0

E[ξ11[2ξ1>r]]rp−2dr = 2pE[ξ1

2ξ1∫0

rp−2dr]

=2p

p− 1E[ξ1(2ξ1)

p−1] =2pp

p− 1E[ξp1 ].

(ii) Fur m = 0 gilt

E[M ]− 1 ≤ E[(M − 1)+] =

∞∫1

P[M > r]dr

≤ 2

∞∫1

E[ξ11[2ξ1>r]]r−1dr

= 2E[ξ1

2ξ∨1∫1

r−1dr] = 2E[ξ1 log+ 2ξ1],

und fur m > 0

E[M logm+ (M)] =

∞∫0

P[M logm+ (M) > r]dr

=

∞∫1

P[M > t](m logm−1 t+ logm t)dt

≤ 2

∞∫1

E[ξ11[2ξ1>t]](m logm−1 t+ logm t)dt

= 2E[ξ1

log+ 2ξ1∫0

(mxm−1 + xm)dx]

= 2E[ξ1(logm+ 2ξ1 +logm+1

+ 2ξ1m+ 1

)]

≤ 2e+ 4E[ξ1 logm+1+ 2ξ11[2ξ1 > e]]

≤ d(1 + E[logm+1+ ξ1]).

10

Im Folgenden sei L logm L(µ) die Menge aller messbaren Funktionen f mit∫|f | logm+ |f |dµ <

∞. Da |f | logd−1+ |f | ≤ |f |d, gilt der nachste Satz insbesondere fur f ∈ Ld(µ).

Theorem 4.3. (Multivariater Ergodensatz ):

Vor.: Sei ξ eine Zufallsgroße in S mit Verteilung µ, T1, . . . , Td maßerhaltende Trans-formationen auf S mit zugehorigen invarianten σ-Algebren I1, . . . , Id und setzeJk = ξ−1Ik.

Beh.: Dann gilt fur jedes f ∈ L logd−1 L(µ)

limn1,...,nd→∞

1

n1, . . . , nd

n1∑k1=1

· · ·nd∑kd=1

f(T k11 . . . T kdd ξ) = EJd . . .EJ1f(ξ) f.s. (4.2)

Beweis. Mittels Induktion. Fur d=1 folgt die Aussage aus Satz 3.5. (4.2) kann in der

Form 1n

n∑k=1

fmT kd+1 geschrieben werden, mit m = (n1, . . . , nd), und fm → EJd . . .EJ1 f .

Mit iterierter Anwendung der Momenten-Ungleichung 4.1 folgt supm‖fm‖ ∈ L1, also nach

Korollar 3.7

limm,n→∞

1

n

n∑k=1

fm T kd+1 = EJd+1EJd . . .EJ1 f (4.3)

Korollar 4.4.

Vor.: Sei J =d⋂

k=1

Jk und L1(ξ) die Menge aller integrierbaren, σ(ξ) - messbaren

Zufallsgroßen.Beh.: Falls die Transformationen aus Theorem 2.10 kommutieren, dann gilt

EJ1 . . .EJd = EJ auf L1(ξ) (4.4)

Beweis. Da damit auch T k11 , . . . , T kdd fur beliebigen k1, . . . , kd ∈ Z+ kommutieren, folgtaus dem multivariaten Ergodensatz

EJ1 · · ·EJdf(ξ) = EJp1 · · ·EJpdf(ξ), f.s. (4.5)

fur jede messbare Funktion f ≥ 0 auf S und Permutation p1, . . . , pd von 1, . . . , d. DerAusdruck in (4.5) ist Jk-messbar fur jedes k, daher auch J -messbar. Es gilt

E[(EJ1 · · ·EJdf(ξ))1A] = E[f(ξ)1A], A ∈ J ,

woraus die Behauptung folgt.

11

Theorem 4.5. (Monotoner, multivariater Ergodensatz ):

Vor.: Sei ξ eine Zufallsgroße in S mit Verteilung µ, (Ts)s∈Rd eine Familie an messbaren,maßerhaltenden Transformationen mit Ts+t = TsTt, I die zugehorige σ-Algebrader invarianten Mengen und B1 ⊂ B2 ⊂ . . . eine Folge an beschrankten, konve-xen Mengen in Bd mit r(Bn)→∞.

Beh.: Dann gilt fur jede messbare Funktion f ≥ 0 auf S

limn→∞

1

|Bn|

∫Bn

f(Tsξ)ds = E[f(ξ)|Iξ] f.s. (4.6)

Die Konvergenz gilt auch in Lp, falls f ∈ Lp.

Der Beweis benotigt einige Lemmata. Es bezeichne ∂εB die ε-Umgebung um den Randvon B.

Lemma 4.6.Vor.: Sei B ⊂ Rd konvex, ε > 0.Beh.:

(i) |B −B| ≤(2dd

)|B|

(ii) |∂εB| ≤ 2((1 + εr(B)

)d − 1)|B|

Lemma 4.7.Vor.: Seien B1 ⊂ B2 ⊂ · · · ⊂ Bm ∈ Bd beschrankt und konvex mit |B1| > 0, K ⊂ Bd

beschrankt, p : K → 1, . . . , n.Beh.: Dann existiert eine endliche Menge H ⊂ K sodass die Mengen Bp(x) + x, x ∈ H

disjunkt sind und |K| ≤(2dd

) ∑x∈H|Bp(x)|.

Beweis. Setze Cx = Bp(x) + x und bestimme x1, x2, . . . rekursiv wiefolgt: Fur gewahltex1, . . . , xj−1 sei xj ∈ K mit großtmoglichen p(x), sodass Cxi ∩ Cxj = ∅ fur i < j. DieKonstruktion bricht ab, falls kein solches xj mehr existiert.Fixiere ein y ∈ K. Nach der Konstruktion von H gilt Cx ∩ Cy 6= ∅ fur ein x ∈ H mitp(x) ≥ p(y), weshalb

y ∈ Bp(x) −Bp(y) + x ⊂ Bp(x) −Bp(x) + x. (4.7)

Damit ist K ⊂⋃x∈H

(Bp(x) −Bp(x) + x), und nach Lemma 2.13

|K| ≤∑x∈H

|Bp(x) −Bp(x)| ≤(

2d

d

)∑x∈H

|Bp(x)| (4.8)

12

Außerdem brauchen wir eine multivariate Version von Lemma 4.2. Die Mengenfunk-tion ηB =

∫B

f(Tsξ)ds in Theorem 4.5 ist ein stationares Zufallsmaß auf Rd, und die

Intensitat m von η, definiert uber die Relation E[η] = mλd, entspricht E[f(ξ)].

Definition 4.8.

ξ : Ω×Rd → R heißt Zufallsmaß auf Rd, falls ξ(ω,B) fur fixes ω ∈ Ω ein lokal-endlichesMaß in B und eine Zufallsgroße in ω fur jedes beschrankte B ∈ Bd ist.

Sei M(Rd) die Menge der lokal-endlichen Maße µ auf Rd. Dann kann ξ als ZufallsgroßeΩ → M(Rd) gesehen werden, M(Rd) versehen mit der σ-Algebra erzeugt von den Ab-bildungen µ 7→ µ(B), B ∈ B.

Definition 4.9.

Ein Zufallsmaß ξ heißt stationar, falls θsξ = ξ, wobei die Shift-Operatoren θs auf Rd

definiert sind als (θsµ)(B) = µ(B + s).

ξ = E[ξ1B|Iξ]/|B|, B ∈ B heißt sample intensity von ξ und ist im Falle von Stationaritatunabhangig von der Wahl von B. (I bezeichnet dabei die Menge aller Shift-invarianten,messbaren Mengen in M(Rd))

Lemma 4.10.Vor.: Sei ξ ein stationares Zufallsmaß auf Rd mit Intensitat m, B1 ⊆ B2 ⊆ . . . be-

schrankte , konvexe Mengen in Bd mit |B1| > 0.Beh.: Dann ist

rP[supk

(ξBk/|Bk|) > r] ≤ m

(2d

d

), r > 0. (4.9)

Beweis. Seien a, r > 0 sowie n ∈ N fest, definiere einen Prozess ν auf Rd sowie eineZufallsmenge K in Sa = x ∈ Rd | ‖x‖ ≤ a mit

ν(x) = infk ∈ N | ξ(Bk + x) > r|Bk|, x ∈ Rd,

K = x ∈ Sa | ν(x) ≤ n.

Nach Lemma 4.7 existiert eine endliche Menge H ⊆ K sodass Bν(x) + x, x ∈ H, disjunkt

sind und |K| ≤(2dd

) ∑x∈H|Bν(x)|. Mit b = sup

x∈Bn‖x‖ gilt

ξSa+b ≥∑x∈H

ξ(Bν(x) + x) ≥ r∑x∈H

|Bν(x)| ≥ r|K|(

2d

d

)−1.

Durch Erwartungswertbildung, dem Satz von Fubini sowie der Stationaritat von ν erhaltman

m

(2d

d

)|Sa+b| ≥ rE[|K|] = r

∫Sa

P[ν(x) ≤ n]dx

= r|Sa|P[maxk≤n

(ξBk/|Bk|) > r].

13

Die Behauptung folgt, indem man durch |Sa| dividiert, a→∞ und dann n→∞ schickt.

Fur das letzte Lemma seien einige Begriffe aus der Funktionalanalysis erwahnt.Ein Hilbertraum H ist ein (reeller oder komplexer) Vektorraum mit einem Skalarprodukt,der vollstandig bezuglich der vom Skalarprodukt induzierten Norm ist. Eine Kontraktionauf H ist definiert als ein linearer Operator T sodass ‖Tξ‖ ≤ ‖ξ‖ fur alle ξ ∈ H. Fur einenlinearen Unterraum M ⊆ H bezeichne M⊥ den Orthogonalraum und M den Abschlussvon M . Der adjungierte Operator T ∗ von T ist definiert uber die Relation 〈ξ, Tη〉 =〈T ∗ξ, η〉, mit ξ, η ∈ H.

Lemma 4.11. (invarianter Unterraum):

Vor.: Sei T eine Familie an Kontraktionen auf einem Hilbertraum H, N der T -invariante Unterraum und R der von ξ − Tξ | ξ ∈ H,T ∈ T aufgespanntelineare Unterraum.

Beh.: Dann ist N⊥ ⊆ R.

Beweis. Fur ξ⊥R gilt

〈ξ − T ∗ξ, η〉 = 〈ξ, η − Tη〉 = 0, T ∈ T , η ∈ H,

also T ∗ξ = ξ fur jedes T ∈ T . Wir haben 〈Tξ, ξ〉 = 〈ξ, T ∗ξ〉 = ‖ξ‖2, und mit derKontraktionseigenschaft von T folgt

0 ≤ ‖Tξ − ξ‖2 = ‖Tξ‖2 + ‖ξ‖2 − 2〈Tξ, ξ〉≤ 2 ‖ξ‖2 − 2 ‖ξ‖2 = 0,

was impliziert, dass Tξ = ξ. Damit ist R⊥ ⊆ N , also N⊥ ⊆ (R⊥)⊥ = R.

Beweis (Theorem 4.5 ): Sei f ∈ L1 und definiere

T sf = f Ts, An : g 7→ |Bn|−1∫Bn

T sg ds.

Sei ε > 0 beliebig. Nach Lemma 4.11 existiert eine messbare Zerlegung

f = f ε +∑k≤m

(gεk − T skgεk) + hε,

wobei f ε ∈ L2 fur alle s ∈ Rd T s-invariant ist, die Funktionen gεi beschrankt sind undE[|hε(ξ)] < ε. Wegen der Invarianz von f ε ist Anf

ε ≡ f ε. Mit Lemma 4.6 (ii) folgt furfestes k ≤ m∥∥An(gεk − T skgεk)

∥∥ ≤ (|(Bn + sk)4Bn|/|Bn|) ‖gεk‖≤ 2((1 + ‖sk‖ r(Bn)−1)d − 1) ‖gεk‖

n→∞−−−→ 0.

14

Lemma 4.10 liefert

rP[supnAn ‖hε(ξ)‖ ≥ r] ≤

(2d

d

)E[hε(ξ)] ≤

(2d

d

)ε, r > 0,

was impliziert, dass supnAn ‖hε(ξ)‖

P−→ 0 fur ε → 0. Es folgt lim infn

Anf(ξ) < ∞ f.s.,

und damit

(lim supn− lim inf

n)Anf(ξ) = (lim sup

n− lim inf

n)Anh

ε(ξ)

≤ 2 supnAn ‖hε(ξ)‖

P−→ 0.

Also geht die linke Seite f.s. gegen 0 und die Konvergenz folgt. Ist f ∈ Lp, so folgt dieLp-Konvergenz aus der gleichmaßigen Integrierbarkeit der Familie |Anf(ξ)|p, n ∈ N. Umzu zeigen, dass der Grenzwert (4.6) entspricht, verfahre man wie im Beweis von Korollar3.8 und erweitere die Konvergenz fur beliebige f ≥ 0 wie im Beweis von Satz 3.5.

Korollar 4.12.Vor.: Sei ξ ein stationares Zufallsmaß auf Rd und B1 ⊂ B2 ⊂ . . . eine Folge an

konvexen, beschranken Mengen in Bd mit r(Bn)→∞.

Beh.: Dann gilt ξ1Bn/|B| → ξ f.s., wobei ξλd = E[ξ|Iξ]. Falls ξ1[0,1]d ∈ Lp, gilt dieKonvergenz auch in Lp.

Das nachste Korollar zeigt, dass die Lp-Konvergenz in 4.5 und 4.12 auch unter schwacherenBedingungen gilt.Wir nennen Verteilungen µn asymptotisch invariant, falls ‖µn − µn ∗ δs‖

n−−→ 0 fur je-des s ∈ Rd, wobei ‖ · ‖ die Totalvariations-Norm bezeichnet. Eine Folge fn an Dichte-funktionen heißt asymptotisch invariant, falls λd|fn − θsfn|

n−−→ 0 fur jedes s ∈ Rd. Esist zu beachten, dass sich die Aussage in 4.5 auch als µnX → X schreiben lasst, mitµn = (1Bn · λd)/|Bn|, Xs = f(Tsξ) und X = E[f(ξ)|Iξ].

Korollar 4.13. (Mittelwert-Ergodensatz ):

Vor.: Sei p ≥ 1, X ein stationarer, messbarer Lp-wertigen Prozess auf Rd, µn asympto-tisch invariante Verteilungen, ξ ein stationares Zufallsmaß auf Rd mit endlichersample intensity und fn asymptotisch invariante Dichtefunktionen

Beh.:

(i) µnX → E[X|IX ] in Lp

(ii) ξfn → ξ in Lp

Eine Folge (cn)n∈N in R heißt subadditiv, falls cn+m ≤ cn + cm ∀ m,n ∈ N.

15

Lemma 4.14. (Subadditivitat):

Vor.: Sei c1, c2, · · · ∈ R eine subadditive Folge.Beh.: Dann ist

limn→∞

cnn

= infn

cnn∈ [−∞,∞).

Setzt man ξj,k = ηj+1 · · · + ηk fur eine stationare, integrierbare Folge an Zufallsvaria-blen (ηk)k∈N, so kovergiert ξ0,n/n f.s. in L1 nach dem Ergodensatz von Birkhoff . Einahnliches Ergebnis erhalt man fur subadditive, doppelt indizierte Folgen (ξj,k) die sta-

tionar bezuglich Shifts in beiden Indizes sind, also (ξj+1,k+1)d= (ξj,k). Die schwachere

Forderung

(ξk,2k, ξ2k,3k, . . . )d= (ξ0,k, ξk,2k, . . . ), k ∈ N, (4.10)

(ξk,k+1, ξk+1,k+2, . . . )d= (ξ0,1, ξ1,2, . . . ), k ∈ N, (4.11)

reicht hierfur aber aus.Wir nenne eine doppelt indizierte Folge ξj,k subadditiv, falls

ξ0,n ≤ ξ0,m + ξm,n, 0 < m < n.

Theorem 4.15. (Subadditiver Ergodensatz ):

Vor.: Sei (ξj,k) eine subadditive Folge an Zufallsvariablen, welche (2.12) und (2.13)erfullen, mit E[ξ+0,1] <∞.

Beh.: Dann konvergiert ξ0,n/n f.s. gegen eine Zufallsvariable ξ in [−∞,∞), mit E[ξ] =infnE[ξ0,n/n] = c. Falls c > −∞, so gilt die Konvergenz auch in L1. Ist die Folge

in (2.12) ergodisch, so ist ξ f.s. konstant.

Theorem 4.16. (Zufallsmatrizen):

Vor.: Sei Xk = (Xkij) eine stationare Folge an d × d Zufallsmatrizen, sodass Xij > 0

f.s. und E[| log(Xij)|] <∞, ∀i, j.Beh.: Dann konvergiert 1

nlog((X1 . . . Xn)ij) ∀i, j in L1 mit n→∞ und der Grenzwert

ist unabhangig von (i, j).

Fur Beweise von 4.12 bis 4.16 sei auf [1, S. 190-194] verwiesen.

16

5. Zerlegung in ergodischeKomponenten

Mit den Voraussetzungen von Satz 2.5, wobei S Borel sei, gilt mit η = P[ξ ∈ ·|Iξ]

L(ξ) = E[P[ξ ∈ ·|Iξ]] = E[η]. (5.1)

Außerdem ist

η(I) = P[ξ ∈ I|Iξ] = 1ξ∈I, I ∈ I.

Theorem 5.1.Vor.: Sei ξ eine Zufallsgroße in einem Borel-Raum S mit Verteilung µ und T =

Ts, s ∈ Rd eine messbare Gruppe von maßerhaltenden Transformationen aufS bezuglich µ, mit invarianter σ-Algebra I.

Beh.: Dann ist η = P[ξ ∈ ·|Iξ] f.s. invariant und ergodisch unter T .

Fur den Beweis fixieren wir eine aufsteigende Folge an konvexen Mengen Bn ∈ Bd mitr(Bn)→∞ und fuhren auf S die Wahrscheinlichkeitskerne

µn(x,A) :=1

|Bn|

∫Bn

1A(Tsx)ds, x ∈ S,A ∈ S (5.2)

sowie die damit verbundenen empirischen Verteilungen ηn := µn(ξ, ·) ein. Nach Theo-rem 2.12 gilt ηn f → η f fur jede beschrankte, messbare Funktion f auf S, wobeiη = P[ξ ∈ ·|Iξ]. Im Folgenden nennen wir eine Klasse C ⊂ S maßbestimend, falls jedesWahrscheinlichkeitsmaß auf S durch seine Werte auf C eindeutig bestimmt ist.

Lemma 5.2. (degenerierter Grenzwert):

Vor.: Sei A1, A2, . . . ∈ S eine Folge an maßbestimmenden Mengen, sodass ηnAk →P[ξ ∈ Ak] f.s. fur jedes k ∈ N.

Beh.: Dann ist ξ ergodisch.

Beweis. Nach Theorem 2.12 und mit der Voraussetzung gilt ηnAk → ηAk = P [ξ ∈ Ak]fur alle k ∈ N. Da jedes Ak maßbestimmend ist, folgt η = L(ξ) f.s. Fur jedes I ∈ I giltdaher

µ(I) = P[ξ ∈ I] = ηI = P[ξ ∈ I|Iξ] = 1I(ξ) ∈ 0, 1,

17

also ist ξ ergodisch.

Beweis (Theorem 2.22 ):Aufgrund der Stationaritat von ξ gilt fur jedes A ∈ S und s ∈ Rd

(η T−1s )A = P[Tsξ ∈ A|Iξ] = P[ξ ∈ A|Iξ] = ηA f.s. (5.3)

Da S Borel ist, folgt η T−1s = η f.s fur jedes s. Setze C = [0, 1]d und η =∫C

(η T−1s )ds.

Da η invariant unter Shifts in Zd ist, ist η invariant unter beliebigen Shifts. Es folgt

λd(s ∈ C : η T−1s = η) = 1 f.s.

und damit η = η f.s. Also ist η f.s. T -invariant. Sei nun A1, A2, . . . eine Folge an maß-bestimmenden Mengen in S (welche existiert, da S Borel ist). Mit ηnAk → ηAk furbeliebiges k gilt

η⋂k

x ∈ S : µn(x,Ak)→ ηAk = P[⋂k

ηnAk → ηAk|Iξ] = 1 f.s.

η ist ein f.s. T -invariantes Wahrscheinlichkeitsmaß auf S, daher lasst sich Lemma 2.23fur jedes ω ∈ Ω außerhalb einer P-Nullmenge anwenden. Es folgt, dass η ergodisch ist.

Das eben bewiesene Theorem zeigt also, dass mit (2.14) eine Zerlegung der Verteilungµ einer Zufallsgroße ξ in ergodische Komponenten vorliegt. Das nachste Ergebnis wirdsein, dass diese Zerlegung eindeutig ist und die ergodischen Maße als Extrempunkte inder konvexen Menge an invarianten Maßen charakterisiert sind.Zur Wiederholung: ein linearer Raum M heißt konvex, falls tx+(1−t)y ∈M fur x, y ∈M ,t ∈ (0, 1). Wir sagen, m ∈ M ist extrem, falls fur beliebige m1,m2 ∈ M und t ∈ (0, 1)aus der Beziehung m = tm1 + (1− t)m2 folgt, dass m1 = m2 = m. Zu jeder Menge M anMaßen auf (S,S) bezeichneM die σ-Algebra erzeugt durch die Auswertungs-AbbildungenπB : µ→ µ(B), µ ∈M , B ∈ S.

Theorem 5.3.Vor.: Sei T = Ts : s ∈ Rd eine messbare Gruppe an Transformationen auf einem

Borel-Raum S.Beh.: Dann bilden die T -invarianten Verteilungen auf S eine konvexe Menge M , dessen

Extrempunkte den ergodischen Maßen in M entsprechen. Außerdem besitzt jedesMaß µ ∈ M eine eindeutige Darstellung µ =

∫m ν(dm), mit ν eingeschrankt

auf die Menge der ergodischen Maße.

Beweis. M ist offensichtlich konvex, und nach Theorem 2.22 besitzt jedes µ ∈ M eineDarstellung µ =

∫m ν(dm), wobei ν ein Wahrscheinlichkeitsmaß auf der Menge der

ergodischen Maße in M ist. Um die Eindeutigkeit von ν zu zeigen, sei η = µ[·|I] eineregulare, bedingte Wahrscheinlichkeit auf S. Es gilt µnA → ηA (µn aus (2.15)) nachTheorem 2.12, und fur jede Folge A1, A2, . . . in S haben wir

m⋂k

x ∈ S : µn(x,Ak)→ η(x,Ak) = 1 ν − f.s.

18

Dieselbe Beziehung gilt fur η(x,Ak) ersetzt durch mAk, da ν auf die ergodischen Maße inM beschrankt ist. Sind die Ak maßbestimmend, so folgt mx : η(x, ·) = m = 1 ν − f.s.,und fur jedes A ∈M gilt

µη ∈ A =

∫mη ∈ Aν(dm) =

∫1A(m)ν(dm) = νA.

Also ist ν = µ η−1.Um die Aquivalenz von Ergodizitat und Extremitat zu zeigen, sei µ ∈ M mit µ =∫m ν(dm). Angenommen µ ist extrem, aber nicht ergodisch. Dann ist ν nichtdegene-

riert, und es existieren ν1⊥ν2 sowie c ∈ (0, 1) mit ν = cν1 + (1 − c)ν2. Da µ extrem ist,gilt

∫m ν1(dm) =

∫m ν2(dm), und wegen der Eindeutigkeit der Darstellung ν1 = ν2.

Also ist µ ergodisch.Sei nun µ als ergodisch, aber nicht extrem angenommen. Es gilt ν = δµ und es existierenc ∈ (0, 1), µ1, µ2 mit µ = cµ1 + (1 − c)µ2. Wenn µi =

∫m νi(dm) fur i = 1, 2, dann ist

δµ = cν1 + (1 − c)ν2 aufgrund der Eindeutigkeit der Darstellung. Das ist nur moglich,wenn ν1 = ν2 = ν, und damit µ1 = µ2 = µ. Daher ist µ extrem.

19

Literaturverzeichnis

[1] O. Kallenberg. Foundations of Modern Probability (Second Edition). Springer, 2002.

[2] N. Kusolitsch. Maß- und Wahrscheinlichkeitstheorie. Springer Spektrum, 2014.

20