Probability Inequalities - FAMsgerhold/pub_files/sem17/s_jovanovic.pdf · Das Thema der hier...

21
Technische Universit ¨ at Wien Seminararbeit Finanz-und Verischerungsmathematik Probability Inequalities Miloˇ s Jovanovi´ c betreut von Dr Stefan Gerhold Wien, 2. Juni 2017 ]

Transcript of Probability Inequalities - FAMsgerhold/pub_files/sem17/s_jovanovic.pdf · Das Thema der hier...

Page 1: Probability Inequalities - FAMsgerhold/pub_files/sem17/s_jovanovic.pdf · Das Thema der hier vorliegenden Seminararbeit ist Probability Inequalities.Hier werden vorgestelt und erkl

Technische Universitat Wien

Seminararbeit

Finanz-und Verischerungsmathematik

Probability Inequalities

Milos Jovanovic

betreut vonDr Stefan Gerhold

Wien, 2. Juni 2017

]

Page 2: Probability Inequalities - FAMsgerhold/pub_files/sem17/s_jovanovic.pdf · Das Thema der hier vorliegenden Seminararbeit ist Probability Inequalities.Hier werden vorgestelt und erkl

Contents

1 Vorwort 2

2 Moment-Ungleichungen im Zusammenhang mit einer oder zwei Variablen 32.1 Holdertype Ungleichungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32.2 Jensensche Ungleichung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42.3 Kimball Ungleichung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52.4 Freedman Ungleichung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62.5 Exponential Moment der oben abgeschnittenen Variablen . . . . . . . . . . . . . 7

3 Schatzung von Momenten der Summen von Zufallsvariablen 83.1 Elementare Ungleichungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83.2 Minkowski Ungleichung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93.3 Khintchine Ungleichung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103.4 Marcinkiewicz-Zygmund Ungleichung . . . . . . . . . . . . . . . . . . . . . . . . . 103.5 Doob Ungleichungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12

4 Ungleichungen im Zusammenhang mit assoziativen Variablen 144.1 Kovarianz von PQD Variablen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144.2 Wahrscheinlichkeit von Quadrant auf PA (NA) Folgen . . . . . . . . . . . . . . . 144.3 Maximal Partialsumme von PA Folge . . . . . . . . . . . . . . . . . . . . . . . . . 15

5 Ungleichungen uber Stochastiche Prozesse 175.1 Schatzung von Wahrscheinlichkeit des Supremum von Brownscher Bewegung . . 175.2 Schatzung von Wahrscheinlichkeit des Supremum von Poisson Prozess . . . . . . 19

6 Literaturverzeichnis 20

1

Page 3: Probability Inequalities - FAMsgerhold/pub_files/sem17/s_jovanovic.pdf · Das Thema der hier vorliegenden Seminararbeit ist Probability Inequalities.Hier werden vorgestelt und erkl

1 Vorwort

Das Thema der hier vorliegenden Seminararbeit ist Probability Inequalities.Hier werden vorgesteltund erklart wichtige Konzepte und Ungleichungen aus der Buch Probability Inequalities vonZhengan Lin und Zhidong Bai.Ich habe hier nur die Kapiteln 8-12 untersucht.Ungleichungen in Wahrscheinlichkeit sind nicht wichtig nur fur Wahrscheinlichkeitstheorie,sondernauch breite Anwendung in Finanz-und Versicherungsmathematik,als auch fur andere Gebieteder Mathematik,wie Statistik und Analysis haben.

2

Page 4: Probability Inequalities - FAMsgerhold/pub_files/sem17/s_jovanovic.pdf · Das Thema der hier vorliegenden Seminararbeit ist Probability Inequalities.Hier werden vorgestelt und erkl

2 Moment-Ungleichungen im Zusammenhang mit einer oderzwei Variablen

In diesem Kapitel werden wir mit einigen wichtigen Moment-Ungleichungen ,wie Holder,Cauchy-Schwarz und Jensen Ungleichung,beschaftigen. Folgende Moment-Ungleichungen sind mit derunbedingte Erwartungwert gegeben,aber sie sind auch richtig,wenn wir unbedingte mit derbedingte Erwartungswert tauschen.

2.1 Holdertype Ungleichungen

In der mathematichen Analysis gehort die Holdersche Ungleichung zusammen mit der MinkowskiUngleichung und der Jensenschen Ungleichung zu den fundamentalen Ungleichungen fur Lp

Raume

Satz (Holdersche Ungleichung). Fur p>1 und q>1 mit 1/q + 1/p = 1 gilt:

E|XY | ≤ (E|X|p)1p (E|Y |q)

1q

Beweis: Wir konnen annehmen,dass 0 < E|X|p, E|Y |q <∞. Ansonsten ware die Ungleichungtrivial.Wir wissen schon,dass − log(x) eine konvexe Fuktion auf (0,∞) ist,da fur a,b>0 gilt

− log(ap

p+bq

q) ≤ −1

plog ap − 1

qlog bq = − log ab

oder aquivalent :

ab ≤ ap

p+bq

q, 0 ≤ a, b ≤ ∞

dann folgt :

E(|X|/E(|X|p)1/p)E(|Y |/E(|Y |q)1/q)≤ 1

pE(|X|/E(|X|p)1/p)p + 1qE(|Y |/E(|Y |q)1/q)q

= 1p + 1

q = 1.

Spezialfall:

Fur p=q=2 erhalten wir Cauchy-Schwarz Ungleichung:

E|XY | ≤ (EX2)1/2(EY 2)1/2

Wir konnen auch eine Verallgemeinerung von Holdersche Ungleichung erhalten

Satz (Verallgemeinerte Holdersche Ungleichung).Fur 0 < p < 1 und q = −p/(1− p) gilt:

E|XY | ≥ (E|X|p)1/p(E|Y |q)1/q

Beweis: Fur X ′ = |XY |p , Y ′ = |Y |−p . Dann gilt mit der Holdersche Unglechung :

E|X|p = EX ′Y ′ ≤ (EX ′1/p)p(EY ′1/(1−p))1−p = (E|XY |)p(E|Y |q)1−p.

so wir habenE(|XY |)p ≥ E|X|p(E|Y |q)−(1−p)

Wenn wir p-te Wurzel ziehen erhalten wir die gewunschte Ungleichung.

3

Page 5: Probability Inequalities - FAMsgerhold/pub_files/sem17/s_jovanovic.pdf · Das Thema der hier vorliegenden Seminararbeit ist Probability Inequalities.Hier werden vorgestelt und erkl

2.2 Jensensche Ungleichung

Jensensche Ungleichung ist eine elementare Ungleichung fur konvexe und konkave Funktionen.Sie ist wegen ihrer Allgemeinheit Grundlage vieler bedeutender Ungleichungen, vor allem in derAnalysis und Informationstheorie.Da wir schon Ungleichungen in Wahrscheinlichkeitstheorie betrachten,werden wir in folgen-dem annehmen,dass (Ω,F ,P) ein Wahrscheinlichkeitsraum und X eine integrierbare,reelle Zu-fallsvariable ist.

Satz (Jensen Ungleichung). Sei g eine konvexe Funktion auf R.Angenommen,dass Erwartungswertevon X und g(X) existieren.Dann gilt :

g(EX) ≤ Eg(X)

Gleichung gilt fur strikt konvexe g ⇐⇒ X = EX f.s.

Beweis: Wir wissen,dass fur konvexe Funktion g und fur alle x,y gilt:

g(x) ≥ g(y) + (x− y)g′(y)

Sei x=X und y=EX,wir erhalten

g(X) ≥ g(EX) + (X − EX)g′(EX)

Die Erwartung ergibt die gewunschte Ungleicheit.Falls g strickt konvex ist,g’ ist steng monoton wachsend.Offensichtlich ist,wenn X=EX f.s =⇒Eg(X)=g(EX)Andererseits,wenn Eg(X)=g(EX),erhalten wir mit der obigen Ungleichung:

E(EX −X)g′(X) = 0 =⇒ E(EX −X)(g′(X)− g′(E(X)) = 0.

Was aber folgt,dass X=EX f.s.

Bemerkung: Eine Funktion f ist strikt konvex,wenn f ′′ > 0. (dh. dass f ′ streng monotonwachsend ist.)

Ich mochte jetzt zwei Folgen desr Jenschen Ungleichung vorhanden:

Monotonie der Lr-norm (Folge der Jensensche Ungleichung)Fur alle 0 < r ≤ s,

(E|X|r)1/r ≤ (E|X|s)1/s.Besonders,fur alle p> 0

E|X| ≤ (E|X|p)1/p.Beweis: Nehmen wir an,dass g(x) = |x|s/r und tausche X mit |X|r in der Jensensche Ungle-ichung.Dann haben wir:

(E|X|r)s/r ≤ E|X|srr = E|X|s.

Wenn wir die s-te Wurzel ziehen erhalten wir die gewunschte Ungleichung.Fur die zweite Un-gleichung machen wir dieselbe mit g(x) = |x|p.

Satz (aritmetisch-geometrische Ungleichung). Sei X eine nicht negative reelle Zufallsvariable,dann

EX ≥ expE(log x)

Diese Ungleichung folgt direkt aus der Jensen Ungleichung,wenn fur x > 0, g(x) = − log x(− log x ist eine konvexe Funktion.) setzen und fur x ≤ 0 , g(x) =∞ setzen.

4

Page 6: Probability Inequalities - FAMsgerhold/pub_files/sem17/s_jovanovic.pdf · Das Thema der hier vorliegenden Seminararbeit ist Probability Inequalities.Hier werden vorgestelt und erkl

Beispiel a1, ..., an sei eine Menge von positiven Zahlen.Interpretiert man diese Menge als

Merkmalraum einer Stochastiche Grosse X mit P(X=ai)=1

n, so ist E(X) = n−1

n∑i=1

ai das

arithmetische Mittel (AM) der ai .Da − lnx eine konvexe Funktion ist,folgt nach der JensenscheUngleichung :

− ln

(1

n

n∑i=1

ai

)≤ E(− lnX) = − 1

n

n∑i=1

ln ai = − ln

( n∏i=1

ai

)1/n

Der Ausdruck in eckigen Klammern ist das geometrische Mittel (GM) der ai;also gilt GM ≤AM .Ersetzt man ai durch 1/ai,schreibt sich die letztere Ungleichung wie folgt:

1

n

n∑i=1

1

ai≥

(n∏i=1

1

ai

)1/n

Oder aquivalent :

11n

∑ni=1

1ai

(n∏i=1

ai

)1/n

Der Ausdruck auf der linken Seite ist das harmonische Mittel (HM) der ai;ingesamt gilt also dieUngleichungskette:

HM ≤ GM ≤ AM.

Gleicheit besteht nur dann,wenn alle ai identisch sind.Allgemeiner gilt,dass das (gewichtete)Potenzmittel der Ordnung r:

mr =

(n∑i=1

wiari

)1/r

, wi ≥ 0,n∑i=1

wi = 1

eine monoton wachsende Funktion von r ist.Dabei entspricht wi = 1/n und r = 1 dem AM, r =−1 dem HM und r → 0 dem GM. (Letzteres zeigt man mittels der Regeln von De L’Hospital.)

2.3 Kimball Ungleichung

Seien u(x) und v(x) beide nicht wachsende oder beide nicht fallende Funktionen.Dann ist:

Eu(X)Ev(X) ≤ E(u(X)v(X))

Beweis: Wir verwenden die Hoeffding Lemma

Cov(u(X), v(X)) =

∫ ∫P (u(X) < s, v(X) < t)− P (u(X) < s)P (v(X) < t)dsdt (1)

Da u(x) und v(x) beide nicht wachsend oder beide nicht fallend,wir haben

P (u(X) < s, v(X) < t) = minP (u(X) < s), P (v(X) < t) ≥ P (u(X) < s)P (v(X) < t).

Zusammen mit (1) erhalten wir die gewunschte Ungleichung,da die Cov(u(X), v(X)) ≥ 0,wasist aquivalent zu E(u(X)v(X)) ≥ Eu(X)Ev(X).

5

Page 7: Probability Inequalities - FAMsgerhold/pub_files/sem17/s_jovanovic.pdf · Das Thema der hier vorliegenden Seminararbeit ist Probability Inequalities.Hier werden vorgestelt und erkl

2.4 Freedman Ungleichung

Sei X eine Zufallsvariable mit |X| ≤ 1, EX = 0 und σ2 = V ar(X), λ > 0,dann gilt :

exp(e−λ − 1 + λ)σ2 ≤ E exp(λX) ≤ exp(eλ − 1− λ)σ2

Beweis: Zuerst wollen wir die 2.(rechte) Ungleichung zeigen mit Hilfe von Taylorreiche-Entwicklung:

E exp(λX) = 1 +1

2λ2σ2 +

∞∑k=3

λk

k!EXk ≤ 1 +

1

2λ2σ2 +

∞∑k=3

λk

k!σ2

≤ exp(∞∑k=2

λk

k!σ2) = exp(σ2(eλ − 1− λ))

Jetzt wollen wir die erste Ungleichung zeigen.Wir setzen.dass :

g(λ) = E exp(λX)− exp(e−λ − 1 + λ)σ2

Es ist einfach zu prufen,dass :

g′(λ) = EXeλX − σ2(1− e−λ) exp(e−λ − 1 + λ)σ2

g′′(λ) = EX2eλX −(σ2e−λ − σ4(1− e−λ)2

)exp(e−λ − 1 + λ)σ2

Es ist zu bemerken,dass g(0) = g′(0) = g′′(0).Um zu zeigen,dass g(λ) ≥ 0, fur alle λ > 0,wirsollen nur,zeigen dass g′′(λ) ≥ 0, fur alle λ > 0.Bemerken wir,dass X ≥ 1 und EX2eλX − σ2e−λ = EX2

(eλX − e−λ

), ∀ λ > 0,wir sollen noch

nur zeigen dass:

σ2e−λ −(σ2e−λ − σ4(1− e−λ)2

)exp(e−λ − 1 + λ)σ2 ≥ 0.

Das ist aquivalent zu:

h(λ) ≡ exp(−σ2

(e−λ − 1 + λ

))−(

1− σ2(

1− e−λ)2eλ)

(2)

Wir erhalten einfach,dass:

h′(λ) = σ2(e−λ − 1

)exp

(−σ2

(e−λ − 1 + λ

))+ σ2

(eλ − e−λ

)≥ σ2(1− e−λ)

(1− exp(−σ2(e−λ − 1 + λ))

)wobei die letzte Schritt folgt,da e−λ − 1 + λ > 0,fr alle λ > 0. (2) folgt von oben und h(0) = 0.Dann ist die erste Ungleichung komplett.

6

Page 8: Probability Inequalities - FAMsgerhold/pub_files/sem17/s_jovanovic.pdf · Das Thema der hier vorliegenden Seminararbeit ist Probability Inequalities.Hier werden vorgestelt und erkl

2.5 Exponential Moment der oben abgeschnittenen Variablen

Satz. Sei X eine Zufallsvariable mit EX = 0 Sei a > 0 und 0 ≤ α ≤ 1.Dann fur alle t ≥ 0 wirhaben:

E exp(tXI(X ≤ a)) ≤ exp

(t2

2EX2 +

t2+αetaE|X|2+α

(α+ 1)(α+ 2)

)Beweis: Fur u ≤ u0 wir haben

eu − 1− u− 1

2u2 =

∫ u

0

∫ s

0(ew − 1)dwds ≤

∣∣∣∣∫ u

0

∫ s

0|w|αeu0dwds

∣∣∣∣=

|u|2+αeu0(α+ 1)(α+ 2)

Dann ist:

E exp(tXI(X ≤ a))

= 1 + tEXI(X ≤ a) + t2

2 EX2I(X ≤ a) +

t2+αetaE|X|2+α

(α+ 1)(α+ 2)

≤ 1 + t2

2 EX2 +

t2+αetaE|X|2+α

(α+ 1)(α+ 2)

≤ exp

(t2

2 EX2 +

t2+αetaE|X|2+α

(α+ 1)(α+ 2)

)

7

Page 9: Probability Inequalities - FAMsgerhold/pub_files/sem17/s_jovanovic.pdf · Das Thema der hier vorliegenden Seminararbeit ist Probability Inequalities.Hier werden vorgestelt und erkl

3 Schatzung von Momenten der Summen von Zufallsvariablen

Eigenschaften von Partialsummenfolge von Zufallsvariablen spielen eine große Rolle in Wahrschein-lichkeitstheorie.Daher ist die Schatzung von Momenten der Summen von Zufallsvariablen sehrwichtig in der Forschung von Abschatzung Methoden.In diesem Kapitel werden wir einigewichtigste Ungleichungen,wie Minkowski,Bahr-Esseen,Khintchine,Marcinkiewics-Zygmund-Berkholderund Doob Ungleichungen, vorstellen.

3.1 Elementare Ungleichungen

Sei X1, · · · , Xn Zufallsvariablen und Sn =

n∑i=1

Xi

cr-Ungleichung

E|Sn|r ≤ crn∑i=1

|Xi|r

,wobei cr = 1 fur 0 < r ≤ 1 oder nr−1 fur r > 1.Beweis: 1. Fall: r > 1 : Sei ξ Zufallsvariable,die in Wahrscheinlichkeit die Werte a1, · · · , anhat,dann

E|ξ| = 1

n

n∑i=1

|ai|, E|ξ|r =1

n

n∑i=1

|ai|r

Mit der Jensen’sche Ungleichung konnen wir einfach merken,dass

1

nr

(n∑i=1

|ai|

)r≤ 1

n

n∑i=1

|ai|r.

2. Fall: 0 < r ≤ 1.Das ist nur notwendig,wenn nicht alle a1, · · · , an gleich 0 sind.Dann ist

|ak|∑ni=1 |ai|

≤ |ak|r

(∑n

i=1 |ai|)rk = 1, · · · , n

Durch Hinzufugen aller Ungleichungen oben,konnen wir die gewunschte Ungleichung erhalten.

Spezialfall Sei 1 ≤ r ≤ 2.Falls X1, · · · , Xn unabhangige und symmetrische Zufallsvariblensind(dh.dass X gleiche Verteilung wie −X hat.),dann:

E|Sn|r ≤n∑i=1

E|Xi|r

Beweis: Fur n = 1 ist die Ungleichung trivial.Wir machen den Beweis mit der Induk-tion.Angenommen dass m fix ist und 1 ≤ m < n.Sei fm(t) stetige Funktion von Xm+1 (im All-gemein fm(t) = E[exp(itXm+1)|Sm]).Da Xi symmetrisch fur i = 1, · · · , n =⇒ fm(t) ∈ R.Dannhaben wir,dass

E[|Sm+1|r|Sm] = K(r)

∫1− cos(tSm)fm(t)

|t|r+1dt f.s

,wobei K(r) =Γ(r + 1)

πsin(

2).Aber

1− cos(tSm)fm(t)= (1− cos(tSm)) + (1− fm(t))− (1− cos(tSm))(1− fm(t))

8

Page 10: Probability Inequalities - FAMsgerhold/pub_files/sem17/s_jovanovic.pdf · Das Thema der hier vorliegenden Seminararbeit ist Probability Inequalities.Hier werden vorgestelt und erkl

≤ (1− cos(tSm)) + (1− fm(t))Dann ist

E(|Sm+1|r|Sm) ≤ K(r)

∫1− cos(tSm)

|t|r+1dt+K(r)

∫1− fm(t)

|t|r+1dt

= |Sm|r + E(|Xm+1|r|Sm).

Wenn wir noch Erwartungwerte reingeben,erhalten wir :

E|Sm+1|r ≤ E|Sm|r + E(|Xm+1|r)

. Dann ist die Ungleichung mit dem Induktion gezeigt.

3.2 Minkowski Ungleichung

Minkowski Ungleichung wird in unterschierdlichen Versionen formuliert,meißt fur den Folgen-raum `p sowie die Lebesque Raume Lp und Lp.Ich werde die Minkowski Ungleichung in Wahrschein-lichkeitstheorie vorstellen.

Satz (Minkowski Ungleichung).E∣∣∣∣∣∣n∑j=1

Xj

∣∣∣∣∣∣r1/r

≤n∑j=1

(E|Xj |r)1/r fur r ≥ 1;

E n∑j=1

|Xj |

r1/r

>

n∑j=1

(E|Xj |r)1/r fur 0 < r < 1.

.

Beweis: Es ist klar,dass wir nun der Fall n = 2 betrachten mussen.Sei r > 1.Mit der HolderUngleichung gilt :

E|X1 +X2|r = E(|X1 +X2||X1 +X2|r−1) ≤ E(|X1||X1 +X2|r−1) + E(|X2||X1 +X2|r−1)≤ ((E|X1|r)1/r + (E|X2|r)1/r)(E|X1 +X2|r)(r−1)/r.Dividieren beide Seite durch (E|X1 +X2|r)(r−1)/r erhalten wir:

E|X1 +X2|r

(E|X1 +X2|r)(r−1)/r≤ (E|X1|r)1/r + (E|X2|r)1/r,

was genau die erste Ungleichung ist.Ahnlich konnen wir die zweite Ungleichung mit der Hilfevon Verallgemeinerte Holdersche Ungleichung beweisen,die fur den Fall 0 < r < 1 gilt.

Satz.

E

n∑j=1

|Xj |

r

≥n∑j=1

E|Xj |r , fur r ≥ 1;

E

n∑j=1

|Xj |

r

<n∑j=1

E|Xj |r , fur 0 < r < 1.

9

Page 11: Probability Inequalities - FAMsgerhold/pub_files/sem17/s_jovanovic.pdf · Das Thema der hier vorliegenden Seminararbeit ist Probability Inequalities.Hier werden vorgestelt und erkl

Beweis: Wir sollen bemerken,dass fur r ≥ 1, |Xj |/

(∑n

k=1 |Xk|r)r−1 ≤ 1 ,∀j = 1, · · · , n.

Dann haben wir: ∑nj=1 |Xj |

(∑n

k=1 |Xk|r)1/r≥∑n

j=1 |Xj |r∑nk=1 |Xk|r

= 1,

was aber fuhrt zur erste Ungleichung.Die zweite Ungleichung konnen wir klar anschauen,da dieUnglechung oben die umgekehrte Richtung,wenn 0 < r < 1, hat.

Das Fall 1 ≤ r ≤ 2

Satz (Bahr-Essen Ungleicung). Sei 1 ≤ r ≤ 2 und seien X1, · · · , Xn die unabhangige Zu-vallsvariable.Dann gilt :

E

(∣∣∣∣∣n∑i=1

Xi

∣∣∣∣∣r)≤ (2− n−1)

n∑k=1

E(|Xk|r).

Das Fall r ≥ 2 :

Sei r ≥ 2 und X1, · · · , Xn die Martingaldifferenzenfolge.Dann ist:

E|Sn|r ≤ Crnr/2−1n∑j=1

E|Xj |r,

wobei Cr = (8(r − 1) max(1, 2r−3)).

3.3 Khintchine Ungleichung

Die Khintchin-Ungleichung,benannt nach Aleksandr Jakovlevich Khintchine,ist eine Ungleichungaus dem mathematischen Teilgebiet der Funktionalanalysis.Hier werden wir nur die Ungleichungfur die Wahrscheinlichkeitstheorie vorstellen.

Satz. Seien X1, · · · , Xn iid. Zufallsvariablen mit P (X1 = 1) = P (X1 = −1) = 12 und seien

b1, · · · , bn beliebige reelle Zahlen.Dann ∀r > 0∃ Konsanten 0 < Cr ≤ C ′r ,sodass:

Cr

n∑j=1

b2j

r/2

≤ E

∣∣∣∣∣∣n∑j=1

bjXj

∣∣∣∣∣∣r

≤ C ′r

n∑j=1

b2j

r/2

.

3.4 Marcinkiewicz-Zygmund Ungleichung

Satz. Sei r ≥ 1, X1, X2, · · · unabhangige Zufallsvariable mit E(Xn) = 0 fur n = 1, 2, · · · .Dannexistieren positive Konstanten ar ≤ br sodass

arE

k∑j=1

X2j

r/2

≤ E(|Sn|r) ≤ brE

k∑j=1

X2j

r/2

,

arE

∞∑j=1

X2j

r/2

≤ supn≥1

E(|Sn|r) ≤ brE

∞∑j=1

X2j

r/2

.

10

Page 12: Probability Inequalities - FAMsgerhold/pub_files/sem17/s_jovanovic.pdf · Das Thema der hier vorliegenden Seminararbeit ist Probability Inequalities.Hier werden vorgestelt und erkl

Beweis: Nach der cr-Ungleichung und Monotonie der Summe von Momenten haben wir

E(|Sn|r) <∞⇐⇒ E(|Xj |r) <∞ j = 1, · · · , n⇐⇒ E

k∑j=1

X2j

1/2 <∞.

Daher kann man davon ausgehen, dass diese wahr ist.Sei X ′n, n ≥ 1 eine i.i.d. mit Xn, n ≥ 1und X∗n = Xn −X ′n.Außerdem sei Vn, n ≥ 1 eine i.i.d Folge von Zufallsvariablen mit P (V1 =1) = P (V1 = −1) = 1

2 ,die unabhangig von Xn, X′n, n ≥ 1 ist.Da

E

n∑j=1

VjX∗j |V1, · · · , Vn, X1, · · ·Xn

=k∑j=1

VjXj ,

folgt fur jede naturliche Zahl n ≥ 1 ,dass∑k

j=1 VjXj ,∑k

j=1 VjX∗j

zwei-Term Martingal ist,was

zur ersten Ungleichung fuhrt

E

∣∣∣∣∣∣k∑j=1

VjXj

∣∣∣∣∣∣r

≤ E

∣∣∣∣∣∣k∑j=1

VjX∗j

∣∣∣∣∣∣ ≤ 2r−1E

∣∣∣∣∣∣k∑j=1

VjXj

∣∣∣∣∣∣r

+

∣∣∣∣∣∣k∑j=1

VjX′j

∣∣∣∣∣∣r = 2rE

∣∣∣∣∣∣k∑j=1

VjXj

∣∣∣∣∣∣r

. (3)

Verwenden wir die Khintchine Ungleichung auf E

= 2rE

∣∣∣∣∣∣k∑j=1

VjXj

∣∣∣∣∣∣r

|X1, X2, · · ·

,wir erhal-

ten

CrE

n∑j=1

X2j

r/2

≤ E

∣∣∣∣∣∣n∑j=1

VjXj

∣∣∣∣∣∣r

≤ C ′rE

n∑j=1

X2j

r/2

,

,was im Zusammenhang mit (3) folgt zu

CrE

n∑j=1

X2j

r/2

≤ E

∣∣∣∣∣∣n∑j=1

VjX∗j

∣∣∣∣∣∣r

≤ 2rC ′rE

n∑j=1

X2j

r/2

. (4)

Mit der Symmetrie von X∗j erhalten wir

E

∣∣∣∣∣∣n∑j=1

VjX∗j

∣∣∣∣∣∣r

= E

∣∣∣∣∣∣n∑j=1

X∗j

∣∣∣∣∣∣r

≤ 2rE

∣∣∣∣∣∣n∑j=1

Xj

∣∣∣∣∣∣r

.

Andererseits erhalten wir mit der Monotonie von der Summe von Momenten,dass :

E

∣∣∣∣∣∣n∑j=1

VjX∗j

∣∣∣∣∣∣r

= E

∣∣∣∣∣∣n∑j=1

X∗j

∣∣∣∣∣∣r

≥ E

∣∣∣∣∣∣n∑j=1

Xj

∣∣∣∣∣∣r

.

Wenn man diese 2 Ungleichungen in (4) einsetzt, ergibt sich die erste gewunschte Ungleichung,die die zweite sofort impliziert.

11

Page 13: Probability Inequalities - FAMsgerhold/pub_files/sem17/s_jovanovic.pdf · Das Thema der hier vorliegenden Seminararbeit ist Probability Inequalities.Hier werden vorgestelt und erkl

3.5 Doob Ungleichungen

Satz. Sei Yn,An, n ≥ 1 ein nichtnegative Submartingal.Dann :

E

max1≤j≤n

Yj

≤ e

e− 1(1 + E(Ynlog

+Yn)),

E

supn≥1

Yn

≤ e

e− 1(1 + sup

n≥1E(Ynlog

+Yn)),

und fur p > 1 ,

E

max1≤j≤n

Y pj

≤(

p

p− 1

)pEY p

n ,

E

supn≥1

Y pj

≤(

p

p− 1

)psupn≥1

EY pn .

Beweis: Wir sollen nur erste und dritte Ungleichung zeigen.Die zweite Ungleichung folgt ausder erste und die vierte aus der dritte.Sei Y ∗n = max

1≤j≤n.Fur eine Zufallsvariable X ≥ 0 mit E(Xp) < ∞ und fur Verteilungsfunktion

F (x),beim Verwendung des partielle Integration erhalten wir

E(Xp) = p

∫ ∞0

tp−1(1− F (t))dt, p > 0. (5)

Und somit unter verwendung der Doob Ungleichung (siehe [Lin,Bai] 6.5.a) erhalten wir

EY ∗n − 1 ≤ E(Y ∗n − 1)+ =

∫ ∞0

P (Y ∗n − 1 ≥ x)dx

≤∫ ∞0

1

x+ 1

∫Y ∗

n≥x+1YndPdx

= EYn

∫ Y ∗n−1

0

1

x+ 1dx = EYnlogY

∗n .

Wir brauchen folgende Elementare Ungleichung.Fur konstante a ≥ 0 und b > 0, a log b ≤a log+ a + be−1.Sei g(b) = log+ a + be−1.Dann g′′(b) = a/b2 > 0 und g′(ae) = e−1 − a/(ae) =0.Dann ist g(ae) = a log+ a−a log a ≥ 0 Minimum von g(b).Die Ungleichung ist gezeigt.Mit derAnwendenung von dieser Ungleichung,erhalten wir

EY ∗n − 1 ≤ EYn log+ Yn + e−1EY ∗n ,

von welche wir sofort die erste Ungleichung erhalten.Wenn p > 1,mit der Verwendung von (5),[Lin,Bai] 6.5.a, und die Holdersche Ungleichung,erhaltenwir:

EY ∗n = p

∫ ∞0

xp−1P (Y ∗n ≥ x)dx

≤ p∫ ∞0

xp−2∫Y ∗

n≥xYndPdx

12

Page 14: Probability Inequalities - FAMsgerhold/pub_files/sem17/s_jovanovic.pdf · Das Thema der hier vorliegenden Seminararbeit ist Probability Inequalities.Hier werden vorgestelt und erkl

= pEYn

∫ Y ∗n

0xp−2dx

=p

p− 1EYn(Y ∗n )p−1

≤ p

p− 1(EY p

n )1/p(EY ∗pn )(p−1)/p,

was aber folgt zum dritte Ungleichung.

13

Page 15: Probability Inequalities - FAMsgerhold/pub_files/sem17/s_jovanovic.pdf · Das Thema der hier vorliegenden Seminararbeit ist Probability Inequalities.Hier werden vorgestelt und erkl

4 Ungleichungen im Zusammenhang mit assoziativen Variablen

In diesem Kapitel werden wir andere Klasse von abhangige Variablen vorstellen.Zwei Zufallsvariablen X und Y sind positive Quadrant abhangig (PQD) (engl. positive quadrantdependent),wenn P (X > x, Y > y) ≥ P (X > x)P (Y > y), ∀x, y.Sie sind negative Quadrant abhangig (NQD),wenn P (X > x, Y > y) ≤ P (X > x)P (Y > y).Die Menge von n Zufallsvariblen X1, · · · , Xn nennt man positive assoziativ (PA),wenn fur eineKoordinatenweise nichtfallende Funktionen f und g aufRn, Cov(f(X1, · · · , Xn), g(X1, · · · , Xn)) ≥0 immer,wenn Kovarianz existiert.Die Menge nennt man negativ assoziativ,wenn fur zwei disjunkte Menge A,B ⊂ 1, · · · , nund fur nichtfallende Funktionen f auf RA und g auf RB, Cov(f(Xk, k ∈ A), g(Xj , j ∈ B)) ≤ 0.Eine unendliche Familie von Zufallsvariablen nennt man linear positive Quadrant abhangig

(LPQD),wenn fur disjunkte MengeA,B und positive a′js∑k∈A

akXk und∑j∈B

ajXj sind PQD.Analog

fur linear negative Quadrant abhangige Familie (LNQD).Die unendliche Familie von Zufallsvariablen nennt man positive (bzw. negative) assoziativ,wennjede endliche Teilmenge PA (bzw. NA) ist.Bemerkung 5.1: Klarerweise fur ein Paar von Zufallsvariablen PQD (bzw. NQD) ist aquivalentzu PA (bzw. NA).Fur eine Familie von Zufallsvariblen,aus PA (bzw. NA) folgt LQPD (bzw.NQPD).PQD kann in vielen Situationen eine sehr realistische Annahme sein. Denken von zB. Lebenser-wartung von Mannern und Frauen in verschiedenen Landern.Man wurde erwarten, dass diehohere Lebenserwartung fur Manner in einem Land mit einer hoheren Lebenserwartung furFrauen geht.Anwendung von PQD hat eine besondere Bedeutung in Finanz- und Versicherungs-gebiet.

4.1 Kovarianz von PQD Variablen

Satz. Wenn X und Y PQD (bzw. NQD) Zufallsvariablen sind,dann gilt

E(XY ) ≥ E(X)E(Y ) (bzw. E(XY ) ≤ E(X)E(Y )).

wenn die Erwartungswerte existieren.Die Gleichung gilt dann und genau dann,wenn X und Yunabhangig sind.

Beweis:Wir werden nur PQD Fall betrachten.F bezeichnet gemeinsame und FX , FY die Randverteilun-gen von X und Y .Dann haben wir,dass

E(XY )− E(X)E(Y ) =

∫ ∫(F (x, y)− FX(x)FY (y)dxdy,

,was aber gleich folgt zum unsere gewunschte Ungleichung.Jezt nehmen wir an,dass die Gleicheit gilt.Dann ist F (x, y) = FX(x)FY (y) f.u.Da die Verteilungs-funktionen rechtsstetig sind,dann ist offensichtlich,dass wenn 2 Verteilungsfunktionen gleich f.u.bzgl. Lesbequemaß sind,sie mussen uberall gleich sein.Dann sind X und Y unabhangig.

4.2 Wahrscheinlichkeit von Quadrant auf PA (NA) Folgen

Satz. Seien X1, · · · , Xn PA (bzw. NA) Zufallsvariablen, Yj = fj(X1, · · · , Xn) und sei fj einenicht fallende Funktion fur j = 1, · · · k.Dann gilt fur x1, · · · , xk

14

Page 16: Probability Inequalities - FAMsgerhold/pub_files/sem17/s_jovanovic.pdf · Das Thema der hier vorliegenden Seminararbeit ist Probability Inequalities.Hier werden vorgestelt und erkl

P

k⋂j=1

(Yj ≤ xj)

≥k∏j=1

P (Yj ≤ xj)

bzw. P

k⋂j=1

(Yj ≤ xj)

≤k∏j=1

P (Yj ≤ xj)

,

P

k⋂j=1

(Yj > xj)

≥k∏j=1

P (Yj > xj)

bzw. P

k⋂j=1

(Yj > xj)

≤k∏j=1

P (Yj > xj)

.

Beweis: Wir betrachten nur das PA Fall.Nach der Definiton sind Y1, · · · , Yk PA (da Xi PAsind).Sei Aj = Yj > xj.Dann ist Ij := I(Aj) nicht fallend in Yj und I1, · · · , Ik sind PA.Wiruntersuchen wachsende Funktionen f(t1, · · · tk) = t1 und g(t1, · · · tk) = t1, · · · tk.f(I1, · · · , Ik)und g(I1, · · · , Ik) sind PA und nach dem vorigen Satz (+Bemerkung 5.1 ) ist

E(I1, · · · , Ik) ≥ E(I1)E(I2, · · · , Ik).

Wenn wir dieser wieder verwenden erhalten wir

E(I1, · · · , Ik) ≥ E(I1) · · ·E(Ik).

Somit ist die zweite Undgleichung bewiesen.

Als fur die erste Teil des Beweises,untersuchen wir 1− Ij statt Ij .Sei f ′(t1, · · · tk) := 1− f(1−t1, · · · , 1 − tk) und g′(t1, · · · tk) := 1 − g(1 − t1, · · · , 1 − tk).Die beide Funktionen sind wach-send.Dann ist

Cov(f(1− I1, · · · , 1− Ik), g(1− I1, · · · , 1− Ik)) = Cov(f ′(I1, · · · , In), g′(I1, · · · , In)) ≥ 0.

Das impliziert die erste Ungleichung.

4.3 Maximal Partialsumme von PA Folge

Satz. Seien X1, · · · , Xn PA Zufallsvariablen mit Mittelwert gleich 0 und endliche Varianz.Seien

Sk =

k∑j=1

und Mn = max1≤k≤n

Sk.Dann gilt:

E(M2n) ≤ V ar(Sn)

Beweis: Definiere Kn := min0, X2 + · · ·+Xn, X3 + · · ·+Xn, Xn,Ln := maxX2, X2 + X3, · · · , X2 + · · ·Xn, Jn := 0, Ln und bemerken wir dass Kn = X2 +· · ·Xn − Jn eine nicht fallende Funktion von X ′js ist,sodass Cov(X1,Kn) ≥ 0.Dann

E(M2n) = E(X1 + Jn)2 = V ar(X1) + 2Cov(X1, Jn) + E(J2

n)

= V ar(X1) + 2Cov(X1, X2 + · · ·+Xn)− 2Cov(X1,Kn) + E(J2n)

15

Page 17: Probability Inequalities - FAMsgerhold/pub_files/sem17/s_jovanovic.pdf · Das Thema der hier vorliegenden Seminararbeit ist Probability Inequalities.Hier werden vorgestelt und erkl

≤ V ar(X1) + 2Cov(X1+, X2 + · · ·Xn) + E(L2n). (6)

Machen wir weiter mit Induktion fur n.Dann folgt,dass E(L2n) ≤ V ar(X2 + · · ·+Xn).Zussamen

mit (6) ist der Beweis fertig.

Satz. Sei s2n = E(S2n).Wir haben dann fur jede x ≥ 2

P max1≤j≤n

|Sj | ≥ xsn ≤ 2P|Sn| ≥ (x−√

2)sn

Beweis: Sei S∗n = max(0, S1, · · ·Sn) und 0 ≤ x1 < x2,

PS∗n ≥ x2 ≤ PSn ≥ x1+ PS∗n−1 ≥ x2, S∗n−1 − Sn > x2 − x1≤ PSn ≥ x1+ PS∗n−1 ≥ x2PS∗n−1 − Sn > x2 − x1≤ PSn ≥ x1+ PS∗n−1 ≥ x2E((S∗n−1 − Sn)2/(x2 − x1)2).

Wir haben hier die Tatsache,dass S∗n−1 und Sn − S∗n−1 PA sind (da be beide nicht fallendeFunktionen von X ′js sind) ,verwendet.Jeztz von dem vorigen Satz,ersetzen wir Xj beim Yj =−Xn−j+1.Das ergibt

E((S∗n−1 − Sn)2) = E(max(Y1, Y1 + Y2, · · · , Y1 + · · ·+ Yn)2) ≤ E(S2n).

Dann wir haben fur (x2 − x1)2 ≥√

2

PS∗n ≥ x2 ≤ (1− s2n/(x2 − x1)2)−1PSn ≥ x1. (7)

Beim addieren (7) zu analog Ungleichung,wo jede Xj ist durch −Xj ersetzt und wahlen x2 =xsn, x1 = (x−

√2)sn,erhalten wir gewunschte Ungleichung.

16

Page 18: Probability Inequalities - FAMsgerhold/pub_files/sem17/s_jovanovic.pdf · Das Thema der hier vorliegenden Seminararbeit ist Probability Inequalities.Hier werden vorgestelt und erkl

5 Ungleichungen uber Stochastiche Prozesse

In disem Kapitel werden wir einige wichtige Ungleichungen uber die Stochastische Prozessevorstellen.Zuerst errinern wir uns an der Definitionen von Brownsche Bewegung (Wiener Prozess)und Poisson Prozess.Ein Stochastischer Prozess W (t), t ≥ 0,definiert auf dem Wahrscheinlichkeitsraum (Ω,F , P ),heißtBrownsche Bewegung (oder Wiener Prozess) wenn:(i) ∀ ω ∈ Ω⇒ W (0, ω) ≡ 0 und ∀ 0 ≤ s ≤ t⇒ W (t)−W (s) ∈ N(0, t− s)(ii) W hat f.s. stetige Pfade(iii) fur 0 ≤ t1 ≤ t2 ≤ · · · ≤ t2n−1 ≤ t2n,die Inkremente W (t2)−W (t1), · · · ,W (t2n−1)−W (t2n)sind unabhangig.Ein Stochastischer Prozess N(t), t ≥ 0 heißt Poisson Prozess,wenn:∀ k ≥ 1 und ∀ 0 ≤ t1 ≤ t2 ≤ · · · ≤ tk, N(t1), N(t2)−N(t1), · · · , N(tk)−N(tk−1) unabhangigePoisson Zufallsvariablen mit Mittelwert t1, t2 − t1, · · · , tk − tk−1 sind.

5.1 Schatzung von Wahrscheinlichkeit des Supremum von Brownscher Be-wegung

Satz. ∀ x ≥ 0 gilt:

P

sup0≤s≤t

W (s) ≥ x

= 2PW (t) ≥ x,

P

inf

0≤s≤tW (s) ≤ −x

= 2PW (t) ≤ −x,

P

sup0≤s≤t

|W (s)| ≥ x≤ 2P|W (t)| ≥ x = 4PW (1) ≥ xt−1/2.

Beweis: Wir sollen nur die erste Gleichung zeigen,da die zweite Gleichung folgt aus der Sym-metrie der Brownsche Bewegung und dritte Ungleichung folgt aus der Kombination der erstezwei Gleichungen.Also wenn x = 0 ,die 2 Gleichungen und die Ungleichung gelten trivial.Sonehmen wir in unser Beweis an,dass x > 0.Zuerst beweisen wir das Reflektionsprinzip der Brownscher Bewegung.Sei W (s), 0 ≤ s ≤ t ≤ ∞eine Brownsche Bewegung, x ∈ R und S sei dei Stopzeit,dann ist W ′(s) auch eine BrownscheBewegung auf [0, t],wobei:W ′(s) = W (s),wenn 0 ≤ s ≤ S ∧ t und W ′(s) = 2W (S)−W (s),wenn S ∧ t < s ≤ t.Mit starke Markov Eigenschaft von der Brownscher Bewegung folgt,dass W (s), s > S ∧ t istunabhangig von W (k), k ≤ S ∧ t.Mit der Symmetrie der Brownscher BewegungW (S + s) −W (S), s ≥ 0 hat die gleiche Verteilung wie W (S) −W (S + s), s ≥ 0. Dannsind W und W ′ gleich verteilt.Jetzt wollen wir zum Beweis von die erste Gleichung zuruckkom-men.Offensichtlich haben wir:

P

sup0≤s≤t

W (s) ≥ x

= P

sup0≤s≤t

W (s) ≥ x; W (t) ≥ x

+ P

sup0≤s≤t

W (s) ≥ x; W (t) < x

Da aus W (t) ≥ x folgt sup

0≤s≤tW (s) ≥ x,wir haben :

P

sup0≤s≤t

W (s) ≥ x; W (t) ≥ x

= P (W (t) ≥ x) (8)

Mit dem Reflektionsprinzip haben wir dann

17

Page 19: Probability Inequalities - FAMsgerhold/pub_files/sem17/s_jovanovic.pdf · Das Thema der hier vorliegenden Seminararbeit ist Probability Inequalities.Hier werden vorgestelt und erkl

P

sup0≤s≤t

W (s) ≥ x; W (t) < x

= P

sup0≤s≤t

W ′(s) ≥ x; W ′(t) > x

= P (W (t) > x) (9)

Aus (8) und (9) gilt die erste Gleichung und damit ist unser Beweis fertig

Satz. Fur alle x > 0 gilt:

P

sup

0≤t≤1W (t) ≤ x

=

2√2π

∫ x

0e−u

2/2du,

4

π

(e−π

2/8x2 − 1

3e−9π

2/8x2)≤ P

sup

0≤t≤1|W (t)| < x

≤ 4

πe−π

2/8x2 .

Beweis: Die erste Gleichung folgt aus der erste Gleichung des voriges Satzes.Um die Ungle-ichung zu zeigen,sollen wir zuerst zeigen,dass

P

sup

0≤t≤1|W (t)| < x

=

1√2π

∞∑k=−∞

(−1)k∫ (2k+1)x

(2k−1)xe−t

2/2dt

Definiere τ0 := inft ≤ 1; |W (t)| > x und τ1 := inft ≤ 1; |W (t)| < −x.Mit dem Induktiondefiniere ζk := inft ∈ (τk, 1]; W (t > x) und τk+1 := inft ∈ (ζk, 1]; W (t) < −x,wobeiwir verwenden die Konvention inft ∈ ∅ = 2.Wir mussen bemerken,dass die beide τ undζ Stopzeiten sind. Sei K die Anzahl von der Uberschreitungen (jeweils von der oberen undunteren Schranke) (engl. crossings) von die Brownsche Bewegung W (t), t ∈ [0, 1] uber dasIntervall [−x, x].Dann :

P

sup

0≤t≤1|W (t)| < x

= PW (1) ∈ [−x, x] − P

sup

0≤t≤1|W (t)| ≥ x; W (1) ∈ [−x, x]

= PW (1) ∈ [−x, x] − 2P

sup

0≤t≤1|W (t)| ≥ x; W (τ0) = x, W (1) ∈ [−x, x]

= PW (1) ∈ [−x, x] − 2

∞∑k=0

P W (τ0) = x, K = k, W (1) ∈ [−x, x]

= PW (1) ∈ [−x, x] − 2∞∑k=0

(−1)kP W (τ0) = x, K ≥ k, W (1) ∈ [−x, x].

Mit dem Reflektionsprinzip (wobei Reflektion uber x bei ζk+2/2, · · · , ζ1 und Reflektion uber −xbei τk/2, · · · , τ1. ) wir haben :

P W (τ0) = x, K ≥ k, W (1) ∈ [−x, x] = P (W (1) ∈ [(2k + 1)x, (2k+)x]).

Dann ist die behauptete Identitat bewiesen durch

P (W (1) ∈ [(2k + 1)x, (2k+)x]) = P (W (1) ∈ [−(2k + 1)x,−(2k+)x]).

Dann definieren wir h,sodass h(t) = 1,wenn 0 < t < x;und h(t) = −1,wenn x < t < 2x ;h(t) = h(−t); h(t) = h(t+ x). Mit der Fourier Entwicklung wir haben:

18

Page 20: Probability Inequalities - FAMsgerhold/pub_files/sem17/s_jovanovic.pdf · Das Thema der hier vorliegenden Seminararbeit ist Probability Inequalities.Hier werden vorgestelt und erkl

h(t) =4

π

∞∑k=0

(−1)k

2k + 1cos

(2k + 1

2xπt

).

Bei was beweisen ist,wir haben

P

sup

0≤t≤1|W (t)| < x

=

1√2π

∞∑k=−∞

(−1)k∫ (2k+1)x

(2k−1)xe−t

2/2dt

=1√2π

∫ ∞−∞

h(t)e−t2/2 =

4

π

∞∑k=0

(−1)k

2k + 1

1√2π

∫ ∞−∞

e−t2/2 cos

((2k + 1)π

2xt

)dt

= 4π

∞∑k=0

(−1)k

2k + 1exp

−(2k + 1)2π2

8x2

.

wobei wir haben verwenden die Tatsache,dass

1√2π

∫ ∞−∞

e−t2/2 cos(αt)dt = e−α

2/2

Wahle nur der Term k = 0,dann haben wir die RHS Ungleichung,und beim 3 Term k = −1, 0, 1wir haben LHS Ungleichung.

Bemerkung: Die Serienentwicklung von P

sup

0≤t≤1|W (t)| < x

in der obigen Beweis ist selbst

eine wichtige Folgerung.

5.2 Schatzung von Wahrscheinlichkeit des Supremum von Poisson Prozess

Sei ψ(t) = 2h(t+ 1)/t2 mit h(t) = t(log t− 1) + 1,fur t > 0.

Satz. Es gilt

P

sup0≤t≤b(N(t)− t)±

√b

≥ x≤ exp

x2

(±x2√b

)fur alle x > 0 in ” + ” Fall und fur 0 ≤ x ≤

√b in ”− ” Fall.

Beweis: ∀ r > 0 , exp(±r(N(t) − t)), 0 ≤ t ≤ b sind beide Submartingale.Dann mit demstetigen Parameter von die Doob Ungleichung (siehe [LIN,BAI] 6.5.a)gilt:

P

sup0≤t≤b

(N(t)− t)± ≥ x

= infr>0

P

sup0≤t≤b

exp(±r(N(t)− t)) ≥ exp(rx)

≤ inf

r>0exp(−rx)E exp(±r(N(b)− b))

≤ infr>0

exp−rx+ b(e±r − 1)∓ rb = exp

−(x2/2b)ψ

(±xb

)Hier ist das Minimum durch Differenzierung der Exponent und losen erreicht.Jeztz ersetzen wirx durch x

√x und bekommen die gewunschte Ungleichung.

19

Page 21: Probability Inequalities - FAMsgerhold/pub_files/sem17/s_jovanovic.pdf · Das Thema der hier vorliegenden Seminararbeit ist Probability Inequalities.Hier werden vorgestelt und erkl

6 Literaturverzeichnis

[1] Zhengyan Lin und Zhidong Bai. Probability Inequalitites. Springer Berlin Heidelberg, 2010.

[2] Vladimir V. Petrov. Limit Theorems of Probability Theory:Sequences of Independent Ran-dom Variables. Oxford Science Publications, 1995.

[3] Lehmann E L. Some concepts of dependence. The Annals of Mathematical Statistics,1966.

[4] Norbert Kusolitsch. Maß- und Wahrscheinlichkeitstheorie: Eine Einfuhrung . Springer-Verlag, 2014.

[5] Irene Gijbels, Marek Omelka und Dominik Sznajder. Positive quadrant dependence testsfor copulas. The Canadian Journal of Statistics,2010.

20