Stochastische Prozesse II: Stochastische Analysis · Dabei ist das erste Integral auf der RS von in...

30
Hans Daduna SS 2007 Department Mathematik der Universit¨ at Hamburg Stochastische Prozesse II: Stochastische Analysis 1 Einf¨ uhrende Beispiele 1.1 Analysis: Differentialgleichungen Problem 1.1 Seien 1 stochastische Prozesse A =(A(t) : (Ω, F ,P ) (R, B): t 0), B =(B(t) : (Ω, F ,P ) (R, B : t 0), mit “hinreichend glatten Pfaden” gegeben und eine Zufallsvariable c : (Ω, F ,P ) (R, B). Dann kann f¨ ur alle ω Ω die “Differentialgleichung mit zuf¨alligen Koeffizienten” ˙ X(t, ω)= A(t, ω)X(t, ω)+ B(t, ω), X(0)= c(ω) pfadweise gel¨ost werden und definiert wieder einen stochastischen Prozess X =(X(t) : (Ω, F ,P ) (R, B): t 0). Problem 1.2 Sei eine “hinreichend glatte” Funktion f : [0, ) × R 2 R gegeben, sowie ein stochastischer Prozess A =(A(t) : (Ω, F ,P ) (R, B): t 0), mit “hinreichend glatten Pfaden” und eine Zufallsvariable c : (Ω, F ,P ) (R, B). (a) Dann kann f¨ ur alle ω Ω die “Differentialgleichung mit zuf¨alliger St¨orung” A ˙ X(t, ω)= f (t, X(t, ω),A(t, ω)), X(0)= c(ω) pfadweise gel¨ost werden und definiert wieder einen stochastischen Prozess X =(X(t) : (Ω, F ,P ) (R, B): t 0). (b) H¨angt A(t, ω) nicht von t ab, so spricht man auch von einer “Differentialgleichung mit zuf¨alligem Para- meter”. (c) Formal kann auch Problem 1.1 hier subsummiert werden, wenn die St¨orung mehrdimensional sein darf. 1 Der Text beruht in wesentlichen Teilen auf dem Buch von J. Michael Steele: Stochastic Calculus and Financial Applications, Springer New York 2001. Einige Beispiele sind ¨ ubernommen aus dem Buch von Arnold [Arn73]. Die vorliegende Version beruht auf im SS 2006 als Kursunterlagen erstellten handschriftlichen Texten, welche von Dennis Paulin in LaTeX gesetzt wurden. 1

Transcript of Stochastische Prozesse II: Stochastische Analysis · Dabei ist das erste Integral auf der RS von in...

Hans Daduna SS 2007Department Mathematik der Universitat Hamburg

Stochastische Prozesse II: Stochastische Analysis

1 Einfuhrende Beispiele

1.1 Analysis: Differentialgleichungen

Problem 1.1 Seien 1 stochastische Prozesse

A = (A(t) : (Ω,F , P )→ (R,B) : t ≥ 0),

B = (B(t) : (Ω,F , P )→ (R,B : t ≥ 0),

mit “hinreichend glatten Pfaden” gegeben und eine Zufallsvariable

c : (Ω,F , P )→ (R,B).

Dann kann fur alle ω ∈ Ω die “Differentialgleichung mit zufalligen Koeffizienten”

X(t, ω) = A(t, ω)X(t, ω) +B(t, ω), X(0, ω) = c(ω)

pfadweise gelost werden und definiert wieder einen stochastischen Prozess

X = (X(t) : (Ω,F , P )→ (R,B) : t ≥ 0).

Problem 1.2 Sei eine “hinreichend glatte” Funktion

f : [0,∞)× R2 → R

gegeben, sowie ein stochastischer Prozess

A = (A(t) : (Ω,F , P )→ (R,B) : t ≥ 0),

mit “hinreichend glatten Pfaden” und eine Zufallsvariable

c : (Ω,F , P )→ (R,B).

(a) Dann kann fur alle ω ∈ Ω die “Differentialgleichung mit zufalliger Storung” A

X(t, ω) = f(t,X(t, ω), A(t, ω)), X(0, ω) = c(ω)

pfadweise gelost werden und definiert wieder einen stochastischen Prozess

X = (X(t) : (Ω,F , P )→ (R,B) : t ≥ 0).

(b) Hangt A(t, ω) nicht von t ab, so spricht man auch von einer “Differentialgleichung mit zufalligem Para-meter”.(c) Formal kann auch Problem 1.1 hier subsummiert werden, wenn die Storung mehrdimensional sein darf.

1Der Text beruht in wesentlichen Teilen auf dem Buch von J. Michael Steele:Stochastic Calculus and Financial Applications, Springer New York 2001.Einige Beispiele sind ubernommen aus dem Buch von Arnold [Arn73].Die vorliegende Version beruht auf im SS 2006 als Kursunterlagen erstellten handschriftlichen Texten, welche von Dennis Paulinin LaTeX gesetzt wurden.

1

Problem 1.3 (a) Das deterministische Anfangswertproblem

x(t) = f(t, x(t)), x(0) = c, t ≥ 0

ist fur stetiges

f : [0,∞)× R→ R

aquivalent zu einer Integralgleichung

x(t) =∫ t

0

f(s, x(s))ds+ c, t ≥ 0.

Dabei ist das Integral als Riemann-Integral zu interpretieren, was bei hinreichend glatter Problemstellung aqui-valent ist zur Berechnung von

x(t) =∫ t

0

f(s, x(s))λ1(ds) + c, t ≥ 0.

(b) Formal kann die Aufgabenstellung aus Problem 1.2(a) hier eingeordnet werden: Sei ω ∈ Ω fixiert und

f(s, ·) := f(s, ·, A(s, ω))

mit der in Problem 1.2 definierten Funktion f(·, ·, ·). Dann ist mit dem hier definierten f(·, ·) eine entsprechendeAquivalenz zu finden.

1.2 Analysis: Integration

Eine vollig andere Problemstellung als mit den bisherigen Integralgleichungen ergibt sich wie folgt.

Problem 1.4 Seien stochastische Prozesse

f = (f(t) : (Ω,F , P )→ (R,B) : t ≥ 0),

Y = (Y (t) : (Ω,F , P )→ (R,B : t ≥ 0),

mit hinreichend “glatten Pfaden” gegeben und eine Zufallsvariable

c : (Ω,F , P )→ (R,B).

Dann suchen wir eine Losung des stochastischen Integrals

X(t) =

t∫0

f(t)dY (t) + c

bzw. pfadweise geschrieben

X(ω, t) =

t∫0

f(ω, t)Y (ω, dt) + c(ω), ω ∈ Ω. (1)

2

Beispiel 1.5 Y sei ein Poisson-Prozess mit cadlag Pfaden. Dann ist fur alle ω ∈ Ω

Y (ω, ·) : [0,∞)→ R, t→ Y (ω, t)

eine maßdefinierende Funktion, also isoton und rechtsstetig. Sei S = (Si : i ∈ N) der zu Y gehorige Erneue-rungsprozess.Hat dann der Prozess f messbare Pfade, so kann das Integral (1) ω-weise berechnet werden:

X(ω, t) =

t∫0

f(ω, t)Y (ω, dt) =N(t,ω)∑i=1

f(ω, Si(ω)) ω ∈ Ω.

Interpretation: Das von Y (ω, ·) definierte Maß auf (R+,B+) gewichtet das Integral bzw. die Summe der f(ω, t).

Beispiel 1.6 Sei a : (Ω,F , P )→ (R,B) eine Zufallsvariable und fur ω ∈ Ω sei

Y (ω, ·) : R+ → R, t→ a(ω) · t.

Also ist Y (ω, ·) fur jedes ω wieder maßdefinierende Funktion und das zu Y (ω, ·) gehorige Maß ist danna(ω)λ1

[0,∞), bis auf den Faktor a(ω), also das Lebesgue-Maß. Es ergibt sich

X(ω, t) = a(ω)

t∫0

f(ω, t)λ1(dt),

und wir sind wieder bei einem Problem, das an Problem 1.3 erinnert.

Problem 1.7 Welche Pfadeigenschaften von Y liefern eine problemlose Adaption des Verfahrens der ublichenIntegration in (1) aus Problem 1.4 ? Zunachst zwei offensichtliche Falle:

1. Y (ω, ·) ist fur jedes ω ∈ Ω eine maßdefinierende Funktion, d.h. rechtsstetig, nicht fallend, f(ω, ·) meßbar.

2. Es existiert fur alle ω ∈ Ω eine Zerlegung Y (ω, ·) = Y(+)(ω, ·)−Y(−)(ω, ·), ω ∈ Ω, von Y wobei Y(+)(ω, ·)und Y(−)(ω, ·) maßdefinierende Funktionen sind. Dann ist fur meßbare f(ω, ·) problemlos zu berechnen

X(ω, t) =

t∫0

f(ω, t)Y (ω, dt) :=

t∫0

f(ω, t)Y(+)(ω, dt)−t∫

0

f(ω, t)Y(−)(ω, dt),

sofern nicht beide Summanden unendlich sind.

Man kann in den obigen Punkten 1. und 2. auf die Rechtsstetigkeit verzichten. Es gilt [Fic67][S. 76]:

1. Sei −∞ < a < b <∞, dann ist eine Funktion y : [a, b]→ R von endlicher Schwankung (auf [a, b]) genaudann, wenn gilt:es gibt ein Paar von Funktionen y(+), y(−) : [a, b] → R, welche monoton wachsend und beschrankt auf[a, b] sind, und eine Zerlegung definieren: y(x) = y(+)(x)− y(−)(x), x ∈ [a, b].

2. y : [a, b]→ R ist von endlicher Schwankung (auf [a, b]), wenn gilt:• Sei Z[a, b] die Menge der endlichen Zerlegungen von [a, b], d.h. z ∈ Z genau dann, wennes N = N(z) ∈ N und z = (x0, x1, ..., xN ) mit a = x0 < x1 < ... < xN−1 < xN = b gibt;• v(z) =

∑N(z)−1i=0 |y(xi+1) − y(xi)| ist der absolute Betrag der Zuwachse von y uber z. y hat endliche

Schwankung (Variation), falls supz∈Z[a,b]v(z) =:b∨ay(·) <∞ gilt.

b∨ay(·) ∈ [0,∞] heißt Totalvariation von y auf [a, b].

3

3. f : [a, b] → R sei stetig und y : [a, b] → R auf [a, b] von endlicher Schwankung. Dann existiert dasStieltjes Integral

b∫a

f(x)dy(x) , auch geschrieben

b∫a

f(x)y(dx)

Problem 1.8 Sei f = (f(t) : (Ω,F , P ) → (R,B) : t ≥ 0) ein Auszahlungsprozess. Die in [0, t] erfolgtenkumulativen Auszahlungen sind bei Realisierung von ω ∈ Ω gerade

X(ω, t) =

t∫0

f(ω, t)dt, t ≥ 0.

Die Auszahlungen sollen noch in Abhangigkeit von einem Kursverlauf gewichtet werden. Der Kursverlauf wer-de beschrieben durch einen Prozess W = (W (t) : (Ω,F , P ) → (R,B) : t ≥ 0). Dann sind die tatsachlichenAuszahlungen (in den verschiedenen Versionen der Darstellung in der Literatur - analog zu klassischen Inte-gralschreibweisen)

X(ω, t) =

t∫0

f(ω, t)W (ω, dt) =

t∫0

f(t)dW (t) =

t∫0

f(ω, t)dW (ω, t)

=

t∫0

f(t)dWt = . . . etc. ω ∈ Ω, t ≥ 0

Erfahrungsgemaß werden Kursverlaufe haufig durch einen Wiener Prozess (Brownsche Bewegung) gut model-liert. Damit haben wir das stochastische Integral bzw. die stochastische Differentialgleichung

X(t) = f(t)dW (t)

zu losen, die hier als andere Schreibweise fur die obige “Integralgleichung” zu lesen ist. Dies ist ein neuesProblem: W hat Pfade, deren Totalvariation auf jedem (endlichen) Intervall unendlich ist.

Problem 1.9 In Analogie zu Problem 1.3 (a) sind wir an der Losung der Integralgleichung

X(t) = c+

t∫0

f(s,X(s))dW (s)

fur einen Wiener Prozess W = (W (t) : t ≥ 0) interessiert, d.h. an der Losung der Stochastischen Differenti-algleichung

dX(t) = f(t,X(t))dW (t), X(0) = c

oder an einer allgemeineren Aufgabe

X(t) = c+

t∫0

g(s,X(s))ds+

t∫0

f(s,X(s))dW (s), t ≥ 0 (*)

mit der aquivalenten (per Definition!) Kurzschreibweise

dX(t) = g(t,X(t))dt+ f(t,X(t))dW (t), X(0) = c.

4

Dabei ist das erste Integral auf der RS von (∗) in der Regel als normales Riemann- oder Stieltjes-Integral pfad-weise berechnet worden. Fur das zweite Integral der RS mussen andere technische Moglichkeiten geschaffenwerden.

Definition 1.10 (Stieltjes-Integral) 1. f, y : [a, b]→ R beschrankt, a = x(n)0 < x

(n)1 < . . . x

(n)N(n) = b, n =

1, 2, . . . eine Folge von Zerlegungen, und λ(n) = max1≤i≤N(n)(x(n)i − x(n)

i−1),

ξ(n)i ∈ [x(n)

i , x(n)i+1], i = 0, 1, . . . , N(n)− 1,

4(n)y(x(n)i ) := y(x(n)

i+1)− y(x(n)i ), i = 0, 1, . . . , N(n)− 1

σ(n) :=N(n)−1∑i=0

f(ξ(n)i )4(n)y(x(n)

i ), n = 1, 2, . . . .

Falls fur λ(n) → 0 die σ(n) → σ ∈ (−∞,∞) konvergieren, so heißt

σ =

b∫a

f(x)y(dx) =

b∫a

f(x)dy(x)

das Stieltjes Integral von f in Bezug auf y.Anmerkung: σ ist nach Definition unabhangig von der Wahl der Zerlegungsfolgelimz(n):n∈N+,λ(n)→0σ

(n) = σ und der Wahl der Zwischenpunkte (ξ(n)i ).

2. Partielle Integration: f, y : [a, b] → R beschrankt sofern eines der in folgender Formel auftretendenIntegrale definiert ist (existiert!), so folgt die Existenz des anderen und es gilt:

b∫a

f(x)y(dx) = f(b)y(b)− f(a)y(a)−b∫a

y(x)f(dx).

Spezialfall: F,G : R→ R seien maßdefinierende Funktionen. Dann gilt:∫(a,b]

F (x)G(dx) = F (b)G(b)− F (a)G(a)−∫

(a,b]

F (x−)G(dx)

(BEHNEN/NEUHAUS[84], Beispiel 5.4.3).

2 Stochastisches Integral

Beispiel 2.1 Berechne:

b∫a

W (s)dW (s), −∞ < a < b < +∞,

wobei W = (W (t) : t ≥ 0) Standard Wiener Prozess ist. Als Stieltjes-Intgral hatten wir pfadweise zu berechnen

σ(n) =n∑i=1

W (ξ(n)i )(W (x(n)

i−1)−W (x(n)i ),

5

wobei a = x(n)0 < x

(n)1 < · · · < x

(n)n = b eine Zerlegung von [a, b] ist. Die Zerlegung ist dann zu verfeinern:

λ(n) = max1≤i≤n|x(n)i − x(n)

i−1| → 0. Durch direktes Ausrechnen erhalten wir fur vorgegebene Zerlegung undvorgegebene Zwischenpunkte ξi ∈ [xi−1, xi]:

σ(n) =12W (b)2 − 1

2W (a)2

− 12

n∑i=1

(W (xi)−W (xi−1))2 L2

−−−−−→λ(n)→0

b− a

+n∑i=1

(W (ξi)−W (xi−1))2 L2

−−−−−→λ(n)→0

?(∗)

+n∑i=1

(W (xi)−W (ξi))(W (ξi)−W (xi−1)) L2

−−−−−→λ(n)→0

0

Fur die Summe erhalten wir (∗)

E[n∑i=1

(W (ξi)−W (xi−1))2] =n∑i=1

(ξi − xi−1)

V ar[n∑i=1

(W (ξi)−W (xi−1))2] = 2n∑i=1

(ξi − xi−1)2 ≤ 2(b− a)λ(n) → 0

Wir erhalten also im Sinne der L2-Konvergenz:

limλ(n)→0(σ(n) −N(n)∑i=1

(ξ(n)i − ti−1)) =

12

(W 2(b)−W 2(a))− 12

(b− a)

Folgerung: Die RS ist konstant und unabhangig von den Zerlegungen und der Wahl der Zwischenpunkte. Aufder LS ist die Summe (offensichtlich) von der Wahl der Zwischenpunkte abhangig. Also muß es auch (in derGrenze) der (Limes der) σ(n)-Folge sein.Wahlen wir zum Beispiel: ξ(n)

i = (1 − α)xi−1 + αxi, α ∈ [0, 1], so ist die Summe auf der LS gerade α(b − a)und somit

σ(n) L2

−−−−−→λ(n)→0

12

(W (b)2 −W (a)2) + (α− 12

)(b− a) =: ((α))

b∫a

W (s)dW (s),

ein durch α ∈ [0, 1] parametrisiertes Integral.

Besonders attraktiv fur theoretische Untersuchungen und von besonderer Bedeutung in den Anwendungensind die beiden folgenden Integrale:

1. α = 12 : ((1

2 ))b∫a

W (s)dW (s) = 12 (W (b)2 −W (a)2) (Stratonovich-Integral)

Rechnen wir, “als ob” Stieltjes-Integration moglich ware und wenden partielle Integration an, so erhaltenwir:

b∫a

W (s)dW (s) = W (b)2 −W (a)2 −b∫a

W (s)dW (s),

6

also mit

b∫a

W (s)dW (s) =12

(W (b)2 −W (a)2),

das Ergebnis der “Stieltjes”-Integration.

2. α = 0 : ((0))b∫a

W (s)dW (s) = 12 (W (b)2 −W (a)2)− 1

2 (b− a) (Ito-Integral)

In diesem Fall ist fur X := (X(t) = ((0))t∫

0

W (s)dW (s) : t ≥ 0) nachrechenbar, dass X ein Martingal ist.

3 Das Ito-Integral

Wir werden ein Integral bezuglich des Wiener Prozesses definieren, in der ublichen Notation:

b∫a

f(s)dW (s) =

b∫a

f(ω, s)W (ω, ds),

wobei die Konstruktion nicht mehr ω−weise wie im Poisson Prozess getriebenen Integral sein kann.Zur Vereinfachung der Notation setzen wir a = 0, b = T, und gehen ohne Probleme zu beliebigen endlichenIntervallen [a, b] uber.

Festlegung 3.1 Der formale Rahmen:

W = (W (t) : t ≥ 0), W (t) : (Ω,F , P )→ (R,B)

sei ein Standard Wiener Prozess.

f : (Ω× [0, T ],F ⊗ B[0, T ])→ (R,B)

sei ein messbarer Prozess. Sei(F0

t := σ(W (s) : 0 ≤ s ≤ t) : t ≥ 0)

die von W erzeugte naturliche Filtrierung.Der Prozess f ist (F0

t ) -adaptiert, wenn gilt: ∀t ≥ 0 ist f(·, t) F0t -messbar.

Sofern nicht Anderes gesagt wird, bleiben die Voraussetzungen und Bezeichnungen des formalen Rahmensdurchgehend gultig.

Definition 3.2 Sei H2 = H2[0, T ] der Raum der F ⊗ B[0, T ]-messbaren Funktionen (Prozesse), welche (F0t :

0 ≤ t ≤ T ) adaptiert sind und quadratintegrierbar sind, d.h.

E[

T∫0

f2(ω, t)dt] <∞

erfullen.

7

Anmerkung 3.3 H2[0, T ] ist ein abgeschlossener Unterraum des Hilbertraumes L2(P ⊗λ1[0,T ]) (bzw. nachdem

in H2 die entsprechenden Aquivalenzklassen P -f.s. gleicher Funktionen gebildet wurden).

Definition 3.4 Eine Funktion

f : (Ω× [0, T ],F ⊗ B[0, T ])→ (R,B) ∈ H2

sei vorgegeben. Wir wollen fur T ≥ 0 die Funktion

X(ω, T ) = X(ω, T )(f) =

T∫0

f(ω, s)W (ω, ds), ω ∈ Ω,

definieren.

1. Sei f(ω, t) = α1(a,b](t), ω ∈ Ω, 0 ≤ a < b ≤ T , α ∈ R. Dann sei

X(ω, T ) = X(ω, T )(α1(a,b]) =

T∫0

α1(a, b](s)W (ω, ds)

= (W (ω, b)−W (ω, a))α

2. Sei

f(ω, t) =n−1∑i=0

αi(ω)1(xi,xi+1](t)

mit 0 = x0 < x1 < · · · < xn−1 < xn = T , αi : (Ω,F0xi)→ (R,B), i = 1, . . . , n, mit E[α2

i ] <∞; dann sei

X(ω, T ) =

T∫0

(n−1∑t=0

αi(ω)1(xi,xi+1](s))W (ω, ds)

=n−1∑i=0

αi(w)(W (ω, xi+1)−W (ω, xi))

3. Die Menge aller Funktionen f ∈ H2, welche eine Darstellung wie in 2. haben, wird mit H20 ⊆ H2

bezeichnet, Elemente aus H02 auch als “Treppenfunktionen”.

Corollary 3.5 Gegeben sei f : (Ω × R+,F ⊗ B+) → (R,B), so dass f der Filtrierung (F0t : t ≥ 0) adaptiert

ist.Dann ist f |Ω×[0,T ] der Filtrierung (F0

t : 0 ≤ t ≤ T ) adaptiert.Gilt fur jedes T ≥ 0 : f |Ω×[0,T ] ∈ H2

0[0, T ], so ist X = (X(T ) : T ≥ 0) F ⊗ B messbar und der Filtrierung(F0

t : t ≥ 0) adaptiert.

Die Aussage des Korollars 3.5 fuhrt zum Konzept des stochastischen Integrals als stochastischer Prozess,zumindest fur eine (noch sehr) eingeschrankte Klasse von Integranden. Wir fixieren zunachst weiterhin T <∞und setzen das Integral auf eine grossere Klasse von Integranden (als lineares Funktional) fort. In den folgendenRechnungen identifizieren wir wieder Funktionen, welche fast sicher gleich sind, und nehmen eine derartigeFunktion als Bezeichnung der Aquivalenzklassen fast sicher gleicher Funktionen.

Zur Erinnerung:L2(µ) = f : (Ω,F , µ)→ (R,B) :

∫|f |2dµ <∞, und auf L2(µ) = L2(Ω,F , µ) ist

f → (∫|f |2dµ)

12 eine Halbnorm.

8

Sei N ⊆ L2(µ) = f ∈ L2(µ) :∫|f |2dµ = 0. Dann ist L2(µ) = L2(µ)/N ein normierter Vektorraum, der

vollstandig ist unter der nun zur Norm gewonnenen Halbnorm:f ∈ L2(Ω,F , µ)/N → (

∫|f |2dµ)

12 =: ||f ||L2(µ) =: ||f ||2 (das letzte schreiben wir, wenn µ klar ist).

Lemma 3.6 (Ito-Isometrie) Die Abbildung

X(T ) : H20 = H2

0[0, T ]→ L2(P )

f(·, ·)→ X(·, T )(f) =

T∫0

f(·, s)W (·, ds) = X(·, T )

ist eine lineare Isometrie und damit insbesondere injektiv.Es gilt also insbesondere

||f ||L2(P⊗λ1) = ||X(T )||L2(P ).

Diese Abbildung wird als Ito-Isometrie bezeichnet.

Beweis: Linearitat von X(T ) ist direkt aus der Definition 3.4 2. nachrechenbar. Dass die Norm erhalten bleibt,zeigt ebenfalls direktes Rechnen; sei f(ω, t) =

∑n−1i=0 αi(ω)1(xi,xi+1](t) mit 0 = x0 < x1 < · · · < xn = T und

αi ∈ F0xi , i = 0, . . . , n− 1, E[α2

i ] <∞, gemass Definition 3.4 (3),(2). Dann gilt:

f2(ω, t) =n−1∑i=0

α2i (ω)1(xi,xi+1](t) und somit

||f ||2L2(P⊗λ1) =∫Ω

∫[0,T ]

(P ⊗ λ1)(dω, s)f2(ω, s) = (Fubini)

=∫Ω

P (dω)∫

[0,T ]

λ1(ds)n−1∑i=0

α2i (ω)1(xi,xi+1](s)

= E[n−1∑i=0

α2i (ω)(xi+1 − xi)]

=n−1∑i=0

E[α2i ](xi+1 − xi). Aber

||X(T )||2L2(P ) =∫Ω

P (dω)X(T, ω)2 =∫Ω

P (dω)(n−1∑i=0

αi(ω)(W (ω, xi+t)−W (ω, xi)))2

=n−1∑i=0

E[α2i (W (xi+1)−W (xi))2] =

= (die gemischten (W (·, x())− . . . )-Terme werden = 0) =

=n−1∑i=0

E[α2i ](xi+1 − xi),

9

( – es gilt αi ∈ Fxi , V ar(W (xi+1 −W (xi))) = xi+1 − xi, und unabhangige Zuwachse von W ).

Fur die Injektivitat zeige: Es gibt eine fast sicher eindeutige “kanonische” Darstellung der f ∈ H20. Nehmen

wir dann an, dass f 6= g, mit f, g ≥ 0, gilt, so liefert die Isometrie sofort X(T )(f) 6= X(T )(g). 4

Lemma 3.7 H20[0, T ] ist dicht in H2[0, T ], d.h. zu jedem f ∈ H2[0, T ] gibt es eine Folge von Treppenfunktionen

(fn : n ∈ N), fn ∈ H20[0, T ], derart, dass gilt:

||fn − f ||L2(P⊗λ1) → 0.

Beweis: Folgt direkt aus dem anschliessenden Approximationstheorem. 4

Theorem 3.8 Sei f ∈ H2[0, T ] und

An(f)(ω, t) =2n−1∑i=1

1

iT2n −

(i−1)T2n

iT2n∫

(i−1)T2n

f(ω, s)λ1(ds)

1( iT2n−

(i+1)T2n ]

(t)

Dann ist fur jedes n ≥ 1, An(f) ∈ H20[0, T ], also ist

An : H2[0, T ]→ H20[0, T ]

ein beschrankter linearer Operator mit den Eigenschaften:

1. ||An(f)||∞ ≤ ||f ||∞, f ∈ H2

2. ||An(f)||L2(P⊗λ1) ≤ ||f ||L2(P⊗λ1)

3. limn→∞||An(f)− f ||L2(P⊗λ1) = 0 ∀f ∈ H2

Wir bezeichnen An als Approximationsoperator.

Beweis: Wir fixieren n ≥ 1 und bezeichnen: xi := iT2n .

1. An ist wohldefiniert, da die Integralexi∫

xi−1

f(ω, s)λ1(ds) = αi(ω) wegen der F ⊗ B[0, T ] Messbarkeit von

f erklart sind; adaptiert sieht man wie folgt: Fur t ∈ [0, T2n = x1] gilt An(t, ω) = 0, ω ∈ Ω, und furt ∈ (xi, xi+1] gilt αi(ω) = An(f)(ω, t) ∈ Fxi ⊆ Ft.

2. An(f) ∈ H20, dazu mussen wir noch zeigen, dass gilt:

E[T∫0

(An(f))2(ω, t)dt] <∞. Wie im Beweis von Lemma 3.6 erhalten wir:

||An(f)||2L2(P⊗λ1) = E[∑2n−1i=1 α2

i (ω)(xi+1 − xi)] = (∗), aus JENSENSs Ungleichung folgt

α2i (ω) ≤ 1

xi−xi−1

xi∫xi−1

f2(ω, s)λ1(ds) ≤ 1xi−xi−1

||f ||2L2(P⊗λ1),

sodass (∗) endlich ist

3. Die L∞-Abschatzung (1) folgt aus den ublichen Vertauschungen von Integration und sup-Bildung.

4. Setzt man in (∗) die Jensensche Abschatzung ein, erhalten wir (∗) ≤ E[∑2n−1i=1

xi∫xi−1

f2(ω, s)ds] = ||f ||L2(P⊗λ1),

da xi+1 − xi = xi − xi−1 ist.

10

5. Die Approximationseigenschaft (3) findet sich bei STEELE(2001) S.91-93, mit Benutzung einer zweitenApproximationsfolge, welche aber nicht in H2

0 liegt, sondern in H2. Auf diese neue Folge wird dannnochmals der Approximationsoperator An(·) angewandt. 4

Definition 3.9 Fur f : (Ω× [0, T ],F ⊗ B[0, T ])→ (R,B) ∈ H2 wollen wir die Funktion

X(T, ω) = X(T, ω)(f) =∫ T

0

f(ω, s)W (ω, ds), ω ∈ Ω,

definieren.(1) Sei fn : n ∈ N ⊆ H2

0 eine Folge von Treppenfunktionen, derart dass gilt:

fnn→∞−→ f in L2(P ⊗ λ1).

Dann ist fn : n ∈ N ⊆ H20 ⊆ H2 eine Cauchy-Folge, welche wegen der Ito-Isometrie auf die Cauchy-Folge

Xn(T, ω) :=∫ T

0fn(ω, s)W (ω, ds) : n ∈ N ∈ L2(P ) abgebildet wird.

(2) Da L2(P ) vollstandig ist, konvergiert die Folge der Zufallsvariablen Xn(T, ω) : n ∈ N gegen eineneindeutig bestimmten Grenzwert in L2(P ):

limn→∞

∫ T

0

fn(ω, s)W (ω, ds) =:∫ T

0

f(ω, s)W (ω, ds) =: X(T, ω).

Corollary 3.10 Die Definition 3.9 ist widerspruchsfrei.

Beweis: Sei f∗n : n ∈ N ⊆ H20 ⊆ H2 eine weitere Folge, welche in L2(P ⊗ λ1) gegen f ∈ H2 konvergiert.

Dann folgt aus der Dreiecksungleichung in L2(P ⊗ λ1):

||fn − f∗n||L2(P⊗λ1) ≤ ||fn − f ||L2(P⊗λ1) + ||f∗n − f ||L2(P⊗λ1)n→∞−→ 0.

Dann folgt aber aus der Ito-Isometrie (immer noch auf H20!) schon:∥∥∥∥∥

∫ T

0

fn(ω, s)W (ω, ds)−∫ T

0

f∗n(ω, s)W (ω, ds)

∥∥∥∥∥L2(P )

−→ 0.

Damit schatzt man die Differenz in L2(P )-Norm fur die jeweils definierten Integrale X(T, ω), respektiveX∗(T, ω) wie ublich ab. 2

Die in Lemma 3.6 gezeigte Isometrie auf H20 kann jetzt auf H2 festgesetzt werden, da wir nun wissen, wie

die Abbildungsvorschrift ”Stochastisches Ito-Integral“ fur die Isometrie festgelegt ist.

Theorem 3.11 (Ito-Isometrie) Die Abbildung

X(T ) : H2[0, T ] −→ L2(P )

f(·, ·) 7−→∫ T

0

f(·, s)W (·, ds) = X(T, ·)(f) = X(T, ·)

ist eine lineare Isometrie, d.h. es gilt:

||f ||L2(P⊗λ1) =

∥∥∥∥∥∫ T

0

f(·, s)W (·, ds)

∥∥∥∥∥L2(P )

.

11

Beweis: Sei f ∈ H2, fn : n ∈ N ⊆ H20 mit ||fn − f ||L2(P⊗λ1) → 0. Mit∣∣||fn − f + f ||L2(P⊗λ1) − ||f ||L2(P⊗λ1)

∣∣ ≤ ∣∣||fn − f ||L2(P⊗λ1)

∣∣folgt

||fn||L2(P⊗λ1)n→∞−→ ||f ||.

Nach Definition des Integrals gilt aber∥∥∥∥∥∫ T

0

fn(ω, s)W (ω, ds)−∫ T

0

f(ω, s)W (ω, ds)

∥∥∥∥∥L2(P )

n→∞−→ 0

und analog ∥∥∥∥∥∫ T

0

fn(ω, s)W (ω, ds)

∥∥∥∥∥L2(P )

n→∞−→

∥∥∥∥∥∫ T

0

f(ω, s)W (ω, ds)

∥∥∥∥∥L2(P )

.

Lemma 3.6 sagt aber gerade ||fn||L2(P⊗λ1) = ||∫fn(ω, s)W (ω, ds)||L2(P⊗λ1) fur alle n ∈ N. Also mussen auch

die respektiven Grenzwerte gleich sein. 2

Wir haben in Korollar 3.5 zu gegebenem f auf Ω× [0,∞) mit der Restriktion f |Ω×[0,T ] ∈ H20 gezeigt, dass

X = (X(T ) : T ≥ 0) ein F ⊗ B-messbarer Prozess ist, welcher der naturlichen Filtrierung des Wiener Prozes-ses adaptiert ist. Fur den allgemeinen Fall beschranken wir uns zunachst wieder auf den Fall endlicher Zeitskala.

Theorem 3.12 Seif : (Ω× [0, T ],F ⊗ B[0, T ])→ (R,B) ∈ H2

und fur alle t ∈ [0, T ] sei

mt : (Ω× [0, T ],F ⊗ B[0, T ])→ (0, 1,P0, 1),

(ω, s) 7→ mt(ω, s) =

1 s ∈ [0, T ]0 sonst.

Dann gilt: mt ·f ∈ H2 fur alle t ∈ [0, T ] und es existiert ein Martingal Y = (Yt : t ∈ [0, T ]) mit stetigen Pfaden(bezuglich der naturlichen Filtrierung (F0

s : s ∈ [0, T ]) des Wiener Prozesses (W (t) : t ∈ [0, T ])) derart, dassfur alle t ∈ [0, T ] gilt:

P

(ω ∈ Ω : Y (t, ω) =

∫ T

0

(mt · f)(ω, s)W (ω, ds)

)= 1.

Beweis: Die Problematik, die gegenuber Korollar 3.5 neu auftritt, ist, dass wir keine ω-weise Konstruktions-vorschrift angegeben haben fur

(∫ T0

(mt · f)(ω, s)W (ω, ds) : t ∈ [0, T ])

- und dies ware der erste Kandidat furdas stochastische Integral als stochastischer Prozess. Eindeutigkeit gab unsere Konstruktion in Definition 3.9nur als Elemente ∫ T

0

(mt · f)(·, s)W (·, ds) ∈ L2(P ) = L2(P )/N .

Es gibt also fur jedes t ∈ [0, T ] moglicherweise eine P-Null-Ausnahmemenge At, auf der die Konstruktion vonX(T, ·)(mt · f) nicht eindeutig ist. Dann ist aber P

(⋃t∈[0,T ]At

)> 0 moglich, sofern A =

⋃t∈[0,T ]At ∈ F ist,

oder es gibt eine Menge mit positivem P-Maß, die in A enthalten ist.Der Beweis benutzt die Approximation von f durch Elemente aus H2

0, fn : n ∈ N ⊆ H20 mit ||fn −

f ||L2(P⊗λ1)n→∞−→ 0.

12

Es gilt zunachst fn ·mt ∈ H20[0, T ] fur alle t ∈ [0, T ] und alle n ∈ N, und uber die explizite Konstruktion in

Definition 3.4 fur Integrale von Treppenfunktionen konnen wir definieren

Y (n)(t, ω) =∫ T

0

(mt · fn)(ω, s)W (ω, ds), ω ∈ Ω.

Ist fn(ω, s) =n−1∑i=0

αi(ω) · 1(xi,xi+1](s), ω ∈ Ω, s ∈ [0, T ], so erhalten wir fur t ∈ (xk, xk+1], 0 ≤ k ≤ n− 1,

Y (n)(t, ω) = X(T, ω)(mt · fn) =

αk(ω)(W (ω, t)−W (ω, xk)) +k−1∑i=0

αi(ω)(W (ω, xi+1)−W (ω, xi)).

Da wir W (·, ·) mit stetigen Pfaden wahlen konnen, haben die Y (n)(·, ω) ebenso diese Eigenschaft.(W (s) : 0 ≤ s ≤ T ) ist ein Martingal, also ist auch jedes Y (n) := (Y (n)(t) : 0 ≤ t ≤ T ) ein Martingalbezuglich (F0

t : 0 ≤ t ≤ T ). Weiter ist dann fur jedes Paar m,n ∈ N auch (Y (n)(t)− Y (m)(t) : 0 ≤ t ≤ T ) einMartingal, und mit Jensen’s Ungleichung (| · | ist konvex) ist M = (|Y (n)(t)−Y (m)(t)| =: M(t) : 0 ≤ t ≤ T ) einSubmartingal. Da das Submartingal M stetige Pfade hat, konnen die DOOBschen Martingalabschatzungenaus dem diskreten Martingalkontext mit Approximationsargumenten in den vorliegenden zeitstetigen Fallubertragen werden.DOOB’s L2-Maximalungleichung (Steele [Ste01], Th. 4.2) ergibt

P

(sup

0≤t≤T

∣∣∣Y (n)(t)− Y (m)(t)∣∣∣ ≥ ε) ≤ 1

ε2E[|Y (n)(T )− Y (m)(T )|2

]≤

≤ 1ε2‖fn − fm‖2L2(P⊗λ1) mit der Ito-Isometrie.

Da (fn : n ∈ N) eine (gegen f konvergente) Cauchy-Folge in L2(P ⊗λ1) ist, gibt es eine Teilfolge (fnk : k ∈ N)derart, dass gilt: max

n≥nk||fn − fnk ||2L2(P⊗λ1) ≤ 2−3k.

Mit ε := 2−k erhalten wir fur alle k ≥ 1:

P

(sup

0≤t≤T

∣∣∣Y (nk+1)(t)− Y (nk)(t)∣∣∣ ≥ 2−k︸ ︷︷ ︸

=:Ak

)≤ 2−k

Das Lemma von BOREL-CANTELLI liefert:∞∑k=1

P (Ak) <∞⇒ P

( ∞⋂m=0

∞⋃k=m

Ak

)= 0.

Damit gibt es fur jedes ω ∈ Ω0 :=( ∞⋂m=0

∞⋃k=m

Ak

)C=(limk∈N

Ak)C eine Zahl C(ω) ∈ N derart, dass fur alle

k ≥ C(ω) gilt:sup

0≤t≤T

∣∣∣Y (nk+1)(t)− Y (nk)(t)∣∣∣ ≤ 2−k ∀ω ∈ Ω0.

Dies heißt aber, dass fur jedes ω ∈ Ω0 die Folge (Y nk(·, ω) : k ∈ N) von Funktionen auf [0, T ] (welche stetigsind) eine Cauchy-Folge in der Supremumsnorm auf C[0, T ] (uniforme Norm) ist. Also gibt es eine stetigeFunktion Y (·, ω) : [0, T ] → R, so dass Y (nk)(·, ω) k→∞→ Y (·, ω) gleichmaßig auf [0, T ] konvergiert und Y (·, ω)damit stetig ist fur ω ∈ Ω0. Zu zeigen ist, dass Y = (Y (t) : 0 ≤ t ≤ T ) ein Martingal ist:Neben der P-fast sicheren Konvergenz

Y (nk)(·, ω) k→∞→ Y (·, ω) in C[0, T ] (gleichmaßig),

13

haben wir nach Konstruktion der Y (nk) als Ito-Integrale auch Konvergenz in L2(P )

Y (nk)(·, ω) k→∞→ Y (·, ω).

Mit dem Satz von der majorisierten Konvergenz fur bedingte Erwartungen folgt fur 0 ≤ s < t ≤ T :

E[Y (nk)(·, t)|F0s ] = Y (nk)(·, s) P-fs

maj. ↓ Konv. ↓ P-fs

E[Y (·, t)|F0s ] Y (·, s).

(Der Satz: Sei P (Zn → Z) = 1 und |Zn| < V ∀ 1 ≤ n <∞, E[V |F ](·) <∞ P-fs.Dann gilt P-fs: E[|Z| |F ′](·) <∞ und

limn→∞

E[Zn|F ′](·) = E[

limn→∞

Zn|F ′]

(·) = E[Z|F ′](·) fur F ′ ⊆ F .)

Zu zeigen bleibt: P (Y (t, ·) =∫ T

0(mt · f)(·, s)W (·, ds)) = 1.

Dies folgt aus der Konvergenz mt · fnkk→∞→ mt · f in L2(P ⊗ λ1) und (durch Ito-Isometrie) daraus folgend∫ T

0

(mt · fnk)(·, s)W (·, ds) −→∫ T

0

(mt · f)(·, s)W (·, ds) in L2(P ).

Wir haben aber gezeigt:

Y (nk)(·, t) =∫ T

0

(mt · fnk)(·, s)W (·, ds) k→∞−→ Y (·, t) in l2(P ).

Die Eindeutigkeit von Limiten L2(P ) liefert damit fur alle t ∈ [0, T ]∥∥∥∥∥Y (·, t)−∫ T

0

(mt · f)(·, s)W (·, ds)

∥∥∥∥∥L2(P )

= 0.

Daraus folgt die P-fs Gleichheit der beiden Zufallsvariablen fur alle t ∈ [0, T ]. 2

Corollary 3.13 Die Hauptaussage von Satz 3.12 kann formuliert werden als:Das Ito-Integral einer Funktion f ∈ H2[0, T ] ist

(a) ein stochastischer Prozess mit Zeitskala [0, T ], welcher eine Version mit stetigen Pfaden besitzt, und(b) ein Martingal.

Außerdem gilt die Abschatzung

P

(sup

0≤t≤T|Yt| ≥ ε

)≤ 1ε2E

[∫ T

0

f(·, s)2ds

].

Beweis: (a), (b) sind Umformulierungen von Satz 3.12 Die Abschatzung fur (große) Abweichungen ε > 0 folgtwieder aus der Doobschen L2-Maximalungleichung, sowie der Ito-Isometrie.

2

Theorem 3.14 (Eigenschaften des Integrals) Seien f, g ∈ H2, c ∈ R und 0 ≤ S < U < T . Dann gilt:

i )T∫S

f(ω, s)W (ω, ds) =U∫S

f(ω, s)W (ω, ds) +T∫U

f(ω, s)W (ω, ds) P-fs.

14

ii )T∫S

(c · f(ω, s) + g(ω, s))W (ω, ds) = c ·T∫0

f(ω, s)W (ω, ds) +T∫0

g(ω, s)W (ω, ds) P-fs.

iii )T∫S

f(ω, s)W (ω, ds) ist F0T -messbar.

iv ) E

[T∫S

f(ω, s)W (ω, ds)

]= 0.

Beweis: Fur Treppenfunktionen aus H20[0, T ] konnen die Aussagen direkt nachgerechnet werden. Die allge-

meine Aussage folgt durch Grenzwertbildung. 4

Anmerkung 3.15 Die Eigenschaft aus Satz 3.14(iv): E[∫ TSf(ω, s)W (ω, ds)] = 0 folgt schon direkt aus Satz

3.12 Da Y = (Y (t) : t ∈ [0, T ]) ein Martingal ist, gilt E[Y (t)] = E[Y (0)] fur alle t ∈ [0, T ]. Es gilt aber mitWahrscheinlichkeit 1

Y (0, ω) =∫ T

0

(m0 · f)(ω, s)W (ω, ds) = 0.

Anmerkung 3.16 Zur Berechnung des Integrals∫ T

0f(·, s)W (·, ds) ∈ H2 kann nach unseren Satzen jede

approximierende Folge fn ∈ H20, n ∈ N, verwendet werden. Wir haben also konkret zu zeigen: E

∫ T0

(fn(ω, s)−f(ω, s))2λ1(ds)→ 0, um dann in L2(P ) zu haben:∫ T

0

fn(·, s)W (·, ds) −→∫ T

0

f(·, s)W (·, ds).

Beispiel 3.17 f : (Ω× [0, T ],F ⊗ B[0, T ])→ (R,B) ∈ H2, (w, s) 7→ s = f(s)ist keine Treppenfunktion.Sei x(n)

0 = 0 < x(n)1 < . . . < x

(n)N(n) = T eine Zerlegungsfolge mit

λ(n) = maxi=0,...,N(n)−1 |xi+1 − xi| = 0.Dann sei

fn(ω, s) =N(n)−1∑i=0

1(x

(n)i ,x

(n)i+1]

(s) · x(n)i , ω ∈ Ω, 0 ≤ s ≤ T.

Es gilt

E

[∫ T

0

(N(n)−1∑i=0

1(x

(n)i ,x

(n)i+1]

(s) · x(n)i − s︸ ︷︷ ︸

≤|x(n)i+1−x

(n)i |≤ max

i=0,...,N(n)−1|xi+1−xi|=λ(n)

)2

λ1(ds)

]≤

≤E[(λ(n)

)2

· T]→ 0, also konnen wir berechnen:∫ T

0

sW (ω, ds) = limn→∞

∫ T

0

fn(ω, s)W (ω, ds) =

= limn→∞

∫ T

0

(N(n)−1∑i=0

1(x

(n)i ,x

(n)i+1]

(s) · x(n)i

)W (ω, ds) =

15

= limn→∞

N(n)−1∑i=0

x(n)i

(W (ω, x(n)

i+1)−W (ω, x(n)i ))

=

= limn→∞

T ·W (ω, T ) +N(n)−2∑i=0

W (ω, , x(n)i+1)x(n)

i −N(n)−1∑i=0

W (ω, x(n)i ) · x(n)

i =

=T ·W (ω, T )− limn→∞

N(n)−1∑i=0

W (ω, x(n)i ) · x(n)

i +N(n)−1∑i=0

W (ω, x(n)i ) · x(n)

i−1 =

=T ·W (ω, T )− limn→∞

N(n)−1∑i=0

W (ω, x(n)i )

(x

(n)i − x(n)

i−1

)=

=T ·W (ω, T )−∫ T

0

W (ω, s)ds, denn fur jedes ω ist W (ω, ·) eine stetige Funktion.

Das Beispiel 3.17 ist unter der folgenden Regel zu subsumieren.

Lemma 3.18 Sei f ∈ H2[0, T ] beschrankt in Ω × [0, T ] und fur jedes ω ∈ Ω sei f(ω, ·) stetig. Gegeben seiwieder eine Zerlegungsfolge 0 = x

(n)0 < x

(n)1 < . . . < x

(n)N(n) = T mit λ(n) → 0. Dann gilt:

E

[∫ T

0

(N(n)−1∑i=0

f(ω, x(n)i ) · 1

(x(n)i ,x

(n)i+1]

(s)− f(ω, s))2

λ1(ds)

]n→∞−→ 0

und die approximierenden Funktionen sind in H20.

Beweis: Dass die approximierenden Funktionen Treppenfunktionen sind, ist klar. Aus der Stetigkeit von f(ω, ·)folgt fur jedes ω ∈ Ω ∫ T

0

(N(n)−1∑i=0

f(ω, x(n)i ) · 1

(x(n)i ,x

(n)i+1]

(s)− f(ω, s))2

λ1(ds) n→∞−→ 0.

Mit majorisierter Konvergenz folgt, dass auch die Erwartungswertfolge gegen 0 konvergiert. 2

Beispiel 3.19 Da die Pfade des Wiener Prozesses stetig sind, haben wir in Beispiel 2 als approximierendeFunktion fur B(ω, s), 0 ≤ s ≤ T , verwendet fur α = 0:

n∑i=1

W (ω, x(n)i )1

(x(n)i ,x

(n)i+1]

(s)→W (ω, s)

und haben nach Lemma 3.18 auch L2P⊗λ1-Konvergenz.

Bei dieser Wahl ware das dortige σ(n) gerade

σ(n)(ω) =n∑i=1

W (ω, x(n)i )

(W (ω, x(n)

i+1 −W (ω, x(n)i ))

und wir haben dort tatsachlich das Ito-Integral∫ T

0

W (ω, s)W (ω, ds) =12W (ω, T )2 − 1

2T ausgerechnet.

16

Theorem 3.20 (a) (Pfadweise Interpretation des Ito-Integrals)Sei f ∈ H2[0, T ] beschrankt und ν : (Ω,F)→ (R+,B+) eine (F0

t )-Stopzeit derart, dass gilt:

f(ω, s) = 0 fur P-fast alle ω ∈ ω ∈ Ω : s ≤ ν(ω);

dann gilt fur P-fast alle ω ∈ ω ∈ Ω : t ≤ ν(ω)

X(ω, t)(f) =: X(ω, t) =∫ t

0

f(ω, s)W (ω, ds) = 0.

(b) (Erhaltung von Gleichheit bei Ito-Integration)Seien f, g ∈ H2[0, T ] und ν : (Ω,F)→ (R+,B+) eine (F0

t )-Stopzeit derart, dass gilt:

f(ω, s) = g(ω, s) fur P-fast alle ω ∈ ω ∈ Ω : s ≤ ν(ω);

dann sind die Ito-Integrale∫ t

0

f(ω, s)W (ω, ds) = X(ω, t) und∫ t

0

g(ω, s)W (ω, ds) = Y (ω, t) P-fast sicher gleich auf ω ∈ Ω : t ≤ ν(ω).

Beweise finden sich bei Steele [Ste01], S. 87-89. Dabei wird (b) auf (a) zuruckgefuhrt, indem zunachst fn :=f · 1(|f |≤n), gn := f · 1(|g|≤n) betrachtet werden, die mit (a) behandelt werden. Daraus folgt mit Ito-Isometriedie Approximation.Erstaunlich ist, dass der Beweis der anscheinend einfachen Aussage (a) technisch aufwandig ist. Die Kommen-tare Steele’s dazu sind interessant.

4 Ito-Integral und Lokalisierung

Das Ito-Integral bzgl. der eindimensionalen Brownschen Bewegung fur Funktionen aus H2[0, T ] benotigt furviele Anwendungen eine verallgemeinernde Definition. Beispiele:

• Multidimensionale Prozesse,

• Die Familie der unterliegenden σ-Algebren muss mehr Informationen enthalten, als die vom WienerProzess erzeugte,

• Die Klasse der zu integrierenden Funktionen muss uber H2[0, T ] erweitert werden,

• W = (W (t) : t ≥ 0) muss verallgemeinert werden zu Semimartingalen [CW90].

Die ersten drei Punkte werden in [Øks03], S. 34/35 ganz knapp, aber ubersichtlich, skizziert und es werdendann diese Erweiterungen bei der Herleitung der Ito-Formel benutzt. Fur deren Beweis und insbesondere we-sentliche Anwendungen muss die folgende Obermenge von H2[0, T ] von Prozessen integrierbar sein.

Definition 4.1 Sei L2LOC = L2

LOC [0, T ] der Raum aller Prozesse

f : (Ω× [0, T ],F ⊗ B[0, T ])→ (R,B),

welche messbar und der naturlichen Filtrierung (F0t : t ≥ 0) von W = (W (t) : t ≥ 0) adaptiert sind und

zusatzlich

P (ω ∈ Ω :∫ T

0

f2(ω, s)ds <∞) = 1 erfullen.

17

Anmerkung 4.2 (a) Es gilt: H2[0, T ] ⊆ L2LOC [0, T ].

(b) Sei g : R → R stetig. Dann ist f(ω, t) = g(W (ω, t)) ∈ L2LOC [0, T ], denn aus der Stetigkeit der Pfade von

W folgt, dass fur jedes ω ∈ Ω die Funktion g(W (ω, ·)) auf [0, T ] beschrankt ist.

Definition 4.3 (Lokalisierende Folgen von Stoppzeiten) Eine nicht fallende Folge

νn : (Ω,F , P )→ ([0,∞],B+), n ∈ N+,

von (F0t : t ≥ 0)-Stoppzeiten heißt H2[0, T ]-lokalisierende Folge fur einen Prozess f : (Ω× [0, T ],F⊗B[0, T ])→

(R,B), wenn gilt:

fn(ω, t) := f(ω, t) · 1t≤νn(ω)) ∈ H2[0, T ] fur alle n ∈ N+

und P (⋃∞n=1ω ∈ Ω : νn(ω) = T) = 1.

Theorem 4.4 (Lokalisierung in L2LOC [0, T ]) Sei f ∈ L2

LOC [0, T ] und

τn(ω) = inft ∈ R+ :

∫ t

0

f2(ω, s)ds ≥ n ∨ t ≥ T, n ≥ 1.

Dann ist (τn : n ≥ 1) eine H2[0, T ]-lokalisierende Folge fur f .

Beweis: Es gilt (ω-weise zu sehen):

∞⋃n=1

ω ∈ Ω : τn(ω) = T =

ω ∈ Ω :

∫ T

0

f2(ω, s)ds <∞

und fur f ∈ L2LOC [0, T ] hat die rechte Seite nach Definition Wahrscheinlichkeit 1. Außerdem gilt fur fn(ω, t) =

f(ω, t) · 1(t≤τn) schon E[∫ T

0f2n(·, s)ds] = ||fn||2L2(P⊗λ1) ≤ n), so dass fn ∈ H2 ist und (τn) damit eine H2-

lokalisierende Folge fur f . 2

Definition 4.5 Sei f : (Ω× [0, T ],F ⊗B[0, T ])→ (R,B) ∈ L2LOC [0, T ]. Wir wollen fur t ∈ [0, T ] die Funktion∫ t

0

f(ω, s)W (ω, ds) =: X(ω, t)(f) =: X(ω, t), ω ∈ Ω,

definieren in Analogie zur Aussage von Theorem 3.12, derart dass ein stochastischer Prozess Y = (Y (t) : t ∈[0, T ]) mit stetigen Pfaden existiert, welcher einer Version von (X(t) : t ∈ [0, T ]) ist.Sei (νn : n ∈ N+) eine H2-lokalisierende Folge von Stoppzeiten fur f und sei fur jedes n ≥ 1 (Xn(t) : t ∈[0, T ]) = Xn das P-fs eindeutig bestimmte Martingal mit stetigen Pfaden, welches nach Theorem 3.12 eineVersion des Ito-Integrals (∫ T

0

(mt(ω, s) · f(ω, s) · 1s≤νn(ω))

)W (ω, ds) : t ∈ [0, T ]

ist. Dann existiert ein P-fs eindeutiger Grenzprozess Y = (Y (t) : t ∈ [0, T ], so dass gilt:

P (ω ∈ Ω : Y (ω, t) = limn→∞

Xn(ω, t)) = 1 fur alle t ∈ [0, T ].

Wir setzen dann: Y (ω, t) =:∫ t

0f(ω, s)W (ω, ds), t ∈ [0, T ].

Die Konsistenz der Definition 4.5 zeigen wir in einer Folge von Lemmata.

18

Lemma 4.6 Sei f ∈ L2LOC [0, T ] und (νn : n ∈ N+) eine H2-lokalisierende Folge.

Sei (Xn(ω, t) : ω ∈ Ω, t ∈ [0, T ]) die Martingalversion mit stetigen Pfaden der Ito-Integrale(Xn(ω, t) =

∫ T

0

mt(ω, s) · f(ω, s) · 1(s≤νn(ω))W (ω, ds) : ω ∈ Ω, t ∈ [0, T ]

).

Dann gilt fur alle t ∈ [0, T ] und fur alle n ≥ m

Xn(ω, t) = Xm(ω, t) fur P-fast alle ω ∈ ω ∈ Ω : t ≤ νm(ω).

Beweis: Es gilt νm(ω) ≤ νn(ω), ω ∈ Ω, sodass die beiden H2-Funktionen

fm(ω, t) = f(ω, t) · 1(t≤νm(ω)) undfn(ω, t) = f(ω, t) · 1(t≤νn(ω))

auf der Menge ω ∈ Ω : t ≤ νm(ω) P-fs gleich sind. Nach Theorem 3.20 (b) (Erhaltung von Gleichheit beiIto-Integration) sind die respektiven Ito-Integrale auf der Menge ω ∈ Ω : t ≤ νm(ω) P-fs gleich. Also sindP-fs auf dieser Menge die stetigen Martingalversionen gleich. 2

Lemma 4.7 Mit den Annahmen und Bezeichnungen aus Lemma 4.6 gilt:Es existiert ein Prozess Y = (Y (t) : t ∈ [0, T ]) mit stetigen Pfaden derart, dass gilt:

P(ω ∈ Ω : Y (ω, t) = lim

n→∞Xn(ω, t)

)= 1 ∀ t ∈ [0, T ].

Beweis: Sei N(ω) = min(n ∈ N+ : νn(ω) = T ).Nach Definition der lokalisierenden Folge (νn) gilt P (ω ∈ Ω : N(ω) < ∞) = 1. Sei Ω0 = ω ∈ Ω :Xn(ω, ·) ist stetig auf [0, T ],∀ n ∈ N+, Ω0 ∈ F , und es gilt: P (Ω0) = 1. Damit gilt auch P (Ω1) = 1 furΩ1 = Ω0 ∩ N <∞ und wir setzen fur ω ∈ Ω1: Y (ω, t) := XN (ω, t), t ∈ [0, T ]. Es gilt: t 7→ XN(ω)(ω, t), t ∈[0, T ], ist stetig fur alle ω ∈ Ω1. (Das musste gezeigt werden).Ansonsten nach Lemma lemmaloc1:

P(ω ∈ Ω : lim

n→∞Xn(ω, t) = XN(ω)(ω, t)

)= 1 ∀ t ∈ [0, T ].

2

Lemma 4.8 Mit den Annahmen und Bezeichnungen von Lemma 4.6 seien (νn : n ∈ N+) und (νn : n ∈ N+)zwei H2-lokalisierende Folgen fur f ∈ L2

LOC und Xn(ω, t) bzw. Xn(ω, t), ω ∈ Ω, t ∈ [0, T ], n ∈ N, die respektivenMartingalversionen der Ito-Integrale mit stetigen Pfaden. Dann gilt:

P(ω ∈ Ω : lim

n→∞Xn(ω, t) = lim

n→∞Xn(ω, t)

)= 1 ∀ t ∈ [0, T ].

Beweis: τn := (min(νn, νn) : n ∈ N) ist eine nichtfallende Folge von Stoppzeiten bzgl. (F0t ) und es gilt:

P

( ∞⋃m=1

τm = T

)= P

( ∞⋃m=1

νm = T und νm = T

)= 1. (‡)

Aus dem Satz von der Erhaltung von Gleichheit (Theorem 3.20(b)) erhalten wir fur alle n ≥ m:

Xn(ω, t) = Xn(ω, t) P-fast sicher auf t ≤ τm. (∗)

Nach Lemma 4.7 konvergieren beide Prozesse X und X P-fs. Also gilt fur die jeweiligen Limiten nach (∗), dasssie auf ω ∈ Ω : t ≤ τm(ω) gleich sind. Dann beendet (‡) den Beweis. 2

Den Beweis des folgenden Korrolars findet man bei Steele [Ste01], S. 98, als direkte Anwendung von Loka-lisierung.

19

Corollary 4.9 Theorem 3.20 gilt mit gleicher Formulierung fur Funktionen f, g ∈ L2LOC [0, T ].

Nicht alle Funktionen g(W (ω, t)), (ω, t) ∈ Ω × [0, T ], die nach Anmerkung 4.2 in L2LOC [0, T ] liegen, sind

Elemente aus H2. Mit Lokalisierungsargumenten kann man jetzt praktisch bedeutsame Eigenschaften vonIto-Integralen derartiger Funktionen beweisen, siehe Steele [Ste01], Kap. 7.2.

Theorem 4.10 f : R → R sei stetig. Fur das Intervall [0, T ] definiere die Folge von Partitionen x(n)i =

iTn , 0 ≤ i ≤ n. Dann gilt mit Konvergenz in Wahrscheinlichkeit:

limn→∞

n∑i=1

f(W (ω, x(n)i−1))(W (ω, x(n)

i )−W (ω, x(n)i−1)) =

∫ T

0

f(W (ω, s))W (ω, ds).

Theorem 4.11 f : [0, T ]→ R sei stetig. Dann ist der Prozess

X(ω, t) =∫ t

0

f(s)W (ω, ds), t ∈ [0, T ], ω ∈ Ω,

ein Gauss-Prozess mit unabhangigen Zuwachsen, Mittelwertfunktion E(X(t)) = 0, t ∈ [0, T ], und Covarianz-funktion

Cov(X(s), X(t)) =∫ s∧t

0

f2(u)du.

Außerdem gilt mit Konvergenz in Wahrscheinlichkeit:∫ T

0

f(s)W (ω, ds) = limn→∞

n∑i=1

f(ξ(n)i )(W (ω, x(n)

i )−W (ω, x(n)i−1))

wobei x(n)i = iT

n , 0 ≤ i ≤ n, ist und ξ(n)i ∈ [x(n)

i−1, x(n)i ] (d.h., die Stutzstellen konnen wie bei Stieltjes-Integration

gewahlt werden).

In den Beweisen zur Konsistenz des Ito-Integrals fur f ∈ L2LOC haben wir dauernd benutzt, dass das

Ito-Integral fur fn ∈ H2 ein Martingal ist (siehe Satz 3.12). Dies kann als Ersatz angesehen werden fur diefehlende Martingaleigenschaft von (

∫ t0f(ω, s)W (ω, ds) : 0 ≤ t ≤ T ), wenn f /∈ H2 ist.

Definition 4.12 (Lokales Martingal) Ein stochastischer Prozess M = (M(t) : (Ω,F , P ) → (R,B) : t ∈[0,∞)), welcher einer Filtrierung (Ft : t ≥ 0) adaptiert ist, heißt lokales Martingal, wenn es eine nichtfallende Folge (τn : n ∈ N+) von (Ft)-Stoppzeiten gibt mit P (limn→∞ τn =∞) = 1, so dass gilt:Fur jedes n ∈ N+ ist der Prozess

M (n) := (M(t ∧ τn)−M(0) : (Ω,F , P )→ (R,B) : t ∈ [0,∞))

ist ein Martingal bzgl. (Ft : t ≥ 0).

Theorem 4.13 Sei f ∈ L2LOC [0, T ]. Dann existiert ein lokales Martingal mit stetigen Pfaden Y = (Y (t) : t ∈

[0, T ]), so dass fur alle t ∈ [0, T ] gilt:

P (ω ∈ Ω : Y (ω, t) =∫ t

0

f(ω, s)W (ω, ds)) = 1.

Dabei kann als lokalisierende Folge von Stoppzeiten gewahlt werden:

τn(ω) = inf(t ∈ R+ :

∫ t

0

f2(ω, s)ds ≥ n ∨ t ≥ T), ω ∈ Ω.

20

Beweis: Wir hatten aus fn(ω, s) := f(ω, s) · 1(s≤τn(ω)) ∈ H2 die Martingaleigenschaften der zugehorigen Ito-Integrale erhalten. 2

5 Die Ito-Formel

Die Ito-Formel behandelt das Problem, zu einem geeignet definiertem stochastischen Ito-Integral

X(ω, t) =∫ t

0

a(ω, s)ds+∫ t

0

b(ω, s)W (ω, ds) fur t ∈ [0, T ]

und einer hinreichend glatten Funktion f : R+ × R→ R das Funktional

(f(t,X(ω, t)), t ∈ [0, T ], ω ∈ Ω),

zu berechnen. Wenn alles gut geht, erhalten wir:

f(t,X(ω, t)) = f(0, 0) +∫ t

0

∂f

∂t(s,X(ω, s))ds+

∫ t

0

∂f

∂x(s,X(ω, s))X(ω, ds) +

+12

∫ t

0

∂2f

∂x2(s,X(ω, s))b2(ω, s)ds, ω ∈ Ω, t ∈ [0, T ],

und mit Y (ω, t) := f(t,X(ω, t)) in differentieller Schreibweise

dY (t) = ft(t,X(t))dt+ fx(t,X(t))dX(t) +12fxx(t,X(t))dX(t) · dX(t).

Wir beginnen mit dem einfachsten Fall.

Theorem 5.1 f : R→ R sei zweimal stetig differenzierbar. Dann gilt fur ω ∈ Ω und t ≥ 0:

f(W (ω, t)) = f(0) +∫ t

0

f ′(W (ω, s))W (ω, ds) +12

∫ t

0

f ′′(W (ω, s))ds. (∗)

Beweis: Wir nehmen zunachst an, dass f kompakten Trager hat. Mit Lokalisierung wird dann der allgemeineFall behandelt.Wir definieren eine Folge von Partitionen von [0, t] x(n)

i = itn , i = 0, 1, . . . , n, wobei wir den Laufindex n

unterdrucken, wenn kein Problem entsteht: xi = x(n)i . Dann gilt:

f(W (ω, t))− f(W (ω, 0))(∗)= f(W (ω, t))− f(0) =

n∑i=1

f(W (ω, xi))− f(W (ω, xi−1)).

Wir machen eine elementare Taylor-Entwicklung:

f(y)− f(x) = (y − x)f ′(x) +12

(y − x)2f ′′(x) +∫ y

x

(y − u)(f ′′(u)− f ′′(x))du︸ ︷︷ ︸=:r(x,y)

.

Dann gibt es eine gleichmaßig stetige Funktion h : R2 → R, derart dass gilt: h(x, x) = 0 und |r(x, y)| ≤(y − x)2h(x, y).

21

Aus (∗) erhalten wir, indem wir die Taylorformel auf jede Differenz f(W (ω, xi)) − f(W (ω, xi−1)) anwendenund umsummieren:

f(W (ω, t))− f(0) =n∑i=1

f ′(W (ω, xi−1))(W (ω, xi)−W (ω, xi−1)) +

+12

n∑i=1

f ′′(W (ω, xi−1))(W (ω, xi)−W (ω, xi−1))2 +

+n∑i=1

∫ xi

xi−1

(f ′′(W (ω, u))− f ′′(W (ω, xi−1)))(W (ω, xi)−W (ω, u))du.

Wir schatzen die Summen getrennt ab:

(i) Da f ′ stetig ist, ist die erste Summe mit den Aussagen aus Satz 4.10 (dessen Beweis einige Rechnungenerfordert) in Wahrscheinlichkeit konvergent fur n→∞ gegen

∫ t0f ′(W (ω, s))W (ω, ds).

(ii) Die zweite Summe schreiben wir als

12

n∑n=1

f ′′(W (ω, xi−1))(xi − xi−1) +

+12

n∑n=1

f ′′(W (ω, xi−1))(W (ω, xi)−W (ω, xi−1))2 − (xi − xi−1)︸ ︷︷ ︸=:Zn

,

wobei wir den ersten Term als Riemann-Integral darstellen:

12

n∑n=1

f ′′(W (ω, xi−1))(xi − xi−1) n→∞→∫ t

0

f ′′(W (ω, s))ds.

Der zweite Term (Zn) konvergiert in Wahrscheinlichkeit gegen 0. Dies zeigen wir mit der Markov-UngleichungP (|Zn − 0| > ε) ≤ 1

ε2E|Zn|2, denn:

E[Z2n] =

n∑i=1

E[f ′′(W (·, xi−1))2((W (·, xi)−W (·, xi−1))2 − (xi − xi−1))2]

≤ ||f ′′||2∞n∑i=1

E[((W (·, xi)−W (·, xi−1)︸ ︷︷ ︸∼N (0, tn )

)2 − (xi − xi−1))2]

≤ 2t2||f ′′||2∞n

→ 0.

(iii) Auch fur das Restglied zeigen wir mit der Markov-Ungleichung die Konvergenz gegen 0 in Wahrschein-lichkeit. Wir setzen dazu die fur r(x, y) angegebene obere Schranke (y − x)2h(x, y) in jeden Summanden einund schatzen den Erwartungswert ab mittels Cauchy-Schwarz-Ungleichung.

E[Vn] := E

∣∣∣∣∣n∑i=1

(W (·, xi)−W (·, xi−1))2h(W (·, xi−1),W (·, xi))

∣∣∣∣∣≤

n∑i=1

E[(W (·, xi)−W (·, xi−1)︸ ︷︷ ︸∼N (0, tn )⇒E[(... )]4= 3t2

n2

)4]12 · E[h2(W (·, xi−1),W (·, xi))]

12 .

22

Fur den zweiten Faktor nutzen wir die Eigenschaften von h aus: Gleichmaßige Stetigkeit von h und h(x, x) = 0fur alle x gibt uns zu jedem ε > 0 ein δ = δ(ε) > 0, so dass aus |x − y| ≤ δ schon |h(x, y)| ≤ ε folgt, denn|x− y| ≤ δ ergibt max(|x− y|, |x− x|) ≤ δ und somit |h(x, y)− h(x, x)| ≤ ε. Damit folgt:

E[h2(W (·, xi−1),W (·, xi))] =∫

|W (xi)−W (xi−1)|<δ

P (dω)h2(W (ω, xi−1),W (ω, xi)) +

+∫

|W (xi)−W (xi−1)|≥δ

P (dω)h2(W (ω, xi−1),W (ω, xi))

≤ ε2 + ||h||2∞P (|W (·, xi−1)−W (·, xi)| ≥ δ)(Markov-Ungleichung)

≤ ε2 + ||h||2∞E[|W (xi)−W (xi−1)|2] · 1δ2

= ε2 + ||h||2∞t

δ2n.

Es folgt (fur beliebiges ε > 0):

E|Vn| ≤ n ·(

3t2

n2

) 12

·(ε2 + ||h||2∞

t

δ2n

) 12

≤√

3t

((ε+ ||h||2∞

√t

δ√n

)2) 1

2

=

=√

3t(ε+

1√n

||h||∞tδ

).

Damit folgt lim supn→∞E|Vn| ≤√

3tε. Da ε > 0 beliebig war, folgt limn→∞E|Vn| = 0.

Damit haben wir fur die drei Summen einzeln Konvergenz in Wahrscheinlichkeit gezeigt. Dann konvergiertdie Gesamtsumme in Wahrscheinlichkeit gegen die Summe der Grenzwerte, also gegen 0, und das fur jedesfeste t. Dann existiert aber eine P-fast sicher konvergente Teilfolge. Fur jedes t ∈ [0,∞) gilt also die Ito-FormelP-fs. Lasse t die rationalen Zahlen durchlaufen und wende danach Stetigkeit der Pfade an, um zu zeigen, dasses Ω0 gibt mit P (Ω0) = 1, so dass fur alle ω ∈ Ω0 gilt: Ito’s Formel ist gultig fur alle t ∈ R+.Wir haben bisher Ito’s Formel fur Funktionen f : R→ R mit kompaktem Trager bewiesen. Der allgemeine Fallfolgt mit Lokalisierung. Sei f ∈ C2(R), dem Raum der zweimal stetig-differenzierbaren Funktionen. Dann gibtes zu jedem M > 0 ein fM ∈ C2(R) mit kompaktem Trager, so dass gilt: fM (x) = f(x) ∀x ∈ R mit |x| ≤ M .Also gilt die Ito-Formel:

fM (W (ω, t))− fM (0) =∫ t

0

f ′M (W (ω, s))W (ω, ds) +12

∫ t

0

f ′′M (W (ω, s))ds. (‡)

Wir definieren die Stoppzeit fur M > 0 : τM (ω) = min(t ∈ [0,∞) : |W (ω, t)| ≥M). Dann gilt nach Definitionfur alle ω ∈ ω : s ≤ τM (ω):

f ′(W (ω, s)) = f ′M (W (ω, s))

und nach Korollar 4.9 (Erhaltung von Gleichheit in L2LOC [0, T ]) somit∫ t

0

f ′(W (ω, s))W (ω, ds) =∫ t

0

f ′M (W (ω, s))W (ω, ds) auf ω ∈ Ω : t ≤ τM (ω),

sowie

f(W (ω, t)) = fM (W (ω, t)) und∫ t

0

f ′′(W (ω, s))ds =∫ t

0

f ′′M (W (ω, s))ds auf ω ∈ Ω : t ≤ τM (ω).

23

Damit ist (‡) gerade auf ω ∈ Ω : t ≤ τM (ω) die gesuchte Ito-Formel fur f ∈ C2(R).Weiter geht fur M →∞ auch P-fast sicher τM →∞, so dass die Ito-Formel auf Ω gilt.Der Beweis ist vollstandig gefuhrt. 2

Anmerkung zur Argumentation fur die Ito-Formel fur f ∈ C2(R) mit kompaktem Trager:(i) Wir haben die Endlichkeit von ||f ′′||∞ benutzt.(ii) die Abschatzung von r(x, y) :

r(x, y) ≤∫ y

x

|y − u| |(f ′′(u)− f ′′(x))|du ≤

≤ |y − x|∫ y

x

supx≤u≤y

|f ′′(u)− f ′′(x)|︸ ︷︷ ︸=:h(x,y)

du ≤ (y − x)2h(x, y).

2

Folgerung 5.2 g : R→ R sei stetig differenzierbar und besitze die Stammfunktion G auf [0, t]. Dann gilt fur0 ≤ s ≤ t und alle ω ∈ Ω:∫ t

s

g(W (ω, s))W (ω, ds) = G(W (ω, t))−G(W (ω, s))− 12

∫ t

s

g′(W (ω, s))ds.

Beweis: Direkt aus Satz 5.1 und Satz 3.14. 2

Die Folgerung 5.2 ist erstaunlich, weil wir auf der linken Seite ein Ito-Integral haben, dessen Definitiongerade nicht pfadweise moglich war, auf der rechten Seite steht aber eine Anweisung, wie in diesem speziellenFall dennoch pfadweise (also fur jedes ω ∈ Ω) gerechnet werden kann. Den zweiten (Integral-)Term der rechtenSeite kann man als Korrekturterm gegenuber der Riemann- oder Stieltjes-Integration ansehen.

Beispiel 5.3 Mit g(x) = x und somit g′(x) = 1, sowie G(x) = 12x

2 erhalten wir in der Folgerung 5.2:∫ b

a

W (ω, s)W (ω, ds) =12W (ω, b)− 1

2W (ω, a)− 1

2(b− a), ω ∈ Ω,

was gerade unser Beispiel 2 war.

Die folgende Verallgemeinerung von Satz 5.1 ist (Beweisskizze Steele [Ste01], S.116) nach dem gleichenSchema wie Satz 5.1 zu beweisen. Sei dazu Cm,n(R+×R) der Raum der Funktionen f : R+×R→ R, (t, x) 7→f(t, x), welche m-fach stetig nach t ableitbar sind und nach x n-fach stetig ableitbar sind.

Theorem 5.4 (Ito-Formel mit Variablen in Zeit und Raum) Sei f ∈ C1,2(R+ × R), dann gilt fur allet ≥ 0, ω ∈ Ω:

f(t,W (ω, t)) =∫ t

0

∂xf(s,W (ω, s))W (ω, ds) +

∫ t

0

∂tf(s,W (ω, s))ds+

+12

∫ t

0

∂2

∂x2f(s,W (ω, s))ds+ f(0, 0).

Folgerung 5.5 Sei f ∈ C1,2(R+ × R) und erfulle die folgende Differentialgleichung:

∂tf(t, x) = −1

2∂2

∂x2f(t, x) t ≥ 0, x ∈ R.

24

Dann ist der Prozess (X(ω, t) : t ≥ 0, ω ∈ Ω) = (f(t,W (ω, t)) : t ≥ 0, ω ∈ Ω) ein lokales Martingal.Gilt außerdem

E

[∫ T

0

(∂

∂xf(t,W (ω, t))

)2

dt

]<∞,

so ist (X(ω, t)) sogar ein Martingal.

Beweis: Wenn f die PDE erfullt, reduziert sich die Darstellung aus Satz 5.4 direkt zu:

f(t,W (ω, t)) = f(0, 0) +∫ t

0

∂xf(s,W (ω, s))W (ω, ds), ω ∈ Ω, t ≥ 0.

Da f ∈ C1,2(R+ × R) ist, ist ∂∂xf(t, x) stetig und damit ∂

∂xf(t,W (ω, t)) ∈ L2LOC [0, T ], 0 ≤ t ≤ T, ω ∈ Ω.

Damit ist nach Satz 4.13 das Ito-Integral eine Version eines lokalen Martingals.Unter der Zusatzbedingung ist zusatzlich ∂

∂xf(t,W (ω, t)) ∈ H2[0, T ], 0 ≤ t ≤ T, ω ∈ Ω, also das Ito-Integral daruber nach Satz 3.12 ein Martingal. 2

Die Bedingung aus der Folgerung 5.5 wird als ”Martingale PDE Condition“ bezeichnet.

Beispiel 5.6 (a) Ein haufig verwendetes Martingal ist der Prozess (M(t) = exp(αW (t)− α2

2 t) : t ≥ 0) = M .Dazu setzen wir f(t, x) = exp(αx− α2

2 t), t ≥ 0, x ∈ R. Direkte Rechnung zeigt:

∂tf(t, x) = −α

2

2f(t, x) und

∂2

∂x2f(t, x) = α2f(t, x).

Damit ist die ”Martingale PDE Condition“ aus Folgerung 5.5 erfullt, somit M ein lokales Martingal. Außerdemist direkt nachzurechnen, dass auch die dortige H2-Bedingung erfullt ist. Auf die gleiche Weise zeigt frau:(b) mit f(t, x) = x2 − t wird M(t) = W (t)2 − t ein Martingal, da auch f(t,W (·, t)) ∈ H2 ist,(c) mit f(t, x) = x wird W (t) ein Martingal, da W (t) ∈ H2 gilt.

Definition 5.7 (Differentielle Schreibweise der Ito-Formel) Sei f ∈ C1,2(R+×R) und X(ω, t) := f(t, (W (ω, t)), ω ∈Ω, t ≥ 0. Dann ist

dX(t) =∂

∂xf(t,W (t))W (dt) +

∂tf(t,W (t))dt+

12∂2

∂x2f(t,W (t))dt, t ≥ 0,

eine Kurzschreibweise fur die Ito-Formel

f(t,W (t)) = X(t) = X(0) +∫ t

0

∂xf(s,W (s))W (ds) +

∫ t

0

∂tf(s,W (s))ds+

+12

∫ t

0

∂2

∂t2f(s,W (s))ds, t ≥ 0,

aus Satz 5.4, wobei diese Formel ω-weise lesbar ist; entsprechend ist auch die ”Differentielle Form“ zu inter-pretieren. (Hinweis: Oft schreibt man dW (t) = W (dt).)

Beispiel 5.8 Es ist f : R+ × R → R, (t, x) 7→ µt + σx, mit t ∈ R, s ∈ (0,∞) aus C1,2(R+ × R). Damitkonnen wir uber die Ito-Formel aus Satz 5.4 mit ∂

∂xf(t, x) = σ, ∂∂tf(t, x) = µ und ∂2

∂x2 f(t, x) = 0 den ProzessX(t) = f(t,W (t)), t ≥ 0, berechnen:

X(ω, t) = 0 +∫ t

0

σW (ω, ds) +∫ t

0

µds = µt+ σW (ω, t), ω ∈ Ω, t ≥ 0.

25

Es ist also X = (X(t) : t ≥ 0) ein Wiener Prozess mit konstanter Drift µ und konstanter Varianz σ2. NachDefinition 5.7 konnen wir diesen Prozess auch differentiell charakterisieren als:

dX(t) = µdt+ σW (dt) = µdt+ σdW (t).

Fasst man in der Ito-Formel die Riemann-Integrale zusammen, so haben wir in der Notation aus Definition5.7:

dX(t) = dX(ω, t) = X(ω, dt) = a(ω, t)dt+ b(ω, t)W (ω, dt).

Sei f : R+ × R derart, dass gilt:

• f(ω, s) · a(ω, s) ∈ L1(λ1) P-fast sicher fur ω.

• f(ω, s) · b(ω, s) ∈ L2LOC .

Dann kann mittels

Y (ω, t) :=∫ t

0

f(ω, s)X(ω, ds) :=

:=∫ t

0

f(ω, s)a(ω, s)ds+∫ t

0

f(ω, s)b(ω, s)W (ω, ds) t ≥ 0, ω ∈ Ω,

ein Integral bezuglich eines Ito-Prozesses definiert werden.

Als Folge der bisherigen Herleitungen gibt es sofort das Problem:Sei g : R+ ×R→ R hinreichend glatt. Kann dann g(t, Y (ω, t)) wieder als dX(t)-Integral ausgedruckt werden?

Die Ito-Formel des Satzes 5.4 sagt gerade, dass dies im Falle der standardisierten Brownschen Bewegungder Fall ist.

Beispiel 5.9 Sei X = (X(t) : t ≥ 0) ein Wiener Prozess mit Drift µ (konstant) und Varianz σ2 (konstant).Sei f : R+ × R→ R ∈ C1,2(R+ × R). Wir suchen eine Darstellung fur Y (ω, t) := f(t,X(ω, t)). In diesem Fallhilft die Ito-Formel direkt weiter, denn wir haben Y (ω, t) := f(t, µt+ σW (ω, t)), t ≥ 0, ω ∈ Ω. Setzen wir alsog(t, x) := f(t, µt+ σx), so folgt: Y (ω, t) = g(t,W (ω, t)) und g ∈ C1,2(R+ × R).Die Ito-Formel (in der differentiellen Schreibweise aus Definition 5.7 ergibt fur Y (t):

dY (t) =∂

∂tg(t,W (t))dt+

∂xg(t,W (t))W (dt) +

∂2

∂x2g(t,W (t))dt.

Direktes Rechnen ergibt:

∂tg(t, x) =

∂tf(t, µt+ σx) +

∂xf(t, µt+ σx) · µ

∂xg(t, x) =

∂xf(t, µt+ σx) · σ

∂2

∂x2g(t, x) =

∂2

∂x2f(t, µt+ σx) · σ2, und Einsetzen:

dY (t) =∂

∂tf(t, µt+ σW (t))dt+

∂xf(t, µt+ σW (t)) · (µdt+ σ ·W (dt)) +

+12∂2

∂x2f(t, µt+ σW (t)) · σ2dt =

=∂

∂tf(t,X(t))dt+

∂xf(t,X(t))dX(t) +

12∂2

∂x2f(t,X(t)) · σ2dt

(∗)= f(t,X(t)),

26

wobei(∗)= nur nochmals die Definition von Y (t) wiederholt. In differentieller Form haben wir damit die Ito-

Formel fur den nicht-standardisierten Wiener Prozess mit konstanten Koeffizienten hergeleitet. Diese Formelist fur allgemeine Prozesse herleitbar; hinreichend ist, dass Y (t) = f(t,W (t)) gilt mit f ∈ C1,2(R+ × R).

Beispiel 5.10 Sei X(t) = exp(αt+ σW (t)), t ≥ 0, mit α ∈ R, σ > 0.Dann ist X = (X(t) : t ≥ 0) die geometrische Brownsche Bewegung.Mit mehr Aufwand beim Herleiten der partiellen Ableitungen wird auch hier die differentielle Form der Ito-Formel nachgewiesen:

dX(t) =(α+

12σ2

)X(t)dt+ σX(t)dW (t).

Anmerkung 5.11 Der einzige ”Trick“ in der Herleitung der Ito-Formel fur den allgemeinen Wiener Prozesswar die Zusammenfassung der ”Linearfaktoren“ bei ∂

∂xf(t, µt+σW (t)) und die anschließende Folgerung, dassdieser formal errechnete Term (µdt + σW (dt)) auch tatsachlich einen, sogar denselben Wiener Prozess beieiner Ruckinterpretation darstellt.Ein entsprechender Kalkul ist beweisbar: Seien α, β, a, b adaptierte Prozesse, dann gilt:

(adt+ bW (dt))(αdt+ βW (dt)) == aαdt · dt+ aβdt ·W (dt) + bαW (dt) · dt+ bβW (dt) ·W (dt)= bβdt, mit den Rechenregeln:

· dt dW (t)dt 0 0

dW (t) 0 dt

Definition 5.12 Ein stochastischer Prozess X = (X(t) : 0 ≤ t ≤ T ) heißt Standard-Prozess, wenn er eineIntegraldarstellung

X(ω, t) = x0 +∫ t

0

a(ω, s)ds+∫ t

0

b(ω, s)W (ω, ds), ω ∈ Ω, t ∈ [0, T ],

besitzt, wobei a(ω, s), b(ω, s), ω ∈ Ω, s ∈ [0, T ], adaptierte, messbare Prozesse sind, welche den Integrabilitats-bedingungen

P

(ω :∫ T

0

|a(ω, s)|ds <∞

)= 1, P

(ω :∫ T

0

b2(ω, s)ds <∞

)= 1

genugen, d.h. a(ω, ·) ist P-fs Riemann-integrierbar und b ∈ L2LOC [0, T ].

Die Beweise der beiden folgenden Satze finden sich bei Steele [Ste01], S. 128-134.

Theorem 5.13 Sei f ∈ C1,2(R+ × R) und X = (X(t) : 0 ≤ t ≤ T ) ein Standard-Prozess mit Darstellung

X(ω, t) =∫ t

0

a(ω, s)ds+∫ t

0

b(ω, s)W (ω, ds), ω ∈ Ω, 0 ≤ t ≤ T.

Dann gilt die Ito-Formel:

f(t,X(ω, t)) = f(0, 0) +∫ t

0

∂tf(s,X(ω, s))ds+

∫ t

0

∂xf(s,X(ω, s))X(ω, ds) +

+12

∫ t

0

∂2

∂x2f(s,X(ω, s))b2(ω, s)ds, ω ∈ Ω, 0 ≤ t ≤ T.

27

Corollary 5.14 Unter den Voraussetzungen des Satzes 6.13. haben wir fur den Prozess Y (ω, t) := f(t,X(ω, t)), ω ∈Ω, 0 ≤ t ≤ T , die differentielle Darstellung

dY (t) =∂

∂tf(t,X(t))dt+

∂xf(t,X(t))dX(t) +

12∂2

∂x2f(t,X(t))dX(t) · dX(t)

Beweis: Der einzige nicht direkt sichtbare bergang ist:

12

∫ t

0

∂2

∂x2f(s,X(ω, s))b2(ω, s)ds ;

12∂2

∂x2f(t,X(t))dX(t) · dX(t) =

=12∂2

∂x2f(t,X(t))b2(ω, t)dt.

Unsere Rechenregeln (Box-Kalkul) ergeben aber aus der Darstellung von X als dX(t) = a(t)dt + b(t)dW (t)die Vereinfachung

dX(t) · dX(t) = (a(t)dt+ b(t)dW (t))2 = b2(t)dt.

2

Theorem 5.15 Sei f ∈ C2,2(R+×R) und X = (X(t) : 0 ≤ t ≤ T ), Y = (Y (t) : 0 ≤ t ≤ T ) Standard-Prozessemit den Darstellungen

X(ω, t) =∫ t

0

a(ω, s)ds+∫ t

0

b(ω, s)W (ω, ds),

Y (ω, t) =∫ t

0

α(ω, s)ds+∫ t

0

β(ω, s)W (ω, ds).

Dann gilt:

f(X(ω, t),Y (ω, t)) = f(0, 0) +∫ t

0

∂xf(X(ω, s), Y (ω, s))X(ω, ds) +

+∫ t

0

∂yf(X(ω, s), Y (ω, s))Y (ω, ds) +

+12

∫ t

0

∂2

∂x2f(X(ω, s), Y (ω, s))b2(ω, s)ds+

+12

∫ t

0

∂2

∂y2f(X(ω, s), Y (ω, s))β2(ω, s)ds+

+∫ t

0

∂2

∂x∂yf(X(ω, s), Y (ω, s))b(ω, s)β(ω, s)ds, 0 ≤ t ≤ T, ω ∈ Ω.

Corollary 5.16 Unter den Annahmen des Satzes 5.15 hat der Prozess Z(t) = f(X(t), Y (t)) die folgendedifferentielle Darstellung:

dZ(t) =∂

∂xf(X(t), Y (t))dX(t) +

∂yf(X(t), Y (t))dY (t) +

+12∂2

∂x2f(X(t), Y (t))dX(t) · dX(t) +

∂2

∂x∂yf(X(t), Y (t))dX(t) · dY (t) +

+12∂2

∂x2f(X(t), Y (t))dY (t) · dX(t), t ≥ 0.

28

In der einfachsten Ito-Formel (aus Satz 5.4) haben wir fur f ∈ C1,2(R+ × R) eine Darstellung

f(t,W (t)) =∫ t

0

(∂

∂tf(s,W (s)) +

12∂2

∂x2f(s,W (s))

)ds+

∫ t

0

∂xf(s,W (s))W (ds) =

=:∫ t

0

a(s,W (s))ds+∫ t

0

b(s,W (s))W (ds),

und wir wissen, dass gilt: E[∫ t

0b(s,W (s))W (ds)] = 0. Also ist samtliche Information uber die Drift von

f(t,W (t)) =: Y (t) im ersten Integral enthalten. Die Variabilitat wird im Wesentlichen durch das Ito-Integraldargestellt.

In der differentiellen Form dY (t) = a(t,W (t))dt + b(t,W (t))W (dt) interpretiert man in der Modellierungmit stoch. DGL entsprechend.

Beispiel 5.17 Gegeben dX(t) = µ(t,X(t))dt+σ(t,X(t))dW (t) mit einer Anfangsbedingung X(0) = x0. Dannbestimmt µ(·, ·) die kurzfristigen (differentiellen) Zuwachse und σ(·, ·) die entsprechende Variabilitat von X.Wir untersuchen ein Beispiel:

µ(b, x) := µ · x, µ ∈ R, σ(t, x) = σ · x, σ > 0.

Drift und Variabilitat sind also proportional zum aktuellen Zustand und wir haben:

dX(t) = µ ·X(t)dt+ σ ·X(t)dW (t), X(0) = x0 > 0.

Zu einer ”Losung“ dieser SDE machen wir den Ansatz X(t) = f(t,W (t)), t ≥ 0, mit hinreichend glattemf(·, ·) ∈ C1,2(R+ × R). Die Ito-Formel liefert dann das zugehorige Differential und wir konnen Koeffizienten-vergleich machen:

µ · f(t, x) =∂

∂tf(t, x) +

12∂2

∂x2f(t, x)

σ · f(t, x) =∂

∂xf(t, x), d.h.:

∂xf(t, x) · 1

f(t, x)= σ.

Die letzte Gleichung besitzt die Losung f(t, x) = exp(σx + g(t)) fur eine frei wahlbare glatte Funktion g(·).Einsetzen in die erste Gleichung liefert:

d

dtg(t) = µ− 1

2σ2.

Damit gilt insgesamt:

X(t) = f(t,W (t)) = x0 · exp((

µ− 12σ2

)t+ σW (t)

),

es handelt sich also um die geometrische Brownsche Bewegung aus Beispiel 5.10.

Anmerkung: Fur nicht allzu komplizierte SDE muss die Menge der zulassigen ”Ansatzfunktionen“ nochvergroßert werden, siehe z. B.: [Ste01], S. 137ff.

Literatur

[Arn73] L. Arnold. Stochastische Differentialgleichungen: Theorie und Anwendungen. R. Oldenbourg Verlag,Munchen – Wien, 1973.

29

[CW90] K. L. Chung and R. J. Williams. Introduction to Staochastic Integration. Birkhauser, 2 edition, 1990.

[Fic67] G.M. Fichtenholz. Differential- und Integralrechnung III. VEB Deutscher Verlag der Wissenschaften,Berlin, 2 edition, 1967.

[Øks03] B. Øksendal. Stochastic Differential Equations. Springer, Berlin, 6 edition, 2003.

[Ste01] J.M. Steele. Stochastic Calculus and Financial Applications, volume 45 of Applications of Mathematics- Stochastic Modelling and Applied Probability. Springer, New York, 2001.

30