3. Stochastische Prozesse und ARIMA-Modelle 3.1 Stochastische Prozesse und Stationarität...

27
3. Stochastische Prozesse und ARIMA- Modelle 3.1 Stochastische Prozesse und Stationarität Stochastischer Prozess T Menge der Zeitpunkte, für die der Prozess definiert ist wenn T kontinuierlich (meist wenn T diskret (i.d.R. oder Realisation eines stochastischen Prozesses ( Zeitreihe) T t t X T t t X Stochastischer Prozess (Menge von Zufalls-variablen) t t X , also t X , , 3 , 2 , 1 t als o , , 3 , 2 , 1 t also ) n , , 2 , 1 t t x ) R T T T ˆ

Transcript of 3. Stochastische Prozesse und ARIMA-Modelle 3.1 Stochastische Prozesse und Stationarität...

Page 1: 3. Stochastische Prozesse und ARIMA-Modelle 3.1 Stochastische Prozesse und Stationarität Stochastischer Prozess TMenge der Zeitpunkte, für die der Prozess.

3.   Stochastische Prozesse und ARIMA-Modelle3.1  Stochastische Prozesse und Stationarität

Stochastischer Prozess

T Menge der Zeitpunkte, für die der Prozess definiert ist

wenn T kontinuierlich (meist

wenn T diskret (i.d.R. oder

Realisation eines stochastischen Prozesses ( Zeitreihe)

TttX TttX Stochastischer Prozess (Menge von Zufalls-variablen)

t tX , also

tX ,,3,2,1t also ,,3,2,1t

also )

n,,2,1ttx

)RT

T

T

Page 2: 3. Stochastische Prozesse und ARIMA-Modelle 3.1 Stochastische Prozesse und Stationarität Stochastischer Prozess TMenge der Zeitpunkte, für die der Prozess.

Abbildung 3.1: Stochastischer Prozess und Zeitreihe

Zeitreihe

mögliche Realisationen eines stoch. Prozesses

0tt

tt x,X

:X tt IR

Page 3: 3. Stochastische Prozesse und ARIMA-Modelle 3.1 Stochastische Prozesse und Stationarität Stochastischer Prozess TMenge der Zeitpunkte, für die der Prozess.

Übersicht 3.1: Stochastischer Prozess und Zufallsvorgänge

t fest t variabel

xxtfest Realisation der

Zufallsvariablen X

Tttx Zeitreihe

variabel

XXtZufallsvariable (zu einem best. Zeitpunkt)

TttX

vollst. stoch. Prozess

Definition:

Ein stochastischer Prozess ist eine Folge von Zufallsvariablen, in der T die Menge der Zeitpunkte bezeichnet, für die der Prozess definiert ist.

Falls ist, spricht man von einem diskreten stochastischen Prozess, bei von einem stetigen stochastischen Prozess.

TttX

ZT IRT

Page 4: 3. Stochastische Prozesse und ARIMA-Modelle 3.1 Stochastische Prozesse und Stationarität Stochastischer Prozess TMenge der Zeitpunkte, für die der Prozess.

Einem stochastischen Prozess liegt ein Zufallsvorgang zugrunde.

Sei ein Element des Stichprobenraums . Das Ergebnis des Zufallsvorgangs zieht somit den Wert der Zufallsvariablen nach sich.

Stochastischer Prozess als "ensemble" von Zeitreihen (Zeitpfaden, Trajektorien).

Jedes Mitglied dieses "ensembles" (dieser Familie) ist eine mögliche Realisation eines stochastischen Prozesses. Die beobachtete Zeitreihe ist eine spezielle Realisation.

tx

tt XX

Interpretation:

Page 5: 3. Stochastische Prozesse und ARIMA-Modelle 3.1 Stochastische Prozesse und Stationarität Stochastischer Prozess TMenge der Zeitpunkte, für die der Prozess.

Ergodizität:

In der induktiven Statistik werden im Allgemeinen unabhängige und identisch

verteilte Stichprobenvariablen bei der Schätzung der Parameter einer

Grundgesamtheit vorausgesetzt. Es lassen sich dann i.d.R. Schätzfunktionen

konstruieren, die die Konsistenzeigenschaft besitzen. Z.B. sind und S2

konsistente Schätzer für die Parameter und 2 .

In der Zeitreihenanalyse ist die Unabhängigkeitsannahme im

Allgemeinen gerade nicht erfüllt. Vielmehr werden die Zeitreihenwerte als

Realisationen verschiedener abhängiger Zufallsvariablen aufgefasst. Zu

jedem Zeitpunkt (Periode) liegt nur eine einzige Beobachtung der

betrachteten Zufallsvariablen vor. Wenn man trotzdem die n Zeitreihenwerte

analog wie n Querschnittswerte zur Parameterschätzung verwenden wird,

müssen bestimmte Voraussetzungen erfüllt sein.

X

Page 6: 3. Stochastische Prozesse und ARIMA-Modelle 3.1 Stochastische Prozesse und Stationarität Stochastischer Prozess TMenge der Zeitpunkte, für die der Prozess.

Zuallererst ist zu klären, unter welchen Bedingungen das zeitliche Mittel

gegen das Ensemble-Mittel konvergiert, d.h. eine konsistente Schätzung

von durch

möglich ist. Aufklärung hierüber geben die Ergodensätze. Die

Konvergenz ist gesi-chert, wenn der betrachtete stochastische Prozess

ergodisch ist. Wie sich zeigt, sind schwach stationäre Prozesse mit einer

bestimmten Zusatzeigenschaft ergodisch.

Im Falle der Mittelwertergodizität gilt z.B.

was bei einem (schwach) stationären stochastischen Prozess gegeben ist,

wenn seine Autokovarianzfunktion absolut summierbar ist. Das

Ensemblemittel lässt sich dann konsistent durch das zeitliche Mittel

schätzen.

n

1ttn X

n1

X

X

0Xn1

limn

1t

2t

n

nX

Page 7: 3. Stochastische Prozesse und ARIMA-Modelle 3.1 Stochastische Prozesse und Stationarität Stochastischer Prozess TMenge der Zeitpunkte, für die der Prozess.

Eine Zeitreihe ist eine spezielle Realisation aus einer i.d.R. unendlichen Menge

von mög-lichen Realisationen von . Zu jedem Zeitpunkt liegt nur 1

Beobachtung für die Zufallsvariable Xt vor, während gewöhnlich bei

statistischen Problemen mehrere Beobachtungen zur Schätzung einer

Wahrscheinlichkeitsverteilung oder ihrer Charak-teristiken verfügbar sind. Es

werden daher zur Schätzung der gemeinsamen Wahrschein-lichkeitsverteilung

von Restriktionen einzuführen sein.

TttX

n21 ttt X,,X,X

Page 8: 3. Stochastische Prozesse und ARIMA-Modelle 3.1 Stochastische Prozesse und Stationarität Stochastischer Prozess TMenge der Zeitpunkte, für die der Prozess.

Konsistenztheorem v. Kolmogoroff: Stoch. Prozess eindeutig, wenn man das System seiner endlich-dimensionalen Verteilungsfunktionen kennt.

Eine Möglichkeit, einen stochastischen Prozess zu beschreiben, ist die

gemeinsame Wahrscheinlichkeitsverteilung von für beliebige

Mengen (Permutatio-nen) von Zeitpunkten und beliebiges n zu

spezifizieren.

Gemeinsame Wahrscheinlichkeitsverteilung von :

(3.1.1)

n2

tionDichtefunk gemeinsame

1n21t,,t,txxx

gsfunktion Verteilungemeinsame

n21t,,t,t ddd,,,fx,,x,xFn21n21

n21 ttt X,,X,X

n21 t,,t,t

n21 ttt X,,X,X

Page 9: 3. Stochastische Prozesse und ARIMA-Modelle 3.1 Stochastische Prozesse und Stationarität Stochastischer Prozess TMenge der Zeitpunkte, für die der Prozess.

Momente eines stochastischen Prozesses (Momente erster und zweiter Ordnung):

Mittelwertfunktion t:(-folge)

(3.1.2)

Varianzfunktion :(-folge)

(3.1.3)

Autokovarianzfunktion :(ACVF) (-folge)

(3.1.4)

tt X

2t t

2t XVar

s,t sstt

sts,t

XX

X,XCov

sts,ts,t

Für die Autokorrelationsfunktion (ACF) folgt dann (-folge)

(3.1.5)

In der Praxis ist dieser Weg i.d.R. jedoch nicht gangbar. Stattdessen beschreibt man einen stochastischen Prozess durch seine Momente erster und zweiter Ordnung.

Page 10: 3. Stochastische Prozesse und ARIMA-Modelle 3.1 Stochastische Prozesse und Stationarität Stochastischer Prozess TMenge der Zeitpunkte, für die der Prozess.

   Die Mittelwertfolge gibt die durchschnittliche Zeitfolge an, um die die

Realisie-run-gen des Prozesses schwanken. Mittelung über alle Zeitfolgen

des "ensembles" (= Ensemblemittel).

Dagegen ergibt sich bei Mittelung der einzelnen realisierten Beobachtungen

über alle t das zeitliche Mittel

• Die Varianzfolge gibt für jeden Zeitpunkt t an, in welchem Ausmaß die

Zufalls-variable um den Wert der Mittelwertfolge streut.

 Bei einem stochastischen Prozess sind die Zufallsvariablen

typischerweise vonein-ander stochastisch abhängig. Das Hauptinteresse liegt

in der Analyse der Abhängig-keitsstrukturen mittels geeigneter Modelle.

Richtung und Stärke der Abhängigkeit werden mittels der Autokovarianzfolge

(ACVF) und der Autokorrelationsfolge (ACF)

gemessen.

Interpretation:

t

n

1ttx

n1

x

2t

tX t

s,t

s,t

tX

Page 11: 3. Stochastische Prozesse und ARIMA-Modelle 3.1 Stochastische Prozesse und Stationarität Stochastischer Prozess TMenge der Zeitpunkte, für die der Prozess.

Streng stationärer stochastischer Prozess

(3.1.6) n21t,,t,tn21t,,t,t x,,x,xFx,,x,xFn21n21

Die gemeinsame Verteilungsfunktion der Zufallsvariablen ist identisch mit der Verteilungsfunktion der um Zeitpunkte verschobenen Zufallsvariablen .

Die gemeinsame Wahrscheinlichkeitsverteilung von hängt also nur von den Intervallen zwischen ab.

Schwach stationärer Prozess

(3.1.7)

(3.1.8)

(3.1.9)

oder, wenn man setzt:

(3.1.9‘)

n21 ttt X,,X,X

n21 ttt x,,x,x

n21 ttt X,,X,X

n21 t,,t,t

tallefürt

tallefür22t

sts,t

st

s,t

[Bem.: Kovarianz zwischen Xt und Xs ist nur von der zeitlichen Differenz abhängig, nicht jedoch von den Zeitpunkten.]

Page 12: 3. Stochastische Prozesse und ARIMA-Modelle 3.1 Stochastische Prozesse und Stationarität Stochastischer Prozess TMenge der Zeitpunkte, für die der Prozess.

Für die Autokorrelationsfunktion (ACF) folgt damit

(3.1.10)

oder mit (3.1.9)

(3.1.10‘)

200ststs,t mit

0s,t

Page 13: 3. Stochastische Prozesse und ARIMA-Modelle 3.1 Stochastische Prozesse und Stationarität Stochastischer Prozess TMenge der Zeitpunkte, für die der Prozess.

Exkurs: Trendelimination durch Differenzenbildung

• Linearer Trend

Durch Bildung der ersten Differenzen lässt sich ein linearer Trend ausschalten.

• Quadratischer Trend

111010

10101ttt

10t

aataataa

1taataaxxx

taax

2t1tt

2t1t1tt1ttt2

2210t

xx2x

xxxxxxx

tataax

221222

212

2

22110

2210

2210

22101ttt

ata2aata2taata

1t2taataatataa

1ta1taatataaxxx

221

222

2110222

2110

2211022

22110

2210

22102t1t1t

a3ta2a

a4ta4taa2taaata2taataa

4t4taa2taaata2taataa

2ta2taa1ta1taaxxx

2

2212211ttt2

a2

a3ta2aata2axxx

Durch Bildung der zweiten Differenzen lässt sich ein quadratischer Trend ausschalten.

Page 14: 3. Stochastische Prozesse und ARIMA-Modelle 3.1 Stochastische Prozesse und Stationarität Stochastischer Prozess TMenge der Zeitpunkte, für die der Prozess.

White-Noise-Prozess

Ein stochastischer Prozess heißt White-Noise-Prozess, wenn er die

Eigenschaften

besitzt.

Beim White-Noise-Prozess werden allein die beiden ersten Momente

betrachtet. Da die Autokovarianzen verschwinden, besteht keine lineare

Beziehung zwischen den vergangenen, aktuellen und zukünftigen

Realisationen der Zufallsvariablen ut. Das bedeutet, dass auf

der Basis eines linearen Zeitreihenmodells nicht prognostiziert werden

kann. Wenn allerdings höhere Momente des stochastischen Prozesses

ungleich null sind, könnte ggf. unter Verwendung eines nichtlinearen

Modells vorhergesagt werden.

tU

stfür0U,UCov

und

UVar

,gesetzt0UEwird.a.iUE

st

2t

tt

0h,u ht

tU htU

Page 15: 3. Stochastische Prozesse und ARIMA-Modelle 3.1 Stochastische Prozesse und Stationarität Stochastischer Prozess TMenge der Zeitpunkte, für die der Prozess.

Eine Zufallsvariable ist unabhängig und identisch verteilt

[independent and identically distributed (= i.i.d.)], wenn alle Terme zeitlich

unabhängig sind und dieselbe Verteilung haben. Die Dichtefunktionen

sind dann für alle t identisch,

für alle t,

und die gemeinsame Dichtefunktion ist dann gleich dem

Produkt der marginalen Dichtefunktionen :

.

Die Kenntnis vergangener und aktueller Werte von liefert dann keine prognostisch verwertbaren Informationen für .

Tt

T

1tttT21T,,2,1 ufufu,,u,uf

T21T,,2,1 u,,u,uf

0h,u ht

ttt ufuf

tuf

tu

tU

Unabhängige und identische Verteilung (i.i.d.)

tuf

Page 16: 3. Stochastische Prozesse und ARIMA-Modelle 3.1 Stochastische Prozesse und Stationarität Stochastischer Prozess TMenge der Zeitpunkte, für die der Prozess.

Martingale-Prozess

Ein stochastischer Prozess , der die Eigenschaft

(3.1.11)

besitzt, heißt Martingale-Prozess.Wenn xt der bekannte aktuelle Aktienkurs ist, dann würde für die Periode t+1 bei einem Martingale-Prozess unter Kenntnis aller vergangenen Kursinformationen genau derselbe Kurs zu erwarten sein. Als "tomorrow's price" ist stets "today's price" zu er-warten.Die Verwertung vergangener Kursrealisationen führt zu keiner verbesserten Kursprog-nose. Vielmehr ist die beste Kursprognose im Sinne des Mean Square Errors stets einfach der aktuelle Kurs.

Die Martingale-Eigenschaft lässt sich gleichwertig in der Form

(3.1.12)

mit der "Martingale-Differenz“

darstellen. Die Martingale-Differenz hat hinsichtlich des Erwartungswerts und der Ko-varianzen dieselben Eigenschaften wie der White-Noise-Prozess, doch ist die Varianz nicht notwendig konstant.

tX

t2t1tt1t x,x,x,xX

0,x,x,xXE 2t1tt1t

t1t1t XXX

Page 17: 3. Stochastische Prozesse und ARIMA-Modelle 3.1 Stochastische Prozesse und Stationarität Stochastischer Prozess TMenge der Zeitpunkte, für die der Prozess.

Bei einer Interpretation von xt als Aktienkurs sagt die Eigenschaft (3.1.12) aus, dass die erwartete Kursänderung unter Berücksichtigung der gesamten Kurshistorie der Aktie gleich null ist.

Auf bestimmten spekulativen Märkten wie z.B. auf Aktienmärkten wird ein Kapitalan-leger finanzielle Mittel nur bei Erwartung einer positiven Rendite investieren. Der für die Periode t+1 erwartete Kurs (ggf. bereinigt um Dividenden, Kapitalveränderungen etc.) muss dann bei gegebenen vergangenen Kursen größer als der aktuelle Kurs sein. Lässt man die Gleichheit als Extremfall zu, dann hat man durch

(3.1.13)

einen Submartingale-Prozess definiert.

Die erwarteten Kurse sind hierbei stets größer oder gleich dem aktuellen Kurs. Sofern die kursrelevante Informationsmenge auf die Kurshistorie restringiert wird, sind in den Aktienkursen stets alle Informationen enthalten. Überdurchschnittliche Renditen sind daher nicht mit einem Submartingale-Prozess vereinbar. Vielmehr ist zu erwarten, dass alternative "trading rules" im Mittel keine höheren Renditen abwerfen als die einfache "buy and hold"-Strategie.

t2t1tt1t x,x,x,xX

Page 18: 3. Stochastische Prozesse und ARIMA-Modelle 3.1 Stochastische Prozesse und Stationarität Stochastischer Prozess TMenge der Zeitpunkte, für die der Prozess.

Aufgrund dessen wird der (Sub-)Martingale-Prozess bei einer Anwendung auf spekulati-ven Märkten als eine Ausprägung eines "fair game"-Modells angesehen. Das bedeutet, dass z.B. die Investition auf einem Aktienmarkt ein faires Spiel in dem Sinne ist, dass kein Investor, der den aktuellen Kurs kennt, Vorteile gegenüber einem anderen Inves-tor besitzt. Es gibt keine Strategien, die es ermöglichen, den Markt zu "schlagen".

Bei der Definition des (Sub-)Martingale-Prozesses ist hinsichtlich der Verteilung der Zufallsvariablen Xt allein eine Aussage über den (bedingten) Erwartungswert gemacht worden. Die höheren (bedingten) Momente sind dagegen unspezifiziert geblieben. So braucht z.B. bei einem (Sub-)Martingale-Prozess die bedingte Varianz nicht notwendig konstant zu sein. Allgemein sind die nichtlinearen Eigenschaften eines (Sub-)Martingale-Prozesses offen, da die bedingten Erwartungswerte

für größere Werte von p nicht spezifiziert sind.

,x,x,xX 2t1ttp

1t

Page 19: 3. Stochastische Prozesse und ARIMA-Modelle 3.1 Stochastische Prozesse und Stationarität Stochastischer Prozess TMenge der Zeitpunkte, für die der Prozess.

Es sei Ut eine unabhängig identisch verteilte Zufallsvariable (i.i.d.) mit den

Parametern und . Dann folgt die Zufallsvariable Xt,

(3.1.14)             

einem Random Walk. Man spricht von einem Random Walk, wenn der aktuelle Wert einer Zufallsvariablen sich aus dem Vorperiodenwert plus einer Realisation einer i.i.d.-Zufalls variablen ergibt. Auf diese Weise ergibt sich ein Zufallspfad, der nicht-stationär ist, d.h. sich beliebig von seinem Mittelwert entfernen kann. Hieraus hat sich der Begriff der Irrfahrt geprägt, die gelegentlich z.B. bei Aktienkursen und anderen spekulativen Preisen zu beobachten ist.Um den Erwartungswert und die Varianz des Prozesses zu ermitteln, setzen wir den Anfangswert x0 ohne Einschränkung der Allgemeinheit gleich null:

(3.1.15)    x0 = 0.

Dann ergibt sich die Folge (Xt) aus

0Ut 2tUVar

t1tt UXX

Random Walk

3213

212

11

UUUX

UUX

UX

Page 20: 3. Stochastische Prozesse und ARIMA-Modelle 3.1 Stochastische Prozesse und Stationarität Stochastischer Prozess TMenge der Zeitpunkte, für die der Prozess.

(3.1.16)             

Unter Verwendung von (3.1.16) lässt sich leicht der unbedingte

Erwartungswert

(3.1.17)

ableiten. Gleichermaßen erhält man die unbekannte Varianz des Prozesses

aus

(3.1.18)

[Für t, d.h. bei unendl. lang andauerndem Prozess geht die Varianz gegen unendlich.]

Während der unbedingte Erwartungswert eines Random Walks zeitlich konstant ist, trifft dies für seine unbedingte Varianz nicht zu. Vielmehr nimmt sie mit wachsendem t zu und ist daher zeitvariabel. Der Random Walk-Prozess (3.1.14) ist daher mittelwertstationär,

t21t UUUX

0

UUU

UUUX

t21

t21t

2

t21

.unabh

t21t

t

UVarUVarUVar

UUUVarXVar

Page 21: 3. Stochastische Prozesse und ARIMA-Modelle 3.1 Stochastische Prozesse und Stationarität Stochastischer Prozess TMenge der Zeitpunkte, für die der Prozess.

aber nicht varianzstationär. Wie sich zeigen lässt, ist der Random Walk (3.1.14) eben-falls nicht kovarianzstationär. Wegen

(3.1.19)

hängt seine Kovarianz wie die Varianz vom Zeitindex t ab. Die Autokorrelationsfunktion des Random Walks,

(3.1.20) ,

ist nicht nur eine Funktion der zeitlichen Differenz |s–t|, sondern auch von den konkre-ten Zeitperioden t und s abhängig, für die sie betrachtet wird. Abbildung 3.2 gibt eine typische Realisation eines Random Walks in einem Zeitreihendiagramm wieder. Die im Zeitablauf zunehmende Varianz bewirkt, dass sich die Realisationen im Mittel immer weiter voneinander entfernen.

st0,tXXCov 2st

st

s,t

Page 22: 3. Stochastische Prozesse und ARIMA-Modelle 3.1 Stochastische Prozesse und Stationarität Stochastischer Prozess TMenge der Zeitpunkte, für die der Prozess.

Abbildung 3.2: Zeitpfad eines Random Walks

t

tX

Page 23: 3. Stochastische Prozesse und ARIMA-Modelle 3.1 Stochastische Prozesse und Stationarität Stochastischer Prozess TMenge der Zeitpunkte, für die der Prozess.

Durch Differenzenbildung lässt sich der nichtstationäre Prozess in einen stationären Prozess überführen:

(3.1.21)

Wie aus (3.1.21) hervorgeht, ist ein i.i.d.-Prozess, dessen Parameter mit denen des i.i.d.-Prozesses übereinstimmen.

Der bedingte Erwartungswert ist unabhängig von

da sich modellmäßig alle Informationen bis zur Periode t–1 im Vorperiodenwert widerspiegeln:

(3.1.22)

Die Beziehung (3.1.22) kann zur Bestimmung eines Prognosewerts für die Periode n+1 unter Berücksichtigung der gesamten Zeitreihenhistorie verwendet werden. Der Prognosewert ist durch den bedingten Erwartungswert

(3.1.23)

tX tX

tt UX

tU

12t1tt x,,x,xX 13t2t x,,x,x 1tx

1tt1t

t1t12t1tt

xUx

UXx,,x,xX

tX

1,nX

1,nX

n1nn

1nn11nn1n1,n

xUX

UXx,,x,xXX

Page 24: 3. Stochastische Prozesse und ARIMA-Modelle 3.1 Stochastische Prozesse und Stationarität Stochastischer Prozess TMenge der Zeitpunkte, für die der Prozess.

gegeben, d.h. die Ein-Schrittprognose entspricht genau dem letzten bekannten Zeitreihenwert. Analog ergibt sich der Prognosewert aus

(3.1.24)              ,

woraus durch Verallgemeinerung leicht

(3.1.25)

gezeigt werden kann. Der h-Schritt-Prognosewert stimmt damit bei einem Random Walk mit dem Ein-Schritt-Prognosewert überein.

Gleichwohl ist die h-Schritt-Prognose mit zunehmendem Zeithorizont mit einer immer größeren Unsicherheit behaftet. Man erkennt dies an der Varianz des Prognosefehlers. Bei der Ein-Schritt-Prognose lautet der Prognosefehler

so dass seine Varianz durch

2,nX

n2n1nn2n1nn

2n1n11nn2n2,n

xUUxUUX

UXx,,x,xXX

n11nnhnh,n xx,,x,xXX

1,ne

1nn1nn

1,n1n1,n

UUUx

XXe

Page 25: 3. Stochastische Prozesse und ARIMA-Modelle 3.1 Stochastische Prozesse und Stationarität Stochastischer Prozess TMenge der Zeitpunkte, für die der Prozess.

gegeben ist. Der 2-Schritt-Prognosefehler

Hat dagegen die Varianz

Allgemein ist die Varianz eines h-Schritt-Prognosefehlers durch

(3.1.26)             

gegeben, was bedeutet, dass sich der Standardfehler der Prognose

(3.1.27)

in jeder Periode um den Faktor vergrößert.

21n1,n UVareVar

2n1nn2n1nn

2,n2n2,n

UUxUUx

XXe

222

2t1t

2t1t2,n

2

UVarUVar

UUVareVar

.unabh

0

U,UCov2 2t1t

h,ne

2h,n heVar

he

h

Page 26: 3. Stochastische Prozesse und ARIMA-Modelle 3.1 Stochastische Prozesse und Stationarität Stochastischer Prozess TMenge der Zeitpunkte, für die der Prozess.

Abbildung 3.3: Prognoseintervall

t

n

ntervallKonfidenzi2 e

nh,n XX

t,n

t

X

,X

Aus Abbildung 3.3 geht die damit einhergehende Verbreiterung des Prognosein-tervalls (Konfidenzintervall der Prognose) mit zunehmendem Zeithorizont hervor.

Page 27: 3. Stochastische Prozesse und ARIMA-Modelle 3.1 Stochastische Prozesse und Stationarität Stochastischer Prozess TMenge der Zeitpunkte, für die der Prozess.

In Gleichung (3.1.14) ist ein Random Walk ohne Drift dargestellt worden. Bei einem Random Walk ohne Drift ist z.B. die erwartete Änderung eines Aktienkurses gegeben die Informationen bis zur Periode t–1 stets gleich null:

.

Trendmäßig steigende Aktienkurse könnten z.B. durch Einführung eines Driftparameters in (3.1.14) berücksichtigt werden: 

(3.1.28)               .

Gleichung (3.1.18) charakterisiert einen Random Walk mit Drift. Die bedingt erwartete Kursänderung einer Aktie würde dann genau dem Driftparameter b entsprechen:

 Alternative Formulierungen der Random Walk-Hypothese beziehen sich auf eine Lockerung der Annahmen hinsichtlich des Zufallsprozesses . Zum Einen können alternativ unabhängige, aber nicht identisch verteilte Innovationen unterstellt werden. Hierunter fallen vor allem Prozesse mit heteroskedastischen Varianzen. Zum Anderen wird gelegentlich die Unabhängigkeitsannahme durch die Unkorreliertheitsannahme ersetzt, was einem White-Noise-Prozess für impliziert.

0U

xUxx,,x,xX

t

1tt1t12t1tt

t1tt UxbX

bUb

xUxbx,,x,xX

t

1tt1t12t1tt

tU

tU