3. Stochastische Prozesse und ARIMA-Modelle · 3. Stochastische Prozesse und ARIMA-Modelle 3.1...

16
3. Stochastische Prozesse und ARIMA-Modelle 3.1 Stochastische Prozesse und Stationarität Stochastischer Prozess T Menge der Zeitpunkte, für die der Prozess definiert ist wenn T kontinuierlich (meist wenn T diskret (i.d.R. oder Realisation eines stochastischen Prozesses ( Zeit- reihe) T t t X T t t X Stochastischer Prozess (Menge von Zufallsvariablen) t t X , also t X n , , 2 , 1 t t x ) R T ˆ t=0, 1, 2, 3, …, also T=Z t=1, 2, 3, …, also T=N

Transcript of 3. Stochastische Prozesse und ARIMA-Modelle · 3. Stochastische Prozesse und ARIMA-Modelle 3.1...

Page 1: 3. Stochastische Prozesse und ARIMA-Modelle · 3. Stochastische Prozesse und ARIMA-Modelle 3.1 Stochastische Prozesse und Stationarität Stochastischer Prozess T Menge der Zeitpunkte,

3. Stochastische Prozesse und ARIMA-Modelle

3.1 Stochastische Prozesse und Stationarität

Stochastischer Prozess

TMenge der Zeitpunkte, für die der Prozess definiert ist

wenn T kontinuierlich (meist

wenn T diskret (i.d.R.

oder

Realisation eines stochastischen Prozesses ( Zeit-reihe)

TttX TttX Stochastischer Prozess (Menge von Zufallsvariablen)

t tX , also

tX also

,,3,2,1t also )

n,,2,1ttx

)RT

T

T

t=0, 1, 2, 3, …, also T=Z

t=1, 2, 3, …, also T=N

Page 2: 3. Stochastische Prozesse und ARIMA-Modelle · 3. Stochastische Prozesse und ARIMA-Modelle 3.1 Stochastische Prozesse und Stationarität Stochastischer Prozess T Menge der Zeitpunkte,

Abbildung 3.1: Stochastischer Prozess und Zeitreihe

Zeitreihe

mögliche Realisationen eines stoch. Prozesses

0t

t

tt x,X

:Xtt

IR

Page 3: 3. Stochastische Prozesse und ARIMA-Modelle · 3. Stochastische Prozesse und ARIMA-Modelle 3.1 Stochastische Prozesse und Stationarität Stochastischer Prozess T Menge der Zeitpunkte,

Übersicht 3.1: Stochastischer Prozess und Zufallsvorgänge

t fest t variabel

xx tfest Realisation der Zufallsvariablen X

Tttx

Zeitreihe

variabel XXt

Zufallsvariable (zu einem best. Zeitpunkt)

TttX

vollst. stoch. Prozess

Definition:Ein stochastischer Prozess ist eine Folge von Zufallsvariablen, in der T die Menge der Zeitpunkte bezeichnet, für die der Prozess definiert ist.

Falls ist, spricht man von einem diskreten stochastischen Prozess, bei von einem stetigen stochastischen Prozess.

Interpretation:· Einem stochastischen Prozess liegt ein Zufallsvorgang zugrunde. Es sei

ein Element des Stichprobenraums . Das Ergebnis des Zufallsvorgangs zieht somit den Wert der Zufallsvariablen nach sich.

· Stochastischer Prozess als "ensemble" von Zeitreihen (Zeitpfaden, Trajektorien). Jedes Mitglied dieses "ensembles" (dieser Familie) ist eine mögliche Realisation eines stochastischen Prozesses. Die beobachtete Zeitreihe ist eine spezielle Realisation.

TttX

tx tt XX

ZT

IRT

Page 4: 3. Stochastische Prozesse und ARIMA-Modelle · 3. Stochastische Prozesse und ARIMA-Modelle 3.1 Stochastische Prozesse und Stationarität Stochastischer Prozess T Menge der Zeitpunkte,

Ergodizität:

In der induktiven Statistik werden im Allgemeinen unabhängige und identisch verteilte Stichprobenvariablen bei der Schätzung der Parameter einer Grundgesamtheit vorausgesetzt. Es lassen sich dann i.d.R. Schätzfunktionen konstruieren, die die Konsistenzeigenschaft besitzen. Z.B. sind und S2 konsistente Schätzer für die Parameter und 2 .

In der Zeitreihenanalyse ist die Unabhängigkeitsannahme im Allgemeinen gerade nicht erfüllt. Vielmehr werden die Zeitreihenwerte als Realisationen verschiedener abhängiger Zufallsvariablen aufgefasst. Zu jedem Zeitpunkt (Periode) liegt nur eine einzige Beobachtung der betrachteten Zufallsvariablen vor. Wenn man trotzdem die n Zeitreihenwerte analog wie Querschnittswerte zur Parameterschätzung verwenden will, müssen bestimmte Voraussetzungen erfüllt sein.

Zuallererst ist zu klären, unter welchen Bedingungen das zeitliche Mittel

gegen das Ensemble-Mittel konvergiert, d.h. eine konsistente Schätzung von durch möglich ist. Aufklärung hierüber geben die Ergodensätze. Die Konvergenz ist gesichert, wenn der betrachtete stochastische Prozess ergodisch ist. Wie sich zeigt, sind schwach stationäre Prozesse mit einer bestimmten Zusatzeigenschaft ergodisch.

X

n

1ttn X

n

1X

nX

Page 5: 3. Stochastische Prozesse und ARIMA-Modelle · 3. Stochastische Prozesse und ARIMA-Modelle 3.1 Stochastische Prozesse und Stationarität Stochastischer Prozess T Menge der Zeitpunkte,

Im Falle der Mittelwertergodizität gilt z.B.

was bei einem (schwach) stationären stochastischen Prozess gegeben ist, da seine Autokovarianz-

funktion absolut summierbar ist. Das Ensemblemittel lässt sich dann konsistent durch das

zeitliche Mittel schätzen.

Eine Zeitreihe ist eine spezielle Realisation aus einer i.d.R. unendlichen Menge von möglichen Realisatio-

nen von . Zu jedem Zeitpunkt liegt nur 1 Beobachtung für die Zufallsvariable Xt vor, während

gewöhnlich bei statistischen Problemen mehrere Beobachtungen zur Schätzung einer Wahrscheinlichkeits-verteilung oder ihrer Charakteristiken verfügbar sind. Es werden daher zur Schätzung der gemeinsamen Wahrscheinlichkeitsverteilung von Restriktionen einzuführen sein.

nX

TttX

n21 ttt X,,X,X

(3.1.1) 0μXn

1Εlim

2n

1tt

n

Page 6: 3. Stochastische Prozesse und ARIMA-Modelle · 3. Stochastische Prozesse und ARIMA-Modelle 3.1 Stochastische Prozesse und Stationarität Stochastischer Prozess T Menge der Zeitpunkte,

Momente eines stochastischen Prozesses (Momente erster und zweiter Ordnung):

Mittelwertfunktion t:(-folge)

(3.1.2)

Varianzfunktion :(-folge)

(3.1.3)

Autokovarianzfunktion :(ACVF) (-folge)

(3.1.4)

Für die Autokorrelationsfunktion (ACF) folgt dann (3.1.5)

tt X

2t t

2t XVar

s,t

sstt

sts,t

XX

X,XCov

sts,ts,t

Die Mittelwertfolge gibt die durchschnittliche Zeitfolge an, um die die Realisierungen des Prozesses

schwanken. Mittelung über alle Zeitfolgen des "ensembles" (= Ensemblemittel).Dagegen ergibt sich bei Mittelung der einzelnen realisierten Beobachtungen über alle t das zeitliche Mittel

• Die Varianzfolge gibt für jeden Zeitpunkt t an, in welchem Ausmaß die Zufallsvariable um den Wert der Mittelwertfolge streut. Bei einem stochastischen Prozess sind die Zufallsvariablen typischerweise voneinander stochastisch

abhängig. Das Hauptinteresse liegt in der Analyse der Abhängigkeitsstrukturen mittels geeigneter Modelle. Richtung und Stärke der Abhängigkeit werden mittels der Autokovarianzfolge (ACVF) und der Auto-korrelationsfolge (ACF) gemessen.

t

n

1ttx

n

1x

2t tX

t

tX

s,t

s,t

Page 7: 3. Stochastische Prozesse und ARIMA-Modelle · 3. Stochastische Prozesse und ARIMA-Modelle 3.1 Stochastische Prozesse und Stationarität Stochastischer Prozess T Menge der Zeitpunkte,

Schwach stationärer Prozess:

(3.1.6)

(3.1.7)

(3.1.8)

oder, wenn man setzt:

(3.1.8‘)

tallefürt

tallefür22t

sts,t

st

s,t

(3.1.8‘) besagt, dass die Kovarianz zwischen Xt und Xs nur von der zeitlichen Differenz

abhängig ist, nicht jedoch von den Zeitpunkten.

Für die ACF folgt damit

(3.1.9)

oder mit (3.1.8)

(3.1.9‘)

200ststs,t mit

0s,t

Page 8: 3. Stochastische Prozesse und ARIMA-Modelle · 3. Stochastische Prozesse und ARIMA-Modelle 3.1 Stochastische Prozesse und Stationarität Stochastischer Prozess T Menge der Zeitpunkte,

Exkurs: Trendelimination durch Differenzenbildung

• Linearer Trend

Durch Bildung der ersten Differenzen lässt sich ein linearer Trend ausschalten.

• Quadratischer Trend

111010

10101ttt

10t

aataataa

1taataaxxΔx

taax

2t1tt

2t1t1tt1ttt2

2210t

xx2x

xxxxxxx

tataax

221222

212

2

22110

2210

2210

22101ttt

at2aaat2ataata

12ttaataatataa

1ta1taatataaxxx

221

222

2110222

2110

2211022

22110

2210

22102t1t1t

a3ta2a

a4ta4taa2taaata2taataa

4t4taa2taaata2taataa

2ta2taa1ta1taaxxx

2

2212211ttt2

a2

a3ta2aata2axxx

Durch Bildung der zweiten Differenzen lässt sich ein quadratischer Trend ausschalten.

Page 9: 3. Stochastische Prozesse und ARIMA-Modelle · 3. Stochastische Prozesse und ARIMA-Modelle 3.1 Stochastische Prozesse und Stationarität Stochastischer Prozess T Menge der Zeitpunkte,

3.2 Spezielle stochastische ProzesseWhite-Noise-Prozess

Ein stochastischer Prozess heißt White-Noise-Prozess, wenn er die Eigenschaften

besitzt.Beim White-Noise-Prozess werden allein die beiden ersten Momente betrachtet. Da die Autokovarianzen verschwinden, besteht keine lineare Beziehung zwischen den vergangenen, aktuellen und zukünftigen Realisationen der Zufallsvariablen Ut. Das bedeutet, dass auf der Basis eines linearen Zeitreihenmodells nicht prognostiziert werden kann. Wenn allerdings höhere Momente des stochastischen Prozesses ungleich null sind, könnte ggf. unter Verwendung eines nichtlinearen Modells vorhergesagt werden.Unabhängige und identische Verteilung (i.i.d.)

Eine Zufallsvariable ist unabhängig und identisch verteilt [independently and identically distributed(= i.i.d.)], wenn alle Terme zeitlich unabhängig sind und dieselbe Verteilung haben. Die Dichtefunktionen sind dann für alle t identisch,

für alle t,und die gemeinsame Dichtefunktion ist dann gleich dem Produkt der marginalen Dichtefunktionen :

.Die Kenntnis vergangener und aktueller Werte von liefert dann keine prognostisch verwertbaren Informationen für .

tU

stfür0U,UCov

und

UVar

,gesetzt0UEwird.a.iUE

st

2t

tt

0h,U ht

tU htU

tU

ttt UfUf T21T,,2,1 U,,U,Uf

tUf Tt

T

1tttT21T,,2,1 UfUfU,,U,Uf

0h,U ht

tU

Page 10: 3. Stochastische Prozesse und ARIMA-Modelle · 3. Stochastische Prozesse und ARIMA-Modelle 3.1 Stochastische Prozesse und Stationarität Stochastischer Prozess T Menge der Zeitpunkte,

Random Walk

Es sei eine unabhängig identisch verteilte Zufallsvariable (i.i.d.) mit den Parametern und. Dann folgt die Zufallsvariable ,

(3.2.4)

einem Random Walk. Man spricht von einem Random Walk, wenn der aktuelle Wert einer Zufallsvariablen sich aus dem Vorperiodenwert plus einer Realisation einer i.i.d.-Zufallsvariablen ergibt. Auf diese Weise ergibt sich ein Zufallspfad, der nicht-stationär ist, d.h. sich beliebig von seinem Mittelwert entfernen kann. Hieraus hat sich der Begriff der Irrfahrt geprägt, die gelegentlich z.B. bei Aktienkursen und anderen spekulativen Preisen zu beobachten ist, wenn die Märkte effizient sind.

Um den Erwartungswert und die Varianz des Prozesses zu ermitteln, setzen wir den Anfangswert X0 ohneEinschränkung der Allgemeinheit gleich null:

(3.2.5) .

Dann ergibt sich die Folge (Xt) aus

(3.2.6)

Unter Verwendung von (3.2.6) lässt sich leicht der Erwartungswert

tU 0U t

2t σUVar tX

t1tt UXX

0X0

3213

212

11

UUUX

UUX

UX

t21t UUUX

Page 11: 3. Stochastische Prozesse und ARIMA-Modelle · 3. Stochastische Prozesse und ARIMA-Modelle 3.1 Stochastische Prozesse und Stationarität Stochastischer Prozess T Menge der Zeitpunkte,

(3.2.7)

ableiten. Gleichermaßen erhält man die unbedingte Varianz des Prozesses aus

(3.2.8)

[Für , d.h. bei unendl. lang andauerndem Prozess geht die Varianz gegen unendlich.]

Während der Erwartungswert eines Random Walks zeitlich konstant ist, trifft dies für seine Varianz nicht zu. Vielmehr nimmt sie mit wachsendem t zu und ist daher zeitvariabel. Der Random Walk-Prozess (3.2.4) ist daher mittelwertstationär, aber nicht varianzstationär. Wie sich zeigen lässt, ist der Random Walk (3.2.4) ebenfalls nicht kovarianzstationär. Wegen(3.2.9)hängt seine Kovarianz wie die Varianz vom Zeitindex t ab. Die Autokorrelationsfunktion des Random Walks,(3.2.10) ,ist nicht nur eine Funktion der zeitlichen Differenz |s–t|, sondern auch von den konkreten Zeitperioden t und s abhängig, für die sie betrachtet wird. Abbildung 3.2 gibt eine typische Realisation eines Random Walks in einem Zeitreihendiagramm wieder. Die im Zeitablauf zunehmende Varianz bewirkt, dass sich die Realisationen im Mittel immer weiter voneinander entfernen.

0

UUU

UUUX

t21

t21t

2

t21

.unabh

t21t

t

UVarUVarUVar

UUUVarXVar

t

st1,σtX,XCov 2st

s / t ρ st,

Page 12: 3. Stochastische Prozesse und ARIMA-Modelle · 3. Stochastische Prozesse und ARIMA-Modelle 3.1 Stochastische Prozesse und Stationarität Stochastischer Prozess T Menge der Zeitpunkte,

Abbildung 3.2: Zeitpfad eines Random Walks

t

tX

******

** *

**

**

**

**

**

*

Durch Differenzenbildung lässt sich der nichtstationäre Prozess in einen stationären Prozessüberführen:

(3.2.11)

Wie aus (3.2.11) hervorgeht, ist ein i.i.d.-Prozess, dessen Parameter mit denen des i.i.d.-Prozessesübereinstimmen.

Der bedingte Erwartungswert ist unabhängig von , da sichmodellmäßig alle Informationen bis zur Periode t–1 im Vorperiodenwert widerspiegeln:

(3.2.12)

tX

tX

tt UX

tX

tU

13t2t x,,x,x

1tx

1tt1t

t1t12t1ttxUx

Uxx,,x,xX

12t1tt x,,x,xX

Page 13: 3. Stochastische Prozesse und ARIMA-Modelle · 3. Stochastische Prozesse und ARIMA-Modelle 3.1 Stochastische Prozesse und Stationarität Stochastischer Prozess T Menge der Zeitpunkte,

Die Beziehung (3.2.12) kann zur Bestimmung eines Prognosewerts für die Periode n+1 unter Berücksichtigung der gesamten Zeitreihenhistorie verwendet werden. Der Prognosewert ist durch den bedingten Erwartungswert

(3.2.13)

gegeben, d.h. die Ein-Schrittprognose entspricht genau dem letzten bekannten Zeitreihenwert. Analog ergibt sich der Prognosewert aus

(3.2.14)

woraus durch Verallgemeinerung leicht

(3.2.15)gezeigt werden kann. Der h-Schritt-Prognosewert stimmt damit bei einem Random Walk mit dem Ein-Schritt-Prognosewert überein.Gleichwohl ist die h-Schritt-Prognose mit zunehmendem Zeithorizont mit einer immer größeren Unsicherheit behaftet. Man erkennt dies an der Varianz des Prognosefehlers. Bei der Ein-Schritt-Prognose lautet der Prognosefehler

1,nX

1,nX

2,nX

n1nn1nn

11nn1n1,n

xUxUx

x,,x,xXX

n2n1nn2n1nn

11nn2n2,n

xUUxUUx

x,,x,xXX

n11nnhnh,n xx,,x,xXX

1nn1nn

1,n1n1,n

UxUx

XXe

Page 14: 3. Stochastische Prozesse und ARIMA-Modelle · 3. Stochastische Prozesse und ARIMA-Modelle 3.1 Stochastische Prozesse und Stationarität Stochastischer Prozess T Menge der Zeitpunkte,

so dass seine Varianz durch

gegeben ist. Der 2-Schritt-Prognosefehler

hat dagegen die Varianz

Allgemein ist die Varianz eines h-Schritt-Prognosefehlers durch(3.2.16)

gegeben, was bedeutet, dass sich der Standardfehler der Prognose(3.2.17)

in der h-ten Periode um den Faktor gegenüber der Ein-Schriff-Prognose vergrößert. Aus Abbildung 3.3 geht die damit einhergehende Verbreiterung des Prognoseintervalls (Konfidenzintervall der Prognose) mit zunehmendem Zeithorizont hervor.

21n1,n UVareVar

h,ne

2h,n heVar

he

h

222

2n1n2n1n

unabh.

2n1nn,2

2σσσ

0

U,UCov2UVarUVar

UUVareVar

2n1nn2n1nn

2,n2n2,n

UUxUUx

XXe

Page 15: 3. Stochastische Prozesse und ARIMA-Modelle · 3. Stochastische Prozesse und ARIMA-Modelle 3.1 Stochastische Prozesse und Stationarität Stochastischer Prozess T Menge der Zeitpunkte,

Abbildung 3.3: Prognoseintervall

t

*

*

*

*

*

*

*

* *

**

**

*

*

**

**

*

**

*

**

*

*

* * * * * *

n

ntervallKonfidenzi2 e

nh,n XX

t,n

t

X

,X

Page 16: 3. Stochastische Prozesse und ARIMA-Modelle · 3. Stochastische Prozesse und ARIMA-Modelle 3.1 Stochastische Prozesse und Stationarität Stochastischer Prozess T Menge der Zeitpunkte,

In Gleichung (3.2.4) ist ein Random Walk ohne Drift dargestellt worden. Bei einem Random Walk ohne Drift ist z.B. die erwartete Änderung eines Aktienkurses gegeben die Informationen bis zur Periode t–1 stets gleich null:

.

Trendmäßig steigende Aktienkurse könnten z.B. durch Einführung eines Driftparameters in (3.2.4) berücksichtigt werden: [1]

(3.2.18) .

Gleichung (3.2.18) charakterisiert einen Random Walk mit Drift. Die bedingt erwartete Kursänderung einer Aktie würde dann genau dem Driftparameter b entsprechen:

Alternative Formulierungen der Random Walk-Hypothese beziehen sich auf eine Lockerung der Annahmen hinsichtlich des Zufallsprozesses . Zum einen können alternativ unabhängige, aber nicht identisch verteilte Innovationen unterstellt werden. Hierunter fallen vor allem Prozesse mit heteroskedastischen Varianzen. Zum anderen wird gelegentlich die Unabhängigkeitsannahme durch die Unkorreliertheitsannahme ersetzt, was einem White-Noise-Prozess für impliziert.

[1] Es handelt sich hierbei jedoch nicht um einen deterministischen Trend, sondern um einen stochastischen Trend, was

konkreter in Kapitel 4 (Nichtstationärität und Kointegration) zu erläutern sein wird.

tU

tU

0tU1txtU1tx

)1txtX(E1x,,2tx,1txtX

t1tt UxbX

btUb1txtU1txb

)1txtX(E1x,,2tx,1txtX