Einführung in die Induktive Statistik:...

31
Einführung in die Induktive Statistik: Regressionsanalyse Jan Gertheiss LMU München Sommersemester 2011 Vielen Dank an Christian Heumann für das Überlassen von T E X-Code!

Transcript of Einführung in die Induktive Statistik:...

Page 1: Einführung in die Induktive Statistik: Regressionsanalysegroll.userweb.mwn.de/StatistikII_SS_2011/InduktStatRegression.pdf · Einführung in die Induktive Statistik: Regressionsanalyse

Einführung in die Induktive Statistik:Regressionsanalyse

Jan GertheissLMU München

Sommersemester 2011

Vielen Dank an Christian Heumann für das Überlassen von TEX-Code!

Page 2: Einführung in die Induktive Statistik: Regressionsanalysegroll.userweb.mwn.de/StatistikII_SS_2011/InduktStatRegression.pdf · Einführung in die Induktive Statistik: Regressionsanalyse

Regressionsanalyse

I Ziel: Analyse des Einflusses einer oder mehrerer VariablenX1, . . . ,Xp auf eine Zielvariable Y .

I Bezeichnungen:X1, . . . ,Xp erklärende Variablen (exogene Variablen, Kovariablen,Regressoren, Prädiktoren)Y Zielvariable (abhängige Variable, endogene Variable, Regressand,Response)

I Verschiedene Arten von Regressionsmodellen, abhängig vom Typ derZielvariable Y und der Art des Einflusses von X1, . . . ,Xp.

I Hier: Y metrisch/stetig.

Page 3: Einführung in die Induktive Statistik: Regressionsanalysegroll.userweb.mwn.de/StatistikII_SS_2011/InduktStatRegression.pdf · Einführung in die Induktive Statistik: Regressionsanalyse

Regressionsanalyse

I Lineare Einfachregression

I Das multiple lineare Regressionsmodell

I Ausblick: Varianzanalyse, nichtlineare und nichtparametrischeRegression, generalisierte Regression.

Page 4: Einführung in die Induktive Statistik: Regressionsanalysegroll.userweb.mwn.de/StatistikII_SS_2011/InduktStatRegression.pdf · Einführung in die Induktive Statistik: Regressionsanalyse

Lineare EinfachregressionEinführung

Datensituation wie beim Streudiagramm (Deskriptive Statistik):

(yi , xi ), i = 1, . . . , n, Beobachtungen für stetige bzw. metrischeMerkmale Y und X .

Beispiel: Mietspiegel

Y Nettomiete bzw. Nettomiete/qm, X Wohnfläche.

Page 5: Einführung in die Induktive Statistik: Regressionsanalysegroll.userweb.mwn.de/StatistikII_SS_2011/InduktStatRegression.pdf · Einführung in die Induktive Statistik: Regressionsanalyse

Lineare EinfachregressionEinführung

I Zusammenhang zwischen Y und X nicht deterministisch, sonderndurch (zufällige) Fehler additiv überlagert.

Y = f (x) + ε,

wobei f deterministische Funktion, ε additiver Fehler.I Lineare Einfachregression: f linear, d.h.

Y = α + βx + ε.

I Primäres Ziel: Schätze α und β aus Daten (yi , xi ), i = 1, . . . , n.Unterstelle dabei lineare Beziehung

yi = α + βxi + εi ,

wobei α + βxi systematische Komponente, εi zufällige Fehler mitE (εi ) = 0.

Weitere Annahmen an die Fehler εi :

εi i.i.d. mit σ2 = Var(εi )

Page 6: Einführung in die Induktive Statistik: Regressionsanalysegroll.userweb.mwn.de/StatistikII_SS_2011/InduktStatRegression.pdf · Einführung in die Induktive Statistik: Regressionsanalyse

Lineare EinfachregressionEinführung

Standardmodell der linearen Einfachregression:

Es giltYi = α + βxi + εi , i = 1, . . . , n.

Dabei sind:

Y1, . . . ,Yn beobachtbare metrische Zufallsvariablen,x1, . . . , xn gegebene deterministische Werte oder Realisierungen einer

metrischen Zufallsvariable X .ε1, . . . , εn unbeobachtbare Zufallsvariablen, die unabhängig und

identisch verteilt sind mit E (εi ) = 0 und Var(εi ) = σ2 .

Die Regressionskoeffizienten α, β und die Varianz σ2 sind unbekannteParameter, die aus den Daten (yi , xi ), i = 1, . . . , n, zu schätzen sind.

Page 7: Einführung in die Induktive Statistik: Regressionsanalysegroll.userweb.mwn.de/StatistikII_SS_2011/InduktStatRegression.pdf · Einführung in die Induktive Statistik: Regressionsanalyse

Lineare EinfachregressionEinführung

Bemerkungen:

I Falls Regressoren nicht deterministisch sondern stochastisch,bedingte Betrachtungsweise, d.h. Modell und Annahmen unter derBedingung Xi = xi , i = 1, . . . , n.

I Eigenschaften der Zielvariablen:

E (Yi | xi ) = E (α + βxi + εi ) = α + βxi

Var(Yi | xi ) = Var(α + βxi + εi ) = Var(εi ) = σ2

Yi | xi , i = 1, . . . , n, unabhängig

I Oft zusätzlich Normalverteilungsannahme:

εi ∼ N(0, σ2) bzw. Yi | xi ∼ N(α + βxi , σ2)

Page 8: Einführung in die Induktive Statistik: Regressionsanalysegroll.userweb.mwn.de/StatistikII_SS_2011/InduktStatRegression.pdf · Einführung in die Induktive Statistik: Regressionsanalyse

Lineare EinfachregressionSchätzen, Testen und Prognose

Schätzen, Testen und Prognose

Ziele:I Punkt- bzw. Intervallschätzer für α, β und σ2.I Testen von Hypothesen über α und v.a. β.I Prognose von Y für neuen Wert x des Regressors X .

Schätzen:

KQ-(Kleinste-Quadrate-)Methode: Bestimme Schätzer α, β so, dass

n∑i=1

(Yi − α− βxi )2 → min

α,β.

Page 9: Einführung in die Induktive Statistik: Regressionsanalysegroll.userweb.mwn.de/StatistikII_SS_2011/InduktStatRegression.pdf · Einführung in die Induktive Statistik: Regressionsanalyse

Lineare EinfachregressionSchätzen, Testen und Prognose

Lösung:

KQ-Schätzer

α = Y − βx , β =

n∑i=1

(xi − x)(Yi − Y )

n∑i=1

(xi − x)2=

n∑i=1

xiYi − nxY

n∑i=1

x2i − nx2

Schätzer für die Varianz σ2:

σ2 =1

n − 2

n∑i=1

ε2i =1

n − 2

n∑i=1

(Yi − (α + βxi ))2

Page 10: Einführung in die Induktive Statistik: Regressionsanalysegroll.userweb.mwn.de/StatistikII_SS_2011/InduktStatRegression.pdf · Einführung in die Induktive Statistik: Regressionsanalyse

Lineare EinfachregressionSchätzen, Testen und Prognose

Geschätzte Regressionsgerade (Ausgleichsgerade):

Y = α + βx

Geschätzte Fehler, Residuen:

εi = Yi − Yi = Yi − α− βxi

Page 11: Einführung in die Induktive Statistik: Regressionsanalysegroll.userweb.mwn.de/StatistikII_SS_2011/InduktStatRegression.pdf · Einführung in die Induktive Statistik: Regressionsanalyse

Lineare EinfachregressionSchätzen, Testen und Prognose

Streuungszerlegung und Bestimmtheitsmaß

Streuungszerlegung (Quadratsummenzerlegung):

n∑i=1

(Yi − Y )2

︸ ︷︷ ︸ =n∑

i=1

(Yi − Y )2

︸ ︷︷ ︸ +n∑

i=1

(Yi − Yi )2

︸ ︷︷ ︸SQT = SQE + SQR

SQT : Gesamtabweichungsquadratsumme in Y -RichtungSQE : Durch die Regression erklärter Teil von SQTSQR: Trotz der Regression unerklärt bleibender Teil von SQT

Page 12: Einführung in die Induktive Statistik: Regressionsanalysegroll.userweb.mwn.de/StatistikII_SS_2011/InduktStatRegression.pdf · Einführung in die Induktive Statistik: Regressionsanalyse

Lineare EinfachregressionSchätzen, Testen und Prognose

Bestimmtheitsmaß:

I Definition:R2 =

SQESQT

= 1− SQRSQT

I Berechnung:

R2 =

n∑i=1

(Yi − Y )2

n∑i=1

(Yi − Y )2=

n∑i=1

Y 2i − nY 2

n∑i=1

Y 2i − nY 2

Page 13: Einführung in die Induktive Statistik: Regressionsanalysegroll.userweb.mwn.de/StatistikII_SS_2011/InduktStatRegression.pdf · Einführung in die Induktive Statistik: Regressionsanalyse

Lineare EinfachregressionSchätzen, Testen und Prognose

Verteilungseigenschaften der KQ-Schätzer

Verteilung der geschätzten Regressionskoeffizienten unterNormalverteilungsannahme bzgl. εi bzw. Yi :

α ∼ N(α, σ2α) mit Var(α) = σ2

α = σ2∑

i x2i

n∑

i (xi−x)2 = σ2∑

i x2i

n(∑

i x2i −nx2)

β ∼ N(β, σ2β

) mit Var(β) = σ2β

= σ2∑i (xi−x)2 = σ2∑

i x2i −nx2

Verteilung der standardisierten Schätzfunktionen (unter NV-Annahme):

α−ασα∼ t(n − 2) mit σα = σ

√∑i x2

i√n∑

i (xi−x)2= σ

√∑i x2

i√n(

∑i x2

i −nx2)

β−βσβ∼ t(n − 2) mit σβ = σ√∑

i (xi−x)2= σ√∑

i x2i −nx2

Page 14: Einführung in die Induktive Statistik: Regressionsanalysegroll.userweb.mwn.de/StatistikII_SS_2011/InduktStatRegression.pdf · Einführung in die Induktive Statistik: Regressionsanalyse

Lineare EinfachregressionSchätzen, Testen und Prognose

Aus den Verteilungseigenschaften folgen:

I (1− α)-Konfidenzintervalle für α und β:

für α:[α− σαt1−α/2(n − 2), α + σαt1−α/2(n − 2)

]für β:

[β − σβt1−α/2(n − 2), β + σβt1−α/2(n − 2)

]

I Teststatistiken Tα0 und Tβ0 zum Testen von Hypothesen bzgl. αund β:

Tα0 =α− α0

σαund Tβ0 =

β − β0

σβ

Page 15: Einführung in die Induktive Statistik: Regressionsanalysegroll.userweb.mwn.de/StatistikII_SS_2011/InduktStatRegression.pdf · Einführung in die Induktive Statistik: Regressionsanalyse

Lineare EinfachregressionSchätzen, Testen und Prognose

Hypothesen Ablehnbereich

H0 : α = α0 vs. H1 : α 6= α0 |Tα0 | > t1−α/2(n − 2)

H0 : β = β0 vs. H1 : β 6= β0 |Tβ0 | > t1−α/2(n − 2)

H0 : α ≥ α0 vs. H1 : α < α0 Tα0 < −t1−α(n − 2)

H0 : β ≥ β0 vs. H1 : β < β0 Tβ0 < −t1−α(n − 2)

H0 : α ≤ α0 vs. H1 : α > α0 Tα0 > t1−α(n − 2)

H0 : β ≤ β0 vs. H1 : β > β0 Tβ0 > t1−α(n − 2)

Page 16: Einführung in die Induktive Statistik: Regressionsanalysegroll.userweb.mwn.de/StatistikII_SS_2011/InduktStatRegression.pdf · Einführung in die Induktive Statistik: Regressionsanalyse

Lineare EinfachregressionSchätzen, Testen und Prognose

I Prognose:Y0 = α + βx0

mit Konfidenzintervall für Y0:[Y0 ± t1−α/2(n − 2) σ

√1 +

1n

+(x0 − x)2∑

x2i − nx2

]

Page 17: Einführung in die Induktive Statistik: Regressionsanalysegroll.userweb.mwn.de/StatistikII_SS_2011/InduktStatRegression.pdf · Einführung in die Induktive Statistik: Regressionsanalyse

Multiple lineare RegressionEinführung

Ziel: Erweiterung der linearen Einfachregression für mehrere KovariablenX1, . . . ,Xp

Daten: (yi , xi1, . . . , xip), i = 1, . . . , n

Zielvariable Y : metrisch bzw. stetig

Kovariablen: metrisch oder kategorial

I Metrische Kovariable x kann auch Transformation x = f (z) einerursprünglichen erklärenden Variablen z sein, z.B. x = z2, x = log(z),usw.

I Kategorialer Regressor mit k Kategorien 1, . . . , k durch k − 1Dummy-Variablen x (1), . . . , x (k−1) kodiert; mit k alsReferenzkategorie.

Page 18: Einführung in die Induktive Statistik: Regressionsanalysegroll.userweb.mwn.de/StatistikII_SS_2011/InduktStatRegression.pdf · Einführung in die Induktive Statistik: Regressionsanalyse

Multiple lineare RegressionEinführung

Dummy-Kodierung

x (j) =

{1, falls Kategorie j vorliegt,0, sonst,

wobei j = 1, . . . , k − 1.

x (1) = . . . = x (k−1) = 0 ⇔ Referenzkategorie k liegt vor.

Page 19: Einführung in die Induktive Statistik: Regressionsanalysegroll.userweb.mwn.de/StatistikII_SS_2011/InduktStatRegression.pdf · Einführung in die Induktive Statistik: Regressionsanalyse

Multiple lineare RegressionEinführung

Standardmodell der linearen multiplen Regression

Es giltYi = β0 + β1xi1 + · · ·+ βpxip + εi , i = 1, . . . , n .

Dabei sind

Y1, . . . ,Yn beobachtbare metrische Zufallsvariablen,x1j , . . . , xnj deterministische Werte der Variablen Xj oder

Realisierungen von Zufallsvariablen Xj ,ε1, . . . , εn unbeobachtbare Zufallsvariablen, die unabhängig und

identisch verteilt sind mit E (εi ) = 0 und Var(εi ) = σ2.

Bei Normalverteilungsannahme:

εi ∼ N(0, σ2) ⇔ Yi | xi1, . . . , xip ∼ N(β0 + β1xi1 + . . .+ βpxip, σ2)

Page 20: Einführung in die Induktive Statistik: Regressionsanalysegroll.userweb.mwn.de/StatistikII_SS_2011/InduktStatRegression.pdf · Einführung in die Induktive Statistik: Regressionsanalyse

Multiple lineare RegressionEinführung

Matrixnotation

Y =

Y1Y2...

Yn

, X =

1 x11 . . . x1p1 x21 . . . x2p...

......

1 xn1 . . . xnp

, β =

β0β1...βp

, ε =

ε1ε2...εn

Y Beobachtungsvektor der Zielvariablen, X Designmatrix

Y = Xβ + ε, E (ε) = 0; Annahme: Rang von X = p + 1

Page 21: Einführung in die Induktive Statistik: Regressionsanalysegroll.userweb.mwn.de/StatistikII_SS_2011/InduktStatRegression.pdf · Einführung in die Induktive Statistik: Regressionsanalyse

Multiple lineare RegressionSchätzen, Testen und Prognose

Schätzen, Testen und Prognose

Schätzer β = (β0, . . . , βp)′ nach dem KQ-Prinzip

n∑i=1

(Yi − β0 − β1xi1 − . . .− βpxip)2 = (Y − Xβ)′(Y − Xβ)→ minβ

Lösung: KQ-Schätzerβ = (X ′X )−1X ′Y

Page 22: Einführung in die Induktive Statistik: Regressionsanalysegroll.userweb.mwn.de/StatistikII_SS_2011/InduktStatRegression.pdf · Einführung in die Induktive Statistik: Regressionsanalyse

Multiple lineare RegressionSchätzen, Testen und Prognose

Gefittete Werte:

Yi = β0 + β1xi1 + β2xi2 + . . .+ βpxip

Residuen:εi = Yi − Yi , i = 1, . . . , n.

Schätzer für die Varianz σ2:

σ2 =1

n − p − 1

n∑i=1

ε2i =1

n − p − 1

n∑i=1

(Yi − Yi )2

Page 23: Einführung in die Induktive Statistik: Regressionsanalysegroll.userweb.mwn.de/StatistikII_SS_2011/InduktStatRegression.pdf · Einführung in die Induktive Statistik: Regressionsanalyse

Multiple lineare RegressionSchätzen, Testen und Prognose

Erwartungstreue:

E (βj) = βj , j = 0, . . . , p; E (σ2) = σ2

Varianz:

σ2j := Var(βj) = σ2vj ; vj j-tes Diagonalelement von (X ′X )−1

Geschätzte Varianz:σ2

j = σ2vj

Page 24: Einführung in die Induktive Statistik: Regressionsanalysegroll.userweb.mwn.de/StatistikII_SS_2011/InduktStatRegression.pdf · Einführung in die Induktive Statistik: Regressionsanalyse

Multiple lineare RegressionSchätzen, Testen und Prognose

Verteilung der standardisierten Schätzfunktionen:

βj − βj

σj∼ t(n − p − 1) , j = 0, . . . , p

(1− α)-Konfidenzintervalle für βj :[βj − σj t1−α/2(n − p − 1), βj + σj t1−α/2(n − p − 1)

]

Page 25: Einführung in die Induktive Statistik: Regressionsanalysegroll.userweb.mwn.de/StatistikII_SS_2011/InduktStatRegression.pdf · Einführung in die Induktive Statistik: Regressionsanalyse

Multiple lineare RegressionSchätzen, Testen und Prognose

Einfache Teststatistiken:

Tj =βj − β0j

σj, j = 0, . . . , p

Hypothesen und Ablehnbereiche:

Hypothesen Ablehnbereich

H0 : βj = β0j vs. H1 : βj 6= β0j |Tj | > t1−α2

(n − p − 1)

H0 : βj ≥ β0j vs. H1 : βj < β0j Tj < −t1−α(n − p − 1)

H0 : βj ≤ β0j vs. H1 : βj > β0j Tj > t1−α(n − p − 1)

Page 26: Einführung in die Induktive Statistik: Regressionsanalysegroll.userweb.mwn.de/StatistikII_SS_2011/InduktStatRegression.pdf · Einführung in die Induktive Statistik: Regressionsanalyse

Multiple lineare RegressionSchätzen, Testen und Prognose

Overall–F–Test:

I Hypothesen:

H0 : β1 = . . . = βp = 0H1 : βj 6= 0 für mindestens ein j

I Teststatistik:

F =R2

1− R2n − p − 1

p=

SQESQR

n − p − 1p

I Ablehnungsbereich:

F > F1−α(p, n − p − 1)

Page 27: Einführung in die Induktive Statistik: Regressionsanalysegroll.userweb.mwn.de/StatistikII_SS_2011/InduktStatRegression.pdf · Einführung in die Induktive Statistik: Regressionsanalyse

Multiple lineare RegressionSchätzen, Testen und Prognose

Prognose:Y0 = x ′0 β0 = β0 + β1x01 + . . .+ βpx0p,

mit x0 = (1, x01, . . . , x0p)′ als neuem Kovariablenvektor.

Page 28: Einführung in die Induktive Statistik: Regressionsanalysegroll.userweb.mwn.de/StatistikII_SS_2011/InduktStatRegression.pdf · Einführung in die Induktive Statistik: Regressionsanalyse

AusblickVarianzanalyse (ANOVA)

Situation: Alle unabhängigen Variablen sind kategorial, die Zielgröße Yist metrisch/stetig.

I Einfaktorielle Varianzanalyse: Eine unabhängige Variable (Faktor)mit Stufen i = 1, . . . , I .

Modell:Yij = µi + εij , i = 1, . . . , I , j = 1, . . . , ni ,

wobei εij ∼ N(0, σ3).

Frage: Unterscheidet sich der Erwartungswert von Y zwischen denFaktorstufen, d.h.

µ1 = µ2 = . . . = µI ?

I Mehrfaktorielle Varianzanalyse: Betrachte nicht nur einen Faktorsondern mehrere.

Page 29: Einführung in die Induktive Statistik: Regressionsanalysegroll.userweb.mwn.de/StatistikII_SS_2011/InduktStatRegression.pdf · Einführung in die Induktive Statistik: Regressionsanalyse

AusblickNichtlineare und nichtparametrische Regression

Nichtlineare parametrische Regression

Bisher: Regressionsmodell Y = β0 + β1X1 + . . .+ βpXp + ε linear in denParametern β0, . . . , βp bzw. in X1, . . . ,Xp.

Nichtlineares Modell:

Y = f (X1, . . . ,Xp; θ) + ε

f nichtlinear, parametrisiert über θ.

Aber: Spezifikation einer parametrischen Regressionsfunktion f (X ; θ) apriori oft schwierig.

Page 30: Einführung in die Induktive Statistik: Regressionsanalysegroll.userweb.mwn.de/StatistikII_SS_2011/InduktStatRegression.pdf · Einführung in die Induktive Statistik: Regressionsanalyse

AusblickNichtlineare und nichtparametrische Regression

Nichtparametrische Regression

Nichtparametrische Regression flexibler als parametrische: Keineparametrische funktionale Form postuliert; nur qualitativ-strukturelleAnnahmen.

Beispiel: Additives Modell

Y = f1(X1) + f2(X2) + β1Z1 + . . .+ βpZp + ε

mit f1, f2, . . . als glatte, unbekannte Funktionen, die aus den Daten“nichtparametrisch” geschätzt werden.

Page 31: Einführung in die Induktive Statistik: Regressionsanalysegroll.userweb.mwn.de/StatistikII_SS_2011/InduktStatRegression.pdf · Einführung in die Induktive Statistik: Regressionsanalyse

AusblickGeneralisierte Regression

Generalisierte Regressionsmodelle

Situation: Y ist nicht mehr normalverteilt, sondern z.B. binär.

I Lineares Modell wie bisher nicht mehr tauglich.

I Spezifiziere (generalisiertes lineares Modell)

E (Y |X1 = x1, . . . ,Xp = xp) = h(β0 + β1x1 + · · ·+ βpxp),

mit bekannter “Responsefunktion” h.

Weitere Flexibilisierung z.B. durch generalisierte additive Modelle.