Strukturgleichungsmodelle Eine Einführung. Kausalität und Korrelation X 1 ist korreliert mit X 2....

Post on 05-Apr-2015

120 views 0 download

Transcript of Strukturgleichungsmodelle Eine Einführung. Kausalität und Korrelation X 1 ist korreliert mit X 2....

Strukturgleichungsmodelle

Eine Einführung

Kausalität und Korrelation

• X1 ist korreliert mit X2. X1 ist Ursache für X2.

X2 ist Ursache für X1.

X1 und X2 beeinflussen sich gegenseitig.

X1 und X2 werden von X3 beeinflußt.

• X1 , X2 und X3 sind miteinander korreliert. X1 und X2 sind kausal für X3.

X4 verursacht die Korrelation zwischen X1 und X2.

X1 und X2 sind kausal für X3. X1 ist kausal für X2.

X1 ist kausal für X2, X2 ist kausal für X3.

....

X1 X2

X1 X2

X1 X2

X3 X2X1

X1 X2

Ein Strukturgleichungsmodell

zurück

Syntax, Terminologie

X manifeste Variable (gemessen)

X latente Variable (Konstrukt), auch: Fehler

Korrelation (deskriptiv)

Regression („kausale Beziehung“)(mit fixiertem Gewicht)

1

endogene (abhängige) Variablen: mindestens ein gerichteter Pfeil zeigt auf sie

exogene (unabhängige) Variablen: kein gerichteter Pfeil zeigt auf sie.Exogene Variablen sind immer korrelativ verknüpft. Kein Pfeil: r=0.

Messmodelle und Strukturmodell• Messmodell: Verknüpfung zwischen latenter Variable und

ihren (manifesten) Indikatoren

• Strukturmodell: Verknüpfung zwischen latenten Variablen

Aptitude

Verbal

Analytic

Quantitative

r3

r4

r5

Performance in Grad School

Knowledge Grades Skills

r10 r11 r12

SocialSupportFamily

Friends

r1

r2

Happiness

Smiling 2

Laughing 2

Contentment 2

Satisfaction 2

r13

r14

r15

r16

Aptitude

Performance in Grad School

Happiness

SocialSupport Previous

Happiness

Modellparameter

• Diejenigen Größen, die durch das Modell festgelegt werden sollen:

Alle exogenen Variablen (inkl. Fehler, Residuen)(endogene Variablen werden ja „erklärt“...)

Alle (nicht fixierten) Pfade:• Regressionen (sofern kein fixiertes Gewicht dransteht)

• Korrelationen (die man einzeichnet, der Rest ist auf 0 fixiert)

Happiness

Daten

• Alle Varianzen von manifesten Variablen (Anzahl p)

Happiness

• Alle Kovarianzen zwischen manifesten Variablen(Anzahl p · (p – 1) / 2)

• zusammen: p · (p + 1) / 2

• Alle Tripelvarianzen (Anzahl p · (p – 1) · (p – 2) / 6)

Identifizierbarkeit

• Anzahl Daten < Anzahl Modellparameter:unteridentifiziertModell nicht lösbar. X + Y = 1.

• Anzahl Daten = Anzahl Modellparameter:exakt identifiziertModell lösbar, aber nicht prüfbar. X = 1.

• Anzahl Daten > Anzahl Modellparameter:überidentifiziert

Modell lösbar und prüfbar. X = 1 X = 2.

Definitionsgleichungen• Jede endogene Variable wird

per Regression erklärt:

PGS = b1·A + b2·SS + b3·PH + d2

Aptitude

Performance in Grad School

SocialSupport Previous

Happiness

d2

• Die Korrelation zwischen jedem denkbaren Paar exogener Variablen wird festgelegt:

rr6,r16 = R1, rr7,r15 = R1, rr8,r14 = R3, rr9,f13 = R4,

rr6,r7 = rr6,r8 = rr6,r9 = ... = 0.

r13

r14

r15

r16

r9r8r7r6

Happiness

Strukturgleichungen

• Definitionsgleichungen für (p) manifeste Variablen auflösen, bis rechts nur noch exogene Variablen stehen.

• Alle (p · (p+1) / 2) Varianzen und Kovarianzen mit Hilfe der Definitionsgleichungen „erklären“: Z = aX + bY: VZZ = a²VXX + b²VYY + 2abVXY.

W = cU + dV: VZW = acVXU + adVXV + bcVYU + bdVYV.

zurück

Lineare Abhängigkeiten

• Manchmal reichen viele Gleichungen nicht, um viele unbekannte Größen zu bestimmen: X + Y = 10. 2X + 2Y = 20. 3X + 3Y = 30. ...

• Wenn alle fortführenden Pfade einer latenten Variable frei (nicht fixiert) sind, können Gewichte und Varianz gegeneinander ausgespielt werden. Previous

Happiness

Smiling 1 Laughing 1 Contentment 1 Satisfaction 1

Happiness

Friendsr2

zurück

Ein einfaches Meßmodell

• Definitionsgleichungen: M1 = 1 · K + F1

M2 = a · K + F2

M3 = b · K + F3

cor(F1,F2) = cor(F1,K) = cor(F1,F3) = cor(F2,K) = cor(F2,F3) = cor(F3,K) = 0

Konstrukt

1 Fehler 1

Fehler 2

Fehler 3

1

1

1

Messung 1

Messung 2

Messung 3

• Strukturgleichungen

• Identifizierbarkeit:

was fehlt?

exakt. 6 Modellparameter, 6 (Ko-)Varianzen.

VM1M1 = 1²·VKK + VF1F1

+ 2·VKF1

VM2M2 = a²·VKK + VF2F2

VM3M3 = b²·VKK + VF3F3

VM1M2 = 1·a·VKK

VM1M3 = 1·b·VKK

VM2M3 = a·b·VKK

Weitere einfache Meßmodelle

Konstrukt

1 Fehler 1

Fehler 2

1

1

Messung 1

Messung 2

1

Konstrukt

Fehler 1

Fehler 2

Fehler 3

1

1

1

Messung 1

Messung 2

Messung 3

Fehler 41

Messung 4

1

Identifikationsgleichungen

Konstrukt

1 Fehler 1

Fehler 2

Fehler 3

1

1

1

Messung 1

Messung 2

Messung 3

• Strukturgleichungen VM1M2

= 1·a·VKK

VM1M3 = 1·b·VKK

VM2M3 = a·b·VKK

VM1M1 = 1²·VKK + VF1F1

VM2M2 = a²·VKK + VF2F2

VM3M3 = b²·VKK + VF3F3

• Identifikationsgleichungen VKK = VM1M2

VM1M3 / VM2M3

a = VM2M3 / VM1M3

b = VM2M3 / VM1M2

VF1F1 = VM1M1

– VM1M2VM1M3

/ VM2M3

VF2F2 = VM2M2

– VM2M3VM1M2

/ VM1M3

VF3F3 = VM3M3

– VM2M3VM1M3

/ VM1M2

• lokal identifizierbar: Jede einzelne Unbekannte ist identifizierbar.

umformen

zurück

Identifikationsgleichungen

• nicht lokal identifizierbar: VKK ist nicht identifizierbar.

Konstrukt

Fehler 1

Fehler 2

Fehler 3

1

1

1

Messung 1

Messung 2

Messung 3

Fehler 41

Messung 4

• 9 Unbekannte, 10 Ko/Varianzen, ... aber

Identifikationsgleichungen

• dienen der Diagnostik (Identifizierbarkeit)

• Die unbekannten Parameter werden anders bestimmt!

• wäre ja auch zu peinlich, wenn für überbestimmte Variablen mehrere verschiedene Werte herauskommen

Kovarianzmatrizen

• Stichprobenkovarianzmatrix Vxy = <xy> – <x> <y> = (x–<x>)·(y–<y>) / n

• geschätzte Populationskovarianzmatrix(„beobachtete Kovarianzmatrix“) Sxy = (x–<x>)·(y–<y>) / (n–1) = Vxy · n / (n–1)

• implizierte Kovarianzmatrix xy() ist eine Funktion des Vektors

der unbekannten ParameterS-Gl. / I-Gl.

V11

V21 V22

V31 V32 V33

Kovarianzmatrizen

• geschätzte Populationskovarianzmatrix Sxy

• implizierte Kovarianzmatrix xy()

11

21 22

31 32 33

S11

S21 S22

S31 S32 S33

• Diskrepanzfunktion F[S, ()] F[S,T] 0 F[S,T] = 0 S = T F[S,T] + F[T,U] F[S,U]

• Iterativ verändern, so daß F kleiner wird.

• Wenn F minimiert wurde, gilt als geschätzt.

Diskrepanzfunktionen

• unweighted least squares:FULS[S, ()] = Sum [Sxy – xy()]² skaliert mit Wertebereich der manifesten Variablen

S-Gl. / I-Gl.

• generalized least squares:FGLS[S, ()] = Sum [Sxy – xy()]² / ||S||²

ist für große Stichproben df²-verteilt,mit df = m – p · (p+1) / 2 Freiheitsgraden.

Hypothesenprüfung

• Nullhypothese H0: S = ()

– diesmal nicht theoriefreie Verneinung von H1, sondern theoriekonforme Vorhersage. Grund: Verteilung bekannt, testbar.

• Alternativhypothese H1: S ()

– theoriefreie Verneinung von H0.

-Fehler-Niveau festlegen, z. B. p = 0.05

• wenn p(²|H0) p: Modell verwerfen

• wenn p(²|H0) > p: ???

• X1 ist korreliert mit X2.

X1 ist Ursache für X2.

X2 ist Ursache für X1.

X1 und X2 beeinflussen sich gegenseitig.

X1 und X2 werden von X3 beeinflußt.

Kausalität und Korrelation

X1 X2

X1 X2

X1 X2

X1 X2 e2

e1

1

1

X2X1 e2

1e1

1

X3

1 1

SGM für eine einfache Korrelation

• X ist korreliert mit Y.

X ist Ursache für Y.

X Y

X Y e1

• Definitionsgleichungen: y = a + b · x + e cor(x,e) = 0

• Strukturgleichungen Vxx = Vxx

Vyy = b²·Vxx + Vee + 2·Vxe

Vxy = b·Vxx + Vxe

• Identifikationsgleichungen Vxx = Vxx

b = Vxy/Vxx = rxy · (Vyy/Vxx)

Vee = Vyy – b²·Vxx = Vyy · (1 – rxy²)