Interpretationen der Wahrnehmung Werner Moritz-Kiefert Mein Ohr macht, was ich will.
Kapitel 3: Interpretationen - Fachschaftsrat Psychologie · PDF fileSpieß-Vorlesung:...
Transcript of Kapitel 3: Interpretationen - Fachschaftsrat Psychologie · PDF fileSpieß-Vorlesung:...
Kapitel 3: Interpretationen
1. Interpretation von Outputs allgemein ............................................................................................ 1
2. Interpretation von Signifikanzen ..................................................................................................... 1
2.1. Signifikanztests / Punktschätzer .............................................................................................. 1
2.2. Konfidenzintervalle.................................................................................................................. 2
3. Interpretation von Parametern ....................................................................................................... 2
3.1. Lineare Einfachregression ....................................................................................................... 3
3.2. Nicht lineare Einfachregression ............................................................................................... 4
3.2.1. Beispiel 1: Parabolische Funktion .................................................................................... 4
3.2.2. Beispiel 2: Exponentialfunktion ....................................................................................... 5
3.2.3. Beispiel 3: Kubische Funktion .......................................................................................... 6
3.2.4. Beispiel 4: Inverse Funktion ............................................................................................. 8
3.2.5. Falsche Modellannahmen ............................................................................................... 9
3.3. Multiple Regression ............................................................................................................... 10
4. Dummy-Kodierung ........................................................................................................................ 11
4.1. Einfaktorielle Varianzanalyse als multiple Regression .......................................................... 13
4.2. Mehrfaktorielle Varianzanalyse als multiple Regression ...................................................... 16
4.3. Kovarianzanalyse als multiple Regression ............................................................................. 17
5. Signifikante und nicht signifikante Regressionskoeffizienten ....................................................... 18
6. Wie in der Klausur ......................................................................................................................... 19
Spieß-Vorlesung: Handbuch Interpretationen
Seite 1 von 21
1. Interpretation von Outputs allgemein
Statistikprogramme geben verschiedene Outputs aus, die alle etwas anderes Aussagen. Im Folgenden
werden lediglich Regressionsparameteroutputs interpretiert, weil das wahrscheinlich auch die
einzigen sein werden, die ihr in der Klausur bekommen werdet.
Bei der Interpretation von Outputs geht es um zwei Dinge. Zum einen möchten wir wissen, ob es
einen signifikanten Zusammenhang zwischen dem (den) Prädiktor (Prädiktoren) und dem Kriterium
geht und zum anderen, wie große dieser Zusammenhang ist. Der Wert des Parameterschätzers gibt
uns die Größe des Zusammenhangs an. Sind die Parameterschätzer aber nicht signifikant, würde das
bedeuten, dass der dazugehörige Prädiktor gar keinen Einfluss auf unser Kriterium hat. Deswegen
interpretiert man zuerst die Signifikanzen (schaut zuerst auf die Punktschätzer bzw. auf das
Konfidenzintervall) und dann interpretiert man die Höhe der Parameterschätzer.
Für die Klausur ist es nicht relevant die Größe des Zusammenhanges zu interpretieren! Lediglich die
Richtung (handelt es sich um einen positiven oder negativen Wert) des Effekts ist bei der
Interpretation zu beachten.
2. Interpretation von Signifikanzen
Ich kann über zwei verschiedene Wege eine Aussage über die Signifikanz eines Parameters machen.
Entweder ich errechne einen Punktschätzer und Stelle Hypothesen für die Parameter auf die ich dann
über einen t-Test, F-Test, -Test teste (je nachdem welcher Verteilung der jeweilige Punktschätzer
folgt) oder ich ermittel Konfidenzintervalle für die Parameter. Da es eigentlich egal ist ob ich mir
einen t-Wert und den dazugehörigen p-Wert angucke oder die Konfidenzintervalle interpretiere, wird
standardmäßig oft nur eines von beiden in Outputs angegeben. Es kann sein, dass bei Spieß auch nur
eines von beiden vorkommen wird.
2.1. Signifikanztests / Punktschätzer
Siehe auch Kap.1 „Parameterschätzung & Inferenzstatistik“. Hier nur die Kurzfassung:
- Es wird getestet ob die beibehalten werden muss oder die angenommen werden kann
- „Nicht signifikant“ bedeutet, dass der Parameterschätzer mit relativ hoher
Wahrscheinlichkeit zu der Verteilung der gehört
o Der Erwartungswert der ist 0
o Bedeutet, dass der Wert des Parameters eigentlich 0 ist und damit eigentlich gar
keinen Einfluss auf das Kriterium hat
o Schlussfolgerung: Der zu diesem Parameterschätzer gehöriger Prädiktor hat keinen
Einfluss auf das Kriterium!
- „Signifikant“ bedeutet, dass der Parameterschätzer mit relativ niedriger Wahrscheinlichkeit
zu der Verteilung der gehört. Wenn die ausschließe, muss ich annehmen, dass der
Parameterschätzer zu der Verteilung der gehört
Spieß-Vorlesung: Handbuch Interpretationen
Seite 2 von 21
o Der Erwartungswert der ist der Parameter selbst
o Würde also bedeutet, dass der Wert des Parameters nicht 0 ist und somit nicht
wegfallen würde
o Schlussfolgerung: Der zu diesem Parameterschätzer gehöriger Prädiktor hat
tatsächlich einen Einfluss auf das Kriterium!
- Die Höhe von Wahrscheinlichkeit definiere ich über mein vorher festgelegtes
Signifkanzniveau: I. d. R. liegt das Signifkanzniveau bei 0,05
o Wenn der p-Wert kleiner 0,05 ist, dann halte ich es für unwahrscheinlich, dass die
zutrifft
2.2. Konfidenzintervalle
Ein Konfidenzintervall ist ein Intervall, in der man zu einer bestimmten (vorher festgelegten)
Wahrscheinlichkeit sich sicher sein kann, dass der wahre Wert darin liegt. Beträgt die vorher
festgelegte Irrtumswahrscheinlichkeit bspw. 0,05, dann kann ich zu 95% Sicherheit sagen, dass der
wahre Wert in diesem Intervall liegt. Das Intervall hängt von zwei wesentlichen Dingen ab:
1. Irrtumswahrscheinlichkeit: Je größer ich die Irrtumswahrscheinlichkeit wähle, desto
SCHMALER das Intervall. Ich kann zwar eine genauere Aussage über den wahren Parameter
machen, muss aber auch damit rechnen, dass es eher falsch ist.
2. Standardabweichung, bzw. Standardfehler: Je größer der SE, desto größer das Intervall
Bei der Interpretation ist nun folgendes zu beachten: Das Intervall darf NICHT 0 kreuzen! Hätten wir
einen Parameter, dessen Wert bei bspw. 0,5 liegt und sein 95%-Konfidenzintervall liegt bei -0,5 und
1,5, würde das bedeutet, dass in manchen Fällen der Effekt einen positiven, gar keinen oder einen
negativen Effekt haben kann. In 95% der Fälle weiß man also gar nicht wohin die Fahrt geht! Bedenkt
man, dass die 5% Irrtumswahrscheinlichkeit ja noch dazu kommen, weiß man eigentlich nur, dass
man gar nichts weiß.
3. Interpretation von Parametern
Der Parameter ist in Regressionsmodellen eine Änderungsrate: Er misst um wie viele Einheiten
sich ändert, wenn sich um eine Einheit ändert. Diese Interpretation gilt aber nur unter „ceteris
paribus“, d. h. wenn alle anderen Variablen im Modell konstant gehalten werden. Alle anderen
Variablen im Modell sind zum einen alle anderen Prädiktoren, als derjenige, für den die Aussage
getroffen wird wenn gilt und zum anderen der Fehler , der ja auch eine Variable ist.
Für die Klausur interessiert uns aber nicht die Größe der Änderungsrate, sondern lediglich die
Richtung, also ob die jeweils einen positiven oder negativen Wert angenommen haben.
Es gibt mehrere Regressionsmodelle, deren Outputs sich etwas unterscheiden. Im Folgenden werden
einige Modelle vorgestellt, die evtl. in der Klausur vorkommen könnten. Die meisten Outputs folgen
folgendem Schema:
Spieß-Vorlesung: Handbuch Interpretationen
Seite 3 von 21
3.1. Lineare Einfachregression
Bei der linearen Einfachregression wird ein linearer Zusammenhang zwischen einem kontinuierlich
ausgeprägten Prädiktor und einem kontinuierlich ausgeprägten Kriterium ermittelt.
Das geschätzte Modell sähe dann wie folgt aus:
Beispiel:
(in cm)
Wir überprüfen, ob Körpergröße einen Effekt auf den IQ hat (Interpretation der Signifikanz) und
wenn ja, in welche Richtung dieser Effekt geht (positiver oder negativer Wert).
Nun gilt es die unbekannten Regressionsparameter zu schätzen: Die Konstante und die
Gewichtung unseres Prädiktor , der uns sagt, wie wichtig unser Prädiktor eigentlich ist.
Koeffizientena
Modell
Nicht standardisierte
Koeffizienten
Standardisierte
Koeffizienten
t Sig.
95,0% Konfidenzintervalle
für B
Regressions-
koeffizientB
Std.
Error Beta Untergrenze Obergrenze
1 (Konstante) 83,040 30,736 2,702 ,012 20,080 146,001
Körpergröße ,084 ,170 ,093 ,496 ,624 -,264 ,432
a. Abhängige Variable: IQ
Der erste Blick geht auf die Signifikanzspalte: Die Konstante ist anscheinend signifikant:
und damit ist p kleiner als 0,05. Das ist nicht sonderlich spannend, da dies inhaltlich
einfach nur bedeutet, dass die Regressionsgerade ihren Ursprung im Koordinatensystem nicht bei 0
hat. Das ist für die meisten psychologischen Hypothesen die getestet werden nicht weiter relevant.
Deswegen wird auch eigentlich die Signifikanz der Konstante ignoriert, außerdem wird die Konstante
eh meistens signifikant
ist da schon interessanter! Der Regressionskoeffizient für unseren Prädiktor ist nicht signifikant:
; und damit ist p nicht kleiner als 0,05. Körpergröße hat keinen signifikanten
linearen Einfluss auf den IQ.
Dieselben eben getroffenen Aussagen kann ich auch machen, wenn ich mir das Konfidenzintervall
anschaue. Kreuzen die Werte nicht 0 interpretiere ich die Regressionskoeffizienten als signifikant.
Spieß-Vorlesung: Handbuch Interpretationen
Seite 4 von 21
Das Intervall der Konstante kreuzt nicht 0 (=signifikant), das Intervall des Regressionskoeffizienten für
den Prädiktor aber schon (=nicht signifikant).
Damit erübrigt sich jede weitere Interpretation, also ob es einen negativen oder positiven linearen
Zusammenhang zwischen IQ und Körpergröße gibt, denn anscheinend gibt es ja gar keinen!
3.2. Nicht lineare Einfachregression
Bei nicht linearen Regressionsmodellen wird ein nicht linearer Zusammenhang zwischen
kontinuierlich ausgeprägten Prädiktoren und einem kontinuierlich ausgeprägten Kriterium ermittelt.
Nicht linear ist dabei ein weit gefasster Begriff. Nicht linear kann exponential oder logarithmisch
( oder eine sonstige Transformation des Prädiktors sein. Es geht dabei immer nur um eine
Modellanpassung. Die Frage ist immer, wie der Prädiktor transformiert werden kann, damit er am
besten die Daten wiederspiegeln kann, also der Zusammenhang zwischen Prädiktor und Kriterium
am besten modelliert wird.
3.2.1. Beispiel 1: Parabolische Funktion
Die parabolischen Funktion entspricht einer Funktion zweiten Grades: Es gibt ein Intercept und das x
im ersten und zweiten Grad.
Beispiel:
(in ms)
(in Liter)
(in Liter)
Wir überprüfen also, ob Alkohol einen Effekt auf die Reaktionszeit hat, der irgendwie einer Parabel
gleich kommt:
Koeffizienten
Nicht standardisierte Koeffizienten
Standardisierte
Koeffizienten
t Sig. B Standardfehler Beta
Liter -174,125 48,180 -,542 -3,614 ,005
Liter ** 2 208,456 20,555 1,521 10,141 ,000
(Konstante) 99,848 24,554 4,066 ,002
Abhängige Variable: ms
Spieß-Vorlesung: Handbuch Interpretationen
Seite 5 von 21
Alle Parameter sind signifikant. Das bedeutet, dass Alkohol ganz anscheinend einen quadratischen
Effekt auf die Reaktionszeit hat.
Abbildung 1: Scatterplot für Reaktionszeit auf Alkoholkonsum: Parabel
In der Abbildung sieht man sehr deutlich, wie ein parabolisches Modell (gestrichelte Linie) die Daten
besser repräsentiert, als ein nur einfacher linearer Zusammenhang (durchgehende Linie).
3.2.2. Beispiel 2: Exponentialfunktion
Ein anderer Forscher möchte untersuchen, ob eine Exponentialfunktion für x die Reaktionszeiten
ebenso gut repräsentieren könnte.
Beispiel:
(in ms)
(in Liter)
Wir überprüfen also, ob Alkohol einen exponentiellen Effekt auf die Reaktionszeit hat:
Spieß-Vorlesung: Handbuch Interpretationen
Seite 6 von 21
Achtung: SPSS formt die Gleichung durch den natürlichen Logarithmus um. Das erkenne ich an der
Output-Beschreibung. Es wird also quasi folgendes Modell getestet:
Alle Parameter sind signifikant. Das bedeutet, dass Alkohol anscheinend einen exponentiellen Effekt
auf die Reaktionszeit hat.
Abbildung 2: Scatterplot für Reaktionszeit auf Alkohol: Exponentialfunktion
Die Exponentialfunktion scheint die Daten sogar noch besser zu repräsentieren, als die parabolische
Funktion.
3.2.3. Beispiel 3: Kubische Funktion
Die kubischen Funktion entspricht einer Funktion dritten Grades: Es gibt ein Intercept und das x im
ersten, zweiten und dritten Grad.
Koeffizienten
Nicht standardisierte Koeffizienten
Standardisierte
Koeffizienten
t Sig. B Standardfehler Beta
Liter 1,449 ,030 ,998 49,110 ,000
(Konstante) 33,427 1,268 26,361 ,000
Abhängige Variable:ln(ms).
Spieß-Vorlesung: Handbuch Interpretationen
Seite 7 von 21
Ein Beispiel könnte sein, dass man ein neues Medikament testen möchte:
(in Stunden)
(in Stunden)
(in Stunden)
Wir überprüfen also, ob das neue Medikament über die Zeit hinweg Nebenwirkungen auslöst. Dabei
nehmen wir an, dass diese Nebenwirkungen erst ansteigen, dann wieder abfallen und später wieder
ansteigen.
Abhängige Variable: Beschwerde
Bis auf das Intercept sind alle Regressionsparameter signifikant. Da mich das Intercept eh nicht
interessiert (siehe weiter oben), ist dies auch nicht weiter schlimm. Wichtig sind die
Steigungskoeffizienten der anderen Parameter. Sie sind alle signifikant, was wiederum bedeutet,
dass die Zeit einen kubischen Effekt auf die Beschwerden hat.
Koeffizienten
Nicht standardisierte
Koeffizienten
Standardisierte
Koeffizienten
t Sig. B Standardfehler Beta
Zeit 705,371 121,695 12,001 5,796 ,000
Zeit ** 2 -729,174 118,596 -29,078 -6,148 ,000
Zeit ** 3 216,942 34,796 17,479 6,235 ,000
(Konstante) -79,251 36,763 -2,156 ,059
Spieß-Vorlesung: Handbuch Interpretationen
Seite 8 von 21
Abbildung 3: Scatterplot für Beschwerden auf Zeit: Kubische Funktion
In der Abbildung sieht man sehr gut, wie die kubische Funktion die Daten repräsentieren kann.
3.2.4. Beispiel 4: Inverse Funktion
Bei einer inversen Funktion eines Parameters, wird die eins durch den Parameter geteilt.
Beispiel:
(BDI-Werte)
(in Sitzungen)
Wir überprüfen also, ob die Depression besonders stark am Anfang der Therapie ist, dann relativ
stark abnimmt, aber dann immer langsamer abnimmt. Es gibt also am Anfang einen großen Effekt
von Therapie und dieser wird dann stetig geringer.
Spieß-Vorlesung: Handbuch Interpretationen
Seite 9 von 21
Koeffizienten
Nicht standardisierte Koeffizienten
Standardisierte
Koeffizienten
t Sig. B Standardfehler Beta
1 / Sitzungen 134,360 17,862 ,915 7,522 ,000
(Konstante) 8,794 1,285 6,841 ,000
Alle Parameter sind signifikant. Das bedeutet, dass Therapiesitzungen anscheinend einen
inversförmigen Effekt auf die Depressionswerte haben.
Abbildung 4: Scatterplot BDI-Werte auf Therapiesitzungen: Inverse Funktion
In der Abbildung erkennt man gut den inversverlaufenden Zusammenhang zwischen Therapie und
Depression. Am Anfang gehen die BDI-Werte noch stark zurück und auch wenn sie auch
kontinuierlich zurückgehen, so gehen sie zum Ende der Therapie hin nicht mehr so stark zurück.
3.2.5. Falsche Modellannahmen
Angenommen ein zweiter Forscher erhebt eine zweite Stichprobe und will den parabolischen
Zusammenhang von Alkohol auf Reaktion replizieren. Er bekommt dabei folgende Ergebnisse:
Spieß-Vorlesung: Handbuch Interpretationen
Seite 10 von 21
Koeffizienten
Nicht standardisierte Koeffizienten
Standardisierte
Koeffizienten
t Sig. B Standardfehler Beta
Liter 67,695 11,917 ,731 5,681 ,000
Liter ** 2 10,666 5,084 ,270 2,098 ,062
(Konstante) 32,069 6,073 5,280 ,000
Abhängige Variable: ms
Der Regressionsparameter für das x zweiten Grades ist nicht signifikant. Daher kann der Forscher
nicht davon ausgehen, dass er hier einen quadratischen Effekt von Alkohol auf die Reaktionszeit
gefunden hat.
Ein anderer Forscher will den kubischen Effekt von dem neuen Medikament über die Zeit hinweg
ebenfalls replizieren und bekommt folgende Ergebnisse:
Abhängige Variable: Beschwerde
Zwar ist der Regressionsparameter für das x dritten Grades signifikant, aber dafür nicht die des
ersten und zweiten Grades. Also kann dieser Forscher nicht davon ausgehen, dass hier ein Effekt von
Zeit auf Beschwerden vorliegt, der einer kubischen Funktion folgt.
Wichtig: Ich kann ausgehend von Nicht-Signifikanz keine weiteren Annahmen über das Modell
machen! Ich kann weder bei dem ersten Ergebnis auf einen linearen Zusammenhang schließen, noch
bei dem zweiten Ergebnis von einem exponentiellen oder quadratischen Zusammenhang ausgehen.
Auf der Grundlage von Nicht-Signifikanz darf keine Interpretation folgen. Wir können nur sagen wie
etwas NICHT ist. Andere Annahmen müssten erst in einem neuen Modell überprüfen werden.
3.3. Multiple Regression
Bei der multiplen Regression wird der Zusammenhang zwischen mehreren kontinuierlich
ausgeprägten Prädiktoren und einem kontinuierlich ausgeprägten Kriterium ermittelt. Dabei kann es
insgesamt Prädiktoren im Modell geben,
Koeffizienten
Nicht standardisierte Koeffizienten
Standardisierte
Koeffizienten
t Sig. B Standardfehler Beta
Zeit 137,558 93,156 ,428 1,477 ,174
Zeit ** 2 -112,032 90,784 -,817 -1,234 ,248
Zeit ** 3 95,158 26,636 1,403 3,573 ,006
(Konstante) 18,780 28,142 ,667 ,521
Spieß-Vorlesung: Handbuch Interpretationen
Seite 11 von 21
Beispiel für Prädiktoren:
(in Tausend EUR)
(in Minuten)
Wir überprüfen, objeweils Einkommen und Lesen einen Effekt auf den IQ haben.
Koeffizientena
Modell
Nicht standardisierte
Koeffizienten
Standardisierte
Koeffizienten
t Sig.
95,0% Konfidenzintervalle
für B
Regressions-
koeffizient B Std. Error Beta Untergrenze Obergrenze
1 (Konstante) 78,132 ,947 82,497 ,000 76,189 80,075
Tausend EUR ,443 ,061 ,723 7,325 ,000 ,319 ,567
Minuten ,125 ,045 ,273 2,768 ,010 ,032 ,218
a. Abhängige Variable: IQ
Alle Parameter sind signifikant: Sowohl Einkommen als auch Lesen haben einen positiven (beide
Werte >0) Effekt auf den IQ.
4. Dummy-Kodierung
Bei den ein- und mehrfaktoriellen Varianzanalysen und der Kovarianzanalyse werden normalerweise
die Varianzen von den einzelnen Ausprägungen der Prädiktoren miteinander verglichen und mit Hilfe
eines F-Tests auf Signifikanz überprüft. Es gibt aber noch die Möglichkeit die verschiedenen
Ausprägungen mit Hilfe einer multiplen Regression darzustellen. Dazu muss aber erst das Konzept
der Dummy-Variablen eingeführt werden.
Bisher ging es nur um kontinuierlich ausgeprägte Prädiktoren. Bei den verschiedenen
varianzanalytischen Modellen geht es aber um diskontinuierlich ausgeprägte Prädiktoren (siehe dazu
auch Dokument „Statistik-Regression“ Punkt 1.1. die festen und zufälligen Effekte). Das heißt wir
stecken die verschiedenen Ausprägungen des Prädiktors in Kategorien und vergleichen dann diese
Kategorien miteinander.
Spieß-Vorlesung: Handbuch Interpretationen
Seite 12 von 21
Vorliegender Fall: Ich möchte den Zusammenhang zwischen Schule und Note wissen. Dafür
untersuchen wir 3 verschiedene Schulen (jeweils eine Schule aus Ingolstadt, Leipzig und
Cloppenburg). Schule ist dann ein Beispiel für einen diskontinuierlich ausgeprägten Prädiktor.
Allgemein gilt, dass je eine DV stellvertretend für je eine Ausprägung eines Prädiktors eingesetzt
wird. Dabei gilt, dass man entweder auf der jeweilige Schule ist oder nicht. Entweder man geht in
Ingolstadt zur Schule oder nicht. Entweder Leipzig oder nicht. Entweder Cloppenburg oder nicht. Man
kann nicht in Ingolstadt und Leipzig zur Schule gehen. Eine DV steht jeweils für eine Ausprägung des
Prädiktors. Eine DV kann immer nur eine 1 oder 0 annehmen:
Intuitiv würde man wohl folgende Regressionsgleichung aufstellen:
Dieses Vorgehen ist zwar auf den ersten Blick einleuchtend aber falsch. Die , und
repräsentieren jeweils die Höhe des Effekts der jeweilige Schule auf die Note.
Wie sieht das für Ingolstädter aus?
Das verkürzt sich zu:
Dieses Vorgehen kann ich auch für die Leipziger und Cloppenburger machen. Für Leipziger sieht die
Gleichung wie folgt aus:
Und für Cloppenburger:
Ich setze hier meine
Dummy auf 1, da es sich
hier um einen
Ingolstädter handelt
Ich setze hier meine
Dummy auf 0, da es sich
um einen Ingolstädter
und nicht um einen
Leipziger handelt
Ich setze hier meine
Dummy auf 0, da es sich
um einen Ingolstädter
und nicht um einen
Cloppenburger handelt
Spieß-Vorlesung: Handbuch Interpretationen
Seite 13 von 21
Jetzt haben wir folgendes Problem: Wir können keine der Gleichungen auflösen, denn egal welche
Ausprägung vorliegt, stehen immer zwei Unbekannte in der Gleichung. Eine Gleichung mit zwei
Unbekannten kann aber nicht aufgelöst werden, da es unendlich viele Möglichkeiten gibt, wie die
Werte zustande kommen! Irgendwie muss also alleine in der Gleichung stehen, denn dann hätten
wir: . Das Intercept gibt den y-Achsenabschnitt an, also wenn gilt. In unserem Beispiel
ist die Schule. Die Schule müsste also die Ausprägung 0 haben, um identifizieren zu können.
Aber die Ausprägung 0 macht für Schule inhaltlich keinen Sinn, also bedeutet das im Umkehrschluss,
dass wir tatsächlich eine DV für eine bestimmte Ausprägung weglassen müssen. repräsentiert
dann die ausgelassene Ausprägung des Prädiktors. Welche DV weggelassen wird, ist rechnerisch
egal.
Für den Fall, dass wir die Ausprägung „Ingolstadt“ weglassen, sieht die Regressionsgleichung wie
folgt aus:
Der geschätzte Effekt für Ingolstadt sieht nun wie folgt aus:
Geschätzter Effekt für Leipzig:
Geschätzter Effekt für Cloppenburg:
Das bedeutet, dass der geschätzte Effekt für Leipzig und Cloppenburg nicht ohne den geschätzten
Effekt für Ingolstadt ermittelt werden kann. Genauer gesagt ermitteln wir den Effekt für Leipzig und
Cloppenburg im Verhältnis zu Ingolstadt. Daher bezeichnen wir unsere Kategorie, die bei der
Dummy-Kodierung wegfällt, auch als Referenzkategorie. Allgemeiner ausgedrückt: Wir ermitteln bei
diskontinuierlich ausgeprägten Prädiktoren, mit Hilfe von Dummy-Variablen, den Effekt einer
bestimmten Ausprägung des Prädiktor im Verhältnis zu der Referenzkategorie.
4.1. Einfaktorielle Varianzanalyse als multiple Regression
Bei der einfaktoriellen Varianzanalyse werden mehrere kategoriale Ausprägungen eines Prädiktors
miteinander verglichen. Wenn der Prädiktor kategoriale Ausprägungen hat, muss ich mein Modell
mit Dummy-Variablen aufstellen. Wie der Name schon sagt gibt es in der einfaktoriellen Varianz-
analyse nur einen Faktor. Faktor ist lediglich nur ein anderes Wort für Prädiktor. In diesem Modell
wird es also nur um EINEN Prädiktor gehen1. Dabei gilt, dass der Prädiktor
Ausprägungen haben kann. ist der Laufindex für die Ausprägungen des Prädiktors und insgesamt
1 Die Betonung liegt hier auf einen Prädiktor, weil Studenten die Anzahl an Prädiktoren gerne mit der Anzahl an
Ausprägungen eines Prädiktors verwechsel
Spieß-Vorlesung: Handbuch Interpretationen
Seite 14 von 21
gibt es Ausprägungen. Für die Anzahl an DV in meinem Modell gilt, dass es immer eine DV weniger
in mein Modell gibt, als es maximale Ausprägungsmöglichkeiten für den Prädiktor gibt:
Nehmen wir das Beispiel aus dem Abschnitt Dummy-Kodierung:
Ich weiß, dass ich eine DV weniger in meinem Modell haben muss, als es maximale
Ausprägungsmöglichkeiten meines Prädiktors gibt:
Ich brauche also 2 DV. Die Konstante in meinem Regressionsmodell repräsentiert nun die übrig
gebliebene Ausprägung des Prädiktors, die nicht durch eine DV dargestellt wird. Diese Ausprägung ist
dann meine Referenzkategorie2.
Nehmen wir an Ingolstadt sei unsere Referenzkategorie. Die Ausprägung 1 (=Ingolstadt) fliegt also
aus unserem Modell raus3:
Wenn wir dieses Modell schätzen kommt folgendes Ergebnis heraus:
Koeffizientena
Modell
Nicht standardisierte
Koeffizienten
Standardisierte
Koeffizienten
t Sig.
95,0% Konfidenzintervalle
für B
Regressions-
koeffizient B Std. Error Beta Untergrenze Obergrenze
1 (Konstante) 2,250 ,254 8,853 ,000 1,741 2,759
Ingol_vs_Leipzig 1,179 ,355 ,394 3,319 ,002 ,467 1,890
Ingol_vs_Clopp 2,224 ,364 ,726 6,107 ,000 1,495 2,953
a. Abhängige Variable: Note
2 Welche Ausprägung ich als Referenzkategorie nehme ist, wie bereits erwähnt, egal.
3 Eigentlich könnte man das im Index von der DV weglassen. Das sagt uns nur, dass die DV zum Prädiktor gehört.
Wenn wir nur einen Prädiktor haben (wie in diesem Beispiel) ist diese Info redundant. Aber wenn es mehrere Prädiktoren gibt (=mehrfaktorielle Designs, kommen später) brauchen wir den Hinweis zu welchem Prädiktor die jeweilige DV gehört! Deswegen wird auch hier der Vollständigkeit halber noch das eingefügt
Spieß-Vorlesung: Handbuch Interpretationen
Seite 15 von 21
Alle Ausprägungen sind signifikant, d. h. ich kann die Höhe bzw. die Richtung des Effekts
interpretieren!
Nun können wir unsere Regressionsgleichung aufstellen:
Nun kann man sagen, dass der Effekt, der Ausprägung „Leipzig“ unseres Prädiktors „Schule“ einen
positiven Effekt (da 1,179 > 0) im Vergleich zur Referenzkategorie hat. Und in Cloppenburg Schüler zu
sein, hat einen ebenfalls positiven Effekt (da 2,224 > 0) im Vergleich zu Ingolstadt. Inhaltlich kann
man auch sagen, dass die Noten in Leipzig schlechter sind, als in Ingolstadt und die Noten in
Cloppenburg sind ebenfalls schlechter als in Ingolstadt.
SPSS bspw. nimmt grundsätzlich die Ausprägung mit den höchsten Werten als Referenzkategorie.
Parameterschätzer
Abhängige Variable:Note
Parameter Regressionskoeffizient B Std. Error t Sig.
95%-Konfidenzintervall
Untergrenze Obergrenze
Konstanter Term 4,474 ,261 17,157 ,000 3,952 4,996
Ingolstadt -2,224 ,364 -6,107 ,000 -2,953 -1,495
Leipzig -1,045 ,360 -2,904 ,005 -1,766 -,325
Cloppenburg 0a . . . . .
a. Dieser Parameter wird auf Null gesetzt, weil er redundant ist.
Die Regressionsgleichung, wenn Cloppenburg unsere Referenzkategorie darstellt, sieht dann wie
folgt aus:
Jetzt wäre die Interpretation, dass der Effekt, der Ausprägung „Ingolstadt“ unseres Prädiktors
„Schule“ einen negativen Effekt (da -2,224 < 0) im Vergleich zur Referenzkategorie hat. Und in Leipzig
Schüler zu sein, hat einen ebenfalls negativen Effekt (da -1,045 < 0) im Vergleich zu Cloppenburg.
Inhaltlich kann man auch sagen, dass die Noten in Ingolstadt besser sind, als in Cloppenburg und die
Noten in Leipzig sind ebenfalls besser als in Cloppenburg.
Für die Interpretation ist es egal, was ich als Referenzkategorie wähle! Es ändert sich nur die
Regressionsgleichung, da das Intercept anders gewählt wird und daher auch die Steigungsparameter
anders sind. Das Ergebnis ist aber jedes Mal dasselbe.
Achtung: Bei SPSS steht noch einmal extra die Referenzkategorie als Ausprägung, mit dem Hinweis,
dass dieser Term redundant ist: „Cloppenburg“: Parameter = 0, so weiß ich, dass ich hierfür mein
Intercept betrachten muss. Manche Statistikprogramme haben in ihrem Output nicht so einen Term!
D. h. „Cloppenburg“ würde da nicht stehen! Dann muss man sich einfach erschließen können, dass es
Spieß-Vorlesung: Handbuch Interpretationen
Seite 16 von 21
noch eine dritte Ausprägung des Prädiktors gibt und dass diese die Konstante, darstellt und dass die
anderen beiden Ausprägungen die Änderungsrate von dieser Konstanten sind.
4.2. Mehrfaktorielle Varianzanalyse als multiple Regression
Bei der mehrfaktoriellen Varianzanalyse werden mehrere kategoriale Ausprägungen mehrerer
Prädiktors miteinander verglichen. Auch hier muss ich mein Modell mit DV aufstellen. Nach wie vor
gilt, dass jeder Ausprägungen haben kann. Für die Anzahl an DV in meinem Modell gilt
ebenfalls nach wie vor, dass es immer eine DV weniger in mein Modell gibt, als es maximale
Ausprägungsmöglichkeiten für den Prädiktor gibt:
Allerdings gilt das nun für JEDEN Prädiktor!
Ein Beispiel: Ich nehme an aus welchem Land man kommt und welches Geschlecht man hat, hat
jeweils einen Einfluss auf das Gewicht.
(in kg)
hat 2 maximale Ausprägungsmöglichkeiten, also brauche ich für diesen Prädiktor 1 DV
hat 4 maximale Ausprägungsmöglichkeiten, also brauche ich für diesen Prädiktor 3 DV
Das Modell sähe dann wie folgt aus:
Wie man sieht gilt, dass je mehr Prädiktoren es in einem Modell gibt und je mehr
Ausprägungsmöglichkeiten es für jeden Prädiktor gibt, desto größer und damit komplizierter wird das
Modell. Dieses 2 x 3 mehrfaktorielles Modell kann man aber noch aufstellen:
Repräsentiert den
Effekt von Geschlecht
Repräsentiert den
Effekt von Nationalität
Spieß-Vorlesung: Handbuch Interpretationen
Seite 17 von 21
Parameterschätzer
Abhängige Variable:Gewicht
Parameter
Regressions-
koeffizient B Std. Error t Sig.
95%-Konfidenzintervall
Untergrenze Obergrenze
Konstanter Term 65,200 1,905 34,219 ,000 61,404 68,996
Männlich 4,900 1,704 2,875 ,005 1,505 8,295
Weiblich 0a . . . . .
England 27,900 2,410 11,576 ,000 23,099 32,701
Niederlande -8,650 2,410 -3,589 ,001 -13,451 -3,849
Frankreich -15,850 2,410 -6,576 ,000 -20,651 -11,049
Deutschland 0a . . . . .
a. Dieser Parameter wird auf Null gesetzt, weil er redundant ist.
Alle Werte sind signifikant, also darf ich auch alle Werte interpretieren. Eingesetzt in unsere
Regressionsgleichung
Das besondere ist nun, dass unsere Referenzkategorie nun zwei Ausprägungen repräsentieren muss,
nämlich eine für den Prädiktor Geschlecht und eine für den Prädiktor Nationalität. In diesem Fall
repräsentiert die Konstante eine weibliche Deutsche.
Geschlecht hat einen Effekt auf das Gewicht. Da der Wert für „Männlich“ positiv ist und die
Konstante unteranderem „weiblich“ repräsentiert, kann ich daraus schließen, dass Männer mehr
wiegen als Frauen (wäre der Wert negativ könnte ich daraus schließen, dass Männer weniger wiegen
als Frauen).
Nationalität hat einen Effekt auf das Gewicht. Engländer wiegen mehr als Deutsche, aber
Niederländer und Holländer wiegen weniger als Deutsche.
Achtung: Ich habe mein Modell hier nicht mit einem Interaktionsterm modelliert, also ob das
Geschlecht und die Nationalität ZUSAMMEN einen Effekt auf das Gewicht haben. Z. B. könnte es ja
sein, dass Deutsche Männer schwerer sind als englische Männer, aber deutsche Frauen sind leichter
als englische Frauen. Interaktionsterme machen die Modellgleichung NOCH komplizierter und die
wird er auch nicht abfragen.
4.3. Kovarianzanalyse als multiple Regression
Bei der Kovarianzanalyse werden mehrere kategoriale Ausprägungen eines oder mehrere
Prädiktoren mit einem zusätzlich kontinuierlich ausgeprägten Prädiktor verglichen. Für die kategorial
Spieß-Vorlesung: Handbuch Interpretationen
Seite 18 von 21
ausgeprägten Prädiktoren gilt wieder, dass wir DV benötigen. Mit der Kovarianzanalyse „rechnet“
man eine ungewollte Einflussgröße heraus um dann die kategorialen Ausprägungen interpretieren zu
können.
Beispiel für eine Kovarianzanalyse:
Ein Forscher will herausgefunden haben, dass Menschen mit Migrationshintergrund weniger
Intelligent sind, als Menschen ohne Migrationshintergrund. Ein zweiter Forscher überlegt sich, ob
nicht eine Dritte Variable einen Einfluss auf diesen Zusammenhang haben könnte und erhebt
zusätzlich noch das monatliche Einkommen.
(Jahreseinkommen in Tausend EUR)
Der Prädiktor Migrationshintergrund muss mit einer DV kodiert werden. Es gibt 2 max.
Ausprägungen, also reicht eine DV. Einkommen geht als stetige Variable in das Modell mit ein:
Parameterschätzer
Abhängige Variable:IQ
Parameter
Regressions-
koeffizient B Std. Error t Sig.
95%-Konfidenzintervall
Untergrenze Obergrenze
Konstanter Term 62,021 3,309 18,746 ,000 55,317 68,725
Einkommen 1,656 ,149 11,075 ,000 1,353 1,959
Migrationshintergrund -2,988 1,809 -1,652 ,107 -6,653 ,677
Kein Migrationshintergrund 0a . . . . .
a. Dieser Parameter wird auf Null gesetzt, weil er redundant ist.
Eigentlich würde man davon ausgehen, dass Menschen mit Migrationshintergrund tatsächlich einen
niedrigeren IQ haben, als Menschen ohne Mirgationshintergrund, da einen negativen Wert hat
und unsere Konstante Menschen ohne Migrationshintergrund darstellen. ABER Dieser Wert ist nicht
signifikant! Stattdessen ist der Wert für Einkommen signifikant. Das heißt wie viel jmd. verdient kann
besser den IQ erklären, als der Migrationshintergrund. Vielleicht, weil jmd. mit viel Geld eher an
Bildung heran kommt.
5. Signifikante und nicht signifikante Regressionskoeffizienten
Wie lautet die Interpretation, wenn ich sowohl signifikante, als auch nicht signifikante
Regressionskoeffizienten im Output habe?
Spieß-Vorlesung: Handbuch Interpretationen
Seite 19 von 21
Nehmen wir an, wir hätten zusätzlich noch die Noten aus Hamburg ermittelt und bekommen
folgende Ergebnis:
Parameterschätzer
Abhängige Variable:Note
Parameter
Regressions-
koeffizient B Standardfehler t Sig.
95%-Konfidenzintervall
Untergrenze Obergrenze
Konstanter Term 2,500 ,265 9,439 ,000 1,972 3,028
Ingolstadt -,250 ,375 -,667 ,507 -,996 ,496
Leipzig ,929 ,370 2,509 ,014 ,191 1,666
Cloppenburg 1,974 ,379 5,201 ,000 1,218 2,729
Hamburg 0a . . . . .
a. Dieser Parameter wird auf Null gesetzt, weil er redundant ist.
Jetzt ist Hamburg meine Referenzkategorie (wie gesagt, SPSS nimmt immer die Ausprägung mit den
höchsten Werten als Referenzkategorie) und nicht mehr Cloppenburg. Mein Modell sieht nun wie
folgt aus:
Aber Achtung: ist nicht signifikant von der Konstanten verschieden, also p > 0,05. Das bedeutet
inhaltlich, dass sich Ingolstadt nicht signifikant von Hamburg unterscheidet. Der
Regressionskoeffizient von Ingolstadt „liegt“ quasi auf der Konstanten (also auf Hamburg). Deswegen
sollte ich auch nur die Leipzig und Cloppenburg interpretieren: Leipzig hat größere Notenwerte als
Hamburg, was also bedeutet, dass Leipzig schlechter ist als Hamburg. Cloppenburg ist ebenfalls
schlechter als Hamburg, da auch hier die Notenwerte höher sind. Ingolstadt und Hamburg
unterscheiden sich dagegen nicht signifikant voneinander.
6. Wie in der Klausur
In der Forschung überlegt man sich zuerst ein Modell, erhebt die Daten und interpretiert dann die
Ergebnisse. In der Klausur wird das andersherum sein. Ihr bekommt die Daten und musst diese
Interpretieren. Das KANN man das dazugehörige Modell aufschreiben, muss es aber nicht. Zur
Interpretation der Regressionskoeffizienten, bietet es sich aber an, das Modell aufzuschreiben.
Spieß-Vorlesung: Handbuch Interpretationen
Seite 20 von 21
Klausurbeispiel 1)
Ihr bekommt folgenden Output:
Koeffizienten
Nicht standardisierte Koeffizienten
t Sig. B Standardfehler
(Konstante)
Laerm2
241,5948
-4,5413
2,9155
2,2027
82,87
-2,06
0,0000
0,0401
Laerm3 -5,9514 2,2176 -2,6837 0,0077
Geschl
Alk
Alk^2
2,1225
48,4541
71,6341
1,9371
22,5937
36,5994
1,0957
2,1446
1,9573
0,2741
0,0328
0,0513
In dem Modell gibt es 3 Prädiktoren:
(soll einen quadratischen Einfluss auf das Kriterium haben)
Anscheinend hat der Prädiktor Lärm (die hier nicht weiter definiert wird) einen Effekt.
Lärmdbedingung 1 (repräsentiert durch die Konstante) und hat die geringste Ausprägung im
Kriterium (dass ich hier nicht erkennen kann). Aber Lärmbedingung 2 unterscheidet sich nicht
signifikant von der Lärmbedingung 1 (p > 0,05). Aber Lärmbedingung 3 unterscheidet sich signifikant
von Lärmbedingung 1 (p < 0,05).
Geschlecht hat keinen signifikanten Einfluss auf das Kriterium (p > 0,05).
Es wurde ein parabolischer Zusammenhang zwischen Alkohol und dem Krterium angenommen.
Anscheinend war das eine falsche Annahme, denn damit dieses Modellannahme angenommen
werden kann müssen der Regresisonskoeffizient für „alk“ als auch „alk^2“ signifikant sein. Das ist bei
alk^2 aber nicht der Fall!
Spieß-Vorlesung: Handbuch Interpretationen
Seite 21 von 21
Klausurbeispiel 2)
Ihr bekommt dasselbe Output, aber mit folgendem zusätzlichem Output:
Auf dem Scatterplott sieht man die prädizierten Schätzwerte und die Residuen. Es wäre egal, wären
die Residuen alle gleich verteilt (egal ob sehr nah an der Null-Linie oder sehr weit weg) aber so sind
sie sehr unterschiedlich verteilt, was auf Heteroskedastizität hindeuten könnte. Die Folge? Die KQ-
Schätzer sind noch erwartungstreu, aber nicht mehr effizient oder anders ausgedrückt, die Varianzen
der KQ-Schätzer werden nicht mehr erwartungstreu geschätzt. Das bedeutet ich kann dem t-Wert
und damit den p-Werten nicht mehr trauen. Lösungsvorschlag siehe Kap. 2.