Studienarbeit Statistik II

39
Fachhochschule für angewandtes Management Fachbereich Medienmanagement Wintersemester 2008/2009 Seminar „Statistik II“ Dozentin: Marleen Brinks Statistik II Analyse eines selbsterstellten Datensatzes Florian Bechler 13.02.2009 3. Semester

Transcript of Studienarbeit Statistik II

Page 1: Studienarbeit Statistik II

Fachhochschule für angewandtes Management

Fachbereich Medienmanagement

Wintersemester 2008/2009

Seminar „Statistik II“

Dozentin: Marleen Brinks

Statistik II

Analyse eines selbsterstellten Datensatzes

Florian Bechler

13.02.2009

3. Semester

Page 2: Studienarbeit Statistik II

Statistik II

Inhalt

1. Der Datensatz....................................................................................................................4

2. Analyse des Datensatzes..................................................................................................4

2.1. T-Test für eine Stichprobe..........................................................................................4

2.2. T-Test für zwei unabhängige Stichproben..................................................................4

2.3. T-Test für zwei abhängige Stichproben......................................................................5

2.4. Einfaktorielle Varianzanalyse ohne Messwiederholung.............................................5

2.5. Einfaktorielle Varianzanalyse mit Messwiederholung................................................6

2.6. Kruskal-Wallis.............................................................................................................7

2.7. Mann-Whitney U Test als Post-hoc-Test....................................................................7

2.8. Korrelation nach Pearson...........................................................................................8

2.9. Multiple Regression....................................................................................................8

2.10. Chi²-Test für eine Variable......................................................................................9

2.11. Chi²-Test im 2-Gruppen-Vergleich........................................................................10

2.12. Reliabilitätsanalyse...............................................................................................10

3. Zusammenfassung der Ergebnisse.................................................................................11

4. Anhang............................................................................................................................13

4.1. Bericht: T-Test für eine Stichprobe...........................................................................13

4.2. Bericht: T-Test für zwei unabhängige Stichproben..................................................14

4.3. Bericht: T-Test für zwei abhängige Stichproben......................................................15

4.4. Bericht: Varianzanalyse ohne Messwiederholung....................................................16

4.5. Bericht: Varianzanalyse mit Messwiederholung.......................................................17

4.6. Bericht: Kruskal-Wallis..............................................................................................18

4.7. Bericht: Mann-Whitney U Test.................................................................................20

4.8. Bericht: Korrelation nach Pearson............................................................................25

4.9. Bericht: Multiple Regression.....................................................................................25

4.10. Bericht: Chi²-Test bei einer Stichprobe.................................................................28

4.11. Bericht: Chi²-test mit zwei Gruppen......................................................................28

4.12. Bericht: Reliabilitätsanalyse..................................................................................29

Seite 2

Page 3: Studienarbeit Statistik II

Statistik II

5. Eidesstattliche Versicherung...........................................................................................30

Abbildungsverzeichnis

Tabelle 1: Mittelwerte und Standardabweichung der Zufriedenheit in den Abteilungen...........5

Tabelle 2: Unterschiede in der Zufriedenheit zwischen den Abteilungen.................................6

Tabelle 3: Mittelwerte und Standardabweichung der Zufriedenheit mit den Arbeitsaspekten. .6

Tabelle 4: Unterschiede in der Zufriedenheit mit den Aspekten der Arbeit..............................7

Tabelle 5: Unterschiede in der Verteilung der Gehaltsklassen auf die Abteilungen.................8

Tabelle 6: Betawerte und Probability der einzelnen Variablen bei der multiplen Regression. .9

Tabelle 7: Häufigkeit der Abschlüsse.....................................................................................10

Tabelle 8: Verteilung der Gehaltsklassen nach Geschlecht...................................................10

Tabelle 9: Erwartete Verteilung der Gehaltsklassen...............................................................10

Seite 3

Page 4: Studienarbeit Statistik II

Statistik II

1. Der Datensatz

Der Beispieldatensatz soll das Ergebnis einer Umfrage unter den Angestellten eines

Kaufhauses sein. Das Unternehmen möchte anhand der Umfrage herausfinden, inwieweit

die Mitarbeiter mit ihrer Arbeitssituation zufrieden sind, welche Faktoren auf diese

Zufriedenheit einwirken und in welchen Bereichen es Verbesserungsbedarf gibt. Die Daten

sind alle fiktiv. Zur Berechnung der Ergebnisse wurde OpenStat verwendet, alle verwendeten

Berichte aus dem Programm befinden sich im Anhang.

2. Analyse des Datensatzes

2.1. T-Test für eine Stichprobe

Bei diesem Test wird ein Mittelwert mit einer vorgegebenen Größe verglichen. In diesem Fall

bietet es sich an, die durchschnittliche Zufriedenheit aller Mitarbeiter am Arbeitsplatz gegen

einen erwünschten Zielwert zu prüfen. Es sei angenommen, dass die Unternehmensleitung

einen Durchschnittswert von 7 als Ziel vorgibt. Zuerst müssen die Voraussetzungen für

diesen Test geprüft werden: Mit Nges=60 ist der Stichprobenumfang ausreichend groß. Die

Variable muss für einen T-Test normalverteilt sein. Eine Analyse der hier genutzten Variable

„Zufriedenheit mit dem Arbeitsleben“ ergibt im Shapiro-Wilks Test ein p=0,1568, der Lilliefors

Test ergibt „No evidence against normality“, man darf also annehmen dass eine

Normalverteilung vorliegt. Der T-Test selbst liefert folgende Ergebnisse: Der Mittelwert M der

Variablen beträgt 5,883 (SD=2,156). Für t ergibt sich -4,012, für p 0,0000. Die Probability ist

also kleiner als 0,05. Die Abweichung des Mittelwertes vom Zielwert ist signifikant und kein

Zufall in dieser Erhebung. Der Mittelwert ist um 1,117 geringer als die Zielvorgabe.

2.2. T-Test für zwei unabhängige Stichproben

Beim T-Test für unabhängige Stichproben untersuche ich, ob die Arbeitszufriedenheit der

Männer sich von der der Frauen signifikant unterscheidet. Die Gruppe der Männer hat 28

Mitglieder, die Gruppe der Frauen 32, beide Gruppen sind also groß genug für diesen Test.

Die Variable Arbeitszufriedenheit muss jetzt nach Gruppe getrennt auf Normalverteilung

untersucht werden. Für die Gruppe der Männer ergibt sich im Shapiro-Wilks Test ein

p=0,1591 und der Lilliefors Test ergibt „No evidence against normality“, die

Normalverteilungsannahme muss also nicht verworfen werden. Bei der Gruppe der Frauen

ergibt sich im Shapiro-Wilks Test ein p=0,1705, der Lilliefors Test meldet ebenfalls „No

evidence against normality“. Also darf ein T-Test mit diesen Variablen gerechnet werden.

Der Mittelwert für die Zufriedenheit am Arbeitsplatz ist bei den Männern 5,68 (SD=1,52) und

bei den Frauen 6,06 (SD=2,60). Der F-Test auf gleiche Varianzen ergibt ein p kleiner 0,05,

Seite 4

Page 5: Studienarbeit Statistik II

Statistik II

es kann also davon ausgegangen werden dass die Varianzen signifikant unterschiedlich

sind. Deshalb sind die Ergebnisse in der Zeile „Assuming unequal variances“ abzulesen:

Hier sind sie t(50,93)=-0,708 mit p=0,4964. Der Unterschied zwischen den Mittelwerten ist

also nicht signifikant.

2.3. T-Test für zwei abhängige Stichproben

Zwei abhängige Stichproben in diesem Datensatz sind die aktuelle Gesamt-

Arbeitszufriedenheit sowie der Wert für die Arbeitszufriedenheit vor drei Monaten. Untersucht

wird, ob sich die durchschnittliche Gesamtarbeitszufriedenheit erhöht hat. Zuerst wird als

Voraussetzung überprüft, ob die Differenz aus den beiden Variablen normalverteilt ist. Der

Shapiro-Wilks Test ergibt ein p von 0,0869, es ist nicht signifikant wahrscheinlich dass keine

Normalverteilung vorliegt. Der Lilliefors Test gibt ebenfalls „No evidence against normality“

aus, es steht also anzunehmen dass die erste Bedingung erfüllt ist. Die Stichprobe ist mit

n=60 groß genug für den T-Test. Der Mittelwert der aktuellen Zufriedenheit mit der

Arbeitssituation ist 5,88 (SD=2,16), der Mittelwert für die Arbeitszufriedenheit vor 3 Monaten

5,58 (SD=2,01). Mit einem Ergebnis von t(59)= 1,110 und p=0,2715 und damit größer 0,05

steht fest, dass dieser Unterschied nicht signifikant ist. Dass der erste Mittelwert größer als

der zweite ist, kann also auch Zufall sein. Das hierfür errechnete Effektstärkemaß beträgt

d=0,14, zeigt also erwartungsgemäß einen schwachen Effekt an.

2.4. Einfaktorielle Varianzanalyse ohne Messwiederholung

Mit diesem Verfahren kann ermittelt werden, ob sich die Mittelwerte von mehr als zwei

Gruppen signifikant voneinander unterscheiden. Hier wende ich das Verfahren an, um

Herauszufinden ob Unterschiede in der Arbeitszufriedenheit zwischen den Abteilungen, die

an der Umfrage teilgenommen haben, bestehen. In dem Datensatz sind die Abteilungen mit

Zahlen kodiert: Das Lager mit 1, der Verkauf mit 2, der Einkauf mit 3 und die Verwaltung mit

4. Die einfaktorielle ANOVA gibt hierfür ein p von 0,01 aus, das p ist also kleiner 0,05. Damit

besteht irgendwo zwischen den vier Gruppen ein signifikanter Unterschied in Bezug auf die

Zufriedenheit mit der Arbeit. Die errechneten Mittelwerte M und Standardabweichungen SD

sind:

Lager Verkauf Einkauf Verwaltung

M = 4,71

SD = 1,83

M = 5,76

SD = 2,24

M = 7,36

SD = 1,80

M = 6,64

SD = 1,80

Tabelle 1: Mittelwerte und Standardabweichung der Zufriedenheit in den Abteilungen

Der Bonferronie Test gibt an, wo die signifikanten Unterschiede zwischen den Gruppen

liegen. So unterscheidet sich Gruppe 1 mit p=0,001 signifikant von Gruppe 3 und mit

p=0,011 signifikant von Gruppe 4, Gruppe 2 unterscheidet sich mit p=0,039 signifikant von

Seite 5

Page 6: Studienarbeit Statistik II

Statistik II

Gruppe 3 und alle anderen Gruppen unterscheiden sich nach diesem Test nicht signifikant

voneinander. OpenStat meldet hier für die beiden letztgenannten Gruppenpaare keine

signifikanten Unterschiede, das widerspricht allerdings den berechneten p-Werten und muss

deshalb ein Fehler des Programms sein.

Lager Verkauf Einkauf Verwaltung

Lager - Nicht Signifikant Signifikant Signifikant

Verkauf Nicht Signifikant - Signifikant Nicht Signifikant

Einkauf Signifikant Signifikant - Nicht Signifikant

Verwaltung Signifikant Nicht Signifikant Nicht Signifikant -

Tabelle 2: Unterschiede in der Zufriedenheit zwischen den Abteilungen

2.5. Einfaktorielle Varianzanalyse mit Messwiederholung

Mit der einfaktoriellen Varianzanalyse mit Messwiederholung kann man bei voneinander

abhängigen Variablen ermitteln, ob Unterschiede zwischen deren Mittelwerten bestehen. Bei

diesem Datensatz bietet es sich an, zu untersuchen, ob die Unterschiede in den

verschiedenen abgefragten Zufriedenheiten zufällig oder signifikant sind. Damit das Ergebnis

nicht zu unübersichtlich wird, beschränke ich mich auf den Vergleich von vier Variablen: die

Zufriedenheit mit den Aufgaben im Unternehmen, mit der Arbeitszeit, mit dem Gehalt und mit

den Aufstiegschancen. Als Ergebnis liefert OpenStat hier p=0,000. Das ist kleiner 0,05, also

gibt es irgendwo zwischen diesen Variablen signifikante Unterschiede im Mittelwert. Die

errechneten Mittelwerte sind:

Aufgaben Arbeitszeit Gehalt Aufstiegschancen

M=5,220

SD=2,009

M=7,051

SD=1,305

M=5,576

SD=1,642

M=4,712

SD=1,451

Tabelle 3: Mittelwerte und Standardabweichung der Zufriedenheit mit den Arbeitsaspekten

Die Angestellten sind also bei diesen vier Aspekten am zufriedensten mit den Arbeitszeiten,

am wenigsten zufrieden sind sie mit ihren Aufstiegschancen. Die Unterschiede werden jetzt

zwischen allen Variablen auf Signifikanz geprüft. Die Mittelwert-Abweichung zwischen der

Zufriedenheit mit den Aufgaben und der mit der Arbeitszeit ist mit p=0,000 signifikant, zur

Zufriedenheit mit Gehalt und Aufstiegschancen ist die Abweichung nicht signifikant. Die

Zufriedenheit mit der Arbeitszeit weicht signifikant von der mit Gehalt und Aufstiegschancen

ab, beide p=0,000. Die Zufriedenheit mit dem Gehalt weicht ebenfalls mit p=0,0073 von der

mit den Aufstiegschancen ab. Insgesamt ist es also kein Zufall, dass die Angestellten mit der

Arbeitszeit zufriedener sind als mit den anderen Aspekten. Es kann aber Zufall sein, dass sie

die Zufriedenheit mit ihren Aufgaben höher bewertet haben als die mit ihren

Aufstiegschancen oder niedriger als die mit ihrem Gehalt.

Seite 6

Page 7: Studienarbeit Statistik II

Statistik II

Aufgaben Arbeitszeit Gehalt Aufstiegschancen

Aufgaben - Signifikant Nicht Signifikant Nicht Signifikant

Arbeitszeit Signifikant - Signifikant Signifikant

Gehalt Nicht Signifikant Signifikant - Signifikant

Aufstiegs-

chancenNicht Signifikant Signifikant Signifikant -

Tabelle 4: Unterschiede in der Zufriedenheit mit den Aspekten der Arbeit

2.6. Kruskal-Wallis

Die Kruskal-Wallis Varianzanalyse vergleicht ebenfalls verschiedene Gruppen hinsichtlich

der Unterschiede beim Mittelwert einer Variablen. Das Besondere an der Methode ist, dass

sie auch auf ordinalskalierte Variablen angewendet werden kann. In diesem Datensatz ist die

Gehaltsklasse zum Beispiel ordinalskaliert: Je höher die Gehaltsklasse, desto mehr verdient

der Mitarbeiter, aber die Unterschiede zwischen den Gehaltsklassen sind nicht exakt gleich.

Deswegen wende ich Kruskal-Wallis an, um zu prüfen, ob zwischen den Abteilungen

Unterschiede bei der Verteilung der Gehaltsklassen liegen. Der Test ergibt ein p=0,0000, das

bedeutet es gibt einen signifikanten Unterschied in der Verteilung der Gehaltsklassen auf die

einzelnen Abteilungen.

2.7. Mann-Whitney U Test als Post-hoc-Test

Um jetzt herauszufinden, zwischen welchen Gruppen Unterschiede bestehen, werden Mann-

Whitney U Tests als Post-hoc-Tests durchgeführt. Diese vergleichen immer zwei Gruppen

hinsichtlich einer ordinalskalierten Variablen miteinander. Die Variable „abteilung“ ist in den

Daten von 1-4 eingetragen, dabei steht 1 für das Lager, 2 für den Verkauf, 3 für den Einkauf

und 4 für die Verwaltung. Zwischen Gruppe 1 und Gruppe 2 besteht mit p=0,0001 ein

signifikanter Unterschied in der Gehaltsklasse. Bei Gruppe 1 und Gruppe 3 ist mit p=0,0004

ebenfalls ein signifikanter Unterschied vorhanden. Gruppe 1 und Gruppe 4 unterscheiden

sich mit p=0,0000 auch signifikant voneinander. Gruppe 1 unterscheidet sich also von allen

anderen Gruppen signifikant. Jetzt muss Gruppe 2 mit 3 und 4 verglichen werden. Gruppe 2

unterscheidet sich mit p=0,1655 von Gruppe 3. Dies ist nicht signifikant, da p > 0,05, also ist

der Unterschied hier nicht überzufällig. Von Gruppe 4 unterscheidet sich Gruppe 2 mit

p=0,0000, diese beiden Gruppen unterscheiden sich also wieder signifikant voneinander.

Zuletzt wird Gruppe 3 mit Gruppe 4 verglichen, was ein p=0,0002 ergibt. Also unterscheiden

sich auch diese Gruppen signifikant voneinander. Die einzigen beiden Abteilungen, die sich

bei der Gehaltsklasse nicht signifikant unterscheiden, sind also Verkauf und Einkauf.

Seite 7

Page 8: Studienarbeit Statistik II

Statistik II

Lager Verkauf Einkauf Verwaltung

Lager - Signifikant Signifikant Signifikant

Verkauf Signifikant - Nicht Signifikant Signifikant

Einkauf Signifikant Nicht Signifikant - Signifikant

Verwaltung Signifikant Signifikant Signifikant -

Tabelle 5: Unterschiede in der Verteilung der Gehaltsklassen auf die Abteilungen

2.8. Korrelation nach Pearson

Bis jetzt habe ich vor allem Unterschiede zwischen Gruppen und Variablen untersucht. Als

nächstes werde ich mit einer Korrelations-Analyse versuchen herauszufinden, wie stark und

in welche Richtung zwei Variablen voneinander abhängen, also ob die eine größer wird oder

schrumpft wenn die andere größer wird, wie stark das ausgeprägt ist und ob überhaupt so

ein Zusammenhang vorliegt. Als Beispielsdaten nehme ich die gesamte Arbeitszufriedenheit,

die Zufriedenheit mit dem Gehalt und die gesamte private Lebenszufriedenheit. Als Ergebnis

gibt OpenStat Werte für die Korrelation aus, die zwischen -1 und +1 liegen, sowie ein p dafür

ob der Korrelationswert sich signifikant von 0, also keinem Zusammenhang, unterscheidet.

Die Korrelation zwischen der gesamten Arbeitszufriedenheit und der Zufriedenheit mit dem

Gehalt beträgt 0,254 mit p=0,050. Das ist genau an der Grenze zur Signifikanz, die

Korrelation ist positiv im leichten bis mittelstarken Bereich. Zwischen der Arbeitszufriedenheit

und der privaten Lebenszufriedenheit beträgt der Korrelationswert -0,0228 bei einem

p=0,080. Der Wert ist also nicht signifikant von 0 verschieden, er könnte also Zufall sein.

Wenn er nicht zufällig so liegen würde, wäre das ein leichter bis mittlerer negativer

Zusammenhang zwischen privater Lebenszufriedenheit und Arbeitszufriedenheit. Daran

kann man erkennen, dass diese Daten fiktiv sind, denn so eine Beobachtung wäre in der

Realität sehr ungewöhnlich. Der Zusammenhang zwischen der Zufriedenheit mit dem Geld

und der privaten Zufriedenheit hat einen Wert von 0,162 bei einem p=0,216. Das wäre eine

leichte positive Korrelation, die sich aber nicht signifikant von 0 unterscheidet.

2.9. Multiple Regression

Mit der multiplen Regression kann untersucht werden, ob mit Hilfe von verschiedenen

Variablen eine andere Variable statistisch vorhergesagt werden kann. In dem vorliegenden

Datensatz bietet es sich an, zu untersuchen ob aus den einzelnen Aspekten der

Zufriedenheit am Arbeitsplatz wie Kollegen, Vorgesetzte, Aufgaben, Arbeitszeit, Gehalt und

Aufstiegschancen, die gesamte Zufriedenheit am Arbeitsplatz vorhergesagt werden kann.

Als Grundvorrausetzungen des Testes darf keine Kollinearität zwischen den Prädiktoren

bestehen, aber es muss Linearität und Homoskedastizität bestehen. Die Kollinearität kann

mit dem ausgegebenen Toleranz-Wert der Analyse geprüft werden. Dieser liegt hier immer

Seite 8

Page 9: Studienarbeit Statistik II

Statistik II

deutlich über 0,1, also kann diese Voraussetzung als erfüllt angesehen werden. Der

Breusch-Pagan-Godfrey Test auf Heteroskedastizität liefert ein p=1,0000, es kann also

angenommen werden das Homoskedastizität vorliegt. Die Normalverteilung der Residuen

ergibt bei Prüfung im Shapiro-Wilks Test ein p=0,0000, der Lilliefors Test ergibt „Strong

evidence against normality“. Damit sind die Voraussetzungen für eine multiple Regression

eigentlich nicht erfüllt. Da ich aber dieselben Berechnungen auch mit den Variablen für die

private Zufriedenheit durchgeführt habe und diese die Voraussetzung der Homoskedatizität

nicht erfüllen und damit auch nicht verwendet werden können, werde ich die multiple

Regression weiter mit diesen Daten durchführen. Die Ergebnisse besitzen in diesem Fall

natürlich keine Aussagekraft, aber die Methodik bleibt korrekt. Zuerst kann hier festgehalten

werden, dass mit einem p=0,0000 ein signifikanter Zusammenhang zwischen den

Grundwerten und abhängigen Wert vorhanden ist, es kann also in diesem Fall die gesamte

Arbeitszufriedenheit mit diesen Grundwerten statistisch vorhergesagt werden. Dabei ist der

Einfluss aller Grundvariablen außer der Variable „z_gehalt“ signifikant. Mithilfe des Beta-

Wertes kann der spezifische Einfluss einer Variablen auf die Zielvariable gesehen werden.

Dabei stellt sich heraus, die Zufriedenheit mit den Aufgaben mit Beta=0,600 und die

Zufriedenheit mit den Kollegen mit Beta=0,503 einen außergewöhnlich starken Einfluss

haben. Alle anderen Variablen haben mit Beta-Werten zwischen -0,182 bis 0,165 einen eher

leichten Einfluss auf die Gesamtzufriedenheit.

Variable Beta p

z_kollegen 0,503 0,000

z_vorgesetze 0,147 0,042

z_aufgaben 0,600 0,000

z_arbeitszeit 0,165 0,023

z_gehalt 0,073 0,346

z_aufstieg -0,182 0,039

Tabelle 6: Betawerte und Probability der einzelnen Variablen bei der multiplen Regression

2.10. Chi²-Test für eine Variable

Wenn man herausfinden möchte, ob die Häufigkeiten, mit der verschiedene Antworten auf

eine Frage gewählt wurden, signifikant voneinander abweichen, kann man den Chi²-Test für

eine Variable anwenden. Ich untersuche hier mit dieser Methode, ob die Antworten auf die

Frage nach den Schulabschlüssen gleichmäßig verteilt sind oder nicht. Diese Frage hatte

fünf Antwortmöglichkeiten, erwartungsgemäß hätte bei einer gleichmäßigen Verteilung jede

Antwort zwölf Mal gewählt werden müssen. Tatsächlich wurde wie folgt geantwortet:

Seite 9

Page 10: Studienarbeit Statistik II

Statistik II

Kein Abschluss

(qualifizierter)

Hauptschulabschlus

s

Mittlere Reife (Fach)AbiturStudium

(Uni oder FH)

4 30 18 5 3

Tabelle 7: Häufigkeit der Abschlüsse

Die Verteilung sieht auf den ersten Blick schon sehr ungleichmäßig aus. Dementsprechend

bestätigt der Chi²-Test mit p=0,0000, dass die Antworten signifikant unterschiedlich häufig

gegeben wurden.

2.11. Chi²-Test im 2-Gruppen-Vergleich

Man kann mit dem Chi²-Test aber nicht nur herausfinden, ob innerhalb einer Variablen die

Häufigkeiten von der Erwartung abweichen, sondern auch ob es Abweichungen zwischen

den Antworten von zwei Gruppen vom Erwartungswert gibt. In diesen Daten finde ich es

interessant, zu prüfen, ob es signifikante Unterschiede bei den Gehaltsklassen zwischen

Männern und Frauen in dem Unternehmen gibt, deshalb werde ich das mit Hilfe des Testes

berechnen. Das Unternehmen hat sechs verschiedene Gehaltsklassen. Diese verteilen sich

wie folgt auf die Geschlechter:

I II III IV V VI

M 5 12 9 0 1 1

W 1 13 7 5 6 0

Tabelle 8: Verteilung der Gehaltsklassen nach Geschlecht

Man erkennt schon, dass die Verteilung bei den Männern schwerpunktmäßig eher auf der

linken Seite der Tabelle ist, bei den Frauen etwas weiter rechts. Erwartet hätte man folgende

Verteilung:

I II III IV V VI

M 2,8 11,667 7,467 2,333 3,267 0,467

W 3,2 13,333 8,533 2,667 3,733 0,533

Tabelle 9: Erwartete Verteilung der Gehaltsklassen

Die gemessen Verteilung weicht von der erwarteten ab. Gemäß Chi²-Test ist die Verteilung

der Gehaltsklassen auf die beiden Geschlechter in diesem Unternehmen mit p=0,031

signifikant unterschiedlich von den erwarteten Häufigkeiten.

2.12. Reliabilitätsanalyse

Mithilfe einer Reliabilitätsanalyse kann man ermitteln, wie genau eine Gruppe von Fragen,

die zusammen einen gemeinsamen Themenbereich abdecken, diesen Themenbereich

misst. Im vorliegenden Datensatz können dafür die sechs einzelnen Aspekte der

Arbeitszufriedenheit verwendet werden. Die gesamte Zufriedenheit mit der Arbeit wird nicht

Seite 10

Page 11: Studienarbeit Statistik II

Statistik II

hinzugezogen, diese ist ja sozusagen der durch die Teilnehmer selbstbeantwortete

Oberbegriff für die anderen Fragen. Die Reliabilitätsanalyse gibt in diesem Fall für die sechs

Variablen ein Cronbach-Alpha von 0,535 aus. Normalerweise sollte der Wert größer als 0,7

liegen, also kann man hier davon ausgehen, dass die Messgenauigkeit der sechs Fragen

nicht hoch genug ist, um die Arbeitszufriedenheit adäquat abzubilden.

3. Zusammenfassung der Ergebnisse

Zum Abschluss sollen noch einmal die Ergebnisse aller Untersuchungen kurz

zusammengefasst werden. Das Unternehmen hat mit dieser Umfrage ermitteln können, dass

die aktuelle Zufriedenheit der Mitarbeiter signifikant um immerhin 1,117 unter dem Zielwert

für die Mitarbeiterzufriedenheit liegt. Die Unterschiede in der Zufriedenheit zwischen

Männern und Frauen sind allerdings nicht signifikant, offensichtlich gibt es keine besonderen

Probleme für eines der beiden Geschlechter im Unternehmen. Zwischen den Abteilungen

unterscheidet sich die Zufriedenheit allerdings schon. Gerade die Mitarbeiter aus dem Lager

sind deutlich unzufriedener als die anderen Mitarbeiter, während die Mitarbeiter im Einkauf

deutlich zufriedener sind. Aufgeschlüsselt auf die Teilaspekte stellt sich heraus, dass die

Angestellten vor allem mit den Arbeitszeiten signifikant überdurchschnittlich zufrieden sind,

während die Zufriedenheiten mit Gehalt, Aufgaben und Aufstiegschancen darunter liegen. Im

Vergleich zu vor drei Monaten hat sich aus Sicht der Mitarbeiter keine Verbesserung der

Situation und damit der Zufriedenheit eingestellt.

Weiter wurde herausgefunden, dass die Angestellten der Bereiche Einkauf und Verkauf sich

nicht signifikant bezüglich der Verteilung der Gehaltsklassen unterscheiden, während alle

anderen Abteilungen sich hier deutlich voneinander unterscheiden. Die Verteilung der

Gehaltsklassen auf Männer und Frauen in dem Unternehmen unterscheidet sich ebenfalls

signifikant. Hier könnte weiter untersucht werden, ob dies mit der Verteilung der

Geschlechter auf die Abteilungen, mit höherer Bildung oder von ganz anderen Faktoren

abhängt. Nach der Korrelationsanalyse stellte sich außerdem heraus, das die Zufriedenheit

mit dem Arbeitsleben leicht bis mittelstark positiv mit der Zufriedenheit mit dem Gehalt

korreliert, je zufriedener mit dem Gehalt umso zufriedener sind die Angestellten insgesamt

mit ihrem Arbeitsleben. Eine Korrelation mit der Lebenszufriedenheit wurde bei diesen

beiden Aspekten aber nicht festgestellt. Bei einer weiteren Untersuchung, diesmal mit der

multiplen Regression, wurden als die maßgeblich bestimmenden Faktoren für die

Arbeitszufriedenheit die Kollegen und die Aufgaben ermittelt. Andere Faktoren haben einen

deutlich geringeren Einfluss.

Die Schulabschlüsse der Angestellten sind erwartungsgemäß nicht gleichmäßig verteilt,

manche Abschlüsse sind signifikant häufiger vorzufinden als andere.

Seite 11

Page 12: Studienarbeit Statistik II

Statistik II

Zur Messung selbst kann man sagen, dass die Messgenauigkeit der verschiedenen Aspekte

der Arbeitszufriedenheit nicht besonders hoch war, zukünftige Fragebögen zur

Mitarbeiterzufriedenheit sollten in dieser Hinsicht verbessert werden.

Seite 12

Page 13: Studienarbeit Statistik II

Statistik II

4. Anhang

4.1. Bericht: T-Test für eine Stichprobe

Normalverteilung der Variablen:

NORMALITY TESTS FOR gz_arbeit

Shapiro-Wilkes W = 0.9706Shapiro-Wilkes Prob. = 0.1568

Skew = -0.191Kurtosis = -0.221Lilliefors Test Statistic = 0.095Conclusion: No evidence against normality.

T-Test für eine Stichprobe:

ANALYSIS OF A SAMPLE MEAN

Sample Mean = 5.883Population Mean = 7.000Sample Size = 60Standard error of Mean = 0.278t test statistic = -4.012 with probability 0.000t value required for rejection = 2.001Confidence Interval = ( 5.326, 6.440)

Mittelwert und Standardabweichung der Variablen:

DISTRIBUTION PARAMETER ESTIMATES

========================================================

gz_arbeit (N = 60) Sum = 353.000Mean = 5.883 Variance = 4.647 Std.Dev. = 2.156Std.Error of Mean = 0.278 0.950 Confidence Interval for mean : 5.326 to 6.440Range = 9.000 Minimum = 1.000 Maximum = 10.000Skewness = -0.191 Std. Error of Skew = 0.309Kurtosis = -0.221 Std. Error Kurtosis = 0.608

========================================================Median = 6.000Q1 = 5.000Q3 = 7.000Interquartile range = 2.000========================================================

Seite 13

Page 14: Studienarbeit Statistik II

Statistik II

4.2. Bericht: T-Test für zwei unabhängige Stichproben

Zahl der Gruppenmitglieder:

FREQUENCY ANALYSIS BY BILL MILLER

Frequency Analysis for geschlecht FROM UP TO FREQ. PCNT CUM.FREQ. CUM.PCNT. %ILE RANK

1.00 2.00 28 0.47 28.00 0.00 0.23 2.00 3.00 32 0.53 60.00 1.00 0.73

Normalverteilung der Variablen nach Gruppe getrennt (zuerst männlich, dann weiblich):

NORMALITY TESTS FOR m_gz_arbeit

Shapiro-Wilkes W = 0.9462Shapiro-Wilkes Prob. = 0.1591

Skew = -0.437Kurtosis = -0.102Lilliefors Test Statistic = 0.101Conclusion: No evidence against normality.

NORMALITY TESTS FOR w_gz_arbeit

Shapiro-Wilkes W = 0.9526Shapiro-Wilkes Prob. = 0.1705

Skew = -0.284Kurtosis = -0.729Lilliefors Test Statistic = 0.099Conclusion: No evidence against normality.

T-Test für zwei unabhängige Stichproben:

COMPARISON OF TWO MEANS

Variable Mean Variance Std.Dev. S.E.Mean NGroup 1 5.68 2.30 1.52 0.29 28Group 2 6.06 6.77 2.60 0.46 32Assuming equal variances, t = -0.685 with probability = 0.4960 and 58 degrees of freedomDifference = -0.38 and Standard Error of difference = 0.56Confidence interval = ( -1.51, 0.74)Assuming unequal variances, t = -0.708 with probability = 0.4964 and 50.93 degrees of freedomDifference = -0.38 and Standard Error of difference = 0.54Confidence interval = ( -1.47, 0.70)F test for equal variances = 2.943, Probability = 0.0028

NOTE: t-tests are two-tailed tests.

Seite 14

Page 15: Studienarbeit Statistik II

Statistik II

4.3. Bericht: T-Test für zwei abhängige Stichproben

Normalverteilung der Differenz aus den beiden Variablen:

NORMALITY TESTS FOR dif_gz_arbeit

Shapiro-Wilkes W = 0.9654Shapiro-Wilkes Prob. = 0.0869

Skew = -0.081Kurtosis = -0.703Lilliefors Test Statistic = 0.090Conclusion: No evidence against normality.

T-Test für abhängige Stichproben:

COMPARISON OF TWO MEANS

Variable Mean Variance Std.Dev. S.E.Mean Ngz_arbeit 5.88 4.65 2.16 0.28 60gz_arbeit_vor3monaten 5.58 4.04 2.01 0.26 60Assuming dependent samples, t = 1.110 with probability = 0.2715 and 59 degrees of freedomCorrelation between gz_arbeit and gz_arbeit_vor3monaten = 0.497Difference = 0.30 and Standard Error of difference = 0.27Confidence interval = ( -0.24, 0.84)t for test of equal variances = 0.611 with probability = 0.5438

NOTE: t-tests are two-tailed tests.

Mittelwert und Standardabweichung des Differenzwertes:

DISTRIBUTION PARAMETER ESTIMATES

========================================================

dif_gz_arbeit (N = 60) Sum = 18.000Mean = 0.300 Variance = 4.383 Std.Dev. = 2.094Std.Error of Mean = 0.270 0.950 Confidence Interval for mean : -0.241 to 0.841Range = 8.000 Minimum = -4.000 Maximum = 4.000Skewness = -0.081 Std. Error of Skew = 0.309Kurtosis = -0.703 Std. Error Kurtosis = 0.608

========================================================Median = 0.000Q1 = -1.000Q3 = 2.000Interquartile range = 3.000

Seite 15

Page 16: Studienarbeit Statistik II

Statistik II

4.4. Bericht: Varianzanalyse ohne MesswiederholungONE WAY ANALYSIS OF VARIANCE RESULTS

Dependent variable is: gz_arbeit, Independent variable is: abteilung

---------------------------------------------------------------------SOURCE D.F. SS MS F PROB.>F OMEGA SQR.---------------------------------------------------------------------BETWEEN 3 54.90 18.30 4.67 0.01 0.16WITHIN 56 219.29 3.92TOTAL 59 274.18---------------------------------------------------------------------

MEANS AND VARIABILITY OF THE DEPENDENT VARIABLE FOR LEVELS OF THE INDEPENDENT VARIABLE---------------------------------------------------------------------GROUP MEAN VARIANCE STD.DEV. N--------------------------------------------------------------------- 1 4.71 3.35 1.83 17 2 5.67 5.03 2.24 21 3 7.36 3.25 1.80 11 4 6.64 3.25 1.80 11---------------------------------------------------------------------TOTAL 5.88 4.65 2.16 60---------------------------------------------------------------------

TESTS FOR HOMOGENEITY OF VARIANCE---------------------------------------------------------------------Hartley Fmax test statistic = 1.55 with deg.s freem: 4 and 20.Cochran C statistic = 0.34 with deg.s freem: 4 and 20.Bartlett Chi-square = 1.16 with 3 D.F. Prob. > Chi-Square = 0.763---------------------------------------------------------------------

FISHER'S (PROTECTED) LEAST SIGNIFICANT DIFFERENCE TEST---------------------------------------------------------------------GROUP MEAN GROUP MEAN DIFFERENCE FISHER LSD SIGNIFICANT?--------------------------------------------------------------------- 1 4.706 2 5.667 0.961 1.293 NO 1 4.706 3 7.364 2.658 1.534 YES 1 4.706 4 6.636 1.930 1.534 YES 2 5.667 3 7.364 1.697 1.475 YES 2 5.667 4 6.636 0.970 1.475 NO 3 7.364 4 6.636 0.727 1.690 NONOTE! Familywise error rate may be greater than alpha---------------------------------------------------------------------

--------------------------------------------------------------- Bonferroni Test for (Differences Between Means Overall alpha selected = 0.05---------------------------------------------------------------Comparisons made at alpha / no. comparisons = 0.008

Groups Difference Statistic Prob > Value Significant? 1 - 2 -0.961 1.423 0.163 NO 1 - 3 -2.658 3.775 0.001 YES 1 - 4 -1.930 2.742 0.011 NO 2 - 3 -1.697 2.164 0.039 NO 2 - 4 -0.970 1.236 0.226 NO 3 - 4 0.727 0.945 0.356 NO

Seite 16

Page 17: Studienarbeit Statistik II

Statistik II

4.5. Bericht: Varianzanalyse mit MesswiederholungTreatments by Subjects (AxS) ANOVA Results.

-----------------------------------------------------------SOURCE DF SS MS F Prob. > F-----------------------------------------------------------SUBJECTS 58 255.636 4.408WITHIN SUBJECTS 177 534.750 3.021 TREATMENTS 3 178.894 59.631 29.157 0.000 RESIDUAL 174 355.856 2.045-----------------------------------------------------------TOTAL 235 790.386 3.363-----------------------------------------------------------

TREATMENT (COLUMN) MEANS AND STANDARD DEVIATIONSVARIABLE MEAN STD.DEV.z_aufgaben 5.220 2.009z_arbeitszeit 7.051 1.305z_gehalt 5.576 1.642z_aufstieg 4.712 1.451

--------------------------------------------------------------- Tukey HSD Test for (Differences Between Means alpha selected = 0.05Groups Difference Statistic Probability Significant?--------------------------------------------------------------- 1 - 2 -1.831 q = 9.832 -0.0000 YES 1 - 3 -0.356 q = 1.912 0.5320 NO 1 - 4 0.508 q = 2.731 0.2206 NO--------------------------------------------------------------- 2 - 3 1.475 q = 7.920 -0.0000 YES 2 - 4 2.339 q = 12.563 -0.0000 YES --------------------------------------------------------------- 3 - 4 0.864 q = 4.643 0.0073 YES ---------------------------------------------------------------

--------------------------------------------------------------- Tukey-Kramer Test for (Differences Between Means alpha selected = 0.05Groups Difference Statistic Probability Significant?--------------------------------------------------------------- 1 - 2 -1.831 q = 9.832 -0.0000 YES 1 - 3 -0.356 q = 1.912 0.5320 NO 1 - 4 0.508 q = 2.731 0.2206 NO 2 - 3 1.475 q = 7.920 -0.0000 YES 2 - 4 2.339 q = 12.563 -0.0000 YES 3 - 4 0.864 q = 4.643 0.0073 YES ---------------------------------------------------------------

--------------------------------------------------------------- Tukey B Test for (Contrasts on Ordered Means alpha selected = 0.05---------------------------------------------------------------

Groups Difference Statistic d.f. Prob.>value Significant? 4 - 1 -0.508 2.731 2, 174 0.138 NO 4 - 3 -0.864 4.643 3, 174 0.006 YES 4 - 2 -2.339 12.563 4, 174 -0.000 YES 1 - 3 -0.356 1.912 2, 174 0.356 NO

Seite 17

Page 18: Studienarbeit Statistik II

Statistik II

1 - 2 -1.831 9.832 3, 174 -0.000 YES 3 - 2 -1.475 7.920 2, 174 0.000 YES

---------------------------------------------------------------- Scheffe contrasts among pairs of means. alpha selected = 0.05Group vs Group Difference Scheffe Critical Significant? Statistic Value---------------------------------------------------------------- 1 2 -1.83 6.95 2.817 YES 1 3 -0.36 1.35 2.817 NO 1 4 0.51 1.93 2.817 NO---------------------------------------------------------------- 2 3 1.47 5.60 2.817 YES 2 4 2.34 8.88 2.817 YES---------------------------------------------------------------- 3 4 0.86 3.28 2.817 YES----------------------------------------------------------------

---------------------------------------------------------------------- Neuman-Keuls Test for (Contrasts on Ordered Means alpha selected = 0.05

Group Mean 4 4.712 1 5.220 3 5.576 2 7.051

Groups Difference Statistic d.f. Probability Significant?---------------------------------------------------------------------- 4 - 1 -0.508 q = 2.731 2 174 0.0559 NO 4 - 3 -0.864 q = 4.643 3 174 0.0039 YES 4 - 2 -2.339 q = 12.563 4 174 -0.0000 YES 1 - 3 -0.356 q = 1.912 2 174 0.1790 NO 1 - 2 -1.831 q = 9.832 3 174 0.0000 YES 3 - 2 -1.475 q = 7.920 2 174 0.0001 YES----------------------------------------------------------------------

4.6. Bericht: Kruskal-WallisKruskal - Wallis One-Way Analysis of VarianceSee pages 184-194 in S. Siegel's Nonparametric Statistics for the Behavioral Sciences

Score Rank Group

1.00 3.50 1 1.00 3.50 1 1.00 3.50 1 1.00 3.50 1 1.00 3.50 1 1.00 3.50 1 2.00 19.00 1 2.00 19.00 1 2.00 19.00 1 2.00 19.00 1 2.00 19.00 1 2.00 19.00 1 2.00 19.00 1 2.00 19.00 2

Seite 18

Page 19: Studienarbeit Statistik II

Statistik II

2.00 19.00 2 2.00 19.00 2 2.00 19.00 2 2.00 19.00 1 2.00 19.00 1 2.00 19.00 1 2.00 19.00 1 2.00 19.00 2 2.00 19.00 2 2.00 19.00 2 2.00 19.00 2 2.00 19.00 2 2.00 19.00 2 2.00 19.00 3 2.00 19.00 3 2.00 19.00 3 2.00 19.00 3 3.00 39.50 3 3.00 39.50 2 3.00 39.50 3 3.00 39.50 2 3.00 39.50 2 3.00 39.50 3 3.00 39.50 3 3.00 39.50 2 3.00 39.50 2 3.00 39.50 2 3.00 39.50 2 3.00 39.50 2 3.00 39.50 2 3.00 39.50 2 3.00 39.50 3 3.00 39.50 2 4.00 50.00 3 4.00 50.00 3 4.00 50.00 4 4.00 50.00 4 4.00 50.00 4 5.00 56.00 4 5.00 56.00 4 5.00 56.00 4 5.00 56.00 4 5.00 56.00 4 5.00 56.00 4 5.00 56.00 4 6.00 60.00 4

Sum of Ranks in each GroupGroup Sum No. in Group 1 230.00 17 2 624.50 21 3 373.50 11 4 602.00 11

No. of tied rank groups = 5Statisic H uncorrected for ties = 37.6920Correction for Ties = 0.9058Statistic H corrected for ties = 41.6127Corrected H is approx. chi-square with 3 D.F. and probability = 0.0000

Seite 19

Page 20: Studienarbeit Statistik II

Statistik II

4.7. Bericht: Mann-Whitney U Test

Vergleich Gruppe 1 – Gruppe 2:

Mann-Whitney U TestSee pages 116-127 in S. Siegel's Nonparametric Statistics for the Behavioral Sciences

Score Rank Group

1.00 3.50 1 1.00 3.50 1 1.00 3.50 1 1.00 3.50 1 1.00 3.50 1 1.00 3.50 1 2.00 17.00 1 2.00 17.00 1 2.00 17.00 1 2.00 17.00 1 2.00 17.00 1 2.00 17.00 1 2.00 17.00 1 2.00 17.00 1 2.00 17.00 1 2.00 17.00 1 2.00 17.00 1 2.00 17.00 2 2.00 17.00 2 2.00 17.00 2 2.00 17.00 2 2.00 17.00 2 2.00 17.00 2 2.00 17.00 2 2.00 17.00 2 2.00 17.00 2 2.00 17.00 2 3.00 33.00 2 3.00 33.00 2 3.00 33.00 2 3.00 33.00 2 3.00 33.00 2 3.00 33.00 2 3.00 33.00 2 3.00 33.00 2 3.00 33.00 2 3.00 33.00 2 3.00 33.00 2

Sum of Ranks in each GroupGroup Sum No. in Group 1 208.00 17 2 533.00 21

No. of tied rank groups = 3Statistic U = 302.0000z Statistic (corrected for ties) = 3.6404, Prob. > z = 0.0001

Seite 20

Page 21: Studienarbeit Statistik II

Statistik II

Vergleich Gruppe 1 – Gruppe 3:

Mann-Whitney U TestSee pages 116-127 in S. Siegel's Nonparametric Statistics for the Behavioral Sciences

Score Rank Group

1.00 3.50 1 1.00 3.50 1 1.00 3.50 1 1.00 3.50 1 1.00 3.50 1 1.00 3.50 1 2.00 14.00 1 2.00 14.00 1 2.00 14.00 1 2.00 14.00 1 2.00 14.00 1 2.00 14.00 1 2.00 14.00 1 2.00 14.00 1 2.00 14.00 1 2.00 14.00 1 2.00 14.00 1 2.00 14.00 2 2.00 14.00 2 2.00 14.00 2 2.00 14.00 2 3.00 24.00 2 3.00 24.00 2 3.00 24.00 2 3.00 24.00 2 3.00 24.00 2 4.00 27.50 2 4.00 27.50 2

Sum of Ranks in each GroupGroup Sum No. in Group 1 175.00 17 2 231.00 11

No. of tied rank groups = 4Statistic U = 165.0000z Statistic (corrected for ties) = 3.3869, Prob. > z = 0.0004z test is approximate. Use tables of exact probabilities in Siegel.(Table J or K, pages 271-277)

Vergleich Gruppe 1 – Gruppe 4:

Mann-Whitney U TestSee pages 116-127 in S. Siegel's Nonparametric Statistics for the Behavioral Sciences

Score Rank Group

1.00 3.50 1 1.00 3.50 1 1.00 3.50 1 1.00 3.50 1 1.00 3.50 1

Seite 21

Page 22: Studienarbeit Statistik II

Statistik II

1.00 3.50 1 2.00 12.00 1 2.00 12.00 1 2.00 12.00 1 2.00 12.00 1 2.00 12.00 1 2.00 12.00 1 2.00 12.00 1 2.00 12.00 1 2.00 12.00 1 2.00 12.00 1 2.00 12.00 1 4.00 19.00 2 4.00 19.00 2 4.00 19.00 2 5.00 24.00 2 5.00 24.00 2 5.00 24.00 2 5.00 24.00 2 5.00 24.00 2 5.00 24.00 2 5.00 24.00 2 6.00 28.00 2

Sum of Ranks in each GroupGroup Sum No. in Group 1 153.00 17 2 253.00 11

No. of tied rank groups = 4Statistic U = 187.0000z Statistic (corrected for ties) = 4.4218, Prob. > z = 0.0000z test is approximate. Use tables of exact probabilities in Siegel.(Table J or K, pages 271-277)

Vergleich Gruppe 2 – Gruppe 3:

Mann-Whitney U TestSee pages 116-127 in S. Siegel's Nonparametric Statistics for the Behavioral Sciences

Score Rank Group

2.00 7.50 1 2.00 7.50 1 2.00 7.50 1 2.00 7.50 1 2.00 7.50 1 2.00 7.50 1 2.00 7.50 1 2.00 7.50 1 2.00 7.50 1 2.00 7.50 1 2.00 7.50 2 2.00 7.50 2 2.00 7.50 2 2.00 7.50 2 3.00 22.50 1 3.00 22.50 1 3.00 22.50 1 3.00 22.50 1

Seite 22

Page 23: Studienarbeit Statistik II

Statistik II

3.00 22.50 1 3.00 22.50 1 3.00 22.50 1 3.00 22.50 2 3.00 22.50 2 3.00 22.50 2 3.00 22.50 2 3.00 22.50 1 3.00 22.50 1 3.00 22.50 1 3.00 22.50 2 3.00 22.50 1 4.00 31.50 2 4.00 31.50 2

Sum of Ranks in each GroupGroup Sum No. in Group 1 322.50 21 2 205.50 11

No. of tied rank groups = 3Statistic U = 139.5000z Statistic (corrected for ties) = 0.9721, Prob. > z = 0.1655z test is approximate. Use tables of exact probabilities in Siegel.(Table J or K, pages 271-277)

Vergleich Gruppe 2 – Gruppe 4:

Mann-Whitney U TestSee pages 116-127 in S. Siegel's Nonparametric Statistics for the Behavioral Sciences

Score Rank Group

2.00 5.50 1 2.00 5.50 1 2.00 5.50 1 2.00 5.50 1 2.00 5.50 1 2.00 5.50 1 2.00 5.50 1 2.00 5.50 1 2.00 5.50 1 2.00 5.50 1 3.00 16.00 1 3.00 16.00 1 3.00 16.00 1 3.00 16.00 1 3.00 16.00 1 3.00 16.00 1 3.00 16.00 1 3.00 16.00 1 3.00 16.00 1 3.00 16.00 1 3.00 16.00 1 4.00 23.00 2 4.00 23.00 2 4.00 23.00 2 5.00 28.00 2 5.00 28.00 2 5.00 28.00 2

Seite 23

Page 24: Studienarbeit Statistik II

Statistik II

5.00 28.00 2 5.00 28.00 2 5.00 28.00 2 5.00 28.00 2 6.00 32.00 2

Sum of Ranks in each GroupGroup Sum No. in Group 1 231.00 21 2 297.00 11

No. of tied rank groups = 4Statistic U = 231.0000z Statistic (corrected for ties) = 4.6024, Prob. > z = -0.0000z test is approximate. Use tables of exact probabilities in Siegel.(Table J or K, pages 271-277)

Vergleich Gruppe 3 – Gruppe 4:

Kruskal - Wallis One-Way Analysis of VarianceSee pages 184-194 in S. Siegel's Nonparametric Statistics for the Behavioral Sciences

Score Rank Group

2.00 2.50 1 2.00 2.50 1 2.00 2.50 1 2.00 2.50 1 3.00 7.00 1 3.00 7.00 1 3.00 7.00 1 3.00 7.00 1 3.00 7.00 1 4.00 12.00 1 4.00 12.00 1 4.00 12.00 2 4.00 12.00 2 4.00 12.00 2 5.00 18.00 2 5.00 18.00 2 5.00 18.00 2 5.00 18.00 2 5.00 18.00 2 5.00 18.00 2 5.00 18.00 2 6.00 22.00 2

Sum of Ranks in each GroupGroup Sum No. in Group 1 69.00 11 2 184.00 11

No. of tied rank groups = 4Statisic H uncorrected for ties = 14.2562Correction for Ties = 0.9401Statistic H corrected for ties = 15.1638Corrected H is approx. chi-square with 1 D.F. and probability = 0.0002

Seite 24

Page 25: Studienarbeit Statistik II

Statistik II

4.8. Bericht: Korrelation nach Pearson

CORRELATION MATRIX

Correlations gz_arbeit z_gehalt gz_privat gz_arbeit 1.000 0.254 -0.228 z_gehalt 0.254 1.000 0.162 gz_privat -0.228 0.162 1.000 No. of valid cases = 60

t-test Values for prob. |corr.| > 0 test

Variables gz_arbeit z_gehalt gz_privat

gz_arbeit 0.000 1.997 1.780 z_gehalt 1.997 0.000 1.251 gz_privat 1.780 1.251 0.000

Probability of greater t

Variables gz_arbeit z_gehalt gz_privat

gz_arbeit 0.000 0.050 0.080 z_gehalt 0.050 0.000 0.216 gz_privat 0.080 0.216 0.000

4.9. Bericht: Multiple Regression

Arbeitsplatz-Zufriedenheit:

Dependent variable: gz_arbeit

Variable Beta B Std.Err. t Prob.>t VIF TOLz_kollegen 0.503 0.529 0.075 7.047 0.000 1.178 0.849z_vorgesetze 0.147 0.191 0.091 2.088 0.042 1.148 0.871z_aufgaben 0.600 0.644 0.088 7.292 0.000 1.565 0.639z_arbeitszeit 0.165 0.272 0.116 2.340 0.023 1.144 0.874z_gehalt 0.073 0.096 0.101 0.950 0.346 1.358 0.736z_aufstieg -0.182 -0.271 0.128 -2.123 0.039 1.707 0.586Intercept 0.000 -2.770 1.058 -2.618 0.012

SOURCE DF SS MS F Prob.>FRegression 6 209.035 34.839 29.899 0.0000Residual 52 60.592 1.165Total 58 269.627

R2 = 0.7753, F = 29.90, D.F. = 6 52, Prob>F = 0.0000Adjusted R2 = 0.7493

Standard Error of Estimate = 1.08F = 29.899 with probability = 0.000Block 1 met entry requirements

Seite 25

Page 26: Studienarbeit Statistik II

Statistik II

=====================================================Breusch-Pagan-Godfrey Test of Heteroscedasticity=====================================================

Auxiliary Regression

Dependent variable: BPGResid.

Variable Beta B Std.Err. t Prob.>t VIF TOLz_kollegen 0.234 0.000 0.000 1.741 0.088 1.174 0.852z_vorgesetze 0.037 0.000 0.000 0.278 0.782 1.149 0.870z_aufgaben 0.054 0.000 0.000 0.351 0.727 1.546 0.647z_arbeitszeit 0.368 0.000 0.000 2.766 0.008 1.147 0.872 z_gehalt 0.133 0.000 0.000 0.923 0.360 1.342 0.745z_aufstieg -0.342 -0.000 0.000 -2.119 0.039 1.693 0.591 Intercept 0.000 -0.000 0.000 -1.551 0.127

SOURCE DF SS MS F Prob.>FRegression 6 0.000 0.000 2.311 0.0475Residual 51 0.000 0.000Total 57 0.000

R2 = 0.2137, F = 2.31, D.F. = 6 51, Prob>F = 0.0475Adjusted R2 = 0.1212

Standard Error of Estimate = 0.00

Breusch-Pagan-Godfrey Test of HeteroscedasticityChi-Square = 0.000 with probability greater value = 1.000

Normalverteilung der Residuen:

NORMALITY TESTS FOR RawResid.

Shapiro-Wilkes W = 0.1105Shapiro-Wilkes Prob. = 0.0000

Skew = -7.746Kurtosis = 60.000Lilliefors Test Statistic = 0.517Conclusion: Strong evidence against normality.

Private Zufriedenheit:

Dependent variable: gz_privat

Variable Beta B Std.Err. t Prob.>t VIF TOL z_familie 0.594 0.557 0.067 8.331 0.000 1.075 0.930z_freizeit 0.439 0.494 0.081 6.080 0.000 1.103 0.906 z_wohnort 0.168 0.185 0.077 2.415 0.019 1.027 0.973 Intercept 0.000 -1.261 0.766 -1.646 0.105

SOURCE DF SS MS F Prob.>FRegression 3 161.648 53.883 51.949 0.0000Residual 56 58.085 1.037Total 59 219.733

Seite 26

Page 27: Studienarbeit Statistik II

Statistik II

R2 = 0.7357, F = 51.95, D.F. = 3 56, Prob>F = 0.0000Adjusted R2 = 0.7215

Standard Error of Estimate = 1.02F = 51.949 with probability = 0.000Block 1 met entry requirements

=====================================================Breusch-Pagan-Godfrey Test of Heteroscedasticity=====================================================

Auxiliary Regression

Dependent variable: BPGResid.

Variable Beta B Std.Err. t Prob.>t VIF TOL z_familie -0.298 -0.292 0.129 -2.255 0.028 1.075 0.930z_freizeit 0.087 0.102 0.157 0.649 0.519 1.103 0.906 z_wohnort 0.082 0.095 0.149 0.636 0.527 1.027 0.973 Intercept 0.000 1.391 1.484 0.937 0.353

SOURCE DF SS MS F Prob.>FRegression 3 21.864 7.288 1.872 0.1449Residual 56 218.069 3.894Total 59 239.933

R2 = 0.0911, F = 1.87, D.F. = 3 56, Prob>F = 0.1449Adjusted R2 = 0.0424

Standard Error of Estimate = 1.97

Breusch-Pagan-Godfrey Test of HeteroscedasticityChi-Square = 10.932 with probability greater value = 0.012

Normalverteilung der Residuen:

NORMALITY TESTS FOR RawResid.

Shapiro-Wilkes W = 0.9665Shapiro-Wilkes Prob. = 0.0983

Skew = -0.278Kurtosis = 2.283Lilliefors Test Statistic = 0.082Conclusion: No evidence against normality.

Seite 27

Page 28: Studienarbeit Statistik II

Statistik II

4.10. Bericht: Chi²-Test bei einer StichprobeChi-square Analysis Results for constant and abschlussNo. of Cases = 60

OBSERVED FREQUENCIES

Frequencies COL. 1 COL. 2 COL. 3 COL. 4 COL. 5 Total

Row 1 4 30 18 5 3 60 Total 4 30 18 5 3 60

EXPECTED FREQUENCIES

Expected Values COL. 1 COL. 2 COL. 3 COL. 4 COL. 5 Row 1 12.000 12.000 12.000 12.000 12.000

Chi-square = 46.167 with D.F. = 4. Prob. > value = 0.000

Liklihood Ratio = 43.713 with prob. > value = 0.0000

4.11. Bericht: Chi²-test mit zwei GruppenChi-square Analysis Results for geschlecht and gehaltklasseNo. of Cases = 60

OBSERVED FREQUENCIES

Frequencies COL. 1 COL. 2 COL. 3 COL. 4 COL. 5 COL. 6

Row 1 5 12 9 0 1 1 Row 2 1 13 7 5 6 0 Total 6 25 16 5 7 1 Frequencies Total

Row 1 28 Row 2 32 Total 60

EXPECTED FREQUENCIES

Expected Values COL. 1 COL. 2 COL. 3 COL. 4 COL. 5 COL. 6 Row 1 2.800 11.667 7.467 2.333 3.267 0.467 Row 2 3.200 13.333 8.533 2.667 3.733 0.533

Chi-square = 12.316 with D.F. = 5. Prob. > value = 0.031

Liklihood Ratio = 15.215 with prob. > value = 0.0095

phi correlation = 0.4531

Pearson Correlation r = 0.2770

Mantel-Haenszel Test of Linear Association = 4.528 with probability > value = 0.0333

Seite 28

Page 29: Studienarbeit Statistik II

Statistik II

The coefficient of contingency = 0.413

Cramer's V = 0.453

4.12. Bericht: ReliabilitätsanalyseTreatments by Subjects (AxS) ANOVA Results.

-----------------------------------------------------------SOURCE DF SS MS F Prob. > F-----------------------------------------------------------SUBJECTS 58 305.356 5.265WITHIN SUBJECTS 295 960.667 3.256 TREATMENTS 5 250.565 50.113 20.466 0.000 RESIDUAL 290 710.102 2.449-----------------------------------------------------------TOTAL 353 1266.023 3.586-----------------------------------------------------------

TREATMENT (COLUMN) MEANS AND STANDARD DEVIATIONSVARIABLE MEAN STD.DEV.z_kollegen 6.068 2.050z_vorgesetze 4.593 1.662z_aufgaben 5.220 2.009z_arbeitszeit 7.051 1.305z_gehalt 5.576 1.642z_aufstieg 4.712 1.451

RELIABILITY ESTIMATES

TYPE OF ESTIMATE VALUEUnadjusted total reliability 0.381Unadjusted item reliabiity 0.093Adjusted total (Cronbach) 0.535Adjusted item reliability 0.161

Seite 29

Page 30: Studienarbeit Statistik II

Statistik II

5. Eidesstattliche Versicherung

Hiermit versichere ich, dass ich die vorliegende Studienarbeit selbstständig und ohne

unerlaubte Hilfe angefertigt und andere als die in der Studienarbeit angegebenen Hilfsmittel

nicht benutzt habe. Alle Stellen, die wörtlich oder sinngemäß aus anderen Schriften

entnommen sind, habe ich als solche kenntlich gemacht.

Seite 30