Statistische Datenanalyse und Versuchsplanung · PDF fileMerkmale (Unterscheidung durch Art)...

Post on 06-Mar-2018

220 views 4 download

Transcript of Statistische Datenanalyse und Versuchsplanung · PDF fileMerkmale (Unterscheidung durch Art)...

Statistische Datenanalyse und Versuchsplanung

U. Römischhttp:// www.lmtc.tu-berlin.de/angewandte_statistik_und_consulting

Wahlpflicht für Studenten der Biotechnologie

2 SWS IV (VL/Ü/PR) ⇒ Abschluss: Übungsnote

LITERATUR zur Lehrveranstaltung

„Statistische Datenanalyse und Versuchsplanung“

/1/ Autorenkollektiv (2004): Einführung in die Biometrie.

Richter , Ch.: 1- Grundbegriffe und DatenanalyseSumpf, D. und E. Moll: 2- Schätzen eines Parameters und Vergleich von bis zu

zwei ParameternSchumacher, E.: 3- Vergleich von mehr als zwei ParameternRasch, D. und R. Verdooren: 4- Grundlagen der Korrelations- und Regressionsanalyse.2. Aufl., Saphir- Verl. Ribbesbüttel

/2/ Bärlocher, F. (2008):Biostatistik.

2. Aufl., Thieme Verl. Stuttgart

/3/ Bortz, J., G. A. Lienert u. K. Boehnke (1990):Verteilungsfreie Methoden in der Biostatistik.Springer- Verl. Berlin

/4/ Fahrmeir, L., R. Künstler, I. Pigeot u. G. Tutz (2004):Statistik- Der Weg zur Datenanalyse.

5. Aufl., Springer- Verl. Berlin

/5/ Hartung, J. u. a. (1989):Statistik. Lehr- und Handbuch der angewandten Statistik.

7. Aufl., Oldenbourg Verl. München

/6/ Klein, Bernd (2007):Versuchsplanung- DoE. Einführung in die Taguchi/Shainin- Methodik.

2. Aufl. Oldenbourg Verl. München

/7/ Kleppmann, W. (2006):Taschenbuch Versuchsplanung4. Auflage Hanser Verl. München

/8/ Rudolf, M. u. W. Kuhlisch (2008)Biostatistik- Eine Einführung für Biowissenschaftler.

Pearson Studium, München

/9/ Stahel, W. (1999):Statistische Datenanalyse - Eine Einführung für Naturwissenschaftler.

2. Aufl., Vieweg Verl. Braunschweig/ Wiesbaden

/10/ Timischl, W. (2000)Biostatistik- Eine Einführung für Biologen und Mediziner.

2. Aufl., Springer Verl. Berlin

Inhaltsverzeichnis

EINLEITUNG

1. Was versteht man unter Statistik, Biometrie, Chemometrie,

Ökonometrie und Technometrie und stat. Versuchs-

planung?

2. Wie lügt man mit Statistik?

Umfragen

Mittelwert- und Streuungsmaße

Grafiken

1. Beschreibende und explorative Methoden

1.1 Charakterisierung von Merkmalen

1.2 Grundgesamtheit und Stichprobe

1.3 Die Häufigkeitsverteilung diskreter und stetiger eindim.

Merkmale

- absolute u. relative Häufigkeiten und ihre grafische

Darstellung, empirische Verteilungsfunktion

1.4 Lage- und Streuungsmaße, Schiefe und Exzeß

- arithm. Mittel, Median, gestutztes Mittel, Modalwert,

geometrisches Mittel, α- Quantil

Teil I: Statistische Datenanalyse

- Spannweite, Medianabstand, Quartilsabstand, Varianz,

Standardabweichung, Standardfehler des arithm.

Mittelwertes, Variationskoeffizient, Box- und Whisker Plots

- zufällige und systematische Fehler

- Schiefe und Exzess

1.5. Zweidimensionale Merkmale

- grafische Darstellung (XY-Scatterplot)

- 2-dim. Häufigkeitsverteilung

- Zusammenhangsmaße (Maß- und Rangkorrelations-

koeffizient)

- lineare Regression (einf. und multiple lineare Regression)

2. Wahrscheinlichkeitsrechnung

2.1 Zufälliges Ereignis, Wahrscheinlichkeit, Zufallsgröße

2.2 Parameter von Verteilungen (Erwartungswert u. Varianz)

2.3 Normalverteilung

2.4 Prüfverteilungen (χ2-, t- u. F- Verteilung)

3. Schließende Methoden

3.1 Punktschätzungen, Konfidenzintervalle

3.2 Statistische Tests

3.2 Varianzanalyse

4. Einführung in die stat. Versuchsplanung

4.1 Arten statistischer Versuchspläne

- Faktorielle Versuchspläne 1. Ordnung 2k und 2k-1

- Zentral zusammengesetzte Versuchspläne

- Mischungspläne

4.2 Beispiele zu stat. Versuchsplänen

- Herstellung eines chemischen Produktes

- Entwicklung eines glutenfreien und ballaststoff-

angereicherten Gebäckes mit optimalen Eigenschaften

In einer Übung am PC werden mit einem Statistikprogramm

konkrete Datensätze ausgewertet.

Teil 2: Statistische Versuchsplanung

EINLEITUNG

1. Was ist Statistik? (Biometrie, Technometrie, Ökonometrie)

Statistik ist die Wissenschaft des Sammelns, Analysierensund Interpretierens von Daten.

Sie beantwortet die Fragen:

1. Wie gewinnt man welche Daten?2. Wie kann man Daten beschreiben? und3. Welche Schlüsse kann man aus Daten ziehen?

Teilgebiete:

Beschreibende StatistikWahrscheinlichkeitstheorie Stat. DA

Stochastik Schließende Statistik Stat. VP

2. Wie lügt man mit Statistik?

Bsp. 1: Wir leben im Zeitalter der Umfragen!

Bsp. 2: Mittelwert- und Streuungsmaße

Bsp. 3: Vorsicht bei Grafiken!

1.Teil: Statistische Datenanalyse

s. /11/ Stahel

1. BeschreibendeMethoden

Die Beschreibende und explorative Statistik dient der Beschreibung, Strukturierung undVerdichtung umfangreichen Datenmaterials.

Wie erhält man nun Daten und welcher Art sind die Daten?

Erhebungen und Versuche

Ziel: Kenntnisse über die Eigenschaften bestimmter Objekte(z.B. Anlagen, Messmethoden, Weinproben, Hefestämme) oder Individuen (z.B. Personen, Tiere, Pflanzen) zu erhalten

• Erhebungen ⇒⇒⇒⇒ Ist-Standsanalysen

•••• Versuche ⇒⇒⇒⇒ - Vergleich von Gruppen

- Untersuchung von Zusammenhängen

zwischen Merkmalen

Die Objekte/ Individuen, an denen Beobachtungen vorge-nommen werden, heißen Beobachtungseinheiten(Merkmalsträger).Dabei ist kein Objekt/ Individuum mit einem anderen identisch. Diese Unterschiedlichkeit nennt man Variabilität. Die Variabilität biologischer Objekte/ Individuen ist häufig genetisch oder umweltbedingt.

- Die Größen oder Eigenschaften, auf die sich die Beobachtungen beziehen, heißen Merkmale.

- Jedes Objekt/ Individuum ist durch eine spezielle Merkmals-ausprägung gekennzeichnet.

- Alle beobachteten Werte eines Merkmals heißen Merkmalswerte.

1.1. Charakterisierung von Merkmalen

Merkmale

(Unterscheidung durch Art)

Bsp.: Geschlecht, Rasse, Sorte, Land, Hefestamm, Aroma

Klassifizierung von Merkmalen

(Unterscheidung durch Größe)

Bsp.: Alter, Gewicht, Masse, Länge, Volumen, Einkommen, Wasser- u. Lufttemperatur, Konzentration,Zellzahl

1.

2.

Diskrete Merkmale Stetige Merkmale

Merkmale

(endlich viele oder abzählbar unendlich viele Merkmalsausprägungen)

Bsp.: Geschlecht, Rasse, Sorte, Land, Hefestamm, Aroma, Zellzahl

(überabzählbar unendlich viele Aus-prägungen, d.h. Werte im reellen Zahlenintervall)

Bsp.: Alter, Gewicht, Masse, J

Qualitative Merkmale Quantitative Merkmale

Merkmale

Nominalskalierte Merkmale

OrdinalskalierteMerkmale

Metrisch skalierteMerkmale

3.

(Skala mit niedrigstemNiveau, keine Vergleichbarkeit oder Rangfolge zwischen den Werten)

Bsp.: Geschlecht, Rasse, Sorte, Land, Hefestamm, Aroma

(Skala mit höherem Niveau, Werte unter-scheiden sich in ihrer Intensität, ermöglichen eine Rangfolge-ordnung, jedoch keine Interpretation der Abstände zwischen den Rängen)

Bsp.: Aroma, Härtegrad,sensor. Parameter, Zensuren

(Skala mit höchstem Niveau, Abstände zwischen den Werten sind interpretierbar)

Bsp.: Alter, Gewicht, Masse, Länge, Volumen, Ein-kommen, Wasser- u. Lufttemperatur, Zell-zahl, Konzentration,

Intervallskala Proportions-skala

Daten kann man durch Befragung von Personen (Erhebungen)oder durch Experimente (Messungen) gewinnen.

Experimente

Passive Experimente Aktive Experimente

Alle Beobachtungswerte ergeben sich zufällig während des Versuches!

Aktive Planung der Experimente vor deren Durchführung, Planung der Versuchsbedingungen

Kombinierte Experimente

Anwendung der Methoden der statistischen

Versuchsplanung (SVP)!

1.2. Grundgesamtheit und Stichprobe

Problem

3 (4) Versuchsetappen:

Planung

Durchführung

Auswertung

Methoden der statistischen Versuchsplanung

Ziel: Erzielen von Ergebnissen mit ausreichender Sicherheit und Genauigkeit bei minimaler Anzahl von Versuchen

Bsp.: Herstellung einer Chemikalie

Mittelwerte der Ausbeute mit Konfidenzintervall

68,887 (67,35,70,42)

68,012 (66,48,69,55)

61,813 (60,28,63,35)

62,387 (60,85,63,92)

56,112 (54,58,57,65)

55,387 (53,85,56,92)

53,287 (51,75,54,82)

54,012 (52,48,55,55)68,887 (67,35,70,42)

68,012 (66,48,69,55)

61,813 (60,28,63,35)

62,387 (60,85,63,92)

56,112 (54,58,57,65)

55,387 (53,85,56,92)

53,287 (51,75,54,82)

54,012 (52,48,55,55)Katalysator

Zeit Temperatur(- - -)

(+++)

Def.: Die Menge aller möglichen Werte eines Merkmals nennt man Grundgesamtheit.Eine endliche Teilmenge der Grundgesamtheit nennt man Stichprobe.Besteht die Teilmenge aus n Elementen, so heißt n Stichprobenumfang.

Def.: Der Gesamtheit der Merkmalswerte entspricht eindeutig eine Gesamtheit von Beobachtungseinheiten (Merkmalsträgern), die man ebenfalls als Grundgesamt-heit oder Population bezeichnet.

Die Grundgesamtheit muss bei jeder Aufgabenstellung festgelegt werden!

Eine Grundgesamtheit kann auch unendlich viele Elemente enthalten, denn theoretisch können wir den Versuch unendlich oft wiederholen.

Mathematische Statistik

Stichprobe Grundgesamtheit

Induktionsschluss

Deduktionsschluss

Beschreibende Statistik

Wahrscheinlichkeits-rechnung

SchließendeStatistik

Was ist bei einer Stichprobenentnahme zu

beachten?

Die Stichprobenauswahl muss so erfolgen, dass dieStichprobe die Grundgesamtheit repräsentiert!

1. Zufälligkeit der Stichprobe

2. Vermeiden systematischer Fehler

3. Umfang der Stichprobe

Optimaler Stichprobenumfang ist abhängig von :- zeitlichen, arbeitstechnischen und finanziellen Faktoren- Wahl des statistischen Modells- Genauigkeit der Ergebnisse- Umfang der Grundgesamtheit

4. Homogenität und gleiche Genauigkeit

5. Vergleichbarkeit

1.3. Die Häufigkeitsverteilung diskreter und stetiger eindim. Merkmale

Bei einem Versuch wird an n Beobachtungseinheiten ein Merkmal X beobachtet, d.h. an jeder Einheit wird die Ausprägung dieses Merkmals festgestellt.

Sind a1,...,am die möglichen Ausprägungen des Merkmals X, so wird also der i-ten Beobachtungseinheit (i=1,...n) seine Ausprägung aj als Merkmalswert xi zugeordnet:

xi = aj (i)

BeobachtungseinheitAusprägung

Merkmalswert

Schritte der Datenerfassung und -aufbereitung:

1. Schritt: Erfassung der Daten eines oder mehrerer Merkmale

Stichprobe (ungeordnete Urliste): Merkmalswerte x1,...,xn

Variationsreihe (geordnete Urliste): x(1) ,...,x(n) ,

wobei x(1) ≤... ≤ x(n)

Skalierung der Ausprägungen: a1,J,am

bnhnrnanlnn

JJJJJJ

b7 = 0,49h7 = 0,4r7 = 2a7 = 2l7 = 57

JJJJJJ

b1h1r1a1l11

Butandiolgehalt

B [g/l]

Histamingehalt

H [mg/l]

Rebsorte

R

Art

A

Land

L

Nr.

i

Bsp.: Weindaten

Skalierung:

Land:

li = 1 = „Deutschland“2 = „Bulgarien“3 = „Österreich“4 = „Frankreich“5 = „Australien“

Art:

ai = 1 = „Rotwein“2 = „Weißwein“3 = „Roséwein“

Rebsorte:

ri = 1 = „Cabernet Sauvignon“2 = „Chardonnay“3 = „Merlot“4 = „Riesling“

2. Schritt: Ermittlung der abs. und rel. Häufigkeiten

2.1. (Primäre) Häufigkeitsverteilung (HV) bei diskreten

Merkmalen

Def.: Beobachtet man an n Beobachtungseinheiten ein Merkmal X, das in m Ausprägungen a1,...,am

vorkommt, so heißt

fn(aj) = "Anzahl der Fälle, in denen aj auftritt" für j=1,...,m absolute Häufigkeit der Ausprägung aj.

Bem.: - ΣΣΣΣ fn(aj) = n

- Die abs. Häufigkeiten hängen vom Stichproben-umfang n ab

Def.: Die relative Häufigkeit

hn(aj) = (1/n) fn(aj) für j=1,...,m

gibt den Anteil der Beobachtungseinheiten bezogen auf n an, die die Ausprägung aj haben.

Bem.: - ΣΣΣΣ hn(aj) = 1

- 0 ≤ hn(aj) ≤ 1

- Die Folge der relativen Häufigkeiten hn(a1),...,hn(am) heißt rel. Häufigkeitsverteilung des Merkmals X.

2.2. (Sekundäre) Häufigkeitsverteilung (HV) bei stetigen

Merkmalen (mit Klassenbildung)

- Da stetige Merkmale in sehr vielen Ausprägungen auftreten, fasst man verschiedene Ausprägungen in Klassen zusammen.

- Man zerlegt das Intervall, in dem alle Beobachtungswerte

liegen in m Klassen: K1,...,Km mit Kj = (yj-1; yj] ; j=1,...,m

mit den Klassengrenzen: yj-1 und yj

und den Klassenmitten: xj = (yj-1+yj) /2

- Die Anzahl der Klassen wählt man häufig (oder 5 ≤ m ≤ 20), wobei n der Stichprobenumfang ist.

- Der Abstand d =yj - yj-1 für j=1,...,m heißt Klassenbreite.(äquidistante Klassen)

Bem.: Durch die Angabe der unteren Anfangsklassengrenze y0 und die Klassenbreite d oder durch y0, ym und m wird eine Klasseneinteilung eindeutig bestimmt.

nm ≤

Def.: Als absolute Klassenhäufigkeit bezeichnet man fn(xj) = "Anzahl der Beobachtungswerte in der j- ten

Klasse mit der Klassenmitte xj" (j=1,...,m)

Def.: Als relative Klassenhäufigkeit bezeichnet manhn(xj) = (1/n) · fn(xj)

Bem.: Die Folge der relativen Häufigkeiten hn(x1),...,hn(xm) heißt rel. Häufigkeitsverteilung des stet. Merkmals X.

3. Schritt: Grafische Darstellungen

- Häufigkeitspolygon

erhält man durch Verbindung der End-punkte der Strecken des Stabdiagramms,

besonders zur Darstellung zeitlicher Verläufe geeignet, z.B.: monatliche Entwicklung der Arbeits-

losenzahlen

- Stabdiagramm (Strecken- oder Linien-

diagramm)

über jeder Ausprägung auf der Abszisse wird die zugehörige Häufigkeit als senkrechte Strecke abgetragen,

besonders für diskrete Merkmale geeignet,z.B.: Anzahl der Stillstände einer Anlage,

Aromastufen, Hefestämme, Schrotarten

hn(aj)

hn(aj)

aj

aj

a1...

a1...

13%

17%

57%

13%

- Histogramm

Häufigkeiten werden als aneinanderstoßende Rechtecke dargestellt, deren Flächen proportional den Häufigkeiten sind,

besonders für stetige Merkmale geeignet

- Flächendiagramme, z.B.:

Kreisdiagramme

Häufigkeiten werden durch Flächen repräsentiert,

zur Strukturdarstellung geeignet,z.B.: Anzahl der Beschäftigten in ver-

schiedenen Wirtschaftszweigen,Wahlergebnisse

hn(xj)

xj

y0 y1 Jx1

4. Schritt: Ermittlung der empirischen Verteilungsfunktion

4.1. (Primäre) Häufigkeitsverteilung bei diskreten

Merkmalen (ohne Klassenbildung)

Def.: Die absolute Summenhäufigkeit der j- ten Ausprägung aj ist die Anzahl der Beobachtungseinheiten, bei denen eine Ausprägung ≤ aj beobachtet wurde, d.h.

fn(a1) + ... + fn(aj) = ; j=1,...,m∑=

j

1kkn )a(f

Def.: Die relative Summenhäufigkeit der j- ten Ausprägung gibt den Anteil der Beobachtungseinheiten an, bei denen eine Ausprägung ≤ aj beobachtet wurde, d.h.

hn(a1) + ... + hn(aj) = ; j=1,J,m ∑=

j

1kkn )a(h

Durch die Folge der relativen Summenhäufigkeiten wird die empirische Verteilungsfunktion des Merkmals X bestimmt.

Def.: Die empirische Verteilungsfunktion des Merkmals X ist eine Funktion über dem Bereich der reellen Zahlen R

=<≤

<

= +=∑

m

1jj

j

1kkn

1

n

ax;1

m,...,1jaxa;)a(h

ax;0

)x(F

(x∈R)

Bem.: Die empirische Verteilungsfunktion ist auf jedem Intervall [aj,aj+1) konstant und springt bei aj+1 um den Wert hn(aj+1) nach oben. Die erste Sprungstelle liegt bei der kleinsten, die letzte bei der größten beobachteten Merkmalsausprägung.

)x(Fn

x

1

hn(a1)

a1 a2

Ausprägungen

hn(a1)+ hn(a2)

∑=

j

1kkn )x(f

∑=

j

1kkn )x(h

4.2. (Sekundäre) Häufigkeitsverteilung (HV) bei stetigen

Merkmalen (mit Klassenbildung)

Def.: Die absolute Klassensummenhäufigkeit der j- ten Klasse ist die Anzahl der Beobachtungswerte, die in einer Klasse mit einer Klassenmitte ≤ xj liegen, d.h.

Def.: Die relative Klassensummenhäufigkeit der j- ten Klasse gibt den Anteil der Beobachtungswerte an, die in einer Klasse mit der Klassenmitte ≤ xj liegen, d.h.

Durch die Folge der relativen Klassensummenhäufigkeiten wird die empirische Verteilungsfunktion von X bestimmt!

; j=1,...,mfn(x1) + ... + fn(xj) =

; j=1,...,mhn(x1) + ... + hn(xj) =

Def.: Die empirische Verteilungsfunktion des Merkmals X, deren Beobachtungswerte in Klassen vorliegen, hat folgende Gestalt:

=<≤

<

= +=∑

m

1jj

j

1kkn

1

n

xx;1

m,...,1jxxx;)x(h

xx;0

)x(F

Bem.: Die empirische Verteilungsfunktion an der Stelle x ist die Summe der relativen Häufigkeiten aller Klassen, deren Mitten xj ≤ x sind. Als Sprungstellen werden jetzt die Klassenmitten verwendet.

Kl.Nr. Kl.grenzen Kl.mitte abs.Häuf. rel.Häuf. abs.K.S.H. rel.K.S.H.j (yj-1 ; yj] xj fn(xj) hn(xj)

------------------------------------------------------------------------------------------------------0 (- ∞ ; 0] 1 (0 ; 0,25] 0,125 f1 h1 f1 h1

2 (0,25 ; 0,50] 0,375 f2 h2 f1+f2 h1+h2

M

7 (1,50 ; 1,75] 1,625 f7 h7 n 1(1,75 ; ∞)

Bsp.: Weindaten- stet. Merkmal Butandiolgehalt

Sekundäre Verteilungstabelle (y0 = 0 ; d = 0,25):

MMM

j=1,J.m

Bem.: Die empirische Verteilungsfunktion ist auf jedem Intervall [xj,xj+1) konstant und springt bei xj+1 um den Wert hn(xj+1) nach oben. Die erste Sprungstelle liegt bei der kleinsten, die letzte bei der größten Klassenmitte.

)x(Fn

x

1

hn(x1)

x1 x2

Klassenmitten

hn(x1)+ hn(x2)

Bsp.1: Kolonien von Mikroorganismen (s. /9/)

Aufgabe: Untersuchung der Eigenschaften von Mikro-organismen in der Luft

Versuch: Nährboden auf Agarplatte wurde 30 min. bei Zimmertemperatur offen im Raum stehen gelassen,nach Inkubation über 3 Tage waren 40 Pilz- bzw.Bakterienkolonien gewachsen, von denen derDurchmesser, die Antibiotikaresistenz, sowie dieFarbe bestimmt wurden.

1. Frage: Wie kann man die Verteilung der Merkmalebeschreiben?Unterscheiden sich die Verteilungen der Durch-messer zwischen den Kolonien unterschiedlicher Farbe?

1. Schritt: Datenerfassung und Merkmalsklassifizierung

X: Durchmesser [mm] – quantitativ, stetig, metrisch skaliert

Y: Antibiotikaresistenz [-] – qualitativ, diskret, ordinal skaliertAusprägungen: 1- sehr sensitiv,

2- sensitiv,3- intermediär,4- resistent,5- sehr resistent

Z: Farbe [-] – qualitativ, diskret, nominal skaliertAusprägungen: 1- gelb,

2- weißlich,3- braun,4- orange,5- farblos,6- rosa,7- grün

2. Schritt: Erfassung der Daten (Stichprobe)

grün

grün

braun

J

rosa

J

farblos

orange

orange

J

weißlich

J

gelb

gelb

Farbe zi

3

3

1

4

3

2

1

4

2

1

yicod

JJJJ

3sehr sensitiv10,138

JJJJ

6resistent4,234

5intermediär2,830

4sensitiv1,529

2resistent2,114

JJJJ

JJJJ

4sehr sensitiv0,228

7intermediär3,339

7intermediär4,240

1sensitiv4,12

1sehr sensitiv0,51

zicodResistenz yiDurchmesser xiNr. i

Frequency Tabulation for Durchmesser

--------------------------------------------------------------------------------

Lower Upper Relative Cumulative Cum. Rel.

Class Limit Limit Midpoint Frequency Frequency Frequency Frequency

--------------------------------------------------------------------------------

at or below 0,0 0 0,0000 0 0,0000

1 0,0 2,0 1,0 3 0,0750 3 0,0750

2 2,0 4,0 3,0 7 0,1750 10 0,2500

3 4,0 6,0 5,0 10 0,2500 20 0,5000

4 6,0 8,0 7,0 10 0,2500 30 0,7500

5 8,0 10,0 9,0 7 0,1750 37 0,9250

6 10,0 12,0 11,0 3 0,0750 40 1,0000

above 12,0 0 0,0000 40 1,0000

--------------------------------------------------------------------------------

Box-and-Whisker Plot

Durc

hm

ess

er

0

2

4

6

8

10

12

3. Schritt: Bestimmung der empir. Häufigkeitsverteilung

Merkmal X: Durchmesser

Histogram (rel. cumulative frequencies)

Durchmesser

perc

enta

ge [

%]

0 2 4 6 8 10 12

0

20

40

60

80

100

Histogram (abs. frequencies)

Durchmesser

frequency

0 2 4 6 8 10 12

0

2

4

6

8

10

Piechart for Antibiotikaresistenz

Antibiotikaresistenzintermediärresistentsehr resistentsehr sensitivsensitiv

20,00%

15,00%

10,00%32,50%

22,50%

Barchart for Antibiotikaresistenz

0

3

6

9

12

15

fre

qu

en

cy

intermediär resistent sehr resistentsehr sensitiv sensitiv

Merkmal Y: Antibiotikaresistenz (Ausprägungen hier nicht codiert!)Frequency Table for Antibiotikaresistenz

------------------------------------------------------------------------

Relative Cumulative Cum. Rel.

Class Value Frequency Frequency Frequency Frequency

------------------------------------------------------------------------

1 intermediär 8 0,2000 8 0,2000

2 resistent 6 0,1500 14 0,3500

3 sehr resistent 4 0,1000 18 0,4500

4 sehr sensitiv 13 0,3250 31 0,7750

5 sensitiv 9 0,2250 40 1,0000

------------------------------------------------------------------------

Kategorien weisen hier keine Ordnung auf!

Merkmal Y: Antibiotikaresistenz (Ausprägungen hier numerisch codiert!) Frequency Tabulation for Antibiotikaresistenz_1

--------------------------------------------------------------------------------

Lower Upper Relative Cumulative Cum. Rel.

Class Limit Limit Midpoint Frequency Frequency Frequency Frequency

--------------------------------------------------------------------------------

at or below 0,5 0 0,0000 0 0,0000

1 0,5 1,5 1,0 13 0,3250 13 0,3250

2 1,5 2,5 2,0 9 0,2250 22 0,5500

3 2,5 3,5 3,0 8 0,2000 30 0,7500

4 3,5 4,5 4,0 6 0,1500 36 0,9000

5 4,5 5,5 5,0 4 0,1000 40 1,0000

above 5,5 0 0,0000 40 1,0000

--------------------------------------------------------------------------------

Histogram

Antibiotikaresistenz_1

fre

qu

en

cy

0 1 2 3 4 5 60

3

6

9

12

15

Dot Diagram

0 1 2 3 4 5

Antibiotikaresistenz_1

0

13

Fre

quency

Ausprägungen

Ordnung zwischen den Kategorien

Piechart for Farbe

Farbebraunfarblosgelbgrünorangerosaweißlich

2,50%10,00%

32,50%

5,00%5,00%10,00%

35,00%

Frequency Table for Farbe

------------------------------------------------------------------------

Relative Cumulative Cum. Rel.

Class Value Frequency Frequency Frequency Frequency

------------------------------------------------------------------------

1 braun 1 0,0250 1 0,0250

2 farblos 4 0,1000 5 0,1250

3 gelb 13 0,3250 18 0,4500

4 grün 2 0,0500 20 0,5000

5 orange 2 0,0500 22 0,5500

6 rosa 4 0,1000 26 0,6500

7 weißlich 14 0,3500 40 1,0000

------------------------------------------------------------------------

Merkmal Z: Farbe (Ausprägungen hier nicht codiert!)

Barchart for Farbe

frequency

0

3

6

9

12

15

braunfarblos gelb grün orange rosaweißlich

Kategorien weisen keine Ordnung auf!

Histogram

Durchmesser der weißlichen Kolonien

pe

rce

nta

ge

0 2 4 6 8 10 120

5

10

15

20

25

30

Histogram

Durchmesser der gelben Kolonien

pe

rce

nta

ge

0 2 4 6 8 10 120

10

20

30

40

Histogram

Durchmesser der sonstigen Kolonien

pe

rce

nta

ge

-1 1 3 5 7 9 110

10

20

30

40

Vergleich der rel. Häufigkeitsverteilungen der Durchmesser zwischen den Kolonien unterschiedlicher Farbe

1.4 Lage- und Streuungsmaße, Schiefe und Exzeß

1.4.1 Lagemaße

1. Mittelwertmaße

Mittelwertmaße geben an, wo sich das Zentrum einer Häufigkeitsverteilung befindet.

2. Frage: Wie kann man mittels statistischer Maßzahlen einen quantitativen Vergleich der Häufigkeitsverteilungen vornehmen? Wie unterscheiden sich die mittleren Durchmesserzwischen den Kolonien unterschiedlicher Farbe, wie stark streuen die Werte?

Arithmetischer Mittelwert

Seien x1, ... ,xn die Beobachtungswerte des Merkmals X

∑=

=n

1iix

n

1x

Vorteile: - der arithm. Mittelwert einer Stichprobe ist ein unverzerrter Schätzwert für den Mittelwert einernormalverteilten Grundgesamtheit und gut geeignet bei eingipfligen Häufigkeitsverteilungen

- alle Informationen der Stichprobe werden ausgeschöpft

Nachteile: - das arithm. Mittel ist unbrauchbar bei schiefen oder mehrgipfligen Verteilungen

- das arithm. Mittel ist nicht robust gegenüber Ausreißern

Median (Zentralwert)

- Der Median ist dadurch charakterisiert, dass jeweils 50 % der Beobachtungswerte einen Wert ≤ und 50 % einen Wert ≥ dem Median haben.

- Wir ordnen daher die Beobachtungswerte der Größe nach und erhalten die Variationsreihe x(1) , ... ,x(n) mit

x(1) ≤ ... ≤ x(n)

k2n

1k2n

für

für

;

;

2

xxx

x~ )1k()k(

)1k(

5,0 =

+=

+= +

+

Vorteile: - der Median ist auch bei asymmetrischen und mehrgipfligen Verteilungen verwendbar

- er ist zu bevorzugen bei nur wenigen Messwertenund auch bei ordinalskalierten Beobachtungs-merkmalen

- er ist robust gegenüber Ausreißern

Nachteile: - es werden nicht alle Informationen der Stichprobeausgeschöpft (nicht alle Messwerte gehen in die Berechnung des Medianes ein)

- bei normalverteilten Merkmalen hat er schlechtereSchätzeigenschaften als das arithm. Mittel

Gestutztes Mittel

- Wir ordnen wieder die Stichprobe der Größe nach und streichen dann die m untersten und die m obersten Merkmalswerte.

- Dann erhält man das (m/n) ·100 % - gestutzte Mittel, indem man das arithmetische Mittel aus den verbleibenden n - 2m Merkmalswerten bildet.

)x...x(m2n

1x )mn()1m(

n

m −+ ++−

=

• Vorteil: - das gestutzte Mittel ist robust gegenüber Aus-reißern und basiert im Vergleich zum Median auf einer größeren Anzahl von Werten

• Nachteil: - es besitzt bei Normalverteilung schlechtere Schätz-eigenschaften als das arithm. Mittel und schöpftnicht alle Informationen der Stichprobe aus

Modalwert (Dichtemittel, Modus)

Bei eingipfligen Verteilungen gibt das Dichtemittel die Ausprägung mit der größten Häufigkeit in der Messreihe an.

Bei klassierten Daten (stet. Merkmale) gibt es die Klassen-mitte der Klasse mit der größten Klassenhäufigkeit an.

fn (xmod) ≥ fn (aj) ∀aj j=1,...,m

Vorteile: - das Dichtemittel ist auch bei nominal- und ordinal-skalierten Merkmalen anwendbar

- bei mehrgipfligen Verteilungen gibt man neben dem Median auch die lokalen Dichtemittel an

- das Dichtemittel ist robust gegenüber AusreißernNachteile: - bei Normalverteilung hat das Dichtemittel

schlechtere Eigenschaften als das arithm. Mittel- nicht alle Beobachtungswerte gehen in die Berechnung des Dichtemittels ein

Geometrisches Mittel

- Sind die Merkmalswerte relative Änderungen (Zuwachsraten, Produktionssteigerungen), so wird das geometrische Mittel verwendet, da die Gesamtänderung nicht durch eine Summe, sondern durch ein Produkt beschrieben wird.

- Die Bezeichnung geom. Mittel ist ein Hinweis auf Zähl- oder Messdaten, die statt der arithm. eine geometr. Zahlenfolge bilden (z.B. bei Verdünnungsreihen).

- Es wird verwendet bei Zähldaten, von denen bekannt ist, dass sie durch multiplikative Wirkungen entstanden sind und deren Werte sehr unterschiedliche Größenordnungen aufweisen, sowie fast immer eine stark asymmetrische Häufigkeits-verteilung aufweisen (z.B. Keimzahlen in flüssigen Medien, wie Milch und Gülle).

- das geom. Mittel findet auch Anwendung bei logarithmischen Daten (z.B. Spektralanalyse)

nn1g xxx ⋅⋅= K 1xg −

∑=

=n

1iig xlg

n

1xlg xlg xlg

g 10x =

ng AEx = 1x g −

1. Seien x1, ... ,xn Beobachtungswerte (rel. Änderungen, bez. auf 1 = 100%) mit xi ≥ 0 für i=1,...,n und r die durch-schnittliche Zuwachsrate.

und r =

2. Manche Analysenmethoden liefern die Logarithmen der gesuchten Gehalte (z.B. Spektralanalyse).

=

3. Wenn sich eine Anfangsmenge A in einer Zeiteinheit um eine konstante Zuwachsrate r erhöht, dann erhält man nach n Zeiteinheiten die Endmenge E: E = A(1+r)n

und r =

Es gibt folgende Möglichkeiten der Berechnung des geom.

Mittels und der durchschnittlichen Zuwachsrate:

Bsp.: In einer best. Kultur erhöhte sich in 3 Tagen die Zahlder Bakterien pro Einheit von 100 auf 500. Wie groß ist die durchschnittliche tägliche Zunahme in [%]?

Lösung:

Bsp.: Bei 12 Milchproben wurden folgende Keimzahlen in [103]gemessen:5150 26900 285 265 4750 60900 1410 3950 2150 8250 30500 295Wie groß ist die mittlere Keimzahl?

Lösung:

Bsp.: In einer best. Kultur erhöhte sich in 3 Tagen die Zahlder Bakterien pro Einheit von 100 auf 500. Wie groß ist die durchschnittliche tägliche Zunahme in [%]?

Lösung: %7171,01AE1xr ng ==−=−=

Bsp.: Bei 12 Milchproben wurden folgende Keimzahlen in [103]gemessen:5150 26900 285 265 4750 60900 1410 3950 2150 8250 30500 295Wie groß ist die mittlere Keimzahl?

Lösung: Da die Werte über mehrere Zehnerpotenzen schwanken, wird das geom. Mittel bestimmt.

(Im Vergleich: )

998.433.31010x 5358,6xlgg ===

083.067.12x =

2. Weitere Lagemaße:

αααα - Quantil

Wir betrachten die Variationsreihe x (1) , ... ,x (n) . Dann sind αααα % der Merkmalswerte ≤ und (1- αααα) % der Merkmalswerte ≥ dem αααα - Quantil.

( )

( ) ( ) .Z.g

.Z.gkeine

n

n

falls

falls

,nk

),nint(k

;

;

2

xxx

x~ 1kk

1k

α⋅

α⋅

α⋅=

α⋅=

+= +

+

α

(int = ganzer Teil; g.Z.= ganze Zahl)

Wenn

Quartil

Quartil

oberes

unteres

Median

75,0

25,0

5,0

1.4.2. Streuungsmaße

- Maße, die die Abweichung der Beobachtungswerte vom Zentrum einer Häufigkeitsverteilung beschreiben, heißen Streuungs- oder Dispersionsmaße.

- Kennt man Lage- und Streuungsmaße, hat man schon eine recht gute Vorstellung von der Häufigkeitsverteilung, ohne diese explizit zu kennen.

Spannweite (Range, Variationsbreite)

Sie ist das einfachste Streuungsmaß und gibt den Streu-bereich einer HV an, d.h. den Bereich, in dem alle Merkmals-werte liegen. Sei x(1), ... ,x(n) eine Variationsreihe, dann gilt:

R = x(n) - x(1) .

Vorteil: - Einfach zu bestimmendes Streuungsmaß, einfach interpretierbar

Nachteile: - R ist nicht robust gegenüber Ausreißern- R besitzt keine guten stat. Schätzeigenschaften, da außer den extremen Merkmalswerten alle anderen Werte unberücksichtigt bleiben.

Quartilsabstand (Interquartile range)

- Der Quartilsabstand gibt den Bereich zwischen oberem und unterem Quartil einer Messreihe an.

- Er enthält 50 % aller Merkmalswerte.

I = 25,075,0 x~x~ −

Vorteile: - I ist robust gegenüber Ausreißern- I ist anschaulich und besitzt bessere statistische Schätzeigenschaften als die Spannweite

Nachteil: - nicht alle Informationen der Stichprobe gehen in die Berechnung ein

∑=

−=n

1i5,0i x~x

n

1d

Mittlere absolute Abweichung vom Median

Man wählt hier als Bezugsgröße für die Abweichung der Merkmalswerte vom Zentrum der Häufigkeitsverteilung den Median.

Vorteile: - d ist robust gegenüber Ausreißern- d ist gut geeignet bei schiefen Häufigkeits-verteilungen

Nachteil: - bei Normalverteilung ist die empir. Varianz das bessere Schätzmaß

5,0i x~x − 5,0y~ 5,0i x~x −

Median der absoluten Abweichungen vom Median

) = yi = MAD = med (

Vor- und Nachteile: analog wie mittlere abs. Abweichung vom Median

Stichprobenvarianz und Standardabweichung

- Wir betrachten nun als Bezugsgröße für das Zentrum der HVdas arithmetische Mittel.

- Dann ist die Stichprobenvarianz die durchschnittliche quadratische Abweichung der Messwerte vom arithmetischen Mittelwert.

- Dabei wird jedoch durch den Faktor (n-1), d.h. die Anzahl der voneinander unabhängigen Abweichungen, genannt Freiheitsgrad, dividiert.

- Der Stichprobenumfang n sollte mindestens 6 betragen!

⋅−

=−−

= ∑∑==

2n

1i

2

i2

n

1ii

2 xnx1n

1)xx(

1n

1s

)xn)x((1n

1)xx(

1n

1s 2

n

1i

2

i

n

1i

2i −

−=−

−= ∑∑

==

n

ssx =

sx ± s3x ⋅±

- Als Standardabweichung s bezeichnet man:

- Der Standardfehler des arithm. Mittelwertes bezieht sich auf den Stichprobenumfang:

Vorteile: - Die Varianz s2 hat die besten Schätzeigenschaften bei Normalverteilung

- Die Standardabweichung s hat die gleiche Dimension wie die Messwerte und der arithm. Mittelwert, man kann daher Intervalle der Form

bzw.

Nachteil: - s2 ist nicht robust gegenüber Ausreißern

angeben.

Vorteil: - v ist gut geeignet zum Vergleich von Streuungen von Beobachtungsreihen mit unterschiedlichemMittelwert

x

x

%]100[IxI

sv ⋅=

- Variationskoeffizient

Der Variationskoeffizient ist ein von

misst.maß, das das Verhältnis von s und

bereinigtes Streuungs-

Grafische Darstellung von Lage- und Streuungsmaßen:

Box & Whisker Plot(Enzymaktivitäten)

Median

25%-75% Min-Max

1 2 3 4 5 6 7 8

Mutanten

20

25

30

35

40

45

50

55

60

65

70

75

Enz

ym

konz

entr

atio

nen

1. Box- und Whisker Plot

Enzymaktivitäten von 8 Mutanten Vanadiumgehalt von Weinen

Multipler Box- Whisker Plot für Vanadium

Land

Va

na

diu

m

Median 25%-75% Non-Outlier Range

Weisswein

Cz

ech

Re

pu

blic

Hu

ng

ary

Ro

ma

nia

So

uth

Afr

ica

-1 ,5

-1,0

-0,5

0,0

0,5

1,0

1,5

2,0

2,5

3,0

Rotwein

Cz

ech

Re

pu

blic

Hu

ng

ary

Ro

ma

nia

So

uth

Afr

ica

Grafische Darstellung von Lage- und Streuungsmaßen:

Mittelwertplot (Enzymaktivitäten von Mutanten)

arithm. Mittelwert

MW + - 95%-iges Konfidenzintervall Extremwerte

1 2 3 4 5 6 7 8

Mutanten

20

25

30

35

40

45

50

55

60

65

70

75

Enzy

mko

nze

ntr

ation

en

2. Mittelwertplots

Enzymaktivitäten von 8 Mutanten

Mittelwertplot (Enzymaktivitäten)

arithm . MW Mean±0,95*SD

1 2 3 4 5 6 7 8

Mutanten

25

30

35

40

45

50

55

60

65

70

Enzy

mko

nze

ntr

ation

en

Bsp.1: 40 Kolonien von Mikroorganismen

Mittelwertmaße:

Merkmal X: Durchmesser (metrisch)

4,2

6,0

7,7

6,0

Median

>

<

Vergleich

4,5linkssteilSonstigeKolonien (13)

6,0symmetrischWeißliche Kolonien (14)

7,1rechtssteilGelbe Kolonien (13)

5,9symmetrischAlle Kolonien (40)

Arithm. MWVerteilungsformStichprobe

Merkmal Y: Antibiotikaresistenz (ordinal)

Median: (sensitiv) (13 · „1“, 10 · „2“, 8 · „3“, 5 · „4“, 4 · „5“ )

Modalwert: D = 1 (sehr sensitiv)

Merkmal Z: Farbe (nominal)

Modalwert: D = 2 (weißlich ist die am häufigsten auftretende Farbe)

2x~ 5,0 =

braunfarblosgelb grünorangerosaweißlich

Box-and-Whisker Plot

0

2

4

6

8

10

12

Du

rch

me

sse

r

Farbe

Streuungsmaße:

Merkmal X: Durchmesser

3,4

3,8

3,6

4,3

Quartils-abst.

9,9

8,0

11,4

11,7

Spann-weite

0,612,767,62Sonstige Kolonien (13)

0,452,747,50Weißliche Kolonien (14)

0,412,968,77Gelbe Kolonien (13)

0,502,958,71Alle Kolonien (40)

Var.

koeff.

Stand.

abw.VarianzStichprobe

Box-and-Whisker Plot

Du

rch

me

sse

r

Farbgruppe

gelb sonstige weißlich0

2

4

6

8

10

12

1.4.3. Schiefe und Exzess

1. Schiefe

- Wenn der Median und der Modalwert vom arithmetischen Mittel abweichen, bezeichnet man eine Verteilung als schief.

- Man charakterisiert schiefe Verteilungen außerdem durch die Schiefe g1 als Maß für die Schiefheit und ihre Richtung.

- Echt schiefe Verteilungen liegen vor, wenn bei Vorliegen einer großen Anzahl von Beobachtungswerten und der Anwendung aller möglichen Transformation der Daten die Schiefheit der Verteilung bestehen bleibt.

- Keine echte Schiefe liegt vor, wenn man schiefe Verteilungen durch Transformationen (z.B. Logarithmieren) in symmetrische überführen kann.

Bsp.: Auftreten log. Verteilungen bei:• Analyse sehr niedriger Gehalte (z.B. Spurenanalyse)• Merkmalen mit sehr großer Spannweite (mehrere

Zehnerpotenzen)• sehr großem Zufallsfehler (z.B. halbquantitative

Spektralanalyse)

∑∑

∑=

=

=

−=

−=

n

1i

3

i

n

1i

32i

n

1i

3i

1 s

xx

n

1

))xx(n

1(

)xx(n

1

g

mod5,0 xx~x == 0g1 =Eine HV ist symmetrisch, wenn und

Eine HV ist linksschief oder rechtssteil, wenn mod5,0 xx~x <<

und 0g1 <

Eine HV ist rechtsschief oder linkssteil, wenn mod5,0 xx~x >>und 0g1 >

2. Exzeß und Kurtosis

- Mängel in den gewählten Versuchsbedingungen können zu einer Überhöhung (Streckung) oder Unterhöhung(Stauchung) der Häufigkeitsverteilung führen.Derartig verzerrte Verteilungen werden durch den Exzeß g2

charakterisiert. - Der Exzeß gibt an, ob das absolute Maximum der Häufigkeitsverteilung (bei annähernd gleicher Varianz) größer oder kleiner dem Maximum der Normalverteilungs-dichte ist.

3'g3s

xx

n

13

)xx(n

1

)xx(n

1

g 2

n

1i

4

i2n

1i

2i

n

1i

4i

2 −=−

−=−

−= ∑

∑=

=

=

g2‘ heißt Kurtosis.

Wenn g2 = 0 ⇒ Häufigkeitsverteilung entspricht der NV

Wenn g2 < 0 ⇒ abs. Häufigkeitsmaximum < Maximum der NV- Dichte (HV ist flachgipfliger), d.h. die Anzahl „größerer“ Abweichungen von ist geringer als bei der NV bei gleicher Varianz.

Wenn g2 > 0 ⇒ abs. Häufigkeitsmaximum > Maximum der NV- Dichte (HV ist steilgipfliger), d.h. die Anzahl „größerer“ Abweichungen von ist größer als bei der NV bei gleicher Varianz.

x

x

Als k- tes Moment bezeichnet man: ∑=

n

1i

k

ixn

1

und als k-tes zentriertes Moment: ∑=

−n

1i

ki )xx(

n

1

Bem.: Damit stellen der arithm. Mittelwert das 1. Moment und die empirische Varianz das 2. zentrierte Moment dar, während Schiefe und Exzeß auf dem 3. bzw. 4. zentrierten Moment basieren.

- Bei vielen praktischen Problemen wirken Merkmale nicht nur einzeln, sondern auch im Komplex. Es interessiert dann der Zusammenhang zwischen zwei oder mehreren Merkmalen.

- Wir bezeichnen einen Komplex von Merkmalen auch als mehrdimensionales Merkmal (od. Merkmalsvektor) und schreiben: (X1,...,Xn), bzw. (X,Y) bei einem zwei-dimensionalen Merkmal.

1.5. Mehrdimensionale Merkmale

Beispiele:

1. X- Lagerzeit von Zuckerrüben (X- deterministische d.h.

Y- Saccharosegehalt von Zuckerrüben einstellbare Einflussgröße, Y- zufällige Zielgröße)

2. X- Körpermasse von Schweinen (X und Y - zufällige Größen,

Y- Körpergröße von Schweinen jede kann als Einfluss- bzw. Zielgröße betrachtet werden)

3. Prozess des Nass-Salzens von Hartkäse(X1,X2,X3 - determ.

X1- Natriumchloridgehalt im Salzbad Einflussgrößen,

X2- Temperatur des Salzbades Y1,Y2 - zufällige

X3- Salzdauer Zielgrößen)

Y1- Masseausbeute des Käses nach dem SalzenY2- Sensorischer Qualitätsparameter

WICHTIG: Erfassung aller für den zu untersuchenden Sach-verhalt (Produkt, Prozess) wesentlichen Merkmale!

5 Fragestellungen sind von Interesse:

1. Welche Art von Merkmalen werden betrachtet?

(Klassifizierung, Einflussgröße einstellbar oder zufällig?)

2. Wie lassen sich zweidimensionale Merkmale grafisch

darstellen? (Punktwolke, Streudiagramm, XY- Scatterplot)

3. Wie sieht die Häufigkeitsverteilung (tabellarisch und

grafisch) eines zweidimensionalen Merkmals aus?

(2-dim. Häufigk.tabelle, Kontingenztafel, 3-dim. Histogramm)

4. Wie stark ist der Zusammenhang zwischen 2 Merkmalen

X und Y und welche Richtung hat er?

(Assoziations-, Kontingenz-, Maßkorrelations- oder Rangkorrelationskoeffizient)

5. In welcher Form lässt sich der Zusammenhang

darstellen?

(Kontingenztafel-, Varianz- u. Regressionsanalyse)

zu 2.) Streudiagramm (XY- Scatterplot)

x

y

x

y

Rezipr. Transf.

1/x

y

Bsp.: Fallhöhe und Schwingungsfrequenz von Wasserfällen

annähernd linearer Zusammenhang

Hyperbel

zu 3.) Häufigkeitsverteilung

Zur Darstellung von Häufigkeitsverteilungen dienen Häufigkeitstabellen (Vierfeldertafeln, Kontingenztafeln) und grafische Darstellungen durch zweidimensionale Histogrammeoder Polygone.

1. Fall:- Sei (X,Y) ein nominalskaliertes 2- dim. Merkmal mit je 2 Ausprägungen (aj,bk) j,k=1,2 (z.B.: ja/ nein, vorhanden, nicht

vorhanden)

Vierfeldertafel (2 x 2):

nf12+f22f11+f21Summe

f21+f22f22f21

f11+f12f12f11X vorhandennicht vorh.

nicht vorhandenvorhandenSumme

Y

Bem.:

- Die absoluten Häufigkeiten fjk (j,k=1,2) im Innern der Tafelstellen die 2- dim. absolute Häufigkeitsverteilung dar. (analog: die relativen Häufigkeiten hjk = fjk/n stellen die 2-dim. relative Häufigkeitsverteilung dar).

- Die Randsummenhäufigkeiten (Zeilen- und Spalten-summen) stellen die entsprechenden 1- dim. Häufigkeits-verteilungen von X bzw. Y dar.

- Aus der zweidimensionalen Häufigkeitsverteilung kann man auf die eindimensionalen Häufigkeitsverteilungen schließen, es gilt aber nicht die Umkehrung!

Bsp.: Untersuchung von 227 Ratten auf Milbenbefall der Spezies A und B

Vierfeldertafel (2x2):

227108119Summe

1608575

672344Spezies vorhanden B nicht vorhanden

nicht vorhandenvorhanden

SummeSpezies A

- Die Randsummen geben Aufschluss darüber, wie viele der Ratten eine der beiden Milben beherbergen bzw. nicht beher-bergen, unabhängig davon, ob die andere Spezies vorhanden ist oder nicht, d.h. sie geben die eindimensionalen Häufigkeits-verteilungen an.

Ergebnis:

- Die Chance, eine A- Milbe anzutreffen, ist bei den Ratten, bei denen schon B- Milben festgestellt wurden, größer als bei allen Ratten zusammengenommen, denn: nur auf etwa der Hälfte aller 227 Ratten kamen A- Milben vor (Randsumme 119), aber in der Teilmenge der 67 Ratten, die B- Milben beherbergen, befinden sich 44 Träger von A- Milben. Damit ist der Anteil der Träger von A- Milben unter den Trägern von B- Milben größer als in der Gesamtprobe!Umgekehrt gilt dasselbe.

- Zwischen dem A- Milbenbefall und dem B- Milbenbefall scheint also ein statistischer Zusammenhang zu bestehen.

2. Fall:

- Sei (X,Y) ein ordinalskaliertes 2- dim. Merkmal, bei dem jede Komponente auf einer Rangskala gemessen wird, d.h. als Merkmalsausprägung eine Rangzahl hat.

- Vorliegen einer Tabelle der Rangzahlen (keine Häufigkeits-tabelle!)

Tabelle der Rangzahlen:

dn2dnR(yn)R(xn)n

...............

d12d1R(y1)R(x1)1

di2diR(yi)R(xi)i

- dabei ist di = R(xi) - R(yi) die Differenz der Rangzahlen deri- ten Komponente von X und Y

Bsp.: Weinverkostung

Bei einer Weinverkostung sollen 8 Weinsorten hinsichtlich ihres Aromas in eine Rangordnung gebracht werden. 2 Prüfer sollen unabhängig voneinander die Sorten begutachten, wobei die Sorte mit dem schwächsten Aroma die Rangzahl 1 und die Sorte mit dem stärksten Aroma die Rangzahl 8 erhalten soll.

-275H8

134G7

167F6

011E5

-242D4

088C3

123B2

156A1

diPrüfer 2R(yi)

Prüfer 1 R(xi)

Sortei

Tabelle der Rangzahlen:

Ergebnis:

- Nur bei 2 Sorten gab es Übereinstimmung in der Bewertung, bei allen übrigen Sorten gab es Differenzen, die aber nicht mehr als 2 Rangzahlen betragen.

- Man kann einen statistischen Zusammenhang vermuten, denn je höher im allgemeinen die Rangzahl des 1. Prüfers ist, desto höher ist im allgemeinen auch die Rangzahl des 2. Prüfers.

- Die Weinsorten scheinen also Aromaunterschiede aufzuweisen und beide Prüfer waren in der Lage, diese zu erkennen.

3. Fall:

- Sei (X,Y) ein nominal- oder ordinalskaliertes 2- dim. Merkmal, deren Ausprägungen (aj,bk) mit den absoluten Häufigkeiten fjk und den relativen Häufigkeiten hjk für j=1,...,l und k=1,...,m auftreten.

Kontingenztafel (l x m):

nf.m...f.2f.1Summe

fl .flmfl2fl1al

...............

f2.f2m...f22f21X a2

f1.f1m...f12f11a1

SummeYb1 b2 ... bm

Bsp.: Untersuchung der Noten von 32 Studenten in Mathematik und Statistik (2 ordinalskalierte Merkmale)

Kontingenztafel (5 x 5):

Note

in

Statistik

Summe

5

4

3

2

1

32191651

311100

604200

16041020

500320

200011

Summe54321

Note in Mathematik

Ergebnis:

- Je besser im allgemeinen die Note in Mathematik ist, desto besser ist im allgemeinen auch die Note in Statistik und umgekehrt.

- Man kann also einen statistischen Zusammenhang zwischen den Noten vermuten, den man daran erkennt, dass die in der Nähe der Diagonalen gelegenen Felder der Kontingenztafel die höchsten absoluten Häufigkeitenaufweisen.

4. Fall:

- Sei (X,Y) ein metrisch skaliertes 2- dim. Merkmal, für deren Komponenten X und Y eine Klasseneinteilung vorliegt

Häufigkeitstabelle (analog Kontingenztafel!) (l x m):

nf.m...f.2f.1Summe

fl⋅flmfl2fl1(xl-1;xl]

...............

f2.f2m...f22f21X (x1;x2]

f1.f1m...f12f11(x0;x1]

Summe(ym-1;ym] ...Y

(y1;y2](y0;y1]Klassen-grenzen

Bsp.: Untersuchung des Asche- und Kaliumgehaltes von Weinen

Bsp.: Weindaten (3- dim.Histogramm)

2- dim. Histogramm (Weine aus Ungarn und Tschechien)

2- dim. Histogramm(Weine aus Ungarn und Tschechien)

zu 4.) Zusammenhangsmaße

Vor.: X,Y zufällige Merkmale

Lin. Abhängigkeit → Maß-korrelationskoeff. von Bravais/ Pearson

Mon. Abhängigkeit → Rang-

korrelationskoeff. von Spearman

2- dim. Häufigkeitstabelle (Kontingenztafel)

metrisch skaliert

Rangkorrelationskoeff. von Spearman

(Tab. von Rangzahlen)

ordinalskaliert

Assoziationskoeff. von Cramér und Kontingenz-koeff. von Pearson

Kontingenztafelnominal- oder (und)

ordinalskaliert

Assoziationskoeff. von Cramér, Kontingenzkoeff.von Pearson

Vierfeldertafelnominalskaliert

ZusammenhangsmaßHäufigkeitsvert.Art der Merkmale

1. Kontingenzkoeffizient C von Pearson:

- Sei (X,Y) ein 2- dim. , nominal- oder ordinalskaliertesdiskretes Merkmal, das in den Ausprägungen (aj, bk) für j = 1,Jl und k = 1,J,m mit den abs. Häufigkeiten fjk auftritt.

- Der Kontingenzkoeffizient ist ein Maß für die Stärke des stochastischen Zusammenhanges zwischen 2 diskreten Merkmalen.

nC

2

2

+χχ

=

∑∑= = ⋅⋅

⋅⋅

⋅−

=χl

1j

m

1k kj

2

kjjk

2

n

ff

n

fff

wobei

Bem.: - Der Kontingenzkoeffizient C nimmt Werte im Intervall

( )( )m,lmin

1m,lminC0

−≤≤

0 ≤ C ≤ 0,707

an.

- Der maximale Wert von C (d.h. vollständige Kontingenz)ist von der Tafelgröße (Zeilen- bzw. Spaltenzahl l und m)abhängig und nähert sich für große l bzw. m gegen 1. ⇒⇒⇒⇒ besser: korrigierter Kontingenzkoeffizient von

Pearson Ccorr

- Für die Vierfeldertafel gilt:

kein Zusammenhang

vollst. Zusammenhang

Bem.: - Der korrigierte Kontingenzkoeffizient Ccorr wird berechnet nach:

( )( ) 1m,lmin

m,lmin

nC

2

2

corr −⋅

+χχ

=

und es gilt nun: 0 ≤ Ccorr ≤ 1 ,

d.h. bei vollständiger Kontingenz wird immer der Wert 1 angenommen, unabhängig von der Größe der Kontingenztafel.

2. Assoziationskoeffizient von Cramér (Cramér‘s V):

- Sei (X,Y) ein 2- dim. , nominal- oder ordinalskaliertesdiskretes Merkmal, das in den Ausprägungen (aj, bk) für j = 1,Jl und k = 1,J,m mit den abs. Häufigkeiten fjk auftritt.

- Der Assoziationskoeffizient ist ebenfalls ein Maß für dieStärke des stochastischen Zusammenhanges zwischen 2 diskreten Merkmalen.

( )( ) 1m,lminnV

2

−χ

=

∑∑= = ⋅⋅

⋅⋅

⋅−

=χl

1j

m

1k kj

2

kjjk

2

n

ff

n

fff

wobei

mit 0 ≤ V ≤ 1

kein Zusammenhangvollst. Zusammenhang

3. Rangkorrelationskoeffizient rs von SPEARMAN:

- Sei (X,Y) ein 2- dim. , ordinal oder metrisch skaliertes Merkmal, bei dem jede Komponente Merkmalswerte mit einer eindeutigen Rangfolge hat (rangskaliert).

- Wir beobachten an den n Beobachtungseinheiten die Merkmalswerte (xi,yi) für i=1,...,n

- Wir ordnen nun jedem Beobachtungswert xi bzw. yi für i=1,...,n eine Rangzahl R(xi) bzw. R(yi) zu, wobei gilt:R(x(i)) = i für i=1,...,n und x(1) ≤ x(2) ≤ ... ≤ x(n)

- Tritt eine Ausprägung mehrfach auf („Bindungen“), so ordnet man diesen gleichen Werten als Rang das arithmetische Mittel der Ränge zu, die sie einnehmen.

- Bsp.: x(1)=2; x(2)=4; x(3) =4; x(4) =6; x(5) =9

→ R(x(1))=1; R(x(2))=2,5; R(x(3))=2,5; R(x(4))=4; R(x(5))=5

Formel für den Rangkorrelationskoeffizienten rs:

( ) ( )( ) ( ) ( )( )

( ) ( )( )( ) ( ) ( )( )( )∑∑

−⋅−

−⋅−= =

2

i

2

i

i

n

1ii

s

yRyRxRxR

yRyRxRxRr

( ) ( )

( )( ) ( )( ) ( )( ) ( )( )22

i

22

i

n

1iii

s

yRnyRxRnxR

)y(R)x(RnyRxR

r⋅−⋅⋅−

⋅⋅−

=∑∑

∑=

- Der Rangkorrelationskoeffizient ist ein Maß für die Stärke und Richtung eines monotonen stochastischen Zusammen-hanges zwischen 2 rangskalierten Merkmalen.

Wenn keine „Bindungen“ vorliegen, d.h. wenn xi ≠ xj für i ≠ j und yi ≠ yj für i ≠ j gilt:

( )1nn

d61r

2

n

1i

2

i

s −⋅

⋅−=

∑= , wobei ( ) ( )iii yRxRd −=

i=1,J,n

Bem.: Für den Rangkorrelationskoeffizienten gilt:

Wenn rs < 0 → neg. RangkorrelationWenn rs > 0 → pos. Rangkorrelation

-1 ≤ rs ≤ +1

|rs| = 1 , wenn X und Y monoton zusammenhängenrs = 1 , wenn die x- Ränge mit den y- Rängen

übereinstimmenrs = -1 , wenn die x- und y- Ränge genau

entgegengesetzte Rangfolgen ergeben.

Bsp.: Aromaprüfung von 8 Weinsorten durch 2 Prüfer

Der Rangkorrelationskoeffizient von rs = 0,86 deutet auf einen recht starken, monoton wachsenden stochastischen Zusammenhang hin.

4. Maßkorrelationskoeffizient rXY von BRAVAIS- PEARSON:

- Sei (X,Y) ein metrisch skaliertes 2- dim. Merkmal, deren Merkmalswerte (xi,yi) , i=1,...,n, einen näherungsweise linearen Zusammenhang zwischen X und Y vermuten lassen.

- Wir beobachten an den n Beobachtungseinheiten die Merkmalswerte (xi,yi) für i=1,...,n

- Der Maßkorrelationskoeffizient ist ein Maß für die Stärke und Richtung eines linearen stochast. Zusammenhanges zwischen 2 metrisch skalierten Merkmalen.

Formel für den Maßkorrelationskoeffizienten rXY:

( ) ( )

( )( ) ( )( )∑∑

−⋅−−

−⋅−−= =

2

i

2

i

i

n

1ii

XY

yyxx)1n(

yyxx)1n(r

( )( ) ( )( )22

i22

i

n

1iii

XY

ynyxnx

yxnyx

r⋅−⋅⋅−

⋅⋅−

=∑∑

∑=

Bem.: Für den Maßkorrelationskoeffizienten rXY gilt:

Wenn rXY < 0 → negative KorrelationWenn rXY > 0 → positive Korrelation

-1 ≤ rXY ≤ +1

|rXY| = 1 , wenn X und Y linear zusammenhängen

Wenn rXY = 0 → Unkorreliertheit zwischen X und YWenn rXY = 0 und (X,Y) 2- dim. normalverteilt

→ Unabhängigkeit zwischen X und Y

Der Korrelationskoeffizient ist nicht imstande, nichtlineare Zusammenhänge zwischen Merkmalen zu erkennen.

Man beachte Schein- und Unsinnkorrelationen!

Bem.: Merkmale mit sehr schiefen Häufigkeitsverteilungen können mitunter auch einen Korrelationskoeffizienten nahe 0 haben, obwohl ein statistischer Zusammen-hang zwischen ihnen besteht.

B = rXY2 heißt Bestimmtheitsmaß. Es gibt den Anteil

der Variation der y- Werte an, der durch den linearen Zusammenhang zwischen X und Y bestimmt wird.

Bei der Untersuchung von linearen Abhängigkeiten zwischen mehr als 2 Merkmalen gibt es:- partielle Korrelationskoeffizienten,- multiple Korrelationskoeffizienten und - kanonische Korrelationskoeffizienten.

Zu 5.) Form der statistischen Abhängigkeit

- Sei (X,Y) ein metrisch skaliertes 2- dim. Merkmal mit den Merkmalswerten (xi,yi) für i=1,...,n.

- Es interessiert die Form der Abhängigkeit eines Merkmals Y(abhängiges Merkmal, Zielgröße, Regressand) von einem Merkmal X (unabh. Merkmal, Einflussgröße, Regressor).

- Alle kontrollierbaren Einflussgrößen werden konstant gehalten.

- Wir beschränken uns auf den Fall des Modells I der einfachen linearen Regression (1Einflussgröße, lineare Abhängigkeit).

Vor.: Y zuf. Merkmal,

→ RM I X

zuf. Merkmal

zuf. Merkmal, mit kleinem Fehler messbar

einstellbares Merkmal

→ RM II

Streudiagramm (XY- Scatterplot) →

Annahme eines linearen Modells für die Abhängigkeit zwischen X und Y in der Grundgesamtheit:

y = β0 + β1 x, genannt lineare Regressionsgleichung.

Dann gilt für die zuf. Beobachtungen der Zielgröße:Yi = β0 + β1 xi + εi i=1,J,n

Zufallsfehler,wobei εi unabhängig und identischverteilt mit Eεi =0 und D2εi = σ2

und σ2 unabhängig von den Messpunkten xi

Bem.: Wenn εi ~ N(0, σ2) → bei RM I : Yi~ N(β0 + β1 xi, σ

2)bzw. Y~ N(β0 + β1 x, σ2)

Regressionsanalyse:

1. Schätzung der empirischen linearen Regressionsgleichung(Ausgleichsgerade) nach der Methode der kleinsten Quadrate (MkQ, LS):

( ) ( )( )∑ ∑= =

→ε=⋅β+β−=ββn

1i

n

1i

2

i

2

i10i10 minn

1xY

n

1,Q

Die Werte von β0 und β1, für die Q(β0, β1) ihr Minimum annimmt, nennt man Kleinste-Quadrate-Schätzer . 10

ˆundˆ ββ

Zuf. Beobachtungswerte Modellwerte

Residuen

Durch Nullsetzen der partiellen Ableitungen von Q nach β0

und β1 erhält man ein Normalgleichungssystem, das zu lösen ist.

Bem.:

( ) ( )

( ) X

XYn

1i

2

i

i

n

1ii

1 SQ

SP

xx

yyxxb =

−⋅−=

=

=

Die auf der Basis der konkreten Stichprobe ermittelten Schätzwerte für β0 und β1 bezeichnet man mit b0 und b1.

und xbyb 10 ⋅−=

→ geschätzte lineare Regressionsgleichung:

xbb)b,b(y 1010 ⋅+=

( ) ( ) XYi

n

1iiXY SP

1n

1yyxx

1n

1s ⋅

−=−⋅−

−= ∑

=

heißt Kovarianz zwischen X und Y und

( ) X

n

1i

2

i

2

X SQ1n

1xx

1n

1s ⋅

−=−

−= ∑

=

Varianz von X.

oder:X

YXY1 s

srb =

2. Zeichnen der Regressionsgerade ins Streudiagramm:

x

yxbby 10 ⋅+=

yi

iy

0

b0

xi

( ) ( )( )∑ ∑∑= ==

ε−

=⋅+−−

=−−

=n

1i

n

1i

2

i

2

i10i

n

1i

2

ii

2

R ˆ2n

1xbby

2n

1yy

2n

1s

R

2

R SQ2n

1s ⋅

−=

Restquadratsumme

3. Güte des Regressionsmodells- Beurteilung der Güte der Modellvorhersage für jeden Mess-wert mit Hilfe der geschätzten Residuen , i=1,J, n

- Maß für die Variation der Stichprobenwerte um die geschätzte Regressionsgerade: Restvarianz

geschätzte Residuen

iii yyˆ −=ε

- Streuungszerlegung (Zerlegung der Quadratsummen!):

( ) ( ) ( )∑ ∑∑= ==

−+−=−n

1i

n

1i

2

i

2

ii

n

1i

2

i yyyyyy

MRT SQSQSQ += durch den Modellzusammenhang erklärte „Streuung“

„Gesamtstreuung“ „Reststreuung“

FG

Erklärte Streuung: Darstellung der Variation der y- Werte, die auf den linearen Zusammenhang

SQM zwischen X und Y zurückzuführen ist, d.h. sie enthält die Variation der Werte

auf der Geraden um den Mittelwert .

Reststreuung: Verbleibender Rest der Variation der y-SQR Werte

Bem.: Liegen alle beobachteten Werte exakt auf einer Geraden, so sind die Residuen 0 und ebenso die Reststreuung. Dann ließe sich die gesamte Variation von Y durch den linearen Modellzusammenhang mit X erklären (funktionaler linearer Zusammenhang).

Je größer die Reststreuung ist, desto schlechterbeschreibt das Modell die Daten.

y

- Als Maßzahl für die Güte der Modellanpassungverwendet man häufig das Bestimmtheitsmaß B. Es gibt den Anteil an der Gesamtstreuung der y- Werte an, der durch die Regression von Y auf X erklärt wird und ist der Quotient aus erklärter und Gesamtstreuung.

( )

( )

( )

( )∑

=

=

=

=

−−=

−==

n

1i

2

i

n

1i

2

ii

n

1i

2

i

n

1i

2

i

T

M

yy

yy1

yy

yy

SQ

SQB

0 ≤ B ≤ 1

B = rXY2

funktionaler linearer Zusammenhangkein linearer Zusammenhang

Für Vorhersagen sollte das Bestimmtheits-maß möglichst ≥ 0,8 sein!

Aber: B ist bei RM I vom Versuchsplan abhängig!

- Tests zur Prüfung der Modelladäquatheit (F- Test der Varianzanalyse) und zur Prüfung der Modellparameter(t- Tests, Konfidenzintervalle) im Rahmen der schließenden Statistik

4. Residualanalyse

- Prüfen der Modellvoraussetzungen über den Zufallsfehler(ε ~ N(0, σ2) und σ2 unabhängig von den Messpunkten xi)

- Residualplots

iii yyˆ −=ε → normierte Residuenε

ε=

ˆ

ii s

ˆd

y y y

+3

-3

00 0

idealer Verlauf

d dd

ungleiche Varianzen

Ausreißer

3d i > →→→→ Ausreißer

XY- Scatterplot (Lanthanum, Gadolinum)y = -0,7128 + ,91690 * x

Korrelationskoeffizient: r = 0,98136

-4 -3 -2 -1 0 1 2

Lanthanum

-5

-4

-3

-2

-1

0

1

Gad

olin

um

95% Konfigenzgrenzen

Bsp.: Weindaten, Abhängigkeit zwischen den seltenen Erden-Parametern Lanthanum und Gadolinum

Normierte Residuen

-5 -4 -3 -2 -1 0 1

Geschätzte Werte für Gadolinum

-1,4

-1,2

-1,0

-0,8

-0,6

-0,4

-0,2

0,0

0,2

0,4

0,6

0,8

1,0

1,2N

orm

iert

e R

esid

uen

Geschätzte gegen beobachtete Werte (Gadolinum)

-5 -4 -3 -2 -1 0 1

Geschätzte Werte

-5

-4

-3

-2

-1

0

1B

eoba

chte

te W

erte

95% Konfidenzgrenzen

Bsp.: Weindaten (Matrix Plot)

Matrix Plot (Histogramm und Scatterplot)für Alkalinität, Asche und Kalium (transformiert)

Alkalinität

Asche

Kalium

2. Wahrscheinlichkeits-rechnung

/11/ Stahel, W. (1995)

Die Wahrscheinlichkeitsrechnung liefert mathematische Modelle für Zufallserscheinungen.

Es werden Experimente betrachtet, deren Ergebnisse einenzufälligen Ausgang haben, so genannte zufällige Versuche.

2.1. Zufälliges Ereignis, Wahrscheinlichkeit, Zufallsgröße

Begriffe und Definitionen:

Def.: Ein zufälliges Ereignis ist ein Ereignis, das bei einem Versuch, bei dem bestimmte Bedingungen eingehalten werden, eintreten kann, aber nicht notwendig eintreten muss. Es ist das Ergebnis eines zufälligen Versuches.

Bez.: A,B,C,...,A1,B1,...

Bsp. 1: Würfeln mit einem idealen Würfel und Beobachtung der geworfenen Augenzahl (zuf. Versuch)

• zufällige Ereignisse sind:

• Ai := "Augenzahl i wird gewürfelt, i=1,...,6 ",

• aber auch: A7:= "Eine gerade Augenzahl wird gewürfelt"

Begriffe: - Elementarereignis:

Elementarereignisse lassen sich nicht weiter in zufällige Ereignisse zerlegen.

Bez.: ei ; i=1,...,n

Bsp.1: ei := "Würfeln der Augenzahl i, i=1,...,6 "

- Zusammengesetzte Ereignisse:

lassen sich weiter in zufällige Ereignisse zerlegen.Bez.: Ai, Bi,... ; i=1,...,n

Bsp.1: A7 := "Würfeln einer geraden Zahl"= e2,e4,e6

Def.: Die Menge E (oder: Ω) heißt Menge der zu einem zufälligen Versuch gehörenden Elementarereignisse, wenn jedem Versuchsausgang genau ein Element dieser Menge E entspricht.

Bsp.1: E = e1,...,e6

⇒⇒⇒⇒ Schlussfolgerung: Methoden der Mengenlehre (Vereinigung, Durchschnitt, Differenz) sind anwendbar!

Def.: Ein zufälliges Ereignis A ist eine Teilmenge der Menge E der Elementarereignisse, d.h. .EA ⊆

Grenzfälle von zufälligen Ereignissen:

Def.: Sichere Ereignisse sind dadurch gekennzeichnet, dass sie immer eintreten. Sie bilden die Teilmenge von E, die alle Elementarereignisse enthält.

Bsp.1: E: = "Es wird eine Zahl zwischen 1 und 6 gewürfelt"= e1,...,e6

Def.: Unmögliche Ereignisse sind dadurch charakterisiert, dass sie nicht eintreten können. Sie sind die Teilmenge, die kein Elementarereignis enthält.

Bsp.1: Ø := "Es wird eine '0' gewürfelt!"

Relationen und Operationen zwischen zufälligen Ereignissen:

Def.: Ein zufälliges Ereignis A ist genau dann in dem zufälligen Ereignis B enthalten, wenn alle Elementar-ereignisse, die zu A gehören, auch zu B gehören.

Bez.:

Bsp.1: Würfeln mit 1 Würfel:

Bem.: Für ein beliebiges zufälliges Ereignis A gilt immer: Ø

Def.: Zwei zuf. Ereignisse A und B heißen äquivalent (gleich),wenn sowohl das Ereignis A in B enthalten ist ( ), als auch das Ereignis B in A enthalten ist .Bez.: A = B

BA ⊆

72 AA ⊆

EA ⊆⊆

BA ⊆

( )AB ⊆

Def.: Sind A und B zuf. Ereignisse, so verstehen wir unter der Summe von A und B (Vereinigung) das Ereignis, das genau die Elementarereignisse enthält, die zu A oder zu B gehören.

Bez.:

Bsp.1: Würfeln

Def.: Sind A und B zuf. Ereignisse, so verstehen wir unter dem Produkt von A und B (Durchschnitt) das Ereignis, das genau die Elementarereignisse enthält, die zu A und zu B gehören.

Bez.:

Bsp.1: Würfeln ∅

BA ∪

E

A B

642171 e,e,e,eAA =∪

BA ∩

=∩ 71 AA

E

A B

Def.: Zwei zufällige Ereignisse A und B heißen miteinander unvereinbar (unverträglich), wenn sie keine gemeinsamen Elementarereignisse besitzen.

Bez.: A ∩ B = ∅

Bsp.1: A1 ∩ A7= ∅

5,3,1A 7 =

Def.: Ist A ein zufälliges Ereignis, so nennen wir das Ereignis, das genau die Elementarereignisse enthält, die nicht zu A gehören, das zu A komplementäre Ereignis.

Bez.:

Bsp.1:

A

Def.: Sind A, B zufällige Ereignisse, so verstehen wir unter der Differenz von A und B das Ereignis, das genau die Elementarereignisse enthält, die zu A, aber nicht zu B gehören. (d.h. wenn A, aber nicht B eintritt!)

Bez.: A \ B

Bsp.1: Würfeln

A7 \ A2 = 4, 6

Es gelten folgende Aussagen:

• = E \ A

• = A \ B

E

A B

A

BA∩

1. Klassische Definition der Wahrscheinlichkeit (Laplace):

Ausgangspunkt:• zufälliger Versuch mit endlich vielen Versuchsausgängen n,

d.h. E = e1, ..., en• jeder Versuchsausgang sei gleichmöglich (Symmetrie)• N(A) - Anzahl der Versuchausgänge, bei denen A eintritt• n = N(E) - Gesamtzahl der Versuchsausgänge

Def.: Das Verhältnis von N(A) und n heißt Wahrscheinlich-keit des zuf. Ereignisses A und wird mit P(A) bezeichnet.

n

)A(N)A(P =

Wahrscheinlichkeit:

Die Wahrscheinlichkeit ist das Maß für den Grad der Gewissheit des Eintretens eines zufälligen Ereignisses A

Satz: Eigenschaften der klassische Wahrscheinlichkeit:

1. 0 ≤ P(A) ≤ 1

2. P(E) = 1 und P(∅) = 0

3. Sind A und B unvereinbare zuf. Ereignisse, d.h. A ∩ B = ∅, so gilt: P(A ∪ B) = P(A) + P(B) (Additionsregel für unvereinbare zuf. Ereignisse)

4. Sind A, B beliebige zuf. Ereignisse, so gilt:P(A ∪ B) = P(A) + P(B) – P(A ∩ B)(allg. Additionsregel für bel. zuf. Ereignisse)

5. P( ) = 1 – P(A)

6. Sind A und B unabhängige zuf. Ereignisse, so gilt:

P(A ∩ B) = P(A) ⋅ P(B)(Multiplikationsregel für unabhängige zuf. Ereignisse)

A

Bsp.:

In einem Bierkasten befinden sich 25 Flaschen Bier, vondiesen sind 2 nicht qualitätsgerecht.Der zufällige Versuch bestehe in der Entnahme einerFlasche, wobei jede Flasche die gleiche Chance habe,entnommen zu werden.

Frage: Wie groß ist die Wahrscheinlichkeit, dass eine zufällig entnommene Flasche qualitätsgerecht ist (Ereignis A)?

Lösung: Anzahl der möglichen Versuchsausgänge n = 25 Anzahl der für A „günstigen“ Versuchsausgänge

N(A) = 25 – 2 = 23

Damit ergibt sich: 92,025

23

n

)A(N)A(P ===

Wir betrachten das Bsp.1: Würfeln mit 1 Würfel

Sei A das zuf. Ereignis, das im Ergebnis des zuf. Versucheseine „6“ gewürfelt wird.Der Versuch wird n- mal wiederholt (n = 50, 100, ...). Dabei trat das Ereignis A N(A)- mal (z.B. N(A) = 7, 18, ...) auf, d.h. N(A) ist die absolute Häufigkeit des Auftretens von A.

Def.: Der Quotient aus der absoluten Häufigkeit und der Gesamtzahl der Versuche heißt relative Häufigkeit

und hn(A) konvergiert stochastisch gegen P(A).hn(A) ist also ein Schätzwert der Wahrscheinlichkeit P(A).

n

)A(N)A(hn =

2. Statistische Definition der Wahrscheinlichkeit:

0.50051201224000Pearson

0.5016601912000Pearson

0.506920484040Buffon

relative Häufigkeit hn=N(A)/n

Anzahl des Auftretens des "Wappen" N(A)

Anzahl der Würfe n

Bsp.: Münzwurf

Stabilität der relativen Häufigkeit

n

P(A)

hn(A)

∞∞∞∞0

Zufallsgröße (ZG)

Zufällige Ereignisse kann man durch reelle Zahlen ausdrücken:

0 xi

=X(ei)

.eiE

X

R0 xi

=X(ei)

00 xi

=X(ei)

.eiE

X

R

Zufallsgröße

Def.: Eine Abbildung X heißt Zufallsgröße (ZG), wenn sie ihre Werte mit einer bestimmten Wahrscheinlichkeit annimmt.

Xei ∈ E → xi ∈ R X(ei) = xi

→→→→ 0 Anzahl der→→→→ 1 Ausschuss-J erzeug.→→→→ n

e0 – “genau 0 Ausschusserzeugnisse”e1– “genau 1 Ausschusserzeugnis”Jen– “genau n Ausschusserzeugnisse”

2. HerstellungvonErzeugnissen

→→→→ 1 gewürfelteJ Augenzahl→→→→ 6

e1 – “Würfeln einer 1”Je6 – “Würfeln einer 6”

1. Würfeln miteinem Würfel(Augenzahl)

Werte der ZG XElementarereignisseBeispiele

Bez.: Zufallsgrößen bezeichnet man mit: X, Y, Z bzw. Xi, Yi, Zi

und ihre Werte (Realisierungen) mit: x, y, z bzw. xi, yi, zi.

Weitere Beispiele für Zufallsgrößen sind:

Länge von Baumwollfasern einer bestimmten Sorte

Länge und Volumen von Escherichia Coli -Zellen

Anzahl der Stillstände einer Flaschenreinigungsanlage

Anzahl nicht qualitätsgerechter Produkte

Stickstoffmon- und -dioxidgehalt, Kohlenmonoxid- und Ozongehalt, sowie Schwebestaubgehalt in der Luft

Natrium,- Kalium-, Eisen- und Cadmiumgehalt von Weinen

Enzymkonzentrationen verschiedener Mutanten der Gattung Aspergillus niger

Zellzahlen, Mikrokoloniezahlen

5,06

3)A(P ==

5,0)3X(P)A(P =≤=

5,06

1

6

1

6

1)3X(P)2X(P)1X(P)3X(P =++==+=+==≤

Bsp.: Münzwurfe1:= “Wappen“ → P(e1) = 0,5e2:= “Zahl“ → P(e2) = 0,5

P(e1) = P(X=0) = 0,5P(e2) = P(X=1) = 0,5

Bsp. 1: Würfeln mit 1 WürfelA:= “Würfeln einer Augenzahl i ≤ 3“

A = e1, e2, e3 →

Wahrscheinlichkeit von zuf. Ereignissen → Wahrscheinlichkeit von Zufallsgrößen

Def.: Sei X eine Zufallsgröße und P die WahrscheinlichkeitDann heißt die durch FX(x) = P(X ≤ x) definierte Funktion FX Verteilungsfunktion der ZG X.

Dann gilt auch: P(X > x) = 1- FX(x) und

P(a < X ≤ b) = FX(b) – FX(a)

Def. : Eine Zufallsgröße X heißt diskret, wenn sie endlich oder abzählbar unendlich viele Werte annehmen kann.

Bsp.: Zellzahlen, Anzahl nicht qualitätsgerechter Produkte

Bem.: Man beschreibt eine diskrete ZG X durch die Werte xi, die sie annehmen kann und die Einzelwahrschein-lichkeiten pi = P(X = xi), mit denen sie diese Werte annimmt.Es gilt: 1p

1ii =∑

=

)x(FX

x

1

p1=1/6

1 2 3 4 5 6

∑≤

==≤=

ik xxk

kiiX )xX(P)xX(P)x(F

0 1/6 2/6 3/6 4/6 5/6 1 1 FX(xi)

0 1/6 1/6 1/6 1/6 1/6 1/6 0 pi = P(X = xi)

<1 1 2 3 4 5 6 > 6xi

Bsp. 1: Würfeln mit 1 Würfel (Gleichverteilung)

Verteilungstabelle mit Verteilungsfunktion:

Die Verteilungsfunktion ist:

Def.: Eine Zufallsgröße heißt stetig, wenn sie überabzählbar unendlich viele Werte (d.h. Werte aus einem reellen Zahlenintervall) annehmen kann. Ihre Verteilungsfunktion lässt sich wie folgt darstellen:

P(X ≤ x) = ∀x∈R

fX(x) heißt Dichtefunktion von X

Bsp.: Eiweiß- und Fettgehalt von Milch, Enzymkonzentration,Cholesteringehalt im Blut

Bem.: Für die Dichtefunktion gilt:

dt)t(f)x(Fx

XX ∫∞−

=

∫+∞

∞−

= 1dx)x(fX

0,1

Dichtefunktion der Normalverteilung

x

Dic

hte

-5 -3 -1 1 3 50

0,1

0,2

0,3

0,4

Bsp.: Normalverteilung

X ~ N(0,1)

(Standard-Normalverteilung)

0,1

Verteilungsfunktion der Normalverteilung

x

Vert

eilu

ngsf

unkt

ion

-5 -3 -1 1 3 50

0,2

0,4

0,6

0,8

1 dt)t(f)x(Fx

XX ∫∞−

=

0

0

∫=−=≤<b

a

XX dx)x(f)a(F)b(F)bXa(P

∫∞−

−=−=>x

X dt)t(f1)x(F1)xX(P

Bem.: Für eine stetige ZG X gilt:

1.

P(a < X ≤ b) ist die Wahrscheinlichkeit dafür, dass eine Realisierung von X in das Intervall (a, b] fällt!

3.

∀x mit a < x ≤ b

∫∞−

==≤x

X dt)t(f)x(F)xX(P

2.

1. Erwartungswert:

Def.: Als Erwartungswert EX einer ZG X bezeichnen wir das Zentrum ihrer Verteilung:

dx)x(fx X∫+∞

∞−

⋅ , X stet. ZG

∑∞

=

⋅1i

ii px , X diskr. ZG

EX =

Bem.: Der Erwartungswert einer diskr. ZG ist das gewogene Mittel aller Werte xi von X, wobei die Einzelwahr-scheinlichkeiten pi die Gewichte darstellen.

Bsp. 1: Würfeln mit 1 Würfel (Gleichvert.) ⇒ EX = 3,5

EX ∈ R

2.2 Parameter von Verteilungen

2. Varianz:

Def.: Als Varianz bezeichnen wir die mittlere (erwartete) quadratische Abweichung einer ZG X von ihrem Erwartungswert:

D2X = E [X - EX]2

dx)x(f)EXx( X2∫

+∞

∞−

⋅− , X stet. ZG

∑∞

=

⋅−1i

i2

i p)EXx( , X diskr. ZG

D2X ∈ R

Bsp. 1: Würfeln mit 1 Würfel (Gleichvert.) ⇒ D2X = 2,92

XD2heißt Standardabweichung.

=

Satz: Eigenschaften der Varianz: (Fehlerfortpflanzung)

Für die Varianz von diskreten oder stetigen Zufallsgrößen X, X1, J, Y, Z und Konstanten a,b ∈R gilt:

1. D2X ≥ 0, D2X = 0 ⇔ P(X = EX) = 1

2. D2X = EX2 – [EX]2 (Verschiebungsregel)

3. D2 [aX + b] = a2 • D2X (lin. Transformation)

4. X1,X2 unabhängig ⇒

D2 [X1 + X2] = D2 [X1 - X2] = D2X1 + D2X2 (Summe, Differenz)

und für Y =X1• X2 und Z = X1/X2 (Produkt und Quotient)2

22

2

22

2

1

12

22

EZ

ZD

EX

XD

EX

XD

EY

YD

+

(Quadr. Variationskoeffizienten addieren sich!)

Normierung und Standardisierung:

Def.: Eine ZG X heißt normiert, wenn D2X = 1 gilt.

Def.: Eine ZG X heißt standardisiert, wenn D2X = 1 und EX = 0 gilt.

Satz: Für eine beliebige ZG X gilt:

XD

XY

2=

ist eine normierte ZG und

XD

EXXY

2

−= ist eine standardisierte ZG.

1.

2.

Bsp. 2: Würfeln mit 2 unterscheidbaren Würfeln,X:=„ Augensumme“, X = X1 + X2

D2X = D2 [X1 + X2] = D2 X1 + D2 X2 = 5,83

Wahrscheinlichkeitsverteilungen

Stetige VerteilungenDiskrete Verteilungen

- 2- Pkt.- Verteilung(Münzwurf)

- Gleichverteilung(Bsp. 1: Würfeln mit 1 Würfel)

- Binomialverteilung(Qualitätskontrolle)

- Hypergeometrische Vert.

- Poissonverteilung

- Gleichmäßig stet. Verteilung

- Normalverteilung undlogarithmische NV

- Exponentialverteilung(Wachstumsprozesse)

- Weibullverteilung(Abnutzungsprozesse)

- Prüfvert. (t-, χ2-, F- Vert.)

(Gauss, 1809: „Theorie der Beobachtungsfehler“)

Hintergrund:

Führt man wiederholt Messungen an ein und demselben Objekt (Fettgehalt in Milchprobe) durch, so ergibt auf Grund zufälliger Einflüsse nicht jede Messung den gleichen Wert. Es zeigt sich aber, dass bei häufiger Wiederholung der Messung die erhaltenen Werte kleinere oder größere Abweichungen voneinander und von einem bestimmtem „wahren“ Wert, dem Erwartungswert, aufweisen.

Beispiele:

zuf. Mess- und Beobachtungsfehler

Fett- und Eiweißgehalt von Milch, Stammwürzegehalt von Bier, Saccharosegehalt von Zuckerrüben

2.3 Normalverteilung

Def.: Eine stetige ZG X heißt normalverteilt mit den Parametern µ und σ2 (X ~ N (µ, σ2)), wenn ihreDichtefunktion die Form

( )2

2

2

x

X e2

1)x(f σ⋅

µ−−

⋅σ⋅π

= x∈R, hat.

Satz: Eigenschaften der Dichtefunktion der NV

1. fX(x) ≥ 0 x∈R

2. fX besitzt an der Stelle x = µ ein Maximum und

3. fX besitzt an den Stellen x1 = µ -σ und x2 = µ + σzwei Wendepunkte

4. fX ist symmetrisch bez. µ: fX(µ - x) = fX(µ + x)

( )σ⋅π

=µ2

1fX

Standard- NormalverteilungX ~ N (0, 1)

0,14,14,24,0,50,2

Verteilungsfunktion der Normalverteilung

x

Ve

rte

ilun

gsf

un

ktio

n

-10 -6 -2 2 6 10 140

0,2

0,4

0,6

0,8

1

0,14,14,24,0,50,2

Dichtefunktion der Normalverteilung

x

Dic

hte

-10 -6 -2 2 6 10 140

0,2

0,4

0,6

0,8

fX(x; 0, 1) = ϕX(x)

FX(x; 0, 1) = ΦX(x)

ist tabelliert!

Bem.: - Für eine normalverteilte ZG X gilt:EX = µ und D2X = σ2

- Der Parameter µ bedeutet : Verschiebung des Symmetriezentrums

Der Parameter σ bedeutet: Streckung oder Stauchung der Dichte

- Die Verteilungsfunktion: FX (x)= P(X ≤ x) =

aber: Integral nicht geschlossen integrierbar!

⇒⇒⇒⇒ Standardisierung der normalverteilten ZG X und Bestimmen der standardisierten Verteilungs-funktion Φ (ist tabelliert!) !

( )∫∞−

x

X dttf

Satz: Eine stet. ZG X mit X ~ N(µ, σ2), kann durch Y = (X-µ)/ σstandardisiert werden, so dass Y ~ N(0, 1), und man erhält:

fX(x) = (1/σ) • ϕY(y) und FX(x) = ΦY(y)

(Zusammenhang von Dichte- und Verteilungsfunktionen)

0,1

Dichtefunktion der Normalverteilung

x

Dic

hte

-5 -3 -1 1 3 50

0,1

0,2

0,3

0,40,1

Verteilungsfunktion der Normalverteilung

xV

ert

eilu

ng

sfu

nkt

ion

-5 -3 -1 1 3 50

0,2

0,4

0,6

0,8

1

ϕY(-y) = ϕY(y) ΦY(-y) = 1- ΦY(y)

N(0,1) N(0,1)

)y()yY(PxX

P)x(F)xX(P YX Φ=≤=

σµ−

≤σ

µ−==≤1.

Bestimmen von Intervallwahrscheinlichkeiten:

2.

)y(1)yY(P1xX

P1

)x(F1)xX(P1)xX(P

Y

X

Φ−=≤−=

σµ−

≤σ

µ−−

=−=≤−=>

3.

)y()y(yX

YyP

)x(F)x(F)xXx(P

1Y2Y21

1X2X21

Φ−Φ=

σµ−

=<=

−=≤<

σµ−

=

σµ−

=

22

11

xy

xy

4. Spezialfall von 3.

Seien x1 = µ - kσ und x2 = µ + kσ

Dann gilt: P(|X - µ|) ≤ kσ) = Φ(k) - Φ(-k) = 2 Φ(k) – 1

Bem.: Betrachtet man k = 1,2 und 3, so ergeben sich folgende Wahrscheinlichkeiten:

P(|X - µ|) ≤ 1σ) = 0,638

P(|X - µ|) ≤ 2σ) = 0,955

P(|X - µ|) ≤ 3σ) = 0,997 3σσσσ- Regel

d.h. es ist praktisch „fast sicher“, dass eine normal-verteilte ZG X Werte zwischen µ - 3σ und µ - 3σannimmt.

Bsp.: Eine Maschine füllt Tüten. Die Masse der Tüten (ZG X) sei normalverteilt mit X~ N(31,4; 0,04) [g].Eine Tüte ist normgerecht gefüllt, wenn X Werte imIntervall [30,9; 31,7] annimmt.

a) Wieviel % der Tüten sind normgerecht gefüllt?b) Wieviel % der Tüten sind nicht normgerecht gefüllt?c) Wieviel % der Tüten sind unterdosiert?d) Wieviel % der Tüten sind überdosiert?e) Wie müßte die untere Grenze des Toleranzbereiches

xu sein, damit nur 0,2 % der Tüten unterdosiert sind?f) Welchen Wert müßte die Standardabweichung σ

haben, damit bei ursprünglichem Toleranzbereich nur2% der Tüten unterdosiert sind?

Lösung:

a) P(A) = P(30,9 < X ≤ 31,7) = ΦY(1,5) - ΦY(-2,5) = 0,93319-(1-0,99379) = 0,92698 ≈ 92,7 %

b) P( ) = 1- P(A) = 7,3 %c) P(X ≤ 30,9) = ΦY(-2,5) = (1-0,99379) = 0,00621 ≈ 0,6 %d) P(X > 31,7) = 1- P(X ≤ 31,7) = 1 - ΦY(1,5) = 0,06681 ≈ 6,7 %e) P(X ≤ xu) = 0,002

A

= 002,02,0

4,31xuY =

−Φ 1-0,002 = 0,998

→ ΦY(2,88) = 0,998

→ ΦY(-2,88) = 0,002 → 88,22,0

4,31xu −=

→ xu = 30,824

002,04,319,30

Y =

σ−

Φ

f) analog zu e)

→ σ = 0,173688,2

4,319,30−=

σ−

Prüfverteilungen sind Verteilungen stetiger Zufallsgrößen, die insbesondere in der induktiven Statistik eine Rolle spielen.

Für die praktische Durchführung von Prüfverfahren benötigt man insbesondere die Quantile dieser Prüfverteilungen.

Def.: Sei X eine stetige ZG mit der Verteilungsfunktion FX

und p∈(0,1) ⊆ R.Dann heißt eine Zahl xp Quantil der Ordnung p, wenn Fx(xP) = P(X ≤ xP) = p gilt.

Bem.: Ein Quantil der Ordnung p = ½ heißt Median

2.4 Prüfverteilungen

χχχχ² - Verteilung (Helmert, 1876)

FG10203050100

Chi-Quadrat Verteilung

x

Dic

hte

0 30 60 90 120 150 1800

0,02

0,04

0,06

0,08

0,1

)m²(~²

²S)1n(W χ

σ−

=

Freiheitsgrad m = n-1

Das Quantil der Ordnung p der χ²-Verteilung mit m Freiheitsgraden wird mit χ²p;m

bezeichnet.

t-Verteilung („STUDENT“ , W. Gosset)

FG10203050100

t- Verteilung

x

Dic

hte

-6 -4 -2 0 2 4 60

0,1

0,2

0,3

0,4

FG10203050100

t- Verteilung

x

Ve

rte

ilun

gsf

un

ktio

n

-6 -4 -2 0 2 4 60

0,2

0,4

0,6

0,8

1- Das Quantil der Ordnung p der t- Vert. mit m FG- en wird mit tp;m bezeichnet.

- Die t- Verteilung ist symmetrisch und konvergiert für m→∞ gegen die Standardnormalverteilung

)m(t~nS

µXt ⋅

−=

F-Verteilung (Fisher)

FG10,1020,2030,3050,50100,100

F- Verteilung

x

Vert

eilu

ngsf

unkt

ion

0 1 2 3 4 50

0,2

0,4

0,6

0,8

1

FG10,1020,2030,3050,50100,100

F- Verteilung

x

Dic

hte

0 1 2 3 4 50

0,4

0,8

1,2

1,6

2

2,4

Das Quantil der Ordnung p der F-Verteilung mit m1 und m2

FG- en wird mit Fp;m1;m2

bezeichnet.

)m,m(F~S

SF 212

2

21=

/11/ Stahel, W. (1995)

3. SchließendeMethoden

Obj. Realität Stat. Modell

Merkmale

Messwerte

Zufallsgröße X mit best. Vert. oder Menge allerReal. der ZG, d.h. Menge E aller Versuchsausgänge:x1, x2, ...

= GG

= Mathem.Stichprobe

= KonkreteStichprobe

Menge aller möglichen Stichproben vom Umfang n: X = (X1, ..., Xn)

Realisierungen der ZG X:x = (x1, ..., xn)

1- Stichprobenproblem:

µ bei X~N(µ, σ2)

ρ0

Mod

σ2 bei X~N(µ, σ2)

MADth

γ1

γ2

Y

MAD

G1

G2

Y

mad

g1

g2

Y

GrundgesamtheitX

Mathematische Stichprobe(X1, Y, Xn)

Schätzfunktion (Stichprobenfunktion)

Konkrete Stichprobe(x1, Y, xn)Schätzwert

(Realisierung)

)x(Fn )x(Fn )x(FX

∑=

=n

1iix

n

1x ∑

=

=n

1iiX

n

1X

5,0x~ 5,0X~

modx modX

∑=

−−

=n

1i

2i

2 )xx(1n

1s ∑

=

−−

=n

1i

2i

2 )XX(1n

1S

Wichtigste Aufgabe der Statistik:

Aus den in der Stichprobe enthaltenen Informationen Aussagen über die Grundgesamtheit zu gewinnen!

Es treten dabei 2 wichtige Probleme auf:

1. Schätzen der Verteilung der GG bzw. von Parametern

2. Prüfen von Hypothesen über die Verteilung der GG bzw.von Parametern

Wir betrachten Punkt- und Intervallschätzungen für Parameter von Zufallsgrößen. Auf der Basis konkreter Stichproben führen: Punktschätzungen ⇒⇒⇒⇒ Näherungswerten und Intervallschätzungen ⇒⇒⇒⇒ Näherungsintervallenfür einen unbekannten Parameter.

1. Punktschätzungen

Bei Punktschätzungen wird ein einziger aus der Stichprobe gewonnener Wert zur Schätzung des unbekannten Parameters herangezogen.

Ein Punktschätzer ist eine Stichprobenfunktion T(X1,J, Xn)der math. Stichprobe und ein Schätzwert ist eine Realisierungt(x1,J, xn) auf der Basis der konkreten Stichprobe.

3.1 Punktschätzungen und Konfidenzintervalle

Bsp.: Unter der Voraussetzung, dass die GG X normalverteiltist mit EX = µ und D2X = σ2 , haben die Punktschätzer

∑=

=n

1iiX

n

1X

die besten statistischen Eigenschaften(Erwartungstreue, Konsistenz, Effizienz, Suffizienz)!

∑=

−−

=n

1i

2i

2 )XX(1n

1Sund

Man erhält Punktschätzer mit folgenden Schätzmethoden:

Momentenmethode Maximum Likelihood- Methode (MLM) Methode der kleinsten Quadrate (MkQ)

Die Realisierungen und s2 stellen die zugehörigen Punktschätzwerte (reelle Zahlen) aufgrund einer konkreten Stichprobe dar.

x

Veranschaulichung von Treff- und WiederholgenauigkeitParameter Θ (Schießscheibe)

Bem.: Die Treffgenauigkeit (Erwartungstreue) eines Schätzers ist hoch (Bias klein), wenn die Schätzwerte wiederholter Schätzungen den Parameter im Mittel gut treffen.Die Wiederholungsgenauigkeit (Präzision) ist hoch ( klein), wenn die Schätzwerte wiederholter Schätzungen nahe beieinander liegen.

Treff- u. Wieder-holungsgenauig-keit hoch

Treffgenauigkeitniedrig, Wiederholungs-genauigkeit hoch

Treffgenauigkeithoch, Wiederholungs-genauigkeitniedrig

Treff- u. Wieder-holungsgenauig-keit niedrig

θD 2

2. Konfidenzintervalle (Vertrauensintervalle)

Mit einer Punktschätzung gewinnen wir keine Aussage über die Genauigkeit einer solchen Schätzung.

Die Abweichungen einzelner Punktschätzwerte vom wahren Wert des Parameters können z.B. dann recht groß sein, wenn der Stichprobenumfang klein ist.

Mit Hilfe einer Intervallschätzung können wir uns eine Vor-stellung von der Genauigkeit der Schätzung verschaffen.

Def.: Ein Konfidenzintervall ist ein Intervall, dass einen unbekannten Parameter der Grundgesamtheit mit einer vorgegebenen Wahrscheinlichkeit (1-α) enthält.

Bsp.: Konfidenzintervall für den Erwartungswert µ einer normalverteilten GG

Sei X ~ N(µ, σ2) eine normalverteilte ZG und (X1, ..., Xn) eine mathematische Stichprobe aus der GG X.

1. Fall: Die Varianz σ2 der normalverteilten GG sei bekanntFür den unbekannten Parameter µ ist eine Konfidenz-schätzung anzugeben.

α−=

σ+<µ<⋅

σ−= α

−α

−1z

nXz

nXP

21

21

wobei das - Quantil der Standardnormalverteilung ist.

Dann hat das Konfidenzintervall für µ die Form:

21

z α−

)2

1(α

Jede konkrete Stichprobe liefert uns dann ein realisiertesKonfidenzintervall:

Dichtefunktion der Standard- Normalverteilung

z

Dic

hte

-5 -3 -1 1 3 5

0

0,1

0,2

0,3

0,4

21

z α−2

z α

α/2α/2

1-α

21

z α−

−=-Quantil der Standard- NV

21

α−

σ+⋅

σ− α

−α

−2

12

1z

nx;z

nx 2,332,580,010,99

1,641,960,050,95

z1-αα1-α 21

z α−

21z

21

α−=

Φ α

Bem.: Die Breite dieses Konfidenzintervalls für den Erwar-tungswert µ beträgt 2d und ist von α, n, σ und der Verteilung des zugehörigen Schätzers abhängig.

21

zn

2d2 α−

⋅σ

=

Je größer α desto kleiner das Konfidenzintervall

Je größer n desto kleiner das Konfidenzintervall

Die Breite des Konfidenzintervalls ist hier ein Maß für die Genauigkeit der Schätzung von µ und die Irrtumswahrscheinlichkeit α ein Maß für das Risiko.

⇒⇒⇒⇒ Planung des Stichprobenumfangs:geg.: halbe Breite des Konf.intervalls d,

Varianz ,Konfidenzniveau (1-α) 2

12

2

2

zd

n α−⋅

σ=→→→→

2. Fall: Die Varianz σ2 der normalverteilten GG sei nicht bekannt und muß geschätzt werden. Für den unbekannten Parameter µ ist eine Konfidenz-schätzung anzugeben.

Wir wählen als Punktschätzer:

∑=

=n

1iiX

n

1X

2n

1ii

2 )XX(1n

1S −

−= ∑

=

undfür den Erwartungswert µ:

für die Varianz σ2

wobei das - Quantil der t- Verteilung ist.

)1(tn

SXt

n

SXP

m;2

1m;2

1α−=

⋅+<µ<⋅− α

−α

m;2

1t α

Dann hat das Konfidenzintervall für µ die Form:

)2

1(α

Jede konkrete Stichprobe liefert uns wieder ein realisiertesKonfidenzintervall:

⋅+⋅− α

−α

− m;2

1m;2

1t

n

sx;t

n

sx

m;2

1t

n

sd α

−⋅=

Veranschaulichung analog wie beim 1. Fall!

Toleranzintervall: Anwendung bei der Kontrollkartentechnik:

( - Kontrollkarte)

µ0

1x3x 5x 7x

ix

m;2

10 t

n

−⋅−µ

m;2

10 t

n

−⋅+µ

Toleranz-bereich

Mittelwert liegt außerhalbdes Toleranzbereiches!

x

Es werden zwei Hypothesen für die GG aufgestellt:

die Nullhypothese H0 (Annahme über die Verteilung oder unbekannte Parameter in der Grundgesamtheit) und

die Alternativhypothese HA (wird angenommen, falls H0 verworfen wird)

Durch einen statistische Test wird eine Entscheidung zwischen beiden Hypothesen auf Grund einer Stichprobe herbeigeführt.

Bei der Entscheidung für eine der beiden Hypothesen durch einen Test kann man zwei Fehler begehen:

- Fehler 1. Art: Entscheidung für HA, obwohl H0 richtig ist und- Fehler 2. Art: Entscheidung für H0, obwohl HA richtig ist

3.2 Statistische Tests

Bsp. 2: Der Wassergehalt von Butter X sei normalverteilt. Auf Grund einer Stichprobe aus einer Molkerei soll geprüft werden, ob der erhaltene Mittelwert mit dem Qualitäts-sollwert µ0 = 15% verträglich ist, d.h. ob die Abweichung zwischen und µ0 nur zufällig ist oder ob stat. signifikante Unterschiede vorliegen.

H0 : µ = µ0 = 84% HA: µ ≠ µ0 = 84%

⇒⇒⇒⇒ Mittelwerttest für ein Einstichprobenproblem

x

Betrachten wir ein paar Beispiele:

Bsp. 1: Es ist auf Grund einer Stichprobe zu prüfen, ob die Länge von Escherichia Coli- Zellen eines best. Bakterienstammes normalverteilt ist.H0: FX = F0X HA: FX ≠ F0X (F0 - Vert.fkt. der Normalvert.!)

⇒⇒⇒⇒ Test auf Normalverteilung

Bsp. 3: Eine sehr zeitaufwendige Standardmethode M1 zur Bestimmung der Trockenmasse von Kondensmilch soll durch eine Schnellmethode M2 ersetzt werden. Auf der Basis zweier Stichproben ist nun zu prüfen, ob die Mittelwerte und Varianzen beider Methoden überein-stimmen oder ob es signifikante Unterschiede gibt. H0: µ1 = µ2 HA: µ1 ≠ µ2 (Vor.: NV!)H0: σ1

2 = σ22 HA: σ1

2 ≠ σ22

⇒⇒⇒⇒ Mittelwert- und Varianztest für ein 2-Stichproben-problem

Bsp.4: Es ist zu prüfen, ob in einer Stichprobe ein stark nach oben (bzw. nach unten) abweichender Wert als „Ausreißer“ zu betrachten ist. (Vor.: NV!)

H0: xmax ist kein Ausreißer HA: xmax ist ein Ausreißer

⇒⇒⇒⇒ Ausreißertest

Güte des Tests (1- ββββ)ββββ

richtige EntscheidungFehler 2. ArtHA richtig

Irrtumswahrsch. ααααSicherheitswahrsch. (1- αααα)

Fehler 1. Artrichtige EntscheidungH0 richtig

Entscheidung für HA

H0 wird abgelehntEntscheidung für H0

HA wird abgelehntRealität

Mögliche Entscheidungen bei einem stat. Test:

Bei zwei Entscheidungen entscheidet man sich richtig, jeweils mit den Wahrscheinlichkeiten (1- αααα) bzw. (1- ββββ) .

Führt ein Test nun zur Ablehnung von H0, so ist diese Entscheidung für HA mit einer Irrtumswahrscheinlichkeit von αbehaftet und man sagt:Das Ergebnis ist signifikant zum Signifikanzniveau αααα.

Bem.: 1. Beim Signifikanztest (auch α- Test genannt) wird nur der Fehler 1. Art durch die Vorgabe von αkontrolliert, während der Fehler 2. Art, der mit der (unbekannten) Wahrscheinlichkeit β auftritt, unberück-sichtigt bleibt.Daher formuliert man die Hypothesen so, dass der Fehler 1. Art der in seinen Folgen schwerwiegendereist, den man auf jeden Fall vermeiden möchte!

2. Beide Fehler kann man nicht gleichzeitig minimieren. Denn: Je kleiner der eine Fehler ist, desto größer wird

der andere.Aber: Beide Fehler werden bei der Planung des

Stichprobenumfanges mit berücksichtigt.

3. Das Signifikanzniveau αααα ist unter Beachtung der konkreten Aufgabenstellung und insbesondere der Folgen des Fehlers 1. Art festzulegen.Übliche Werte für α sind: 0,1; 0,05; 0,01; 0,005; 0,001.

Arten statistischer Tests

Ann. eines best. Ver-teilungstyps (z.B. NV!) für die GG,

Prüfung von Hypothesen über die Parameter (z.B. Erwartungswert und Varianz)

Keine Ann. eines best. Ver-teilungstyps für die GG, nur Stetigkeit oder Diskretheit,

Prüfung von Hypothesen über die Art der Verteilung (z.B. NV durch Anpassungstests) oder Parameter (z.B. Median)

Tests basieren oft auf Rang-statistiken

Parametrische TestsVerteilungsfreie(nichtparametrische) Tests

Allgemeine Vorgehensweise bei einem Parametertest:

1. Formulierung der Aufgabenstellung, einschließlich aller Voraussetzungen über die GG

2. Aufstellen der Null- und Alternativhypothese H0 und HA

3. Wahl der Stichprobenfunktion T (Teststatistik) auf der Basis der math. Stichprobe und Angabe ihrer Verteilung bei richtiger Nullhypothese

4. Berechnung eines Wertes der Teststatistik t auf der Basis einer konkreten Stichprobe

5. Wahl des kritischen Bereiches K für vorgegebene Irrtumswahrscheinlichkeit α

6. TestentscheidungWenn t∈K → Ablehnung von H0 u. Annahme von HA

Wenn t∈K → Annahme von H0 u. Ablehnung von HA

1. Vergleich der Parameter einer NV mit Sollwerten -Einstichprobentest

Annahme: Sei X~N(µ, σ2), (X1, ..., Xn) math. Stichprobe aus GG X

3.2.1.1. Vergleich des Mittelwertes einer NV mit einem Sollwert (Einstichproben- Test)

1. Fall: σ2 bekannt (Gauß- oder Z- Test)1. Kann auf Grund einer Stichprobe geschlossen werden,

dass diese aus einer normalverteilten GG stammt, deren Erwartungswert µ gleich einem vorgegebenen Sollwert µ0 ist? Mit anderen Worten: Ist mit µ0 verträglich oderx

a) gibt es signifikante Abweichungen b) ist der MW echt größer als µ0

c) ist der MW echt kleiner als µ0?

→ 2- seit. Test

→ 1- seit. Test

)n

,(N~Xn

1X

n

1i

2

i∑=

σµ=

X )1,0(N~nX

Z 0 ⋅σµ−

=

Vor.: X~N(µ, σ2), σ2 ist bekannt

2. Null- und Alternativhypothese

a) H01: µ = µ0 b) H02: µ ≤ µ0 c) H03: µ ≥ µ0

HA1: µ ≠ µ0 HA2: µ > µ0 HA3: µ < µ0

2-seit. Fragestellung 1-seit. Fragestellung

Wählen als geeigneten Punktschätzer für µ und standardisieren:

3. Wahl der Teststatistik

X

→→→→ (unter H0!)

Teststatistikda

4. Berechnen des Wertes der Teststatistik

nx

z 0 ⋅σµ−

=

5. Wahl des kritischen Bereiches (Verwerfungsbereich) K

Der krit. Bereich ist abhängig von der Irrtumswahrschein-lichkeit α und der Art der Alternativhypothese.

P(Z∈K / H0) = α und P(Z∈K / H0) = (1- α)

Dichtefunktion der Standard- Normalverteilung

z

Dic

hte

-5 -3 -1 1 3 5

0

0,1

0,2

0,3

0,4

Dichtefunktion der Standard- Normalverteilung

zD

ich

te-5 -3 -1 1 3 5

0

0,1

0,2

0,3

0,4

a) HA1: µ ≠ µ0

Dichtefunktion der Standard- Normalverteilung

z

Dic

hte

-5 -3 -1 1 3 5

0

0,1

0,2

0,3

0,4

b) HA2: µ > µ0 c) HA3: µ < µ0

2

>= α−

21

z|z|/zK

+∞∪

∞−= α

−α ;zz;K

21

2

21

z α−

α/2 α/2

1-α

1-α 1-α

α α

α−1z αz

kritische Grenzen

( ) αα <=∞−= zz/zz;K( ) α−α− >=+∞= 11 zz/z;zK

Ann.bereich H0

21

zz α−

>α−> 1zz α< zz

6. Testentscheidung

H0: µ = µ0 wird abgelehnt, wenn

b) c)a)

Analog gilt:

H0 wird abgelehnt, wenn der zu z gehörige P-Wert < α ist.P heißt „Probability value“ oder „Grenzniveau“ oder „Über-schreitungswahrscheinlichkeit“. Er ermöglicht eine differenziertere Testentscheidung.

Häufig interpretiert man den P-Wert wie folgt:

Wenn P ≥ 0,05 → kein stat. sign. UnterschiedWenn 0,05 > P ≥ 0,01 → stat. sign. Unterschied *Wenn 0,01 > P ≥ 0,001 → stark sign. Unterschied **Wenn 0,001 > P → sehr stark sign. Unterschied ***

Ann.bereich von H0

1-α

Bem.: 1. Falls die Nullhypothese wahr ist, ergeben sich folgende Entscheidungsbereiche:

a) HA1: µ ≠ µ0

1-α

b) HA2: µ > µ0

Ann.bereich von H0

Die schraffierten Flächen α (Irrtumswahrscheinlichkeit) geben die Wahrscheinlichkeiten an, dass die Nullhypothese fälschlicherweise verworfen wird.

Bem.: 2. Falls die Nullhypothese falsch ist und µ = µ1 > µ0,ergeben sich folgende Entscheidungsbereiche:

a) HA1: µ ≠ µ0 b) HA2: µ > µ0

Die schraffierten Flächen (1-β) (Trennschärfe, Macht eines Tests) geben die Wahrscheinlichkeiten an, dass die wahre Alternativhypothese durch den Test auch angenommen wird.Die Macht (1-β) sinkt, je kleiner α wird.

Ann.bereich von HA Ann.bereich von HA

α/2 α

β β

2. Fall: σ2 unbekannt → Schätzen durch s2 (t- Test)

)1n(t~nS

Xt 0 −⋅

µ−=3. Teststatistik unter H0:

4. Wert der Teststatistik:

5. Kritischer Bereich K:

a) HA1: µ ≠ µ0

b) HA2: µ > µ0

c) HA3: µ < µ0

ns

xt 0 ⋅

µ−=

>=

+∞∪

∞−= α

−α

−α

m,2

1m,2

1m,2

t|t|/t;tt;K

( ) m,1m,1 tt/t;tK α−α− >=+∞=

( ) m,m, tt/tt;K αα <=∞−=

m,2

1t|t| α

−> m,1tt α−> m,tt α<

6. Testentscheidung

H0: µ = µ0 wird abgelehnt, wenn

b) c)a)

bzw. wenn der zu gehörige P-Wert < α ist.t

FG:10

Dichtefunktion der t- Verteilung

t

Dic

hte

-6 -4 -2 0 2 4 60

0,1

0,2

0,3

0,4

t

P-Wert

b)

α

10,1t α−

(1-α)- Quantil der t- Vert. zum FG 10

Hier:Annahmevon H0 !

Ann.bereich vonH0

Ein Test ist von folgenden Größen abhängig:

Mindestdifferenz d (Genauigkeitsvorgabe) Wahrscheinlichkeit für den Fehler 1. Art α Schranke für die Wahrscheinlichkeit für den Fehler 2. Art β0

Varianz σ2 (1. Fall) bzw. s2 (2. Fall)

a) b)

Verlauf der Gütefunktion (Macht, Power) eines zweiseitigenTests (für kleinen und großen Stichprobenumfang) und eines 1-seitigen Tests

Bsp.: Wassergehalt von Butter (Gauß- Test)

1. Für die Zufallsgröße X – Wassergehalt [%] von Butter sei NV-Annahme gerechtfertigt. Es liegt eine Stichprobe vom Umfang 10 vor und es ist durch einen Test zu prüfen, ob diese Stichprobe aus einer GG mit dem Erwartungswert µ0 = 15,2 [%] (Sollwert) stammt. Die Varianz σ2 = 0,04 [%]2

kann als bekannt vorausgesetzt werden.a) Weicht signifikant von µ0 ab? oderb) Ist signifikant größer als µ0?Die Messwerte seien: 15,05 15,52 15,44 15,35 15,24

14,89 15,47 15,28 15,18 15,39

2. Hypothesen: a) H01: µ = µ0 b) H02: µ ≤ µ0

HA1: µ ≠ µ0 HA2: µ > µ0

3. Teststatistik:

xx

)1,0(N~nX

Z 0 ⋅σµ−

=

4. Wert der Teststatistik: 28,1nx

z 0 =⋅σµ−

= [%]28,15x =

96,1z2

1=α

−645,1z =α

5. Kritischer Bereich K:

α = 0,05 →

a) b)

+∞∪

∞−= α

−α ;zz;K

21

2

>= α−

21

z|z|/zK

( )+∞= α− ;zK 1

α−>= 1zz/zK

6. Testentscheidung:

96,1z28,1|z|2

1=<= α

−645,1zz 1 =< α−

Ergebnis:Für α = 0,05 wird H0 beibehalten, sowohl bei der 2- seitigenals auch bei der 1- seitigen Fragestellung. D.h.: Abweichungen bzw. eine Überschreitung des

Sollwertes sind nicht feststellbar.

)m(t~nS

Xt 0 ⋅

µ−=

2934,1ns

xt 0 =⋅

µ−=

[%]281,15x =

26,2tt9,

21m,

21

== α−

α−

83,1tt 9,1m,1 == α−α−

Bem.: Wäre die Varianz σ2 = 0,04 [%]2 nicht bekannt, dann müsste sie durch s2 geschätzt werden (t- Test, 2. Fall)

b)

3. Teststatistik:

4. Wert der Teststatistik:

α = 0,05 →

s = 0,198 [%]

n = 10

a) 5. Kritischer Bereich K:

6. Testentscheidung:m,

21

t|t| α−

≤ 9,1t29,1t α−≤=

Ergebnis:Für α = 0,05 sind Abweichungen bzw. eine Überschreitung des Sollwertes nicht feststellbar.

Allgemeine Bemerkungen zu Hypothesentests

1. Erweist sich ein Unterschied als nicht signifikant, so sagt das noch nicht, dass damit die Hypothese wahr ist.Es sagt bloß: Die Hypothese steht zum Ergebnis der Stichprobe nicht im Widerspruch.

2. Ist die Abweichung des wahren Parameters, z.B. µ, vom Sollwert µ0 nur klein, wird das Ergebnis einer kleinen Stich-probe nur selten im Widerspruch zu µ0 stehen. D.h., ob eine bestehende Abweichung von der Hypothese erkannt wird oder nicht, hängt entscheidend von der Größe der Stichprobe ab. Wollte man das Ergebnis „nicht signifikant“ als eine Bestätigung der Nullhypothese auffassen, so brauchte man bloß eine hinreichend kleine Stichprobe zu wählen und könnte damit fast jede Nullhypothese bestätigen.

⇒ Als Nullhypothese wählt man daher stets das Gegenteil von dem, was man beweisen möchte und versucht, es zu widerlegen.

3. Eine Ablehnung von H0 und Annahme von HA bedeutet:

Wir können nicht sicher sein, uns richtig entschieden zu haben, in Wirklichkeit könnte auch H0 wahr sein, dann hätten wir jedoch H0 nur mit einer Wahrscheinlichkeit von höchstens α (Wahrscheinlichkeit für Fehler 1. Art) durch den Test abgelehnt, d.h. wir haben uns mit großer Sicherheit richtig entschieden.

4. Eine Annahme von H0 bedeutet:

Falls in Wirklichkeit HA wahr sein würde, hätten wir einen Fehler 2. Art begangen, deren Wahrscheinlichkeit durch den Signifikanztest nicht kontrolliert wird. Sie lässt sich allerdings durch die Gütefunktion bestimmen.

5. Es gilt nicht: Mit 95%-iger Sicherheit ist bei Ablehnung von H0 HA wahr. Wir wissen nur, dass in 95% der Fälle die wahre H0 durch den Test bestätigt wird und in 5% der Fälle nicht.

6. In zu kleinen Stichproben können selbst grosse, praktischbedeutsame Unterschiede oder Effekte nicht nach-gewiesen werden, da sie sich nicht klar genug von den zufälligen Fehlern abheben.

Mit grossen Stichproben kann man dagegen praktisch unwichtige Unterschiede oder Effekte als “statistisch signifikant” ausweisen.

⇒⇒⇒⇒ “Praktische Relevanz” beachten und auf der Basis von Vorgaben über die Wahrscheinlichkeiten für dieFehler 1. u. 2. Art den Stichprobenumfang berechnen!

HA1:

K = (- ∞, )∪( , ∞)

HA2: K = ( , ∞)m = n -1

H01: σ2 = σ0

2

HA1: σ2 ≠ σ0

2

H02: σ2 ≤ σ0

2

HA2: σ2 > σ02

Vergleich derVarianz mit einerKonstanten

1-Stichproben-

χχχχ2- Test

a)

b)

a) HA1:

K= (- ∞, )∪( , ∞)

HA2: K = (z 1-α, ∞)

HA3: K= (- ∞, z α)

b) HA1:

K = (- ∞, )∪( , ∞)

HA2: K = (t1-α,m , ∞)

HA3: K= (- ∞, tα,m)

a) σσσσ bekannt

b) σσσσ unbekannt

m = n-1

H01: µ = µ0

HA1: µ ≠ µ0

H02: µ ≤ µ0

HA2: µ > µ0

H03: µ ≥ µ0

HA3: µ < µ0

Vergleich des Mittelwertes mit einer Konstanten

a) 1-Stichproben-Gauß-Test

b) 1-Stichproben-t-Test

EntscheidungAnnahme H0

P ≥≥≥≥ 0,05Krit. BereichTeststatistikH0 und HAArt des Tests

Übersicht über Parametertests (1- und 2- Stichprobenproblem)

)1,0(N~nX

Z 0 ⋅σ

µ−=

)m(t~nS

Xt 0 ⋅

µ−=

2

21

z α−

m,2

tαm,

21

t α−

21

zz α−

α−≤ 1zz

α≥ zz

m,2

1tt α

−≤

m,1tt α−≤

m,tt α≥

)m(~S)1n( 2

20

22 χ

σ−

2

m,2

αχ 2

m,2

−χ

2m,1 α−χ

2

m,2

1

22

m,2

ˆ α−

α χ≤χ≤χ

2m,1

2ˆ α−χ≤χ

b)b) HA1:

K = (- ∞, )∪( , ∞)

HA2: K = (t1-α,m , ∞)

m = n1+n2 -2

b) σσσσ12, σσσσ2

2

unbekannt, aber

σσσσ12= σσσσ2

2

m = n1+n2 -2

b) 2-Stichproben-t-Test

a)a) HA1:

K= (- ∞, )∪( , ∞)

HA2: K = (z 1-α, ∞)

a) σσσσ1, σσσσ2 bekannt

H01: µ1 = µ2

HA1: µ1 ≠ µ2

H02: µ1 ≤ µ2

HA2: µ1 > µ2

Vergleich von 2 Mittelwerten bei unabhängigen Stichproben

a) 2-Stichproben-Gauß-Test

EntscheidungAnnahme H0

P ≥≥≥≥ 0,05Krit. BereichTeststatistikH0 und HAArt des Tests

)1,0(N~

nn

XXZ

2

22

1

21

21

σ+

σ

−=

)m(t~nn

nn

S

XXt

21

21

d

21

+

⋅⋅

−=

2nn

S)1n(S)1n(S

21

222

211

d −+

−+−=

2

21

z α− 2

1zz α

−≤

α−≤ 1zz

m,2

tαm,

21

t α−

m,2

1tt α

−≤

m,1tt α−≤

H01: σ12 = σ2

2

HA1: σ12 ≠ σ2

2

H02: σ11 ≤ σ2

2

HA2: σ11 > σ2

2

HA1:

K = (- ∞, )

∪ ( , ∞)

HA2: K = ( , ∞)

m1 = n1 – 1; m2 = n2 - 1

Vor.: s12 ≥ s2

2 , sonst Stichproben ver-tauschen!

Vergleich von 2 Varianzen bei unabhängigen Stichproben

2-Stichproben-

F-Test

c)c) HA1:

K= (- ∞, )∪( , ∞)

HA2: K = (t1-α,m , ∞)

aber.: unterschiedliches m

im Vergleich zu b)!

c) σσσσ12, σσσσ2

2

unbekannt, aber

σσσσ12≠≠≠≠ σσσσ2

2

mit

und

H01: µ1 = µ2

HA1: µ1 ≠ µ2

H02: µ1 ≤ µ2

HA2: µ1 > µ2

Vergleich von 2 Mittelwerten bei unabhängigen Stichproben

c) 2-Stichproben-t-Test mit Welch-Korrektur

EntscheidungAnnahme H0

P ≥≥≥≥ 0,05Krit. BereichTeststatistikH0 und HAArt des Tests

m,2

tαm,

21

t α− m,

21

tt α−

m,1tt α−≤)m(t~

n

S

n

S

XXt

2

22

1

21

21

+

−=

1n

)c1(

1n

c

m

1

1

2

2

2

−−

+−

=

2

22

1

21

1

22

n

s

n

s

n

s

c

+

=

)m,m(F~S

SF 212

2

21=

21 m,m,2

21 m,m,2

1F α

21 m,m,1F α−

2121 m,m,2

1m,m,2

FfF α−

α ≤≤

21 m,m,1Ff α−≤

- Die Varianzanalyse ermöglicht es, Unterschiede zwischen den Erwartungswerten normalverteilter Zufallsgrößen (hier: Faktoren) in mehr als zwei Gruppen (oder Stufen) zu untersuchen. Sie ist damit eine Erweiterung des Mittelwert-vergleichs (t- Test) von zwei auf mehr als zwei Gruppen.

- Je nach Anzahl der Faktoren unterscheidet man zwischen einfaktorieller und mehrfaktorieller Varianzanalyse

- Bei VA- Modellen vom Typ I werden nur Faktoren mit festen Stufen betrachtet.

- Sie heißt Varianzanalyse, weil geprüft wird, ob die Variabilität zwischen den Gruppen größer ist als innerhalb der Gruppen.

Bsp.: 4 Laboratorien sind hinsichtlich ihres mittleren 2,3-Butandiolgehaltes in Wein zu vergleichen.

3.3 Varianzanalyse

Voraussetzungen für die Varianzanalyse:

Xi ~ N(µi, σ2) i = 1, ..., a j = 1, ..., ni

Homogenität der Varianzen: σi2 = σ2 ∀i

⇒ Bartlett-Test ( NV, ni > 5)Cochran-Test (NV, ni=n ∀i) Levéne-Test (keine NV)

Anz. der Gruppen od. Stufen

Umfang der i-ten Gruppe

a1 an

1a

n1

11

X

X

....

....

X

:

X

Man betrachtet a Stichproben:

VA- Modell I mit einfacher Klassifikation:

Xij = µi + εij i = 1, ..., a j = 1, ..., ni

Xij = µ + αi + εij mit εij ~ N(0, σ2) (zufälliger Fehler)

Xij:

- χ2- Anpassungstest- Shapiro- Wilks-Test- T. auf Schiefe und Exzess- Kolmogorov- Smirnov-T.

mit Lilliefors- Korrektur

wobei: µ - Gesamterwartungswertαi - Effekt der i- ten Stufe

des Faktors A;αi = µi - µ

Nr. der Wdhlg.

j L1 L2 L3 L4

1 0,780 0,810 0,760 0,7462 0,770 0,790 0,750 0,7503 0,780 0,770 0,720 0,7344 0,774 0,780 0,756 0,7415 0,750 0,760 0,770 0,7396 0,790 0,770 0,780 0,736xi. 0,774 0,780 0,756 0,741

si. 0,014 0,018 0,021 0,006

Stufen des Faktors: Labor

Bsp.: Vergleich des mittleren Butandiolgehaltes in 4 Laboratorien

Ausgangstabelle (Versuchsplan):

a = 4 ni = n = 6 N = 24

Anz. der Laboratorien Gruppenumfang Gesamtstichprobenumfang

Box- Whisker PlotB

uta

ndio

lgehalt

L 1 L 2 L 3 L 40,72

0,74

0,76

0,78

0,8

0,82

Box- Whisker Plot ansehen!

1. Unterscheiden sich die 4 Laboratorien hinsichtlich desmittleren Butandiolgehaltes von Wein, d.h. hat der Faktor“Laboratorium” Einfluss auf den Butandiolgehalt?

Vor.: Xi ~ N(µi, σ2) (?) i = 1, ..., 4 j = 1, ..., 6

Homogenität der Varianzen: (Test: H0: σ12 = ... = σ4

2

gegen HA: ∃ (i,j): σi2 ≠ σj

2 (i ≠ j)→ kann angenommen werden (?)

Modellannahme: Xij = µ + αi + εij mit εij ~ N(0, σ2)= µi + εij

2. Hypothesen:H0: µ1 = ... = µ4 äquivalent H0: α1 = ... = α4 = 0HA: ∃ (i,j): µi ≠ µj (i ≠ j) HA: ∃ (i,j): αi ≠ αj (i ≠ j)

G2

a

1i

n

1jij

2 SQ1N

1)XX(

1N

1s

i

−=−

−= ∑ ∑

= =⋅⋅

SQG – Summe der Abweichungsquadrate der Messwerte vom Gesamtmittelwert

SQG = SQI + SQZ

3. Teststatistik unter H0:

Teststatistik basiert auf Zerlegung der Summe der Abweichungsquadrate

Ausgangspunkt: Empirische Varianz s2

2a

1i

n

1jiijI )XX(SQ

i

∑ ∑= =

⋅−=

SQI - Summe der Ab-weichungsquadrateinnerhalb einer Gruppe (Stufe)

2a

1i

n

1jiZ )XX(SQ

i

∑ ∑= =

⋅⋅⋅ −=SQZ - Summe der Ab-

weichungsquadratezwischen den Gruppen (Stufen)

∑=

⋅ =in

1jij

ii X

n

1Xwobei Gruppenmittelwert

∑ ∑= =

⋅⋅ =a

1i

n

1jij

i

XN

1X Gesamtmittelwert

Es gilt ebenfalls: FGG = FGI + FGZ

(N-1) = (N-a) + (a-1)

G2

G SQ1N

1sMQ

−==⇒⇒⇒⇒

II SQaN

1MQ

−=

ZZ SQ1a

1MQ

−=

⇒ Teststatistik unter H0: )m,m(F~MQ

MQF 21

I

Z=

m1 = a-1 m2 = N-a

4. Wert der Teststatistik:

⇒ Varianztabelle (ANOVA-Tabelle)

QS QM

ZQSZQM

I

Z

QM

QMf =

IQS IQM

GQS GQMN-1

230,009538

Gesamt

= 7,820,00024

N-a

200,00482

innerhalb der Stufen

P =0,0012

0,00188

a-1

30,00565

zwischen den Stufen

P-Wert

Wert der Test-

statistikf

FGVariations-ursache

5. Kritischer Bereich K:

FG3,20

Dichtefunktion der F- Verteilung

Dic

hte

0 1 2 3 4 50

0,2

0,4

0,6

0,8

F

F 3; 20; 0,95

α

6. Testentscheidung:Wenn f > Fa-1; N-a; 1-α → Ablehnung von H0

Da 7,82 = f > F3; 19; 0,95 = 3,127 → Ablehnung von H0,

d.h. die Mittelwerte des Butandiolgehaltes der Laboratorien unterscheiden sich zum Signifikanzniveau α = 0,05.

H0: µi = µj (i ≠ j) gegen HA: µi ≠ µj (i≠j)

MW und 95%-iges HSD- Intervall von Tukey

MW

L 1 L 2 L 3 L 40,72

0,74

0,76

0,78

0,8

2

)1a(a

2

a −⋅=

Bem.: Wenn die Nullhypothese H0 abgelehnt wird, ist man daran interessiert, herauszufinden, welche Gruppen einen signifikant höheren oder niedrigeren Mittelwert aufweisen und schließt daher multiple paarweise Ver-gleiche, z.B. mit der Prozedur von Tukey- Kramer an.Man prüft dann den folgenden Hypothesenkomplex,

bestehend aus Hypothesen:

HSD- Test von Tukey- Kramer (α = 0,05 versuchsbezogen, wird für alle Vergleiche eingehalten!)

------------------------------------------------------------------------------------

Gruppe Anz. MW Homogene Gruppen------------------------------------------------------------------------------------L 4 6 0,741 X L 3 6 0,756 XXL 1 6 0,774 XL 2 6 0,78 X------------------------------------------------------------------------------------

Kontrast Differenz +/- Grenzen------------------------------------------------------------------------------------L 1 - L 2 -0,006 0,0251053 L 1 - L 3 0,018 0,0251053 L 1 - L 4 *0,033 0,0251053L 2 - L 3 0,024 0,0251053 L 2 - L 4 *0,039 0,0251053L 3 - L 4 0,015 0,0251053 ------------------------------------------------------------------------------------* statistisch signifikante Differenz (α = 0,05)

Ergebnis:

- Zwischen zwei Laboratorien gibt es statistisch signifikante Mittelwertunterschiede hinsichtlich des Butandiolgehaltesvon Weinen auf dem 5%- igen Signifikanzniveau, d.h. in 5 % aller Fälle liefert die HSD- Methode von Tukey-

Cramer fälschlicherweise ein oder mehr signifikante Paare mit Mittelwertdifferenzen.

- Zwei homogene Gruppen von Laboratorien wurden gebildet:Gruppe 1: L 3 und L 4 undGruppe 2: L 1, L 2 und L 3.

Bem.: Wenn Xi nicht normalverteilt und/ oder keine Varianz-homogenität vorliegen würde (s. Box- Whisker Plot!) → Kruskal- Wallis Test (unabh. Stichproben) anwenden!

H0: ζ1 =J= ζ4 (Mediane)Anz. MW der Ränge HA: ∃ (i,j): ζi ≠ ζj (i ≠j)

------------------------------------------------------------L 1 6 16,8333 L 2 6 17,75 L 3 6 10,75 L 4 6 4,66667 ------------------------------------------------------------

Wert der Teststatistik = 13,4436 →P- Wert = 0,0038 < α = 0,05 → Ablehnung von H0 (Gleichheit

der Mediane)

Um zu ermitteln, welcher der Mediane sich signifikant von welchem unterscheidet, kann man den Box- Whisker Plot mit der „notch option“ auswählen.

Bem.: Bei zwei oder mehr Faktoren im Varianzanalyse-modell können neben den Haupteffekten der Faktorenauch deren Wechselwirkungen bestimmt werden.

Bsp.: Der Vanadiumgehalt in Wein ist von den Faktoren „Land“, „Typ“ und „Farbe“ abhängig.

Means Plot with confidence limits for Vanadium(Interaction: Type*Country*Colour)

Czech Republic Hungary

Romania South Africa

White wines

Type: Authentic Commercial-1,0

-0,5

0,0

0,5

1,0

1,5

2,0

2,5V

an

ad

ium

Red wines

Type: Authentic Commercial

Wechsel-Wirkungs-plot