FORMELSAMMLUNG ZUR SCHLIESSENDEN STATISTIK · Dr. Roland Füss Statistik II: Schließende Statistik...

45
FORMELSAMMLUNG ZUR SCHLIESSENDEN STATISTIK I N H A L T : 1. Relationen zwischen zufälligen Ereignissen................................................................................................................ - 3 - 1.1 Enthaltenseinbeziehung .......................................................................................................................... - 3 - 1.2 Summe von Ereignissen........................................................................................................................... - 3 - 1.3 Produkt von Ereignissen ......................................................................................................................... - 3 - 1.4 Sicheres Ereignis ..................................................................................................................................... - 3 - 1.5 Unmögliches Ereignis............................................................................................................................. - 3 - 1.6 Komplementärereignis ............................................................................................................................. - 3 - 1.7 Sich ausschließende Ereignisse .............................................................................................................. - 3 - 1.8 Differenz zweier Ereignisse ...................................................................................................................... - 3 - 1.9 Gesetze über Ereignisse........................................................................................................................... - 3 - 2. Kombinatorik ............................................................................................................................................................... - 4 - 2.1 Fakultät .................................................................................................................................................... - 4 - 2.2 Permutationen ......................................................................................................................................... - 4 - 2.3 Kombinationen ........................................................................................................................................ - 4 - 2.4 Variationen............................................................................................................................................... - 4 - 2.5 Binomialkoeffizienten ............................................................................................................................. - 5 - 3. Wahrscheinlichkeitsrechnung...................................................................................................................................... - 5 - 3.1 Wahrscheinlichkeitsbegriffe................................................................................................................... - 5 - 3.2 Eigenschaften der Wahrscheinlichkeit .................................................................................................. - 6 - 3.3 Additionssatz ........................................................................................................................................... - 6 - 3.4 Bedingte Wahrscheinlichkeit ................................................................................................................. - 7 - 3.5 Multiplikationssatz (Allgemeiner Fall) ................................................................................................... - 7 - 3.6 Stochastische Unabhängigkeit .............................................................................................................. - 7 - 3.7 Satz über die totalen Wahrscheinlichkeiten und die Formel von Bayes ............................................ - 8 - 4. Zufallsvariable und Verteilungsfunktion ....................................................................................................................... - 8 - 4.1 Eindimensionale Zufallsvariable ............................................................................................................ - 8 - 4.1.1 Diskreter Fall ................................................................................................................................ - 8 - 4.1.2 Stetiger Fall .................................................................................................................................. - 9 - 4.2 Zweidimensionale Zufallsvariable (x,y) ............................................................................................... - 10 - 5. Kenngrößen von Wahrscheinlichkeitsverteilungen .................................................................................................... - 10 - 5.1 Erwartungswert (Mittelwert der Grundgesamtheit) ............................................................................ - 10 - 5.2 Das Rechnen mit Erwartungswerten ................................................................................................... - 12 - 5.3 Varianz ................................................................................................................................................... - 13 - 5.4 Sätze über die Varianzen ...................................................................................................................... - 13 - 5.5 Mittelwert und Varianz .......................................................................................................................... - 13 - 5.6 Standardisierung: X habe den Mittelwert μ x und die Varianz σ x 2 .................................................. - 14 - 5.7 Kovarianz ............................................................................................................................................... - 14 - 5.8 Sätze über die Kovarianz ...................................................................................................................... - 14 - 5.9 Korrelation ............................................................................................................................................. - 14 - 5.10 Momente von eindimensionalen Verteilungen ................................................................................... - 15 - Lehrstuhl für Empirische Wirtschaftsforschung und Ökonometrie Dr. Roland Füss Statistik II: Schließende Statistik SS 2007

Transcript of FORMELSAMMLUNG ZUR SCHLIESSENDEN STATISTIK · Dr. Roland Füss Statistik II: Schließende Statistik...

FORMELSAMMLUNG ZUR SCHLIESSENDEN STATISTIK I N H A L T :

1. Relationen zwischen zufälligen Ereignissen ................................................................................................................ - 3 - 1.1 Enthaltenseinbeziehung .......................................................................................................................... - 3 - 1.2 Summe von Ereignissen ........................................................................................................................... - 3 - 1.3 Produkt von Ereignissen ......................................................................................................................... - 3 - 1.4 Sicheres Ereignis ..................................................................................................................................... - 3 - 1.5 Unmögliches Ereignis ............................................................................................................................. - 3 - 1.6 Komplementärereignis ............................................................................................................................. - 3 - 1.7 Sich ausschließende Ereignisse .............................................................................................................. - 3 - 1.8 Differenz zweier Ereignisse ...................................................................................................................... - 3 - 1.9 Gesetze über Ereignisse ........................................................................................................................... - 3 -

2. Kombinatorik ............................................................................................................................................................... - 4 -

2.1 Fakultät .................................................................................................................................................... - 4 - 2.2 Permutationen ......................................................................................................................................... - 4 - 2.3 Kombinationen ........................................................................................................................................ - 4 - 2.4 Variationen ............................................................................................................................................... - 4 - 2.5 Binomialkoeffizienten ............................................................................................................................. - 5 -

3. Wahrscheinlichkeitsrechnung ...................................................................................................................................... - 5 - 3.1 Wahrscheinlichkeitsbegriffe................................................................................................................... - 5 - 3.2 Eigenschaften der Wahrscheinlichkeit .................................................................................................. - 6 - 3.3 Additionssatz ........................................................................................................................................... - 6 - 3.4 Bedingte Wahrscheinlichkeit ................................................................................................................. - 7 - 3.5 Multiplikationssatz (Allgemeiner Fall) ................................................................................................... - 7 - 3.6 Stochastische Unabhängigkeit .............................................................................................................. - 7 - 3.7 Satz über die totalen Wahrscheinlichkeiten und die Formel von Bayes ............................................ - 8 -

4. Zufallsvariable und Verteilungsfunktion ....................................................................................................................... - 8 -

4.1 Eindimensionale Zufallsvariable ............................................................................................................ - 8 - 4.1.1 Diskreter Fall ................................................................................................................................ - 8 - 4.1.2 Stetiger Fall .................................................................................................................................. - 9 -

4.2 Zweidimensionale Zufallsvariable (x,y) ............................................................................................... - 10 -

5. Kenngrößen von Wahrscheinlichkeitsverteilungen .................................................................................................... - 10 - 5.1 Erwartungswert (Mittelwert der Grundgesamtheit) ............................................................................ - 10 - 5.2 Das Rechnen mit Erwartungswerten ................................................................................................... - 12 - 5.3 Varianz ................................................................................................................................................... - 13 - 5.4 Sätze über die Varianzen ...................................................................................................................... - 13 - 5.5 Mittelwert und Varianz .......................................................................................................................... - 13 - 5.6 Standardisierung: X habe den Mittelwert μx und die Varianz σx2 .................................................. - 14 - 5.7 Kovarianz ............................................................................................................................................... - 14 - 5.8 Sätze über die Kovarianz ...................................................................................................................... - 14 - 5.9 Korrelation ............................................................................................................................................. - 14 - 5.10 Momente von eindimensionalen Verteilungen ................................................................................... - 15 -

Lehrstuhl für Empirische Wirtschaftsforschung und ÖkonometrieDr. Roland Füss ● Statistik II: Schließende Statistik ● SS 2007

Lehrstuhl für Empirische Wirtschaftsforschung und ÖkonometrieDr. Roland Füss ● Statistik II: Schließende Statistik ● SS 2007

5.11 Momenterzeugende Funktion ............................................................................................................... - 15 - 5.12 Momente von zweidimensionalen Verteilungen ................................................................................. - 16 - 5.13 Schiefe ................................................................................................................................................... - 16 - 5.14 Wölbung (Exzeß) ................................................................................................................................... - 16 -

6. Spezielle diskrete Wahrscheinlichkeitsmodelle ......................................................................................................... - 16 -

6.1 Bernoulli - Verteilung ............................................................................................................................ - 16 - 6.2 Geometrische Verteilung ...................................................................................................................... - 17 - 6.3 Binomialverteilung ................................................................................................................................ - 17 - 6.4 Poisson - Verteilung .............................................................................................................................. - 18 - 6.5 Hypergeometrische Verteilung ............................................................................................................ - 19 -

7. Spezielle stetige Wahrscheinlichkeitsmodelle ........................................................................................................... - 20 -

7.1 Normalverteilung ................................................................................................................................... - 20 - 7.1.1 Normalverteilung N(x∗μ,σ2) ...................................................................................................... - 20 - 7.1.2 Standardnormalverteilung N(x∗0,1) .......................................................................................... - 20 - 7.1.3 Mehrdimensionale Normalverteilung N(x∗μ,3) .......................................................................... - 23 -

7.2 Exponentialverteilung ........................................................................................................................... - 23 - 7.3 Lineare Verteilungen ............................................................................................................................. - 24 - 7.4 Testverteilungen .................................................................................................................................... - 25 -

8. Grenzwertsätze ......................................................................................................................................................... - 25 -

8.1 Stochastische Konvergenz................................................................................................................... - 25 - 8.2 Tschebyscheff'sche Ungleichung ........................................................................................................ - 26 - 8.3 Gesetz der großen Zahlen .................................................................................................................... - 26 - 8.4 Zentrale Grenzwertsätze ....................................................................................................................... - 27 -

9. Grundlagen der Schätztheorie .................................................................................................................................. - 28 -

9.1 Punktschätzungen ................................................................................................................................ - 28 - 9.2 Kriterien für Punktschätzungen ........................................................................................................... - 29 - 9.3 Intervallschätzungen ............................................................................................................................. - 30 - 9.4 Schätzfehler, Intervalllänge und Stichprobenverlauf ......................................................................... - 31 -

10. Testtheorie .............................................................................................................................................................. - 33 -

10.1 Fehlerarten und Entscheidungsregeln ................................................................................................ - 33 - 10.2 Unterschied bei Anteilssätzen und Mittelwerten ................................................................................ - 33 -

10.2.1 Ein - Stichproben - Problem ....................................................................................................... - 33 - 10.2.2 Zwei - Stichproben - Problem ..................................................................................................... - 34 -

10.3 Prüfung anderer Parameter .................................................................................................................. - 35 - 10.3.1 Unterschied der Varianzen ......................................................................................................... - 35 - 10.3.2 Abweichung des Korrelationskoeffizienten von 0 ....................................................................... - 36 -

10.4 χ2 -Test ................................................................................................................................................... - 36 - 10.4.1 Anpassungstest ......................................................................................................................... - 36 - 10.4.2 Unabhängigkeitstest zwischen zwei Variablen X , Y ................................................................. - 37 -

11. Nichtparametrische Testverfahren .......................................................................................................................... - 33 - Kritische Werte t(α) der t - Verteilung für verschiedene α ................................................................................... - 38 - Ausgewählte Werte der χ2 - Verteilung .................................................................................................................... - 39 - Kritische Werte F(α) der F - Verteilung ..................................................................................................................... - 40 - Wahrscheinlichkeiten der Standardnormalverteilung N(x∗0,1) .............................................................................. - 22 - Kritische Werte für Binomialverteilung, Mann-Whitney- und Wilcoxon-Test ............................................................ -42 -

1. Relationen zwischen zufälligen Ereignissen

Ereignis: A, B, C 1.1 Enthaltenseinbeziehung: A ⊂ B (A zieht B nach sich) 1.2 Summe von Ereignissen: A ∪ B (Es tritt A oder B ein; oder A und B treten gleichzeitig

ein.) 1.3 Produkt von Ereignissen: A ∩ B (Die Ereignisse treten gleichzeitig auf.) 1.4 Sicheres Ereignis: E

1.5 Unmögliches Ereignis: ∅ 1.6 Komplementärereignis: A A heißt das zu A komplementäre Ereignis 1.7 Sich ausschließende Ereignisse: A ∩ B = ∅ (A und B heißen unvereinbar (disjunkt,

wenn ihr gleichzeitiges Auftreten unmöglich ist.)

1.8 Differenz zweier Ereignisse: B \ A = B ∩ A (Alle Elemente in B, welche nicht in A sind.) 1.9 Gesetze über Ereignisse:

GESETZE

DURCHSCHNITT

VEREINIGUNG

Idempotenz

A ∩ A = A

A ∪ A = A Kommutativgesetz

A ∩ B = B ∩ A

A ∪ B = B ∪ A Assoziativgesetz

A ∩ (B ∩ C) = (A ∩ B) ∩ C

A ∪ (B ∪ C) = (A ∪ B) ∪ C Absorptionsgesetz

A ∩ (A ∪ B) = A

A ∪ (A ∩ B) = A Distributivgesetz

A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C)

(A ∪ B) ∩ (A ∪ C) = A ∪ (B ∩ C) Komplementgesetz

E = ∅; ∅ = E ; A ∩ A = ∅

A ∪ A = E; ( A )= A Gesetz für neutrale Elemente

A ∩ ∅ = ∅

A ∩ E = A

A ∪ E = E

A ∪ ∅ = A

- 4 -

2. Kombinatorik 2.1 Fakultät

(1) n 1) 3...(n 2 1 = ! n ⋅−⋅⋅ (Def.: O! = 1)

Näherungsformel von Stirling: (2) n 2 e n ! n nn π−⋅≈

2.2 Permutationen

Bei n verschiedenen Elementen: (3) nP = n ! Zirkularpermutation: (3a) ! )(n = Pn 1| − Bei k von n verschiedenen Elementen, mit n1 +n2 + ... + nk = n:

(4) nW

1 2 kP =

n !n ! n ! ... n !

2.3 Kombinationen (ohne Berücksichtigung der Anordnung)

Ohne Wiederholungen:

(5) nkC =

n

k =

n !k ! (n k) !

⎛⎝⎜

⎞⎠⎟ −

Mit Wiederholungen:

(6) wnkC =

n k 1

k=

(n + k - 1 ) !k ! ( n - 1 ) !

+ −⎛

⎝⎜

⎠⎟

2.4 Variationen (mit Berücksichtigung der Anordnung)

Ohne Wiederholungen:

(7) nkV =

n !(n k) !−

Mit Wiederholungen: (8) w

nk kV = n

- 5 -

2.5 Binomialkoeffizienten

Funktion der Binomialkoeffizienten

(9) ) 1 = ) n ( F ; n k 0 ( kn

= ) n ( F 0k ≤≤⎟⎟⎠

⎞⎜⎜⎝

Es gelten die Beziehungen:

(10a) ⎟⎟⎠

⎞⎜⎜⎝

⎛⎟⎟⎠

⎞⎜⎜⎝

⎛−⎟⎟

⎞⎜⎜⎝

⎛ +kn

+ k

n =

kn

11

(10b) ⎟⎟⎠

⎞⎜⎜⎝

⎛⎟⎟⎠

⎞⎜⎜⎝

⎛+⎟⎟

⎞⎜⎜⎝

⎛++

kn

+ k

n =

kn

111

(10c) ! k) (n ! k

! n =k

n =

kn

−⎟⎟⎠

⎞⎜⎜⎝

⎛−⎟⎟

⎞⎜⎜⎝

⎛1

(10d) 1 = n

⎟⎟⎠

⎞⎜⎜⎝

⎛0

(10e) 1 = ⎟⎟⎠

⎞⎜⎜⎝

⎛00

3. Wahrscheinlichkeitsrechnung 3.1 Wahrscheinlichkeitsbegriffe

3.1.1 Statistischer Wahrscheinlichkeitsbegriff:

(11) nn = ) A ( P A

n ∞→lim

3.1.2 Klassischer Wahrscheinlichkeitsbegriff:

(12) nn =

Fälle möglichen der AnzahlFälle günstigen der Anzahl = ) A ( P A

3.1.3 Axiomatischer Wahrscheinlichkeitsbegriff:

Indirekte Definition durch Angabe von Eigenschaften und Relationen (3 Grundaxiome): A1: Jedem zufälligen Ereignis A wird eine nicht-negative reelle Zahl W (die Wahrscheinlichkeit)

zugeordnet, die zwischen 0 und 1 liegt: (13) 1 ) A ( P 0 ≤≤

- 6 -

A2: Das sichere Ereignis E hat die Wahrscheinlichkeit eins:

(14) 1 = ) E ( P

A3: Bei sich ausschließenden Ereignissen addieren sich die Wahrscheinlichkeiten:

(15) ) B ( P + ) A P( = ) B A ( P ∪

3.1.4 Subjektiver Wahrscheinlichkeitsbegriff: Wahrscheinlichkeit ist das Maß für den Grad der Überzeugtheit von der Richtigkeit einer Aussage.

3.1.5 Geometrische Wahrscheinlichkeiten

Ist dem Ereignisraum E (mit überabzählbar unendlich vielen Elementarereignissen) ein endliches geometrisches Maß (Längen-, Flächen-, Volumenmaß) zugeordnet, so ist die Wahrscheinlichkeit des zufälligen Ereignisses A in E:

(16) E von VolumenA von Volumen bzw.

E von FlächeA von Fläche bzw.

E von LängeA von Länge = ) A ( P

3.2 Eigenschaften der Wahrscheinlichkeit

Die Wahrscheinlichkeit des unmöglichen Ereignisses ist gleich 0: (17) 0 = ) ( P ∅

Die Wahrscheinlichkeit des sicheren Ereignisses ist gleich 1: (18) W ( E ) = 1

Ist P(A) die Wahrscheinlichkeit des Ereignisses A und A das zu A komplementäre Ereignis, so gilt die Beziehung:

(19) W(A) + P( A ) = 1 = P(E) bzw. P( A ) = 1 - P(A)

Gilt für die zufälligen Ereignisse A und B die Beziehung A ⊂ B (A zieht B nach sich), so ist (20) P(A) ≤ P(B)

Sind A und B zwei beliebige Zufallsereignisse, dann ist

(21) P(A\B) = P(A) - P(A ∩ B)

3.3 Additionssatz

3.3.1 Für beliebige Ereignisse A und B:

(22) P(A ∪ B) = P(A) + P(B) - P(A ∩ B)

ausgedehnt auf die beliebigen Ereignisse A, B, C;

(23) P(A ∪ B ∪ C) = P(A) + P(B) + P(C) - P(A ∩ B) - P(A ∩ C) - P(B ∩ C) + P(A ∩ B ∩ C)

- 7 -

3.3.2 für sich ausschließende Ereignisse:

(24) P(A ∪ B) = P(A) + P(B)

bzw. bei n sich ausschließenden Ereignissen:

(25) P(A1 ∪ A2 ∪...∪ An) = P(A1) + P(A2) +...+ P(An) 3.4 Bedingte Wahrscheinlichkeit

Die Wahrscheinlichkeit des Ereignisses A unter der Bedingung, dass das Ereignis B eingetreten ist, wird bezeichnet mit:

(26) 0 > ) B ( P wenn) B ( P

) B A ( P = ) B A ( P ∩|

(27) 0 > ) A ( P wenn) A ( P

) B A ( P = ) A B ( P ∩|

Additionssatz für die Ereignisse A, B, C a) für beliebige Ereignisse A, B, C:

(28) P(A ∪ C ⎜B) = P(A ⎜B) + P(C ⎜B) - P(A ∩ C ⎜B)

b) für sich ausschließende Ereignisse A, C:

(29) ) B ( P

) B C ( P + ) B ( P

) B A ( P = ) B C ( P + ) B A ( P = ) B C A ( P ∩∩∪ |||

3.5 Multiplikationssatz (Allgemeiner Fall)

Haben zwei Ereignisse A und B bei einem Zufallsexperiment die Wahrscheinlichkeit P(A) bzw. P(B), so beträgt die Wahrscheinlichkeit des gleichzeitigen Eintreffens von A und B

(30) P(A ∩ B) = P(A) ∗ P(B ⎜A) = P(B) ∗ P(A ⎜B)

3.6 Stochastische Unabhängigkeit

Man nennt ein Ereignis A bzw. B stochastisch unabhängig von dem Ereignis B bzw. A, wenn die Gleichung (31) P(A⏐B) = P(A) bzw. P(B⏐A) = P(B)

besteht, das heißt das Eintreten des Ereignisses A bzw. B hängt vom Eintreten des Ereignisses B bzw. A nicht ab.

Multiplikationssatz (für unabhängige Ereignisse)

(32) P(A ∩ B) = P(A) ∗ P(B)

für n unabhängige Ereignisse gilt:

(33) P(A1 ∩ A2 ∩...∩ An) = P(A1) ∗ P(A2) ∗ ... ∗ P(An)

- 8 -

3.7 Satz über die totalen Wahrscheinlichkeiten und die Formel von Bayes

Schließen die n zufälligen Ereignisse A1, A2,..., An einander paarweise aus und ist das Ereignis A = A1 ∪ A2 ∪...∪ An das sichere Ereignis, so gilt für ein beliebiges zufälliges Ereignis B, das genau mit einem der Ereignisse Ai eintritt:

(34) ) A B ( P) A( P=)A P(B)AP(+. . . +)A(B P)A( P = B) P ii

n

1 = inn11 |||( ⋅⋅⋅ ∑

Unter den gleichen Voraussetzungen wie in (34) heißt die Formel von Bayes:

(35) ) n . . . j, . . . 1, = i ( ) A B ( P ) A ( P

) A B ( P ) A ( P = ) B | A ( P

ii

n

1 = i

jjj

|

|

4. Zufallsvariable und Verteilungsfunktion

4.1 Eindimensionale Zufallsvariable

4.1.1 Diskreter Fall

Wahrscheinlichkeitsfunktion Eine diskrete Zufallsvariable X nehme abzählbar viele Werte x1, x2, ..., xn mit den zugehöri-gen Wahrscheinlichkeiten f(xi) an. f(xi) heißt Wahrscheinlichkeitsfunktion (probability function). (36) p = ) x ( f = ) x = X ( P iii

Eigenschaften der Wahrscheinlichkeitsfunktion

(37a) 0 f ( x ) 1i≤ ≤ (37b) i = 1

n

if ( x ) = 1∑

Verteilungsfunktion (cumulative distribution function) (38) F ( x ) = W ( X x ) = f ( x )

ix xi≤

≤∑

Intervallwahrscheinlichkeiten (39) ) a ( F ) b ( F = ) x ( f = ) b X < a ( P i

b x < a i

−≤ ∑≤

aber: ) a ( f + ) a ( F ) b ( F = ) x ( f = ) b X a ( P i

b x a i

−≤≤ ∑≤≤

Eigenschaften der Verteilungsfunktion

(40) F(x) wächst monoton (Treppenfunktion) von

lim limx x +

F ( x ) = 0 bis F ( x ) = 1→ −∞ → ∞

- 9 -

4.1.2 Stetiger Fall

Grundannahme im stetigen Fall: Stetige Zufallsvariable; daneben wird stetige Differenzier-barkeit der Verteilungsfunktion bzw. Stetigkeit der Dichtefunktion gefordert.

Dichtefunktion (density function)

(41) f ( x ) = d F ( x )

d x

Eigenschaften der Dichtefunktion (42a) f ( x ) 0≥

(42b) −∞

∫+

f ( x ) d x = 1

Verteilungsfunktion (cumulative distribution function):

(43) u d )u ( f = ) x X ( P = ) x ( Fx

∫∞−

lntervallwahrscheinlichkeiten

(44) ) a ( F ) b ( F = x d ) x ( f = ) b X < a ( Pb

a

−≤ ∫

Für stetige Verteilungen gilt stets: (45) b)<Xa P(=b)<X<a P(=b)Xa P=b)X<(a P ≤≤≤≤ (

Eigenschaften der Verteilungsfunktion

(46) F(x) steigt monton und stetig von

lim limx x

F ( x ) = 0 bis F ( x ) = 1→ −∞ → +∞

- 10 -

4.2 Zweidimensionale Zufallsvariable (x,y)

Begriff

Nr.:

Diskreter Fall

Stetiger Fall

Wahrschein-

lichkeitsfunktion bzw.

Dichtefunktion

(47a)

(47b)

(47c)

f ( x , y )i j

0 f ( x , y ) 1i j≤ ≤

i ji j f ( x , y ) = 1∑∑

f ( x , y )

0 f ( x , y )≤

∫ ∫ f ( x , y ) d x d y = 1

Verteilungs-funktion

(48)

F (x , y) = f( x , y )i jx x y y

i j≤ ≤

∑ ∑

F ist eine Treppenfunktion und steigt von F(-∝,-∝) = 0 bis F(+∝,+∝) = 1.

v du d v) u f =y) ,F(xy

x

,(∫∫∞∞

F ist stetig differenzierbar und steigt monoton von F(-∝,-∝) = 0 bis F(+∝,+∝) = 1

Randverteilun-gen

(49a)

(49b)

f ( x ) = f ( x , y ) = pij

i j i ∑ •

f ( y ) = f ( x , y ) = pji

i j j∑ •

f ( x ) = f ( x , y ) d y − ∞

f ( y ) = f ( x , y ) d x −∞

Bedingte Ver-teilungen

(50a)

(50b)

f ( x y ) = f ( x , y )

f ( y )i j

i j

j|

f ( y x ) = f ( x , y )

f ( x )j ii j

i|

f ( x y ) = f ( x , y )

f ( y )|

f ( y x ) = f ( x , y )

f ( x )|

Bedingte

Erwartungs-werte

(51a)

(51b)

E ( X y ) = x f ( x | y ) = |ji = 1

k

i i j x y| ∑ μ

E ( Y x ) = y f ( y |x ) = |ij = 1

m

j j i y x| ∑ μ Unabhängigkeit

von X und Y

(52)

) y ( f )x( f=)y ,x( f jiji ⋅

)y ( f ) x ( f = )y ,x ( f ⋅

5. Kenngrößen von Wahrscheinlichkeitsverteilungen 5.1 Erwartungswert (Mittelwert der Grundgesamtheit)

(53a) Diskreter Fall: E ( X ) = x f ( x ) = x p = i = 1

N

i ii = 1

N

i i x∑ ∑ μ

(53b) Stetiger Fall: E ( X ) = x f ( x ) d x =

x− ∞

∫ μ

- 11 -

Wahrscheinlichkeitsfunktion f(zn) für die Summe der Augenzahlen

ni = 1

n

iz = x∑ , bei n = 1, 2, 3, 4, 5 Würfen mit einem regulären Würfel

zn

f(z1)

* 6

f(z2)

* 62

f(z3)

* 63

f(z4)

* 64

f(z5)

* 65

f(z1)

f(z2)

f(z3)

f(z4)

f(z5)

1 1 0,1667 2 1 1 0,1667 0,0278

3 1 2 1 0,1667 0,0555 0,0046

4 1 3 3 1 0,1667 0,0833 0,0139 0,0008

5 1 4 6 4 1 0,1667 0,1111 0,0278 0,0031 0,0001

6 1 5 10 10 5 0,1667 0,1388 0,0463 0,0077 0,0006

7 6 15 20 15 0,1667 0,0694 0,0154 0,0019

8 5 21 35 35 0,1388 0,0972 0,0270 0,0045

9 4 25 56 70 0,1111 0,1157 0,0432 0,0090

10 3 27 80 126 0,0833 0,1250 0,0617 0,0162

11 2 27 104 205 0,0555 0,1250 0,0802 0,0264

12 1 25 125 305 0,0278 0,1157 0,0965 0,0392

13 21 140 420 0,0972 0,1080 0,0540

14 15 146 540 0,0694 0,1127 0,0694

15 10 140 651 0,0463 0,1080 0,0837

16 6 125 735 0,0278 0,0965 0,0945

17 3 104 780 0,0139 0,0802 0,1003

18 1 80 780 0,0046 0,0617 0,1003

19 56 735 0,0432 0,0945

20 35 651 0,0270 0,0837

21 20 540 0,0154 0,0694

22 10 420 0,0077 0,0540

23 4 305 0,0031 0,0392

24 1 205 0,0008 0,0264

25 126 0,0162

26 70 0,0090

27 35 0,0045

28 15 0,0019

29 5 0,0006

30 1 0,0001

ϕ 6 36 = 62

216 = 63

1296 = 64

7776 = 65

1,0000 1,0000 1,0000 1,0000 1,0000

- 12 -

5.2 Das Rechnen mit Erwartungswerten

Der Erwartungswert ist ein linearer Operator

(54) E(a) = a

(55) E(b ∗ X) = b∗ E(X)

(56) E(a + b ∗ X) = a + b ∗ E(X)

(57) E(X+Y) = E(X) + E(Y)

(58) E(X1+X2+ ... +Xn) = E(X1) + E(X2) + ... + E(Xn)

(59) E(X ∗ Y) = E(X) ∗ E(Y) bei Unabhängigkeit !

Eine Funktion einer Zufallsvariablen ist im allgemeinen wieder eine Zufallsvariable. Erwartungswerte von mittelbaren Zufallsvariablen können berechnet werden, ohne dass die zugehörige Wahrscheinlichkeitsfunktion bekannt ist. Dazu dienen die Sätze:

(60) ) x ( f ) x ( = ) Y ( E ) X ( = Y ii

N

1 = i

⋅→Φ ∑φ

(61) ) y ,x ( f ) y ,x ( = ) Z( E ) Y ,X ( = Z jijiji

⋅→Ψ ∑∑ ψ

- 13 -

5.3 Varianz (62) ] ) X ( E X [ E = ) X ( Var 2−

(63a) Diskreter Fall: σμ 2xii

2N

1 = i

= ) x ( f ) x ( = ) X ( Var ⋅−∑

(63b) Stetiger Fall: σμ 2x

2

= x d ) x ( f ) x ( = ) X ( Var ⋅∫∞

∞−

(64) bweichung Standarda= ) X ( Var = xσ 5.4 Sätze über die Varianzen Verschiebungssatz

(65)

⎪⎪⎩

⎪⎪⎨

−⋅

−⋅

∑∞

∞−

μ

μ

22

2i

2i

N

1 = i22

x d ) x ( f x =

) x ( f x = ] ) X ( E [ ) X ( E = ) X Var(

(66) Var(a) = 0 (67) Var(X+a) = Var(X)

(68) Var(b ∗ X) = b2 ∗ Var(X)

(69) Var(a+b ∗ X) = b2 ∗ Var(X)

(70) σa+bX = │b│ ∗ σx

(71) Bei Unabhängigkeit von X , Y gilt:

Var(X+Y) = Var(X) + Var(Y)

(72) Bei Unabhängigkeit der Xi gilt: Var(X1+X2+ ... +Xn) = Var(X1) + Var(X2) + ... + Var(Xn) 5.5 Mittelwert und Varianz

einer Summe unabhängiger identisch verteilter Zufallsvariablen

(73) E(X1+X2+ ... +Xn) = n ∗ μ

(74) Var(X1+X2+ ... +Xn) = n ∗ σx2

- 14 -

5.6 Standardisierung: X habe den Mittelwert μx und die Varianz σx2

(75) σ

μ

x

x X = Z

(76) E(Z) = μz = 0

(77) Var(Z) = σz2 = 1 5.7 Kovarianz (Kenngröße und Unabhängigkeitsmaß für zweidimensionale Verteilungen)

(78) [ ][ ] σ y x = ) Y ( E Y [ ] ) X ( E X E = ) Y ,X ( Cov −⋅− (79) Diskreter Fall: ) y ,x ( f ) y ( ) x ( = ) Y ,X ( Cov jiyjxi

ji

⋅−⋅−∑∑ μμ

μμ yxjijiji

- ) y ,x ( f y x = ⋅⋅⋅∑∑

(80) Stetiger Fall: y d x d )y ,x ( f ) y ( ) x ( = ) Y ,X ( Cov yx

⋅−⋅−∫∫∞

∞−

∞−

μμ

5.8 Sätze über die Kovarianz

(81) μμ yx ) Y X ( E = ) Y ( E ) X ( E ) Y X ( E = ) Y ,X ( Cov ⋅−⋅⋅−⋅

Daraus folgt (Erwartungswert eines Produktes von Zufallsvariablen):

(82) E(X ∗ Y) = E(X) ∗ E(Y) + Cov(X,Y)

Bei Unabhängigkeit ist Cov(X,Y) = 0

(83) Cov(X,X) = V(X)

(84) Cov(a+b ∗ X, c+d ∗ Y) = b ∗ d Cov(X,Y)

Varianz einer Summe nicht unabhängiger Zufallsvariablen

(85) Var(X+Y) = Var(X) + Var(Y) + 2 ∗ Cov(X,Y)

(85a) V X = V ( X ) + Cov ( X , X )i = 1

n

ii = 1

n

ii ji j

i j∑ ∑ ∑ ∑⎛⎝⎜

⎞⎠⎟

5.9 Korrelation (Bravais - Pearson'scher Korrelationskoeffizient)

Unabhängigkeitsmaß bei zweidimensionalen Verteilungen

(86) σσ

σρyx

y x

=

) Y ( Var ) X ( Var ) Y ,X ( Cov = ) Y ,X (

⋅⋅

- 15 -

Eigenschaften der Korrelation: (87) ρ ρ ( X , Y ) = ( Y , X ) (88) 1 = ) X ,X ( −−ρ (89) ρ ( X , X ) = + 1 (90) − ≤ ≤ 1 + 1ρ

(91) ρρρ

( a + b X , c + d Y ) = ( X , Y ) falls ( sign b ) = ( sign d ) ( X , Y ) falls ( sign b ) ( sign d )− ≠

⎧⎨⎩

Bei Unabhängigkeit ist ρ(X,Y) = 0 (Umkehrung gilt nicht)

5.10 Momente von eindimensionalen Verteilungen

5.10.1 Allgemeine Momente (A ist ein beliebiger Wert):

(92) rrm ( A ) = E ( X A ) ( r = 1 , 2 , . . . )−

5.10.2 Momente um den Nullpunkt (Anfangsmomente) (A = O):

(93) x d ) x ( f x bzw. ) x ( f x = ) X ( E = ) 0 ( m r

i

ri

i

rr ⋅⋅ ∫∑

∞−

z.B.: m1(0) = E(X) = μ

5.10.2 Momente um den Mittelwert (Zentralmomente) (A = μ)

(94) x d ) x ( f ) x ( bzw.

) x ( f ) x ( = ) X ( E = ) ( m

r

iii

rrr

⋅−

⋅−−

∑∞

∞−

μ

μμμ

z.B.: m1(μ) = 0 (Schwerpunkteigenschaft)

m2(μ) = σ2

5.11 Momenterzeugende Funktion

(95) ( ) e E = ) t ( m X t (96) Diskreter Fall: ) x ( f e = ) t ( m i

x t

i

i ⋅∑

(97) Stetiger Fall: x d ) x ( f e = ) t ( m x t

⋅∫∞

- 16 -

5.12 Momente von zweidimensionalen Verteilungen

5.12.1 Momente um den Nullpunkt (Anfangsmomente): (98) ( ) Y X E = ) 0 ( m sr

sr z.B.: m10(0) = μx

m01(0) = μy

5.12.2 Momente um den Mittelwert (Zentralmomente): (99) ( ) ( )[ ] Y X E = ) ( m y

sx

r sr μμμ −⋅−

(100) 2 0 x2m ( ) = μ σ

(101) 0 2 y2m ( ) = μ σ

(102) 1 1 y xm ( ) = μ σ 5.13 Schiefe

(103) γμ

σμ

μ =

E ( X ) =

m ( )

m ( )

3

33

2

32

5.14 Wölbung (Exzeß)

(104) εμ

σμ

μ =

E ( X ) 3 =

m ( )m ( )

34

44

22

−− −

6. Spezielle diskrete Wahrscheinlichkeitsmodelle

6.1 Bernoulli - Verteilung

Eine Zufallsvariable (Bernoulli - Variable; 0,1 -Variable) nimmt die Werte 0 und 1 mit den Wahrscheinlichkeiten p und q an:

x

f(x)

0

q

1

p

sonst

0

(105) Wahrscheinlichkeitsfunktion: f(x) = pxq1-x

(106a) Mittelwert: μ = P

(106b) Varianz: σ2 = pq (106c) Momenterzeugende Funktion: mx(t) = 1 + p(et - 1)

- 17 -

6.2 Geometrische Verteilung Frage der Wahrscheinlichkeit des Eintritts des 1. Erfolges

Bed.: gleichbleibende Erfolgswahrscheinlichkeiten, stochastische Unabhängigkeit

Wahrscheinlichkeitsfunktion: (107a) . . . ,3 ,2 ,1 = x für q p = ) p | x ( g 1 x −⋅

Verteilungsfunktion:

(107b) q p = ) x ( F 1 kx

1 = kg

−⋅∑

Erwartungswert:

(108a) E ( X ) = = 1p

μ

Varianz:

(1O8b) p

p 1 = pq = = ) X ( Var 22

2 −σ

Momenterzeugende Funktion:

(108c) ) p 1 (e 1

e p = ) t ( m t

t

x −−⋅

6.3 Binomialverteilung

Urnenmodell: In einer Urne befinden sich M weiße und N - M schwarze Kugeln. Wie groß ist die Wahrscheinlichkeit bei einer (unabhängigen) Stichprobe mit Zurücklegen vom Umfang n genau x (0 # x # n) weiße Kugeln zu ziehen?

Bezeichnungen: p = Wahrscheinlichkeit für das Auftreten eines betrachteten (0,1) - Merkmals (z. B. weiße Kugeln)

in der Grundgesamtheit.

p = MN

= const. = Anteilssatz der weißen Kugeln.

q = 1 p = N M

N =−

− Anteilssatz der schwarzen Kugeln.

n = Anzahl der Elemente in einer unabhängigen Stichprobe (mit Zurücklegen bei endlicher Urne). x = Anzahl der Ereignisträger (z.B. weiße Kugeln) in einer Stichprobe

Wahrscheinlichkeitsfunktion:

(109) ) n ,. . . ,2 ,1 ,0 = x ( q p x

n = ) p ,n | x ( b = ) x ( f x nx −⋅⋅⎟⎟

⎞⎜⎜⎝

- 18 -

(109a) 1 = ) q + p ( = q p x

n = ) p ,n | x ( b nx nx

n

0 = x

n

0 = x

−⋅⋅⎟⎟⎠

⎞⎜⎜⎝

⎛∑∑

Verteilungsfunktion:

(11O) q p k

n = ) x ( F k nk

x

0 = kb

−⋅⋅⎟⎟⎠

⎞⎜⎜⎝

⎛∑

Erwartungswert: (111) p n = ⋅μ Varianz: (112a) q p n = 2 ⋅⋅σ Momenterzeugende Funktion:

(112b) mx(t) = [1 + p(et - 1)]n

Rekursionsformel:

(113) ) p ,n | x ( b qp

1 + xx n = ) p ,n | 1 + x ( b ⋅⋅

Relativierte Binomialvariable:

(114) ( ) X + . . . + X + X n1 =

nX = F n21⋅

(115a) p=μ

(115b) n

q p = 2 ⋅

σ

6.4 Poisson - Verteilung

Dieser Verteilung liegt im wesentlichen dasselbe Problem zugrunde wie der Binomialverteilung. Es unterscheidet sich nur darin, daß die Zahl n der aus der Urne gezogenen Kugeln sehr groß und die Wahrscheinlichkeit für das Ziehen einer bestimmten (z.B. weißen) Kugel sehr klein ist. (λ = np = const.)

Wahrscheinlichkeitsfunktion:

(116) ) . . . ,2 ,1 ,0 = x ( e ! x

= ) | x ( p x

λλλ −⋅

(116a) 1 = e e = e ! x

= ) | x ( p x

0 = x0 = x

λλλλλ −−∞∞

⋅⋅∑∑

Verteilungsfunktion:

(117) ! k

e = e ! k

= ) x ( Fk

x k

kx

0 = kp

λλ λλ ∑∑≤

−− ⋅⋅

- 19 -

Mittelwert und Varianz: (118) μ σ λ = = 2 Momenterzeugende Funktion: (119) ( )[ ] 1 e = ) t ( m t

x −μexp Rekursionsformel:

(120) ) | x ( p 1 + x

= ) | 1 + x ( p λλλ ⋅

Reproduktivität: Die Summe von Poisson-Variablen ist wieder poissonverteilt. 6.5 Hypergeometrische Verteilung

Urnenmodell: Endliche Urne wie bei der Binomialverteilung, Unabhängige Stichprobe ohne Zurücklegen.

Bezeichnungen: N = Anzahl der Elemente in der Grundgesamtheit. M = Anzahl der Elemente mit einem bestimmten alternativen Merkmal = Ereignisträger (z.B. weiße

Kugeln).

p = MN

= Wahrscheinlichkeit des Auftretens des betrachteten (0,1) - Merkmals (z. B. weiße

Kugeln) - p verändert sich von Zug zu Zug -.

q = 1 p = N M

N =−

− Gegenwahrscheinlichkeit

n = Anzahl der Elemente der Stichprobe (ohne Zurücklegen). x = Anzahl der Ereignisträger (z.B. weiße Kugeln) in der Stichprobe.

Wahrscheinlichkeitsfunktion:

(121)

⎟⎟⎠

⎞⎜⎜⎝

⎟⎟⎠

⎞⎜⎜⎝

−⋅⎟⎟

⎞⎜⎜⎝

n

Nx n

M N

x

M

= ) N ; M; n | x ( h

Verteilungsfunktion:

(122)

⎟⎟⎠

⎞⎜⎜⎝

⎟⎟⎠

⎞⎜⎜⎝

−⋅⎟⎟

⎞⎜⎜⎝

∑≤

n

Nk n

M N

k

M

= ) x ( Fx k

h

Mittelwert:

(123) p n = NM n = ⋅⋅μ

- 20 -

Varianz

(124) q p n 1 Nn N =

N M N

NM n

1 Nn N = 2 ⋅⋅⋅

−−−

⋅⋅⋅−−

σ

Rekursionsformel:

(125) ) NM;; n | x ( h 1)+x nM(N1)+(x

) x(M ) x (n=) N; M; n | 1+x ( h ⋅+−−⋅

−⋅−

7. Spezielle stetige Wahrscheinlichkeitsmodelle

7.1 Normalverteilung

7.1.1 Normalverteilung N(x│μ,σ2) Dichtefunktion:

(126) ) < x < ( 2

) x (

2 1=) x ( f=) , | x ( N

2

22 ∞∞−⎥

⎤⎢⎣

⎡ −−⋅

σμ

πσσμ exp

Verteilungsfunktion:

(127) ud 2

) u ( 2

1 = ) x ( F2

2x

⎥⎦

⎤⎢⎣

⎡ −⋅ ∫

∞− σμ

πσexp

Mittelwert und Varianz: (128a) E ( X ) = μ (128b) σ 2 = ) X ( Var Momenterzeugende Funktion:

(129) ⎟⎟⎠

⎞⎜⎜⎝

⎛ ⋅⋅

2t + t = ) t ( m

2

x

2

exp σμ

7.1.2 Standardnormalverteilung N(z│0,1)

Standardisierung:

(130) Z = X − μ

σ

Dichtefunktion:

(131) ) <z < ( 2z

21 = )z ( = ) 1 ,0 |z ( N

2

∞∞−⎟⎠

⎞⎜⎝

⎛−⋅ exp

πϕ

Verteilungsfunktion:

(132) u d 2u

21 = )z (

2z

⎟⎟⎠

⎞⎜⎜⎝

⎛−⋅ ∫

∞−

expπ

φ

Momenterzeugende Funktion:

(133) ⎟⎠⎞

⎜⎝⎛ ⋅ t

21 = ) t ( m 2

x exp

- 21 -

Wichtige Beziehung:

(134) F ( x ) = X

φμ

σ−⎛

⎝⎜⎞⎠⎟

Symmetrische Fläche unter der Dichtefunktion:

(135) u d 2u

21 = )z (

2z

z ⎟⎟⎠

⎞⎜⎜⎝

⎛−⋅ ∫

expπ

ψ

Es gelten folgende Beziehungen: (136a) φ φ ( z ) = 1 ( z )− −

(136b) φψ

( z ) = ( z )2

+ 12

(136c) ψ φ ( z ) = 2 ( z ) 12

−⎛⎝⎜

⎞⎠⎟

(137) ⎟⎠⎞

⎜⎝⎛ −

−⎟⎠⎞

⎜⎝⎛ −

−≤≤ a b = ) a ( F ) b ( F = ) b X a ( Wσ

μφσ

μφ

Kenngrößen: (138a) μ = 0 (138b) 2 = 1σ (138c) σ = 1 (138d) γ = 0 (138e) ε = 0

- 22 -

Wahrscheinlichkeiten der Standardnormalverteilung N(z∗0,1)

Werte der Verteilungsfunktion Symetrische Intervallwahrscheinlichkeit

Es gilt: Φ(-z) = 1 - Φ(z) Es gilt: ψ(z) = 2Φ(z) - 1

z

Φ(z)

ψ(z)

0,0

0,5000

0,0000

0,1

0,5398

0,0796 0,2

0,5793

0,1585

0,3

0,6179

0,2358 0,4

0,6554

0,3108

0,5

0,6915

0,3829 0,6

0,7257

0,4515

0,7

0,7580

0,5161 0,8

0,7881

0,5763

0,9

0,8159

0,6319 1,0

0,8413

0,6827

1,1

0,8643

0,7287 1,2

0,8849

0,7699

1,3

0,9032

0,8064 1,4

0,9192

0,8385

1,5

0,9332

0,8664 1,6

0,9452

0,8904

1,7

0,9554

0,9109 1,8

0,9641

0,9281

1,9

0,9713

0,9426 2,0

0,9772

0,9545

2,1

0,9821

0,9643 2,2

0,9861

0,9722

2,3

0,9893

0,9786 2,4

0,9918

0,9836

2,5

0,9938

0,9876 2,6

0,9953

0,9907

2,7

0,9965

0,9931 2,8

0,9974

0,9949

2,9

0,9981

0,9963 3,0

0,9986

0,9973

- 23 -

Häufig gebrauchte Werte: Φ (z) = 0,975 → z = 1,96 Φ (z) = 0,95 → z = 1,65

ψ (z) = 0,90 → z = 1,65 ψ (z) = 0,95 → z = 1,96 ψ (z) = 0,975 → z = 2,24 ψ (z) = 0,99 → z = 2,58

7.1.3 Mehrdimensionale Normalverteilung N(x│μ, ∑)

(μ = Erwartungswert, ∑ = Varianz-Kovarianz-Matrix, T = Transposition)

Dichtefunktion: (139a)

( )

⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟

⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜

⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟

⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜

⎥⎦⎤

⎢⎣⎡ −⋅∑⋅−⋅−⋅

∑⋅

σσσ

σσσ

σσσ

μ

μ

μ

μ

μμπ

μ

2n2 n1 n

n 2221 2

n 12 121

n

2

1

n

1 T n

...

.. ..

. . ..

. ...

...

. . .

= und

.

.

. = mit

R x für

) x ( ) x ( 21

2

1 = ) x ( f

xN

expdet

),|(

Momenterzeugende Funktion:

(139b) ( ) ( ) ⎥⎦⎤

⎢⎣⎡ ⋅∑⋅⋅ x x

21 + x = ) t ( m TT

x μexp

7.2 Exponentialverteilung

(140a) Dichtefunktion: f ( x ) = a e ( a > 0 ; x 0 ) a x− ≥ (140b) Verteilungsfunktion: F ( x ) = 1 e a x− −

(141a) Erwartungswert: μ = 1a

(141b) Varianz: 22 =

1a

σ

(141c) Momenterzeugende Funktion: xm ( t ) = 1

1 ta

keine Reproduktivität

- 24 -

7.3 Lineare Verteilungen

Verteilung

Dichtefunktion

Mittelwert/

Varianz

Gleich- verteilung (Rechtecks- verteilung)

(142a)

f ( x ) = 1

b a( a x b )

−≤ ≤

2

12) a b ( =

2b + a =

2 −σ

μ

linksschiefe Dreiecks- verteilung

(142b)

) b x a () a b (

) a x ( 2 = ) x ( f2

≤≤−

−⋅

18) a b (

=

3) b 2 + a ( =

22 −

σ

μ

rechts- schiefe

Dreiecks- verteilung

(142c)

) b x a () a b (

) x b ( 2 = ) x ( f2

≤≤−

−⋅

μ

σ

= ( 2 a + b )

3

= ( b a )

182

2−

Unimodale symmetrische

Dreiecks- verteilung

(142d)

⎪⎪⎩

⎪⎪⎨

⎟⎠⎞

⎜⎝⎛ ≤≤

−⋅

⎟⎠⎞

⎜⎝⎛ ≤≤

−⋅

bx2

b + a für

)ab () b x ( 4 -

2 b + a

x a für ) a b (

) a x ( 4

= ) x ( f

2

2

24) a b (

=

2b + a =

22 −

σ

μ

Symmetrische V - Verteilung

(142e)

f ( x ) =

-4x 2a 2b( b a )

für a x a+ b

2

4x - 2a 2b

( b a ) für

a + b2

2

2

+ +−

≤ ≤⎛⎝⎜

⎞⎠⎟

−−

⎛⎝⎜

⎞⎠⎟

⎨⎪⎪

⎩⎪⎪

8) a b (

=

2) b + a ( =

22 −

σ

μ

- 25 -

7.4 Testverteilungen Verteilungsfunktionen werden zur Prüfung statistischer Hypothesen herangezogen. Die Verteilungen sind tabelliert. Es handelt sich um unabhängige Zufallsvariablen.

7.4.1 χ2 - Verteilung

X1, X2, . . . , Xν seien standardnormalverteilt. Dann heißt

(143a) X = 2i

v

1 = i

2 ∑χ

χ2 - verteilt mit ν Freiheitsgraden [χ2 (ν)]

7.4.2 t - Verteilung (Student)

Ist X standardnormalverteilt und Y χ2(ν) - verteilt, so heißt

(144) Y

v1

X = t⋅

t - verteilt mit ν Freiheitsgraden [t(ν)].

7.4.3 F - Verteilung (Snedecor)

Ist X χ2(ν1) - verteilt und Y χ2(ν2) - verteilt, so heißt

(145) Y

v1

X v1

= F

2

1

F - verteilt mit (ν1,ν2) Freiheitsgraden [F(ν1,ν2)].

8. Grenzwertsätze

8.1 Stochastische Konvergenz 8.2

Eine Zufallsvariable Xn strebt mit n → ∞ stochastisch gegen θ (wahrer Wert), wenn für jedes ε > 0 gilt: (146) ( ) 1 = < | X | P n

nεθ−

∞→lim

8.3 Tschebyscheff'sche Ungleichung

X sei eine Zufallsvariable, c eine gegebene Konstante, ε > 0.

(147) ( ) )c X ( E 1 | c X | P 22

−⋅≤≥−ε

ε

Spezialisierung c = μ: Abweichungen einer Zufallsvariablen von ihrem Mittelwert.

(148) ( )εσεμ

2

2

| X | P ≤≥−

- 26 -

Man drückt ε durch Vielfaches von σ aus: ε = tσ

(149) ( )t1 t | X | P2

≤⋅≥− σμ

Umgeschrieben auf die Gegenwahrscheinlichkeit:

(150) ( )t1 1 t < | X | P2

−≥⋅− σμ

8.3 Gesetz der großen Zahlen

Homograder Fall (qualitative Merkmale) Theorem von Bernoulli

(151) ε

ε2 n

q p p nm P

⋅⋅

≤⎟⎟⎠

⎞⎜⎜⎝

⎛≥−

(152) ε

ε2 n

q p 1 < p nm P

⋅⋅

−≥⎟⎟⎠

⎞⎜⎜⎝

⎛−

für n → ∞ : Gesetz der großen Zahl

(153) 1 = < p nm P

n⎟⎟⎠

⎞⎜⎜⎝

⎛−

∞→

εlim

Heterograder Fall (quantitative Merkmale)

X1, X2, . . . , Xn seien identisch verteilte unabhängige Zufallsvariable (Stichprobe). Für den Mittelwert der Stichprobe gilt:

(154) ni = 1

n

iX = 1n

X∑

(155) ( )ε

σεμ2

2

n n X P

⋅≤≥−

(156) ( )ε

σεμ2

2

n n 1 < X P

⋅−≥−

für n → ∞ : Gesetz der großen Zahl (157) ( ) 1 = < X P n

nεμ−

∞→lim

Hauptsatz der mathematischen Statistik (Gliwenko): Die empirische Verteilungsfunktion einer Stichprobe konvergiert mit wachsendem Stichprobenumfang stochastisch gegen die Verteilungsfunktion der Grundgesamtheit.

- 27 -

8.4 Zentrale Grenzwertsätze

Grenzwertsatz von de Moivre, Laplace: Approximation der Binomialverteilung durch die Normalverteilung

(158) ) 1 ,0 |z ( N q p n

p n X = Z ≅⋅⋅

⋅−

Zentraler Grenzwertsatz: Unter sehr allgemeinen, praktisch immer erfüllten Bedingungen sind Summen und Durchschnitte (Stichprobenmittelwerte) von unabhängigen Zufallsvariablen für große n angenähert normalverteilt.

Grenzwertsatz von Lindeberg - Levy: X1, X2, . . . , Xn seien identisch verteilte unabhängige Zufallsvariable mit Mittelwert μ und Varianz σ2:

(159) ) 1 ,0 |z ( N n

n X + . . . + X + X = Z n21 ≅⋅

⋅−σ

μ

(160) ) 1 ,0 |z ( N n X = Z n ≅⋅

−σ

μ

Grenzwertsatz von Ljapunoff: X1, X2, . . . , Xn seien beliebig verteilte unabhängige Zufallsvariable mit Mittelwerten μi und Varianz σi2:

(161) ) 1 ,0 |z ( N

x = Z2i

i

iin

1 = i

≅−

∑∑

σ

μ

Folgerungen aus dem zentralen Grenzwertsatz:

1. Für große n und nicht zu kleine Werte von p (oder) q ( Als Faustregel gilt: npq > 4 −

brauchbare Näherung, npq > 9 ∼ gute Näherung;) kann die Binomialverteilung durch eine Normalverteilung approximiert werden (Grenzwertsatz von de Moivre, Laplace).

2. Für große n und kleine Auswahlsätze n/N läßt sich die hypergeometrische Verteilung durch eine

Normalverteilung approximieren.

3. Für λ > 4 (brauchbare Näherung) oder λ > 9 (gute Näherung) läßt sich die Poisson - Verteilung durch eine Normalverteilung approximieren.

(162) ) 1 ,0 |z ( N X = Z ≅

λλ

4. Für Summen und Durchschnitte von Variablen (Stichprobenmittelwerte) gilt, daß diese bei genügend großem n (n > 30) annähernd normalverteilt sind, gleichqültig, aus welcher Ausgangsverteilung sie stammen.

- 28 -

9. Grundlagen der Schätztheorie 9.1 Punktschätzungen

N = Umfang der Grundgesamtheit; n = Umfang der Stichprobe

Homograder Fall: (Qualitative Merkmale)

Grundgesamtheit: Urne mit zweierlei Kugeln, weiß und schwarz (O,1 - Variable).

(163) P = MN

= Anteilsatz in der Grundgesamtheit

(164) p = mn

= Anteilsatz in der Stichprobe

(165) = ) P 1 ( P = Q P = 2 −⋅σ Varianz der Grundgesamtheit

(166) = 1 n

q p n = s2

−⋅⋅ Varianz der Stichprobe

Heterograder Fall: (Quantitative, diskrete Merkmale)

Grundgesamtheit: Urne mit Kugeln auf denen zahlenmäßige Merkmalsausprägungen vemerkt sind.

Mittelwert und Varianz der Grundgesamtheit

(167) N

N xbzw

N

x =

ii

k

1 = ii

N

1 = i = ⋅∑∑

μμ .

(168) N

N ) x ( = bzw.

N

) x ( =

i2

i

k

1 = i2

2i

N

1 = i2

⋅−− ∑∑ μσ

μσ

Mittelwert und Varianz der Stichprobe

(169) n

n xx bzw.

n

x = x

ii

k

1 = ii

n

1 = i = ⋅∑∑

(170) 1n

n ) x x ( = s bzw.

1 n

) x x ( = s

i2

i

k

1 = i2

2i

n

1 = i2

⋅−

− ∑∑

- 29 -

Varianz der Stichprobenmittelwerte

Homograder Fall:

(171) 1Nn N

nQ P

= = ) P ( Var 2P −

−⋅

⋅σ (Fall ohne Zurücklegen)

(172) n

Q P = = ) P ( Var 2

P⋅

σ (Fall mit Zurücklegen)

Heterograder Fall:

(173) ( )1Nn N

n = = X Var

22X −

−⋅σσ (Fall ohne Zurücklegen)

(174) ( )n

= = X Var2

2X

σσ (Fall mit Zurücklegen)

Schätzwerte der Varianz der Stichprobenmittelwerte (Wenn nicht alle möglichen Stichprobenmittelwerte vorliegen)

Homograder Fall:

(175) N

n N 1nq p

= = ) p ( var 2p

−⋅

−⋅

σ̂ (Fall ohne Zurücklegen)

(176) 1nq p

= = ) p ( var 2p −

⋅σ̂ (Fall mit Zurücklegen)

Heterograder Fall:

(177) ( )N

n N ns = = x var

22x

−⋅σ̂ (Fall ohne Zurücklegen)

(178) ( )ns = = x var

22xσ̂ (Fall mit Zurücklegen)

9.2 Kriterien für Punktschätzungen (Kriterien guter Schätzfunktionen)

9.2.1. Konsistenz Bei zunehmendem Stichprobenumfang n strebt der Schätzwert n

$θ stochastisch gegen den wahren Wert θ. (179a) ( ) 1 = < P n

nεθθ −

∞→

ˆlim

(179b) z.B.: ( ) 1 = < X P n n

εμ−∞→

lim

- 30 -

9.2.2 Erwartungstreue Der Durchschnitt aller Stichprobenmittelwerte ergibt den wahren Wert: (180a) ( )E = $θ θ

(180b) z.B.: ( )E X = μ (180c) z.B.: ( )E S = 2 2σ (im Fall mit Zurücklegen)

(180d) z.B.: ( ) σ 22 1N

N = S E ⋅−

(im Fall ohne Zurücklegen)

9.2.3 Effizienz Von zwei erwartungstreuen Schätzfunktionen heißt diejenige effizienter, die die kleinere Varianz

besitzt. 1$θ heißt effizienter als 2

$θ , wenn gilt: (181) ( ) ( ) Var < Var 1 2

ˆˆ θθ 9.2.4 Asymptotische Normalverteilung

Strebt die Verteilung der Schätzwerte n$θ für großen Stichprobenumfang n gegen die

Normalverteilung so erhält man asymptotisch normalverteilte Schätzwerte. Bei großem n verteilen sich z.B. die Stichprobenmittelwerte asymptotisch normal.

9.2.5 Suffizienz

Gegebene Stichprobe schöpft alle relevanten Informationen aus. 9.3 Intervallschätzungen

Fall:

Inklusionsschluß (direkter Schluß)

Für den Anteilssatz in der Stichprobe:

Homograder

Fall

a) ohne Zurücklegen

(182) 1 Nn N

nQ Pz + P p

1 Nn N

nQPzP

−−

⋅⋅

⋅≤≤−−

⋅⋅

⋅−

b) mit Zurücklegen

(183) n

Q P z + P p n

Q P z P ⋅⋅≤≤

⋅⋅−

Für den Stichprobenmittelwert:

Heterograder

Fall

a) ohne Zurücklegen

(184) 1 Nn N

n z + x

1 Nn N

n z

−−

⋅⋅≤≤−−

⋅⋅−σμσμ

b) mit Zurücklegen

(185) n

z + x n

z σμσμ ⋅≤≤⋅−

- 31 -

Fall:

Repräsentationsschluß (indirekter Schluß)

Für den Anteilssatz in der Grundgesamtheit:

Homograder

Fall

a) ohne Zurücklegen

(186) N

n N 1 nq p z +p P

Nn N

1nq p z p −

⋅−⋅

⋅≤≤−

⋅−⋅

⋅−

b) mit Zurücklegen

(187) 1 nq p z + p P

1 nq p z p

−⋅

⋅≤≤−⋅

⋅−

Für den Mittelwert der Grundgesamtheit:

Heterograder

Fall

a) ohne Zurücklegen

(188) N

n N n

s z +x N

n N n

s z x −⋅⋅≤≤

−⋅⋅− μ

b) mit Zurücklegen

(189) n

s z + x n

s z x ⋅≤≤⋅− μ

Bemerkungen: 1. Die zugehörige Konfidenzwahrscheinlichkeit ist jeweils:

% 100 ) 1 ( = u d 2u

21 = )z (

2z

z

⋅−⎟⎟⎠

⎞⎜⎜⎝

⎛−⋅ ∫

απ

ψ exp

2. Der Korrekturfaktor für die Varianz N nN 1

N n

N = 1

nN

−−

≈−

− tritt nur im Fall ohne

Zurücklegen auf. Wird er im Fall ohne Zurücklegen vernachlässigt, so ergeben sich größere Vertrauensintervalle (d.h. schlechtere Abschätzungen). Für n/N ≤ 0,05 kann der Korrekturfaktor auch im Fall ohne Zurücklegen durch 1 ersetzt werden.

9.4 Schätzfehler, Intervallänge und Stichprobenverlauf

Der Schätzfehler ist definiert:

Heterograder Fall:

Homograder Fall:

(190) σ x z = e ⋅

(191) σ p z = e ⋅

wobei für x p bzw. σ σ die Formeln (171) bis (174) gelten.

- 32 -

Relativer Fehler = relative Genauigkeit

Homograder Fall ohne Zurücklegen:

(192) 1 Nn N

P nQ z =

Pe = er −

−⋅

⋅⋅

Heterograder Fall ohne Zurücklegen:

(193)

⎟⎟⎠

⎞⎜⎜⎝

−−

⋅⋅

tkoeffizienVariations = = V

1 Nn N

nV z = e = e

2

r

μσ

μ

Auflösung nach n ergibt die Formeln für den notwendigen Stichprobenumfang. Bei Vernachlässigung des Korrekturfaktors vereinfachen sich die Formeln.

Formeln für den notwendigen Stichprobenumfang

Fall:

ohne Korrekturfaktor

mit Korrekturfaktor*

Homograd:

Absoluter Fehler e vorgegeben

(194) e

Q P z n2

2 ⋅⋅≥

(195)

⎟⎟⎠

⎞⎜⎜⎝

⎛⋅⋅

⋅≥

Q P z

e N + 1

N n

2

2

Relativer Fehler er vorgegeben

(196) P eQ z n

2r

2

⋅⋅

(197)

⎟⎟⎠

⎞⎜⎜⎝

⎛⋅

⋅⋅≥

Q z

P e N + 1

N n

2

2r

Heterograd:

Absoluter Fehler e vorgegeben

(198) e z n2

22 σ⋅≥

(199)

⎟⎟⎠

⎞⎜⎜⎝

⎛⋅⋅

ze N + 1

N n

22

2

σ

Relativer Fehler er vorgegeben

(200) e

V z n2r

22 ⋅≥

(201)

⎟⎟⎠

⎞⎜⎜⎝

⎛⋅⋅

V ze N + 1

N n

22

2r

* Bei mit Korrekturfaktor wird der Einfachheit halber N - 1 ≈ N gesetzt.

Da PQ, σ2 bzw. Q/P, V2 unbekannt sind, müssen sie möglichst ungünstig (d.h. durch Maximalwerte) abgeschätzt werden.

- 33 -

10. Testtheorie 10.1 Fehlerarten und Entscheidungsregeln

Fehler 1. Art H0 wird verworfen, obwohl die Hypothese richtig ist. (Wahrscheinlichkeit des Fehlers = α bzw. Signifikanzniveau des Tests)

Fehler 2. Art H0 wird angenommen, obwohl die Hypothese falsch ist. (Wahrscheinlichkeit des Fehlers = β ; 1 - β = Güte des Tests)

Die Entscheidungsregel besagt: Ist die Teststatistik T , die aus der gegebenen Stichprobe errechnet wurde, kleiner als der kritische Wert bei gegebenem Signifikanzniveau α , dann behält man die Nullhypothese H0 bei, also bei

(202) | T | t ( ) bzw. F ( ) bzw. ( ) bzw. z2≤ α α χ α

Ist dagegen (203) | T | > t ( ) bzw. F ( ) bzw. ( ) bzw. z2α α χ α wird die Nullhypothese verworfen.

10.2 Unterschied bei Anteilssätzen und Mittelwerten

10.2.1 Ein - Stichproben - Problem

Homograder Fall (Anteilsätze): Stichprobenumfang n, Anteilsatz p (204)

( ) n

P 1 P P p

= T

P < P 3.P P 2.P > P 1.

: H ; P = P : H

00

0

0

0

0

100

⋅−⋅

- 34 -

Heterograder Fall (Mittelwerte): Stichprobenumfang n, Anteilsatz x (205)

n s x

= T

< 3. 2. > 1.

: H ; = : H

0

0

0

0

100

⋅−

μ

μμμμμμ

μμ

Die Testgröße T ist bei kleinem Stichprobenumfang t - verteilt, mit ν = n - 1 Freiheitsgraden und bei großem Stichprobenumfang (n > 30) standardnoralverteilt.

10.2.2 Zwei - Stichproben - Problem (σ - Differenz - Verfahren)

Homograder Fall:

Stichprobe 1: n1, p1; Stichprobe 2: n2, p2: (206)

( ) n1 +

n1 p 1 p

p p = T

P < P 3.P P 2.P > P 1.

: H ; P = P : H

21

21

21

21

21

1210

⎟⎟⎠

⎞⎜⎜⎝

⎛⋅−⋅

mit

(207) ( ) ( )2 n + n

p 1 p n p1 pn = ) p 1 ( p21

222111

−−⋅⋅+−⋅⋅

−⋅

- 35 -

Heterograder Fall:

Stichprobe 1: 1 1 12n , x , s Stichprobe 2: 2 2 2

2n , x , s (208)

n1 +

n1 s

x x = T

< 3. 2. > 1.

: H ; = : H

21

2

21

21

21

21

1210

⎟⎟⎠

⎞⎜⎜⎝

⎛⋅

μμμμμμ

μμ

mit

(209) 2 n + n

s ) 1 n ( + s ) 1 n ( = s

21

22

2112

−⋅−⋅− 2

Die Testgröße T ist bei kleinem Stichprobenumfang t - verteilt, mit ν = n1 + n2 - 2 Freiheitsgraden und bei großem Stichprobenumfang (n > 30) standardnormalverteilt.

10.3 Prüfung anderer Parameter

10.3.1 Unterschied der Varianzen

a) Ein - Stichprobenproblem

Stichprobe: n , s: (210)

σ

σσσσσσ

σσ

20

2

0

0

0

100

s ) 1 - n ( = T

< 3. 2. > 1.

: H ; = : H

Die Testgröße T ist χ2 - verteilt mit ν = n - 1 Freiheitsgraden.

- 36 -

b) Zwei - Stichprobenproblem Stichprobe 1: 1 1

2n , s Stichprobe 2: 2 22n , s

(211)

( )

0 1 2 1 1 2

12

22 1 2

H : = ; H : >

T = ss

bei s > s

σ σ σ σ

Die Testgröße T ist F - verteilt mit ν1 = n1 - 1 und ν2 = n2 - 1 Freiheitsgraden.

10.3.2 Abweichung des Korrelationskoeffizienten von 0

Korrelationskoeffizient einer Stichprobe mit Umfang n : (212)

2-n r - 1 = s

s ss =r

mit sr = T

22

yx

yx

0 : H ; 0 = : H 10 ρρ

Die Testgröße T ist t - verteilt mit ν = n - 2 Freiheitsgraden.

11. Nichtparametrische Testverfahren 11.4 χ2 -Test

11.4.1 Anpassungstest Test auf Übereinstimmung zwischen gegebener empirischer Häufigkeitsverteilung und theoretischer Verteilung i = 1 , .... k = Merkmale bzw. Klassen ni = empirisch beobachtete Werte (absolute Häufigkeiten) ei = n f(xi) = theoretisch erwartete Werte im diskreten Fall ei = n ΔFi(x) = theoretisch erwartete Werte im stetigen Fall

wobei: n =e n i

k

1 = ii

k

1 = i

= ∑∑

(213)

( )

0 0 1 0

i = 1

k 2i i

i i = 1

ki2

i

H : F ( x ) = F ( x ) ; H : F ( x ) F ( x )

T = n e

e =

ne

n

−−∑ ∑

Die Testgröße T ist χ2 - verteilt mit ν = k - 1 Freiheitsgraden.

- 37 -

11.4.2 Unabhängigkeitstest zwischen zwei Variablen X , Y

Test auf Übereinstimmung zwischen empirisch beobachteten Häufigkeiten nij (i = 1, ..., k; j = 1, ..., l) und den theoretisch erwarteten Häufigkeiten eij, die eintreffen würden, wenn X und Y unabhängig wären. Unabhängigkeitsannahme: fij = fi..f.j nij = empirisch beobachtete Häufigkeiten eij = n.fi..f.j = 1/n.(ni..n.j) = theoretisch erwartete Häufigkeiten

(214)

( )

0

1

i = 1

k

j = 1

l2

i j i j

i j

H : Die zwei Variablen sind unabhängigH : Die zwei Variablen sind abhängig

T = n e

e∑ ∑−

Die Testgröße T ist χ2 - verteilt mit ν = (k - 1)(l - 1) Freiheitsgraden.

Spezialfall: Es treten nur zwei Klassifikationen für die beiden Variablen auf: i = 1, 2; j = 1, 2 Dadurch reduziert sich die Kontigenztafel auf eine Vierfeldertafel:

j = 1

j = 2

fi.

i = 1

a

b

a + b

i = 2

c

d

c + d

f.j

a + c

b + d

a + b + c + d

= n

(215) ) d + c ( ) d + b ( ) c + a ( ) b + a (

n ) c b d a ( = T2

⋅⋅⋅⋅⋅−⋅

Die Testgröße T ist χ2 - verteilt mit ν = 1 Freiheitsgraden.

11.4.3 Kolmogorov-Smirnov –Test (216) )()( 0sup ii

x

xFxF= T −

- 38 -

11.4.4 Mann-Whitney-U-Test

(217) 111

21 2)1 R(nnnn = T −

++⋅

Die Testgröße T ist U-verteilt. Sie geht bei n1 > 10 und n2 > 10 in eine Normalverteilung mit denselben Parameter über.

11.4.5 Kruskall-Wallis-Test

(218) )1(3)1(

121

2

+⋅−⎟⎟⎠

⎞⎜⎜⎝

⎛⋅

+⋅ ∑=

nnR

nn = T

k

i i

i

Die Testgröße T ist h-verteilt. Sie geht bei ni > 5 in eine χ2-Verteilung mit. 1−= kνFreiheitsgraden über.

11.4.6 McNemar-Test

+ - + a b - c d

(219) Bei bTn =≤ :20 Die Testgröße T ist binomialverteilt mit 5,00 =p und bcn +=

(220) Bei cb

cbTn+

−=>

2)(:20

Die Testgröße T ist χ2-verteilt mit 1=ν Freiheitsgrad.

11.4.7 Cochrans Q-Test

(221) Bei ∑

∑∑

∑⋅

⋅⋅

−⋅

−−=

⎟⎠⎞

⎜⎝⎛ −−

= 2

22

2

))(1()(

)1(

i

j

ii

j

YYlYYll

YlYlYyll

T

Die Testgröße T ist χ2-verteilt mit )1( −= lν Freiheitsgraden.

11.4.8 Wilcoxon-Test

(222) ∑ += )(iRT

11.4.8 Friedman-Test

(223) ∑=

+−+⋅⋅

=l

jj lnR

llnT

1

2 )1(3)1(

12

Die Testgröße T ist χ2-verteilt mit )1( −= lν Freiheitsgraden (für 10≥n und 4≥l ).

- 39 -

Kritische Werte t(α) der t-Verteilung für verschiedene α

Signifikanzniveau α (Zweiseitige Frage-

stellung)

Zahl der Freiheitsgrade u 0,10 0,05 0,01 1 6,314 12,706 63,657 2 2,920 4,303 9,925 3 2,353 3,182 5,841 4 2,132 2,776 4,604 5 2,015 2,571 4,032 6 1,943 2,447 3,707 7 1,895 2,365 3,499 8 1,860 2,306 3,355 9 1,833 2,262 3,250 10 1,812 2,228 3,169 11 1,796 2,201 3,106 12 1,782 2,179 3,055 13 1,771 2,160 3,012 14 1,761 2,145 2,977 15 1,753 2,131 2,947 16 1,746 2,120 2,921 17 1,740 2,110 2,898 18 1,734 2,101 2,878 19 1,729 2,093 2,861 20 1,725 2,086 2,845 21 1,721 2,080 2,831 22 1,717 2,074 2,819 23 1,714 2,069 2,807 24 1,711 2,064 2,797 25 1,708 2,060 2,787 26 1,706 2,056 2,779 27 1,703 2,052 2,771 28 1,701 2,048 2,763 29 1,699 2,045 2,756 30 1,697 2,042 2,750 35 1,690 2,030 2,724 40 1,684 2,021 2,704 50 1,676 2,008 2,678 60 1,671 2,000 2,660 80 1,664 1,990 2,638 100 1,660 1,984 2,626 500 1,648 1,965 2,586

1000 1,646 1,962 2,581 ∞ 1,645 1,960 2,576

Zahl der Freiheitsgrade u 0,050 0,025 0,005

Signifikanzniveau α (einseitige Frage-

stellung)

- 40 -

Zahl der Freiheits-grade ν

Ausgewählte Werte der χ2-Verteilung

(für ν = 1, ... Freiheitsgrade und gegebene α-Werte)

Signifikanzniveau α 0 χ2(α)

α

0,99 0,95 0,90 0,10 0,05 0,01 1 0,00 0,00 0,02 2,70 3,84 6,63 2 0,02 0,10 0,21 4,60 5,99 9,21 3 0,11 0,35 0,58 6,25 7,81 11,34 4 0,30 0,71 1,06 7,78 9,49 13,28 5 0,55 1,14 1,61 9,24 11,07 15,09 6 0,87 1,64 2,20 10,64 12,59 16,81 7 1,24 2,17 2,83 12,02 14,07 18,48 8 1,65 2,73 3,49 13,36 15,51 20,09 9 2,09 3,32 4,17 14,68 16,92 21,67

10 2,56 3,94 4,86 15,99 18,31 23,21 11 3,05 4,57 5,58 17,28 19,68 24,72 12 3,57 5,23 6,30 18,55 21,03 26,22 13 4,11 5,89 7,04 19,81 22,36 27,69 14 4,66 6,57 7,79 21,06 23,68 29,14 15 5,23 7,26 8,55 22,31 25,00 30,58 16 5,81 7,96 9,31 23,54 26,30 32,00 17 6,41 8,67 10,08 24,77 27,59 33,41 18 7,01 9,39 10,86 25,99 28,87 34,80 19 7,63 10,12 11,65 27,20 30,14 36,19 20 8,26 10,85 12,44 28,41 31,41 37,57 21 8,90 11,59 13,24 29,62 32,67 38,93 22 9,54 12,34 14,04 30,81 33,92 40,29 23 10,20 13,09 14,85 32,01 35,17 41,64 24 10,86 13,85 15,66 33,20 36,42 42,98 25 11,52 14,61 16,47 34,38 37,65 44,31 26 12,20 15,38 17,29 35,56 38,88 45,64 27 12,88 16,15 18,11 36,74 40,11 46,96 28 13,56 16,93 18,94 37,92 41,34 48,28 29 14,26 17,71 19,77 39,09 42,56 49,59 30 14,95 18,49 20,60 40,26 43,77 50,89 40 22,16 26,51 29,05 51,80 55,76 63,69 50 29,71 34,76 37,69 63,17 67,50 76,15 60 37,48 43,19 46,46 74,40 79,08 88,38 70 45,44 51,74 55,33 85,53 90,53 100,42 80 53,54 60,39 64,28 96,58 101,88 112,33 90 61,75 69,13 73,29 107,56 113,14 124,12

100 70,06 77,93 82,36 118,50 124,34 135,81

- 41 -

Kritische Werte F(α) der F-Verteilung

(ν1 = Freiheitsgrade der größeren Varianz)

(α = 0,01)

0 F(α)

α

ν1

ν2

3 4 5 6 7 8 9 10 12 15 20 30 40 60 ∞

3 29,5 28,7 28,2 27,9 27,7 27,5 27,4 27,2 27,0 26,9 26,7 26,5 26,4 26,3 26,1

4 16,7 16,0 15,5 15,2 15,0 14,8 14,7 14,6 14,4 14,2 14,0 13,8 13,8 13,6 13,5

5 12,0 11,4 11,0 10,7 10,5 10,3 10,2 10,0 9,9 9,7 9,6 9,4 9,3 9,2 9,0

6 9,8 9,2 8,8 8,5 8,3 8,1 8,0 7,9 7,7 7,6 7,4 7,2 7,1 7,1 6,9

7 8,4 7,9 7,5 7,2 7,0 6,8 6,7 6,6 6,5 6,3 6,2 6,0 5,9 5,8 5,6

8 7,6 7,0 6,6 6,4 6,2 6,0 5,9 5,8 5,7 5,5 5,4 5,2 5,1 5,0 4,9

9 7,0 6,4 6,1 5,8 5,6 5,5 5,4 5,3 5,1 5,0 4,8 4,6 4,6 4,5 4,3

10 6,6 6,0 5,6 5,4 5,2 5,1 4,9 4,8 4,7 4,6 4,4 4,2 4,2 4,1 3,9

11 6,2 5,7 5,3 5,1 4,9 4,7 4,6 4,5 4,4 4,2 4,1 3,9 3,9 3,8 3,6

12 6,0 5,4 5,1 4,8 4,6 4,5 4,4 4,3 4,2 4,0 3,9 3,7 3,6 3,5 3,4

13 5,7 5,2 4,9 4,6 4,4 4,3 4,2 4,1 4,0 3,8 3,7 3,5 3,4 3,3 3,2

14 5,6 5,0 4,7 4,5 4,3 4,1 4,0 3,9 3,8 3,7 3,5 3,4 3,3 3,2 3,0

15 5,4 4,9 4,6 4,3 4,1 4,0 3,9 3,8 3,7 3,5 3,4 3,2 3,1 3,0 2,9

16 5,3 4,8 4,4 4,2 4,0 3,9 3,8 3,7 3,6 3,4 3,3 3,1 3,0 2,9 2,8

17 5,2 4,7 4,3 4,1 3,9 3,8 3,7 3,6 3,5 3,3 3,2 3,0 2,9 2,8 2,6

18 5,1 4,6 4,2 4,0 3,8 3,7 3,6 3,5 3,4 3,2 3,1 2,9 2,8 2,7 2,6

19 5,0 4,5 4,2 3,9 3,8 3,6 3,5 3,4 3,3 3,2 3,0 2,8 2,8 2,7 2,5

20 4,9 4,4 4,1 3,9 3,7 3,6 3,5 3,4 3,2 3,1 2,9 2,8 2,7 2,6 2,4

25 4,7 4,2 3,8 3,6 3,5 3,3 3,2 3,1 3,0 2,8 2,7 2,5 2,4 2,4 2,2

30 4,5 4,0 3,7 3,5 3,3 3,2 3,2 3,0 2,8 2,7 2,6 2,4 2,3 2,2 2,0

40 4,3 3,8 3,5 3,3 3,1 3,0 3,0 2,8 2,7 2,5 2,4 2,2 2,1 2,0 1,8

60 4,1 3,6 3,3 3,1 3,0 2,8 2,8 2,6 2,5 2,4 2,2 2,0 1,9 1,8 1,6

120 4,0 3,5 3,2 3,0 2,8 2,7 2,6 2,5 2,3 2,2 2,0 1,9 1,8 1,7 1,4

∞ 3,8 3,3 3,0 2,8 2,6 2,5 2,4 2,3 2,2 2,0 1,9 1,7 1,5 1,5 1

- 42 -

Werte der Verteilungsfunktion binomialverteilter Variablen für p = 0,5 und p = 0,1 sowie verschiedene n.

n p = 0,5 p = 0,1 x 5 10 15 18 20 15 20

0 0,031 0,001 0,000 0,000 0,000 0,206 0,122 1 0,187 0,011 0,000 0,000 0,000 0,549 0,392 2 0,500 0,055 0,004 0,001 0,000 0,816 0,677 3 0,813 0,172 0,018 0,004 0,001 0,944 0,867 4 0,969 0,377 0,059 0,015 0,006 0,987 0,957 5 1,00 0,623 0,151 0,048 0,021 0,998 0,989 6 0,828 0,304 0,119 0,058 1,000 0,998 7 0,945 0,500 0,240 0,132 1,000 1,000 8 0,989 0,696 0,407 0,252 1,000 1,000 9 0,999 0,849 0,593 0,412 1,000 1,000

10 1,000 0,941 0,760 0,588 1,000 1,000 11 0,982 0,881 0,748 1,000 1,000 12 0,996 0,952 0,868 1,000 1,000 13 1,000 0,985 0,942 1,000 1,000 14 1,000 0,996 0,979 1,000 1,000 15 1,000 0,999 0,994 1,000 1,000 16 1,000 0,999 1,000 1,000 17 1,000 1,000 1,000 1,000 18 1,000 1,000 1,000 1,000 19 1,000 1,000 1,000 20 1,000 1,000 1,000

- 43 -

Kritische Werte bei einem zweiseitigen Mann-Whitney-Test (auch U-Test) für (α = 0,05) (die obere Reihe in einer Zeile gibt den kritischen Wert an der Untergrenze tu, die untere Reihe an der Obergrenze to an).

m

n 2 3 4 5 6 7 8 9 10 11 12

2 - - - - - - 1 15

1 17

1 19

1 21

2 22

3 - - - 1 14

2 16

2 19

3 21

3 24

4 26

4 29

5 31

4 - - 1 15

2 18

3 21

4 24

5 27

5 31

6 34

7 37

8 40

5 - 1 14

2 18

3 22

4 26

6 29

7 33

8 37

9 41

10 45

12 48

6 - 2 16

3 21

4 26

6 30

7 35

9 39

11 43

12 48

14 52

15 57

7 - 2 19

4 24

6 29

7 35

9 40

11 45

13 50

15 55

17 60

19 65

8 1 15

3 21

5 27

7 33

9 39

11 45

14 50

16 56

18 62

20 68

23 73

9 1 17

3 24

5 31

8 37

11 43

13 50

16 56

18 63

21 69

24 75

27 81

10 1 19

4 26

6 34

9 41

12 48

15 55

18 62

21 69

24 76

27 83

30 90

11 1 21

4 29

7 37

10 45

14 52

17 60

20 68

24 75

27 83

31 90

34 98

12 2 22

5 31

8 40

12 48

15 57

19 65

23 73

27 81

30 90

34 96

38 106

- 44 -

Kritische Werte bei einem zweiseitigen Wilcoxon-Test (die obere Reihe in einer Zeile gibt den kritischen Wert an der Untergrenze tu, die untere Reihe an der Obergrenze to an).

n Signifikanzniveau α

n Signifikanzniveau α

0,01 0,05 0,1 0,01 0,05 0,1

5 - - 1 14 15 16

104 26 94

31 89

6 - - 20

3 18 16 20

116 30

106 36

100

7 - 3 25

4 24 17 24

129 35

118 42

111

8 1 35

4 32

6 30 18 28

143 41

130 48

123

9 2 43

6 39

9 36 19 33

157 47

143 54

136

10 4 51

9 46

11 44 20 38

172 53

157 61

149

11 6 60

11 55

14 54 21 43

188 59

172 68

163

12 8 70

14 64

18 60 22 49

204 66

167 76

177

13 10 81

18 73

22 69 23 55

221 74

202 84

192

14 13 92

22 83

26 79 24 62

238 82

218 92

208

25 69 256

90 235

101 224

- 45 -

Annahmekennzahlen c0 zum Kolmogorov-Smirnov-Test für n > 35

Signifikanzniveau α 0,1 0,05 0,01 0,001

Annahmekennzahl c0 224,11n

358,11n

628,11n

949,11n

Annahmekennzahlen c0 zum Kolmogorov-Smirnov-Test für n ≤ 35. Für kleine Stichproben sind die Werte in Abhängigkeit von n und α wie folgt tabelliert:

n α=0,1 α=0,05 n α=0,1 α=0,05 n α=0,1 α=0,05 n α=0,1 α=0,053 0,636 0,708 13 0,325 0,361 23 0,247 0,275 33 0,208 0,231 4 0,565 0,624 14 0,314 0,349 24 0,242 0,269 34 0,205 0,227 5 0,509 0,563 15 0,304 0,338 25 0,238 0,264 35 0,202 0,224 6 0,468 0,519 16 0,295 0,327 26 0,233 0,259 36 0,199 0,221 7 0,436 0,483 17 0,286 0,318 27 0,229 0,254 37 0,196 0,218 8 0,410 0,454 18 0,278 0,309 28 0,225 0,250 38 0,194 0,215 9 0,387 0,430 19 0,271 0,301 29 0,221 0,246 39 0,191 0,213 10 0,369 0,409 20 0,265 0,294 30 0,218 0,242 40 0,189 0,210 11 0,352 0,391 21 0,259 0,287 31 0,214 0,238 50 0,170 0,188 12 0,388 0,375 22 0,253 0,281 32 0,221 0,234 100 0,121 0,134