Kapitel 4: Wahrscheinlichkeitsrechnung und...

32
Statistik, Prof. Dr. Karin Melzer 1 Kapitel 4: Wahrscheinlichkeitsrechnung und Kombinatorik Statistik, Prof. Dr. Karin Melzer 2 4. Wahrscheinlichkeitsrechnung Die Wahrscheinlichkeitsrechung stellt Modelle bereit zur Beschreibung und Interpretation solcher zufälliger Erscheinungen , die statistische Gesetzmäßigkeiten zeigen. Eine wichtige Triebfeder für die Wahrscheinlichkeitsrechnung war das Glückspiel. Zahlreiche Mathematiker verdienten sich ihr Geld als Berater für Glücksspiele.

Transcript of Kapitel 4: Wahrscheinlichkeitsrechnung und...

Page 1: Kapitel 4: Wahrscheinlichkeitsrechnung und Kombinatorikkamelzer/2010ws/Statistik_Vorlesung_Kapitel_4_v2.pdf · Statistik, Prof. Dr. Karin Melzer 5 4.1. Zufallsexperiment und Ereignisse

Statistik, Prof. Dr. Karin Melzer1

Kapitel 4:Wahrscheinlichkeitsrechnung und

Kombinatorik

Statistik, Prof. Dr. Karin Melzer2

4. Wahrscheinlichkeitsrechnung

Die Wahrscheinlichkeitsrechung stellt Modelle bereit zur Beschreibung und Interpretationsolcher zufälliger Erscheinungen, die statistische Gesetzmäßigkeiten zeigen.

Eine wichtige Triebfeder für die Wahrscheinlichkeitsrechnung war das Glückspiel.Zahlreiche Mathematiker verdienten sich ihr Geld als Berater für Glücksspiele.

Page 2: Kapitel 4: Wahrscheinlichkeitsrechnung und Kombinatorikkamelzer/2010ws/Statistik_Vorlesung_Kapitel_4_v2.pdf · Statistik, Prof. Dr. Karin Melzer 5 4.1. Zufallsexperiment und Ereignisse

Statistik, Prof. Dr. Karin Melzer3

4.1. Zufallsexperiment und Ereignisse

• Begriffe

a) Zufallsexperiment:Ein Zufallsexperiment muss es folgende Eigenschaften aufweisen:

• Alle möglichen Ergebnisse des Experiments sind vorab bekannt.

• Das Ergebnis eines einzelnen Experiments kann nicht vorhergesagt werden (Zufälligkeit).

• Das Experiment kann unter identischen Bedingungen beliebig oft wiederholt werden.

b) Ergebnismenge (Ereignismenge, Ereignisraum, Menge der Grundergebnisse)• Die Menge aller möglichen (einfachen) Ergebnisse des

Zufallsexperiments wird Ergebnismenge (Ereignismenge, Ereignisraum) genannt.

• Sie wird mit Ω bezeichnet.

• Bei jeder Durchführung tritt genau einer der zu Ω gehörenden Ausgänge ein.

Statistik, Prof. Dr. Karin Melzer4

4.1. Zufallsexperiment und Ereignisse

• Begriffe

c) Ereignis:Ein Ereignis A ist eine Teilmenge von der Ergebnismenge Ω, also A ⊆ Ω• Wir sagen:

Das Ereignis A ist eingetreten, wenn das Ergebnis des Zufallsexperiments ein Element von A ist.

• ω ∊ A ⊆ Ω ⇒ A ist eingetreten• ω ∉ A ⊆ Ω ⇒ A ist nicht eingetreten

d) Elementarereignis• Einelementige Teilmenge von Ω, nicht weiter zerlegbar, besteht

nur aus einem einzigen Versuchsergebnis.

Page 3: Kapitel 4: Wahrscheinlichkeitsrechnung und Kombinatorikkamelzer/2010ws/Statistik_Vorlesung_Kapitel_4_v2.pdf · Statistik, Prof. Dr. Karin Melzer 5 4.1. Zufallsexperiment und Ereignisse

Statistik, Prof. Dr. Karin Melzer5

4.1. Zufallsexperiment und Ereignisse

• Begriffee) Sicheres Ereignis: Ω

• Die Menge Ω stellt das Ereignis dar, das in jedem Fall eintritt und wird das sichere Ereignis genannt.

f) Unmögliches Ereignis: ∅• Tritt nie ein, die leere Menge bzw. ∅ ⊆ Ω beschreibt das

unmögliche Ereignis.g) Realisierung eines Zufallsexperiments/Versuchsaus gang

• Das Ergebnis der tatsächlichen Durchführung eines Zufallsexperiments.

• Beachten Sie: - „Versuchsausgang“ bzw. „Ergebnis eines Zufallsexperiments“

ist nicht das Gleiche wie „Ereignis“!

- Mit jedem Versuchsausgang treten gewisse Ereignisse ein und andere nicht.

Statistik, Prof. Dr. Karin Melzer6

4.2. Ereignisalgebra

Bei der Ereignisalgebra werden Ereignisse miteinander verknüpft,um andere Ereignisse zu erhalten.

Seien A und B Ereignisse mit A, B ⊆ Ω .

a) Das Ereignis A und B entspricht A ⋂⋂⋂⋂ B (Durchschnitt)

b) Das Ereignis A oder B entspricht A ⋃⋃⋃⋃ B (Vereinigung)

c) Das Gegenereignis von A, ist das Ereignis, das eintritt, wenn A nicht eintritt. Es wird mit Ā = ΩΩΩΩ\A bezeichnet (Komplementärmenge).

Tipp: Benutzen Sie a) – c), um Text in Formeln umzuwandeln.

d) Die Ereignisse A und B heißen unvereinbar , wenn A ⋂⋂⋂⋂ B = (disjunkt).

e) Die Ereignisse A und B heißen vereinbar , wenn A ⋂⋂⋂⋂ B ≠ .

f) Die Implikation aus Ereignis A folgt aus Ereignis B bedeutet A tritt ein ⇒⇒⇒⇒ B tritt ein bzw. A ⊆⊆⊆⊆ Β Β Β Β (Teilmenge).

Page 4: Kapitel 4: Wahrscheinlichkeitsrechnung und Kombinatorikkamelzer/2010ws/Statistik_Vorlesung_Kapitel_4_v2.pdf · Statistik, Prof. Dr. Karin Melzer 5 4.1. Zufallsexperiment und Ereignisse

Statistik, Prof. Dr. Karin Melzer7

4.3. Laplace-Experiment

• Ein Laplace-Experiment ist ein Zufallsexperiment mit den folgenden Eigenschaften: - Das Zufallsexperiment hat nur endlich viele mögliche

Elementarergebnisse- Jedes dieser Elementarergebnisse ist gleich wahrscheinlich

• Deshalb gilt: - Bei einem Laplace-Experiment mit n möglichen Elementarereignissen,

besitzt jedes dieser Elementarereignisse die Wahrscheinlichkeit 1/n.- Die Wahrscheinlichkeit P(A) eines beliebigen Ereignisses A ⊆ Ω

berechnet sich als

- wobei k = |A|: Anzahl der Elementarereignisse/Elemente in An = |Ω|: Anzahl der Elementarereignisse/Elemente in Ω

- Es handelt sich nur um verschiedene gebräuchliche Darstellungsformen

Ω===

AA

n

kAP

Fälle möglichen aller AnzahlFälle günstigen für der Anzahl

)(

Statistik, Prof. Dr. Karin Melzer8

4.3. Laplace-ExperimentBeispiele:

- Fairer Würfel:P( i)=1/6 für i = 1,…,6

- Würfeln mit zwei verschiedenen Würfeln: A1 = „ Augensumme 4“, A2 = „ gleiche Augenzahl“

|A1| = 3, |A2| = 6, | Ω | = 36 ⇒ P(A1) = 3/36 = 1/12

P(A2) = 6/36 = 1/6

- Münzwurf: P( Kopf) = P( Zahl) = 1/2

Gegenbeispiele: Keine Laplace-Experimente sind

- Werfen einer Reißzwecke mit den Elementarereignissen „liegt auf der Spitze“ und „liegt auf der Kappe“

- Würfeln mit zwei Würfeln, wobei nur die Augensumme betrachtet wird:Ω = 2,3,4, … , 12aber P(6) = P(1,5, 2,4, 3,3, 4,2, 5,1) = 5/36 ≠ 1/11

Um bei einem Laplace-Experiment die Wahrscheinlichkeit eines Ereignisses richtig zu berechnen, muss man die Anzahl der möglichen und günstigen Elementarereignisse abzählen – das ist eine kombinatorische Fragestellung Kombinatorik (Lehre des Abzählens).

Page 5: Kapitel 4: Wahrscheinlichkeitsrechnung und Kombinatorikkamelzer/2010ws/Statistik_Vorlesung_Kapitel_4_v2.pdf · Statistik, Prof. Dr. Karin Melzer 5 4.1. Zufallsexperiment und Ereignisse

Statistik, Prof. Dr. Karin Melzer9

4.4. Kombinatorik („Kunst des Abzählens“)

• Um bei einem Laplace-Experiment die Wahrscheinlichkeit eines Ereignisses richtig zu berechnen, muss man die Anzahl der möglichen und günstigen Elementarereignisse abzählen – das ist eine kombinatorische Fragestellung Kombinatorik (Lehre des Abzählens).

Grundproblematik:• Auswählen einer Teilmenge aus einer Grundmenge („Ziehen“)• Anordnen der Elemente einer Menge

Bezeichnungen:• n-Menge: … Menge von n Elementen (alle verschieden)• k-Stichprobe: … Teilmenge von k Elementen einer Grundmenge

• geordnet: … Reihenfolge ist wichtig (Variationen)• ungeordnet: … Reihenfolge ist unwichtig (Kombinationen)

• mit Zurücklegen … gezogenes Element wird vor der nächstenZiehung zurückgelegt

• ohne Zurücklegen … gez. Element wird nicht zurückgelegt

Statistik, Prof. Dr. Karin Melzer10

4.4. Kombinatorik („Kunst des Abzählens“)

a) Fundamentales Zählprinzip – Produktregel:

• Aus r Mengen M1, ... , Mr mit n1, … , nr Elementen lassen sich N = n1 · n2 · … ·nr

verschiedene r-Tupel (x1, x2, … ,xr) bilden mit xi ∈ Mi

oder• Hat man eine Folge von Entscheidungen zu treffen, bei denen es für die

i. Entscheidung ni Möglichkeiten gibt (i = 1, … , r), dann ist die Gesamtzahl aller möglichen Entscheidungs-Folgen gegeben durch

N = n1 · n2 · … ·nr

Für die vier Grundprobleme der Kombinatorik gilt:b) Geordnete k-Stichproben mit Zurücklegen (Variationen mit Wiederholung)

• Einer n-Menge kann man

N = nk

geordnete k-Stichproben mit Zurücklegen entnehmen.

Page 6: Kapitel 4: Wahrscheinlichkeitsrechnung und Kombinatorikkamelzer/2010ws/Statistik_Vorlesung_Kapitel_4_v2.pdf · Statistik, Prof. Dr. Karin Melzer 5 4.1. Zufallsexperiment und Ereignisse

Statistik, Prof. Dr. Karin Melzer11

4.4. Kombinatorik („Kunst des Abzählens“)

c) Geordnete k-Stichproben ohne Zurücklegen (Variationen ohne Wiederholung)

• Einer n-Menge kann man

geordnete k-Stichproben ohne Zurücklegen entnehmen.

Sonderfall für k = n: Permutation• Eine n-Menge kann auf

(n)n = n · (n – 1) · … · 2 · 1 = n! (n! = „n-Fakultät“)Arten angeordnet werden.

Bemerkung: Fakultät• n! = 1 · 2 · 3 · … ·n (lies: n Fakultät) und 0! = 1 (Definition)Berechnung von n! mit Taschenrechner

• bis 69! i. d. R. mindestens möglich• für größere n näherungsweise mit

(Formel von Stirling); lg = Logarithmus zur Basis 10 – TR: log-Taste

)!(

!)1()1()(

kn

nknnnn k −

=+−⋅⋅−⋅= K

+≈e

nnnn lg)2lg(

2

1)!lg( π

Statistik, Prof. Dr. Karin Melzer12

4.4. Kombinatorik („Kunst des Abzählens“)

d) Ungeordnete k-Stichproben ohne Zurücklegen (Kombinationen ohne Wiederholung)

• Einer n-Menge kann man

ungeordnete k-Stichproben ohne Zurücklegen entnehmen.

Sprechweise:• Binomialkoeffizient: „n über k“

e) Ungeordnete k-Stichproben mit Zurücklegen (Kombinationen mit Wdh.)

• Einer n-Menge kann man

ungeordnete k-Stichproben mit Zurücklegen entnehmen.

!)!1(

)!1(1

kn

kn

k

kn

⋅−−+=

−+

)(!)!(

!

21

)1()1(nk

kkn

n

k

knnn

k

n≤

⋅−=

⋅⋅⋅+−⋅⋅−⋅=

K

K

k

n

Page 7: Kapitel 4: Wahrscheinlichkeitsrechnung und Kombinatorikkamelzer/2010ws/Statistik_Vorlesung_Kapitel_4_v2.pdf · Statistik, Prof. Dr. Karin Melzer 5 4.1. Zufallsexperiment und Ereignisse

Statistik, Prof. Dr. Karin Melzer13

4.4. Kombinatorik („Kunst des Abzählens“)Übersicht:

Verteilen von kKugeln auf n

Zellen

nichtunterscheidbare

Kugeln

mitunterscheidbaren

Kugeln

ohne Beachtung der Reihenfolge

ohne Mehrfach-besetzungen

ohneZurücklegen

mit Mehrfach-besetzung

mitZurücklegen

mit Beachtung der Reihenfolge

Stichproben-auswahlk aus n

( ) knkn

n)(

!

! =−

k

n

kn

−+k

kn 1

Statistik, Prof. Dr. Karin Melzer14

4.4. Kombinatorik („Kunst des Abzählens“)Permutationen• Permutation = Anzahl der möglichen Anordnungen oder Vertauschungen• Permutationen ohne Wiederholung:

Wie viele Möglichkeiten gibt es, n verschiedene Objekte anzuordnen

Schon gesehen: n! (n Fakultät)

• Permutationen mit WiederholungVon n Objekten gibt es nur k verschiedene, d.h. von Objekt 1 gibt es n1 (gleiche) Exemplare, von Objekt 2 n2 (gleiche) Exemplare, … , von Objekt k gibt es nk gleiche Exemplare.Auf wie viele Arten kann man die n = n1 + … + nk Objekte anordnen?

Anzahl der möglichen Anordnungen:

Durch die ni! Möglichkeiten der Anordnung in jeder Klasse muss man dividieren.

!!!

!

21 knnn

n

⋅⋅⋅ K

Page 8: Kapitel 4: Wahrscheinlichkeitsrechnung und Kombinatorikkamelzer/2010ws/Statistik_Vorlesung_Kapitel_4_v2.pdf · Statistik, Prof. Dr. Karin Melzer 5 4.1. Zufallsexperiment und Ereignisse

Statistik, Prof. Dr. Karin Melzer15

• Bei zufälligen Ereignissen kann man keine exakte Voraussagen treffen. Es stellt sich in der Mathematik jedoch der Wunsch ein, zumindest ein Maß für die Sicherheit (oder Unsicherheit) anzugeben, die mit einer Aussage verbunden ist. Ein solches Maß ist die Wahrscheinlichkeit .

• Die Wahrscheinlichkeitsrechnung ordnet jedem Ereignis eines Zufallsexperiments eine Wahrscheinlichkeit für sein Eintreten zu. Dem Ereignis A zugeschriebene Wahrscheinlichkeit wird mit P(A) bezeichnet. (P von engl. probability).

• Die Wahrscheinlichkeit für das Eintreten eines Ereignisses A ist immer eine reelle Zahl, für die gilt.

0 ≤ P(A) ≤ 1

• Zwei Extremfälle kennzeichnen Sicherheit:

- Ist P(A) = 1, so tritt A mit Sicherheit ein.

- Ist P(A) = 0, so tritt A mit Sicherheit nicht ein.

• Die Werte dazwischen drücken Grade an Sicherheit aus. Je größer die Wahrscheinlichkeit P(A), umso „eher“ ist anzunehmen, dass das Ereignis A eintritt.

• Was aber bedeutet das genau? Wie sind die Grade an Sicherheit, die durch Wahrscheinlichkeiten ausgedrückt werden, definiert?

4.5. Eigenschaften von Wahrscheinlichkeiten

Statistik, Prof. Dr. Karin Melzer16

4.5. Eigenschaften von Wahrscheinlichkeiten

4.5.1. Wahrscheinlichkeit und relative Häufigkeit• Aus Erfahrung: die meisten Zufallsexperimente weisen eine gewisse statistische

Regelmäßigkeit auf, d.h. wiederholt man ein Zufallsexperiment oft, so scheinen sich die relativen Häufigkeiten eines Ereignisses mit zunehmender Versuchsanzahl um einen bestimmten Wert einzupendeln. Z.B. Werfen eines gezinkten Würfels

Auf lange Sicht scheint das Würfeln einer 6 mit einer relativen Häufigkeit von ¼ aufzutreten.

• In der Praxis: Wahrscheinlichkeit eines Ereignisses ≈ relative Häufigkeit dieses Ereignisses in einer großen Anzahl von Versuchen (Näherungswert)

0,2522520,2482481000

0,31310,2626100

0,38190,31550

0,440,2210

Relative Häufigkeit

von "6"

Absolute Häufigkeit

von "6"

Relative Häufigkeit

von "6"

Absolute Häufigkeit

von "6„

Anzahl der

Würfe

Versuchsreihe 2Versuchsreihe 1n

Page 9: Kapitel 4: Wahrscheinlichkeitsrechnung und Kombinatorikkamelzer/2010ws/Statistik_Vorlesung_Kapitel_4_v2.pdf · Statistik, Prof. Dr. Karin Melzer 5 4.1. Zufallsexperiment und Ereignisse

Statistik, Prof. Dr. Karin Melzer17

4.5. Eigenschaften von Wahrscheinlichkeiten

4.5.1. Wahrscheinlichkeit und relative Häufigkeit• Für verschiedene Versuchsreihen ist die relative Häufigkeit i.d.R. verschieden (s.

Beispiel). Für sehr große n ergibt sich jedes Mal ungefähr die gleiche relative Häufigkeit.Grenzwert: geht n gegen ∞, so sollte die relative Häufigkeit einen fixen, nur vom Zufallsexperiment und dem betrachteten Ereignis A abhängigen Wert annehmen. Diesen Wert nennen wir die Wahrscheinlichkeit des Ereignisses.

• Damit können wir eine Definition der Wahrscheinlichkeit formulieren:

Die Wahrscheinlichkeit eines Ereignisses ist die für eine gegen unendlich strebende Anzahl n von Durchführungen des betreffenden

Zufallsexperiments vorausgesagte relative Häufigkeit seines Eintretens.

• Das Maß für die Sicherheit, mit dem gezinkten Würfel eine 6 zu würfeln, könnte man so formulieren (Wahrscheinlichkeit, eine 6 zu würfeln beträgt bei dem gezinkten Würfel ¼):

"Unter einer sehr großen Zahl n von Würfel-Versuchen wird ungefähr n/4 mal die Augenzahl 6 auftreten".

∞→→= nAPnhf n

n für )(

Statistik, Prof. Dr. Karin Melzer18

4.5. Eigenschaften von Wahrscheinlichkeiten

4.5.2. Rechnen mit Wahrscheinlichkeiten

Um mit Wahrscheinlichkeiten rechnen zu können, müssen erst ein paar grundsätzliche Eigenschaften festgelegt werden. Diese Eigenschaften wurden 1933 vom russischen Mathematiker Andrey Kolmogorovaufgestellt und werden auch als Axiome bezeichnet. Aus diesen Axiomen (Punkt a) bis c)) können die restlichen Eigenschaften hergeleitet werden.

a) Die Wahrscheinlichkeit eines Ereignisses A ⊆ Ω liegt immer zwischen 0 und 1:

0 ≤ P(A) ≤ 1

b) Das sichere Ereignis besitzt die Wahrscheinlichkeit 1:

P(Ω) = 1

c) Sind die beiden Ereignisse A und B unvereinbar, so addieren sich die Wahrscheinlichkeiten:

P(A⋃ B) = P(A) + P(B), wenn A⋂ B = .

Page 10: Kapitel 4: Wahrscheinlichkeitsrechnung und Kombinatorikkamelzer/2010ws/Statistik_Vorlesung_Kapitel_4_v2.pdf · Statistik, Prof. Dr. Karin Melzer 5 4.1. Zufallsexperiment und Ereignisse

Statistik, Prof. Dr. Karin Melzer19

4.5. Eigenschaften von Wahrscheinlichkeiten

4.5.2. Rechnen mit Wahrscheinlichkeitend) Das unmögliche Ereignis besitzt die Wahrscheinlichkeit 0: P( ) = 0

e) Die Wahrscheinlichkeit des Gegenereignisses Ā von A ist P(Ā) = 1 –P(A)

f) Die Wahrscheinlichkeit von A⋂ B wird mit dem Multiplikationssatzberechnet:

Multiplikationssatz allgemein: P(A⋂ B) = P(A) · P(B|A) = P(B) · P(A|B)

Multiplikationssatz für unabhängige Ereignisse: P(A⋂ B) = P(A) · P(B)

Dabei ist P(B|A) (lies: „Wahrscheinlichkeit von B unter der Bedingung A“) die Wahrscheinlichkeit, dass B eintritt, wenn sicher ist, dass Aeintritt bzw. eingetreten ist.Wenn sich zwei Ereignisse nicht beeinflussen, spricht man von unabhängigen Ereignissen, dann gilt P(B|A) = P(B).

g) Die Wahrscheinlichkeit für A⋃ B wird mit dem Additionssatz berechnet:P(A⋃ B) = P(A) + P(B) – P(A⋂ B )

h) Die Wahrscheinlichkeit ist monoton d.h. P(A) ≤ P(B), für A ⊆ B.

Statistik, Prof. Dr. Karin Melzer20

4.5. Eigenschaften von Wahrscheinlichkeiten

4.5.2. Rechnen mit Wahrscheinlichkeiten

Wann dürfen Sie die Wahrscheinlichkeiten von zwei Ereignissen einfach• addieren?

• multiplizieren?

Beispiel:Ein zufällig gewählter PC besitze

• mit Ws-keit 0,5 eine Festplatte mit mind. 80GB,

• mit Ws-keit 0,4 einen Flachbildschirm und• mit Ws-keit 0,2 beide Eigenschaften.

• P(PC hat mindestens eine der Eigenschaften) = ?

• P(PC hat Festplatte mit mind. 80GB aber keinen Flachbildschirm) = ?

Page 11: Kapitel 4: Wahrscheinlichkeitsrechnung und Kombinatorikkamelzer/2010ws/Statistik_Vorlesung_Kapitel_4_v2.pdf · Statistik, Prof. Dr. Karin Melzer 5 4.1. Zufallsexperiment und Ereignisse

Statistik, Prof. Dr. Karin Melzer21

4.5. Eigenschaften von Wahrscheinlichkeiten

4.5.2. Pfadregel bei mehrstufigen Zufallsexperimenten• Die Wahrscheinlichkeit eines Pfades ist gleich dem Produkt der

Wahrscheinlichkeiten längs des Pfades (Produktregel). • Die Wahrscheinlichkeit für ein Ereignis ergibt sich durch Addition der

Wahrscheinlichkeiten aller zu diesem Ereignis führenden Pfade (Summenregel). Baumdiagramm

• Beispiel: Aus einer Urne mit [a, a, a, b, b] werden 2 Buchstaben gezogen.mit Zurücklegen ohne Zurücklegen

• P(a,a), P(a,b), P(b,a), P(b,b), P(„im 2. Zug b“) ?

b

a

b

a

b

a

b

a

b

a

b

a

1. Zug 2. Zug 1. Zug 2. Zug

Statistik, Prof. Dr. Karin Melzer22

4.6. Zufallsvariablen

4.6.1 Definitionen und Beispielereal (Daten)

• Merkmal

• Merkmalsausprägung• relative Häufigkeit

Definition:Eine Zufallsvariable ist eine Funktion auf Ω (Ereignisraum), die jedem Elementarereignis ω ∈Ω eine reelle Zahl zuordnet

so dass die Wahrscheinlichkeit angegeben werden kann, mit der eine Ausprägung auftritt (bzw. so dass P(X ≤ t) angegeben werden kann).

a) Eine Zufallsvariable heißt diskret , wenn sie nur einzelnen Punkte (endlich viele oder unendliche viele) auf dem Zahlenstrahl annehmen kann.

b) Eine Zufallsvariable heißt stetig , wenn sie jeden beliebigen Wert in einem Intervall annehmen kann.

abstrakt (Modell)

• Zufallsvariable

• Realisierung der Zufallsvariablen• Wahrscheinlichkeit

ℜ∈ℜ→Ω)(

:

ωω X

X

a

Page 12: Kapitel 4: Wahrscheinlichkeitsrechnung und Kombinatorikkamelzer/2010ws/Statistik_Vorlesung_Kapitel_4_v2.pdf · Statistik, Prof. Dr. Karin Melzer 5 4.1. Zufallsexperiment und Ereignisse

Statistik, Prof. Dr. Karin Melzer23

4.6. Zufallsvariablen

4.6.1 Beispiele für Zufallsvariablen:- Augensumme zweier Würfel (diskret)

X: Ω → ℝ , (i,j) → i+j

- Anzahl der Einsen in einer Folge von 0 und 1 (diskret) Ω = Menge der (0,1)-Folgen der Länge n

X: Ω → ℝ , ω → k = # Einsen

- Anzahl der Würfe einer Münze, bis zum ersten Mal „Kopf“ oben liegt (diskret),Ω = K, ZK, ZZK, ZZZK, …

X: Ω → ℝ , ω → k = # Würfe

- Anzahl defekter Artikel in einer Stichprobe (diskret),

- Gewinn bei einem Glücksspiel (diskret),- Verbrauch einer Öltankfüllung innerhalb eines Jahres in Prozent (stetig)

X: Ω → ℝ , ω → x ∈ [0,1]

- Länge (Masse, Volumen, Temperatur etc.) eines Gegenstandes bei einer mit zufälligen Einflüssen und Fehlern behafteten Messung (stetig)

Statistik, Prof. Dr. Karin Melzer24

4.6. Zufallsvariablen

4.6.2 Diskrete Zufallsvariablena) Wahrscheinlichkeitsverteilung oder Dichtefunktion

Die Menge aller Ausprägungen X = xi mit zugehörigen Wahrscheinlichkeiten P(X = xi) heißt Wahrscheinlichkeitsverteilung oder (diskrete) Dichtefunktion/Dichte

Dichte = Liste aller Wahrscheinlichkeiten P(X = xi)

- Die Wahrscheinlichkeiten pk = P(X = xk ) heißen auch Gewichte der Verteilung von X.

- Darstellung der Gewichte/Wkts.verteilung: Stab- oder Säulendiagramm

b) VerteilungsfunktionDie Funktion heißt Verteilungsfunktion von X.

- Die Funktion F(t) beschreibt die Wahrscheinlichkeit, dass die Zufallsvariable Xkleiner als der fixe Wert t ist.

- Darstellung der Verteilungsfunktion: (Funktions-)Graph

[ ] )()(,1,0: xXPxFxF ≤=→ℜ a

Page 13: Kapitel 4: Wahrscheinlichkeitsrechnung und Kombinatorikkamelzer/2010ws/Statistik_Vorlesung_Kapitel_4_v2.pdf · Statistik, Prof. Dr. Karin Melzer 5 4.1. Zufallsexperiment und Ereignisse

Statistik, Prof. Dr. Karin Melzer25

4.6. Zufallsvariablen

4.6.2 Diskrete Zufallsvariablenc) Zusammenhang Wahrscheinlichkeitsverteilung/Dichte – Ver teilungsfunktion• Die (kumulative) Verteilungsfunktion

F(x) = P(X ≤ x)wird durch die Gewichte pk eindeutig bestimmt:

Dichte und Verteilungsfunktion lassen sich ineinander überführen.

• Es gilt:

• lim F(x) = 0 für x –∞, lim F(x) = 1 für x +∞, F(x) ist monoton wachsend.• Die Wahrscheinlichkeitsverteilung ist sozusagen die theoretische Verteilung eines

Ereignisses. Wenn man etwa das Zufallsexperiment Würfelwurf betrachtet, so bestimmt die Wahrscheinlichkeitsverteilung, mit welchen Wahrscheinlichkeiten die einzelnen Ausprägungen auftreten.

( ) ∑∑≤≤

===≤=xxk

kxx

k

kk

pxXPxXPxF:

)()(

101 ≤≤=∑ kk

k pp ,

Statistik, Prof. Dr. Karin Melzer26

4.6. Zufallsvariablen

4.6.2 Diskrete ZufallsvariablenBeispiel: Augensumme beim Werfen zweier Würfel

X((1,1)) = 2; X((1,2)) = 3; X((2,1)) = 3; X((2,3)) = 5; X((2,2)) = 4;…

Wahrscheinlichkeitsverteilung als Tabelle :

Wahrscheinlichkeitsverteilung/Dichte als Säulendiagramm :

0

0,02

0,04

0,06

0,08

0,1

0,12

0,14

0,16

0,18

2 3 4 5 6 7 8 9 10 11 12

1/362/363/364/365/366/365/364/363/362/361/36P(X=k)

12111098765432k

Page 14: Kapitel 4: Wahrscheinlichkeitsrechnung und Kombinatorikkamelzer/2010ws/Statistik_Vorlesung_Kapitel_4_v2.pdf · Statistik, Prof. Dr. Karin Melzer 5 4.1. Zufallsexperiment und Ereignisse

Statistik, Prof. Dr. Karin Melzer27

4.6. Zufallsvariablen

4.6.2 Diskrete ZufallsvariablenBeispiel: Augensumme beim Werfen zweier Würfel (Forts.)

Verteilungsfunktion als Tabelle :

Verteilungsfunktion als Graph : Treppenfunktion

0

0,2

0,4

0,6

0,8

1

1,2

1 2 3 4 5 6 7 8 9 10 11 12

36/3635/3633/3630/3626/3621/3615/3610/366/363/361/36P(X≤k)

12111098765432k

Statistik, Prof. Dr. Karin Melzer28

4.6. Zufallsvariablen

4.6.2 Diskrete ZufallsvariablenBeispiel: Würfeln mit einem WürfelX = Augenzahl eines fairen Würfels

Wahrscheinlichkeitsverteilung/Dichte und (kumulative) Verteilungsfunktion:

Beispiel: Würfeln mit einem Würfel und einer Münze in einem Becher

Wahrscheinlichkeitsverteilung/Dichte und (kumulative) Verteilungsfunktion:

=×=

=Zahl Münze fallsWürfels des Augenzahl

Kopf Münze fallsWürfels des Augenzahl

2X

P(X ≤≤≤≤ k)

P(X = k)

654321k

P(X ≤≤≤≤ k)

P(X = k)

121110987654321k

Page 15: Kapitel 4: Wahrscheinlichkeitsrechnung und Kombinatorikkamelzer/2010ws/Statistik_Vorlesung_Kapitel_4_v2.pdf · Statistik, Prof. Dr. Karin Melzer 5 4.1. Zufallsexperiment und Ereignisse

Statistik, Prof. Dr. Karin Melzer29

4.6. Zufallsvariablen

4.6.3 Kennzahlen diskreter Wahrscheinlichkeitsverteilungen

a) Erwartungswert

Gewichtetes Mittel der möglichen Realisationen, daher heißen die P(X = xi) auch Gewichte der Verteilung.

b) Varianz

Taschenrechnerformel:

c) Standardabweichung

( ) ( )∑ =⋅==i

ii xXPxXEµ

( ) ( )[ ] ( ) ( )∑ =⋅−=−==i

ii xXPxXEXVar 222 µµσ

( ) ( )[ ] 22222 µµσ −=−=⋅=∑ XExXPxi

ii

( )XVar== 2σσ

Statistik, Prof. Dr. Karin Melzer30

4.6. Zufallsvariablen

4.6.3 Kennzahlen diskreter Wahrscheinlichkeitsverteilungen

Bemerkungen zu Erwartungswert µµµµ und arithmetisches Mittel : - Im Allgemeinen gilt: .

- Pro Zufallsexperiment ist µ eine Konstante, während vom Zufall abhängt, nämlich von der jeweiligen Messreihe x1, x2, x3, … xn , den Realisierungen der Zufallsvariablen X.

- Falls n groß ist, gilt das „Gesetz der großen Zahlen“, das besagt, dass .

- Der Wert wird später (siehe Kapitel 5) zur Schätzung von µ benutzt.

Bemerkungen zu Varianz σ2 und empirische Varianz s2:- Im Allgemeinen gilt: σ2 ≠ s2.- Pro Zufallsexperiment ist σ2 eine Konstante, während s2 vom Zufall abhängt,

nämlich von der jeweiligen Messreihe x1, x2, x3, … xn , den Realisierungen der Zufallsvariablen X.

- Falls n groß ist, gilt das „Gesetz der großen Zahlen“, das besagt, dass σ2 ≈ s2 .

- Der Wert s2 wird später (siehe Kapitel 5) zur Schätzung von σ2 benutzt.

x≠µx

x

x≈µx

Page 16: Kapitel 4: Wahrscheinlichkeitsrechnung und Kombinatorikkamelzer/2010ws/Statistik_Vorlesung_Kapitel_4_v2.pdf · Statistik, Prof. Dr. Karin Melzer 5 4.1. Zufallsexperiment und Ereignisse

Statistik, Prof. Dr. Karin Melzer31

4.7. Spezielle diskrete Zufallsvariablen

In diesem Kapitel werden die folgenden diskreten Verteilungen behandelt- Hypergeometrische Verteilung

- Binomialverteilung

- Poisson-Verteilung

• Zufallsvariablen werden durch ihre Verteilung vollständig charakterisiert.

• Bei diskreten Zufallsvariablen entspricht die Verteilung der Angabe der Wahrscheinlichkeiten für die Elementarereignisse (Dichte).

• Statt der Dichte kann man auch die Verteilungsfunktion angeben. Dichte und Verteilungsfunktion lassen sich ineinander überführen.

• Aus der Verteilung lassen sich die Wahrscheinlichkeiten für alle Ereignisse berechnen.

• Außerdem lassen sich alle anderen Kennzahlen ableiten:

- Erwartungswert

- Varianz- Standardabweichung

Statistik, Prof. Dr. Karin Melzer32

4.7. Spezielle diskrete Zufallsvariablen

4.7.1 Hypergeometrische VerteilungGegeben: - Grundgesamtheit aus N Elementen,

- M Elemente der Grundgesamtheit haben eine spezifische Eigenschaft A,

- entnommen wird eine Stichprobe (ohne Zurücklegen) vom Umfang n

Die ZV X gebe an, wie viele der gezogenen Objekte die Eigenschaft A haben.

X = Anzahl der Elemente mit Eigenschaft A in der Stichprobe

Dann ist X hypergeometrisch verteilt mit den Parametern n, N, M. Man schreibt

X ~ H(n;N;M)

Achtung: in machen Büchern ist die Reihenfolge der Parameter anders.

Die Wahrscheinlichkeit, genau x Elemente mit der spezifischen Eigenschaft in der Stichprobe vorzufinden, beträgt dann: (Dichte)

( )

−−

==

n

N

xn

MN

x

M

xXP

Page 17: Kapitel 4: Wahrscheinlichkeitsrechnung und Kombinatorikkamelzer/2010ws/Statistik_Vorlesung_Kapitel_4_v2.pdf · Statistik, Prof. Dr. Karin Melzer 5 4.1. Zufallsexperiment und Ereignisse

Statistik, Prof. Dr. Karin Melzer33

4.7. Spezielle diskrete Zufallsvariablen

4.7.1 Hypergeometrische Verteilung

Erwartungswert und Varianz für

wobei Anteil der Objekte mit

Eigenschaft A in der Grundgesamtheit

( ) , pnN

MnXE ⋅=⋅==µ

:);;(~ MNnHX

==N

Mp

( )

pqN

nNqpn

N

nN

N

M

N

MnXVar

−=−−⋅⋅⋅=

−−⋅

−⋅==

11

112

mit ,

σ

Statistik, Prof. Dr. Karin Melzer34

4.7. Spezielle diskrete Zufallsvariablen

4.7.2 BinomialverteilungGegeben: - Ein Zufallsexperiment wird n-mal durchgeführt (unabhängig voneinander).

- Bei jeder der Durchführungen kann ein Ereignis A („Erfolg“) mit der Wahrscheinlichkeit P(A) = p auftreten. Das Gegenereignis Ā („Misserfolg“) tritt mit einer Wahrscheinlichkeit von P(Ā) = 1 – p auf.

Die Zufallsvariable X gibt an, wie oft bei den n Durchführungen das Ereignis Aeintritt. X = Anzahl „Erfolge“ (bei n-maliger Durchführung des Experiments)Dann ist X binomialverteilt mit den Parametern n, pund man schreibt

X ~ B(n; p)

Die Wahrscheinlichkeit, dass das Ereignis A genau k-mal bei den n Durchführungen des Zufallsexperimentes eintritt, beträgt (Dichte):

Erwartungswert und Varianz für X ~ B(n; p):µ = E(X) = n · p ,σ2 = Var(X) = n · p · q mit q = 1 –p

( ) ( ) nkppk

nkXP knk ...,,1,01 =−⋅⋅

== −

Page 18: Kapitel 4: Wahrscheinlichkeitsrechnung und Kombinatorikkamelzer/2010ws/Statistik_Vorlesung_Kapitel_4_v2.pdf · Statistik, Prof. Dr. Karin Melzer 5 4.1. Zufallsexperiment und Ereignisse

Statistik, Prof. Dr. Karin Melzer35

4.7. Spezielle diskrete Zufallsvariablen

Typische Anwendungssituationen für die Binomialverteilung sind:a) n unabhängige Wiederholungen eines Zufallsexperimentes

(z.B. Aufgabe 75: n-maliges Werfen eines Würfels mit X = Anzahl der Einsen)

b) n-maliges Ziehen mit Zurücklegen aus einer endlichen Grundgesamtheit (z.B. Aufgabe 70: n-maliges Ziehen von schwarzen Kugeln mit X = Anzahl der gezogenen schwarzen Kugeln)

c) n-maliges Ziehen ohne Zurücklegen aus einer unendlichen Grundgesamtheit(z.B. Aufgabe 72: laufende Produktion oder Massenproduktion mit X = Anzahl der defekten Teile in der Stichprobe)

d) Binomialverteilung B(n,p) als Näherung der hypergeometrischen Verteilung H(n;N;M).Dabei ist p = M/N zu setzen. Die Näherung ist erlaubt, falls N groß ist und n nicht zu groß ist,

Faustregel: (verschieden Faustregeln in der Literatur!)

(D.h. Binomialverteilung als Näherung beim n-maligen Ziehen ohne Zurücklegen aus einer endlichen aber sehr großen Grundgesamtheit bei kleinem Stichprobenumfang) (z.B. Aufgabe 78 : Lieferung sehr vieler Einheiten mit X = Anzahl der fehlerhaften Einheiten in Stichprobe vom Umfang 60)

1,0≤N

n

Statistik, Prof. Dr. Karin Melzer36

4.7. Spezielle diskrete Zufallsvariablen

4.7.3 Poissonverteilung (Siméon Denis Poisson 1781-1840)Gegeben:

- Betrachtungseinheit wie z.B. Länge, Zeit oder Fläche

- Eine mittlere Anzahl λ (lambda) von Vorkommnissen pro Betrachtungseinheit

Betrachte die Zufallsvariable X = Anzahl der Vorkommnisse pro Betrachtungseinheit

Dann sagt man, X ist Poissonverteilt mit dem Parameter λund schreibt X ~ Po(λ)

Die Wahrscheinlichkeit, dass genau k

Vorkommnisse pro Betrachtungseinheit auftreten, beträgt

(Dichte):

( ) λλ −== ek

kXPk

!

Page 19: Kapitel 4: Wahrscheinlichkeitsrechnung und Kombinatorikkamelzer/2010ws/Statistik_Vorlesung_Kapitel_4_v2.pdf · Statistik, Prof. Dr. Karin Melzer 5 4.1. Zufallsexperiment und Ereignisse

Statistik, Prof. Dr. Karin Melzer37

4.7. Spezielle diskrete Zufallsvariablen

4.7.3 Poisson-VerteilungErwartungswert und Varianz für X ~ Po(λ):

µ = E(X) = λσ2 = Var(X) = λ

Typische Anwendungssituationen sind:

a) Beschreibung der Anzahl von Vorkommnissen (Unfälle, Fehler, Anrufe,…) pro Betrachtungseinheit (Längen-, Zeit-, Flächeneinheit,…)

(z.B. Aufgabe 83 )

b) Poissonverteilung Po(λ) als Näherung für die Binomialverteilung B(n;p).

Näherung erlaubt, wenn n groß und p klein ist, Faustregel: n ≥ 30 und p ≤ 0,1(verschieden Faustregeln in der Literatur!)Dabei wird λ = np gesetzt.

(z.B. Aufgabe 81 )

Statistik, Prof. Dr. Karin Melzer38

4.8. Eigenschaften von Erwartungswert & Varianz

a) Lineare Transformation:Für eine beliebige Zufallsvariable X und Konstanten a,b∊ ℝ gilt immer

b) Summe von Zufallsvariablen: Für zwei beliebige Zufallsvariablen X und Y gilt immer

Für zwei unabhängige Zufallsvariablen X und Y gilt

Zwei diskrete Zufallsvariablen X und Y sind unabhängig, wenn

Zwei beliebige Zufallsvariablen X und Y sind unabhängig, wenn

c) Standardisierung von Zufallsvariablen:Wenn E(X) = µ und Var(X) = σ2 , dann ist

eine Zufallsvariable mit und .

( ) ( )( ) )(2 XVarabaXVar

bXaEbaXE

=++=+

( ) ( ) ( )YEXEYXE +=+

( ) ( ) ( )YVarXVarYXVar +=+

( ) ( )( ) ( ) ( )iiii yYPxXPyYxXP =⋅===∩=

σµ−= X

Z 0)( =ZE 1)( =ZVar

( ) ( )( ) ( ) ( )iiii yYPxXPyYxXP ≤⋅≤=≤∩≤

Page 20: Kapitel 4: Wahrscheinlichkeitsrechnung und Kombinatorikkamelzer/2010ws/Statistik_Vorlesung_Kapitel_4_v2.pdf · Statistik, Prof. Dr. Karin Melzer 5 4.1. Zufallsexperiment und Ereignisse

Statistik, Prof. Dr. Karin Melzer39

4.9. Stetige Zufallsvariablen

• Das Konzept der diskreten Zufallsgrößen P( X = xi ) = pi > 0 , Σpi = 1 (Gewichte)

passt in vielen Situationen nicht: - Zeit bis zum Eintreten eines Ereignisses

(Ausfall eines Geräts, Antwort eines Servers)

- Messungen auf kontinuierlicher Skala (Größe, Gewicht, Widerstand, Spannung,…)

• Beispiel: P(Körpertemperatur übermorgen um 7:00 Uhr ist 36,457812 °C ) = ?

• Es gibt keine Gewichte!• Modellvorstellungen mit Wahrscheinlichkeiten oder gar kombinatorischen

Berechnungen von Laplace-Wktn. sind hier nicht möglich!

• Neue Vorstellung: Die Gewichte werden „verschmiert“, aus den pi entsteht eine positive Funktion f , die Wahrscheinlichkeits-Dichte .

Statistik, Prof. Dr. Karin Melzer40

4.9. Stetige Zufallsvariablen

Die Wahrscheinlichkeits-Dichte kann man sich vorstellen

als idealisiertes Histogramm

sehr viele Beobachtungen viele Klassen

Page 21: Kapitel 4: Wahrscheinlichkeitsrechnung und Kombinatorikkamelzer/2010ws/Statistik_Vorlesung_Kapitel_4_v2.pdf · Statistik, Prof. Dr. Karin Melzer 5 4.1. Zufallsexperiment und Ereignisse

Statistik, Prof. Dr. Karin Melzer41

4.9. Stetige Zufallsvariablen

Definition:Eine Zufallsvariable X ist eine stetige Zufallsvariable , wenn sie

• jeden beliebigen Wert in einem Intervall annehmen k ann, das ist genau dann der Fall,

• wenn eine Funktion f ≥ 0 existiert, mit

f heißt Dichtefunktion von X und die Verteilungsfunktion F(x) = P(X ≤ x) ist eine stetige Funktion .

∫∞−

=≤=x

duufxXPxF )()()(

Statistik, Prof. Dr. Karin Melzer42

4.9. Stetige Zufallsvariablen

Folgerungen:

• F(x) = P(X ≤ x) entspricht dem Flächeninhalt unter dem Graphen von f im Intervall von –∞ bis x bzw. der „Fläche unter der Dichte links von x“:

• P(X=x) = 0 für alle x ∊ ℝ

• P(X ≤ x) = P(X < x) und P(X ≥ x) = P(X > x)jedes „≤“ darf für stetige ZV durch „<“ ersetzt werden.

• F´(x) = f(x)Ws-keiten werden durch Integration der Wkts-Dichte berechnet !

∫∞−

=≤=x

duufxXPxF )()()(

1)( =∫∞

∞−

duuf

)(1)(),()(

)()()()(

aFXaFbFbXP

aFbFdxxfbXaPb

a

−=≤=≤

−==≤≤ ∫

Page 22: Kapitel 4: Wahrscheinlichkeitsrechnung und Kombinatorikkamelzer/2010ws/Statistik_Vorlesung_Kapitel_4_v2.pdf · Statistik, Prof. Dr. Karin Melzer 5 4.1. Zufallsexperiment und Ereignisse

Statistik, Prof. Dr. Karin Melzer43

4.9. Stetige Zufallsvariablen

Berechnung von Kennzahlen und Wahrscheinlichkeiten einer diskreten

und stetigen Zufallsvariable X im Vergleich:

Ausdruck Symbol X diskret X stetig Wert der Verteilungsfunktion an der Stelle x

)()( xXPxFX ≤= ∑≤

=xk

kXP )( ( )duufx

∫∞−

Wahrscheinlichkeit dafür, dass die Zufallsvariable X einen Wert zw. a und b annimmt

( )bXaP ≤≤ ( )∑=

=b

ak

kXP ( )duufb

a

Erwartungswert ( )XE=µ ∑ =i

ii xXPx )( ( )duufu∫∞

∞−

Varianz )(2 XVar=σ

( )22

2

)(

)(

µ

µ

−=

==−

iii

iii

xXPx

xXPx

( ) ( )

( ) 22

2

µ

µ

=−

∫∞

∞−

∞−

duufu

duufu

Statistik, Prof. Dr. Karin Melzer44

4.9. Stetige Zufallsvariablen

4.9.1. Beispiele für stetige Zufallsvariablena) Gleichverteilung

Eine Zufallsvariable mit der Dichtefunktion

heißt gleichverteilt auf dem Intervall [a,b].

Schreibweise: X ~ U(a,b)

Erwartungswert und Varianz sind in diesem Fall gegeben durch

( )

≤≤

−=sonst

für

,0

,1

bxaabxf

( )122

22 abba −=+= σµ und

Page 23: Kapitel 4: Wahrscheinlichkeitsrechnung und Kombinatorikkamelzer/2010ws/Statistik_Vorlesung_Kapitel_4_v2.pdf · Statistik, Prof. Dr. Karin Melzer 5 4.1. Zufallsexperiment und Ereignisse

Statistik, Prof. Dr. Karin Melzer45

4.9. Stetige Zufallsvariablen

4.9.1. Beispiele für stetige Zufallsvariablenb) Exponentialverteilung

Eine Zufallsvariable mit der Dichtefunktion

oder mit der Verteilungsfunktion

heißt exponentialverteilt mit Parameter λ.Schreibweise: X ~ Exp(λ)

Für Erwartungswert und Varianz gilt:

( ) >

=−

sonst

für

,0

0, xexf

xλλ

( ) >−

=−

sonst

für

,0

0,1 xexF

22 11

λσ

λµ == und

Statistik, Prof. Dr. Karin Melzer46

4.9. Stetige Zufallsvariablen

4.9.1. Beispiele für stetige Zufallsvariablenc) Normalverteilung

Eine Zufallsvariable X heißt normalverteilt mit Erwartungswert µ und Varianz σ2, wenn für ihre Dichtefunktion gilt:

Schreibweise: X ~ N(µ,σ2)

- Erwartungswert µ und Varianz σ2 sind gegeben oder werden aus Daten über das arithmetische Mittel und die empirische Varianz geschätzt

- Die zugehörige Wahrscheinlichkeitsverteilung heißt Normalverteilung oder Gauß-Verteilung.

- Der Graph der Dichtefunktion wird Gauß´sche Glockenkurve genannt.

( )( )

2

2

2

2

1 σµ

σπ

−−⋅=

x

exf

Page 24: Kapitel 4: Wahrscheinlichkeitsrechnung und Kombinatorikkamelzer/2010ws/Statistik_Vorlesung_Kapitel_4_v2.pdf · Statistik, Prof. Dr. Karin Melzer 5 4.1. Zufallsexperiment und Ereignisse

Statistik, Prof. Dr. Karin Melzer47

4.9. Stetige Zufallsvariablen

4.9.1. Beispiele für stetige Zufallsvariablenc) Normalverteilung Die Gauß´sche Glockenkurve besitzt die folgenden Eigenschaften:

- sie ist symmetrisch zu x0=µ,

- die einzige Maximumsstelle existiert bei x0=µ,- sie besitzt zwei Wendepunkte an den Stellen x1=µ + σ und x2=µ – σ, - Flächeninhalt unter der Gauß´schen Glockenkurve ist gleich 1 (d.h. eine schmale

Glockenkurve ist hoch, eine breite Glockekurve ist niedrig).

Die Verteilungsfunktion kann nur numerisch berechnet werden.

Für die Praxis werden deshalb Tabellen für die Standardnormalverteilung N(0,1) verwendet.

(bzw. xls mit den Funktionen NORMVERT (Dichte/Verteilungsfunktion) oder NORMINV (Quantile))

( )dtexXPxF

x t

X ∫∞−

−−

⋅=≤= 2

2

2

1

2

1)()( σ

µ

πσ

Statistik, Prof. Dr. Karin Melzer48

4.9. Stetige Zufallsvariablen

Verteilungsfunktion )(zΦ der Standard-Normalverteilung N(0; 1)

z 0 1 2 3 4 5 6 7 8 9 0,0 0,5000 0,5040 0,5080 0,5120 0,5160 0,5199 0,5239 0,5279 0,5319 0,5359 0,1 0,5398 0,5438 0,5478 0,5517 0,5557 0,5596 0,5636 0,5675 0,5714 0,5753 0,2 0,5793 0,5832 0,5871 0,5910 0,5948 0,5987 0,6026 0,6064 0,6103 0,6141 0,3 0,6179 0,6217 0,6255 0,6293 0,6331 0,6368 0,6406 0,6443 0,6480 0,6517 0,4 0,6554 0,6591 0,6628 0,6664 0,6700 0,6736 0,6772 0,6808 0,6844 0,6879 0,5 0,6915 0,6950 0,6985 0,7019 0,7054 0,7088 0,7123 0,7157 0,7190 0,7224 0,6 0,7257 0,7291 0,7324 0,7357 0,7389 0,7422 0,7454 0,7486 0,7517 0,7549 0,7 0,7580 0,7611 0,7642 0,7673 0,7704 0,7734 0,7764 0,7794 0,7823 0,7852 0,8 0,7881 0,7910 0,7939 0,7967 0,7995 0,8023 0,8051 0,8078 0,8106 0,8133 0,9 0,8159 0,8186 0,8212 0,8238 0,8264 0,8289 0,8315 0,8340 0,8365 0,8389 1,0 0,8413 0,8438 0,8461 0,8485 0,8508 0,8531 0,8554 0,8577 0,8599 0,8621 1,1 0,8643 0,8665 0,8686 0,8708 0,8729 0,8749 0,8770 0,8790 0,8810 0,8830 1,2 0,8849 0,8869 0,8888 0,8907 0,8925 0,8944 0,8962 0,8980 0,8997 0,9015 1,3 0,9032 0,9049 0,9066 0,9082 0,9099 0,9115 0,9131 0,9147 0,9162 0,9177 1,4 0,9192 0,9207 0,9222 0,9236 0,9251 0,9265 0,9279 0,9292 0,9306 0,9319 1,5 0,9332 0,9345 0,9357 0,9370 0,9382 0,9394 0,9406 0,9418 0,9429 0,9441 1,6 0,9452 0,9463 0,9474 0,9484 0,9495 0,9505 0,9515 0,9525 0,9535 0,9545 1,7 0,9554 0,9564 0,9573 0,9582 0,9591 0,9599 0,9608 0,9616 0,9625 0,9633 1,8 0,9641 0,9649 0,9656 0,9664 0,9671 0,9678 0,9686 0,9693 0,9699 0,9706 1,9 0,9713 0,9719 0,9726 0,9732 0,9738 0,9744 0,9750 0,9756 0,9761 0,9767 2,0 0,9772 0,9778 0,9783 0,9788 0,9793 0,9798 0,9803 0,9808 0,9812 0,9817 2,1 0,9821 0,9826 0,9830 0,9834 0,9838 0,9842 0,9846 0,9850 0,9854 0,9857 2,2 0,9861 0,9864 0,9868 0,9871 0,9875 0,9878 0,9881 0,9884 0,9887 0,9890 2,3 0,9893 0,9896 0,9898 0,9901 0,9904 0,9906 0,9909 0,9911 0,9913 0,9916 2,4 0,9918 0,9920 0,9922 0,9925 0,9927 0,9929 0,9931 0,9932 0,9934 0,9936 2,5 0,9938 0,9940 0,9941 0,9943 0,9945 0,9946 0,9948 0,9949 0,9951 0,9952 2,6 0,9953 0,9955 0,9956 0,9957 0,9959 0,9960 0,9961 0,9962 0,9963 0,9964 2,7 0,9965 0,9966 0,9967 0,9968 0,9969 0,9970 0,9971 0,9972 0,9973 0,9974 2,8 0,9974 0,9975 0,9976 0,9977 0,9977 0,9978 0,9979 0,9979 0,9980 0,9981 2,9 0,9981 0,9982 0,9982 0,9983 0,9984 0,9984 0,9985 0,9985 0,9986 0,9986 3,0 0,9987 0,9987 0,9987 0,9988 0,9988 0,9989 0,9989 0,9989 0,9990 0,9990

Ablesebeispiel: 8212,0)92,0( =Φ Werte für negatives z mit der Formel )(1)( zz Φ−=−Φ , z. B.

0606,09394,01)55,1( =−=−Φ

Page 25: Kapitel 4: Wahrscheinlichkeitsrechnung und Kombinatorikkamelzer/2010ws/Statistik_Vorlesung_Kapitel_4_v2.pdf · Statistik, Prof. Dr. Karin Melzer 5 4.1. Zufallsexperiment und Ereignisse

Statistik, Prof. Dr. Karin Melzer49

4.9. Stetige Zufallsvariablen

4.9.1. Beispiele für stetige Zufallsvariablend) Standardnormalverteilung

Eine Zufallsvariable Z heißt standardnormalverteilt , wenn Z~N(0,1). In diesem Fall gilt für ihre Dichtefunktion:

Die Verteilungsfunktion lautet:

Die Standardnormalverteilung ist symmetrisch, d. h.

- f(z) = f(-z) und

- Φ(-z) = 1 –Φ(z)

( ) 2

2

2

1 z

ezf−

⋅=π

( ) ( ) dtezZPzz t

∫∞−

−=≤=Φ 2

2

2

1

π

Statistik, Prof. Dr. Karin Melzer50

4.9. Stetige Zufallsvariablen

4.9.1. Beispiele für stetige Zufallsvariablend) Standardnormalverteilung

Umrechnung Normalverteilung in Standardnormalverteilung:

Ist X~N(µ,σ2). Dann ist die Zufallsvariable(Standardisierung s. Abschnitt 4.8).

Für die Verteilungsfunktionen gilt dann:

Anwendung: diese Formel wird für die Berechnung von Wahrscheinlichkeiten für normalverteilte ZVen benutzt.

( )1,0~ NX

µ−=

( ) ( ) ( )zZPx

xXPxFX ≤=

−Φ=≤=σ

µ

Page 26: Kapitel 4: Wahrscheinlichkeitsrechnung und Kombinatorikkamelzer/2010ws/Statistik_Vorlesung_Kapitel_4_v2.pdf · Statistik, Prof. Dr. Karin Melzer 5 4.1. Zufallsexperiment und Ereignisse

Statistik, Prof. Dr. Karin Melzer51

4.10. Quantile der Standardnormalverteilung & Zufallsstreubereiche

4.10.1. Quantile der StandardnormalverteilungDie Zahl z mit P(Z ≤ z) = 0,95heißt das 95 %-Quantil der (Standard)Normalverteilung. Der Zahlenwert dieses Quantils ist 1,645; man schreibt hierfür

z0,95= 1,645.

Entsprechend sind das 99 %-Quantil und weitere Quantile definiert.

Die wichtigsten Quantile stehen in einer Tabelle zur Verfügung.

Allgemein:

Für eine Zufallsvariable Z ~ N(0;1) heißt die Zahl zp mit

P(Z ≤ zp) = Φ(zp) = p für 0 ≤ p ≤ 1

das p-Quantil der Standardnormalverteilung.

Statistik, Prof. Dr. Karin Melzer52

4.10. Quantile der Standardnormalverteilung & Zufallsstreubereiche

Quantile

der t-Verteilung m

it m F

reiheitsgraden und

Quantile

der Standard-Norm

alverteilung (NV

)

q

m

0,8

0,9 0,95

0,975 0,99

0,995 0,999

1 1,376

3,078 6,314

12,706 31,821

63,656 318,289

2 1,061

1,886 2,920

4,303 6,965

9,925 22,328

3 0,978

1,638 2,353

3,182 4,541

5,841 10,214

4 0,941

1,533 2,132

2,776 3,747

4,604 7,173

5 0,920

1,476 2,015

2,571 3,365

4,032 5,894

6 0,906

1,440 1,943

2,447 3,143

3,707 5,208

7 0,896

1,415 1,895

2,365 2,998

3,499 4,785

8 0,889

1,397 1,860

2,306 2,896

3,355 4,501

9 0,883

1,383 1,833

2,262 2,821

3,250 4,297

10 0,879

1,372 1,812

2,228 2,764

3,169 4,144

11 0,876

1,363 1,796

2,201 2,718

3,106 4,025

12 0,873

1,356 1,782

2,179 2,681

3,055 3,930

13 0,870

1,350 1,771

2,160 2,650

3,012 3,852

14 0,868

1,345 1,761

2,145 2,624

2,977 3,787

15 0,866

1,341 1,753

2,131 2,602

2,947 3,733

16 0,865

1,337 1,746

2,120 2,583

2,921 3,686

17 0,863

1,333 1,740

2,110 2,567

2,898 3,646

18 0,862

1,330 1,734

2,101 2,552

2,878 3,610

19 0,861

1,328 1,729

2,093 2,539

2,861 3,579

20 0,860

1,325 1,725

2,086 2,528

2,845 3,552

21 0,859

1,323 1,721

2,080 2,518

2,831 3,527

22 0,858

1,321 1,717

2,074 2,508

2,819 3,505

23 0,858

1,319 1,714

2,069 2,500

2,807 3,485

24 0,857

1,318 1,711

2,064 2,492

2,797 3,467

25 0,856

1,316 1,708

2,060 2,485

2,787 3,450

26 0,856

1,315 1,706

2,056 2,479

2,779 3,435

27 0,855

1,314 1,703

2,052 2,473

2,771 3,421

28 0,855

1,313 1,701

2,048 2,467

2,763 3,408

29 0,854

1,311 1,699

2,045 2,462

2,756 3,396

30 0,854

1,310 1,697

2,042 2,457

2,750 3,385

35 0,852

1,306 1,690

2,030 2,438

2,724 3,340

40 0,851

1,303 1,684

2,021 2,423

2,704 3,307

45 0,850

1,301 1,679

2,014 2,412

2,690 3,281

50 0,849

1,299 1,676

2,009 2,403

2,678 3,261

60 0,848

1,296 1,671

2,000 2,390

2,660 3,232

70 0,847

1,294 1,667

1,994 2,381

2,648 3,211

80 0,846

1,292 1,664

1,990 2,374

2,639 3,195

90 0,846

1,291 1,662

1,987 2,368

2,632 3,183

100 0,845

1,290 1,660

1,984 2,364

2,626 3,174

200 0,843

1,286 1,653

1,972 2,345

2,601 3,131

500 0,842

1,283 1,648

1,965 2,334

2,586 3,107

NV

0,842

1,282 1,645

1,960 2,326

2,576 3,090

Ablesebeispiele:

;

Werte für

mit den F

ormeln

und .

Beispiele hierfür:

;

Page 27: Kapitel 4: Wahrscheinlichkeitsrechnung und Kombinatorikkamelzer/2010ws/Statistik_Vorlesung_Kapitel_4_v2.pdf · Statistik, Prof. Dr. Karin Melzer 5 4.1. Zufallsexperiment und Ereignisse

Statistik, Prof. Dr. Karin Melzer53

4.10. Quantile der Standardnormalverteilung & Zufallsstreubereiche

4.10.2. Zufallsstreubereich oder PrognoseintervallUnter einem Zufallsstreubereich oder einem Prognoseintervall einer normalverteilten Zufallsvariable X versteht man ein Intervall um den Erwartungswert µ, indem sich die Ausprägungen von X mit einer Wahrscheinlichkeit p (z. B. p = 90%, 98%, 99%) befinden.

⇒ Die Ausprägungen von X befinden sich außerhalb des Zufallsstreubereiches mit einer Wahrscheinlichkeit von α =1-p.

Zufallsstreubereiche können die folgende Form annehmen:

a) Zweiseitiger Zufallsstreubereich für X~N(µ;σ2):

b) Einseitig nach oben beschränkter Zufallsstreubereich für X~N(µ;σ2):

c) Einseitig nach unten beschränkter Zufallsstreubereich für X~N(µ;σ2):

[ ]σµσµ αα ⋅+⋅− −−22

11; zz

[ )∞⋅− − ;1 σµ αz

( ]σµ α ⋅+∞− −1; z

Statistik, Prof. Dr. Karin Melzer54

4.11. Der Zentrale GrenzwertsatzEinführendes Beispiel (1)

Sie arbeiten in einer Firma, deren Gewinn im nächsten Jahr folgendermaßen modelliert werden kann: drehen Sie ein Glücksrad, das Werte zwischen 0 und 1 liefert, und multiplizieren Sie diesen Wert mit 1 Mio. (d. h. der Gewinn liegt zw. 0 und 1 Mio. EUR).

Ihr Risiko: Beträgt der Gewinn weniger als 200.000 €, bekommen Sie keinen Bonus.

Fragen:• Wie hoch wäre der durchschnittliche Gewinn, wenn diese Situation

wiederholt auftritt?• Wie groß ist die Wkt., dass Sie keinen Bonus bekommen?

• Ihr Chef fragt nach „einer Zahl“ für den Gewinn. Was sollten Sie ihm antworten?

• Wie würde ein Histogramm aussehen, das die Prozentanteile dafür zeigt, dass der Gewinn in die folgenden Klassen fällt:

0 − 0,2 0,2 − 0,4 0,4 − 0,6 0,6 − 0,8 0,8 − 1

Page 28: Kapitel 4: Wahrscheinlichkeitsrechnung und Kombinatorikkamelzer/2010ws/Statistik_Vorlesung_Kapitel_4_v2.pdf · Statistik, Prof. Dr. Karin Melzer 5 4.1. Zufallsexperiment und Ereignisse

Statistik, Prof. Dr. Karin Melzer55

4.11. Der Zentrale GrenzwertsatzEinführendes Beispiel (2)

Jetzt: Durchschnittsbildung Bei der Bildung eines Durchschnitts von Zufallszahlen wird die Unsicherheit reduziert („Diversifizierung“)

Modifizieren Sie die Gewinnfunktion: bilden Sie den Durchschnitt aus dem Ergebnis von zwei Glücksrädern und multiplizieren Sie diesen Wert mit 1 Mio.

Beträgt der Gewinn weniger als 200.000 €, bekommen Sie keinen Bonus.

Fragen (wie vorher):• Wie hoch wäre der durchschnittliche Gewinn, wenn diese Situation

wiederholt auftritt?• Wie groß ist die Wkt., dass Sie keinen Bonus bekommen?

• Ihr Chef fragt nach „einer Zahl“ für den Gewinn. Was sollten Sie ihm antworten?

• Wie würde ein Histogramm aussehen, das die Prozentanteile dafür zeigt, dass der Gewinn in die folgenden Klassen fällt:

0 − 0,2 0,2 − 0,4 0,4 − 0,6 0,6 − 0,8 0,8 − 1

Statistik, Prof. Dr. Karin Melzer56

4.11. Der Zentrale GrenzwertsatzEinführendes Beispiel (3)

Simulation mit xls: zufallszahl() erzeugt zufällige Zahlen zwischen 0 und 1. Mit <F9> kontrollieren, ob‘s funktioniert (Werte müssen sich ändern).

Fragen (wie vorher):• Durchschnittlicher Gewinn: Wie im ersten Fall: 0,5 Millionen (Erwartungswert)• Wkt., dass kein Bonus gezahlt wird: Wesentlich kleiner als im 1. Fall (s. Histogramm)

• Ihr Chef fragt nach „einer Zahl“ für den Gewinn. Wenn es um Zufallszahlen geht, sollte man den Chef daran gewöhnen, besser zu fragen „Wie ist die Verteilung?“ anstatt „Was ist die Zahl?“

• Beispiel für Histogramm mit prozentualer Verteilung des Gewinns:

Warum geht das Histogramm in

der Mitte nach oben?

Noch wichtiger: was bedeutet das?

Histogramm

0,00%

5,00%

10,00%

15,00%

20,00%

25,00%

30,00%

35,00%

40,00%

0 - 0,2 0,2 - 0,4 0,4 - 0,6 0,6 - 0,8 0,8 - 1

Gewinn in Mio.

Pro

zent

Page 29: Kapitel 4: Wahrscheinlichkeitsrechnung und Kombinatorikkamelzer/2010ws/Statistik_Vorlesung_Kapitel_4_v2.pdf · Statistik, Prof. Dr. Karin Melzer 5 4.1. Zufallsexperiment und Ereignisse

Statistik, Prof. Dr. Karin Melzer57

4.11. Der Zentrale GrenzwertsatzEinführendes Beispiel (4)

Warum geht das Histogramm in der Mitte nach oben? Würfeln mit einem Würfel: Werte von 1 bis 6 mit gleicher Wkt. 1/6:

Würfeln mit 2 Würfeln: Werte zwischen 2 und 12 mit unterschiedlicher Wkt.

Glücksrad: Angenommen, die Glücksräder drehen sich in 1/100-tel-Abschnitten.Wie bekommt man 0: nur als Mittelwert von 0 und 0Wie bekommt man 0,5: Mittelwert von 0 und 1, 0,01/0,99, 0,02/0,98, etc. D.h. die Form der Verteilung ändert sich, wenn man den Mittelwert von ZV bildet.

6543211/6

66564636261615141312111/36

6564636261514131212/36

554535252423223/36

54535242324/36

4434335/36

436/36

Statistik, Prof. Dr. Karin Melzer58

4.11. Der Zentrale GrenzwertsatzEinführendes Beispiel (5)

Welche Bedeutung hat die Änderung der Verteilung zur Mitte hin ? Histogramm:

• wenn der Balken in der Mitte höher wird, müssen die Balken an den Enden kleiner werden (Summe: 100%)

• Das Risiko, keinen Bonus zu bekommen wird also kleiner.

Allgemein: • Wenn man den Durchschnitt von Zufallsvariablen bildet, wird die Verteilung des

Durchschnitts in der Mitte höher und an den Enden niedriger, d.h. die Verteilung wird mehr zentralisiert.

• Die Streuung einer Verteilung ist ein Maß für die Unsicherheit einer Zufallsvariablen.

• Je breiter die Verteilung, desto größer ist die Varianz bzw. Std.abweichung und damit desto größer ist die Unsicherheit.

• Je schmaler die Verteilung, desto kleiner ist die Varianz bzw. Std.abweichung und damit desto kleiner ist die Unsicherheit.

• ZGWS: bildet man die Summe o. den Durchschnitt über genügend viele unabhängige Zufallsvariablen (die Verteilung ist dabei egal), so erhält man eine Normalverteilung !

Page 30: Kapitel 4: Wahrscheinlichkeitsrechnung und Kombinatorikkamelzer/2010ws/Statistik_Vorlesung_Kapitel_4_v2.pdf · Statistik, Prof. Dr. Karin Melzer 5 4.1. Zufallsexperiment und Ereignisse

Statistik, Prof. Dr. Karin Melzer59

4.11. Der Zentrale Grenzwertsatz

4.11.1. Summe/Durchschnitt normalverteilter Zufallsvariablen (ZV)

Sind X1, X2, X3, … Xn unabhängige (!) und normalverteilte Zufallsvariablen mit versch.

Erwartungswerten µ1, µ2, µ3, …, µn und Standardabweichungen σ1, σ2, σ3, …, σn , dann gilt:

Sn = X1+ X2+X3+… +Xn ~ N(µ1+µ2+µ3+ …+µn ; σ12 + σ2

2 + σ32 + …+ σn

2 )

Insbesondere heißt das, wenn X1 und X2 unabhängig und normalverteilt sind:

X1+ X2 ~ N(µ1 + µ2; σ12 + σ2

2 )

X1 – X2 ~ N(µ1 – µ2; σ12 + σ2

2 ) (Achtung: „+“ bei der Varianz)

Jetzt: gleiche Erwartungswerte µ1= µ2 = µ3 = …= µn = µ und σ12 = σ2

2 = σ32 = …= σn

2 =σ2

Sn = X1+ X2+X3+… +Xn ~ N(nµ ; nσ2 ) (Summe normalverteilter ZV)

D = 1/n (X1+ X2+X3+… +Xn) ~ N(µ ; σ2/n )(Durchschnitt normalverteilter ZV)

Statistik, Prof. Dr. Karin Melzer60

4.11. Der Zentrale Grenzwertsatz

4.11.2. Der zentrale Grenzwertsatz: Summe/Durchschnitt nicht normalverteilter ZufallsvariablenSind X1, X2, X3, … Xn (nicht notwendigerweise normalverteilte ) Zufallsvariablen, die unabhängige Durchführungen desselben Zufallsexperimentes beschreiben,

mit gleichen Erwartungswerten E(X1)= E(X2)=…=E(Xn) = µ und

gleichen Varianzen Var(X1)=Var(X2)=…=Var(Xn)= σ2, dann gilt für große n:

Insbesondere bedeutet das, dass eine Summe vieler unabhängiger Größen näherungsweise normalverteilt ist, selbst wenn die einzelnen Summanden nichtnormalverteilt sind.

( )

≈+++

≈+++

nN

n

XXX

nnNXXX

n

n

221

221

;...

;...

σµ

σµ

Page 31: Kapitel 4: Wahrscheinlichkeitsrechnung und Kombinatorikkamelzer/2010ws/Statistik_Vorlesung_Kapitel_4_v2.pdf · Statistik, Prof. Dr. Karin Melzer 5 4.1. Zufallsexperiment und Ereignisse

Statistik, Prof. Dr. Karin Melzer61

4.11. Der Zentrale Grenzwertsatz

4.11.2. Beispiele des zentralen Grenzwertsatzesa) Näherung der Binomialverteilung durch die Normalverteilung

0

0,02

0,04

0,06

0,08

0,1

0,12

0,14

0,16

0

00

0,05

0,1

0,15

0,2

0,25

0

0

0

0,05

0,1

0,15

0,2

0,25

0,3

0,35

0,4

0,45

0

Statistik, Prof. Dr. Karin Melzer62

4.11. Der Zentrale Grenzwertsatz

4.11.2. Beispiele des zentralen Grenzwertsatzesb) Näherung einer Summe von Gleichverteilungen durch die Normalverteilung

0

0,2

0,4

0,6

0,8

1

1,2

-3 -2,6 -2,2 -1,8 -1,4 -1 -0,6 -0,2 0,2 0,6 1 1,4 1,8 2,2 2,6 3 3,4 3,8 -0,2

0

0,2

0,4

0,6

0,8

1

1,2

-3 -2,6 -2,2 -1,8 -1,4 -1 -0,6 -0,2 0,2 0,6 1 1,4 1,8 2,2 2,6 3 3,4 3,8

0

0,1

0,2

0,3

0,4

0,5

0,6

0,7

-3 -2,6 -2,2 -1,8 -1,4 -1 -0,6 -0,2 0,2 0,6 1 1,4 1,8 2,2 2,6 3 3,4 3,8 0

0,05

0,1

0,15

0,2

0,25

0,3

0,35

0,4

0,45

-3 -2,6 -2,2 -1,8 -1,4 -1 -0,6 -0,2 0,2 0,6 1 1,4 1,8 2,2 2,6 3 3,4 3,8

Page 32: Kapitel 4: Wahrscheinlichkeitsrechnung und Kombinatorikkamelzer/2010ws/Statistik_Vorlesung_Kapitel_4_v2.pdf · Statistik, Prof. Dr. Karin Melzer 5 4.1. Zufallsexperiment und Ereignisse

Statistik, Prof. Dr. Karin Melzer63

4.11. Der Zentrale Grenzwertsatz

4.11.2. StetigkeitskorrekturWird eine diskrete Zufallsvariable X, die nur ganzzahlige Werte annehmen kann, durch eine Normalverteilung approximiert, sollten Wahrscheinlichkeiten mit den Formeln

berechnet werden. Achtung: Bei diesen Formeln darf „≤“ nicht durch „<“ ersetzt werden.Die Summanden „+0,5“ bzw. „–0,5“ nennt man „Stetigkeitskorrektur “. Sie sind erforderlich, wenn eine diskrete Zufallsvariable X mit ganzzahligen Werten durch eine stetige Zufallsvariable (Normalverteilung) angenähert wird.

−−Φ−

+−Φ≈≤≤σµ

σµ 5,05,0

)(ab

bXaP

+−Φ≈≤σµ 5,0

)(b

bXP

−−Φ−≈≤σµ 5,0

1)(a

XaP

Statistik, Prof. Dr. Karin Melzer64

4.11. Der Zentrale Grenzwertsatz

4.11.2. Approximation von BV, PV, HV durch die Normalverteilung

a) B(n;p) ≈ N(µ;σ2) mit µ = n·pund σ2 = n·p·q, wobei q = 1 –p. Faustregel: Approximation ist gültig für n·p·q≥ 9.

b) Po(λ) ≈ N(µ;σ2) mit µ = λ und σ2 = λ.

Faustregel: Approximation ist gültig für λ ≥ 9.

c) H(n;M;N) ≈ N(µ;σ2) mit µ = n·pund σ2 = n·p·q·(N – n)/(N –1), wobei p = M/N und q = 1 –p. Faustregel: Approximation ist gültig für n/N ≤ 0,05und n·p·q≥ 9.

Merke: Alle Faustregeln bedeuten σ ≥ 3.

In allen drei Fällen ist die Stetigkeitskorrektur bei der Berechnung der

Wahrscheinlichkeiten zu beachten.