Gr o e von Unendlich Statistik Gr o e von Unendlich fileStatistik Institut urf angewandte Statistik...

21
Statistik Institut f¨ ur angewandte Statistik & EDV Universit¨ at f¨ ur Bodenkultur Wien Sommersemester 2012 3 Wahrscheinlichkeitsrechnung Gr¨ oße von Unendlich Enth¨ alt die Menge 1. der nat¨ urlichen Zahlen N = {1, 2, 3, 4,...} 2. aller reellen Zahlen im Intervall [0, 1] mehr Elemente? Gibt es verschiedene Arten von Unendlich? 1 Gr¨ oße von Unendlich 0.0 0.2 0.4 0.6 0.8 1.0 Gesamt 1/1 1/2 1/3 1/4 1/5 1/6 usw. 2 Gr¨ oße von Unendlich Es gibt zwei Arten von unendlich“: Abz¨ ahlbar unendlich: Elemente onnen durchnummeriert“ werden. Es gibt eine eindeutige Abbildung, die jedem Element der Menge eine nat¨ urliche Zahl zuordnet. ¨ Uberabz¨ ahlbar unendlich: Die nat¨ urlichen Zahlen reichen nicht aus, um jedem Element der Menge eine Nummer zuzuordnen. Die bekanntesten Beispiele f¨ ur ¨ uberabz¨ ahlbare Mengen sind die reellen Zahlen R und alle Teilintervalle [a, b] R mit a<b. 3

Transcript of Gr o e von Unendlich Statistik Gr o e von Unendlich fileStatistik Institut urf angewandte Statistik...

Statistik

Institut fur angewandte Statistik & EDV

Universitat fur Bodenkultur Wien

Sommersemester 2012

3 Wahrscheinlichkeitsrechnung

Große von Unendlich

Enthalt die Menge

1. der naturlichen Zahlen N = {1,2,3,4, . . .}

2. aller reellen Zahlen im Intervall [0,1]

mehr Elemente? Gibt es verschiedene Arten von Unendlich?

1

Große von Unendlich

0.0

0.2

0.4

0.6

0.8

1.0

Gesamt

1/1

1/2

1/3

1/41/51/6

usw.

2

Große von Unendlich

Es gibt zwei Arten von”

unendlich“:

Abzahlbar unendlich: Elemente konnen”

durchnummeriert“ werden.

Es gibt eine eindeutige Abbildung, die jedem Element der Menge

eine naturliche Zahl zuordnet.

Uberabzahlbar unendlich: Die naturlichen Zahlen reichen nicht aus,

um jedem Element der Menge eine Nummer zuzuordnen.

Die bekanntesten Beispiele fur uberabzahlbare Mengen sind die reellen

Zahlen R und alle Teilintervalle [a, b] ⊂ R mit a < b.

3

3.1 Wahrscheinlichkeit

Klassische Wahrscheinlichkeitsdefinition

Merkmalsraum M = {ω1, ω2, . . . , ωm}Ereignis E = {ωi1, ωi2, . . . , ωig} ⊂M

P ({ω1}) = P ({ω2}) = . . . = P ({ωm}) = p =1

m

⇒ P (E) =g

m=

”Anzahl der gunstigen Falle”

”Anzahl der moglichen Falle”

Statistik 2012: 3.1 Wahrscheinlichkeit 5

Beispiel: 1 Wurfel

Merkmalsraum M = {1,2,3,4,5,6} m = 6

Ergebnis”

ungerade Augenzahl“

E = {1,3,5} ⊂M g = 3

⇒ P (E) =3

6= 0.5

Statistik 2012: 3.1 Wahrscheinlichkeit 6

Beispiel: 2 Wufel

Merkmalsraum M = {(1,1), (1,2), . . . , (1,6), (2,1), . . . ,

. . . , (2,6), . . . , (6,1), . . . , (6,6)} m = 36

Ereignis E = {(1,1), (1,2), (1,3), (2,1), (2,2), (3,1)} g = 6

⇒ P (E) =6

36=

1

6= 0.167

Statistik 2012: 3.1 Wahrscheinlichkeit 7

Relative Haufigkeiten

Was passiert, wenn wir oft wurfeln?

• empirisches Gesetz der großen Zahlen

hr;n(E)n→∞−→

”Grenzwert“ (Wahrscheinlichkeit)

• (relative) Haufigkeit:

H1) 0 ≤ hr(E) ≤ 1 fur alle E ∈ E,

H2) hr(∅) = 0 und hr(M) = 1,

H3) E1, E2 ∈ E und E1 ∩ E2 = ∅ (E1 und E2 ”schließen einander

aus“)

⇒ hr(E1 ∪ E2) = hr(E1) + hr(E2) (Additivitat)

Statistik 2012: 3.1 Wahrscheinlichkeit 8

Relative Haufigkeiten

• Wahrscheinlichkeit:

P1) 0 ≤ P (E) ≤ 1 fur alle E ∈ E,

P2) P (∅) = 0 und P (M) = 1,

P3)

E1, E2, . . . ∈ EEi ∩ Ej = ∅ fur alle i 6= j

}⇒

⇒ P (E1 ∪ E2 ∪ . . .) = P (∞⋃

i=1

Ei) =∞∑

i=1

P (Ei)

(σ–Additivitat, abzahlbare Additivitat)

Statistik 2012: 3.1 Wahrscheinlichkeit 9

Relative Haufigkeiten

.......................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................... .................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................

.......

.......

.......

.......

.......

.......

.......

.......

.......

.......

.......

.......

.......

.......

.......

.......

.......

.......

.......

.......

.......

.......

.......

.......

.......

.......

.......

.......

.......

.......

.......

.......

.......

.......

.......

.......

.......

.......

.......

.......

.......

.......

.......

.......

.......

.......

.......

.......

.......

.......

.......

.......

.......

.......

.......

.......

.......

.......

.......

............................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................

.......

.......

.......

.......

...............................................................................................

.......................

...............................

........................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................

..................................................................................................................................................................................... .......

.......

.......

.......

...............................................................................................

.......................

...............................

........................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................

.....................................................................................................................................................................................

.......

.......

.......

..............................................................................

.......................

........................................

.............................................................................................................................................................................................................................................................................................................................................................................................................................................

.............................................................................................................................

a) b)M M

E E1E2

E1 ∩ E2

........................................................................................

a) Gegenwahrscheinlichkeit

P (Ec) = 1− P (E)

b) Additionssregel 2 Ereignisse

P (E1 ∪ E2) = P (E1) + P (E2)− P (E1 ∩ E2)

Statistik 2012: 3.1 Wahrscheinlichkeit 10

Relative Haufigkeiten

• Additionsregel k Ereignisse

P (E1 ∪ E2 ∪ . . . ∪ Ek) =

= P (E1) + P (E2) + . . .+ P (Ek)

−P (E1 ∩ E2)− P (E1 ∩ E3)− . . .− P (Ek−1 ∩ Ek)

+P (E1 ∩ E2 ∩ E3) + . . .+ P (Ek−2 ∩ Ek−1 ∩ Ek)

. . .

=k∑

l=1

(−1)l+1 ∑

{i1,...,il}⊂{1,...,k}P (Ei1 ∩ Ei2 ∩ . . . ∩ Eil)

Statistik 2012: 3.1 Zufallige Großen 11

3.2 Zufallige Großen

Zufallige Großen

In der Statistik werden numerische Merkmale durch sogenannte

Zufallsvariablen (zufallige Großen, ZG) X modelliert:

diskret: Wertebereich ist endliche Menge von Zahlen oder hochstens

abzahlbar unendlich (naturliche Zahlen, ganze Zahlen, . . . ):

{x1, x2, . . .}

stetig: Wertebereich ist uberabzahlbar unendlich, z.B. Intervall oder

reelle Zahlen.

Statistik 2012: 3.2 Zufallige Großen 13

Zufallige Großen

• Merkmalsraum MX

Wahrscheinlichkeitsverteilung PX der ZG X

Beispiel:

a) Wurfeln: MX = {1,2,3,4,5,6}, PX =?

b) Rundungsfehler: MX = (−0.5,0.5], PX =?

Statistik 2012: 3.2 Zufallige Großen 14

Verteilungsfunktion

Verteilungsfunktion (VF) FX einer ZG X (engl. cumulative distributionfunction)

FX(x) := PX((−∞, x]) = P (X ≤ x) fur x ∈ R

Es gilt:

VF 1) 0 ≤ FX(x) ≤ 1 ∀x ∈ R;

VF 2) FX ist monoton wachsend mit

limx→−∞ FX(x) = 0 und lim

x→∞ FX(x) = 1 ;

VF 3) PX((a, b]) = P (a < X ≤ b) = FX(b)−FX(a) fur −∞ < a ≤ b <∞.

Statistik 2012: 3.2 Zufallige Großen 15

Diskrete Zufallsgroßen

• es gibt hochstens abzahlbar unendlich viele Werte fur X

MX = {x1, x2, . . .}

• Wahrscheinlichkeitsfunktion (W-Fkt)

pX(xi) = P (X = xi)

• ∑xi∈MXpX(xi) = 1

Statistik 2012: 3.2 Zufallige Großen 16

Beispiel

• Wurfeln mit 2 Wurfeln

• X: Augensumme

• MX = {2,3, . . . ,11,12}

• W-Fkt

i 2 3 4 5 6 712 11 10 9 8

pX(i) 1/36 2/36 3/36 4/36 5/36 6/36

• pX(5) = P (X = 5) = P ({(1-4), (2-3), (3-2), (4-1)}) = 4/36

Statistik 2012: 3.2 Zufallige Großen 17

Stetige Zufallsgroße

• X kann (alle) Werte aus einem Kontinuum (z.B. Intervall) annehmen• Da es uberabzahlbar viele Punkte gibt, gilt fur alle Punkte x aus dem

Wertebereich von X

P (X = x) = 0

Nur intervalle haben positive Wahrscheinlichkeiten.• Dichtefunktion (DF):

nichtnegative Funktion fX : R→ R+• Es gilt:

P (a < X ≤ b) =∫ bafX(x) dx,

∫ ∞−∞

fX(x) dx = 1

PX((a, b])

a b x

.......................................................................................................................................................................................................................................................................................................................................................................................................................................

...................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

..

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

..

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

..

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

..

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

..

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

...

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

...

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

...

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

...

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

...

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

...

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

...

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

...

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

...

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

...

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

...

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

...

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

...

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

...

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

...

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

...

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

...

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

...

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

..

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

...

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

..

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

..

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

..

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

..

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

...

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

...

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

...

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

..

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

..

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

..

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

...

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

...

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

..

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

..

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

..

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

...

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

...

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

..

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

..

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

....

.....

.....

.....

.....

.....

.....

.....

.....

.....

....

.....

.....

.....

.....

.....

.....

.....

.....

.....

...

.....

.....

.....

.....

.....

.....

.....

.....

.....

...

.....

.....

.....

.....

.....

.....

.....

.....

.....

..

.....

.....

.....

.....

.....

.....

.....

.....

.....

..

.....

.....

.....

.....

.....

.....

.....

.....

.....

.

.....

.....

.....

.....

.....

.....

.....

.....

.....

.

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

....

.....

.....

.....

.....

.....

.....

.....

.....

....

.....

.....

.....

.....

.....

.....

.....

.....

...

.....

.....

.....

.....

.....

.....

.....

.....

...

.....

.....

.....

.....

.....

.....

.....

.....

..

.....

.....

.....

.....

.....

.....

.....

.....

..

.....

.....

.....

.....

.....

.....

.....

.....

.

.....

.....

.....

.....

.....

.....

.....

.....

.

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

.....

....

.....

.....

.....

.....

.....

.....

.....

....

..............................

..............................

..............................

..............................

..............................

..............................

..............................

...............

..............................

..............................

..............................

..............................

...................................................................................................................................................................................................................................................................................

Statistik 2012: 3.2 Zufallige Großen 18

Stetige Zufallsgroße

• Beispiel:

– Digital-Waage: X . . . Gewicht – Anzeige (in kg)

– DF

−0.5 0.0 0.5

1.0

fX(x)

x................................................................................................................................. .................................................................................................................................

...........................................................................................................................................................................................................................................................................................................................................................................................................................................

................

................

................

................

................

................

................

................

................

................

................

................

................

................

................

................

................

................

.............

................

................

................

................

................

................

................

................

................

................

................

................

................

................

................

................

................

................

.............

Statistik 2012: 3.2.1 Beispiel 19

3.3 Momente von Zufallsgroßen

Erwartungswert

E(X) = µX =

∑xi∈MX

xi pX(xi) falls X diskret

∫∞−∞ x fX(x) dx falls X stetig

Statistik 2012: 3.3 Momente von Zufallsgroßen 21

Varianz

• durchschnittliche quadratische Abweichung von µX

σ2X = Var(X) = E((X−µX)2) =

∑xi∈MX

(xi − µX)2 pX(xi) diskret

∫∞−∞(x− µX)2 fX(x) dx stetig

• Verschiebungssatz

σ2X = E(X2)− (E(X))2

Statistik 2012: 3.3 Verteilungen 22

3.4 Verteilungen

Diskrete Verteilungen

Diskrete Gleichverteilung: Mogliche Ereignisse x1, . . . , xm (Munze,

Wurfel, . . . ): X ∼ D(m)

P{X = xi} =1

m

Binomialverteilung: X Treffer mit Wahrscheinlichkeit p in Stichprobe

vom Umfang n: X ∼ Bi(n, p)

P{X = k} =(nk

)pk(1− p)n−k, EX = np, Var(X) = np(1− p)

Poissonverteilung: Modellierung von gleichverteilten Zeitpunkten,

Standort von Pflanzen, . . . : X ∼ Po(µ)

P{X = k} =µke−µ

k!, EX = µ, Var(X) = µ

Statistik 2012: 3.4.1 Diskrete Verteilungen 24

Diskrete Gleichverteilung

1 2 3 4 5 6

0.00

0.05

0.10

0.15

0.20

0.25

Wah

rsch

einl

ichk

eit

Würfel

Statistik 2012: 3.4.1 Diskrete Verteilungen 25

Binomialverteilung

0 1 2 3 4 5 6

0.0

0.1

0.2

0.3

0.4

Wah

rsch

einl

ichk

eit

Bi(6, 0.25)

Statistik 2012: 3.4.1 Diskrete Verteilungen 26

Poissonverteilung

0 5 10 15

0.00

0.05

0.10

0.15

0.20

0.25

0.30

Wah

rsch

einl

ichk

eit Po(2)

Statistik 2012: 3.4.1 Diskrete Verteilungen 27

Stetige Gleichverteilung

Mogliche Werte sind die reellen Zahlen auf dem Intervall [a, b]. Dichte

ist Rechtecksfunktion:

f(x) =

{1b−a, a ≤ x ≤ b0 , sonst

EX =a+ b

2, Var(X) =

(b− a)2

12Analog mehrdimensionale Gleichverteilung auf Rechtecken, Wurfeln

oder allgemeinen Bereichen: Dichte ist immer konstant 1/Flache bzw.

1/Volumen

Statistik 2012: 3.4.2 Stetige Verteilungen 28

Univariate Normalverteilung

Eine stetige Zufallsvariable X heißt normalverteilt,

in Zeichen X ∼ N(µ, σ2), wenn sie die Dichte

f(x) =1

σ√

2πexp

(−(x− µ)2

2σ2

)

besitzt.

E(X) = µ

Var(X) = σ2

Die spezielle Verteilung mit µ = 0 und σ2 = 1 heißt Standardnormalver-

teilung.

Statistik 2012: 3.4.3 Univariate Normalverteilung 29

Univariate Normalverteilung

−4 −2 0 2 4

0.0

0.1

0.2

0.3

0.4

Dic

hte

N(0,1)

N(2,2)

Statistik 2012: 3.4.3 Univariate Normalverteilung 30

Univariate Normalverteilung

−1 0 1 2 3 4 5

0.0

0.1

0.2

0.3

0.4

f(x) =1

2πσ2 exp

(x − µ)2

2σ2

Im Bild: µ = 2, σ2 = 1µ

ca. 68% µ ± σ

ca. 95% µ ± 2σ

ca. 99.7% µ ± 3σ

Statistik 2012: 3.4.3 Univariate Normalverteilung 31

Kennzahlen der Normalverteilung

3-σ-Regel:

[µ− σ, µ+ σ]: ca. 68% der Daten

[µ− 2σ, µ+ 2σ]: ca. 95% der Daten

[µ− 3σ, µ+ 3σ]: ca. 99.7% der Daten

Quartile:

1. Quartil x0.25 ≈ µ− 2σ/3

3. Quartil x0.75 ≈ µ+ 2σ/3

IQR dQ =≈ 4σ/3

Standardisieren:

Ist X normalverteilt nach N(µ, σ2), so ist die standardisierte Zufallsgroße

Z =X − µσ

∼ N(0,1)

standardnormalverteilt.

Statistik 2012: 3.4.3 Univariate Normalverteilung 32

Anwendung: Boxplot

1.5 ∗ dQ =3

2∗ 4

3σ = 2σ

Suche Grenze fur”

untypische“ Beobachtungen (Ausreißer)

unterer Whisker:

zu = x0.25 − 1.5dQ ≈ µ−2

3σ − 2σ = µ− 2.66σ

oberer Whisker:

zo = x0.75 + 1.5dQ ≈ µ+2

3σ + 2σ = µ+ 2.66σ

Bei Normalverteilung gilt: [µ − 2.66σ, µ + 2.66σ] enthalt etwas mehr als99% der Daten (exakt 99.234%).

Statistik 2012: 3.4.3 Univariate Normalverteilung 33

Anwendung: Boxplot

●●

●●

● ●

●●

● ●●●●

●●

●●●

●●

●●

1 3 5 7 9 11 13 15 17 19 21 23 25 27 29 31 33 35 37 39 41 43 45 47 49

−2

02

4

50 Stichproben aus der N(0,1) mit n=100

Statistik 2012: 3.4.3 Univariate Normalverteilung 34

Anwendung: Boxplot

05

1015

20

Häufigkeitsverteilung Anzahl Ausreißer

Anz

ahl B

oxpl

ots

0 1 2 3 4 5 6

beobachtete Häufigkeitenerwartete Häufigkeiten Bi(100, 0.00766)

Statistik 2012: 3.4.3 Univariate Normalverteilung 35

Lognormalverteilung

Eine stetige, nicht-negative Zufallsvariable X heißt logarithmisch

normalverteilt, in Zeichen X ∼ LN(µ, σ2), falls die transformierte

Zufallsvariable Y = log(X) N(µ, σ2)-verteilt ist. Die Dichte von X ist

gegeben durch

f(x) =1

xσ√

2πexp

(−(log(x)− µ)2/2σ2

), x > 0.

E(X) = exp(µ+ σ2/2),

Var(X) = exp(2µ+ σ2) · (exp(σ2)− 1).

Statistik 2012: 3.4.4 Lognormalverteilung 36

Lognormalverteilung

0 1 2 3 4

0.0

0.1

0.2

0.3

0.4

0.5

0.6

Dic

hte

LN(0,1)

Statistik 2012: 3.4.4 Lognormalverteilung 37

Exponentialverteilung

Eine stetige, nicht-negative Zufallsvariable X heißt exponentialverteilt

mit Parameter λ > 0, in Zeichen X ∼ Ex(τ), wenn sie folgende Dichte

besitzt:

f(x) = λ exp(−x/τ), x > 0.

E(X) = τ

Var(X) = τ2

Statistik 2012: 3.4.5 Exponentialverteilung 38

Exponentialverteilung

0 1 2 3 4

0.0

0.2

0.4

0.6

0.8

1.0

Dic

hte

Ex(1)

Statistik 2012: 3.4.5 Exponentialverteilung 39

χ2-Verteilung

Eine stetige, nicht-negative Zufallsvariable X mit Dichte

fX(x) =xf/2−1 e−x/2

Γ(f/2) 2f/2x > 0

heißt χ2-verteilt mit f Freiheitsgraden, in Zeichen X ∼ χ2f .

E(X) = f

Var(X) = 2f

Sind X1, . . . , Xf unabhangig und identisch standardnormalverteilt, so ist

Yf =f∑

i=1

X2i

χ2-verteilt mit f Freiheitsgraden.

Statistik 2012: 3.4.6 χ2-Verteilung 40

χ2-Verteilung

0 2 4 6 8 10

0.00

0.05

0.10

0.15

0.20

0.25

Dic

hte

χ32

χ52

Statistik 2012: 3.4.6 χ2-Verteilung 41

t-Verteilung

Eine stetige Zufallsvariable X heißt t-verteilt mit f Freiheitsgraden, inZeichen X ∼ tf , wenn Sie folgende Dichte besitzt:

f(x) =Γ(f + 1)/2√

fπΓ(f/2)(1 + x2/f)(f+1)/2.

E(X) = 0, f > 1

Var(X) = f/(f − 2), f > 2

Die t1-Verteilung wird auch als Cauchy-Verteilung bezeichnet.

Sind X und Y unabhangig standardnormal- bzw. χ2f-verteilt, so gilt

T =X√Yf

∼ tf .

Statistik 2012: 3.4.7 t-Verteilung 42

t-Verteilung

−4 −2 0 2 4

0.0

0.1

0.2

0.3

0.4

Dic

hte

t15

t5

N(0,1)

Statistik 2012: 3.4.7 t-Verteilung 43

F-Verteilung

Sind X1 und X2 unabhangig χ2n- bzw. χ2

m-verteilt, so heißt

F =X1/n

X2/m

F-verteilt mit n und m Freiheitsgraden, in Zeichen F ∼ Fn,m.

Statistik 2012: 3.4.8 F-Verteilung 44

F-Verteilung

0.0 0.5 1.0 1.5 2.0 2.5 3.0

0.0

0.1

0.2

0.3

0.4

0.5

0.6

0.7

Dic

hte

F3,30

F3,3 χ30,3

Statistik 2012: 3.4.8 F-Verteilung 45

Beispiel: Standort von Pflanzen

Standort gleichverteilt auf Flache, im Schnitt µ = 0.5 Pflanzen/m2.Anzahl der Pflanzen auf Teilstuck von 4m2 hat Poissonverteilung mitParameter 4µ = 2 (allgemein: Flache * µ)

P{X ≤ 3} ≈ 0.857 P{X ≤ 6} ≈ 0.995

2 4 6 8 10

12

34

Statistik 2012: 3.4.9 Beispiele 46

Zusammenhange: Beispiel

PKW auf einspuriger Straße:

• Aus Vogelperspektive sind die Autos gleichverteilt auf der Fahrbahn

• Die Anzahl der Autos in Teilabschnitten ist poissonverteilt

(Parameter proportional zu Lange des Abschnittes)

• Pro Zeiteinheit fahren eine poissonverteilte Anzahl von Autos durch

eine Zahlstelle mit Parameter µ, Mittelwert µ.

• Die Zeiten zwischen zwei Autos sind exponentialverteilt, ebenfalls

mit Parameter τ = 1/µ, Mittelwert 1/µ.

Statistik 2012: 3.4.9 Beispiele 47

Zusammenhange: Mathematik

Gegeben sei eine gleichverteilte Stichprobe X der Große n auf dem

Intervall [a, b]. Dann gilt:

1. Die Anzahl der Beobachtungen in jedem Teilintervall [c, d], a ≤ c <

d ≤ b ist annahernd poissonverteilt mit Parameter (d− c) ∗ n/(a− b)falls d− c << b− a.

2. Die Anzahl der Beobachtungen in [c, d] ist exakt poissonverteilt, falls

n nicht fix, sondern eine poissonverteilte Zufallsgroße ist.

3. Die Abstande x(i) − x(i−1) zwischen zwei Werten der geordneten

Stichprobe sind exponentialverteilt mit Parameter τ = (b− a)/n.

Statistik 2012: 3.4.9 Beispiele 48

Weitere Beispiele

• Sind die Zeitpunkte des Auswechselns einer Gluhbirne gleichverteilt

uber die Zeit, so ist die Lebensdauer der Gluhbirne exponenti-

alverteilt, und die Anzahl der verbrauchten Gluhbirnen pro Jahr

poissonverteilt.

• Isolationsfehler je Kupferdrahtspule

• Webfehler je Stoffballen

• Teilchen, die von radioaktiver Substanz je Zeiteinheit emittiert

werden

• Druckfehler je Buchseite

• Zahl der Kunden in einem Geschaft pro Tag

Statistik 2012: 3.4.9 Beispiele 49

3.5 Der zentrale Grenzwertsatz

Eine Frage

Nehmen Sie an, wir befragen

1. 1000 Einwohner Osterreichs,

2. 500 BOKU-StudentInnen, und

3. 100 BOKU-ProfessorInnen,

ob sie Schnitzel oder Pizza bevorzugen. Die Stichproben seien jeweils

zufallig. Uber die kulinarischen Praferenzen welcher Personengruppe

wissen wir dann am besten Bescheid?

Statistik 2012: 3.5 Der zentrale Grenzwertsatz 51

Zentraler Grenzwertsatz

Sind X1, . . . Xn stochastisch unabhangige Zufallsvariablen mit Mittelwert

µ und Varianz σ2, dann konvergiert die Summe

η =n∑

i=1

Xi

fur n → ∞ gegen eine standardnormalverteilte Zufallsvariable mit

Mittelwert µη = nµ und Varianz σ2η = nσ2.

Folgerung (Gesetz der großen Zahlen): Das Mittel

x =1

n

n∑

i=1

xi

einer unabhangig identisch verteilten Stichprobe {x1, . . . , xn} hat

Erwartungswert µ und Varianz σ2/n.

Statistik 2012: 3.5 Der zentrale Grenzwertsatz 52

Zentraler Grenzwertsatz: Wurfel

1 2 3 4 5 6

# Wuerfel = 1

050

100

150

2 3 4 5 6 7 8 9 10 11 12

# Wuerfel = 2

050

100

150

19 22 24 26 28 30 32 34 36 38 40 42 44 46 48 50

# Wuerfel = 10

020

4060

80

292 304 313 322 331 340 349 358 367 376 385 394 404

# Wuerfel = 100

050

100

150

200

250

Statistik 2012: 3.5 Der zentrale Grenzwertsatz 53

Bsp: Wurfel

1 2 3 4 5 6

0.10

0.12

0.14

0.16

0.18

0.20

0.22

1 Würfel

Statistik 2012: 3.5 Der zentrale Grenzwertsatz 54

Bsp: Wurfel

2 4 6 8 10 12

Summe 2 Würfel

Statistik 2012: 3.5 Der zentrale Grenzwertsatz 55

Bsp: Wurfel

5 10 15

Summe 3 Würfel

Statistik 2012: 3.5 Der zentrale Grenzwertsatz 56

Bsp: Wurfel

20 30 40 50

Summe 10 Würfel

Statistik 2012: 3.5 Der zentrale Grenzwertsatz 57

Bsp: Wurfel

60 80 100 120

Summe 25 Würfel

Statistik 2012: 3.5 Der zentrale Grenzwertsatz 58

Bsp: Ja/Nein Frage (40% Ja)

0.0 0.2 0.4 0.6 0.8 1.0

0.0

0.2

0.4

0.6

0.8

1 Antwort

Wah

rsch

einl

ichk

eit

Statistik 2012: 3.5 Der zentrale Grenzwertsatz 59

Bsp: Ja/Nein Frage (40% Ja)

0.0 0.5 1.0 1.5 2.0

0.0

0.2

0.4

0.6

0.8

Summe 2 Antworten

Wah

rsch

einl

ichk

eit

Statistik 2012: 3.5 Der zentrale Grenzwertsatz 60

Bsp: Ja/Nein Frage (40% Ja)

0.0 0.5 1.0 1.5 2.0 2.5 3.0

0.0

0.2

0.4

0.6

0.8

Summe 3 Antworten

Wah

rsch

einl

ichk

eit

Statistik 2012: 3.5 Der zentrale Grenzwertsatz 61

Bsp: Ja/Nein Frage (40% Ja)

0 2 4 6 8 10

0.0

0.2

0.4

0.6

0.8

Summe 10 Antworten

Wah

rsch

einl

ichk

eit

Statistik 2012: 3.5 Der zentrale Grenzwertsatz 62

Bsp: Ja/Nein Frage (40% Ja)

0 5 10 15 20 25

0.0

0.2

0.4

0.6

0.8

Summe 25 Antworten

Wah

rsch

einl

ichk

eit

Statistik 2012: 3.5 Der zentrale Grenzwertsatz 63

Bsp: Ja/Nein Frage (40% Ja)

0.0 0.2 0.4 0.6 0.8 1.0

05

1015

2025

Verteilung Prozentsatz Ja

Dic

hte

25 Antworten50 Antworten200 Antworten

Statistik 2012: 3.5 Der zentrale Grenzwertsatz 64

Bedeutung der Normalverteilung

Immer wenn eine Zufallsvariable als additive Uberlagerung vieler

unabhangiger Einflußfaktoren angesehen werden kann, so ist sie

annahernd normalverteilt (oder ein Funktional davon).

Typische Beispiele:

• Messungen (Schwankungen der gemessenen Werte, Fehler der

Instrumente, . . . ), egal ob an biologischen oder technischen

Objekten

• Preise in effizienten Markten (Angebot und Nachfrage durch viele

unabhangige Marktteilnehmer) → log-Normalverteilung

• Prozentwerte

Statistik 2012: 3.5 Der zentrale Grenzwertsatz 65

Welche Verteilung?

Manche Verteilungen ergeben sich”

naturlich“ aus der Anwendung:

• Diskrete Verteilungen aus Kombinatorik (Binomial-, Gleich-VT)

• Exponential und Poisson aus Gleichverteilungsannahmen

• Normalverteilung wegen ZGWS

• Prufverteilungen (t, F , χ2) als Funktion der Normalverteilung

In jedem Fall mussen vor einer entsprechenden Analyse etwaige

Verteilungsannahmen gepruft werden → explorativ, Tests

Statistik 2012: 3.5 QQ-Diagramme 66

3.6 QQ-Diagramme

Bsp: 200 gleichverteilte Zufallsgroßen

x

Fre

quen

cy

0.0 0.2 0.4 0.6 0.8 1.0

05

1015

2025

0.0 0.2 0.4 0.6 0.8 1.00.

00.

20.

40.

60.

81.

0

x

Fn(

x)

Statistik 2012: 3.6 QQ-Diagramme 68

Bsp: 200 gleichverteilte Zufallsgroßen

x

Fre

quen

cy

0.0 0.2 0.4 0.6 0.8 1.0

05

1015

2025

0.0 0.2 0.4 0.6 0.8 1.0

0.0

0.2

0.4

0.6

0.8

1.0

x

Fn(

x)

Statistik 2012: 3.6 QQ-Diagramme 69

Bsp: 200 standardnormalverteilte ZG

x200

Fre

quen

cy

−3 −2 −1 0 1 2 3

010

2030

40

−3 −2 −1 0 1 2 3

0.0

0.2

0.4

0.6

0.8

1.0

x

Fn(

x)

Statistik 2012: 3.6 QQ-Diagramme 70

Bsp: 50 standardnormalverteilte ZG

x50

Fre

quen

cy

−2 −1 0 1 2

02

46

810

−2 −1 0 1 2

0.0

0.2

0.4

0.6

0.8

1.0

x

Fn(

x)

Statistik 2012: 3.6 QQ-Diagramme 71

Kurven vergleichen

−2 −1 0 1 2

02

46

x

exp(

x)

Statistik 2012: 3.6 QQ-Diagramme 72

PP-Diagramme

• Das menschliche Auge kann Kurven nicht besonders gut vergleichen.

• Ob Punkte auf einer Linie liegen ist dagegen sehr einfach zu

entscheiden.

• Zum Vergleich einer empirischen Verteilung vergleicht man daher

nicht die Verteilungskurven, sondern tragt die theoretischen Werte

auf der x-Achse ab, die empirischen Werte auf der y-Achse ab.

• Stimmen die Werte uberein, sollten die resultierenden Punkte im

Streudiagramm auf einer Geraden liegen.

Statistik 2012: 3.6 QQ-Diagramme 73

PP-Diagramme

−2 −1 0 1 2

0.0

0.2

0.4

0.6

0.8

1.0

x

Fn(

x)

●●

●●

0.0 0.2 0.4 0.6 0.8 1.0

0.0

0.2

0.4

0.6

0.8

1.0

theoretische Wahrscheinlichkten N(0,1)

beob

acht

ete

Wah

rsch

einl

ichk

eite

n

Statistik 2012: 3.6 QQ-Diagramme 74

PP-Diagramme

●●

●●

0.0 0.2 0.4 0.6 0.8 1.0

0.0

0.2

0.4

0.6

0.8

1.0

theoretische Wahrscheinlichkten N(0,1)

beob

acht

ete

Wah

rsch

einl

ichk

eite

n

●●

●●

0.0 0.1 0.2 0.3 0.4 0.5

0.0

0.2

0.4

0.6

0.8

1.0

theoretische Wahrscheinlichkten N(2,1)

beob

acht

ete

Wah

rsch

einl

ichk

eite

n

Statistik 2012: 3.6 QQ-Diagramme 75

QQ-Diagramme

• Ein großer Nachteil von PP-Diagrammen ist, daß

– die Parameter der Verteilung geschatzt werden mussen,

– Verteilungen mit unterschiedlichen Definitionsbereichen schwer

verglichen werden konnen.

• Abhilfe schafft Verwendung der Quantilsfunktion statt Verteilungs-

funktion:

– Definitionsbereich ist fur alle Verteilungen das Intervall [0,1].

– Fur mehrere Familien von Verteilungen, inkl. Gleichverteilung und

Normalverteilung gilt, daß QQ Diagramme gerade Linien ergeben,

auch wenn man falsche Parameter wahlt.

Statistik 2012: 3.6 QQ-Diagramme 76

QQ-Diagramme

● ●

●●●●

●●

●●●

●●●

●●●●●●

●●●●

●●●

●●●●

●●●

●●

●●●

●●

● ● ● ●

−2 −1 0 1 2

−2

−1

01

2

theoretische Quantile N(0,1)

beob

acht

ete

Qua

ntile

● ●

●●●●

●●

●●●

●●●

●●●●●●

●●●●

●●●

●●●●

●●●

●●

●●●

●●

● ● ● ●

0 1 2 3 4

−2

−1

01

2

theoretische Quantile N(2,1)

beob

acht

ete

Qua

ntile

Statistik 2012: 3.6 QQ-Diagramme 77

Bsp: Normalverteilte Daten

−2 −1 0 1 2

−2

−1

01

2

norm quantiles

x50

● ●

●●●●

●●●●●

●●●

●●●●●●

●●●●

●●●

●●●●

●●●

●●●●●

●●

● ● ● ●

−3 −2 −1 0 1 2 3

−3

−2

−1

01

2

norm quantiles

x200

●●●

●●●●●

●●●●●●●●●●●●●●

●●●●●●●

●●●●●●●●●●●●●●●●

●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●

●●●●●●●●●●●●●●●●●●

●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●

●●●●●●●●●●●●●●●●●

●●●●●●●●●

●●●●●●●●●●●●

●●●●●●●

●●●●●●●

●●●

Statistik 2012: 3.6 QQ-Diagramme 78

Bsp: Gleichverteilte Daten

−2 −1 0 1 2

0.0

0.2

0.4

0.6

0.8

1.0

norm quantiles

runi

f(50

)

●●

●● ●

●●●●●

●●●

●●●

●●●

●●●●●

●●

●●

●●●

●●●●●●●●

●●

● ●● ●

−3 −2 −1 0 1 2 3

0.0

0.2

0.4

0.6

0.8

1.0

norm quantiles

runi

f(20

0)

● ● ●●●●●●●●●●●●●●●

●●●●●●●●●

●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●

●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●

●●●●●●●

●●●●●●●●

●●●●●●●● ● ●

Statistik 2012: 3.6 QQ-Diagramme 79

Bsp: Exponentialverteilte Daten

−2 −1 0 1 2

0.0

0.5

1.0

1.5

2.0

2.5

3.0

norm quantiles

rexp

(50)

●●

● ● ●●●●●●●●●●●●●

●●●

●●●

●●●

●●●●●●●

●●

●●●

●●●

●●●●●

●●

−3 −2 −1 0 1 2 30

12

34

56

7

norm quantiles

rexp

(200

)● ● ●●●●●●●●●●●●●●●●●●●

●●●●●●●●●●●●●●●●●●●●●●●●

●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●●

●●●●●●●●●●●●●●●●●●●●●●●●●●

●●●●●●●●●●●●●●

●●●●●●●●●●●●●●●●●●●●●●●

●●●●●●●●●●●

●●●●●●●●●●●●●●●●●

●●●●●●●●

●●●●●●●●●

●●●●

●●●●

Statistik 2012: 3.6 QQ-Diagramme 80