Statistik II - wiwi.uni-augsburg.de · Universität Augsburg Gliederung 10. Gesetz der großen...

Post on 18-Aug-2019

214 views 0 download

Transcript of Statistik II - wiwi.uni-augsburg.de · Universität Augsburg Gliederung 10. Gesetz der großen...

Universität Augsburg

Klausur und Unterlagen

Klausur:

➢ „Spielregeln“: Wie Statistik I

➢ Nachholklausur im WS 2005 / 2006

Hilfreiche Unterlagen:

➢ Foliensatz∗

➢ Übungsaufgabensammlung

➢ Klausuraufgabensammlung

➢ Klausur Statistik II vom Wintersemester 2004 / 2005∗

∗) Download: www.wiwi.uni-augsburg.de/ibo, Rubrik „Downloads“

Literatur:

➢ Bamberg/Baur: Statistik, Oldenbourg, 12. Aufl. 2002

➢ Bamberg/Baur: Arbeitsbuch Statistik, Oldenbourg, 7. Aufl. 2004 (optional)

Statistik II 138

Statistik II

Sommersemester 2005

PD Dr. Michael Krapp

Institut für Statistik und Mathematische Wirtschaftstheorie

Universität Augsburg

Universität Augsburg

Gliederung

10. Gesetz der großen Zahlen und zentraler Grenzwertsatz

11. Grundlagen der induktiven Statistik

12. Punkt-Schätzung

13. Intervall-Schätzung

14. Signifikanztests

18. Stichprobenplanung

Statistik II 140

Universität Augsburg

Zusätzliche Veranstaltungen

Übung zu Statistik II Mittwoch 8:30 –10:00 HW 1001 Paul

Mittwoch 8:30 –10:00 FW 2101 Papatrifon

Mittwoch 10:15 –11:45 HW 1003 Krapp

Mittwoch 10:15 –11:45 FW 1109 Klein

Mittwoch 12:30 –14:00 HW 1003 Baur

Mittwoch 12:30 –14:00 FW 1106 Bamberg

Mittwoch 12:30 –14:00 FW 1109 Klein

Mittwoch 14:15 –15:45 HW 1004 Baur

Statistik II mit Excel – Grundkurs Mittwoch 14:15 –15:45 FW 2113 Paul

Mittwoch 16:00 –17:30 FW 2113 Paul

Statistik II mit Excel – Vertiefungskurs Mittwoch 17:45 –19:15 FW 2113 Paul

Übung zu Statistik I Mittwoch 17:45 –19:15 FW 1106 Klein/Papatrifon

Statistik II 139

Universität Augsburg

10.1 Gesetz der großen Zahlen

➢ Tschebyscheff-Ungleichung

P(|X− E(X)| = c) 5Var(X)

c2(93)

➢ angewandt auf X̄n = 1n

n∑

i=1Xi ergibt

P(|X̄n − µ| = c) 5σ2

n · c2

➢ Nun: n→ ∞ ⇒ Gesetz der großen Zahlen:

limn→∞

P(|X̄n − µ| = c) = 0 bzw. limn→∞

P(|X̄n − µ| 5 c) = 1 (95)

10. Gesetz der großen Zahlen und zentraler Grenzwertsatz 142

Universität Augsburg

Gesetz der großen Zahlen und zentraler Grenzwertsatz

➢ Gegeben: Zufallsvariablen X1, . . . ,Xn

• unabhängig und identisch verteilt (‚iid‘)

• E(Xi) = µ

• Var(Xi) = σ2

➢ Gesucht: Verhalten vonn∑

i=1

Xi bzw. X̄n =1

n

n∑

i=1

Xi

wenn n laufend erhöht wird.

➢ Beachte (vgl. Folie 125):

• E(X̄n) = µ

• Var(X̄n) = σ2

n

10. Gesetz der großen Zahlen und zentraler Grenzwertsatz 141

Universität Augsburg

10.2 Zentraler Grenzwertsatz

➢ BB S. 130: Wahrscheinlichkeiten von Ereignissen, die mithilfe der Summe

von iid Zufallsvariablen gebildet werden, lassen sich für großes n mittels

der Normalverteilung hinreichend genau berechnen.

➢ Beispiel (Übungsaufgabe 47):

X1, X2, X3 in [0; 1] gleichverteilt; Z1 = X1, Z2 = X1+X2, Z3 = X1+X2+X3

z1

f(z1)

1

1z2

f(z2)

1

1 2z3

f(z3)

34

1 2 3

10. Gesetz der großen Zahlen und zentraler Grenzwertsatz 144

Universität Augsburg

10.1 Gesetz der großen Zahlen

0 50 100 150 200 250

−0.6

−0.4

−0.2

0.0

0.2

0.4

n

x̄n

10. Gesetz der großen Zahlen und zentraler Grenzwertsatz 143

Universität Augsburg

10.2 Zentraler Grenzwertsatz

Beispiel (BB-Beispiel 61):

Xi ∼ B(1;p) ⇒ X =n∑

i=1Xi ∼ B(n;p) (Folie 93)

E(X) = np; Var(X) = np(1 − p) (Fig. 36)

⇒ P(

X−np√np(1−p)

5 x)

≈ Φ(x)

(Brauchbar, falls np = 5 und n(1 − p) = 5.)

10. Gesetz der großen Zahlen und zentraler Grenzwertsatz 146

Universität Augsburg

10.2 Zentraler Grenzwertsatz

➢ Approximativ gilt:n∑

i=1

Xi ∼ N(nµ;σ√n) (96)

➢ Standardisierung:

Yn =

n∑

i=1Xi − nµ

σ√n

=X̄n − µ

σ · 1√n

=X̄n − µ

σ

√n ∼ N(0; 1)

➢ Zentraler Grenzwertsatz:

P(Yn 5 x) −−−→n→∞

Φ(x) (97)

10. Gesetz der großen Zahlen und zentraler Grenzwertsatz 145

Universität Augsburg

Grundlagen der induktiven Statistik

➢ Vollerhebung of unmöglich, deshalb:

Beobachte Teilgesamtheit → schließe auf Grundgesamtheit

➢ Beispiel:

Warensendung von 1000 Stück; darunter M Stück Ausschuss.

M ist unbekannt.

→ Zufällige Entnahme von n = 30 Stück („Stichprobe“).

Darunter 2 Stück Ausschuss.

Denkbare Zielsetzungen:

• Schätze M durch eine Zahl (z.B. 230 · 1000 = 66,67)

• Schätze ein Intervall für M (z.B. M ∈ [58; 84])

• Teste die Hypothese, dass M > 50 ist.

11. Grundlagen der induktiven Statistik 148

Universität Augsburg

10.2 Zentraler Grenzwertsatz

Beispiel (BB-Aufgabe 76):

X1, . . . ,X12 gleichverteilt in [0; 1] ⇒ E(Xi) = 12; Var(Xi) = 1

12 (Fig. 36)

Y =

12∑

i=1

Xi − 6

Mit (87), (88), (91), (92) folgt:

E(Y) =12∑

i=1E(Xi) − 6 = 12 · 1

2 − 6 = 0

Var(Y) =12∑

i=1Var(Xi) = 12 · 1

12 = 1

⇒ Y ∼ N(0; 1) (approximativ)

10. Gesetz der großen Zahlen und zentraler Grenzwertsatz 147

Universität Augsburg

11.1–11.2.2 Grundbegriffe

➢ Stichprobenergebnis:

n-Tupel der Realisationen der Stichprobenvariablen, (x1, . . . , xn).

➢ Stichprobenraum:

Menge aller möglichen Stichprobenergebnisse.

➢ Likelihoodfunktion:

• Verteilgungsklasse, der F (Vtlg. von G) angehört, ist bekannt; Vertei-

lungsparameter ϑ aber unbekannt (z.B. N(µ;σ)).

• Einfache Stichprobe X1, . . . ,Xn.

→ Die gemeinsame Dichte / Wahrscheinlichkeitsfunktion von X1, . . . ,Xn in

Abhängigkeit von ϑ, f(x1, . . . , xn|ϑ), heißt Likelihoodfunktion.

11. Grundlagen der induktiven Statistik 150

Universität Augsburg

11.1–11.2.2 Grundbegriffe

➢ Grundgesamtheit (G):

Menge aller relevanten Merkmalsträger.

➢ Verteilung von G:

F(x) = P(X 5 x) = W’keit, dass ein Merkmalsträger ausgewählt wird, der

beim untersuchten Merkmal maximal die Ausprägung x aufweist.

➢ Uneingeschränkte (reine) Zufallsauswahl:

Jedes Element von G hat die selbe Chance, ausgewählt zu werden.

➢ Stichprobenumfang (n):

Anzahl der Merkmalsträger in der Stichprobe.

➢ Einfache Stichprobe:

Uneingeschränkte Zufallsauswahl und unabhängige Ziehung.

→ Alle Stichprobenvariablen X1, . . . ,Xn sind iid.

11. Grundlagen der induktiven Statistik 149

Universität Augsburg

Wichtige Stichprobenfunktionen (Fig. 38)

➢G

egeb

en:

•Ei

nfa

che

Stic

hp

rob

eX

1,.

..,Xn

•B

elie

big

eV

erte

ilun

g

•m

itE(Xi)

,Var

(Xi)

2

➠W

ich

tig

eSt

ich

pro

ben

fun

ktio

nen

:

➢H

erle

itu

ng

en:B

BS.

140

➢B

eso

nd

ers

wic

hti

ge

Zu

sam

men

hän

ge

...

11. Grundlagen der induktiven Statistik 152

Universität Augsburg

11.1–11.2.2 Grundbegriffe

Beispiel:

G ist B(1;p)-verteilt, p unbekannt; zu xi: fi(x) = px(1 −p)1−x (BB S. 99)

Einfache Stichprobe mit n = 2 ⇒ Likelihoodfunktion

f(x1, x2|p) = f1(x1) · f2(x2) (wegen Unabhängigkeit)

= px1(1 − p)1−x1 · px2(1 − p)1−x2 = px1+x2(1 − p)2−x1−x2

Stichprobenergebnis (0, 1) ⇒ f(0, 1|p) = p(1 − p) = p− p2

(Welcher Wert p passt „am besten“ zu (0, 1)?)

➢ Stichprobenfunktion:

Zufallsvariable V , die sich als Funktion der Stichprobenvariablen ergibt:

V = g(X1, . . . ,Xn), z.B. V = 1n

n∑

i=1Xi = X̄ (vgl. Folie 141)

11. Grundlagen der induktiven Statistik 151

Universität Augsburg

11.2.3 Testverteilungen

➀ Chi-Quadrat-Verteilung:

➢ Sind X1, . . . ,Xn iid N(0; 1)-verteilte ZV, so wird die Verteilung von

Z =

n∑

i=1

X2i

als Chi-Quadrat-Verteilung mit n Freiheitsgraden bezeichnet.

➢ Kurzschreibweise: Z ∼ χ2(n)

➢ Es gilt: E(Z) = n und Var(Z) = 2n

➢ Fraktile: Bis n 5 30 in Tabelle 5 (BB S. 322 ff.); ab n > 30 Näherung:

xα = 12 (x̃α +

√2n− 1)2

wobei x̃α das α-Fraktil der N(0; 1)-Verteilung ist.

11. Grundlagen der induktiven Statistik 154

Universität Augsburg

Wichtige Stichprobenfunktionen (Fig. 38)

➢ E(

1n

n∑

i=1(Xi − X̄)2

)

= n−1nσ2, aber: E(S2) = σ2

➢ Auf Grund der jensenschen Ungleichung (Folie 120) gilt E(S) 5 σ. Grund:

E(S) = E(√S2) 5

E(S2) =√σ2 = σ,

da g(x) =√x konkav ist.

➢ Verschiebungssatz für S2:

S2 =n

n− 1

[

1

n

n∑

i=1

(Xi − X̄)2

]

=n

n− 1

[

1

n

n∑

i=1

X2i − X̄2

]

=1

n− 1

[

n∑

i=1

X2i − nX̄2

]

=1

n− 1

n∑

i=1

X2i −

n

n− 1· X̄2

11. Grundlagen der induktiven Statistik 153

Universität Augsburg

χ2-Verteilung (BB Tab. 5, S. 324)

11. Grundlagen der induktiven Statistik 156

Universität Augsburg

11.2.3 Testverteilungen

Beispiel: x0,975 aus . . .

• χ2(30): x0,975 = 46,98

• χ2(50): x̃0,975 = 1,96 ⇒ x0,975 = 12 (1,96 +

√99)2 = 70,92

11. Grundlagen der induktiven Statistik 155

Universität Augsburg

11.2.3 Testverteilungen

➁ t-Verteilung:

➢ Ist X ∼ N(0; 1), Z ∼ χ2(n), X, Z unabhängig, so wird die Verteilung von

T =X

1nZ

als t-Verteilung mit n Freiheitsgraden bezeichnet.

➢ Kurzschreibweise: T ∼ t(n)

➢ Es gilt: E(T) = 0 und Var(T) = nn−2

➢ Fraktile:

• n > 30: verwende N(0; 1)-Fraktile; bis n 5 30: Tabelle 4 (BB S. 320 f.)

• Achtung: Nur α = 0,6 vertafelt. Ggfs. Symmetrie ausnutzen:

xα = −x1−α für α < 0,5

11. Grundlagen der induktiven Statistik 158

Universität Augsburg

Standardnormalverteilung (BB Tab. 3, S. 319)

11. Grundlagen der induktiven Statistik 157

Universität Augsburg

t-Verteilung (BB Tab. 4, S. 320)

11. Grundlagen der induktiven Statistik 160

Universität Augsburg

11.2.3 Testverteilungen

Beispiel: Bestimme folgende Fraktile für t(10) . . .

• x0,6 = 0,260

• x0,5 = 0

• x0,1 = −x0,9 = −1,372

11. Grundlagen der induktiven Statistik 159

Universität Augsburg

11.2.3 Testverteilungen

Beispiel: Bestimme x0,05 für F(2, 5):

F(5, 2): x̃1−0,05 = x̃0,95 = 19,30 ⇒F(2, 5): x0,05 = 1

x̃0,95= 1

19,30 = 0,052

11. Grundlagen der induktiven Statistik 162

Universität Augsburg

11.2.3 Testverteilungen

➂ F-Verteilung:

➢ Ist X ∼ χ2(m), Y ∼ χ2(n), X, Y unabhängig, so wird die Verteilung von

Z =1mX

1nY

als F-Verteilung mit den Freiheitsgraden m und n bezeichnet.

➢ Kurzschreibweise: Z ∼ F(m,n)

➢ Es gilt: E(Z) = nn−2 und Var(Z) =

2n2(n+m−2)

m(n−4)(n−2)2

➢ Fraktile:

• 0,95- und 0,99-Fraktile: Tabelle 6 (BB S. 325 f.); ggfs. interpolieren.

• Für 0,01- und 0,05-Fraktile:

xα = 1x̃1−α

mit x̃1−α aus F(n,m) (98)

11. Grundlagen der induktiven Statistik 161

Universität Augsburg

11.2.4 Verteilungen von Stichprobenfunktionen

Gegeben: Einfache Stichprobe X1, . . . ,Xn aus N(µ;σ)-Verteilung:

Stichprobenfunktion Verteilungn∑

i=1Xi N(nµ;σ

√n)

X̄ N(µ; σ√n)

X̄−µσ

√n N(0; 1)

1σ2

n∑

i=1(Xi − µ)2 χ2(n)

1σ2

n∑

i=1(Xi − X̄)2 = n−1

σ2 S2 χ2(n− 1)

X̄−µS

√n t(n− 1)

Bei bel. Verteilung von G sind X̄−µσ

√n und X̄−µ

S

√n approx. N(0; 1)-verteilt.

11. Grundlagen der induktiven Statistik 164

Universität Augsburg

F-Verteilung (BB Tab. 6, S. 325)

11. Grundlagen der induktiven Statistik 163

Universität Augsburg

12.1 Erwartungstreue und wirksamste Schätzfunktionen

➢ Eine Schätzfunktion Θ̂ = g(X1, . . . ,Xn) heißt erwartungstreu oder un-

verzerrt für ϑ, wenn unabhängig vom numerischen Wert von ϑ gilt:

E(Θ̂) = ϑ (99)

Gilt

limn→∞

E(Θ̂n) = ϑ

so heißt Θ̂n asymptotisch erwartungstreu für ϑ.

12. Punkt-Schätzung 166

Universität Augsburg

Punkt-Schätzung

➢ Ein unbekannter Parameter ϑ der Verteilung von G (z.B. σ von N(10;σ))

soll auf Basis einer Stichprobe geschätzt werden.

➢ Schätzwert: ϑ̂

➢ Vorgehen: Verwendung einer Schätzfunktion

Θ̂ = g(X1, . . . ,Xn)

Beachte: Der Schätzwert ϑ̂ ist die Realisierung der ZV (!) Θ̂.

➢ Frage: Welche Stichprobenfunktion ist zur Schätzung geeignet?

➠ Kriterien für die Beurteilung/Konstruktion von Schätzfunktionen!

➢ Im Folgenden: Vorliegen einer einfachen Stichprobe, d.h. X1, . . . ,Xn iid.

12. Punkt-Schätzung 165

Universität Augsburg

12.1 Erwartungstreue und wirksamste Schätzfunktionen

➢ Von zwei erwartungstreuen Schätzfunktionen Θ̂, Θ̂ ′ für ϑ heißt Θ̂ wirk-

samer als Θ̂ ′, wenn unabhängig vom numerischen Wert von ϑ gilt:

Var(Θ̂) < Var(Θ̂ ′)

➢ Beispiel: Wegen

Var(Θ̂) = Var(X̄) = σ2

n< Var(Θ̂ ′) = Var

(

X1+X22

) (91),(92)= 1

4(σ2 + σ2) = σ2

2

(falls n > 2) ist Θ̂ wirksamer als Θ̂ ′.

12. Punkt-Schätzung 168

Universität Augsburg

12.1 Erwartungstreue und wirksamste Schätzfunktionen

➢ Beispiel:

Sind Θ̂ = X̄, Θ̂ ′ = X1+Xn2 , Θ̂ ′′ = 1

n−1

n∑

i=1Xi erwartungstreu für µ?

a) Θ̂: E(X̄) = µ (Fig. 38)

⇒ Θ̂ ist erwartungstreu.

b) Θ̂ ′: E(

X1+Xn2

) (87),(88)= 1

2[E(X1) + E(Xn)] = 12(µ+ µ) = µ

⇒ Θ̂ ′ ist erwartungstreu.

c) Θ̂ ′′: E(

1n−1

n∑

i=1Xi

)

(87),(88)= 1

n−1

n∑

i=1E(Xi) = 1

n−1

n∑

i=1µ = n

n−1 µ 6= µ

⇒ Θ̂ ′′ ist nicht erwartungstreu, aber wegen

limn→∞

(

nn−1 µ

)

= µ asymptotisch erwartungstreu.

➢ Welche der erwartungstreuen Schätzfunktionen Θ̂, Θ̂ ′ ist ‚besser‘?

12. Punkt-Schätzung 167

Universität Augsburg

12.1 Erwartungstreue und wirksamste Schätzfunktionen

Verteilung von G ϑ wirksamste e.treue Schätzfkt.

unbekannt µ X̄

B(1;p) p (= µ) X̄

Gleichverteilung in [0; 2a] a (= µ) n+12n · max{X1, . . . ,Xn}

N(µ;σ) (σ bekannt oder unbekannt) µ X̄

N(µ;σ), µ bekannt σ2 1n

n∑

i=1(Xi − µ)2

N(µ;σ), µ unbekannt σ2 S2

12. Punkt-Schätzung 170

Universität Augsburg

12.1 Erwartungstreue und wirksamste Schätzfunktionen

Allgemein: Diejenige Schätzfunktion, die die gerinste Varianz aller im Rah-

men eines bestimmten Schätzproblems erwartungstreuer Schätzfunktionen

besitzt, heißt die wirksamste Schätzfunktion.

Die Bestimmung der wirksamsten Schätzfunktion ist relativ schwierig.

12. Punkt-Schätzung 169

Universität Augsburg

12.2 Konsistente Schätzfunktionen

➢ Aus der Tschebyscheff-Ungleichung

P(|X− E(X)| = c) 5Var(X)

c2(93)

resultiert folgende hinreichende (nicht notwendige) Konsistenzbedingung:

(

limn→∞

)

E(Θ̂n) = ϑ und limn→∞

Var(Θ̂n) = 0

➢ Beispiel: Ist X̄n konsistent für µ?

Aus Fig. 38 folgt . . .

• E(X̄n) = µ, d.h. X̄n ist erwartungstreu für µ.

• Var(X̄n) = σ2

n−−−→n→∞

0, d.h. die Varianzen bilden eine Nullfolge.

⇒ X̄n ist konsistent für µ.

12. Punkt-Schätzung 172

Universität Augsburg

12.2 Konsistente Schätzfunktionen

➢ Eine Folge von Schätzfunktionen Θ̂n gemäß

Θ̂1 = g1(X1)

Θ̂2 = g2(X1,X2)

...

Θ̂n = gn(X1, . . . ,Xn)

heißt konsistent für ϑ, wenn für alle c > 0 gilt:

P(|Θ̂n − ϑ| = c) −−−→n→∞

0 (100)

(Die Wahrscheinlichkeit, ϑ deutlich zu verfehlen, geht gegen 0.)

12. Punkt-Schätzung 171

Universität Augsburg

12.4 Das Maximum-Likelihood-Prinzip (ML-Prinzip)

➠ ML-Prinzip: Wähle ϑ̂ so, dass für alle möglichen ϑ-Werte gilt:

f(x1, . . . , xn|ϑ̂) = f(x1, . . . , xn|ϑ)

➢ Maximierung meist durch Nullsetzen der 1. Ableitung (2. Abl. < 0 prüfen!)

➢ Maximierung für . . .

• konkretes Stichprobenergebnis (z.B. (0, 1)) → ML-Schätzwert

• allgemeines Stichprobenergebnis (z.B. (x1, x2)) → ML-Schätzfunktion

➢ Die Maximierung der logarithmierten Likelihoodfunktion liefert dasselbe

Ergebnis, ist aber meist einfacher:

ln f(x1, . . . , xn|ϑ̂) = ln f(x1, . . . , xn|ϑ)

Grund: ln(x) wächst streng monoton mit x.

12. Punkt-Schätzung 174

Universität Augsburg

12.4 Das Maximum-Likelihood-Prinzip (ML-Prinzip)

➢ Gegeben:

• Ergebnis einer einfachen Stichprobe (x1, . . . , xn)

• Likelihoodfunktion (vgl. Folie 150) f(x1, . . . , xn|ϑ)

➢ Beispiel:

G ist B(1;p)-verteilt, p unbekannt; zu xi: fi(x) = px(1 −p)1−x (BB S. 99)

Einfache Stichprobe mit n = 2 ⇒ Likelihoodfunktion

f(x1, x2|p) = f1(x1) · f2(x2) (wegen Unabhängigkeit)

= px1(1 − p)1−x1 · px2(1 − p)1−x2 = px1+x2(1 − p)2−x1−x2

Stichprobenergebnis (0, 1) ⇒ f(0, 1|p) = p(1 − p) = p− p2

➢ Gesucht: Schätzwert ϑ̂, der ‚am besten zu (x1, . . . , xn) passt‘

12. Punkt-Schätzung 173

Universität Augsburg

Typische Vorgehensweise bei ML-Schätzung

b) Schätzfunktion:

Logarithmieren sinnvoll (um Produktregel usw. zu vermeiden)!

ln f(x1, x2|p) = (x1 + x2) ln(p) + (2 − x1 − x2) ln(1 − p)

∂∂p

ln f(x1, x2|p) = x1+x2p

− 2−x1−x21−p

!= 0

⇐⇒ (x1 + x2)(1 − p) = (2 − x1 − x2)p

⇐⇒ x1 + x2 = 2p⇒ p̂ = x1+x22

∂2

∂p2 ln f(x1, x2|p) = −x1+x2p2 − 2−x1−x2

(1−p)2 < 0

⇒ p̂ = 12 (x1 + x2) (= x̄) ist ML-Schätzfunktion (passt auch zu a).

Achtung: Lösung meist per Ableitung; es gibt aber Ausnahmen!

12. Punkt-Schätzung 176

Universität Augsburg

Typische Vorgehensweise bei ML-Schätzung

1. Likelihoodfunktion aufstellen: f(x1, . . . , xn|ϑ)

2. Likelihoodfunktion logarithmieren (optional): ln f(x1, . . . , xn|ϑ)

3. Erste Ableitung nullsetzen: ∂∂ϑ

[ln]f(x1, . . . , xn|ϑ)!= 0

4. Vorzeichen der zweiten Ableitung prüfen: ∂2

∂ϑ2 [ln]f(x1, . . . , xn|ϑ̂)?< 0

Im Beispiel auf Folie 173:

f(x1, x2|p) = px1+x2(1 − p)2−x1−x2 bzw. f(0, 1|p) = p− p2

a) Konkreter Schätzwert:

∂∂pf(0, 1|p) = 1 − 2p

!= 0 ⇒ p̂ = 1

2

∂2

∂p2 f(0, 1|p) = −2 < 0 ⇒ p̂ = 12 ist ML-Schätzwert

12. Punkt-Schätzung 175

Universität Augsburg

Maximum-Likelihood-Schätzfunktionen

Verteilung von G ϑ ML-Schätzfunktion

B(1;p) p (= µ) X̄

Exp(λ) µ X̄

Exp(λ) σ2 X̄2

P(λ) λ (= µ = σ2) X̄

N(µ;σ) (σ bekannt oder unbekannt) µ X̄

N(µ;σ), µ bekannt σ2 1n

n∑

i=1(Xi − µ)2

N(µ;σ), µ unbekannt σ2 1n

n∑

i=1(Xi − X̄)2

12. Punkt-Schätzung 178

Universität Augsburg

Klausuraufgabe 156 (gekürzt)

Ein bestimmtes Produkt wird von genau zwei Firmen A, B hergestellt. Jedes

der produzierten Stücke kann auf Grund äußerer Merkmale eindeutig einer

von zwei möglichen Güteklassen I, II zugeordnet werden. Bekannt ist, dass

die von Firma A (bzw. Firma B) erzeugten Stücke zu 35 % (bzw. zu 50 %) der

Güteklasse I entsprechen.

Aus der Produktion einer der beiden Firmen wurde eine einfache Stichprobe

vom Umfang 9 entnommen; alle 9 Stücke stammen also von ein und dersel-

ben Firma, wobei nicht erkennbar sei, von welcher. In der Stichprobe gehören

4 der 9 Stücke zu Güteklasse I.

Zu welcher Antwort auf die Frage nach der Herkunft der Stichprobe kommt

man nach dem Maximum-Likelihood-Prinzip?

12. Punkt-Schätzung 177

Universität Augsburg

12.5 Bayes-Schätzfunktionen

➢ Gegeben:

• Ergebnis einer einfachen Stichprobe (x1, . . . , xn)

• Likelihoodfunktion (vgl. Folie 150) f(x1, . . . , xn|ϑ)

• Vorinformation über ϑ (Einschätzung eines Sachkundigen) in Form einer

a priori Dichte / Wahrscheinlichkeitsfunktion ϕ(ϑ)

Vorinformation

Stichprobe

Bayes-Schätzung

➠ a posteriori Dichte / Wahrscheinlichkeitsfunktion ψ(ϑ|x1, . . . , xn)

12. Punkt-Schätzung 180

Universität Augsburg

Maximum-Likelihood-Schätzfunktionen

Für die ML-Schätzung von σ (und anderem) ist folgender Satz hilfreich:

Ist h eine streng monotone Funktion (gleichgültig ob wachsend

oder fallend) und ist Θ̂ eine Maximum-Likelihood-Schätzfunktion

für den Parameter ϑ, so ist die Stichprobenfunktion h(Θ̂) ei-

ne Maximum-Likelihood-Schätzfunktion für den transformierten

Parameter h(ϑ).

Beispiel:

• Ist Θ̂ ML-Schätzfunktion für σ2, so ist√Θ̂ ML-Schätzfunktion für σ.

• Ist G ∼ Exp(λ), so ist 1X̄

ML-Schätzfunktion für λ.

(λ = 1µ

= h(µ) mit h str. mon. fallend; ML-Schätzfkt. für µ: X̄⇒ h(X̄) = 1X̄

)

12. Punkt-Schätzung 179

Universität Augsburg

Vorgehensweise bei Bayes-Schätzung

1. Likelihoodfunktion aufstellen: f(x1, . . . , xn|ϑ)

2. a priori Dichte / Wahrscheinlichkeitsfunktion (ist bekannt): ϕ(ϑ)

3. a posteriori Dichte / Wahrscheinlichkeitsfunktion ermitteln: ψ(ϑ|x1, . . . , xn)

4. Lageparameter der a posteriori Verteilung berechnen, z.B.

• Modus

• Median

• Erwartungswert

12. Punkt-Schätzung 182

Universität Augsburg

12.5 Bayes-Schätzfunktionen

➢ Hilfsmittel: Formel von Bayes:

P(Aj|B) =P(B|Aj) P(Aj)

i

P(B|Ai) P(Ai)(65)

wobei nun P(Aj|B) ersetzt wird durch ψ(ϑ|x1, . . . , xn)

P(B|Aj) ersetzt wird durch f(x1, . . . , xn|ϑ)

P(Aj) ersetzt wird durch ϕ(ϑ)

⇒ ψ(ϑ|x1, . . . , xn) =

f(x1, . . . , xn|ϑi)ϕ(ϑi)∑

j

f(x1, . . . , xn|ϑj)ϕ(ϑj)im diskreten Fall

f(x1, . . . , xn|ϑ)ϕ(ϑ)∞∫

−∞

f(x1, . . . , xn|ϑ)ϕ(ϑ) dϑim stetigen Fall

12. Punkt-Schätzung 181

Universität Augsburg

Klausuraufgabe 131

b) Ermitteln Sie das Maximum-Likelihood-Schätzergebnis für den Stimmenan-

teil der Wähler, die für den Bau stimmen.

c) Ermitteln Sie die a posteriori Wahrscheinlichkeitsfunktion für den Anteil der

Wählerstimmen für den Bau der Straße.

d) Geben Sie den a posteriori Erwartungswert des Stimmenanteils für den Bau

der Straße an.

12. Punkt-Schätzung 184

Universität Augsburg

Klausuraufgabe 131

In A-Stadt wird über den Bau einer neuen Straße durch eine Volksabstimmung

abgestimmt. Ein Fachmann schätzt den Anteil der Stimmen für den Bau der

Straße folgendermaßen ein:

Stimmenanteil für den Bau a priori Wahrscheinlichkeit für diesen Anteil

35 % 0,4

45 % 0,3

55 % 0,3

a) Geben Sie den a priori Erwartungswert des Stimmenanteils für den Bau der

Straße an.

Eine Wahlumfrage bei 120 (zufällig ausgewählten) wahlberechtigten Einwoh-

nern ergab 70 Stimmen für den Bau der Straße.

12. Punkt-Schätzung 183

Universität Augsburg

Intervall-Schätzung

➢ Wichtiger Spezialfall: Symmetrische Konfidenzintervalle

• Symmetrisch heißt nicht, dass die Dichte symmetrisch ist, sondern

• übereinstimmende W’keiten für Über-/Unterschreiten des KI, d.h.

P(Vu > ϑ) = P(Vo < ϑ) = α2 (103)

➢ Wichtig: Eine Verkleinerung von α bewirkt eine Vergrößerung des KI.13. Intervall-Schätzung 186

Universität Augsburg

Intervall-Schätzung

➢ Für einen unbekannten Verteilungsparameter ϑ soll auf Basis einer Stich-

probe ein Intervall geschätzt werden.

➢ Verwendung der Stichprobenfunktionen Vu, Vo, so dass Vu 5 Vo und

P(Vu 5 ϑ 5 Vo) = 1 − α (102)

stets gelten.

[Vu;Vo] heißt Konfidenzintervall (KI) für ϑ zum Konfidenzniveau 1−α.

➢ Beachte: Das Schätzintervall [vu; vo] ist Realisierung der ZV (!) Vu, Vo.

➠ Irrtumswahrscheinlichkeit α (klein, i.d.R. α 5 0,1)

➢ Frage: Welche Konfidenzintervalle sind zur Schätzung geeignet?

➠ Hängt von Verteilung von G sowie vom unbekannten Parameter (µ, σ2) ab!

➢ Im Folgenden: Einfache Stichprobe X1, . . . ,Xn mit E(Xi) = µ, Var(Xi) = σ2

13. Intervall-Schätzung 185

Universität Augsburg

13.1.1 KI für µ bei Normalverteilung mit bekanntem σ2

➢ Vorgehensweise:

➢ Grund für N(0; 1)-Verteilung: Betrachte z.B. Vu = X̄− σc√n

:

Vu > µ ⇐⇒ X̄− σc√n> µ ⇐⇒ X̄−µ

σ

√n > c

X̄−µσ

√n ∼ N(0; 1) (vgl. Folie 164)

13. Intervall-Schätzung 188

Universität Augsburg

Überblick Intervallschätzung (BB S. 172)

13. Intervall-Schätzung 187

Universität Augsburg

13.1.1 KI für µ bei Normalverteilung mit bekanntem σ2

Beispiel (BB-Beispiel 73):

Normalverteilung mit σ = 2,4

(x1, . . . , x9) = (184,2; 182,6; 185,3; 184,5; 186,2; 183,9; 185,0; 187,1; 184,4)

Gesucht: KI für µ zum Konfidenzniveau 1 − α = 0,99

1. 1 − α = 0,99

2. N(0; 1): c = x1−α2= x1−0,01

2= x0,995 = 2,576 (Tab. 3; Interpolation)

3. x̄ = 19 (184,2 + · · · + 184,4) = 184,8

4. σc√n

= 2,4·2,576√9

= 2,06

5. KI = [184,8 − 2,06; 184,8 + 2,06] = [182,74; 186,86]

Interpretation: Mit 99 % Wahrscheinlichkeit ist µ ∈ [182,74; 186,86].

13. Intervall-Schätzung 190

Universität Augsburg

13.1.1 KI für µ bei Normalverteilung mit bekanntem σ2

13. Intervall-Schätzung 189

Universität Augsburg

Intervalllänge

➢ Im Fall 13.1.1 gilt offenkundig

L = Vo − Vu =2σc√n

(106)

➢ Welcher Stichprobenumfang n sichert eine vorgegebene (Maximal-)Länge L?

(106) nach n auflösen! ⇒

n =

(

2σc

L

)2

(107)

➢ Eine Halbierung von L erfordert eine Vervierfachung von n!

➢ Im BB-Beispiel 73: L = 4 ⇒

n =(

2·2,4·2,5764

)2= 9,556 ⇒ n = 10

13. Intervall-Schätzung 192

Universität Augsburg

Wichtige Fraktilswerte

Wichtige N(0; 1)-Fraktilswerte:

α xα

0,9 1,281552

0,95 1,644854

0,975 1,959964

0,99 2,326348

0,995 2,575829

(I.d.R. genügen drei Nachkommastellen.)

13. Intervall-Schätzung 191

Universität Augsburg

13.1.2 KI für µ bei Normalverteilung mit unbekanntem σ2

Beispiel (BB-Aufgabe 92):

Wie BB-Beispiel 73 (vgl. Folie 190), jedoch σ unbekannt.

1. 1 − α = 0,99

2. t(8): c = x1−α2= x1−0,01

2= x0,995 = 3,355 (Tab. 4)

3. x̄ = 19 (184,2 + · · · + 184,4) = 184,8

s =√

18 [(184,22 + · · · + 184,42) − 9 · 184,82] = 1,31

4. sc√n

= 1,31·3,355√9

= 1,47

5. KI = [184,8 − 1,47; 184,8 + 1,47] = [183,33; 186,27]

Interpretation: Mit 99 % Wahrscheinlichkeit ist µ ∈ [183,33; 186,27].

13. Intervall-Schätzung 194

Universität Augsburg

13.1.2 KI für µ bei Normalverteilung mit unbekanntem σ2

➢ Vorgehensweise:

➢ Zu Schritt 2: Falls n− 1 > 30 wird die N(0; 1)-Verteilung verwendet.

13. Intervall-Schätzung 193

Universität Augsburg

13.1.3 KI für µ bei beliebiger, insb. dichotomer Verteilung

Beispiel (BB-Beispiel 74):

Poisson-Verteilung mit λ (= µ = σ2) unbekannt.

(x1, . . . , x40) = (3; 8; . . . ; 6)

Gesucht: KI für λ zum Konfidenzniveau 1 − α = 0,9

1. 1 − α = 0,9

2. N(0; 1) : c = x1−α2= x1−0,1

2= x0,95 = 1,645 (Folie 191)

3. x̄ = 140 (3 + 8 + · · · + 6) = 6,5

σ̂ =√x̄ =

√6,5 = 2,55 (da σ2 = λ)

4. σ̂c√n

= 2,55·1,645√40

= 0,66

5. KI = [6,5 − 0,66; 6,5 + 0,66] = [5,84; 7,16]

13. Intervall-Schätzung 196

Universität Augsburg

13.1.3 KI für µ bei beliebiger, insb. dichotomer Verteilung

➢ Voraussetzung: n > 30, bzw. falls G dichotom: 5 5n∑

i=1xi 5 n− 5

➢ Vorgehensweise:

➢ Zu Schritt 3: Manchmal kann ein anderer Schätzwert σ̂ sinnvoller sein.

13. Intervall-Schätzung 195

Universität Augsburg

13.2 KI für σ2 bei Normalverteilung

➢ Vorgehensweise, falls µ unbekannt:

➢ Falls µ bekannt:• Schritt 2: Ersetze χ2(n− 1) durch χ2(n).

• Schritte 3 und 4: Ersetze (n− 1) s2 durchn∑

i=1(xi − µ)2.

13. Intervall-Schätzung 198

Universität Augsburg

Intervalllänge

➢ Falls σ bekannt ➠ verwende (107).

➢ Sonst hängt L = 2σ̂c√n

(wegen σ̂) vom Stichprobenergebnis ab.

➠ n kann i.A. nicht ermittelt werden.

➢ Ausnahme: Obere Schranke d für σ̂ ist bekannt, d.h. σ̂ 5 d gilt immer.

L 52dc√n

⇐⇒ n =

(

2dc

L

)2

➢ Beispiel:

G ∼ B(1;p) ⇒ σ̂ =√

x̄(1 − x̄) =√x̄− x̄2

x̄ ∈ [0; 1] ⇒ x̄− x̄2 maximal bei x̄ = 12

⇒ x̄− x̄2 5 12 −

(

12

)2= 1

4

⇒ σ̂ 5√

14 = 1

2 = d

⇒ n =(

cL

)2 x̄

x̄− x̄2

0,5

14

13. Intervall-Schätzung 197

Universität Augsburg

Unsymmetrisches KI bei Binomialverteilung

Voraussetzung: G ∼ B(1;p) mit 5 5n∑

i=1xi 5 n− 5

a) Überschätzung vermeiden (z.B. kleine Partei nahe 5 %-Hürde):

1. Ein Konfidenzniveau 1 − α wird festgelegt.

2. Das (1 − α)-Fraktil c der N(0; 1)-Verteilung wird bestimmt.

3. Das Stichprobenmittel x̄ und σ̂ =√

x̄(1 − x̄) werden errechnet.

4. Der Wert vo = x̄+ σ̂c√n

wird berechnet.

5. Als Ergebnis der Intervall-Schätzung wird [0; vo] angegeben.

b) Unterschätzung vermeiden (z.B. Anteil militanter Demonstranten):Wie oben, aber . . .

4. Der Wert vu = x̄− σ̂c√n

wird berechnet.

5. Als Ergebnis der Intervall-Schätzung wird [vu; 1] angegeben.

13. Intervall-Schätzung 200

Universität Augsburg

13.2 KI für σ2 bei Normalverteilung

Beispiel:

G ∼ N(2;σ); (x1, . . . , x5) = (1; 1,5; 2,5; 3; 2)

Gesucht: KI für σ2 zum Konfidenzniveau 1 − α = 0,99

1. 1 − α = 0,99

2. χ2(5) : c1 = xα2

= x0,005 = 0,41; c2 = x1−α2= x0,995 = 16,75

3.5∑

i=1(xi − µ)2 = (1 − 2)2 + (1,5 − 2)2 + (2,5 − 2)2 + (3 − 2)2 + (2 − 2)2 = 2,5

4. vu = 2,516,75 = 0,15; vo = 2,5

0,41 = 6,10

5. KI = [0,15; 6,10]

(Extrem groß, da n klein.)

13. Intervall-Schätzung 199

Universität Augsburg

Unsymmetrisches KI bei Binomialverteilung

Beispiel:

Eine Umfrage unter 200 Erstwählern hat einen mittleren Stimmenanteil von

4,5 % für eine bestimmte Partei ergeben. Bestimmen Sie ein unsymmetrisches

Konfidenzintervall für den erwarteten Stimmenanteil dieser Partei zum Konfi-

denzniveau 95 %.

n = 200; x̄ = 0,045 ⇒200∑

i=1xi = 200 ·0,045 = 9 ∈ [5; 200−5] ⇒ Vorauss. erfüllt

1. 1 − α = 0,95

2. N(0; 1) : c = x1−α = x0,95 = 1,645 (Folie 191)

3. x̄ = 0,045; σ̂ =√

0,045 · (1 − 0,045) = 0,21

4. vo = 0,045 + 0,21·1,645√200

= 0,07

5. KI = [0; 0,07]

13. Intervall-Schätzung 201