Beweise zur Einführung in die Statistik - Uni...

110
Beweise zur Einführung in die Statistik von Gerhard Osius Zu zeigen ist (ii) P0wd*(el) 5 P0wd(el> bzw. E(+ d*(x) 1 a E(+ 4x1 1 bzw. 0 a Eg1id(X)-d*(X) } Nun ist Egli d(X) - d*(X) } = [d(x) - d*(x)] . fl(x) u(dx) = S [d(x) - d*(x)l . fl(x) 4dx) + Cl S [d(x) - d*(x)l . fl(x) u(dx) . Co Wir schätzen die Integrale über C und C einzeln ab. 1 0 August 2006 Institut für Statistik Fachbereich MathematikIInformatik Universität Bremen

Transcript of Beweise zur Einführung in die Statistik - Uni...

Page 1: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro

Beweise zur

Einführung in die Statistik von

Gerhard Osius

Zu zeigen ist

(ii) P0wd*(el) 5 P0wd(el> bzw.

E(+ d*(x) 1 a E(+ 4x1 1 bzw.

0 a Eg1id(X) -d*(X) }

Nun ist Egli d(X) - d*(X) } = [d(x) - d*(x)] . fl(x) u(dx)

= S [d(x) - d*(x)l . fl(x) 4 d x ) + Cl S [d(x) - d*(x)l . fl(x) u(dx) .

Co Wir schätzen die Integrale über C und C einzeln ab.

1 0

August 2006 Institut für Statistik

Fachbereich MathematikIInformatik Universität Bremen

Page 2: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro

Beweise zu: Einführung in die Statistik 2.8.06 V - 1

Vorwort Nachdem das Skript Einführung in die Statistik bereits seit mehreren Jahren vor- liegt, liegen die dort bewußt nicht aufgenommenen Beweise hier erstmals in digita- ler For,m vor. Es handelt sich hierbei jedoch um eine unvollständige Beta-Version, d.h ich habe die Beweise in dieser Form noch nicht im Kurs vorgetragen (weshalb sicher einige Druckfehler bisher nicht entdeckt wurden) und für einige Kapitel feh- len die Beweise noch.

Die vorliegenden Beweise sind so aufgeführt, wie ich sie in der Vorlesung an der Tafel vorgetragen werde (damit die Studierenden nicht mitschreiben müssen und sich auf die Inhalte konzentrieren können). Demzufolge sind die Beweise auch nicht besonders platzsparend sondern eher übersichtlicher dargestellt. Der Begleittext der Beweise ist dagegen extrem kurz gefaßt und besteht oft nur aus Querverweisen oder Stichworten.

Einige Beweise fehlen hier, entweder weil sie den hier vorgesehenen Rahmen spren- gen würden (was bereits im Skript vermerkt ist) oder weil sie als Übungsaufgaben vorgesehen sind.

Bremen, im August 2006 Gerhard Osius

Page 3: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro

Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1

Inhalt (Seiten pro Kapitel) Kapitel - Seite

Für die hier nicht aufgeführten Abschnitte sind keine Beweise erforderlich.

I. Schätzungen

Schätzen des Erwartungswertes (I>

Schätzen der Varianz 2.1 Schätzung der Varianz bei bekanntem Erwartungswert

(7) 2 - 1

2.2 Schätzung der Varianz bei unbekanntem Erwartungswert 2 - 1

Konfidenzgrenzen für den Erwartungswert (I>

Konfidenzgrenzen für eine Wahrscheinlichkeit 4.1 Konstruktion der exakten oberen Konfidenzgrenze

(11) 4 - 1

4.2 Konstruktion der exakten unteren Konfidenzgrenze 4 - 3 4.3 Konstruktion des exakten zweiseitigen Konfidenzintervalls 4 - 4 4.4 Berechnung der exakten Grenzen 4 - 5 4.5 Asymptotische (approximative) Konfidenzgrenzen 4 - 7 4.6 Grobe asymptotische (approximative) Konfidenzgrenzen 4 - 11

Konfidenzgrenzen für den Erwartungswert einer Poisson-Verteilung 5.1 Konstruktion der exakten oberen Konfidenzgrenze

(8) 5 - 1

5.2 Konstruktion der exakten unteren Konfidenzgrenze 5 - 3 5.3 Konstruktion des exakten zweiseitigen Konfidenzintervalls 5 - 4 5.4 Berechnung der exakten Grenzen 5 - 5 5.5 Asymptotische (approximative) Konfidenzgrenzen 5 - 6 Konfidenzgrenzen im Normal-Verteilungsmodell 6.1 Verteilung der Varianzschätzung

(7) 6 - 1

6.2 Konfidenzgrenzen für den Erwartungswert bei geschätzter Varianz im Normalverteilungsmodell 6 - 4

6.3 Asymptotische Konfidenzgrenzen für den Erwartungswert bei

geschätzter Varianz in beliebigen Verteilungsmodellen 6 - 5 6.4 Konfidenzgrenzen für die Varianz 6 - 7

Schätzen einer Verteilungsfunktion 7.1 Die empirische Verteilung der Stichprobe

(2) 7 - 1

7.2 Eigenschaften der empirischen Verteilung 7 - 2 Schätzen von Quantilen und Momenten 8.1 Schätzen des Medians

(6) 8 - 1

8.2 Schätzen eines Quantils 8 - 2 8.3 Schätzen von Momenten 8 - 6

Page 4: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro

Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 2

9. Parametrische Modelle und Exponential-Familien (5> 9.2 Parametrische Exponential-Familien 9 - 1 9.3 Binomial-Verteilung 9 - 3 9.5 Normal-Verteilung 9 - 4 9.6 Gamma-Verteilung 9 - 5

10. Maximum-Likelihood Schätzung von Parametern (3> 10.5 Schätzung in einparametrigen Exponential-Familien bei unabhängigen

Wiederholungen 10 - 1

11. Asymptotische Eigenschaften des ML-Schätzers * (fehlt noch) (I>

12. Die Ungleichung von Cramer-Rao und effiziente Schätzer * (fehlt noch) (I> 13 Momente-Schätzung * (I>

* Diese Kapitel werden irn Teil I1 nicht vorausgesetzt

11. Tests

14. Testen von Hypothesen (I> 14.1 Einseitiger (oberer) Gauß-Test 1

15. Likelihood-Quotienten-Tests (5> 15.1 Schärfste Tests und Neymann-Pearson Lemma 1 15.3 Einparametrige Exponential-Familie 4

16. Testen eines Erwartungswertes (I2) 16.1 Einseitiger (oberer) t-Test von Student im Normal-Verteilungsmodell 1 16.2 Dualer einseitiger (unterer) t-Test von Student

im Normal-Verteilungsmodell 6 16.3 Zweiseitiger t-Test von Student im Normal-Verteilungsmodell 6 16.4 Asymptotische Eigenschaften des t-Tests

(bei beliebiger Verteilung) 7 16.5 Schärfe-Approximation des t-Tests bei beliebiger Verteilung 8 16.6 Versuchsplanung beim t-Tests 9

17. Testen einer Wahrscheinlichkeit 17.1 Einseitiger oberer Test einer Wahrscheinlichkeit

(7) 17 - 1

17.1.1 Exakter Test zum nominellen Niveau 17 - 1 17.1.2 Randomisierter Test 17 - 2 17.1.3 Asymptotischer Gauß-Test 17 - 3

17.4 Approximation der Testschärfe und Versuchsplanung für den asymptotischen Test 17 - 5

18. Likelihood-Quotienten Tests (I> 18.1 Allgemeiner Likelihood-Quotienten Test 18 - 1

19. Vergleich von zwei Erwartungswerten bei Normalverteilungen mit gleichen Varianzen @I 19.2 Der zweiseitige t-Test als Likelihood-Quotienten-Test 19 - 1 19.4 Konfidenzgrenzen für die Differenz der Erwartungswerte 19 - 6

Page 5: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro

Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 3

20. Vergleich von zwei Erwartungswerten bei beliebigen Verteilungen 20.1 Herleitung einer Teststatistik 20.2 Asymptotische Verteilung der Teststatistik 20.4 Schärfe-Approximation für den einseitigen Tests 20.5 Versuchsplanung für den einseitigen Test 20.6 Zweiseitiger Test: Schärfe und Versuchsplanung 20.7 Konfidenzgrenzen für die Differenz der Erwartungswerte

21 Vergleich von zwei Wahrscheinlichkeiten 21.2 Herleitung einer Teststatistik 21.3 Asymptotische Verteilung der Teststatistik 21.5 Schärfe-Approximation für den einseitigen Tests 21.6 Versuchsplanung für den einseitigen Test 21.7 Zweiseitiger Tests: Schärfe und Versuchplanung 21.8 Konfidenzgrenzen für die Differenz der Wahrscheinlichkeiten

22. Anpassungstests bei Multinomialverteilungen (fehlt noch)

23. Chiquadrat-Anpassungstests für Verteilungen (fehlt noch)

Page 6: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro

Beweise zu: 1. Schätzen des Erwartungswertes 2.8.06 B I - 1

Beweise zu 1. Schätzen des Erwartungswertes

Die Resultate sind bereits aus der Stochastik bekannt und werden hier

nicht erneut bewiesen.

Page 7: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro

Beweise zu: 2. Schätzen der Varianz 3.8.06 B 2 - 1

Beweise zu 2. Schätzen der Varianz

2.1 Schätzung der Varianz bei bekanntem Erwartungswert

Beweis von

(1) 2 E(Y) = Var(X) = a , 4 Var(Y) = ,LL - a .

4

Es ist 4 Var(Y) = E {y2} - E { Y } ~ = ,LL - a . 4

2.2 Schätzung der Varianz bei unbekanntem Erwartungswert

Beweis von

(2) - 2 SXX : = C (Xi- X) = C X2 - (EX .)2 = x T A x ,

2 i z n i z

wobei die nxn Matrix A = (U. .) gegeben ist durch: 2 3

(3) 1

U . . = 6. (6 ist das Kronecker-Symbol). 2 3 2 3 n

- 2 Esis t C(Xi-X) = C ( X 2 - 2 X X . + X 2 ) 2 2 2

C C S..X.X.-' C C X . X . i j 2 1 2 1 n i j 2 1

Page 8: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro

Beweise zu: 2. Schätzen der Varianz 3.8.06 B 2 - 2

Beweis von

- 2 ES ist C (X.- X) = C X ~ - nX2 2 i

2 2 = C x 2 - 2 a ( C X i ) + n a - [ n X 2 - 2 a n X + n a ]

i 2

Beweis von

(5) E ( 8 2 ( ~ ) ) = a 2 (erwartungstreu) .

1. Beweis (direkt):

Es ist E{SXX) = E{C (X.- , L L ) ~ - n (X- ,LL)~} vgl. (4) für a = ,LL i

= C E { ( x ~ - ~ ) ~ ) - .E{(X-,LL)~) 2

2 = n a - nvar (X)

- - 2 2 n a - a vgl. 1.1 (2).

2. Beweis (mit Theorem): vgl. Beweis von (6).

Page 9: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro

Beweise zu: 2. Schätzen der Varianz 3.8.06 B 2 - 3

Beweis von

(6) 2 1 n - 3 4

v a r ( 8 (X)) = ( , L L ~ - ~ ~ )

Das Theorems soll angewandt werden auf U. = X .- ,LL für i = 1, ..., n. 2 2

- - Wegen U = X-,LL

ist - 2 - 2 suu = C (Uz-U) = C (X.-X) = sxx, 2 i

also SUU = U ~ A U nach (2) mit U statt Xund A aus (3).

Das 2. und 4. zentrale Moment von U. ergeben sich zu 2

2 m 2 = E{U" 2 = E{(x~-,LL)~} = D ,

m 4 = E{u4} z = E{(x,-P)4} = p4.

Für die Matrix A = (a. .) aus (3) ergibt sich 23

1 Spur(A) = C a . . = C (S..--) = n-1 . 22 22 n

Ferner ist A idempotent

A A = A (Beweis: elemetar ausrechnen!),

also Spur(AA) = Spur(A) = n - 1.

Aus dem Theorem ergibt sich daher

(2) E { U ~ A U } = (n- l )o 2 als 2. Beweis für (5),

(ii) 2 4 4 v a r { u T A u } = (Caii) . ( , L L , - ~ D ) + 2(n-1)o .

2

Mit 2 1 2 1 2 1 C a . . = C (1--) = n(1--) =-(n-1) 2 i 2 2 2 n n n

folgt v a r { u T ~ U } = '(n- n 1). [ , L L ~ ( ~ - 1) - 04(3(n- 1) - 2n)]

- Wegen 82 - 1 1 T -SXX = - U A U n - 1 n - 1

folgt 2 1 2 T 1 n - 3 4 Var(8 ) = [-I .Var(U A U ) = j - [ , ~ ~ ~ - ~ o I. n - 1

Page 10: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro

Beweise zu: 2. Schätzen der Var ianz 3.8.06 B 2 - 4

Beweis von

Theorem: Erwartungswert und Varianz quadratischer Formen

U = (U Un) sei ein Vektor unabhängiger identisch verteilter Zufallsvariablen 1' ...' U . U mit Erwartungswert E ( U . ) = 0 und exisitierenden Momenten n z

k mk = E ( U ) < co 2

ü r l < k < 4 . f - -

Für eine symmetrische n x n Matrix A = ( U . .) hat die quadratische Form 2 3

T U AU = C C a . . U . U . i j 2 - 1 2 - 1

den Erwartungswert und die Varianz

(a) T E (U A U ) = S p u r ( A ) . m 2

(Y T 2 V a r ( U A U ) = ( C a 2 . ) . ( m 4 - 3 m ; ) i z z + 2 S p u r ( A A ) . m 2 .

ad (U):

Für i s j sind U . und U . unabhängig und somi t 2 3

E{U.U.) = E{U.) . E{U.} = 0 . 2 3 2 3

E s f o l g t E { c C ~ . . U . U . } = C C a . . E { U . U . } i j 3 2 J i j 3 2 J

= C ~ . . E { U ~ } i 22 2

= C a . . m i 22 2

= S p u r ( A ) . m2

ad (b):

W e g e n ( 2 ) v a r ( u T ~ U ) = E { ( u ~ A U ) 2 } - E { U ~ A U }

- - . . . . . . . . . . . . . - pur(^) . m2I2 nach (a)

ist noch z u berechnen

Page 11: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro

Beweise zu: 2. Schätzen der Var ia nz 3.8.06 B 2 - 5

= C C C C a 2 j a k l E ( U . U . U k U 1 ) . i j k l 2 1

Zur Bes t immung v o n E ( U . U . Uk U 1 ) unterschieden wir mehrere Fälle: 2 1

2 2 i = j t k = l : E ( U . U . U k U 1 ) = E ( U . U k ) 2 1 2

= E ( u L ) 2 . ~ ( 1 1 2 )

= m . m = m 2 2 2 2 '

2 i = k t j = l : E ( U . U . U k U 1 ) = m2 2 1

2 i = l t j = k : E ( U . U . U k U 1 ) = m 2 2 1

i 6 { j } : E ( U . U . U k U 1 ) = E ( U : [ U . U U ] ) 2 1 2 J k l

= E ( U . ) . E ( U . U 2 U ) d a U . , [ U . U U l u n a b h ä n g i g 1 k l 2 J k l

2 2 d a Ui , Uk unabhängig

analog.

analog.

j { i , , } : E ( U . U . U k U 1 ) = 0 2 1

k 6 { i , , } : E ( U . U . U k U 1 ) = 0 2 1

1 { i } : E ( U . U . U k U 1 ) = 0 2 1

analog.

analog.

analog.

A l so ist

C C C C a g a k l E ( U . U . U k U 1 ) . = C a . . a . . m + C C a . . a m 2 i j k l 2 1 i 22 22 4 i z k 22 kk 2

U . . d a A symme t r i s ch Y

2 2 = m 4 ( j aii) + m2 [ C Caiiakk + 2 C C U?.] i z k z z ~ 21

W i r f o r m e n d e n Ausdruck [ .... ] weiter um

Page 12: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro

Beweise zu : 2. S c h ä t z e n der V a r i a n z 3.8.06 B 2 - 6

C ~ a ~ ~ a ~ ~ + 2 C C a2. 2 2 = ~ ~ a ~ ~ a ~ ~ - C a i i + 2 C C a . . - 2 ~ a2. i z k i z j 2-1 i k i i j 2 1 i 2 2

= ~ ~ a ~ ~ a ~ ~ + ~ C C a2. 2 - 3 C a . .

i k i j 2 1 i 2 2

= (C aii)2 + 2 C ( C a . a . . ) - . . . . . . . 2 2 J 2 1 1 2

= pur A ) ~ + 2 C (AA).. - . . . . . . . 2 22

2 = pur A ) ~ + 2 S p u r ( A A ) - 3 C a . . i 2 2

u n d erhal ten

Mi t (i) folgt jetzt (b).

Page 13: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro

Beweise zu: 2. Schätzen der Varianz 3.8.06 B 2 - 7

Beweis von

(7) P f s 2 82 : = 8 2 ( x ( n ) ) 0 .

n (starke Konsistenz)

(8) 2 &2[8: -a2] - ~ ( 0 , (,LL~ - a4)) (asymptotische Normalität).

- 2 - ES gilt: a - ' [ c(x,-,LL)~ - n ( ~ ( ~ ) - ~ ) ~ ] vgl. (4) für a = ,LL n n-1 i

- - - 2 1 [ n a - . . . . . . . . . . n-1 run I

- - - 2 L[ n-1 a - ( x ( " ) - ~ ) ~ ] run

1 2.1(5) 1 P-fs. 1.1(4) P-f.s. 1 f u r n + c c ..

2 - O ] = a 2 d.h. (7) gilt.

Weiter ergibt sich aus (i):

(ii) a2 a2 = n 2 2 1 a2 - LL ( ~ ( n ) - ~ ) 2 n n-i ("nn-a - - n-1 n-1

- 2 Aus der asymptotischen Normalität 2.1 (6) von a folgt run

und für (8) bleibt (mit Exkurs KV 5) wegen (ii) nur noch zu zeigen

P (iii) 1 ~ n . 2 n-1 + L J ~ ( x ( ~ ) - , L L ) ~ n-1 - 0 .

1 Nun ist - &2 a2 - 0 n-1

und n ~ ; ; ( ~ ( n ) - n-1 P ) 2 = n-1 . J ~ ( x ( ~ ) - , L L ) . (x(~)-,LL)

und somit folgt (iii)

Page 14: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro

Beweise zu: 3. Konfidenzgrenzen für den Erwartungswert 3.8.06 B 3 - 1

Beweise zu 3. Konfidenzgrenzen für den Erwartungswert

Die Resultate sind bereits aus der Stochastik bekannt und werden hier

nicht erneut bewiesen.

Page 15: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro

Beweise zu: 4 Konfidenzgrenzen für eine Wahrscheinlichkeit 3.8.06 B 4 - 1

Beweise zu 4 Konfidenzgrenzen für eine Wahrscheinlichkeit

4.1 Konstruktion der exakten oberen Konfidenzgrenze

Beweis von

oi oi ES ist - ~ ( x l p ) = X - b ( i I n , ~ ) a~ i=O a~

X

= X (7) [ pi-l qn-i i n-i-1

- ( n - i ) ~ q ] mit q = l - p

X-n - - - (T) pXqnpx

4

Page 16: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro

Beweise zu: 4 Konfidenzgrenzen für eine Wahrscheinlichkeit 3.8.06 B 4 - 2

Beweis von

(10) F( l Pol ,(X)) = a für X < n,

j (n) = 1 01

für X = n..

Für X < n ist F(x I -): [ O , 11 - [0,1] eine streng fallende, biektive Funktion, und so-

mit gibt es genau einen Wert P ( X ) sodaß (10) gilt. Und dieser Wert stimmt übe- 01 ,

rein mit dem Maximum in

Für x = n ist F(x lp ) 1 und es folgt

Beweis von

(11) P{$ ( 4 5 ~ ) = I P ) 5 awobei Ol

L (a) = Max{l=-1, ..., n l F ( 1 1 p ) i a ) F

Für jede Realisierung X < n ist F ( x I p) ist streng fallend in p nach (3), also gilt

Pol ,(X) 5 P * F(x I P) 5 ~ ( x I P 01 (31))

* ~ ( x I P) 5 a vgl. (10)

(4 Pol ,(X) 5 P U X 5 q.1.

Die Äquivalenz (i) gilt auch für X = n, weil dann wegen

j (n) = 1 und 01

LF(Q) < nach Definition, da F(n 1 p) = 1 < a

beide Seiten in (i) falsch sind. Aus (i) für alle X = 0,1, ..., n folgt dann

p{P01a(4 P } = p{X<LF(a)}

= F(LF(a) 1 P

< a - nach Definition von L (a ) . F

Page 17: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro

Beweise zu: 4 Konfidenzgrenzen für eine Wahrscheinlichkeit 3.8.06 B 4 - 3

4.2 Konstruktion der exakten unteren Konfidenzgrenze

Beweis von

(2) G(x 1 p) ist streng wachsend in p für X > 0 ,

Für 0 < X 5 n ist 0 5 X- 1 < n und nach 4.1 (3) ist F(x- 1 1 p) streng fallend in p,

also G(x I p) = 1 - F(x- 1 I p) streng wachsend in p. Und G(0 1 p) = 1 ist trivial.

Beweis von

(4) G(X 1 jul ,(X)) = a bzw. F( X- i 1 für X > O ,

Analog 4.1 (10). Für X > 0 ist G(x 1 - ) : [ O,1] - [ 0,1] eine streng fallende, biektive

Funktion, und somit gibt es genau einen Wert (X) sodaß (4) gilt. Und dieser

Wert stimmt überein mit dem Minimum in

(3) jul,(x) := Min { O S p < l 1 ~ ( x l p ) > a } .

Für X = 0 ist G(xlp) = 1 und es folgt

jo(xla) = Min{O<p<l 1 l > a} = Min [0,1) = 0.

Beweis von

(5) P{~<jul,(X)} = G(LG(a) I P ) 5 wobei

L (a) = Min{l=O, ..., n + l I G(I1p)5a} G

Analog 4.1 (11).

Für jedes X > 0 ist G(x I p) ist streng wachsend in p nach (2), also gilt

Page 18: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro

Beweise zu: 4 Konfidenzgrenzen für eine Wahrscheinlichkeit 3.8.06 B 4 - 4

p i & ( x I u ) * G(x I P ) 5 G(x I Pul ,(X))

* G ( x l p ) < a vgl. (4)

( 2 ) p i & ( x I u ) U L G ( 4 < X

Die Äquivalenz (i) gilt aber trivialerweise auch für X = 0, weil dann wegen

(0) = 0 und

LG(u) > CI nach Definition, da G(0 1 P) = 1 > u

beide Seiten in (i) falsch sind. Aus (i) für alle X = 0,1, ..., n folgt dann

= G(LG(u) 1 P )

< - u nach Definition von LG(u).

4.3 Konstruktion des exakten zweiseitigen Konfidenzintervalls

Beweis von

(1) &, a ( ~ ) < jO1 a ( ~ ) für O<x<n.

Für X = 0 ist j ( X ) = 0 , k1 ,(X) > 0 und somit gilt (1). U1

Für X = n ist Pul ,(X) < 1 , 6 ( X ) = 1 und somit gilt (1). Ol

1 Und für 0 < X < n ergibt sich wegen u <

~ ( ~ 1 5 ( x ) ) = a < 1 - a =F(x-115 ( X ) ) vgl. 4.1 ( l O ) , 4.2 (4) 01

< F( I Pul ,(X))

und da F(x 1 p) streng fallend in p ist, folgt die Behauptung.

Page 19: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro

Beweise zu: 4 Konfidenzgrenzen für eine Wahrscheinlichkeit 3.8.06 B 4 - 5

4. 4 Berechnung der Grenzen

Beweis von

(0) j ( o ) = I - a 11. , j (n) = a 11. . Ol

Wegen F(O 1 P) = (I - p) n, bzw. G(n I P) = Pn

ist j (0) bzw. k1,(n) die eindeutige Lösung von Ol

(1-p)" = a bzw. p n = a.

Beweis von

(5) &„(X) = 1 - iol ,(Y) mit y =n-X.

Für X = 0 ist: (0) = 0 , 9 (n) = 1 und somit gilt (3). Ol

Fürx>Ois t : a = ~ ( x ~ ~ ~ , ( x ) ) = ~ ( ~ ~ l - j ~ ~ , ( x ) ) und mit 4.1 (10)

folgt

d.h. (5) gilt.

Page 20: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro

Beweise zu: 4 Konfidenzgrenzen für eine Wahrscheinlichkeit 3.8.06 B 4 - 6

Beweis von

(7) 1

&,,(X) = 1- (exakte untere Grenze) für 0 < X mit

k a = -.F k = 2 ( n - x + l ) , 1 = 2 x . 1 kl;a'

(8) a

k l a ( ~ ) = 1- (exakte obere Grenze) für X < n mit

k a = -.F k = 2 ( X + I ) , 1 = 2 ( n - X ) , 1 kl;a'

unter Verwendung von

@I P { B ( ~ , ~ ) ~ ) ~ X } = P { F ~ ~ > U } bzw. F ( x I p ) = l - @ k l mit

k = 2 ( x + 1 ) , 1 = 2 ( n - X ) , . P k I - p

ad (B): Die definierende Gleichung 11.1 (10) für P ( X ) läßt sich mit (6) schreiben 0,

1 - ( u ) = Q mit 1 L I U = - . $ I% o,a ( X ) / ( ~ - P ~ , ~ J X ) ) , Also ist U = F kl;a

k undaus a = -.F = k - . U = P (4 / (1 - Po, a(x)) 1 kl;a 1 0, a

folgt a - a P ( X ) = 4, ,(X) und somit 1 I; ( X ) = .(I+.)- . 0, 0,

ad (7): Wir verwenden den Zusammenhang

(5) &„<X) = 1 - Y,, ,(Y) mit

Nach (8) ist Y ( Y ) = a (1 + U)-' für y < n 0,

y = n - X .

mit

und es folgt ( X ) = 1 - Y ( Y ) = 1 - a (1 + U)-' = (1 + U)-' . Ol

Page 21: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro

Beweise zu: 4 Konfidenzgrenzen für eine Wahrscheinlichkeit 3.8.06 B 4 - 7

4.5 Approximative (asymptotische) Konfidenzgrenzen

Beweise zu

(9) 2 S(P) : = n(p-T12 - P (1-P) \

2 = ap - b p + c

2 = ~ [ ( P - P , ) - D ] mit

(10) 2 2 2 -2 1 2 a : = n + z > 0 , b : = 2 n T + z = 2 x + z > 0 , c : = n x = - X 2 0 a a a n

(13) Pol ,(X) : = Pm + D (asymptotische obere Grenze),

( X ) := pm - (asymptotische untere Grenze).

(15) 0 a F ( X ) a T a pola(x) a 1 .

(16) 0 = 13 (0) < 13 (0) < 1 , O?

(17) O < P (n) < (n) = I . O?

(18) o < 13 ( X ) < T < 13 ( X ) < I falls O < x < n . O?

Die verschiedenen Darstellungen der in (9)-(12) definierten Größen ergeben sich

durch elementare Umformungen. Wegen or <4 ist z > 0 und hieraus erhält man a die Ungleichungen in (10).

Aus a,b> O +

und 1 2 x + 2 z a < n + 2 * ergibt sich p E (0,l) in (11). Und für die Diskriminante D gilt m

Page 22: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro

Beweise zu: 4 Konfidenzgrenzen für eine Wahrscheinlichkeit 3.8.06 B 4 - 8

D > O U a p i > c

U 2 2 1 2 2 b > 4 a c = 4 ( x + ; X L&).

Mit 2 2 2 4 b = ( 2 x + ~ : ) ~ = 42 + 4 x z + L a a

> 4(x2 + x z 2 ) a da zu > 0

1 2 2 > - 4 ( x 2 + - X z ) da l > ' x > 0 n a n

ergibt sich die Ungleichung D > 0 in (12).

Wegen a > 0 hat die Funktion f in p E (0 , l ) ihr Minimum m

( 2 ) f(pm) = - aD < 0,

und besitzt die beiden reellen Nullstellen ( X ) , ( X ) aus (13), (14) mit 0 U

(ii) Pu(.) < P , < P0(x)

Aus

(iii) f(0) = c = n z 2 > 0 , 2 f(1) = n(1-F) > 0

folgt mit (i) und 0 <p < I zunächst, daß beide Nullstellen im Intervall [ O , 11 liegen: m

(24 0 < Pu(x) < Po(x) < 1 .

Im Fall X > 0 ist sogar f(0) > 0 und somit

(4 0 < Pu(x) < Po(x) < 1

Und im Fall X < n ist f(1) > 0 und somit

(V;) 0 < Pu(x) < P 0 ( 4 < 1

Aus

falls X > 0.

falls X < n.

(vii) f (F) = - F ( 1 - F ) z 2 < 0 a -

erhält man weiter

- (viii) P,( X ) - < F - < @,(X).

Im Fall 0 < X < n ist sogar f (F) < 0 und es gilt

(2x1 P U ( 4 < F < P0(4 falls O < x < n .

Mit (iv) und (ix) ist (15) gezeigt. Wir zeigen jetzt (16) - (18).

Page 23: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro

Beweise zu: 4 Konfidenzgrenzen für eine Wahrscheinlichkeit 3.8.06 B 4 - 9

1. Fall: X = 0

Dann ist f(0) = 0 und nach (vi) ist PU(0) = 0 und (16) folgt.

2. Fall: X = n

Dann ist f(1) = 0 und nach ( V ) ist (n) = 1 und (17) folgt. 0

3. Fall: 0 < X < 1

Dann folgt (18) aus ( V ) , (vi) und (ix).

Beweise zu

Im Fall X < n ist die obere Grenze P ( X ) die einzige Lösung der approximierte 01

Gleichung (6) im Intervall (0 , l ) . Und im Fall X > 0 ist die untere Grenze

einzige Lösung der approximierte Gleichung (8) im Intervall (0 , l ) .

(6) bzw. &(P - F ) -

4 ~ ) - z,

(8) bzw. &(P - F ) - - -25, .

.(P)

Wegen a(p) > 0 für 0 < p < 1 und z > 0 läßt sich (6) äquivalent schreiben als a - fi (P - F ) = \"(P) U X < p und f(p) = 0.

und hat für X < n wegen (18) und (16) im Intervall ( 0 , l ) die einzige Lösung no(x).

Analog läßt sich (8) läßt sich äquivalent schreiben als

&(p-F) = -z a(p) a U p<F und f (p)=O

und hat für X > 0 wegen (18) und (17) im Intervall ( 0 , l ) die einzige Lösung nu(x).

Beweise von

P < POla(x) U np - X < z a .a(p) J;I .

Zum Nachweis zeigen wir die Äquivalenz der entsprechenden Negationen, wobei wir

ausnutzen daß die Funktion f auf ( 0 , p ) streng fällt und auf (p ,1) streng wächst. m m Dann gilt für 0 < p < 1:

Page 24: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro

Beweise zu: 4 Konfidenzgrenzen für eine Wahrscheinlichkeit 3.8.06 B 4 - 1 0

P a P , ~ ~ ( x ) U P a F,? a ( ~ ) und P < - ~ ~ 1 . (15)

U f lp ) > f ( ~ , ~ a(")) = 0 und P - < z

U n ( p - ~ ) ~ > o ~ ( p ) < und P - < z

* J ~ ( ~ - P ) > ~ ( P ) u

* (X - " P ) > D(P) Jn . Damit gilt die erste Äquivalenz in (19), und die zweite folgt analog:

- Ii" (X) a P * 13 (4 a P und X 5 P vgl. (15)

01 01

- U f (P) f ( ~ ~ ~ .(X)) = 0 und x a p

- U n ( p - ~ ) ~ > o ~ ( p ) < und x a p

* J n ( P - Z ) 2 D(P) U

* ("P-") > o(p)\Jn.

Beweise von

(20) P { p < P ( X ) ) = P { n p - X < z . o ( p ) J n ) E I - a , 01 a

( X ) < p ) = P { X - n p < z a . o ( p ) J n ) E 1 - a ,

(21) 72-00 lim P { p < P ( X ) ) = I - a , ( X ) < p ) = 1 - a . ' 1 72-00

Aus (19) und dem Binomial-Grenzwertsatz ergibt sich

P{ P < Po.,(X) 1 = P{ np -X < za . o ( p ) Jn}

Damit sind die ersten Behauptungen in (20), (21) gezeigt und die zweiten erhält

man analog:

Page 25: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro

Beweise zu: 4 Konfidenzgrenzen für eine Wahrscheinlichkeit 3.8.06 B 4 - 1 1

4.6 Grobe asyrnptotische (approximative) Konfidenzgrenzen

Beweise zu

(5) - 2 n - 1 0 2 ( j ( x ) ) = I C (Xi- X ) = 7 8 2 ( ~ ) .

2

2 Wegen X . E {O,l} ist X . = X . und somit 2 2 2

' C (x.-q2 = - 1 [cxz2 - + ( C X . ) ~ ] n 2 2 2

1 = - [ E X , - ' ( C X . ) ~ ] 2 n i z

= X [ l - X ]

= 0 2 ( j ( x ) ) .

Page 26: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro

Beweise zu: 5. Konfidenzgrenzen fü r . . . Poissonverteilung 3.8.06 B 5 - 1

Beweise zu 5 Konfidenzgrenzen für den Erwartungswert einer

Poisson-Verteilung

5.1 Konstruktion der exakten oberen Konfidenzgrenze

Beweis von

(3) a - F(xlp) = - P ( X I P ) 0 8~

für X > 0, p>O .

wobei per Definition P(-1 I p) = 0 gesetzt wird. Hieraus ergibt sich

Beweis von

F(xl0) := lim F(xlp) = 1 ru-0

(5) 1 falls X = 0

p(xl0) := lim p(xllu> = P-0 0 falls X > 0

p(x1co) := lim p(xlp) = 0 , F(x1co) := lim F(xlp) = 0 . P+ O0 P+ O0

(5) gilt, weil p(x I p) in p = 0 rechts-stetig ist, und (4)ergibt sich daraus.

Die erste Behauptung in (6) ergibt sich, weil ep für p + co schneller wächst als jede

Potenz px, und die zweite Behauptung folgt aus der ersten.

Page 27: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro

Beweise zu: 5. Konfidenzgrenzen fü r . . . Poissonverteilung 3.8.06 B 5 - 2

Beweis von

(8) F( I f io, ,<X)) = für X > 0 .

Da F(x ( -): ( 0 , CO) - ( 0 , l ) eine streng fallende Bijektion ist, gibt es genau einen

Wert f i ( X ) > 0, sodaß (8) gilt. Weiter folgt 01,

Beweis von

(9) p { f i o l a ( x ) ) < P ) = F(LF(a) ( P ) wobei

LF(a) = M a x { l ~ W ~ l F ( l l p ) < a ) .

Für jedes 6 E N o ist F(6 I P ) ist streng fallend in ,LL nach (3), also gilt

fiol ,(6 5 P F ( ~ I P ) < F ( ~ I ~ ~ Ol ( 6 ) )

* ~ ( 6 l P) < a vgl. (8)

U 6 < LF(Q).

Mit X statt 6 folgt daher

{ o l x ) 5 P = LF(a) 1

= F(LF(a) 1 P )

< a - nach Definition von L F ( a ) .

Page 28: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro

Beweise zu: 5. Konfidenzgrenzen fü r . . . Poissonverteilung 3.8.06 B 5 - 3

5.2 Konstruktion der exakten unteren Konfidenzgrenze

Beweis von

(4) ~ ( x l f i ~ ~ , ( x ) ) = ~ bzw. F(X-II,L für X > O ,

1; (0) =O f ü r x = O .

Für X > 0 ist G(x 1 -): (0, CO) - (0,l) eine streng wachsende Biektion, und somit

gibt es genau einen Wert fi (X) > 0, sodaß (4). Weiter folgt U

Für X = 0 ist G(0 I P) = 12 ci! für alle ,LL > 0. Aus (3) ergibt sich daher

(0) = M i n { p > O I 1 > ~ } = Min[O,oo) = 0. U1 a

Beweis von

(5) P{ P 5 fiulU(x) 1 = G ( L ~ ( Q ) I P) 5 wobei

LG(ci!) = Min{lEW0 I G( l lp)<a} ,

Für jedes 5 E W ist G(k I ,L) ist streng wachsend in ,LL nach (2), also gilt

(2) PS fiul,(k) U ~ ( k l ~ ) a ~ ( k l f i

* G(k l P) a a vgl. (4)

U LG(Q) a k

Diese Äquivalenz gilt aber trivialerweise auch für k = 0, weil dann wegen

1; (0) = 0 und

LG(ci!) > CI nach Definition, da G(0 I ,L) = 1 > ci!

beide Seiten in (2) falsch sind. Aus (i) für alle k E WO folgt dann

P { ~ a f i ~ ~ , ( X ) } = P { L ~ ( Q ) ~ x }

= G(LG(ci!) 1 P)

< - ci! nach Definition von LG(ci!).

Page 29: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro

Beweise zu: 5. Konfidenzgrenzen fü r . . . Poissonverteilung 3.8.06 B 5 - 4

5.3 Konstruktion des exakten zweiseitigen Konfidenzintervalls

Beweis von

für X > 0 .

Für X = 0 folgt die Behauptung sofort, weil f i (0) = 0 und f i (0) > 0 ist. O1

1 Und für X > 0 ergibt sich wegen or <

F(x l f i (x))=or < 1-or = F(x-ll f i vgl. 5.1(8), 5.2(4) O1

und da F(x I P) streng fallend in p ist, folgt die Behauptung.

Page 30: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro

Beweise zu: 5. Konfidenzgrenzen fü r . . . Poissonverteilung 3.8.06 B 5 - 5

5.4 Berechnung der exakten Grenzen

Beweis von

(1) r; 01 ( 0 ) - l o g a

Für X = 0 reduziert 5.1 (8) zu

a = F( 0 l f i 01 (0)) = P( 0 l fiO1 ,(oll = exp I-fiO1 ,(0)}

und aufgelöst nach f i (0) ergibt sich die Behauptung. ' 1

Beweis von

(6) 1 2

f io , a ( ~ ) = xm;a für X 2 o mit m = 2 ( x + 1 ) ,

(7) 1 2

f i u l a ( ~ ) = 5 Xm;i-a für X > 0 mit m = 2 x .

unter Verwendung von

(5) F(xIP) = 1 - @ m ( 2 ~ ) mit m = 2 ( x + 1 ) .

ad (6): Die Gleichung 5.1 (8) für f i ( X ) 1aRt sich mit (5) schreiben als 01

l -mm(2f i ( X ) ) = a mit m = 2 ( X + 1) Ol

2 Also ist 2$01,(~) = X,,., d.h. (6 ) gilt.

ad (7): Die Gleichung 5.2 (4) für ,L ( X ) 1aRt sich mit (5) schreiben als U1

1 - @ m (2,L u,a ( x ) ) = l - a mit m = 2 x

Also ist 2$, ,(X) = X 2 m;l-a d.h. (7) gilt.

Page 31: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro

Beweise zu: 5. Konfidenzgrenzen fü r . . . Poissonverteilung 3.8.06 B 5 - 6

5.5 Asyrnptotische (approximative) Konfidenzgrenzen

Beweise zu

(6) 2 2

f( ,LL) = ( ~ - 4 -Pa

2 = (,U - pm) - D mit

(9) P, ,(X) : = P , + D (asymptotische obere Grenze),

(10) (asymptotische untere Grenze).

(11) O < P ( x ) < x < P ( X ) f ü r x > O . Ol

(12) (0) = 0

(13) 0 < P ( X ) < X < POla(x) f ü r x > O .

1 Wir stellen zunächst einige Eigenschaften der Funktion f zusammen. Wegen or < 1 ist z > O und somit

a

( 2 ) o<x<,LLm, D > O .

Weiter ist ,U die Minimalstelle von f mit m

(ii) f(pm) =-D < 0 ,

und es folgt

(iii) f ist streng fallend auf (-CO, ,LL ] und streng wachsend auf [,L , CO). m m

somit ist ,LL genau dann eine Lösung von (3), wenn ~ ( , L L ) = 0 und ,LL > X gilt. Zum

Nachweis der restlichen Behauptungen unterscheiden wir zwei Fälle.

1. Fall: X = 0

1 2 Dann ist (0) = ++ZU, = z2 > 0 O1 a

Page 32: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro

Beweise zu: 5. Konfidenzgrenzen fü r . . . Poissonverteilung 3.8.06 B 5 - 7

und dies ist offenbar auch die einzige Lösung von (3) im Fall X = 0.

(0) : = 0 gilt (10) in diesem Fall trivialerweise.

2. Fall: X > 0

Dann ist

(24 2 f(x) = - X Z < 0 , 2 a f(0) = X >o

Mit (i) und (iii) folgt hieraus einerseits, daß die untere Nullsstelle von f im Intervall

(0,x) und die obere im Intervall ( x , ~ ) liegen muß, d.h. (13) gilt.

Die Gleichung (3) läßt sich äquivalent schreiben als

(4 p - X = Z a & U x < p und f (p )=O

und hat wegen (11) die (eindeutige) Lösung ,L (X). 01

Analog läßt sich (5) läßt sich äquivalent schreiben als

(V;) p - X = - z a & U p < x und f (p )=O

und hat für X > 0 wegen (13) die (eindeutige) Lösung ,L (X). u , a

Beweise von

(14) nul,(x) < P U " - P < L a . & ,

P < ,Lqa(") U p-X <U.&.

Zum Nachweis von (14) zeigen wir die Äquivalenz der entsprechenden Negationen.

P a pul P a pul a(x) und ,LL 5 X , ~ ~ 1 . (11)

* f ( ~ ) 2 f(,Lul &(X)) = 0 und P 5 X , vgl..(iii)

2 2 * (P-.) >Pa und P - < X

" x - p > & z u

Damit gilt die erste Äquivalenz in (14), und die zweite folgt analog:

Page 33: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro

Beweise zu: 5. Konfidenzgrenzen fü r . . . Poissonverteilung 3.8.06 B 5 - 8

pol .(X) 5 a * pol .(X) 5 P und X < ,L, vgl. (11)

* S ( P ) > S ( ~ ~ ~ ~ ( X ) ) = O und x 5 P , vgl..(iii)

2 2 * (P-.) >W, und X 5 ,LL

* a - x > & z &

Beweise von

(16) lim P { , L L < ~ ( X ) } = 1 - a , lim P { p (X )< ,L} = I - a P+ O0 0, a P+ O0 U , a

Aus (14) und dem Poisson-Grenzwertsatz ergibt sich

Damit sind die ersten Behauptungen in (15),(16) gezeigt und die zweiten erhält man

analog:

Page 34: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro

Beweise zu: 6. Konfidenzgrenzen im Normalverteilungsmodell 3.8.06 B 6 - 1

Beweise zu 6. Konfidenzgrenzen im Normal-Verteilungsmodell

6.1 Verteilung der Varianzschätzung

Beweis von

(I) ~ E { ' c ( x ~ - ~ ) ~ } = a2 i . d { s . & ; ( x ) } = x ; ~ Z W .

a2 2 . d { & ; ( ~ ) } = n . X n .

2 Folgt mit der Definition der X -Verteilung aus

U . = ' ( X .- ,L) N(0, l ) z 0 z zzd für i = 1, ..., n.

Beweis von

Theorem (Orthonormale Transformation von Normalverteilungen)

Z = (Z1, ..., Zn/ sei ein k k t o r unabhängiger identisch verteilter Zufallsvariablen Z . 2

mit Standard-Normalverteilung .d(Z.) = N(0 , l ) . Ferner sei C eine orthonormale 2

T nxn Matrix) dd.. es ist C = C-l. Dann gilt für den transformierten Zufallsvektor

Y = C Z mit den Komponenten Y1, ..., Y . n '

(U) Y1, ..., Yn sind unabhängig und identisch N(0,l)-verteilt) d.h 4 Y ) = 4 2 ) .

2 2 (a, IIYII = C Y i = cz2= 1 1 ~ 1 1 ~ . 2 i

ad (a): Jedes Z . hat die Dichte ip von N(0, l ) . Die Dichte von Z = (Z1, ..., Zn) im 2

Punkt z = (z ..., z ) E IRn ist daher 1' n

Page 35: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro

Beweise zu: 6. Konfidenzgrenzen im Normalverteilungsmodell 3.8.06 B 6 - 2

Für die Transformation C : IRn + IRn ergibt sich die (eine) Dichte von Y = C X zu

(vgl. z.B. Materialien zur Maß- und W-Theorie, Theorem 14.1)

(ii) fy(Y) = fZ(cTY) . ldet ~1- l , d a c T = c - l .

1 T T Wegen C- = C ist C C = II und somit n T T l = det II = det (CC ) = det(C) .det(C ) = d e t ( ~ ) % n

also 1 = ldet CI.

Mit (i), (ii) ergibt sich dann für jedes y E IRn

(iii) fY(y) = fz(C T Y)

T T T = a . exp( - + (C Y) (C Y))

1 T T = a . e x p ( - y y CC Y))

1 T = a . e x p ( - y ~ Y))

= fZ(Y) .

Aus fy = fZ folgt dann 2 ( Y ) = 4 Z ) .

Page 36: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro

Beweise zu: 6. Konfidenzgrenzen im Normalverteilungsmodell 3.8.06 B 6 - 3

Beweis von

1 (2) b ( X ) = X und e2(x) = - C ( X . - X ) ~ sind stochastisch unabhängig. n-1 i 2

(3) 4x1 = N ( P , g) , - 2 2 (4) . ~ { - $ F ( x ~ - x ) } = x ~ - ~ , bzw. . 2 ~ { 8 ~ } = * . n - i Xn-1.

(3) wurde schon in 1.2 (1) gezeigt. Für (2) und (4) wenden wir das Theorems an auf 1 2. = - ( X . - ,L .) und eine noch zu bestimmende orthogonale Transformation

2 0 2 2

Y = C Z mit den Eigenschaften

( 2 ) Y 1 = a + b X mit n n

(ii) Y: = C (2.- 2 Q 2 . i=2 i=l

Für ein solches Y ergibt sich mit (a) aus dem Theorem

- n n 1 2 X=- (Y 0 1 - U ) ist st. unabhängig von C (T- Z12 = C Y S 2 - xnP1

i=l i=2 Also gilt (2).

- 1 1 - 1 - Wegen 2 . - Z = - (X . - ,L . ) - - (X -P . ) = - ( X . - X )

2 0 2 2 0 2 0 2 I h

ist 1 - 2 - 2 2 C 2 ( X , - X ) = C ( 2 . - Z ) - Xnpl i 0 "'-1

2 d.h. (4) gilt.

h -1

Wir konstruieren jetzt eine orthogonale Martix C mit (i) und (ii).

T n

1 1 Für den konstanten Vektor cl : = (- ) E IRn ist C C = C - = 1. fi 1 1 n

i=l Folglich läßt sich cl zu einer Orthonormalbasis cl, c2, ..., cn des IRn erweitern. Die - - Matrix C = (C C . . C )" mit den Zeilen C ! ' erfüllt dann (i) und (ii):

1 2 ' n 2

nach Theorem (b) und (i).

Page 37: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro

Beweise zu: 6. Konfidenzgrenzen im Normalverteilungsmodell 3.8.06 B 6 - 4

6.2 Konfidenzgrenzen für den Erwartungswert bei geschätzter Varianz im Normalverteilungsmodell

Beweis von

mit m = n-1 m

Jn ( f i - P ) - J. ( X - ,)I0 - - -

U Es ist

a J [C ( X , - X) 2/02] / m \lV/m 2

mit U = J n ( X - p 0 ) / 0 - ~ ( 0 , l ) nach 4.1 (3)

- 2 2 2 V = C ( X i - X ) / , - X , nach 4.1 (4). i

Nach 4.1 (2) sind U und V stochastisch unabhängig und die Behauptung folgt mit

der Definition der t -Verteilung (vgl. Exkurs V 2.1). m

Beweis von

(10) P { / ? ( X ) < p } = 1 - Q = P { p < /? ( X ) } Ol

Esist: P { X - $ a < p } = P { X - ~ ~ . ~ ~ / & < , L L } 7

= p { J n ( X - p ) / 8 < tm;,} = 1 - a

Analog: p { p < X + $ } = ~ { p < X + t m; a 8 / & }

= P{- t < J n ( X - $ a ) / a } = 1 - a m;a

Beweis von

(5) 1 @ ( Z ) < 1 - a für jedes n und 0 < a < Y

n a

(11) Za < t 1

n; a für jedes n und 0 < a < Y .

vgl. Johnson-Kotz, Sec.. 27.2. Ein direkter Beweis ist mir nicht bekannt!

vgl. (1).

vgl. (1).

Page 38: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro

Beweise zu: 6. Konfidenzgrenzen im Normalverteilungsmodell 3.8.06 B 6 - 5

Beweis von

(14) F(T(x) I fiel ,(X)) = bzw.

1 " + t,,; \r, . &(X) = p,

folgt (14). Und da F(t / ,L) streng fallend in p, ist, ergibt sich auch(l5).

Beweis von

(17) G(T(X) I fi, ,<X>) =

(18) fi,,(x) = Min { P E R I @(X) Ip,) > U ) .

Der Beweis verläuft völlig analog dem von (14) und (15).

bzw.

6.3 Asymptotische Konfidenzgrenzen für den Erwartungswert bei geschätzter Varianz in beliebigen Verteilungsmodellen

Beweis von

(1) i i r n ~ { X ( ~ ) - $ ( ~ ) < p , } n a = I - U ,

(2) iim n ~ { p , < x(~) + J ( ~ ) } a = I - U ,

(3) lim P{ ~ ( n ) - $(n) < p, < ~ ( n ) + $(n) } = lBa . n 4 2 4 2

(4) l i m t n n;a =Z a .

(4) gilt nach Exkurs Q 2 (An~endun~sbe i s~ ie l e ) , und (3) folgt aus (1) und (2), die

noch zu zeigen sind.

Page 39: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro

Beweise zu: 6. Konfidenzgrenzen im Normalverteilungsmodell 3.8.06 B 6 - 6

ad (I):

Aus &(F(n] - p ) / D L N(0,l) vgl. 1.1 (5)

und P D/&(") - 1 vgl. 3.2 (7),

folgt mit Exkurs K V 5 (3)

( 2 ) &(X(") - N(0,l).

Mit (4) und Exkurs Q 2 (eine alternative Herleitung ohne diesen Exkurs folgt) folgt

(ii) P{ - p )/An) < t n-1; a } i P { N ( o , ~ ) < z a } = I - U .

Wegen &(X - P ) / & < inPli. ¢$ X - p < 8 t n-1 ; a / & = J a

¢$ T 1 - J < p (X

ist (1) gezeigt. Alternativ ergibt sich (ii) wie folgt. Aus (i) und (4) erhält man mit Ex-

kurs K V 5 (2)

U n : = & ( ~ ( ~ ) - p ) / 8 ( " ) - t„;, + , A N(0,l)

+ P { u ~ < z , } - P { N ( o , ~ ) < z ) = ~ - U a

Wegen < a 4") < t U &(X(n) - p ) / D n-1 ; a folgt (ii).

ad (2):

Analog (ii) ergibt sich

(iii) P{ - &(x(~) - p )/An) < t n-1; a } - P { - N ( o , ~ ) < z a } = 1 - U .

Wegen - &(X - P ) / & < tnPl ;a U p - X < 8 t n-1; a / & = J a

U p < X + J a

erhält man (2).

Page 40: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro

Beweise zu: 6. Konfidenzgrenzen im Normalverteilungsmodell 3.8.06 B 6 - 7

6.4 Konfidenzgrenzen für die Varianz

Beweis von

(2) 2 P { & ~ , ~ < D } = I-a,

= 1 - a , vgl. 4.1 (4).

Page 41: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro

Beweisezu: 7. Schätzen einer Verteilungsfunktiom 3.8.06 B 7 - 1

Beweise zu 7. Schätzen einer Verteilungsfunktion

7.1 Die empirische Verteilung der Stichprobe

Beweis von

Wegen &B) = &B n Z) genügt es, den Fall B C Z zu beweisen. Dann gilt

Beweis von

(5) ~ ( a ) = ~ ( a l x ) = I n ~ a x { l < i < n l X < U ) für a E IR. (4 - Für k = M a x { l < i < n - - 1 X < U )

(2) -

gilt X < . . . X < a < x (1) -

< . . . < X (k) - - (k+ 1) - - (n) '

also k = # { l < i < n I x . < a ) , 2 -

d.h. (5) gilt wegen (3).

Page 42: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro

Beweise zu: 7. Schätzen einer Verteilungsfunktiom 3.8.06 B 7 - 2

7.2 Eigenschaften der empirischen Verteilung

Beweise von

(starke Konsistenz),

(3) J;I(F(")(~)- P{xEB)) /~ (B) N(0,l) falls

Die Indikatoren Yi = IB(Xi) = I {X. E B) sind unabhängig und identisch B(1, p)-ver- 2

teilt mit p = P {X E B). Die Schätzung

ist daher nach 1.1 eine erwartungstreue und konsistente Schätzung von p mit

asymptotischer Normalverteilung, d.h. die Behauptungen gelten.

Page 43: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro

Beweise zu: 8. Schätzen von Quantilen und Momenten 3.8.06 B 8 - 1

Beweise zu 8. Schätzen von Quantilen und Momenten

8.1 Schätzen des Median (unter Verwendung von 8.2)

Beweise von

(2) ^ ^ I ^ 1 ( = F - ( 2 1 x ) = F - ( 2 1 x ) = x (k) fallsnungerade: n = 2 k - 1 ,

(3) ^ 1 6 = 2 ( ~ ( k ) + x(k+l) 1 falls n gerade: n = 2 1% , mit

^ 1 "(k) = "(4 I X ) > = F- (2 1 X )

1 ad (2): folgt direkt aus 8.2 (2) , (3) für p =-. 2

ad (3): Aus 8.2 (2), (3) für p =L 2 ergibt sich

^ 1 ' - ( + I x ) , F - ( 2 1 x ) '

Beweis von

(4) [(n) L?+ t f ur .. n+cc

1 Vgl. 8.2 (5) für p = -. 2

(Konsistenz).

Page 44: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro

Beweise zu: 8. Schätzen von Quantilen und Momenten 3.8.06 B 8 - 2

8.2 Schätzen eines Quantils

Beweise von

M (P 1 X) = mit k = ~ i n { i ~ W l p < i } ,

(3) C ( p I x ) mit m = ~ i n { i ~ W lp<i} > k ,

Aus $U) = $aIx) = ' ~ a x { l < i < n l X < U } n vgl. 7.1 (5) (4 - folgt P < B a ) - U n p < M a x { l < i < n I X < U } (4 -

U k = Min{iEW I n p < i ) - < M a x { l < i < n 1 X < U ) (2) -

Also ist F-(a) = inf { a E IR I p 5 F(a) }

= i n f ( aEIR1x < U } - (k) - - x(k)

, d.h. (2) gilt.

Undaus ~ ( a ) < p U M a x { l < i < n I x < a } < n p (2) -

M a x { l < i < n 1 X < U ) < n p < M i n { i ~ W I n p < i ) = m (2) -

U a < x (4 folgt F ( p ) = s u P { a € I R I F ( a ) < P }

= s u p { a ~ I R I a < x } = X (4 (4 , d.h. (3) gilt.

Beweis von

(5) $4 P., E f ur .. n+cc P P

Wir zeigen zunächst

(4 F - ( ~ I X ( ~ ) ) L F - ( ~ ) =

(ii) F(P I x (~) ) L F-(P) = Ep ("1 < Wegen F - ( p l ~ ) - [ ~ ) < ~ ( p l ~ ( n ) )

ergibt sich dann die Behauptung mit nachfolgendem Hilfssatz 1.

(Konsistenz).

Zum Nachweis von (i) und (ii) verwenden wir die fundamentalen Eigenschaften

Page 45: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro

Beweise zu: 8. Schätzen von Quantilen und Momenten 3.8.06 B 8 - 3

der Quasi-Inversen aus Exkurs Q 1 (4)-(5):

(iii) F-(P) 5 CL U P I F(a) ,

(24 a 5 F-(P) U F(a-) 5 P .

Mit dem folgenden Hilfssatz 2 (2) folgt ( i ) , wenn für jedes a E IR gezeigt wird:

P { F - ( ~ ~ x ( ~ ) ) 5 a } G l ~ { p 5 ~ ( a l ~ ( n ) ) } - { o 1 für für a a > < f p P

Wegen F (a I = (a) F(a) vgl. 7.2

ergibt sich aus Hilfssatz 2 (3)

P { ~ ~ F ( ~ ~ X ( ~ ) ) } - i für p < ~ ( a ) 0 für p > F(a)

Wegen a < f p = F P ( p ) + P > F(a) nach (iii)

und U > f p = F-(P) + p < F(a-) 5 F(a) nach (iv)

ergibt sich (i)' aus (V).

Und zum Nachweis von (ii) mit Hilfssatz 2 (3) ist für a E IR zu zeigen:

(4 < 1 für a < f i i p { F ( p 1 L a I p{i . (a- 1 X ) - P } - { o für a > p

P P Wegen F ( ~ - I x ( ~ ) ) = ~ ( ~ ) ( - w , a ) - P(-w ,a )=F(a- ) vgl. 5.2

ergibt sich aus Hilfssatz 2 (2)

0 für p < F(a-) 1 für p > F(a-)

Wegen a < f p = F P ( p ) + p>F(a)>F(a- ) nach(i i i )

und U > f p = F-(P) + P < F(a-) nach (iv)

ergibt sich (ii)' aus (vi).

Page 46: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro

Beweise zu: 8. Schätzen von Quantilen und Momenten 3.8.06 B 8 - 4

Hilfssatz 1: Für Zufallsvariablen U < X < V und a E IR gilt: n - n - n

P Beweis: Wegen (U , V ) - ( U , a) folgt n n

P U -V - 0 n n

d.h.

( 2 ) P { l V n - u n I > & } -0 für alle e > O.

Mit IV -U I > l X -U I n n n n

folgt P { l X n - U n l > & ) 5 P { l V -U I > & ) -0 d.h. n n

(ii) P X - U - 0 . n n

Also P X = U + ( X - U ) - a + O = a . n n n n

Hilfssatz 2: Für Zufallsvariablen X und c E IR sind äquivalent n

(1) P X - C

n. . U

I 0 für X < c Für jedes X E IR gilt: lim P { X n < x ) =

72-00 1 für X > c

2 bzw. X - c n

(3> Für jedes X E IR gilt: 72-00 lim P { X n > x ) = I 0 für X > c

1 für X < c

Beweis: (1) ist äquivalent zu

(1) P { X n EU)-^ für jede Umgebung U von C.

Da die Umgebungen der Form U= ( U , b ] eine Umgebungsbasis bilden ist dies wie-

der äquivalent zu

Page 47: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro

Beweise zu: 8. Schätzen von Quantilen und Momenten 3.8.06 B 8 - 5

( ) ( 2 ) : Fürx<cliefert ( l ) " m i t a = x u n d b = o o

P { X < W } - P { X < X } - 1 , n - n -

u n d m i t P { X < o o } = l f o l g t P { X < X } - 0 . n - n -

Und für X > c liefert (1)" mit a = - oo und b = x-

P { X < X } - P { X < - W } - 1 , n - n -

u n d m i t P { X <-oo}=Ofo lg tP{X < X } - 1 . n - n -

(2) + ( I ) : Aus (2) ergibt sich

P (1) U (3): Zunächst ist (1) auch äquivalent zu -X - -C und - wie gezeigt - n

auch äquivalent zu (2) mit - X statt X , d.h. zu n n

0 für - X < - c Für j edesx~IRgi l t : lim P{-X,<-X} =

72-00 1 für - X > - c

Dies ist aber äquivalent zu (3).

Page 48: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro

Beweise zu: 8. Schätzen von Quantilen und Momenten 3.8.06 B 8 - 6

8.3 Schätzen von Momenten

Beweis von

(empirisches k-tes Moment)

Für die empirische Verteilung P auf Z = {X ..., X } ist der Erwartungswert einer 1' n

„Zufallsvariablen" (Funktion) U : Z+ IR gegeben durch n

k Speziell für U(z) = z ergibt sich

Die Schätzung n

k n

P;(F(- I X)) = L C Xi = C Y. mit k Y . = X . n . n . 2 2 2

2 = 1 2 =1 ist nach 1.1 eine erwartungstreue und konsistente Schätzung auf E(Y.) = E(x!).

2 2

Beweis von n

(7) 1 - k

P,(Q- I X)) = - n . C X ) (empirisches k-tes zentrales Moment). 2 = 1

Für U(z) = [z- .lk = [z- 1 x)lk vgl. (4)

ergibt sich der Erwartungswert von U unter P aus (i) im Beweis von (2) zu

Page 49: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro

Beweisezu: 9. Parametrische Modelle und Exponential-Familien 3.8.06 B 9 - 1

Beweise zu 9. Parametrische Modelle und Exponential-Familien

9.2 Parametrische Exponential-Familien

Beweis von

(9) K y ( t ) = h ( t + 4) - h ( 4 )

Die MGF von Y = b ( X ) lautet

My( t ) = E iI ( e x p { t T b ( ~ ) } )

= J ""P { tTb(x)l .f+(x) u(dx) Tr

= J exp { t Tb (x ) } . exp {11~b(x) - h(4) + d(x) } u(dx) Tr

= exp { h( t + 4) - h($)} . J exp { ( t + 4) Tb(x) - h( t + $1 + d(x) 1 Tr

Hieraus folgt

Ky( t ) = log My( t ) = h ( t + 4) - h ( 4 ) für t E P- 4, d.h. t + 4 E P .

Beweis von

(10) E iI (Y) = ~ h ( $ ) ~ = ~ h ( $ ) für 4 E P, bzw.

a E$(Ys) = h(4) für s = 1, ..., s ,

(11) cov iI (Y) = o2h($) für 4 E P, bzw.

Cov (YT,Ys) = d 2 $ h(4)

für r, s = 1, ..., S W , W s

Aus (9) erhält man mit Exkurs CF 7 (4) (5):

T E (Y) = D Ky(0) = D h(4)

T iI

cov (Y) = ~ ~ ( 0 ) = h(4) . iI

Page 50: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro

Beweisezu: 9. Parametrische Modelle und Exponential-Familien 3.8.06 B 9 - 2

Beweis der Äquivalenz von

(F3) h($) ist positiv-definit für jedes $E l.

(F3) ' Für jedes t E IRs mit t t 0 und jedes $ E l ist die Verteilung .J ( tTy) T

1i der Linearkombination t Y = tlY1 + ... + tSYS keine Einpunkt-Verteilung,

rn

d.h. es gilt Var (tlY) > 0 . 1i

Für jedes t E IRs gilt (vgl. Exkurs CF 7 (3)):

Page 51: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro

Beweisezu: 9. Parametrische Modelle und Exponential-Familien 3.8.06 B 9 - 3

9.3 Binomial-Verteilung

Beweis von

(4) log fp(x) = logit(p) . X + n log (1 - P) + log ( z ) = a(p) . X + ~ ( p ) + d(x) für X E Tr

~ s i s t logf(x) = x l o g ( p ) + ( n - ~ ) l o g ( l - ~ ) + l o g ( z ) P

= X logit(p) + n log (1 - p) + log ( z) .

Beweis von

(6) 4 h($) = n log(l+ e )

Es ist h($) = - e(~(a'($))

= - n log(l - logit-'($))

für E IR

Beweis von

(9) E+(X) = y(X) = hl($) = n p

Var (X) = K~(X) = hl1($) = np(l-p) + mit p = logit-'($1 .

Es ist

Page 52: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro

Beweisezu: 9. Parametrische Modelle und Exponential-Familien 3.8.06 B 9 - 4

9.5 Normal-Verteilung

Beweis von

(F3) ' Für jedes t E IRs mit t t 0 und jedes 4 E Q ist die Verteilung 2 (tTy) rn iI

der Linearkombination t " ~ = t Y + ... + t Y keine Einpunkt-Verteilung, rn

1 1 S S d.h. es gilt Var (tlY) > 0 .

iI Es ist Y1 = bl(X) = X ,

2 Y2 = b2(X) = X .

Angenommen, es gibt (tl, t2) t (0,O) und to E IR mit

bzw.

(ii) g(X) = 0 P -f.s. -+ mit

Für t t 0 ist g ein Polynom 2. Grades und für t = 0 ist g ein Polynom 1. Grades 2 2

(weil dann tl t 0). Also hat die Menge G der Nullstellen von g höchstens 2 Ele-

mente. Aus (ii) folgt

(2.1 X E G P -f.s. iI im Widerspruch zu P { X E G ) = 0, da X stetig verteilt ist.

iI

Page 53: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro

Beweisezu: 9. Parametrische Modelle und Exponential-Familien 3.8.06 B 9 - 5

9.6 Gamma-Verteilung

Beweis von

(F3) ' Für jedes t E IRs mit t t 0 und jedes 4 E Q ist die Verteilung 2 (tTy) rn iI

der Linearkombination t " ~ = t Y + ... + t Y keine Einpunkt-Verteilung, rn

1 1 S S d.h. es gilt Var (tlY) > 0 .

iI Esist Z : = Y = b ( X ) = l o g X ,

1 1

Angenommen, es gibt (tl, t2) t (0,O) und to E IR mit

(2) Z t lZ+t e = t

2 0 P -f.s.

iI bzw.

(ii) s(z) = 0 P -f.s. -+ mit

(iii) g(z) = t2 ez + tlz + t,. Wir zeigen, daß die Menge G der Nullstellen von g höchstens zwei Elemente en-

thält. Mit der Folgerung aus (ii)

ergibt sich der Widerspruch zu P {ZE G) = 0, da Z = log X stetig verteilt ist. iI

Zunächst sei 0.B.d.A t2 > 0 (sonst betrachte man -g statt 9). Wegen

ist g streng konvex.

Fall 1: t > O 1-

Dann ist g' > 0 und g hat als streng wachsende Funktion höchstens eine

Nullstelle.

Fall 2: t1 < 0

Dann hat g ein Minimum in z0 = log(- tl/t2). Für z < zo ist gl(z) < 0 und

somit g streng fallend. Und für z>zo ist gl(z) > 0 und somit g streng

wachsend. Also hat g höchstens zwei Nullstellen..

Page 54: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro

Beweise zu: 10. Maximum-Likelihood-Schätzung von Parametern 3.8.06 B 10 - 1

Beweise zu 10. Maximum-Likelihood Schätzung von Parametern

10.5 Schätzung in einparametrigen Exponential- Familien bei unabhängigen Wiederholungen

Beweis von

(2) s, (X) = exp { a(Q) . b+(x) + n c (Q) + dt (X) 1 wobei die Funktionen b und d auf ( T T ) ~ definiert sind durch

t t

(3) bt(xl, ..., xn) := C b(xJ , dt(xl, ..., xn) := C d(xJ 2 2

Es ist gg(xl, ..., X,) = I-If,(x,J i

= exp { a(Q) . b(x) 2 + (8) + d (xi)} i

= exp { a(Q) . C b ( .) + C (B) + C d (X,)} z 2 2 2

= exp{a(Q).bt(x) + nc(Q) + d+(x)}.

für X E ( ~ r ) ~ ,

Beweise von

(5) Ky(t) = h(t+$) - h($)

(6) K ~ ( Y ) = h(') ($1 für ~ E N ,

(5) ist ein Spezialfall von 7.2 (9). Weiter ist

K$)(t) = h ('1 ( t +$) * K r (Y) = K$)(o) = h(')($).

Page 55: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro

Beweise zu: 10. Maximum-Likelihood-Schätzung von Parametern 3.8.06 B 10 - 2

Beweise von

(17) PA { L(- I x ( " ) ) hat eine Maximalstelle X(" ) für fast alle n E W } = 1.

(starke asymptotische Existenz).

(18) A(") + X PA-fast sicher (starke Konsistenz für A),

(19) 8 ("1 + I9 Po-fast sicher (starke Konsistenz für 8).

ES gilt T(")+ X + Y(") E A für fast alle n X E A offen

+ A(") = T(") für fast alle n

Nach (16) gilt die Prämisse PA-fast-sicher und somit gelten auch die Folgerungen

P -fast-sicher. X

Beweise von

(20) 2 J;I ( ~ ( " 1 - X ) - N(0,02) mit o 2 = VarA(Y).

(21) J;I ( B ( " ) - 1 9 ) 2 N ( O , I - ~ ( Q ) )

(22) I(I9) : = VarO{DO log f(X I 8 ) } (Fisher-Information von X),

(23) I(I9) = ( a ' ( ~ ) ) ~ . h " ( a ( ~ ) ) .

Aus dem zentralen Grenzwertsatz ergibt sich sofort (vgl. auch 1.1 (5))

( 2 ) 2 J;I (Y'") - X ) - N(0,o2) mit o 2 = VarA(Y).

Aus T(") E A für fast alle n E W + $4 = X(") für fast alle n E W + J;I (,I(") -V(")) = o für fast alle n E W +

( A n - ) - 0 P-fast sicher +

(ii) J;I ( ~ ( 4 -Y(")) P_ 0

ergibt sich (20). mit (i). Für die Transformation F = (hloa)-' ergibt sich mit der

Page 56: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro

Beweise zu: 10. Maximum-Likelihood-Schätzung von Parametern 3.8.06 B 10 - 3

Delta-Methode (vgl. Exkurs KV 14) aus (20)

(iii) ~n ( F(x(~)) - F(X) ) N(O, 02. F ~ ( x ) ~ ) I I I I J(") 8 mit

F1(X) = [(h' o a) '(F'(x)) 1-' = [(h' o a) ' ( B ) ] ' = [h1'(a(8)) . a ' ( ~ ) ] ~

(2.1 = [hl'($) .a1(8)]-'

Wegen o2 = Var (Y) = hl'($) ii vgl. (7)

ist 2 1 o . F (X) = h ' '($)P' . a ' ( ~ ) - ~

und somit gilt (21) mit I(8) aus (23). Zu zeigen bleibt (22).

Aus log f ( ~ 1 8) = ~ ( 8 ) b(x) + ~ ( 8 ) + d(x)

folgt D, log f(x 18) = a'(8) b(x) + C'(@)

also ~ a r ( ~ * log f(x 1 8)) = var(a1(8) b(X) )

= ~ ' ( 8 ) ~ . Var( b(X))

= ~ ' ( 8 ) ~ . h"(a(8)), d.h. (22) gilt.

Page 57: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro

Beweise zu: 11. Asymptotische Eigenschaften des ML-Schätzers 3.8.06 B 11 - 1

Beweise zu 11. Asymptotische Eigenschaften des ML-Schätzers

Die Beweise liegen noch nicht in digitaler Form vor.

Page 58: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro

Beweise zu: 12. Ungleichung von Cramer-Rao und effiziente Schätzer 2.8.06 B 12 - 1

Beweise zu 12. Die Ungleichung von Cramer-Rao und effiziente Schätzer

Die Beweise liegen noch nicht in digitaler Form vor.

Page 59: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro

Beweise zu: 13. Momente-Schätzung 2.8.06 B 1 3 - 1

Beweise zu 13. Momente-Schätzung

Auf die Beweise wurde verzichtet, weil sich die Behauptungen unmittel-

bar aus dem Zusammennhang ergeben.

Page 60: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro
Page 61: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro

Beweise zu: 15. Likelihood-Quotienten-Tests 3.8.06 B15-1

Beweise zu 15. Likelihood-Quotienten-Tests

15.1 Schärfste Tests und Neymann-Pearson Lemma

Beweis von

Definition und Lemma von Ne yman-Pearson

Für das Testproblem mit den einfachen Hypothesen Ho = {Bo} und H1 = {Bl}

und ein festes X. > 0 ist der Neyman-Pearson Test d definiert durch

(5) 4x1 = 1 * f(x I B1) > X. .f(x IBO) für alle X E IR^.

Dann ist d ist ein schärfster Test zum Niveau

(6) a : = P o w d (B o ) .

Zusatz:

Sind Trk := {f(- 1 Bk) > 0) die Träger von 2 ( X ) unter der Hypothese Hk für

k E {0, I}, so liegt X unter beiden Hypothesen Po-fast sicher in Tr : = Tro U Trl.

Im nicht-trivialen Fall X o > 0 ist der Neyman-Pearson Test d der einzige

schärfste Test zum Niveau a, d.h. für jeden anderen Test d* gilt:

(7) P O W ~ * ( B ~ ) = P O W ~ ( B ~ ) und ~ o w ~ * ( B ~ ) = ~ o w ~ ( B ~ ) + ( d*(x) = d(x) für alle X E Tr ) U-fast-überall.

setze fo(x)=f(xlQo), f1(x)=f(x1Q1J,

C o = { X E I R ~ ~ ~ ~ ( X ) < X ~ ~ ~ ( X ) } = { X E I R ~ ~ ~ ( X ) = O } ,

c1 = { x E I R ~ ~ ~ ~ ( x ) > X ~ ~ ~ ( X ) } = { X E I R ~ ~ ~ ( X ) = ~ } ,

c2 = {xEIRn Ifl(x) >Xofo(x) 1 C C l ,

6 3 ={xEIRn lf1(x)=X0fo(x)} c C 1 ,

Zum Nachweis des Lemmas sei d* ein weiterer Test zum Niveau < - a, d.h.

Page 62: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro

Beweise zu: 15. Likelihood-Quotienten-Tests 3.8.06 B15-2

(2) powd*(e0) 5 = powd(e0) bzw.

Zu zeigen ist

(ii) powd*(el) 5 Powd(el 1 bzw.

E(+ d*(x) 1 a E(+ 4x1 1 bzw.

0 a EO{d(X)-d*(X)}

Nun ist Egli d(X) - d*(X) } = J [d(x) - d*(x)] . fl(x) u(dx)

Wir schätzen die Integrale über C und C einzeln ab. 1 0

F Ü r x ~ C ~ i s t : d(x)-d*(x)>O, da d(x) = 1

f1(4 2 Aofo(x) und somit

(iii) J [d(x) - d*(x)I . fl(x) @X) > Ao . J [d(x) - d*(x)] . fo(x) . Cl Cl

Für X E Co ist: d(x) - d*(x) 5 0 , da d(x) = 0

f1(4 < Aofo(x) und somit

Insgesamt ergibt sich jetzt (i) wie folgt:

Page 63: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro

Beweise zu: 15. Likelihood-Quotienten-Tests 3.8.06 B 1 5 - 3

> - 0 nach (i).

Damit ist das Lemma bewiesen. Wir zeigen jetzt (7) für X > 0 und zerlegen dazu 0

(vii) Cl = C U C3 mit c2 = { X E IRn I f1(x) > Xofo(x) 1 , 2

6 3 = { X E IRn I fl(x) = Xofo(x) 1 ,

Nach Voraussetzung in (7) gilt in (i) und (ii) sogar die Gleichheit, d.h.

(22) P P

E { d ( X ) - d * ( X ) ) = 0 . 01

Nach (vi) gilt (ii)- genau dann, wenn in (iii) und (vi) die Gleichheit gilt. Also ist -

(iii) P

P

0 = S [d(x) - d*(x)l . [il(x) - X , . fo(x)l u(dx) Cl

= S [d(x) - d*(x)l . [fl(x) - X . . fo(x)l vgl. (vii). C2

ist (iii) P äquivalent zu -

(viii) [ x € C 2 + d ( x ) = d * ( x ) ]

Analog ergibt sich aus

und [d*(x) - d(x)l > 0 , [ X o . f o ( x ) -fl(x)l > 0 für X E Co

Page 64: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro

Beweise zu: 15. Likelihood-Quotienten-Tests 3.8.06 B15-4

die Äquivalenz von (ui) P zu -

(2x1 [ x E C , + d(x)=d*(x)]

Weiter erhält man aus (i) P

-

= J [d(x) - d*(x)I . fO(x) ~ ( d x ) vgl. (uiii), (ix) C3

und mit [d(x) - d*(x)] 2 0 , für X E C3 C Cl folgt

(X) [ x € C 3 , fO(x)>O + d(x)=d*(x)] U-fast-überall

Wegen X E C3 n Tr + f0(x) > 0 oder fl(x) = X. f0(x) > 0

+ fo(x) > 0

folgt aus (X)

(xi> [ x € c 3 n T r + d(x)=d*(x)]

Wegen IRn = Co U C2 U C3 ergibt sich aus (ix), ((vii) und (xi) jetzt

(xii) [ x ~ T r + d(x)=d*(x)] U-fast-überall.

15.3 Einparametrige Exponential-Familie

Beweis zu Normal-Verteilung mit bekannter Varianz

14.3(5) Pow2(pIa) <Powl(pIa) für alle p > po

14.3 (6) Pow2(pIa) <Pow;(pIa) für alle p < po

Für vorgegebenes p > p sei y > 0 definiert durch 0

bzw. 1 r = J n ( ~ - ~ ~ ) l g ~ p = p O + - a y fi Für dieses p > p0 ist der einseitige (obere) Gauß-Test ist ein MP-Test für die einfa-

chen Hypothesen Ho = {pol vs. H; = {p}, und somit gilt

Page 65: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro

Beweise zu: 15. Likelihood-Quotienten-Tests 3.8.06 B15-5

Angenommen, in (i) gilt die Gleichheit. Dann folgt aus 13 (7) mit U = An als

Lebesgue-Maß auf IRn

dl(x) = d2(x) für alle X E IRn An-fast-überall bzw.

(ii) An{dl t d2} = O

Unter Verwendung der Indikator-Funktionen der Mengen

lassen sich die Testfunktionen schreiben als

Die beiden Indikatorfunktionen unterscheiden sich auf der Menge

- - [za ,zoli2) U (-00 >-zaI2l

und für das Urbild unter t folgt

Der offene Kern Do von D ist nicht-leer und somit enthält tP1[D] die nicht-leere

Menge t-'[D'], die offen ist (t ist stetig). Daraus folgt

o < A~(~- ' [D ' ] ) 5 A ~ ( ~ - ' [ D ] ) 5 ~ ~ { d ~ t d ~ }

im Widerspruch zu (i). Also gilt in (i) nicht die Gleichheit und (7) ist gezeigt.

(8) folgt analog oder durch Zurückführen auf (7) mit - X statt X.

Page 66: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro

Beweisezu : 16. Testen eines Erwartungswertes 3.8.06 B 1 6 - 1

Beweise zu 16. Testen eines Erwartungswertes

16.1 Einseitiger (oberer) t-Test von Student im Normal-Verteilungsmodell

Beweis von

(5) J'] $1 = trn(7) mit

(6) m : = n - 1 (Freiheitsgrad),

(7) Y(P) := J. (p-p0)

(Nichtzentralitä~ , 0

J n ( X - p o ) - - Jn (F- pol10 - -

U Es ist T =

&(X) J [C (X, - X) 2/02] /m m m 2

mit U = f i ( X - p o ) / ~ - N(7,l) nach 4.1 (3)

nach 4.1 (4).

Nach 4.1 (2) sind U und V st. unabhängig und die Behauptung folgt mit der Defini-

tion der nichtzentralen t -Verteilung (vgl. Exkurs V 2.2). m

Page 67: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro

Beweise zu: 16. Testen eines Erwartungswertes 3.8.06 B 1 6 - 2

Beweis von

(10) Powl ( y 1 a ) ist streng wachsend in y

nach (5)

Nach Exkurs V 2.2 (10) ist @ ( t ) = @ ( t . ) streng fallend in y. m,Y m;a m,71O m,a

Also gilt (10) und daraus folgt dann (12).

Beweis von

(13) dl(x) = I U ~ { t m - > t ( x ) } 5 a .

(14) ~ { t m- > t ( x ) } = rnax P { T > t ( x ) } . Y 5 0

Da die Verteilungsfunktion der t -Verteilung streng wachsend ist, gilt m

t (x ) > t m; a U ~ { t m - < t ( x ) } > P { t m - < t m;a } = l - a

U ~ { t > t ( x ) } < a . m -

Also gilt (13). Und (14) ergibt sich - analog (9) (10) (12) - aus

Es gilt P { T > t ( x ) } = P{ tm(y) > t ( x ) }

= I - @ ( t ( ~ ) ) . " 1 Y

da @ ( t ( x ) ) = @ ( t ( x ) ) streng fallend in y ist (vgl. Exkurs V 2.2 (10)) " , Y " , Y 10

nach (5)

Page 68: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro

Beweisezu : 16. Testen eines Erwartungswertes 3.8.06 B 1 6 - 3

Beweis von

Es ist 1 t < T = + ( X - , L L J / ~ U - 8 t m 7 a - fi m7a-

Beweis von

(16) P{ tm(r) 2 trn.&} < P{N(y,l) >za} 1 für y > O , a < ? .

Wir zeigen sogar

(4 P{ tm(r) 2 trn.&} < P{N(y,l) >za} 1 für y > O , a t ? .

(b) 1

P{tm(y) 2 tm.&} = P{N(y,l)>\} für y > O , a = - 2 d.h.

P{ tm(r) 2 0) = P{N(y,l) > 0)

Für vorgegebenes y > 0 sei ,LL > ,LL definiert durch 0

bzw. 1 Jn(,LL-,LLo)I~o = Y ,LL=,LL0+-gy fi Für dieses ,LL > p0 ist der einseitige (obere) Gauß-Test ist ein MP-Test für die einfa-

chen Hypothesen Ho = vs. H; = {,LL}, und somit gilt zunächst

Für die Behauptung (16) ist noch zu zeigen, daß die Gleichheit in (i) nicht gilt. Nach

15.1 (7) genügt es dafür zu zeigen, daß sich der einseitige Gauß-Test gl und t-Test dl

auf einer offenen nicht-leeren Menge A C Tr = IRn unterscheiden, weil dann

1 Fall 1: a < ? also z t > O a ' m;a

Wir definieren die offenen Mengen

und zeigen, daß die offene Menge A = Aln A2 C {gl t dl} nicht leer ist. Hierzu be-

trachten wir für beliebige a, d E IR die Realisierung X = x(a, d) mit

Page 69: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro

Beweise zu: 16. Testen eines Erwartungswertes 3.8.06 B 1 6 - 4

(ii) X = U - d , 1

X = a + d , 2

x . = a f ü r i > 2 . 2

Dann ist

(iii) - X = a , 2 2 S x x = C ( X . - % ) = 2 d ,

i

(2.1 & ( X ) = c 1 d 1 > o mit C=-.

Wählen wir jetzt a E IR mit

1 sofolgt 0 < % - P , = a-,uo < - o z d.h. X E Al f i a

sowie 0 < & ( X - , u O ) = f i ( a - , u O ) .

Und für hinreichend kleines d erhält man

f i (a - pol > C 1 d 1 tmia = " X ) tm.& > 0 d.h. X E A2.

Also ist A t 0.

1 Fall2: a>? also z t < O a ' m;a

Wir definieren die offenen Mengen

und zeigen analog Fall 1, daß die offene Menge A = Aln A2 C {sl t d l } nicht leer

ist. Hierzu betrachten wir die Realisierung X = x(a,d) und wählen jetzt a E IR mit

1 p O + - o z a < a < p O .

f i 1 - Dann ist - o z < a - , u = X- ,u0 < 0 o d.h. X E Al f i a

sowie f i (% - ,uO) = f i (a - ,uo) < 0.

Und für hinreichend kleines d erhält man

f i (a - pol < C 1 d 1 tmia = " X ) tm.& < 0 d.h. X E A2.

Also ist A t 0.

1 Fall3: a=- 2

also z t = O . a ' m;a

2 Für unabhängige U - N(y, 1) und V > 0 mit r n v 2 - X gilt m

Page 70: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro

Beweisezu : 16. Testen eines Erwartungswertes 3.8.06 B16-5

Beweis von

(17) lim n t n-l;a =Z a

Nach Exkurs V 2.1 (12) gilt

t A N(0,l) für n + CO, n

und hieraus ergibt sich die Behauptung mit Exkurs Q 2 (9)

Page 71: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro

Beweise zu: 16. Testen eines Erwartungswertes 3.8.06 B 1 6 - 6

16.2 Dualer einseitiger (unterer) t-Test von Student im Normal-Verteilungsmodell

Die Beweise verlaufen analog zum einseitig (oberen) t-Test und lasssen sich auch

formal auf diese zurückführen, indem man die Zufallsvariable X' : = - X betrachtet.

Beweis von

(7) 1

P{tm(r) i - t m . o } < p { N ( ~ > l ) i - \ J für y i ~ , a < ? .

Wegen tm(7) 5 - tmia U t m (-7) =- tm(Y) tmia

und N(Y, 1) 5 - \ U N(-~,1) = -N(Y,~) > z a

folgt die Behauptung aus 16.1 (16).

16.3 Zweiseitiger t-Test von Student im Normal-Verteilungsmodell

Beweis von

(3) Pow 2 (T) = Pow2(? la) := P O W ~ ( ~ 1;) + POW;(~( ; ) .

ES ist pow2(7 Ia) = PI I t(X) I > tm,.&/2 1

= P{ t(X) tm;@ oder - t(X) > tm;a/2 1

= P{ t(X) trn,.&/2 1 + P{-t(X) > trn,.&/2 1

= powl (Y l + Pow;(Y 1 :) .

Page 72: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro

Beweisezu : 16. Testen eines Erwartungswertes 3.8.06 B 1 6 - 7

16.4 Asymptotische Eigenschaften des t-Tests

Beweise von

(I) ~ ( 0 1 ) f ü r p = p 0 '

(2) Ijn) P_ - a? für p < p o ,

(3) Ijn) P_ + a? für p > p o .

für p < po P O W ~ ( ~ ) : = l i i W ~ o w ~ ( p ) = für p = p o

für ,LL > p0

Aus

ergeben sich nun (1) - (3) unter Berücksichtigung von Exkurs KV 11.

(5) folgt aus (1) - (3) mit Exkurs Q2 sowie

lim t =Z . n n-1;a a

Page 73: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro

Beweise zu: 16. Testen eines Erwartungswertes 3.8.06 B 1 6 - 8

16.5 Schärfe-Approximation des t-Tests bei beliebiger Verteilung

Beweise von

(1) P O W ~ ( ~ ~ ~ ) = P { T > ~ - n-l;a } = P { u + v > z ~ - Y } mit

Es ist T > - t =: t n-1; a a

Jn (X- pol > - a ta

J n ( X - p ) - a t a - > - J n ( p - p 0 )

a U - - t > 0 a - - Y

8 > U + [.,- ,ta] - Za - Y

Beweise von

(11) Pow:(pla) = P { T ~ - t n-1; a } = P { u - v < - z ~ - ~ )

Es ist T < - - t = : - t n-1; a U

Jn (X- pol < - - a t U

Jn(X-P) + a t i - J n ( p - p o ) U

Page 74: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro

Beweisezu : 16. Testen eines Erwartungswertes 3.8.06 B 1 6 - 9

16.6 Versuchsplanung beim t-Tests

Beweis zur Äquivalenz von

(1) APOW,(P~CX) := P{N(?,I) 2%) = @(?-L) I - ß bzw

Es ist APOW,(P~) > 1 - ß * 7-2, > "P

Page 75: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro

Beweise zu: 17. Testen einer Wahrscheinlichkeit 3.8.06 B 17- 1

Beweise zu 17 Test einer Wahrscheinlichkeit

17.1 Einseitiger (oberer) Test einer Wahrscheinlichkeit

17.1.1 Exakter Test zum nominellen Niveau

Beweis von

(2) P{B(n,po)<ko-1) < 1- a < P{B(n,po)< k o - 1 ) .

Esist: P{B(n,po)<ko-1) = 1-P{B(n,po)>kO} > 1 - a (11,

P{B(n,p0)< k o - 1 ) = 1- P{B(n,p0) > ko-1) < 1- a 1 (1).

Beweis von

(3) P{B(n,p0) > X ) < a U PO < - I; u,a (4 .

Fall 1: X > 0

Da die Funktion G(x1p) = P{ B(n, p) > X ) nach 2.3.2 (2) für X > 0 streng wachsend in

p ist, ergibt sich

Wegen P{B(n,p) 2 0 ) = 1 und jU(O Ia) = 0 sind beide Seiten von (6) falsch, weil

a < 1 und po > 0. Also gilt auch die Äquivalenz (6).

Page 76: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro

Beweise zu: 17. Testen einer Wahrscheinlichkeit 3.8.06 B 17- 2

17.1.2 Randomisierter Test

Beweis von

Q - P { B ( n , ~ ~ > 2 5,) Q - Q (1)

- Y = - eff P{B(n,po> = kO- l ) P{B(n,po> = 5,- 1 )

E [O,1>

Wegen Q < Q ist y > 0. Für y < 1 ist zu zeigen eff -

-

Q - P { B ( ~ , P o > 2 5,) < P{B(n,po> = kO- l ) ~ Z W .

Q < P{B(n,Po)2k0-1)

und dies ergibt sich ausa der Definition von k 0'

Page 77: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro

Beweise zu: 17. Testen einer Wahrscheinlichkeit 3.8.06 B 17- 3

17.1.3 Asymptotischer Gauß-Test

Beweis von

(2) d i (x ) = i U t(x) > z a

U X > km(u) : = npO + \oO J" 0

Esist t ( ~ ) = J " ( j - ~ ~ ) / o ~ > ~ U j - p 0 - > z a O o - 1 fi

Beweise von

(6) fi) N (o,I) für p = P o '

(7) fi) P.-, für p <po ,

(8) fi) P.+, für p >po .

Der Beweis verläuft völlig analog dem von 14.4 (1) - (3).

Mit 02(P) : = PP - P) , 2 2 0 0 = 0 (P,)

gilt J" ($(X(")) - P) J" (P - Po) +

4~) .(P)

J" (P -PO) o f ü r p = p Aus 0

-CO f ü r p < p o O(P) +CO f ü r p > p o

ergeben sich nun (6) - (8) unter Berücksichtigung von Exkurs KV 11. Und (9) ist

eine direkte Folgerung aus (6) - (8).

Page 78: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro

Beweise zu: 17. Testen einer Wahrscheinlichkeit 3.8.06 B17-4

Beweis von

(13) t(x) 2 Cr U @(- t(x)) i a

U < F ( x l a ) . P o - U

Die erste Äquivalenz ergibt sich aus der strengen Monotonie von @. Und die zweite

Äquivalenz erhält man mit 4.5 (19)

Page 79: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro

Beweise zu: 17. Testen einer Wahrscheinlichkeit 3.8.06 B 1 7 - 5

17.4 Approximation der Testschärfe und Versuchsplanung für den asymptotischen Test

Beweis von

(3) I p { ~ l , < x ) - P { N ( o , ~ ) < X ) 1

für alle X E IR I p { ~ l , > x ) - P { N ( o , ~ ) > X ) 1

mit der von p abhängigen positiven Konstanten

c.(p2+(l-p)2) c . (1-2a2(p)) (4) C(P) =

- - > 0 , C = 0.7995. 4~) .(P)

1 Die Funktion C(p) ist streng fallend in a(p) und nimmt ihr Minimum für a(p) =-, 2

1 also für p = - an. Und für a(p) + 0 (d.h. p + 0 bzw. p + 1) gilt C(p) + W. 2

Zunächst gilt (3) nach einem Satz von Berry und Esseen (vgl. Exkurs ZGS 4 z.B.

Gänssler-Stute 1977, Satz 4.2.10, Korollar 4.2.15 ff) mit

wegen E { I B ( ~ , P ) - P I ~ ) = q p 3 + p q 3 mit q = l - p

= P q (P2 + q2) = 02(p ) . (P2 + Y ) gilt die erste Darstellung in (4), und die zweite folgt aus

(ii) 2 2 ~ = ( p + q ) ~ = p + 2 p q + q .

Weiter ist C(p) = C . f(a(p)) mit

(iii) -2 f ( x ) = x p l - L X , f l ( x ) = - X - 2 < O für X > O

Also ist f streng fallend in X > 0, und C(p) wird minimal, wenn a(p) maximal wird, 1 d.h. für a(p) = -. 2

Page 80: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro

Beweise zu: 17. Testen einer Wahrscheinlichkeit 3.8.06 B 17- 6

Beweis von

Powl(p) = P{ U 2 - U +(P) } mit

Page 81: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro

Beweise zu: 17. Testen einer Wahrscheinlichkeit 3.8.06 B17-7

Beweis von

(8) Pow;(p) = P{ U 5 U-(P) } mit

Analog dem Beweis von (5):

Es ist Pow;(p) = P

Beweis von

ES ist APowl(pl) > 1 - ß U u+(pl) "P

" J~(P~-PO) > ~ a g ~ + ~ ~ g ( p ~ )

Page 82: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro

Beweise zu: 18. Likelihood-Quotienten Tests 3.8.06 B 1 8 - 1

Beweise zu 18. Likelihood-Quotienten Tests

18.1 Allgemeiner Likelihood-Quotienten Test

Beweis von

(9) X(xIHJ = min{l,X(xIHo,H1)}

Für S~ := S U ~ {L(BI X) I B E o ~ } , k = o , ~

ist ~ : = S U ~ { L ( ~ I X ) I ~ E @ = @ ~ U @ ~ } = max{s s } . 0' 1

Fall 1: so 5 sl bzw. S = S 1 '

Dannist X(xlHO,H1) = X(xlHJ 5 1 und (9) gilt.

Fall.2: s o > s l bzw. S = S 0 '

Dannist X(xlHO,H1) > 1 = X(xlHO) und (9) gilt.

Page 83: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro

Beweise zu: 19. Vergleich zweier Erwartungswerte (Normalverteilung) 3.8.06 B 19 - 1

Beweise zu 19 Vergleich von zwei Erwartungswerten bei

Normalverteilungen mit gleichen Varianzen

19. 2 Der zweiseitige t-Test als Likelihood-Quotienten-Test

Beweise von

Aus der log-Dichte

ergeben sich die einzelnen log-Likelihoods

(ii) 2 2 1 1% L(Px, 0 I X) = [(i~y, 0 I X) - 2 nx log(24

2 2 1% L(Py, 0 l Y) = [(PY, 0 l Y) - $ ny log(24

(iii) 2 1 2 1 2 [(Px, 0 I X) = - - 2 [ nxlog(. + F :<Xi- P,) I

2 2 1 2 [(PY, 0 l Y) = - + [ nylog(a + C(Yi-Py) 1.

2

Das gesamte log-Likelihood ist daher

mit

2 2 2 Für festes a is [(-, a I X) bzw. [(-, a I y) streng konkav mit (eindeutig bestimmten)

Maximalstellen

Page 84: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro

Beweise zu: 19. Vergleich zweier Erwartungswerte (N~rmalverteilun~) 3.8.06 B 19 - 2

Dies sind auch die ML-Schätzungen von px und p Zur Bestimmung der ML- Y'

2 Schätzung von a minimieren wir die Funktion

1 2 1 2 = nxlog(a2) + 7 C(Z-fix) + nylog(a2) + 7 C ( ~ ~ - f i ~ ) 0 2 0 2

1 2 2 = n log(02) + 7 [ C ( x i - ~ ) + C(yi- ~y I

2 2

2 1 = n log(o ) + 7 b mit

2 2 b = C(xi-fix) + C(yi-fiy) .

2 2

Aus 2 n b 1 b hl(a ) = 7-- - o4 - -[.-,I o2

folgt

Damit ist

8 2 - - (vii) L n 2 2

die (eindeutig bestimmte) Minimalstelle von h. Die Schätzung 8; ist nicht erwar-

tungstreu, denn nach 3.2 (5) gilt

(viii) 1 2 2 2 2 2 E{~;(x,Y)} = ---[(nx-I)a +(ny-1)" ] = a [I----I < a .

A 2 - A 2 Das zugehörige Maximum des Log-Likelihoods gilt dann, wobei abkürzend a - a L

2 = - 2 [(fix, 82 1 X) - 2 [(,Ly, 8 1 y) + n log(2ir) vgl. (iv)

= n iog(e2) + 4 [ C (xi- fiX12 + C (yi- ,Ly )2 ] + n log(%) vgl. (iii) 0 2 2

= n + n + n log(2ir) vgl. (vii).

Unter der zweiseitigen Nullhypothese Ho: px = py = p sind X und Y identisch verteilt

und die ML-Schätzungen ergeben sich wie in (7) angegeben, wobei 82 wieder nach 0 L

3.2 nicht erwartungstreu ist.. Für das zugehörige Maximum des Log-Likelihoods gilt A 2 A 2 dann analog (ix) - wobei wieder abkürzend a = a 0 OL

Page 85: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro

Beweise zu: 19. Vergleich zweier Erwartungswerte (N~rmalverteilun~) 3.8.06 B 19 - 3

(4 - 2 log L(fiox, fiOY, "- I X,Y

= n log(8,2) + & [ z(xi- z ) ~ + c ( ~ ~ - z ) ~ ] + n log(2~) Oo 2

2 1 = n ) + 7 Szz + n log(27~) Oo

= n log(#) + n + n 1og(2~)

Und (8) ergibt sich dann aus

vgl. (7).

(xi) 2 log X(x, Y I Ho)

A 2 = 2 log L(fiox, fioy, gor. I .,Y) - 2 1% L(fix, fiy, 8; I x,y)

= n - log(&:)] vgi. (ix) (X).

Page 86: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro

Beweise zu: 19. Vergleich zweier Erwartungswerte (N~rmalverteilun~) 3.8.06 B 19 - 4

Beweise von

(10) S z z = sxx + s y y + (- 2 1 1 1 X -y ) (-+-)- nx n~

(11) - 2 log ~ ( x , y 1 H ~ ) = n log ( 1 + m L t2(x, Y ) ) .

- 1 1 1 Es ist z = K C zi = - [ C X . + C y . ] = - [n x + n Y ] n i z i~ n X Y d.h. (9)

2 gilt.

Aus C ( X . - g 2 = C ( X . - X12 + nx(X- g2 vgl. 3.2 (4) 2 2

- und 1 X - Z = - [ ( n - n ) X - n Y ] n X Y vgl. (9)

1 = - n [ X - Y ] n Y folgt

( 2 ) 1

C (xi - Z) = sxx + nx [ K n - Y ) ] 2 und analog

2

(ii) C ( y i - 2 l 2 = ~ y y + n y [ i n y ( y - % ) I 2 . 2

Also 2 S z z = C ( X . - Z ) + C ( Y . - Z ) 2

i i 1

= S x x + S y y + ?nxnY(nx + n y ) ( ~ - y ) 2

1 1 1 -1 und mit - n n X n Y - ( G + F ) - folgt (10).

Zum Nachweis von (11) ergibt sich aus (8) bzw. aus (ix) des letzten Beweises

(iii) 2 2 - 2 log X(x, y I Ho) = 10g(O.~,) - log(&, ) n

S z z = 105 [ S x x + S y y

s z z 1 1 1 Nun ist - - 1 + [(sxx + S Y Y ) ( ~ + sxx +SYY

= 1 + (X-y12 [m ~.:(x,y)]', vgl. (14) (15)

1 2 = l + ; t (",Y)

und mit (iii) ergibt sich (8).

Page 87: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro

Beweise zu: 19. Vergleich zweier Erwartungswerte (N~rmalverteilun~) 3.8.06 B 19 - 5

Beweise von

(18) 2 q X - Y ) = N ( A ~ , % ) mit

Aus .d(x) = ~ ( p , 2 o 2 ) , qY) = ~ ( p ,L2) X nx Y n~

und der Unabhängigkeit von X und Y folgt (18).

Aus 2 2 S X X - D . 2 2 Xn -1

S Y Y - D . Xn - 1 , vgl. 4.1 (4)

X Y

und der Unabhängigkeit von S X X und S Y Y folgt

2 2 m & 2 ( ~ , ~ ) = ( S X X + SYY) - D . xm

und 1 1 1 1 2 2 2 2 ~&;(x ,Y) = m & 2 ( ~ , ~ ) ( - + - ) - ( - + - ) D . x m = on.xm nx n~ nx n~

d.h. (20) gilt. Zum Nachweis von (21) stellen wir T dar als

mit U = (X-Y)/oA - N(7, 1) nach (18)

2 V = m &:(X, Y ) /oA - x m 2 nach (20).

- - Nun sind U und V nach 6.1 (2) unabhängig, weil U nur von ( X , Y') und V nur von

( S X X , S Y Y ) abhängt. Also folgt (21) mit der Definition der nichtzentralen

t -Verteilung (vgl. Exkurs V 2.2). m

Page 88: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro

Beweise zu: 19. Vergleich zweier Erwartungswerte (N~rmalverteilun~) 3.8.06 B 19 - 6

19.4 Konfidenzgrenzen für die Differenz der Erwartungswerte

Beweise von

(2) B T , ) = in-, .

Der Beweis von (2) verläuft analog dem von 19.3 (21). Es ist

mit

U = ( K - ~ - A ~ ) / D , - N(0, l ) nach 19.3 (18),

2 V = m &:(X, Y ) /D, - xm 2 nach 19.3 (20).

- - U und V sind nach 6.1 (2) unabhängig, weil U nur von ( X , Y) und V nur von ( S X X ,

S Y Y ) abhängt. Also folgt (2) mit der Definition der zentralen t -Verteilung (vgl. m Exkurs V 2.2).

Beweise zu

(3) (a&= nfi-Jnia = ( X - Y ) - $ n; a bzw.

(AP) o = 4 + Jn; = ( % - Y ) + $ n; a mit

(4) $ : = t n; a .a n-2;a A '

Zu zeigen ist, daß die Grenzen die Sicherheit 1- U haben. Mit m = n - 2 gilt:

P { ( % - Y ) - t m; a .8 ,<Ap} = P{T ,<tmia} = 1-U vgl.(2).

P { ( % - Y ) + t m; a .8 ,>Ap} = P{T,>- tmia} = 1-U vg1.(2).

Page 89: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro

Beweise zu: 20. Vergleich zweier Erwartungswerte (bel. Verteilung) 3.8.06 B 20 - 1

Beweise zu 20. Vergleich von zwei Erwartungswerten bei beliebigen

Verteilungen

20.1 Herleitung einer Teststatistik

Beweis von

Esis t V a r ( A , L ) = V a r ( X - Y ) = V a r ( X ) + Var(Y)

Beweis von

1 1 n Die zweite Darstellung folgt aus - + - = - . nx n~ n x n ~

Page 90: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro

Beweise zu: 20. Vergleich zweier Erwartungswerte (bel. Verteilung) 3.8.06 B 20 - 2

20.2 Asymptotische Verteilung der Teststatistik

Beweise von

(6) 2 fi [nfin - AP] - ~ ( 0 , T ~ ) wobei

Aus dem zentralen Grenzwertsatz ergibt sich (vgl. auch 1.1 (5))

bzw.

Analog ergibt sich

(ii) k ~n [ Y ( ~ ) - P„] - 2 N(O , $ aJ) . Y

Da x ( ~ ) und v ( ~ ) voneinander unabhängig sind, ergibt sich aus (i) und (ii) - vgl. Ex-

kurs KV 5 -

Also gilt (6), woraus sich (8) nach Division durch T = a fi ergibt.

Page 91: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro

Beweise zu: 20. Vergleich zweier Erwartungswerte (bel. Verteilung) 3.8.06 B 20 - 3

Beweise von

I p { ~ l , < x ) - P { N ( o , ~ ) < X ) 1 C (9) für alle X E IR

I p { ~ l , > x ) - P { N ( o , ~ ) > X ) 1

mit der positiven Konstanten

Die zentrierte Differenz Afi - Ap läßt sich darstellen als Mittelwert der zentrier- n

ten Zufallsvariablen

(ii)

Da alle X ! und Y ! stochastisch unabhängig sind folgt aus dem Theorem von Berry 2 2

und Essken (vgl. z.B. Gänssler-Stute 1977, Satz 4.2.10 und Korollar 4.2.15)

(iii) I p { ~ l , < x ) - P { N ( o , ~ ) < X ) 1 < - 6 T - ~ B für alle X E IR, wobei I p { ~ l , > x ) - P { N ( o , ~ ) > X ) 1

vgl. (ii)

1 Also ist 6 T - ~ B = - C. Jn

Page 92: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro

Beweise zu: 20. Vergleich zweier Erwartungswerte (bel. Verteilung) 3.8.06 B 20 - 4

Beweise von

- 2 n a P 2 A n - ' T ,

an, P - 1 , n

Aus P 2 - 2 - 0 Xn X '

folgt - 2 - n a - 1 - 2 1 - 2 P l a 2 +p2= 1 2 - -

A n C~ Oxn + + D y n C~ X Y Y 7 ,

Also gilt (11) und (12) folgt aus

O n n non, 'T P 'T sowie - - - - - - = l .

an n n a n n 80n (11) 'T

Und (13) ergibt sich durch Multiplikation von

mit (12).

Beweise von

(15) P T --Co n für A p < 0 bzw. p X < p y ,

(16) P T -+Co n für A p > 0 bzw. P x > P y .

Es gilt

vgl. (13)

und 8 - 0 ~ Z W . P P

A n Co,

n

AP - W für A p < O also

n + W für Ap>O '

vgl. (11)

Addition mit (i) liefert die Behauptungen, vgl. Exkurs KV 11 (4).

Page 93: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro

Beweise zu: 20. Vergleich zweier Erwartungswerte (bel. Verteilung) 3.8.06 B 20 - 5

20.4 Schärfe-Approximation für den einseitigen Tests

Beweise von

(3)

Es ist

Beweise von

mit

(5) Un+zaVn L N < o , ~ >

(4) folgt aus 20.2 (12), und (5) folgt direkt aus

U L N(0,l) n vgl. 20.2 (8)

mit den Rechneregeln über Verteilungskonvergenz (vgl. Exkurs KV 5).

Page 94: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro

Beweise zu: 20. Vergleich zweier Erwartungswerte (bel. Verteilung) 3.8.06 B 20 - 6

Beweis von

(8) 2 Jnzv -

a N(0, d 2 ) falls pqX i pqY < Für 82 = gilt nach 3.2 (8)

Xn

2 2 ~;;;[8;,-.,1 - N(0 , ( P , - 0; 1)

und Multiplikation mit cy3l2 = C-' f i /J;ix liefert X

( 2 ) 1 2 2 ~ n - [ < ~ - a , ] - ~ ( 0 , ~ : ) mit a 2 = c -3 4

Cx X X ( ~ 4 x - ~ x ) .

Analog gilt für 82 = Y n

(ii) 1 - 2 2 2 -3 4 -03 - J n , N(O, ay ) mit ay = c y (p4y - a

Da und unabhängig sind, ergibt sich aus (i) und (ii) mit K V 3

2 2 2 Jn& - D,] + Jn: [ & J n - D y ] - ~ ( 0 , a2)

mit 2 2 2 a = a + a X Y

- 2 2 1 - 2 1 - 2 Wegen n a - T = - - - l a 2 - - A n

a2 C~ a ~ n n + ~ a ~ n cX X c y Y

folgt ~ n [ n 8 ; , - ~ ~ ] - ~ ( 0 , a2)

Für die Funktion F(x) = x1I2 ergibt sich daher mit der Delta-Methode (vgl. Exkurs

K V 14)

(iii) J ; I [ J ~ ~ A , - T I F N(O, b 2 ) mit

2 2 1 71/2. a2 b = F'(T) . a =

Division durch T = \/;; Q ergibt

(iu) - J" vn ~ ( 0 , b 2 y 2 )

2 2 und Multiplikation von (iu) mit - L ergibt die Behauptung für d = ( b 7 '2 , ) . a

Page 95: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro

Beweise zu: 20. Vergleich zweier Erwartungswerte (bel. Verteilung) 3.8.06 B 20 - 7

20.5 Versuchsplanung für den einseitigen Test

Beweise zu

mit

bzw. 7-25 > z a - ß

Die Äquivalenz von (1) und (1) folgt direkt aus

Beweise zu

2 1 2 a 2 Esist T ( c ~ ) = G ~ ~ + ~ Y

Wir betrachten allgemeiner für festes a, b E IR die Funktion

f(x) = a Z + b ( l - x ) - ~ für O < X < I

mit -2 f 1 ( X ) = - . X + b ( l - q 2

Für a, b > 0 ist f " ( X ) > 0 und somit ist f streng konvex. Wegen

Page 96: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro

Beweise zu: 20. Vergleich zweier Erwartungswerte (bel. Verteilung) 3.8.06 B 20 - 8

hat f für dieses X eine Minimalstelle.

2 2 2 Für a = ox und b = oy ist daher T (cx) streng konvex mit der Minimalstelle (6).

f l

folgt 2 2 ( C ; ) = = (ox+oY) , d.h.(7)gilt.

Page 97: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro

Beweise zu: 20. Vergleich zweier Erwartungswerte (bel. Verteilung) 3.8.06 B 20 - 9

20.6 Zweiseitiger Tests: Schärfe und Versuchplanung

Beweis von

(2) ergibt sich aus den Herleitungen in 20.4 mit statt a. Und (3) folgt aus (2)

durch Vertauschen von X mit Y, weil dann die Teststatistik T = t ( Y , X ) ihr Vorzei-

chen ändert und somit

20.7 Konfidenzgrenzen für die Differenz der Erwartungswerte

Beweise zu

(1) (ap) U = nfi-da = (X-Y)-da ~ Z W .

(ap) = ~ f i + d = (X-Y) + d a mit o a

(2) : = z .& a a A '

(3) nfi I $ a = (X-Y)

Esgilt P { ( A ~ ) ~ < A ~ ) = ~ { ~ f i - z ~ . & ~ < A ~ )

Analog P { ( A ~ ) ~ < A ~ ) = ~ { ~ f i + Z ~ . & ~ < A ~ )

1 = ~ { ~ ( n f i - a p ) < - z a } - I - ~ ~ 1 . 20.2 (13). On

Folglich haben die Konfidenzgrenzen (1) - und damit auch das Konfidenzintervall

(3) - die asymptotische Sicherheit 1 - a.

Page 98: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro

Beweise zu: 21. Vergleich von zwei Wahrscheinlichkeiten 3.8.06 B21-1

Beweise zu 21. Vergleich von zwei Wahrscheinlichkeiten

21.2 Herleitung einer Teststatistik

Beweis von

Es ist var( Ap) = var( X - I) = var( X) + Var(Y)

21.3 Asymptotische Verteilung der Teststatistik

Beweise von

(5) ~n [njn - ~ p ] -i N ( o , T ~ ) wobei

(8) I p{un < x)-P{N(o,~) < X ) I C(px' für al le X E IR I p{un > x)-P{N(o,~) > X ) I

mit der positiven Konstanten

Es genügt, (8) zu zeigen, weil dann (7) folgt, woraus sich (5) nach Multiplikation mit

T = 4 ergibt. Die zentrierte Differenz A j - Ap läßt sich darstellen als Mittel- n wert der zentrierten Zufallsvariablen (Achtung bei Y!: Differenz umgekehrt LU X!)

2 2

Page 99: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro

Beweise zu: 21. Vergleich von zwei Wahrscheinlichkeiten 3.8.06 B21-2

(ii) - 1 ,(X;+Y;) = -C(Xi-P,) + L c ( p y - ~ . ) 1

nx i n~ i 2

Da alle X! und Y! stochastisch unabhängig sind mit 3. absoluten Moment (vgl. Be- 2 2

weis von 17.4 (3)(4))

(iii) -3 -3 2 2 E{1x:l3} = cx E { I B ( ~ , P ~ ) - ~ ~ I ~ } = ox(1-20x))

-3 -3 2 2 E { I Y ~ ! I ~ } = E{IB(~ ,P , ) -P , I~ ) = o Y ( 1 - 2 0 Y ) .

folgt aus dem Theorem von Berry und Essken (vgl. z.B. Gänssler-Stute 1977, Satz

4.2.10 und Korollar 4.2.15)

I p {~ l , < x)-P{N(o,~) < X ) 1 (2.1 < - c s-3 B für alle X E IR, wobei I p {~ l , > x)-P{N(o,~) > X ) 1

(4 2 2 2 s = Var(X1 + Y I ) = n2 v ~ ~ ( A ~ ( x , Y ) ) = n o t t

vgl. (ii)

( ~ ~ 1 B = n x ~ { ~ ~ 2 ! 1 3 ) + n y ~ { ~ ~ ~ 1 3 )

-2 2 2 -2 2 2 = n [cX o x ( l - 2 o x ) + C, 0, ( 1 - 2 o y ) ] , vgl. (iii)

1 Alsoist c sP3B=-C(p p ) fi X ' Y '

Page 100: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro

Beweise zu: 21. Vergleich von zwei Wahrscheinlichkeiten 3.8.06 B 2 1 - 3

Beweise von

P Aus P Pxn - p X , P ~n - PY

folgt P P n = cxPxn + cY Pxn - c X p x + c Y p y = P 7 d.h. (10) gilt,

und na2 = 1 P 1 2 2 - ."Pn) - On c X c y - 0 ( P ) = >

d.h. (11) gilt, Cx C~

O n O n 'T P 'T sowie - - - - -

80n 80n 80n (11) 'TO

7

Und (13) ergibt sich durch Multiplikation von

mit

d.h. (12) gilt.

Page 101: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro

Beweise zu: 21. Vergleich von zwei Wahrscheinlichkeiten 3.8.06 B 2 1 - 4

Beweise von

(15) P T --Co

n

(16) P T -+Co

n

Es gilt

und

also

f ü r A p < O bzw. p x < p y ,

für A p > 0 bzw. Px>Py.

vgl. (11)

a On 1 +CO für A ~ > o

Addition mit (i) liefert die Behauptungen, vgl. Exkurs KV 11 (4).

Page 102: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro

Beweise zu: 21. Vergleich von zwei Wahrscheinlichkeiten 3.8.06 B 2 1 - 5

21.5 Schärfe-Approximation für den einseitigen Tests

Beweise von

(1) Pow,(Px,PylQ) = P{T>z,} - = ~ { u + ~ a ~ > - u ( ~ x , ~ y ) }

Es ist

mit

1 U = - [np - ap] , 0

Die letzte Darstellung von V folgt aus

mit

Page 103: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro

Beweise zu: 21. Vergleich von zwei Wahrscheinlichkeiten 3.8.06 B 2 1 - 6

Beweise von

(5) Un+zaVn L N(0,l)

Die zweite Darstellung von V folgt aus n

(2) 0 On f i = = , O n & = =

und die Konvergenz in (4) ergibt sich aus der Konsistenz der Schätzung 8 0

(ii) 80n -

- " n h p

1 , vgl. (i) und 21.3 (11). 00 =o

Und (5) folgt mit (4) direkt aus

1 U :=-[njn-aP] L N(0,l) vgl. 21.3 (7) On

mit den Rechneregeln über Verteilungskonvergenz (vgl. Exkurs KV 5).

Page 104: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro

Beweise zu: 21. Vergleich von zwei Wahrscheinlichkeiten 3.8.06 B21-7

Beweis von

(8) 2

J n z v - a ~ ( 0 , d2) für ein d>O .

ES ist j = i (X?) + ~ ( ~ 1 ) t mit

1 ,) = (nxpx + nypy) = CXPX + CyPy = P

1 2 2 2 1 2 2 U n : = V a r ( j n ) = (X) ( n x o X + n Y Y D ) = - (C n x x D + C Y Y D )

nach dem zentralen Grenzwert asymptotisch normalverteilt

(2) -112 2

[@',-P] I N(o,1) bzw. n

(ii) 2 J n [ P n - p ] I N(0,u2) mit

(iii) 2 2 V = C D + C D 2 > 0.

X X Y Y

Für die Funktion ~ ( p ) = [p(l-p)]1/2 ergibt sich daher mit der Delta-Methode (vgl.

Exkurs KV 14)

(4 Jn [D<@',> - 4 ~ ) I 2 - N(O, a2u2) mit

I 1 -112 = D (P) = 2 [P(~-P)] (1 -2p)> 0.

Man beachte, daß auch a = 0 zugelassen ist. Wegen

4 ~ ) = oOn J-, ~ ( $ 1 = J-, vgl. 21.2 (IO)(II)

läßt sich (U) wie folgt schreiben

(4 I 2 n J l i C y [ & O n - ~ O n l i N(O, a2u2)

und Division durch

T J% = D n \/;; J% liefert

(V;) -1 2

- J n n = Jn - oon] 0, - N(0, b2) mit

b2 = a2 u2 72 (cX cJ1 .

2 Multiplikation von (ui) mit -L ergibt die Behauptung für d = (ba12. a

Page 105: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro

Beweise zu: 21. Vergleich von zwei Wahrscheinlichkeiten 3.8.06 B 2 1 - 8

21.6 Versuchsplanung für den einseitigen Test

Beweise zu

mit

mit

Ap-z a Mit a o - - J n A p za7o

u(PX,PY) = 0 7 7

folgt APowl(pl) 2 1 - ß u(px, py) > "P

Beweise zu

(2) 1

7 < für C = C =- X Y 2

bzw.

2 2 2 2 2 0 X + 2 a Y = 7 < ~ ~ = 4 a ~ ( p ) für = 1 py) bzw.

1 2 1 2 2 1 1 2 a (px) + 2 a (pu) < a ( 2 p x + 2 p y ) da a2(-) konkav ist.

Page 106: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro

Beweise zu: 21. Vergleich von zwei Wahrscheinlichkeiten 3.8.06 B 2 1 - 9

21.7 Zweiseitiger Tests: Schärfe und Versuchplanung

Beweis von

(2) ergibt sich aus den Herleitungen in 21.5 mit statt a. Und (3) folgt aus (2) durch

Vertauschen von X mit Y, weil dann die Teststatistik T = t(Y,X) ihr Vorzeichen

ändert und somit

Page 107: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro

Beweise zu: 21. Vergleich von zwei Wahrscheinlichkeiten 3.8.06 B 21 - 10

21.8 Konfidenzgrenzen für die Differenz der Wahrscheinlichkeiten

Beweise von

(2) P 2 n 2 - T ,

n

(3) "n P - 1 (Konsistenz) . On

Aus der Konsistenz der Schätzungen

P P Pxn - PX X P ~n ' PY für n + CO , für n +CO

Y

ergibt sich

Also gilt (2) und somit auch

und Division durch T = fi 0 ergibt (3). Und (4) erhält man durch Division von (1) n und (3).

Page 108: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro

Beweise zu: 21. Vergleich von zwei Wahrscheinlichkeiten 3.8.06 B 21 - 11

Beweise zu

(5) ( ~ p ) u = ~ j - d a =@',-@',-da bzw.

(Ap) o = ~j +da = jx -P, + da mit

(6) :=z .4. a a

(7) np k d = px - pu +d - a/2.

Esgilt P{(Ap) U <np} = P{A~- za.4<np} 1

= ~{:(np-Ap)<~} - 1-a vgl.(4). 0

Analog P{(Ap) o >np} = P{A~ + z;b>np} 1

= P{~(A~-A~)>-Z,} - 1 - vgl.(4).

Folglich haben die Konfidenzgrenzen (5) - und damit auch das Konfidenzintervall

(7) - die asymptotische Sicherheit 1- a.

Page 109: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro

Beweise zu: 22. Anpassungstests bei Multinomialverteilungen 3.8.06 B 22 - 1

Beweise zu 22. Anpassungstests bei Multinomialverteilungen

Die Beweise liegen noch nicht in digitaler Form vor.

Page 110: Beweise zur Einführung in die Statistik - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Beweise zu: Einführung in die Statistik 3.8.06 Inhalt - 1 Inhalt (Seiten pro

Beweise zu: 23. Chiquadrat-Anpassungstests für Verteilungen 3.8.06 B 23 - 1

Beweise zu 23. Chiquadrat-Anpassungstests für Verteilungen

Die Beweise liegen noch nicht in digitaler Form vor.