Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... ·...

210
Bew-eise zum Skript Stochastik von Gerhard Osius Dichte,von N (0 , 1) 0.4 0.2 0 -4 -2 a 0 2 4 1,0 ' ' 0,9 Verteilungsfunktion von !N(O, 1) ' 0 ,8 I I I I 0,7 I I I 0,6 I ' I ' 015 0,4 <D(a) 0 ,3 0 ,2 0 ,1 -4 -2 a 0 2 4 August 2016 Fachbereich Ma thema tik/lnforma tik Universität Bremen

Transcript of Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... ·...

Page 1: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Bew-eise zum Skript

Stochastik von

Gerhard Osius

Dichte, von N (0, 1) 0.4

0.2

0 -4 -2 a 0 2 4

1,0 ' ' 0,9 Verteilungsfunktion von !N(O, 1)

' 0,8

I I I I

0,7 I I I

0,6 I

' I '

015

0,4 <D(a)

0,3

0,2

0,1

-4 -2 a 0 2 4

August 2016 Fachbereich Ma thema tik/lnforma tik

Universität Bremen

Page 2: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Beweise zur Stochastik 15.8.16 Vorwort- 1

Vorwort

Der vorliegende Beweis-Band enthält nur die Beweise für das Skript zur Stochastik. Der Grund für die Trennung der Beweise vom Text-Band war zunächst historisch bedingt, weil das Skripts in den ersten Auflagen noch keine Beweise enthielt. Nach­dem mittlerweile die Beweise hinzugekommen sind, habe ich sie dennoch aus ver­schiedenen Gründen in einem separaten Teil zusammengestellt.

Die Beweise sind hier gerrau so aufgeführt, wie sie in der Vorlesung vorgetragen werden - damit die Studierenden nicht mitschreiben müssen und sich auf die In­halte konzentrieren können. Demzufolge sind die Beweise auch nicht besonders platzsparend sondern eher übersichtlicher dargestellt. Der Begleittext der Beweise ist dagegen extrem kurz gefaßt und besteht oft nur aus Querverweisen oder Stich­worten.

Einige Beweise fehlen hier, entweder weil sie den hier vorgesehenen Rahmen spren­gen würden (was bereits im Skript vermerkt ist) oder weil sie als Übungsaufga­ben vorgesehen sind.

Inhaltlich unterscheidet sich diese Auflage von der letzten Version (März 2016) zunächst durch einige Korrekturen sowie kleinere Änderungen bzw. Ergänzungen, die durch die jeweiligen Änderungen im Skript bedingt sind. Hinzugekommen bzw. neu formuliert sind die Beweise in den Abschnitten 6.1.4, 10.2 und 11.7.

Erfahrungsgemäß enthält das Skript - trotz Korrekturlesen - noch Druckfehler. Be­vor man daher am eigenen Verständnis zweifelt, sollte man auch einen Fehler im Skript in Erwägung ziehen. Für Hinweise auf Druckfehler oder andere Kommentare pere-Mail ([email protected]) bin ich dankbar.

Bremen, am 15. August 2016 Gerhard Osius

Page 3: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Beweise zur Stochastik 15.8.16

Inhalt (Beweise)

Für die nicht aufgeführten Abschnitte sind hier keine Beweise vorgesehen.

1. Wahrscheinlichkeitsräume

1.0 Mengensysteme 1.1 Wahrscheinlichkeitsmaße 1.2 Endliche Wahrscheinlichkeitsräume

1.2.3 Binomial-Verteilung 1.2.4 * Relative Häufigkeiten

1.3 Abzählbare Wahrscheinlichkeitsräume 1.3.1 Poisson-Verteilung

1.4 Reelle Wahrscheinlichkeitsmaße mit Dichten 1.4.1 Normal-Verteilung 1.4.2 Exponential-Verteilung 1.4.3 Stetige Gleichverteilung

2. Zufallsvariablen und ihre Verteilungen

2.2 Definition einer Zufallsvariable und ihrer Verteilung 2.3 Reelle Zufallsvariablen

Inhalt- 1

(Seiten pro Kapitel) Kapitel - Seite

(13)

1-1 1-2 1-9

1-10

1-10

1-11 1-11 1-12 1-12 1-13 1-13

(4) 2-1 2-4

3. Bedingte Wahrscheinlichkeit und stochastische Unabhängigkeit (6) 3-1 3-3 3-3 3-4 3-6

3.1 Bedingte Wahrscheinlichkeit 3.1.1 Wartezeiten und Exponential-Verteilung

3.2 Stochastische Unabhängigkeit von Ereignissen 3.3 Produkte diskreter Wahrscheinlichkeitsräume

3.3.1 Bernoulli-Wiederholungen und Binomialverteilung

4. Verteilungsfunktionen und Dichten 4.1 Verteilungsfunktionen reeller Zufallsvariablen

4.1.1 Quasi-Inverse einer Verteilungsfunktion 4.2 Verteilungsfunktionen diskreter Zufallsvariablen

4.2.2 Binomial-Verteilung 4.2.3 Poisson-Verteilung

4.3 Stetige Zufallsvariablen mit Dichten 4.3.1 Stetige Gleichverteilung 4.3.2 Exponential-Verteilung 4.3.3 Normal-Verteilung

4.4 Dichten transformierter Zufallsvariablen

(21) 4-1 4-3 4-5 4-6 4-6 4-7

4-10 4-10 4-10

4-11 4.4.1 Lineare Transformationen stetiger Zufallsvariablen 4-13 4.4.2 Absolutbetrag und Potenzen stetiger Zufallsvariablen 4-14 4.4.3 Log-Normalverteilung 4-15 4.4.4 Weibull-Verteilung 4-15 4.4.5 Erzeugung von Zufallszahlen 4-15

4.5 Zufallsvektoren 4-16 4.5.1 Mehrdimensionale Borel-Menge 4-16

Page 4: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Beweise zur Stochastik 2.9.16 Inhalt- 2

4.6 Diskrete Zufallsvektoren 4-16 4.6.1 Multinomial-Verteilung 4-16

4.7 Stetige Dichten für zweidimensionalen Verteilungen 4-17

4.7.1 Zwei-dimensionale Normal-Verteilung 4-18

4.9 Endliche Produkte von Wahrscheinlichkeitsräumen 4-20 4.9.2 Allgemeiner Fall: beliebige Wahrscheinlichkeitsräume 4-20

4.10 Abzählbare Produkte von Wahrscheinlichkeitsräumen 4-21

5. Stochastische Unabhängigkeit von Zufallsvariablen (11) 5.1 Stochastische Unabhängigkeit diskreter Zufallsvariablen 5-3

5.1.1 Randomisierte klinische Vergleichsstudie 5-4

5.1.2 Geometrische Verteilung 5-5

5.2 Unabhängigkeit bei stetigen Zufallsvariablen mit Dichten 5-6

5.2.1 Normalverteilte Zufallsvariablen 5-9 5.3 Unabhängigkeit bei Zufallsvektoren 5-10

6. Faltungen von Verteilungen (25) 6.1 Faltung diskreter Verteilungen 6-1

6.1.1 Binomial-Verteilung 6-1

6.1.2 Multinomial-Verteilung 6-3

6.1.3 Faltung von Poisson-Verteilungen 6-5

6.1.4 Negative Binomial-Verteilungen 6-6

6.2 Faltung stetiger Verteilungen mit Dichten 6-11

6.2.1 Faltung von Normal-Verteilungen 6-13

6.2.2 Faltung von Exponential- und Gamma-Verteilungen 6-15 6.2.3 Poisson-Verteilung und Poisson-Prozeß 6-18

6.2.4 Elementare Eigenschaften der Gammafunktion 6-19

6.3 Arithmetische Operationen von Zufallsvariablen 6-20

Page 5: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Beweise zur Stochastik 15.8.16

7. Parameter von Verteilungen: Erwartungswert, Varianz, Schiefe, Covarianz und Korrelation 7.2 Grundlegende Eigenschaften des Erwartungswerts 7.3 Erwartungswerte spezieller Verteilungen

7.3.1 Erwartungswerte spezieller diskreter Verteilungen 7.3.2 Erwartungswerte spezieller stetiger Verteilungen 7.3.3 Cauchy-Verteilung 7.3.4 Anwendung: Das Sammlerproblem

7.4 Varianz und Standardabweichung 7.5 Varianzen spezieller Verteilungen

7.5.1 Varianzen spezieller diskreter Verteilungen 7.5.2 Varianzen spezieller stetiger Verteilungen

7.6 Symmetrie und Schiefe 7.7 Die Ungleichungen von Chebychev und Markov

7.7.1 Normalverteilung 7.7.2 Empirische Verteilung

7.8 Covarianz, Korrelation und linearer Zusammenhang 7.8.1 Die Covarianz 7.8.2 Der Korrelationskoeffizient 7.8.4 Linearer Zusammenhang und Regressionsgerade

Inhalt- 3

(40) 7-1

7-12 7-13 7-15 7-16 7-17

7-20 7-22 7-24 7-31 7-32 7-33

7-34 7-38 7-39

8. Schätzung von Erwartungswert und Varianz (7)

8.1 Schätzen des Erwartungswerts 8-1 8.3 Schätzung der Varianz

8.3.1 Schätzung der Varianz bei bekanntem Erwartungswert 8-2 8.3.2 Schätzung der Varianz bei unbekanntem Erwartungswert 8-2

9. Schwaches Gesetz der großen Zahlen und Zentraler Grenzwertsatz (26)

9.1 Konvergenz nach Wahrscheinlichkeit und Schwaches Gesetz der großen Zahlen 9-1 9.1.1 Eigenschaften der Konvergenz nach Wahrscheinlichkeit 9-2 9.1.2 Stochastische Konvergenz und Konsistenz von Schätzern 9-5

9.2 Verteilungskonvergenz und Zentraler Grenzwertsatz 9-7 9.3 Grenzwertsätze für Binomial-Verteilungen

9.3.1 Die Normal-Approximation der Binomial-Verteilung 9-9 9.3.3 Die Poisson-Approximation der Binomial-Verteilung 9-11

9.7 Eigenschaften der Konvergenz nach Verteilung 9-16 9.8 Hypergeometrische Verteilungen

9.8.2 Zufälliges Ziehen mit und ohne Zurücklegen 9-17 9.8.3 Definition und Eigenschaften der hypergeom. Verteilung 9-19 9.8.4 Anwendungen und Schätzungen 9-19 9.8.5 Binamial-Approximation der hypergeometrischen Verteilung 9-20 9.8.6 Die multivariate hypergeometrische Verteilung 9-23

Page 6: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Beweise zur Stochastik 15.8.16 Inhalt- 4

10. Konfidenzgrenzen für den Erwartungswert (4)

10.1 Exakte Konfidenzgrenzen für den Erwartungswert einer Normal-Verteilung mit bekannter Varianz 10-1

10.2 Asymptotische Konfidenzgrenzen für den Erwartungswert einer beliebigen Verteilung 10-3

10.3 Exakte Konfidenzgrenzen für den Erwartungswert einer Normal-Verteilung mit unbekannter Varianz 10-4

11 Konfidenzgrenzen für eine Wahrscheinlichkeit (18) 11.1 Die exakte obere Konfidenzgrenze nach Clopper-Pearson 11-1 11.2 Die exakte untere Konfidenzgrenze nach Clopper-Pearson 11-4 11.3 Das exakte zweiseitige Konfidenzintervall 11-6 11.4 Berechnung der Grenzen 11-7 11.6 Asymptotische (approximative) Konfidenzgrenzen 11-9 11.7 Grobe asymptotische (approximative) Konfidenzgrenzen 11-17

12 Konfidenzgrenzen für den Erwartungswert einer Poisson-Verteilung (9) 12.1 Konstruktion der exakten oberen Konfidenzgrenze 12-1 12.2 Konstruktion der exakten unteren Konfidenzgrenze 12-3 12.3 Konstruktion des exakten zweiseitigen Konfidenzintervalls 12-4 12.4 Berechnung der exakten Grenzen 12-5 12.5 Asymptotische (approximative) Konfidenzgrenzen 12-7

13. Testen von Hypothesen über Wahrscheinlichkeiten (12) 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative

13.1.3 Der optimale Test zum vorgegebenen Niveau 13-1 13.2 Der exakte einseitige Test mit unterer Alternative 13-2 13.3 Der exakte zweiseitige Binomial-Test 13-4 13.4 Asymptotische Tests

13.4.1 Der asymptotische einseitige obere Test 13-5 13.4.2 Der asymptotische einseitige untere Test 13-7 13.4.3 Der asymptotische zweiseitige Test 13-10

13.5 Planung des erforderlicher Stichproben-Mindestumfangs 13.5.1 Der einseitige obere Test 13-12

14. Tests für den Erwartungswert der Poisson-Verteilung (8) 14.1 Der einseitige Poisson-Test mit oberer Alternative

14.1.1 Der exakte einseitige obere Poisson-Test 14-1 14.1.2 Der asymptotische einseitige obere Poisson-Test 14-2

14.2 Der einseitige Poisson-Test mit unterer Alternative 14.2.1 Der exakte einseitige untere Poisson-Test 14-4 14.2.2 Der asymptotische einseitige untere Poisson-Test 14-5

14.4 Der zweiseitige Poison-Test 14-7 14.4.2 Der asymptotische zweiseitige Poisson-Test 14-8

Page 7: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Wahrscheinlichkeitsräume 3.11.15 Bl-1

1. Wahrscheinlichkeitsräume

1.0 Mengensysteme

Beweis von

(3) A,EE d =? AUE, AnE, A\E=AnCE E d.

ad "u, n": Für die Folge (A ), definiert durch n

A ==A 1 ) A ==E n '

gilt AUE= U A Ed, nElN n

AnE= nA Ed nElN n

ad "\ ": Folgt aus "n", weil CEE d nach (A2).

Beweis von

Borel-Mengen in IR

• alle offenen und alle abgeschlossenen Teilmengen von IR.

für n > 2

nach (A3), (A3) 1•

D

Eine offene Menge A :;= 0 ist darstellbar als abzählbare Vereinigung offener Intervalle

A = U (a,b), a,b E <Q (a,b) CA

also A E lB. Für abgeschlossenesEist CE offen und somit in lB, also ist auch E E lB. D

Page 8: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Wahrscheinlichkeitsräume

1.1 Wahrscheinlichkeitsmaße

Beweis von

(1) P(0) = 0.

Für die Folge (A ) mit n

A == .f2 1 ) A ==0 n

ist .f2 = U A . nElN n

Es folgt P(.f!) = 2:= P(A ) nElN n

= P(.f!) + 2:= P(0) n>2

und somit 2:= P( 0) = 0. n>2

3.11.15

für n > 2

nach (P3)

Nach (Pl) ist P(0) > 0 und es folgt P(0) = 0

Beweis von

(2) Für paarweise disjunkte A1, ... , AKE d gilt:

Setzt man A ·- 0 für n>K n

K

U Ak UA k=l nElN n

so ist

K P( U Ak) 2:= P(A )

k=l nElN n und

K 2:= P(Ak) k=l

Bl-2

D

nach (P3)

nach (1). D

Page 9: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Wahrscheinlichkeitsräume 3.11.15 B 1-3

Beweis von

(3) P(CA) = 1- P(A) für alle A E d.

(4) 0 < P(A) < 1 für alle A E d.

(5) P(A UB) = P(A) + P(B)- P(AnB) < P(A) + P(B)

(8) A c B =? P( A) < P(B) = P(B\A) + P(A) für alle A, BE d.

ad (3): Da A1

: = A und A2

: =CA disjunkt sind, folgt aus (2) P(A) + P(CA) = 1.

ad (4): Aus vgl. (P1) , (3)

folgt

0 < P(CA) = 1-P(A)

P(A) < 1 und somit (4) wegen (P1).

ad (5): Man veranschauliche sich die Situation an 3.1 Abb.J.

Aus der disjunkten Zerlegung B = (B n A) U (B\A) ergibt sich mit (2)

(i) P(B) = P(A nB) + P(B\A)

Und aus der disjunkten Zerlegung AU B = AU (B\A) erhält man

P(A UB) = P(A) + P(B\A)

= P(A) + P(B) - P(A n B)

< P(A) + P(B)

ad (8): Für A cB ergibt sich aus (i) wegen A nB = A

P(B) = P(A) + P(B\A)

> P(A)

nach (i)

wegen (P1).

wegen (P1).

D

D

D

Page 10: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Wahrscheinlichkeitsräume 3011015 B1-4

Beweis von

(6) 2:= (-1)#I-10P( n Ao), 0 I z 0 7':- I C {1,000/(} z E

Der Beweis erfolgt durch Induktion über K (für beliebige A1, 000, AK E d) 0

K = 1: Es gibt nur ein 0 ;=I C {1} - und zwar I= {1} - und somit ist

Induktionsschritt Kr----+ K + 1: Nach (5) gilt zunächst:

K K K (i) P(AK+1 U U Ak) = P(AK+1) + P( U Ak)- P(AK+1 n U Ak)

k=l k=l k=l K

= ooooooooooooooooooo-P(U(AknAK+1)) k=l

Die Induktionsvoraussetzung, angewandt auf Ak und auf Bk =AknAK+1, liefert

K (ii) P(UAk) = 2:= (-1)#I-10 P(nAO),

k=1 07':-IC{1,ooo/(} iEI z

K (iii) P( U (AknAK+1)) = 2:= (-1)#I-10 P( 0n (AinAK+1))

k=1 07':-IC{1,ooo/(} zEI

2:= (-1)#I-10P( n Ao) 07':-IC{1,ooo/(} iEIU{K+1} z

J = Iu{K+1} 2:= (-1)#1- 10 P( n A 0) 0

{K+1}~JC{1,ooo/(+1} iEJ z

Einsetzen von ( ii) und ( iii) in ( i) ergibt:

K+l (iv) P( U Ak) = 2:= (-1)#I-10 P( 0ni AJ + P(AK+1) +

k=1 07':-IC{1,ooo/(} zE

2:= (-1)#I-10P( n Ao) {K+1}~IC{1,ooo/(+1} iEI z

Für jedes 0 ;=I C {1, 000, K + 1} gilt

I c {1, 000,K} oder I= {K+1} oder {K+1} CI C {1, 000, K+1} ;=

und somit ergibt sich aus (iv) die Beho für K+1:

K+l P( U Ak) = 2:= (-1)#I-10 P( n Ao) 0

k=1 07':-IC{1,ooo/(+1} iEI z D

Page 11: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Wahrscheinlichkeitsräume 3.11.15 Bl-5

Beweis von

(9) Wenn (An) aufsteigend ist, d.h. An cAn+1 für allen, so gilt:

P( U A ) = lim P(A ) n E lN n n---+oo n

(,,Stetigkeit von unten").

(10) Wenn (An) abfallend ist, d.h. An+1 cAn für allen, so gilt:

ad (9):

Es ist

P( n A ) = lim P(A ) n E lN n n---+oo n

(,,Stetigkeit von oben").

Man veranschauliche sich die Folge (B ) auch durch ein Venn-Diagramm. n

UA nElN n

U B nElN n

i

mit

wobei

A ==0 0

B ==A\A Ed n n n-1

"C": Zu w E U A gibt es ein kleinstes n mit w E A , also w E B nElN n n n

"::)'': Folgt aus B CA . n n

Die Folge (B ) ist paarweise disjunkt, weil n

Es folgt

Wegen

k<n

P( UA) =P( UB) nElN n nElN n

n 2:= P(B.)

0 z z=l

2:= P(B ) nElN n

n lim 2:= P(B .) n---+oo . z

z=l n

2:= P(Ai\Ai-1) i=l n

0

nach (P3)

( i)

2:= [ P(Ai)- P(Ai_1) J

i=l

P(A), n

folgt (9) aus (i).

da (A ) aufsteigend n

(8)

daA0=0.

Page 12: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Wahrscheinlichkeitsräume 3.11.15

ad {10):

( ii)

Die Folge (CAn) ist aufsteigend, und nach (9) ist

P( U CA ) = lim P(CA ) n E lN n n---+oo n

= lim [1-P(A )] n---+oo n

1-lim P(A ), n---+oo n

Es folgt P( n A ) = P( C U CA ) nElN n nElN n

= 1- P( U CA ) nElN n

= lim P(A ), n---+oo n

B 1-6

vgl. (3).

vgl. 1.0 (2)

vgl (ii). D

Page 13: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Wahrscheinlichkeitsräume 3011015 Bl-7

Beweis von

(11) P( U A ) < 2:= P(A ) nElN n nElN n

(,,Sub-Additivität")

1. Beweis: mit {9) (,,Stetigkeit von unten'~

Für n

B==UAOEd n 0 1

z z=

ist U A = U B und somit nElN n nElN n

( i) P( U A ) = P( U B ) = lim P(B ) nElN n nElN n n---+oo n

vgl. (9)

n n Aus P(B ) = P( U Ao) < 2:= P(Ao)

n 0

1 z z

z = i=1 vgl. (7)

folgt lim P(B ) < 2:= P(A ) n---+oo n n E lN n

(auch falls Reihe= oo ist)

und mit ( i) ergibt sich die Beho

2. Beweis: direkt mit a-Addditivität

Es ist mit

u c nElN n

wobei

Die Folge ( C ) ist paarweise disjunkt, weil n

xEC ::::} n x t1. B n-1

X \t Ak

xt1. ck!

Also gilt Ck n C n = 0 für k < no Weiter folgt

P( UA) =P( uc) nElN n nElN n

n-1

B ==UAkEd n-1 k=1

C ==A \B Ed n n n-1

2:= P(C ) nElN n

nach (P3)

< 2:= P(A ) nElN n

da C CA , (8)0 n n

D

D

Page 14: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Wahrscheinlichkeitsräume 3.11.15 B 1-8

Beweis von

(12) Bei ezner beliebigen Familie (A. E d) . I paarwezse disjunkter Ereignisse z z E

haben höchstens abzählbar viele eine von 0 verschiedene Wahrscheinlichkeit)

d.h. die Menge K = { k EI I P(Ak) > 0} ist höchstens abzählbar.

Da es zu jedem k E Kein n E W gibt mit P(Ak) > ~' läßt sich K darstellen als

K= U K nElN n

mit K = { kEK I P(Ak) >l. }. n n

Wenn wir zeigen: ( i)

so ist K als abzählbare Vereinigung endlicher Mengen K höchstens abzählbar. n

Angenommen ( i) gilt nicht. Dann gibt es ein L C K mit #L = n + 1, und es folgt n

P( U Az) = 2: P(Az) > 2: l. = (n+1) l. > 1 lEL lEL lEL n n

im Widerspruch zu P( U Az) < 1. lEL

D

Page 15: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Wahrscheinlichkeitsräume 3.11.15 B 1-9

1.2 Endliche Wahrscheinlichkeitsräume

Beweis zu

(4) für A cn

Zu zeigen ist, daß Pf die Eigenschaften (P1) - (P3) erfüllt.

ad (P1): j> 0 =?

ad (P2): P1(n) = 2: f(w) = 1

wED nach (3)

ad (P3): Wir zeigen zuerst

( i) A, B disjunkt =?

ad (i): 2: f(w) wEAUB

2: f(w) + 2: f(w) wEA wEB

P/A) + P/B)

Per Induktion über K E W folgt aus (i) die endliche Additivität von Pf K K

(ii) A1, ..... , AK disjunkt =? P f U Ak) = 2: P fAk). k=l k=l

Zum Nachweis von (P3) seien A mit n E W paarweise disjunkt. Ist N == # .f!, so n

können höchsten N dieser Mengen nicht-leer sein, d.h. es gibt ein K E W mit

( iii) A =0 n

und somit P1(A ) = 2: f(w) = 0 n wE0

für n> K

Page 16: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Wahrscheinlichkeitsräume

1.2.3 Binomial-V erteil ung

Beweis zu

(1) b(kln,p) := P{k}

Zu zeigen ist

3011015

n 2:= b(kln,p) k=O

Nach dem Binomischen Lehrsatz gilt n

2:= (~)pk(1-pt-k = (p+(1-p)t = 1n k=O

1.2.4* Relative Häufigkeiten

Beweis zu

B 1-10

für k = 0, 1, 000, no

10

1. D

(2) P (A) : = 1. 0 # { k = 11 0001 n I xk E A} (relative Häufigkeit der x-Werte in A) 0 x n

Es ist P (A) = 2:= P { x} = 1. 2:= # { k = 11 0001 n I xk = x} X X n

xEA xEA

= ~ 0 # { k = 11 0001 n I xk E A} 0 D

Page 17: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

I

Wahrscheinlichkeitsräume 3.11.15

1.3 Abzählbare Wahrscheinlichkeitsräume

Beweis zu

(4) für A cn

Zu zeigen ist, daß Pf die Eigenschaften (P1) - (P3) erfüllt.

ad (P1): j> 0 =?

ad (P2): P1(n) = 2: f(w) = 1

wED

ad (P3): Seien A , n E W paarweise disjunkt. n

Aus 2: f(w) wEAn

folgt 2: 2: f(w)

nach (3)

B 1-11

nElN wEAn Umordnungssatz für Reihen/Summen

= Pi( U A ). nElN n

D

1.3.1 Poisson-Verteilung

Beweis zu

(1) p(k;p,) := P{k} - 1 -f.L k - k! e 1-L für k = 0, 1, ...

00

Zu zeigen ist 2: p(k;p,) 1. k=O

00 k

00 k Es gilt: 2: ~ e-f-li-L e-f-l 2: ~ 1-L e-f-l. ef-l 1.

k=O k. k=O k. D

Page 18: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Wahrscheinlichkeitsräume 3.11.15 B 1-12

1.4 Reelle Wahrscheinlichkeitsmaße mit Dichten

Beweis von

für alle w E .f2. b

(4)

(5) Pf [ a, b] = Pf [ a, b) = Pf ( a, b) = Pf ( a, b] = J f( x) dx a

für a < b.

ad (4): Mit Kenntnis des Lebesgue-Integrals folgt (4) sofort aus (3). Und unter

Verwendung des Riemann-Integrals ergibt sich (4) aus (2) wie folgt. Es gibt eine

Folge w Eil mit w tw, und aus {w}C(w ,w] folgt n n n

w w 0 < P1{w} < P/w n' w] = J f(x) dx -n-----+-

00----+ J f(x) dx = 0.

wn w

ad (5): Mit ( 4) ergibt sich (5) wie folgt:

1.4.1 Normal-Verteilung

Beweis von

+oo (2) J f(x) dx = 1

-00

Unter Verwendung der Substitution u = (x-p,)a - 1 mit du= a - 1 dx lautet (2) +oo

( i) J cp(u) du = 1 -00

Und wegen cp(-x) = cp(x) reicht es zu zeigen

( ii) 00

J cp(u) du = ~ 0

bzw.

mit cp aus (3).

00 2/2 Je-u du = ~ßf = v-f. 0

Der Nachweis von (ii) verwendet die folgende Eigenschaft der Gamma-Funktion

( iii) vgl. 6.2.4 (5).

Mit der Substitution 1 2 t = 2 u , dt = u · du = J2f · du

00 2/ Je-u 2 du 00 1 e-t(2tr1/2 dt ist nach (iii).

0 0

D

D

D

Page 19: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Wahrscheinlichkeitsräume 3.11.15

1.4.2 Exponential-Verteilung

Beweis zu

für t> 0.

00

Zu zeigen ist: 1 f( t) dt = 1. 0

Es gilt: [ ->.t]b ->.b -e =-e +1 0 b----+oo

1.4.3 Stetige Gleichverteilung

Beweis zu

f(x)

(2) P (a, b)

Es ist (i)

1 L1

b-a L1

für a < x < ß.

für a < a < b < ß .

b b 1 f( x) dx = [ ~ J

a Ll a

b-a L1

ß Für a = a, b = ß folgt: 1 f(x) dx = 1, d.h. f ist eine Dichte.

Und (2) folgt direkt aus (i).

B 1-13

1. D

D

Page 20: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Zufallsvariablen und ihre Verteilungen 19.10.15 B2-1

2. Zufallsvariablen und ihre Verteilungen

2.2 Definition einer Zufallsvariable und ihrer Verteilung

Beweis von

(3) für A' Ed'

Der Beweis verwendet die Eigenschaften (5) - (8) der Urbild-Operators x-1.

ad (P1): P> 0

ad (P2): x-1[D'] = .f2 =? PjD') = P(D) = 1

ad (P3): A' E d' paarweise disjunkt für n E W =? n

x-1[A'] E d' paarweise disjunkt, vgl. (8). n

Es folgt: Px( U A') nElN n

= P(x-1[ U A']) nElN n

= P( U x-1[A' l) nElN n

vgl. (7)

2: P(x-1 [A' l) nElN n

vgl. (P3) für P

2: Px(A'). nElN n

D

Page 21: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Zufallsvariablen und ihre Verteilungen 19.10.15 B2-2

Beweis von

(s) x-1 [ 0] = 0 ,

(6) x-1 [CE]= cx-1[EJ,

(7) Für eine beliebige Indexmenge I gilt:

ad (5): w E x-1 [0] {} X(w) E 0

Die rechte und somit auch die linke Seite der Äquivalenz ist stets falsch.

ad (6):

ad (7}:

Also gilt (5).

w E x-1 [CE] {}

{}

{}

Vereinigung

w E x-1 [ U E.J iEI z

{}

{}

X(w) E CE X(w) \t E

w ~t x-1[E]

X(w) E U E. iEI z

es gibt ein i EI: X(w) E E. z

~ w EX-1[E.]

z {} w E U x-1[E.].

i EI z

Durchschnitt (analog Vereinigung)

X(w) E n E. iEI z

{} für alle i EI: X( w) E E. z

~ w EX-1[E.]

z {} w E n x-1[E.].

i EI z

ad (8): x-1 [E1

] n x-1 [E2

] = x-1 [E1 nE

2] vgl. (7)

= x-1[0] = 0 vgl. (5). D

Page 22: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Zufallsvariablen und ihre Verteilungen 19.10.15 B2-3

Beweis von

Für ein Intervall .f2 C IR und .f!' E lB sind folgende Funktionen meßbar bzgl. (lBD, lBD,)

• alle stetigen Funktionen X: .f2-----+ D',

• alle Funktionen X: .f2-----+ .f21 mit endlich vielen Unstetigkeitsstellen,

• alle monotonen (wachsenden oder fallenden) Funktionen X: .f2-----+ D'.

Zu zeigen ist für ein beliebiges offenes Intervall A

(i) T 1[A] E lB.

1. Wenn X stetig ist, so ist x-1[A] als Urbild einer offenen Menge wieder offen und

somit eine Borel-Menge.

2. Wenn die Menge D der Unstetigkeitsstellen von X endlich ist, so ist D abgeschlos­

sen und somit .a1

= .f2 \D offen. Die Einschränkung X1 =X ID

1 von X auf .a

1 ist

dann stetig und somit ist

X1-

1[A] = {wE.f21

1X(w)EA} = .f21nx-1[A]

offen, und damit Borel-Menge. Da Dnx-1[A] als endliche Menge ebenfalls eine Bo­

rel-Menge ist, ergibt sich (i) aus

3. Wenn X monoton ist, so ist x-1[A] sogar ein Intervall ist, und hierzu reicht es für

beliebige w1, w

2 E x-1[A] mit w

1 < w

2 zu zeigen

( ii) bzw. X(w) EA

Für monoton wachsendes X gilt

Wegen X(w1) 1 X(wJ E A folgt X(w) E A, weil A ein Intervall ist.

Für monoton fallendes X gilt

und X( w) E A folgt wie oben. Diese Argumentation gilt sogar für ein beliebiges (nicht

notwendig offenes) Intervall A. D

Page 23: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Zufallsvariablen und ihre Verteilungen 19.10.15 B2-4

2.3 Reelle Zufallsvariablen

Beweise zu Fortsetzung und Einschränkung

Übung!

Beweis zu

(8) T p : = {XE IR I P{ X} > 0} E lB

Da P diskret ist, hat es einen höchstens abzählbaren Träger TE lB. Zu zeigen ist

( ii) T' E lB Träger von P T CT I b p zw.

ad (ii): Da T' ein Träger von P ist, gilt P(CT') = 1-P(T') = 0, also

ad (i):

folgt.

P{x} = 0 bzw. xE CTP.

Für T' = T folgt TP C Taus (ii). Also ist TF höchstens abzählbar und (i)

D

Page 24: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Bedingte Wahrscheinlichkeit und stochastische Unabhängigkeit 3.11.15 B 3- 1

3. Bedingte Wahrscheinlichkeit und stochastische Unabhängigkeit

3.1 Bedingte Wahrscheinlichkeit

Beweis zu

dB ist als Durchschnitt der beiden a-Algebren d und ~(B) wieder eine a-Algebra.

Allgemeiner läßt sich zeigen (Übung!), daß für eine beliebige Familie d. C ~(D), z

i EI, von a-Algebren auch ihr Durchschnitt

n d. = { A c n I A E d. für alle i EI} . I z z zE

wieder eine a-Algebra ist.

Beweis von

(5)

(6)

(7)

P( -I B) : dB-----+ IR ist ein Wahrscheinlichkeitmaß auf (B, dB) .

C c B * P(CIB) = P(C) P(B)

P(BIB) = 1, P(0IB) = o.

ad {6): Folgt aus der Definition von P( CI B), weil C n B = C.

ad (7}: Folgt sofort aus ( 6) für C = B bzw. C = 0.

ad (5): Nach (6) unterscheiden sich P(-1 B) von P( -) nur durch den Faktor P(B).

Mit P(-) ist also auch P(-IB) nicht-negativ und a-additiv.

Die Normiertheit von P( -I B) folgt aus (7).

D

D

Page 25: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Bedingte Wahrscheinlichkeit und stochastische Unabhängigkeit 3011015 B 3- 2

Beweis von

(8) P(A1 nA

2n 000 nAn)

P(A1) 0 P(A

21 A

1) 0 P(A

31 A

1 n A

2) 0 0 0 0 0 ° P(An 1 A

1 n A

2 n 000 n An_

1)

Folgt mit Induktion über no Für n = 1 ist nichts zu zeigen und der Induktionsschritt

ergibt sich mit (2), weil

P(A1 nA2 n 000 nAn nAn+l)

P(A1 nA2 n 000 nAn) 0 P(An+1 1A1 nA2 n 000 nAn)o D

Beweis von

Satz von der totalen Zerlegung:

Wenn die Familie (Bo E d) 0 I mit höchstens abzählbarer Indexmenge I paarweise z z E

disjunkt ist mit .f2 = U B 0 und P(B 0 ) > 0 für alle i E I1 so gilt für jedes A E d iEI z z

(11) P(A) = 2:= P(A IBO) OP(Bo) 0

0 I z z zE

Es ist A = An.f! =An U Bo = U (AnB 0 ) 0

i EI z i EI z

Da die Familie (An B 0 ) 0 I auch paarweise disjunkt ist, folgt z z E

P(A) = 2:= P(A n B 0)

0 z zEI II

P(A IBO) OP(Bo) z z

nach (2)0 D

Beweis von

(12) P(BIA) = P(A IB) 0 P(B) P(A)

für P(A) > 0 (Formel von Bayes)o

Nach (2) ist P(B I A) 0 P(A) = P(A n B) = P(A I B) 0 P(B)

und nach Division durch P(A) ergibt sich die Formel von Bayeso D

Page 26: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Bedingte Wahrscheinlichkeit und stochastische Unabhängigkeit 3.11.15 B 3- 3

3.1.2 Wartezeiten und Exponential-Verteilung

Beweis von 00

(1) P { T > t} = 1 ). e-).. x dx = e-).. t für alle t > 0. t

(2) P { T > s + t I T > s} = P { T > t} für alle s, t > 0 .

t t ad (1): P { T < t} 1 ). e-). x dx = [- e-). x J = - e-). t + 1

0 0

P{T>t} 1-P{T<t} = e-At_

ad (2): P{T>s+t I T>s}

P{T>s+t}

P{T>s}

e-A (s + t) -As e

->.t e

= P{T>t}.

3.2 Stochastische Unabhängigkeit von Ereignissen

Beweis von

(2)

(3)

A1 E stochastisch unabhängig

P(E) = 0

ad (2): Für P(E) > 0 gilt:

P(AnE) =P(A) ·P(E)

ad (3): P(E) = 0

Übung: Beweis von

P(A I E) = P(A)

A1 E stochastisch unabhängig

P(A I E) = P(A nE) = P(A). P(B)

P(A nE) < P(E) = 0

P(A nE) = 0 = P(A) ·P(E).

(4) A1 E stochastisch unabhängig ::::} CA1 E stochastisch unabhängig,

A1 CE stochastisch unabhängig,

CA1 CE stochastisch unabhängig.

D

D

D

Page 27: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Bedingte Wahrscheinlichkeit und stochastische Unabhängigkeit 3.11.15 B 3- 4

3.3 Produkte diskreter Wahrscheinlichkeitsräume

Beweis zu

Es ist: 2:: P{w} wED

Beweis von

(4) n

P( TI A.) 0 1 z z=

1 1

n TI P.(A.)

0 1 z z z= bzw.

1

Es sei A. :;= 0 für alle i1 weil andernfalls beide Seiten in ( 4) gleich Null sind. z

Aus P.(A .) = 2:: P.{ w .} für alle i z z W· EA. z z

2 2

TI P.(A.) = [ 2:: P1{w1}]· ... · [ 2:: P {w }] . z z EA EA n n z wl 1 wn n

folgt

= 2:: . . . 2:: Pl {wl} ..... Pn {wn} wl EAl wn EAn II

= 1. D

2:: P{w} vgl. (1), mit w = (wl' ... , wn) wEA1x ... xAn

Page 28: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Bedingte Wahrscheinlichkeit und stochastische Unabhängigkeit 3011015 B 3- 5

Beweis von

(7) P{ 1roEAO} = Po(Ao) z z z z

für jedes A 0 E do und jedes io z z

Mit für alle k ;= i

lautet (4): p (nl XoooX Ai XoooX nn) = Pl(nl) 0 000 ° P/Ai) 0ooo 0 Pn(nn) Po(Ao) z z

II II II

Beweis von n

P{ 1roEAO} z z

(8) n { 7r 0 E A 0} = Al X A2 X 000 X An 0 1 z z z=

n Es gilt: w E n { 1roEAO}

i =1 z z

Beweis von

(9)

Für

n

für i E K } für i tJ. K

n

1

n TI Ao 0

0 1 z z=

woEAO z z

n w E TI Ao 0

0 1 z z=

1

für alle i

für 0 ;= K C {1, 000, n}

folgt aus ( 4)

P( TI Bo) i= 1 z

TI Po(Bo) i= 1 z z

TI Pk(Ak) kEK II

da P 0 ( .f2 0) = 1 für i tJ_ K z z

Zu zeigen bleibt

Nun ist:

P{ 1rk EAk} nach (7)0 n TI B 0 = n { 7rk E Ak} 0

i=l z kEK

n w E TI Bo

0 1 z z= {} w 0 E B 0 für alle i

z z

nach Def. von B 0

z

D

D

D

Page 29: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Bedingte Wahrscheinlichkeit und stochastische Unabhängigkeit 3011015 B 3- 6

3.3.1 Bernoulli-Wiederholungen und Binomialverteilung

Beweis von

n k = # { i = 1, 000, n I w 0 = 1} = 2:: w 0 = : w+o z z

i=l

Beweis zu

flPO{wo}, wobei woE{0,1} 0 z z z z II

k n-k p q

mit q=1-p

(3) P{X=k} = b(kln,p) = (~)Pk (1-pt-k für k = 0,1, 000, no

Für Ak : = {X= k} = { w E n I w + = k}

D

entspricht jedem w = (w1, 000, w n) E Ak eineindeutig eme k-elementige Teilmenge

C C {0, 000,n} via

und

wo= 1 z

i E C für alle io

( vgl. Kombinatorik oder Übungsaufgabe)

nach (1)

D

Page 30: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Verteilungsfunktionen und Dichten 16.3.16 B4-1

4. Verteilungsfunktionen und Dichten 4.1 Verteilungsfunktionen reeller Zufallsvariablen

Beweis von

(2) F ist monoton wachsend:

(3)

(4)

(5)

a<b

F ist rechts-stetig:

F(a) < F(b)

lim F(x) = F(a) xta

für alle a, b E IR.

für alle a E IR.

F(- oo) : = lim F( x) = 0 , F( + oo) : = lim F( x) = 1 x~-oo x~+oo

F(a-) == lim F(x) = PX(-oo,a) = P{X<a} füralleaEIR. xja

ad (2): a < b (-oo,a] C (-oo,b]

ad (3):

Es folgt

ad (4):

Sei x l a eine beliebige fallende Folge. Dann ist n

A : = (-oo, X l abfallend mit: n (-oo, X l = (-oo, a ]. n n nElN n

F(a) = Px(-oo, a l = p ( n (-oo, X l) _x\nElN n

lim PX(-oo, x ] n---+oo n Stetigkeit von oben: 1.1 (10)

lim F(x ). n---+oo n

Für eine fallende Folge x 1-oo ergibt sich analog ad (3) mit a =- oo n

lim F(x ) = P r n (-oo,x l) = Px(0) = 0 n---+oo n _x\ n E lN n

Für eine wachsende Folge x loo ist (- oo, x ] aufsteigend und aus der n n

ad (5):

Es folgt

Stetigkeit von unten 1.1 (9) folgt

lim F(x ) = P ( U (-oo,x l) = PX(IR) 1. n---+oo n _x\ n E lN n

Sei x I a eine beliebige wachsende Folge. Dann ist n

A : = (-oo, x ] aufsteigend mit: U (-oo, x ] = (-oo, a ). n n nElN n

P x(-oo, a) = P x( U (-oo, x l) nElN n

lim PX(-oo, x ] n---+oo n Stetigkeit von unten: 1.1 (9)

lim F(x ). n---+oo n

D

Page 31: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Verteilungsfunktionen und Dichten 16.3.16 B4-2

Beweis von

(6) P{X=a} = F(a) -F(a-) für alle a E IR.

(7) P { a < X < b} = F(b) - F( a) ,

P { a <X< b} = F(b) - F( a -) ,

P{a <X< b} = F(b-) -F(a-),

P { a < X < b} = F(b -) - F( a)

ad {6): {X= a} = {X< a} \ {X< a})

P{X=a} = P{X<a}-P{X<a}) = F(a)-F(a-) vgl.1.1(8).

ad (7}: Analog ( 6) folgt

P { a < X < b} = P {X< b} - P {X< a} = F(b) - F( a)

P { a < X < b} = P {X< b} - P {X< a} = F(b) - F( a-)

P { a < X < b} = P {X< b} - P {X< a} = F(b-) - F( a-)

P { a < X < b} = P {X< b} - P {X< a} = F(b-) - F( a) .

Beweis von

(8) F ist in a stetig P{X=a} = 0,

(9) F hat höchstens abzählbar viele Unstetigkeitsstellen.

ad {8): Da F rechts-stetig ist gilt

F ist in a stetig

ad {9): Nach (8) gilt für jedes aEIR

(i) F ist in a unstetig {}

F(a) = F(a-)

P{X=a} = 0 vgl. ( 6)

D

Da die Familie { a} für a E IR paarweise disjunkt ist, kann P x { a} > 0 nach 1.1 (12) für

höchstens abzählbar viele a E IR gelten. Mit (i) folgt (9) sofort. D

Page 32: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Verteilungsfunktionen und Dichten 16.3.16 B4-3

4.1.1* Quasi-Inverse einer Verteilungsfunktion

Beweise zu

(1) F-(p) ·- inf{xEIR lp::;F(x)} (Quasi-Inverse von F).

Wir zeigen zuerst, daß p-(p) wohldefiniert ist, d.h in IR liegt. Wegen F( oo) = 1 und

p < 1 ist A : = { x E IR I p < F(x)} ;= 0 und es gibt eine Irrfirnum-Folge xn E A mit

x l inf A E [-oo, oo) n

Da F in inf A rechts-stetig ist , folgt

( i) p < lim F(x ) = F(infA), - n---+oo n

auch für inf A =- oo nach 4.1 ( 4)

Wegen F(- oo) = 0 und p > 0 folgt inf A ;=- oo. Also ist F-(p) = inf A E IR.

ad (2): Übung!

Beweise von

(4)

(5)

p-(p) <X {}

F(F-(F(x)) = F(x) .

ad (4): Übung!

ad {3): Ergibt sich aus (4) für p = F(x).

p ::; F(x) ,

ad (5): Mit der Monotonie von F ergibt sich aus (3)

vgl. (2) für p = F(x).

D

D

Page 33: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Verteilungsfunktionen und Dichten 16.3.16 B4-4

Beweise von

(6)

(7)

(8)

F- ist monoton wachsend und links-stetig.

Fist stetig

F ist streng wachsend

ad (6): "monoton wachsend":

F(F-(p)) = p

F-(F(x)) = x

P1 < P2 < F(F-(p2))

F-(p1) < F-(p2)

"links-stetig": Für eine beliebige Folge p I p ist zu zeigen n

( i)

für alle 0 < p < 1.

für alle x E IR.

vgl. (2)

vgl. (4).

Da F- monoton wachsend ist, ist auch die Folge F-(p ) wachsend und n

( ii) X ·-·-

F-(pn) < F-(p)

sup F-(p n) < F-(p) n

Weiter gilt für alle n:

Also p = sup p < F(x) n n

bzw.

für allen

pn < F(x)

F-(p) <X

Zusammen mit (ii) folgt (i): F-(p) = x = lim F-(p ). n---+oo n

ad (7}: Wir zeigen erst allgemeiner (auch für nicht-stetiges F)

vgl. (4)

vgl. (4).

( iii) F(x -) = lim F(y) < p ytx

Der Nachweis erfolgt indirekt: wenn p < F(x -) ist, so gibt es ein y E IR mit

Mit ( 4) folgt

P < F(y)' p-(p) < y <X

y <X. und somit gilt (iii).

Wir zeigen jetzt (7). Für x = F-(p) folgt mit (iii) und (2)

F(x-) < p < F(x)

Da F in x stetig ist, folgt: p = F(x) = F(F-(p)).

ad {8): Die Beh. folgt aus (5), da F insbesondere auch injektiv ist. D

Page 34: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Verteilungsfunktionen und Dichten 1603016

4.2 Verteilungsfunktionen diskreter Zufallsvariablen

Beweis von

(2) P{XE T} = 1

(3) P{XEB} = P{XEBn T} für BE lBO

(5) F(a) = 2:= f(x) 0

xET x<a

ad (2): P{XE T} = P(fl) = 10

ad {3): P{XEB} = P{wEfliX(w)EB}

= P { w E f2 1 X( w) E B n T} - P {XE B n T} 0

ad (5): F(a) = P{X < a} = P{XEB} mit B=(-oo,a]

= P{XEBnT} vgl. (3)

= PJBnT)

2:= f(x) xET x<a

B4-5

D

Page 35: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Verteilungsfunktionen und Dichten 1603016 B4-6

4.2.2 Binomial-Verteilung

Beweis von

Int(a) (1) F(a) 2:= b( i I n, p) mit Irrt( a) = Max { i E W I i < a}, aEIRO

i=O

Für f(i) b(i I n,p) folgt mit 4.2 (5) Int(a)

F(a) 2:= f(i) 2:= f(i) 0 D i ET i=O i<a

4.2.3 Poisson-Verteilung

Beweis von

Int(a) (1) F(a) 2:= p(i l~t) mit Irrt( a) = Max { i E W I i < a}, aEIRO

i=O

Analog Binomialverteilung (1) mit f(i) p(i l~t) 0 D

Page 36: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Verteilungsfunktionen und Dichten 16.3.16 B4-7

4.3 Stetige Zufallsvariablen mit Dichten

Beweis zu

(5) f(x) : = 0 für alle x \t T.

Zu zeigen bleibt, daß f: IR-----+ [ 0, oo) meßbar ist. Die Einschränkung j1

= f I C T ist ste­

tig und somit meßbar, und die Einschränkung j2 =!I T ist ebenfalls meßbar, weil T

endlich ist. Aus der Meßbarkeit beider Einschränkungen ergibt sich die Meßbarkeit

vonfallgemein wie folgt. Für jede Bore1-Menge B C [ 0, oo) ist

als Vereinigung von zwei Bore1-Mengen ebenfalls Borel-Menge. D

Beweis von

(7) F( a) = 0 für a < a, F(b) = 1 für b > ß.

Es ist 1 = P {XE IR} = P {X< a} + P { a <X< ß} + P {X> ß} . ß

Aus P{ a <X< ß} = 1 f(x) dx = 1, daf Dichte auf T

folgt F(a) = P{X<a} = 0, 1-F(ß) = P{X>ß} = 0.

Also auch a < a =? F(a) < F(a) = 0, b>ß =? F(b) > F(ß) = 1. D

Beweis von

(8) F '(x) =f(x) für alle Stetigkeitsstellen x von f.

Ordnen wir die K> 0 Unstetigkeitsstellen vonf auf IR aufsteigend an

und setzen

so ist f auf jedem Intervall Ik = ( dk, dk+ 1

) stetig. Jede Stetigkeitsstelle x vonfliegt in

(genau) einem solchen Intervall Ik und für ein festes a E (dk, x) gilt X

(i) F(x)-F(a) = P{a<X<x} = 1 f(z)dz. a

Daf auf Ik stetig ist, ergibt sich (8) durch Differenzieren von (i) nach x. D

Page 37: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Verteilungsfunktionen und Dichten 16.3.16 B4-8

Beweis von

Satz: Die Verteilungsfunktion F Y einer Zufallsvariablen Y sei auf IR stetig und die

Menge D = { y E IR I Fist in y nicht stetig differenzierbar} sei endlich. Dann ist

(9) für y t1. D } für y ED-

(kanonische Dichte)

die (kanonische) Dichte von Y1 und f Y ist höchstens auf D unstetig.

Zusatz: Andert man f Y auf D beliebig ab1 so bleibt es eine Dichte von Y.

Wir lassen den Index "Y" im Beweis fort. Der Beweis verwendet nicht, daß f auf D

gleich 0 ist (allgemein kann eine Dichte in ihren Unstetigkeitsstellen beliebig abge­

ändert werden, vgl. Abschnitt 1.4). Die Menge D läßt sich D darstellen als

mit

Nach Konstruktion ist f höchstens auf D unstetig. Wenn wir zeigen y

(i) F(y) = P{Y < y} = 1 f(x) dx für alle y E IR, -=

so istfeine (kanonische) Dichte von Y, weil dann für jedes Intervall ( a, b] C IR folgt

( ii) P{a<Y<b} P{ Y < b}- P{ Y < a} b a b

J f(x) dx- J f(x) dx J f(x) dx -= -= a

Zum Nachweis von (i) sei d ==-oo 0 !

Für jedes k > 0 ist F auf jedem Intervall Ik = (dk, dk+1

) stetig differenzierbar mit

Ableitungf. Aus dem Hauptsatz der Differential- und Integralrechnung folgt b

(iii) 1 f(x)dx = F(b)-F(a) fürallea,bElk. a

Da F stetig ist folgt für a l dk b

(iv) 1 f(x) dx = F(b)- F(dk) für alle b E Ik, dk

und für bt dk+1 erhält man (iv) auch für b = dk+1, also

y (v) 1 f(x)dx = F(y)-F(dk) füralledk<y<dk+1,

dk Zum Nachweis von (i) zeigen wir perInduktionfür jedes k = 1, ... ,K+l

y (vi) F(y) = P{Y<y} = 1 f(x)dx füralley<dk.

-=

Page 38: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Verteilungsfunktionen und Dichten 16.3.16 B4-9

ad (vi): k=l: Wegen d0=-oo undF(-oo) =0 folgt (vi) aus (v) (für k=1).

k r----+ k + 1: Für dk < y < dk+ 1

ergibt sich mit der Induktionsvoraussetzung und ( v)

(für k + 1 statt k) y dk y

J f(x) dx f f(x) dx + f f(x) dx = F(dk) + [F(y) -F(dk)] = F(y). D -= -= dk

Beweise zu

(10) aF=inf {xEIRIF(x)>O} E [-oo,+oo),

ßF=sup{xEIRIF(x)<1} E (-oo,+oo].

(11) F(aF) = 0, F(ßF) = 1, P(aF,ßF) = 1,

(12) P(a',ß') = 1 a' < a < ß < ß'. - F F-

Übung!

Page 39: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Verteilungsfunktionen und Dichten 1603016

4.3.1 Stetige Gleichverteilung

Beweis von

(1) F(x) 1 für a < x < ß 0 - (x-a)

L1

Es ist F(x) X 1 1 1- du = L1 (x- a) 0

(X L1

4.3.2 Exponential-Verteilung

Beweis von

(1) für t> 00

Es ist

F(t) = 1- e-"\ t

F(t) = P{ T< t} 1-P{T>t} = 1- e-"\t, vgl. 3.1.1 (1)0

4.3.3 Normal-Verteilung

Beweis von

(3) <!>(- a) = 1- <!>( a) für a E IR 0

Die Behauptung ergibt sich aus cp(- x) = cp(x) wie folgt:

<!>( -a) -a a 1 cp(x) dx = - 1 cp(-u) du

-00 00

00

1 cp( u) du a

= P{U>a}

1-P{U<a}

1- <!>( a) 0

für u =- x

B 4-10

D

D

D

Page 40: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Verteilungsfunktionen und Dichten 16.3.16 B 4-11

4.4 Dichten transformierter Zufallsvariablen

Beweis von

Satz 1 (Monotone Transformationen stetiger Zufallsvariablen)

X sei eine stetige Zufallsvariable mit Träger Tx= (ax,ßx) 1 Verteilungsfunktion

F x und Dichte fx: T x-----+ [0, oo), und die Menge D der Unstetigkeitsstellen vonfx

sei endlich. Weiter sei g: T X-----+ IR eine stetig-differenzierbare und streng monotone

(wachsende oder fallende) Funktion.

(a) Für streng wachsendesgergibt sich die Verteilungsfunktion von g(X) aus

Fg(X)(z) = F x(g-\z))

Fg(X)(g( ax)) = 0,

für zEg[Txl = (g(ax),g(ßx))

Fg(X)(g(ßx)) = 1.

(b) Für streng fallendes g ergibt sich die Verteilungsfunktion von g(X) aus

Fg(X)(z) = 1- F x(g-\z))

Fg(X)(g(ßx)) = o,

für zEg[Txl = (g(ßx),g(ax))

Fg(X)(g( ax)) = 1.

(c) Ist N = {g' = 0} endlich, so ist eine Dichte von g(X) auf g[T xl gegeben durch

(i) fx(g-\z))

lg'(g-1(z)) I 0

für zEg[Tx] \g[N],

für zEg[N],

und fg(X) ist höchstens auf der endlichen Menge g [DUN] unstetig.

Sei Z: = g(X) und für z E g [ T xl sei x = g -\z) E T X' also z = g(x).

Der Beweis von (a) und (b) benötigt nur die Stetigkeit von F X' aber nicht die Exi­

stenz einer Dichte f X

ad (a): Für streng wachsendes g ist g [ T x] = (g( a X), g(ß X)) und für z E g [ T x] gilt

Fjz) = P{Z<z} = P{wEDIZ(w)<z}

= P{ wEn I g(X(w)) < g(x) }

:(!: da g streng wachsend

= P{ wEn I X(w) <X } = P{X<x} = Fjx) = Fx(g-\z)).

Aus P{g(ax) <Z <g(ßx)} = P{ ax<X <ßx} = 1 folgt weiter

F jg(ax)) = P{ Z <g(ax)} = o, F jg(ßx)) = P{ Z <g(ßx)} = 1.

Page 41: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Verteilungsfunktionen und Dichten 16.3.16 B 4-12

ad (b): Für streng fallendes g ist g[ Tx] = (g(ßx),g(aX)) und für zEg[ Tx] gilt

ad (c):

Fall1:

mit

F jz) = P{ wEn I g(X(w)) < g(x) } vgl. (a)

:(!: da g streng fallend

= P{wEfl I X(w)> x }

=P{X>x}

= P{X>x}+P{X=x}

= P{ X>x} da F X in x stetig ist

= 1-Fjx) = 1-Fx(g-\z)).

Aus P{g(ßx) <Z <g(ax)} = P{ ax<X <ßx} = 1 folgt weiter

F jg(ßx)) = P{ Z <g(ßx)} = o, F jg(ax)) = P{ Z <g(ax)} = 1.

g ist wachsend. Dann ist g1 > 0 und für xtf:.N sogar g'(x) > 0.

Differenzieren in (a) liefert für x = g -\z) (/:.DUN

fjz) = F;(z) = F~(g-\z)) · (g-1)'(z)

1 (g-1)'(z) = g'(g-1(z)) ' g'(g-\z)) = lg'(g-\z))l.

Wegen f X( x) = F J/.._ x) für x (/:. D folgt ( i) zunächst für x (/:. D U N. Da D U N endlich ist,

können wirf X( x) : = 0 für x E DUN definieren und fz: g [ T x] -----+ [0, oo) ist dann eine

Dichte von g(X) ist, die höchstens auf g [ D U N] unstetig ist. Ändern wir nun f Z auf

der endlichen Menge g [ D] ab, indem wir (i) und (ii) als Definition verwenden, dann

ist das so geänderte fz ebenfalls eine Dichte von Z (aber nicht notwendig die kano­

nische Dichte).

Fall 2: g ist fallend. Dann ist g1 < 0 und für x (/:. N sogar g'(x) < 0.

Differenzieren in (b) liefert für x = g-\ z) (/:. D U N

fjz) = F;(z) = -F~(g-\z)) · (g-1)'(z)

Wegen - g'(g-\z)) = lg'(g-\z)) I folgt (c) analog FallJ. D

Page 42: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Verteilungsfunktionen und Dichten 1603016 B 4-13

4.4.1 Lineare Transformationen stetiger Zufallsvariablen

Beweis von

(7) L(U) = N(O, 1) {} L(p, + a U) = N(p,, a 2) ,

L(X) = N(p,, a 2) {} L(; [X -p,l) = N(O, 1) 0

(8) L(U) = SG(O, 1) {} L(a + L1 U) = SG(a,ß) 0

(9) L(U) = Expo(1) {} L(~ U) = Expo(>.) 0

Übung!

Page 43: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Verteilungsfunktionen und Dichten 16.3.16 B 4-14

4.4.2 Absolutbetrag und Potenzen stetiger Zufallsvariablen

Beweis von

(5)

(6)

(9)

FIXIr(Y) = F ~y1/r)- F ~-y1/r)

FIXIr(Y) = 0

JIXIr(Y) = ~ Y(1-r)/r[J~y1/r) + J~-y1/r)]

!IXIr(Y) = o

F xn(Y) = F ~y1/n) für y E IR

für y > 0,

für y < 0.

für y > 0,

für y < 0.

n > 1 ungerade.

(10) f xn (y) = ~ y(1- n)/n f ~y11n) für y E IR, y ;= 0, n > 1 ungerade.

ad (5): FIXIr(Y) = P{ IX Ir< Y} = P{ lXI < y1/r} für y > 0

= P{ _ 1/r < X < 1/r} y - _y

= P{ X< y1/r}- P{ X< -y1/r}

= F ~y11r) - F ~- y11r) da F X stetig.

Wegen P { I X Ir > 0} = P {X;= 0} = 1-P {X = 0} = 1 folgt

FIXIr(Y) = P{ IX Ir< y} = 0 für y < 0.

ad {6): Nach (5) ist FIXI r höchstens auf der endlichen Menge

E = { y > 0 I y1/r E D} U { y > 0 1- y1/r E D}

nicht stetig-differenzierbar, und für y (/:. E, y > 0 ergibt sich ( vgl. 4.3 (8))

(i) JIXIr(Y) = Fl~r(y) = ~ y(1/r)-1 F jy1/r) + ~ y(1/r)-1 F j-y1/r)

= ~y(1-r)/r[Jx(y1/r) +Jx(-y1/r)].

Setzt manfiXIr auf E durch (i) fort, so ergibt sich die Dichte (6).

ad (9): Fxn(Y) = P{Xn<y} = P{X<y1/n} = F~y11n).

ad {10): Fxn ist höchstens auf der endlichen Menge EU{O} mit E={yly11nED}

nicht stetig-differenzierbar, und für y (/:. E, y ;= 0 ergibt sich

Setzt manfxn auf E durch (ii) fort, so ergibt sich die Dichte (10). D

Page 44: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Verteilungsfunktionen und Dichten 1603016

4.4.3 Log-Normal verteil ung

Beweis von

(4) jz(z)

Die Beho folgt aus 4.4 Satz 1 angewandt auf U (statt X) und g, weil

g'(u) = ßerx+ßu = ßo[g(u)-1'],

g'(g-\z)) = ß 0 [g(g-\z)) -')' J = ß 0 [z-')' J 0

4.4.4 Weibull-Verteilung

Übung!

4.4.5* Erzeugung von Zufallszahlen

Übung!

B 4-15

für z > "(.

D

Page 45: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Verteilungsfunktionen und Dichten 1603016 B 4-16

4.5 Zufallsvektoren 4.5.1 Mehrdimensionale Borel-Mengen

Beweis zu

Außerdem enthält lBn alle offenen und alle abgeschlossenen Teilmengen des IR no

Eine offene Menge A :;= 0 ist darstellbar als abzählbare Vereinigung offener Intervalle

A = U (a,b) a,b E<Qn (a, b) CA

also A E lBno Für abgeschlossenesBist CE offen und in lBn, also ist auch BE lBno D

4.6 Diskrete Zufallsvektoren 4.6.1 Multinomial-Verteilung

Beweis zu

(2) f (x) n

K 1 X n!fl-,opk

k=1 xko k

f ist eine Zähldichte, denn nach dem Multinomial-Satz ist n

n ( n ) xl xK 1 = (p1 + 000 + pK) = xfT x1 0 0 0 xK p1 0 0 opK = xfT fn(x) 0 D

n n

Page 46: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Verteilungsfunktionen und Dichten 16.3.16 B 4-17

4.7 Stetige Dichten für zweidimensionalen Verteilungen

Beweis von

Es ist

(i) P1

((a1,b1] x(a2,b2]) = P{a1 <X1 <b1, a2<X2<b2}

= P{X1

<b1, a2<X2<b2}- P{X

1<a

1, a2<X2<b2},

(ii) P{X1

<b1, a2<X2<b2} = P{X

1<b

1, X2<b2}-P{X1<b1, X2<a2}

= F x(b1' b2) - F x(b1' a2) ,

vgl. ( ii) mit a1

statt b1

Einsetzen von (ii) und (iii) in (i) liefert die Behauptung. D

Beweis von

(8)

Da Toffen ist, gibt es a = (a1, a

2), b = (b

1, b

2) E T mit a < x < b. Nach (7), (2) ist

Da f auf [ a, b] stetig ist, ist die linke (und somit auch die rechte) Seite partiell nach

x1

und x2

differenzierbar. Durch (partielles) Differenzieren ergibt sich (8). D

Page 47: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Verteilungsfunktionen und Dichten 16.3.16 B 4-18

Beweis von

b1 (9) F

1(b

1) =P{X

1 <b

1} = 1 j

1(x

1)dx

1 al

ßl b2

F2(b2)=P{X2<b2}= 1 f2(x2)dx2 mit j 2(x2) = 1 f(x1, x2) dx

1 .

a2 al

vgl. ( 6)

vgl. (7)

Die zweite Behauptung ergibt sich durch Vertauschen der Indizes 1 und 2. D

4.7.1 Zwei-dimensionale Normal-Verteilung

Beweis zu

(2)

Es ist

( i)

1 2 1-e

und durch Einsetzen in (i) ergibt sich die Behauptung. D

Page 48: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Verteilungsfunktionen und Dichten 16.3.16 B 4-19

Beweise zu

(3)

(4) mit

für i = 1, 2.

Daßfeine Dichte ist, d.h. J f( x1, x2) d( x1, x2) = 1, wird hier nicht gezeigt. 1R2

Die Gleichheit in ( 4) ergibt sich aus

[x- J.L]T L'-1 [x- J.L]

1 (x1- tt1)2 2e( x1- tt1)( x2- ft~ (x2-tt2)2

2 2 + 2 1-e al ala2 a2

1 u2 u2 2u1u2 +

1- e2 1 2

Beweis von

(5) L(X.) =N(tt.,a?) z z z für i = 1, 2.

Übung!

D

Page 49: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Verteilungsfunktionen und Dichten 1603016 B 4-20

4.9 Produkte reeller Wahrscheinlichkeitsräume 4.9.2 Allgemeiner Fall: beliebige Wahrscheinlichkeitsräume

Beweise von

(8)

(9)

(10)

(11)

{ 1r 0 E A 0} : = 1r 0-l [A 0] z z z z { ( w1, w

2, 000 , w ) I w 0 E A 0 } E f!Jl

n z z

P{ 1roEAO} = Po(Ao) z z z z n n { 7r 0 E A 0} = A1 x A

2 x 000 x A

0

1 z z n

z= n

n TI Ao 0

0 1 z z=

p { 7rl E Al' 000 ) 7r E A } = TI P{ 7r 0 E A 0} 0 n n °

1 z z

z=

(13) P( n { 7rk EAk}) = TI P{ 7rk EAk} 0 k EK kEK

ad (8), (9):

Es ist { 7r 0 E A 0} = { ( w1, w2

, 000, w ) I w 0 E A 0 } = .f21 Xooox A 0 Xooox .f2 E f!Jl z z n z z z n

und mit für alle k ;= i

lautet (5): P (n1 xooox Ai xooox .an) = P1(.f21) 0 000 ° P/Ai) 0ooo 0 Pn(.f!n)

ad {10):

Es gilt:

II II II

P{ 1roEAO} z z

n w E n { 1roEAO}

i =1 z z

1

woEAO z z

n w E TI Ao 0

0 1 z z= n n

1

für alle i

Po(Ao) z z

D

D

ad {11): P{ 1r1EA1, 000, 1r EA } = P(TIAO) = TIPO(Ao) n n 0

1z 0

1zz vgl. (10) und (5)

z= z= n

= TI P{ 7roEAO} vgl. (9)0 D 0 1 z z z=

ad {13): Mit A 0 : = .f2 0 für alle i \t K ist z z n n { 7rkEAk} = TI Ao

k EK i=l z und aus (5) folgt

P( n { 7rk EAk}) = TI Pk(Ak) k EK kEK

da P( A 0) = 1 für i \t K. z

und mit (9) ergibt sich (13)0 D

Page 50: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Verteilungsfunktionen und Dichten 1603016 B 4-21

4.10 Abzählbare Produkte von Wahrscheinlichkeitsräumen

Beweise von

(11)

(12)

(13)

1r 0 : .f2-----+ .f2 0 ist meßbar bzgl. d und do 0 z z z

P{ 1roEAO} = Po(Ao) für alle AOE d 0o z z z z z z

Po ist das Bildmaß von P unter 1r 0' doho Po= P1r -:-1 = L( 1r .)0 z z z z z

ad {11), {12), {13}: Für beliebiges A 0 E do und A : = .f2 für alle n ;= i ist z z n n

{ 1roEAO} = 7ro-1 [Ao] = {(w) l'>T I woEAO} = TI A E ~ z z z z n nEm z z n E lN n

und somit folgt (11)0 Weiter ergibt sich

P(7ro-1

[Aol) =P{7roEAO} =P( TI Ak) z z z z kElN

z = TI Pk(Ak)

k=l

=Po(A.) z z

Damit gilt (12)0 Und (13) folgt aus (12)0

vgl. (9)

ad (14): Wir setzen n = Max{ k I k E K} und A 0 = .f2 ° für i \t K. Dann folgt z z n

P( n { KkEAk}) = P( n {1roEA}) k EK i =1 z z

da { 1r 0 E A 0} = .f2 für i \t K z z

n TI Po(Ao)

0 1 z z z= vgl. (9)

da P .(A.) = 1 für i \t K z z

und mit (12) ergibt sich (14)0 D

Page 51: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Stochastische Unabhängigkeit von Zufallsvariablen 16.3.16

5. Stochastische Unabhängigkeit von Zufallsvariablen

Beweis der Äquivalenz von

(U1) Für beliebige B1

E d{, ... , B n E d~ sind die Ereignisse

{X1

EB1}, ... , {Xn EBn} stochastisch unabhängig.

(U2) Für beliebige B1

E d{, ... , B n E d~ gilt n

P{X1 EB1' ... ,X EB } = TI P{X.EB.} 0 n n . 1

z z z=

(U1) =? (U2):

(U2) =? (U1):

Folgt sofort mit 3.2 Def. 2 für K =I:= {1, ... , n}

Für 0 ;= K C I setze B. = .f2 ~ für i \t K. Dann folgt z z

n = TI P{X.EB.}

0 1 z z z= nach (U2)

B5-1

= TI P{Xk E Bk} kEK

da P {X. E .f2!} = 1. D z z

Beweis von

Satz: Für i = 1, ... , n sei X.: .f2-----+ IR eine reelle Zufallsvariable mit Verteilungs­z funktion F X.' und F X sei die Verteilungsfunktion des Zufallsvektors

2

X= (X1, ... ,Xn). Dann sind X

1, ... , Xn genau dann stochastisch unabhängig wenn

n P{X1 <a1, ... ,Xn <an} =.TI P{Xi<ai}

z=1 bzw.

für alle a1

, ... ,an E.IR

Der Satz ist ein Spezialfall von 5.3 Satz 2. Es wird dort jedoch nur eine Rich­

tung gezeigt: aus der Unabhängigkeit folgt (U) F" D

Page 52: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Stochastische Unabhängigkeit von Zufallsvariablen 16.3.16 B5-2

Beweis von

(1) (X ) -r-.T stochastisch unabhängig {} n nEm

Für jedes n E W sind X1, ... , Xn stochastisch unabhängig.

ad "::::}": Gilt nach Definition 2.

ad "~": Für endliches 0 :;= K C W sein= Max K, also K C {1, ... , n}.

Nach Vor. sind X1, ... , Xn stochastisch unabhängig und somit ist auch die

Teilfamilie (X k) k E K stochastisch unabhängig. D

Beweis von

(2) A1, ... , An stochastisch unabhängig {}

I , ... , I stochastisch unabhängig. Al An

Übung!

Page 53: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Stochastische Unabhängigkeit von Zufallsvariablen 16.3.16 B5-3

5.1 Stochastische Unabhängigkeit diskreter Zufallsvariablen

Beweis von

Satz: Diskrete Zufallsvariablen X1, ... , Xn sind gerrau dann stochastisch

unabhängig, wenn gilt n

(5) TI f.(x .) 0 1 z z z=

bzw.

n TI P{X. = x .} für alle (x

1, ... , xn) E f2'.

0 1 z z z=

n (6) x1, ... , xn stochastisch unabhängig L(X1' ... ,X ) = TI L(X.). n .

1 z

z=

(U2) ~ (5): Wähle B. = { x .}. z z

(5) ~ (U2): Mit den Rand-Verteilungen P X , ... , P X und der gemeinsamen Vertei­l n

lung P X von X lautet (5)

(5) I

Dies ist nach 3.3 (2) äquivalent dazu, daß P X das Produktmaß von P X, ... , P X ist: 1 n n

(5) II p X = .TI p X. 0

z=1 2

Für das Produktmaß PX gilt nach 3.3 ( 4) für beliebige B. C f2 ~ z z

bzw.

n P{X

1EB

1, ... ,X EB} = TIP{X.EB.},

n n . 1

z z z=

d.h. (U2) gilt.

ad (6): Folgt aus dem Satz und der oben gezeigten Äquivalenz (5) {} (5) 11. D

Page 54: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Stochastische Unabhängigkeit von Zufallsvariablen 16.3.16 B5-4

5.1.1 Randomisierte klinische Vergleichsstudie

Beweis von

(3) P{Y=1IX=j} = P{Y=1} für j = 0, 1.

ad ))X) Y stochastisch unabhängig ::::} (3)":

P{Y= IX="} = P{Y=1)X=j} 1 J P{X=j}

P{Y=1} ·P{X=j} = P{Y= } P{X=j}

1

ad );(3) {} X) Y stochastisch unabhängig 11:

(3) {} P{Y= 1) X=j} = P{Y=1} ·P{X=j} für j = 0, 1

{} {Y = 1 }) {X= j} stochastisch unabhängig für j = 0, 1

{} {Y = k }) {X= j} stochastisch unabhängig für j, k= 0, 1, vgl. 3.2 ( 4)

{} X, Y stochastisch unabhängig vgl. (U2). D

Page 55: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Stochastische Unabhängigkeit von Zufallsvariablen 16.3.16 B5-5

5.1.2 Geometrische Verteilung

Beweise zu

(3)

(4)

k P{Y=k} = p(1-p) für k = 0, 1, ...

P { Y = oo} = P {X = 0 für alle n E W } = 0 . n

ad (3): P{Y=k} = P{X1 =0, ... Xk=O,Xk+1 =1}

= P{X1 = 0} · ... ·P{Xk = 0} ·P{Xk+l = 1}

k = q ·p wobei q = 1 - p.

ad (4 ): A = {X.= 0 für alle i = 1, ... , n} ist eine fallende Folge mit n z

n P(A ) = TI P{X.=O} = t

n . 1

z z=

wobei q = 1 - p.

Also P {X = 0 für alle n E W } = P( n A ) n nElN n

lim P(A ) n---+oo n

lim qn = 0. n---+oo

Beweis zu

Stetigkeit von oben

D

(5) g(k;p) := P{k} = p(1-p)k für k = 0, 1, ...

g definiert eine Zähl-Dichte, weil für q = 1- p gilt 00

k 1 2:: q =-k=O p

Beweise zu

P{Y<k}

(geometrische Reihe).

1 kt1 -q ' P{Y>k}

P{Y>k+ll Y>l} = P{Y>k}.

k q ' (8)

(9)

(10) p = P{Y=k I Y>k-1} = P{Y=k I Y>k}

Übung!

D

für kE W.

Page 56: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Stochastische Unabhängigkeit von Zufallsvariablen 16.3.16 B5-6

5.2 Unabhängigkeit bei stetigen Zufallsvariablen mit Dichten

Beweis von

Satz: Reelle Zufallsvariablen X. mit Dichten f. für i = 1, ... , n sind gerrau dann z z stochastisch unabhängig, wenn das Produkt f: IR n-----+ [ o, oo) der Dichten,

definiert durch n

(1) f(x1, ... ,x)== Tlf.(x.)

n . 1

z z z=

eine Wahrscheinlichkeitsdichte für den Zufallsvektor X= (X1, ... ,Xn) ist.

Aus didaktischen Gründen betrachten wir zuerst den Spezialfall n = 2, der für (auf

dem Träger) stetige Dichten unter Verwendung (des hier nicht bewiesenen) Satzes

aus 5 relativ einfach beweisen läßt. Der Beweis des allgemeinen Falles verwendet

das Lebesgue-Integral, gilt aber auch für das Riemann-Integral, wenn man (auf

dem Träger) stetige Dichten f. voraussetzt. z

Spezialfall: n = 2

Ist T. = ( a ., ß .) C IR der Träger von X., so hat X den Träger T = T1

x T2

= ( a., ß) mit z z z z

a. = ( a 1, a 2), ß = (ßl' ß2) E IR 2. Wir setzen voraus, daß fi auf Ti stetig ist. Dann ist

das Dichteprodukt

auf ( a., ß) stetig. f ist eine Dichte, weil

ßl ß2 J J f(x1, x2) dx2 dx1

Ql Q2

1·1 1.

Page 57: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Stochastische Unabhängigkeit von Zufallsvariablen 16.3.16 B5-7

ad: x1, x2 stochastisch unabhängig

Nach 5 Satz ist die Verteilungsfunktion F X von X durch die Verteilungsfunktionen

F x. von Xi wie folgt gegeben: 2

Da F X. auf Ti differenzierbar ist mit der Ableitungfi ergibt sich für (x1, x

2) E T

2 2

8x~8x2 FX(x1,x2) = FJr1(x1) ·FJr

2(x2) = f1(x1) -f2(x2) = f(x1,x2)

Nach 4.7(8) istfeine Dichte von X.

ad: fistDichte von X= (X1,X

2) ::::} X

1, X

2 stochastisch unabhängig

Für die Verteilungsfunktion F X von X ergibt sich dann für (x1, x

2) E IR 2

Xl X2

FX(x1,x2) = 1 1 f1(u1) -fiu2) du2du1 -00 -00

Nach 5 Satz sind X1

und X2

stochastisch unabhängig. D

Allgemeiner Fall: n beliebig

Wir zeigen zuerst, daß durch (1) eine Dichte definiert ist. Ist ( a ., ß .) C IR der Träger z z

von X., so hat X den Träger ( a, ß) C IR n mit a = ( a .), ß = (ß .) E IR n_ Für das Dieh-z z z

teprodukt f gilt für beliebige ai < ai < bi < ßi (i = 1, ... , n)

bl bn (i) 1 . . . 1 f(x1, ... , xn) d(x1, ... ,xn)

al an

bl bn ( bl ) ( bn ) 1 . . . 1 j 1(x1) · ... -fn(xn) dxn ... dx1 = 1 j1(x1) dx1 · ... · 1 fn(xn) dxn . al an al an

ß. 2

Speziell für a. = a. und b. = ß. folgt aus z z z z 1 f.( x.) dx. = 1

z z z

ßl ßn (Xi

1 . . . 1 f(x1, ... , xn) d(x1, ... ,xn) = 1 d.h. f ist eine Dichte auf ( a, ß).

Page 58: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Stochastische Unabhängigkeit von Zufallsvariablen 16.3.16

ad: X1, ... , Xn stochastisch unabhängig ::::} f ist Dichte von X

Für beliebige a = (a .), b = (b .) E IRn mit (a ., b .] C ( a ., ß .) gilt z z z z z z

n TI P{a.<X.<b.} .

1 z z- z

z= n b· 2

nach Vor .

TI J f.( x.) dx. i=1 a· z z z

da f. Dichte von X. z z

2

bl J vgl. (i).

al an

Also ist f eine Dichte von X

ad: f ist Dichte von X ::::} xl' ... , xn stochastisch unabhängig

Nach 5 Satz 1 genügt es, für beliebige b1, ... , bn E.IR zu zeigen

n ( ii) P{X1 <b1, .. ,Xn <bn} =.TI P{Xi<bi}

z=l n

P{a1<X1<b1, .. ,an<Xn<bn} = iDlP{ai<Xi<bi}'

B5-8

bzw.

da (a.,ß.) der Träger von X. ist. Nunistfeine Dichte von X und nach (i) gilt z z z

bl bn P{ a 1 <X1 < b1, .. ,an <Xn < bn} J . . . J f(x1, ... , xn) d(x1, ... ,xn)

Ql an

= ( /' JN dxl) · ··· · ( /n fn(xn) dxn) al an

da f. Dichte von X .. D z z

Page 59: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Stochastische Unabhängigkeit von Zufallsvariablen 16.3.16 B5-9

5.2.1 Normalverteilte Zufallsvariablen

Beweis von

(1) xl' ... , xn stochastisch unabhängig L(X1, ... ,X ) = N (p,,E).

n n

Die Dichte f. von X. ist gegeben durch z z

( i) f.(x.) = z z 1 . {-l(xi-f-li)2} exp 2 a. .

a.~ 2 z

Nach 5.2 Satz sind X1, ... , Xn gerrau dann stochastisch unabhängig, wenn

n ( ii) f(x

1, ... , x ) : = TI f.(x .)

n . 1

z z z=

eine Dichte von X= (X1, ... ,Xn) ist. Nun ist

( iii) n 1 Tif.(x.) = /2 . z z (2 )n z=1 a1 ... an 1r

{ 1 ;.., (xi-f..li )2} ·exp -- u --2 . ai

z=1

Wegen 2 2 Det E = a1 · ... ·an

ist f = TI f. die Dichte von N (p,, E) aus 4.8.1. Also sind x1, ... , X gerrau dann sto-. z n n

chastis~h unabhängig, wenn L(X) = N (p,, E) gilt. n

Page 60: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Stochastische Unabhängigkeit von Zufallsvariablen 16.3.16 B 5-10

5.3 Unabhängigkeit bei Zufallsvektoren

Beweis von

Satz 1: Für i = 1, ... , n sei X. : .f2-----+ IR ni ein Zufallsvektor und g. :IR ni-----+ IR mi z z

eine meßbare Abbildung. Dann gilt:

(1) ... , X n

stochastisch unabhängig

Wir ze1gen den Satz sogar für beliebige Räume mit a-Algebren (D', d') und

(D", d'~ an Stelle von (IRni, lBni) und (IRmi, lBmi). Für beliebige B.E d" gilt z

P{ g1(X1) EB1 , ... , gn(Xn) EBn}

1:t 1:t n TI P{ X.Eg~1[B.]}

0 1 z z z z= P{ X1 Eg~

1[B1 ] , ... , Xn Eg~1[Bn]} nach Vor.

n TI P{g.(X.) EB.}

0 1 z z z z= Also sind g

1(X

1), ... , gn(Xn) stochastisch unabhängig. D

Page 61: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Stochastische Unabhängigkeit von Zufallsvariablen 16.3.16 B 5-11

Beweis von

Satz 2: Für i = 1, ... , n sei X. : .f2-----+ IR mi ein m .-dimensionaler Zufallsvektor mit z z

Verteilungsfunktion F X.' und F X sei die Verteilungsfunktion des Zufallsvek-2

tors X= (X1, ... ,Xn) der Dimension m +"Dann sind X

1, ... , Xn genau dann stocha-

stisch unabhängig wenn gilt n

(2) Fx( a1, ... , a ) = TI Fx.( a .) n i=l 2 z

Wir zeigen nur ))X1, ... , Xn stochastisch unabhängig ::::} (2)". Für a = (a

1, ... ,an) ist

n TIP{X.<a.} nach Vor. . 1 z z z= n

.TI F x.(a) . z=l 2

Beweis von

Satz 3: Für stochastisch unabhängige Zufallsvektoren X1, ... , Xn und Y

1, ... , Y m

auf demselben Raum .f2 (aber nicht notwendig von gleicher Dimension) sind

auch die beiden Zufallsvektoren X= (X1, ... , Xn) und Y = (Y

1, ... , Y m) stocha­

stisch unabhängig.

Folgerung: Für meßbare Abbildungeng: IR k-----+ IR k' und h: IRl-----+ IRl' (mit ge­

eignetem k und Z) sind auch die beiden Zufallsvariablen g(X) und h(Y) stocha­

stisch unabhängig.

Nach Satz 2- angewandt auf X und Y (mit n = 2) -ist nur zu zeigen

( i)

Nach Satz 2- angewandt X1, ... , Xn) Y

1, ... , Y m- folgt

n m (ii) F(X, Y)(a, b) = }]

1 F Xi(a) · k 1]

1 F yk (bk) .

D

Da sowohl die Teilfamilie (X1, ... , Xn) als auch (Y

1, ... , Y m) stochastisch unabhängig

ist, ergibt sich mit Satz 2 n

( iii) Fx(a)= .TI Fx.(a), z=1 2

und mit (ii) ergibt sich (i).

Die Folgerung erhält man aus der Unabhängigkeit von X und Y mit Satz 1. D

Page 62: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Faltungen von Verteilungen 19.11.15

6. Faltungen von Verteilungen

6.1 Faltung diskreter Verteilungen

Beweis von

(3) P{X+Y=z} 2:= P{X=x} ·P{Y=z-x} xETx

2:= P{Y=y} ·P{X=z-y} yE Ty

Es ist P { X+ Y = z} = P { Y = z-X}

p ( u { X= X ' y = z- X}) xETx

B6-1

für zE Tz.

2:= P{ X= x, Y = z- x} da disjunkte Vereinung xETx

2:= P{ X= x} · P{Y =z- x} da X, Y unabhängig xETx

Die zweite Darstellung in (3) ergibt sich durch Vertauschung von X mit Y. D

6.1.1 Binomial-V erteil ung

Beweis von

(1) B(n,p) = B(l,p) * .... * B(l,p) t ... n-mal ... t

oder mit Zufallsvariablen formuliert

(1)' Für stochastisch unabhängige X1, ... , Xn mit B(l,p)-Verteilung gilt:

n cL( l:=X.) = B(n,p).

0 z z=l

1. Beweis: Die Beh. (1) 1 folgt direkt aus den Überlegungen in 3.3.1.

2. Beweis: Beh. (1) ist ein Spezialfall von 6.1.2 (1) für Multinomial-Verteilungen. D

Page 63: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Faltungen von Verteilungen 19.11.15

Beweis von

(Die Verallgemeinerung für Multinomial-Verteilungen folgt in 6.1.2)

Seien

so daß

X.~ B(1,p) z

Y. ~ B(1,p) J

für i = 1, ... , n1

für j = 1, ... , n2

x1, .... ,X ' Y1, ... , y stochastisch unabhängig. Aus (1) I folgt nl n2

B6-2

Die beiden Zufallsvektoren X = (X1, ... , X ) und Y = (Y

1, ... , Y ) sind nach 5.3 Satz

nl n2

3 stochastisch unabhängig und nach der Folgerung aus dem Satz sind auch X+ und

Y + stochastisch unabhängig. Also ist

und mit (i) folgt die Behauptung. D

Page 64: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Faltungen von Verteilungen 19.11.15 B6-3

6.1.2 Multinomial-Verteilung

Beweis von

(1)' Für stochastisch unabhängige X1

, ... , Xn mit MK(1,p)-Verteilung gilt: n

oi(_l:XJ = MK(n,p). z=1

Induktion über n. Für n = 1 ist nichts zu zeigen. Zum Induktionsschritt n f-----t n + 1: n

Nach Induktionsvor. gilt Y: = _2:: Xi "' MK(n,p) z=l

und Y ist stochastisch unabhängig von Xn+l "'MK(1,p) nach 5.3 Satz 3 (Folgerung).

Der Träger von y ist Tn = {X= (xl, ... , xK) E w~ I X+= n}

und der Träger von Xn+l ist die Menge T1

= { e1, ... , eK} der K Einheitsvektoren.

Also ist der Träger von Y +X n+ 1

T n + T1 = { x + e I x E T n' e E T1 } T n+ r

Für z E T n+ 1 gilt nach 6.1 (3) K

P{ Xn+l + Y = z} = k'fl P{Xn+l = ek} ·P{ Y = z- ek}

f p ·[n! TI 1 '·pzl-8kll k=l k l=l (zz- 8kz)· l

da z E T n+ 1 ::::} z + = n + 1. D

Page 65: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Faltungen von Verteilungen 19.11.15 B6-4

Beweis von

Der Beweis verläuft völlig analog zur Binomialverteilung, d.h. zu 6.1.1 (2).

Seien

so daß

( i)

Xi "'MK(1,p)

Yj "'MK(1,p)

für i = 1, ... , n1

für j = 1, ... , n2

x1, .... ,X ' Y1, ... , y stochastisch unabhängig. Aus (1) I folgt nl n2

Die beiden Zufallsvektoren X = (X1, ... , X ) und Y = (Y

1, ... , Y ) sind nach 5.3 Satz

nl n2

3 stochastisch unabhängig und nach der Folgerung aus dem Satz sind auch X+ und

Y + stochastisch unabhängig. Also ist

und mit (i) folgt die Behauptung. D

Beweis von

(3) für k = 1, ... ,K.

Wir betrachten zuerst n = 1:

Xk kann nur Werte aus {0,1} annehmen und L(Xk) =B(1,pk) folgt aus

P{Xk=1} = 2:::: P{X=x} = P{X=ek} = pk xET1 ,xk=1

Für beliebiges n seien x(1), ... , x(n) unabhängig mit MK(1,p)-Verteilung. Nach 5.3

Satz 1 und dem Fall n = 1 folgt

X~), ... , x1n) stochastisch unabhängig mit B(1,pk)-Verteilung.

Mit den Faltungseigenschaften 6.1.1 (1) und 6.1.2 (1) ergibt sich

X·- ~ x(i) "'M (n p) X ·- ~ x(i) ,..__ß(n p ) ·- u K ' ' k·- u k ' k i=l i=l

und die Beh. folgt. D

Page 66: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Faltungen von Verteilungen 19.11.15 B6-5

Beweis von

(4) P{X1 + ... +XK=n} = 1.

Es ist: P{X1 + ... +XK=n} = P{(X1 , ... ,XK)ETn} 1. D

6.1.3 Faltung von Poisson-Verteilungen

Beweis von

(1) Pois(p,1

) * Pois(p,2

) = Pois(p,1 + p,

2).

Übung!

Page 67: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Faltungen von Verteilungen 19.11.15

6.1.4 Negative Binomial-Verteilungen als Faltungen geometrischer Verteilungen

Beweis von

(2)

B6-6

Für n + k = 1, d.h. n = 1 und k = 0, gilt (2) trivialerweise (vgl. auch 5.1.2), weil

Sei jetzt n + k > 1. Dann gilt k+n-1

( i) Z== 2:: X."' z i=1

B([k + n-1 ],p)

( ii) xk+n und z sind stochastisch unabhängig

Also ist: P { Y = k } P { X k+n = 1, Z = n -1 }

P{Xk+n=1} · P{Z=n-1}

p (k + n-1) n-1 k

· n-1 p q

vgl. 6.1.1

5.3 Satz 3 Folgerung.

vgl. ( ii)

vgl. (i), q = 1- p.

Bemerkung (auch zum Namen "negative Binomialverteilung'?

Definiert man die negative Binomialverteilung auf W0

durch (2), so ist zu zeigen

(iii) 1 = 'f ( n + ~- 1 ) pn l bzw. p -n = 'f ( n + ~- 1 ) l k=O k=O

(Binomial-Reihe)

und mit folgt ( iii).

Zur allgemeinen Definition des Binomialkoeffizenten vgl. man 9.8.2 (17)-(18) D

Page 68: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Faltungen von Verteilungen

Beweis von 00

(3) P{l:X.<n} 0 1 z z=

8.8.16

0.

FürfestesN EW:sei AN= {XN+n=OfürallenEW}

Aus 5.1.2 (5)- angewandt auf die Folge (XN+n)nElN- ergibt sich P(AN) = 0.

B6-7

Es folgt: P( U AN)= lim P(AN) = 0, NE lN N---+oo

Stetigkeit von unten, da (AN) aufsteigend.

00

Nun gilt: 2:: X.< n 0 1 z z=

::::} es gibt ein NE W mit XN +n = 0 für allen E W

00

Also P{l:X.<n} < i=l z

0.

Beweis von

(4) Y<k

ad "::::}": Für Y < k gibt es ein l E {0, ... , k} mit Y = l und nach (1) ist

X1 + ... +Xz+n = n. Wegen Xz+n+l + ... + Xk+n > 0 folgt

Xl + ... +Xk+n > n.

ad "~": Für X1 + ... +Xk+n > n ist

( i) X.=1. z

mit

D

Wegen Xz E {0, 1} ist n = X1 + ... + Xi < i, also n < i < k + n. Also gibt es em

l E {0, ... , k} mit i = l + n. Nach (i) und (1) ist Y = l und somit Y < k. D

Beweis von

(5) P{NB(n,p) < k} = P{B(k+n,p) > n}

Wir geben zwei Beweise an. Der erste Beweis verwendet die Beziehung ( 4) und der

zweite nur die Definition der Zähldichte ( 2) von NB( n, p). Es sei wieder q = 1- p.

1. Beweis: Aus L(Y) = NB(n,p), L(X1 + ... +Xk+n) = B(k+n,p) und (4) folgt (5).

Page 69: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Faltungen von Verteilungen 8.8.16

2. Beweis: Induktion über k

Für (beliebige) Zufallsvariablen U ""'NB(n,p) und Vk ,..__,ß(k+n,p) ist zu zeigen

( i) P{U<k} = P{Vk>n}

Für k = 0 gilt (i) wegen

P{U<O} = P{U=O} = pn,

P{V0>n} = P{V

0=n} =pn nach (2).

B6-8

Für den Induktionsschritt k 1-----+ k + 1 verwenden wir em Vk+1

= Vk + W wobei

W'"'"' B(1, p) stochastisch unabhängig von Vk ist. Nach Induktionsvoraussetzung ist

(ii) P { U < k + 1} = P { U < k} + P { U = k + 1} = P {V k > n} + P { U = k + 1}

= q·P{Vk>n} + p·P{Vk>n} +P{U=k+1}.

Andererseits gilt

P{Vk >n-1} =P{Vk =n-1} +P{Vk >n} und somit

(iii) P{Vk+1 > n} = P{Vk + W> n}

=P{W=O, Vk >n}+P{W=1, Vk >n-1}

= q·P{Vk >n}+ p·P{Vk >n-1}

= q·P{Vk >n}+ p·P{Vk =n-1} + p·P{Vk >n}.

Für die Gleicheit der linken Seiten in (ii) und (iii) bleibt also zu zeigen

( iv) P { U = k + 1} = p · P {V k = n- 1}.

Nach (2) ist

p { U = k + 1} = ( ~ + ~) pn l+ 1 und

P { V _ _ 1} _ ( n + k) n-1 k+ 1 k-n - n-1 P q woraus (iv) folgt. D

Page 70: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Faltungen von Verteilungen 8.8.16 B6-9

Beweis von (unter Verwendung von (8))

(7)' Für stochastisch unabhängige Y1, ... , Yn mit Geo(p)-Verteilung gilt:

n cL( 2: Y.) = NB(n,p).

0 z z=l

Induktion über n. Für n = 1 ist nichts zu zeigen. Zum Induktionsschritt n f-----t n + 1:

n Nach Induktionsvor. gilt Z: = 2: Y. "' NB(n,p)

0 z z=l

und Z ist stochastisch unabhängig von Y n+ 1

"' Geo(p) nach 5.3 Satz 3 (Folgerung).

Der Träger von Z + Yn+1

ist W0 + W

0 = W

0, und für k E W

0 ist nach 6.1 (3)

00

P { Z + Y n+ 1 = k } = i ~ 0

P { Y n+ 1 = i } · P { Z = k- i }

k 2: P{ Y +1 =i} · P{Z=k-i} .

0 n

da P{Z< 0} = 0 z =

k

2: z pq ( n + k- i-1) n k-i

· n-1 p q i =0

vgl. (6). D

Page 71: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Faltungen von Verteilungen 8.8.16 B 6-10

Beweis von

k 0

2: c~~;1) i=O

(8)

Induktion über k.

k = 0: trivial, da(~) = 1.

k 1-----+ k + 1: k+l 0 2: (z+n-1)

n-1 i=O

(k!n) + (~~~)

(k+~+n)

nach Induktions-Vor.

vgl. ( i) unten.

Der Vollständigkeit halber zeigen wir noch für a, r E W0

Dies ergibt sich unter Verwendung absteigender Produkte (vgl. 9.8.2 (17)) wie folgt

(a)r-1 (a)r -- +­(r-1)! r!

(a)r-1· r + (a)r-1 · (a-r+l) r!

(a+l) · (a)r-1 (a+l)r = . D r! r!

Beweis von

Der Beweis verläuft völlig analog zur Multinomialverteilung, d.h. zu 6.1.2 (2).

Seien X.~ NB(1,p) z

für i = 1, ... , n1

Yk ~ NB(1,p) für k = 1, ... , n2

sodaß x1, .... , X ' Y1, ... , y stochastisch unabhängig. Aus (5) I folgt nl n2

( i) L(X +) = NB(nl'p),

L(X + + Y +) = NB([n1 + n 2], p).

Da die beiden Zufallsvektoren X+ und Y + nach 5.3 Satz 3 (Folgerung) stochastisch

unabhängig sind folgt die Behauptung mit (i), weil

( ii) D

Page 72: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Faltungen von Verteilungen 8.8.16 B 6-11

6.2 Faltung stetiger Verteilungen mit Dichten

Beweis von

(1) ( ax +ay, ßx +ßy),

ad T +T c T '': " X Y Z

ax<x<ßx, ay<y<ßy

( i) ay < z-ax,

Die beiden Intervalle (z- ßx,z- ax) und (ay,ßy) sind daher nicht disjunkt: sonst

müßte z- ax < ay oder ßy < z- ßx gelten - im Widerspruch zu (i). Also gibt es ein

x E T X und ein y E T Y mit z- x = y. Damit ist z = x + y E T X+ T y·

Beweis von

(2) für zE Tz.

Da wir hier Dichten f X und f Y betrachten, die auf dem jeweiligen Träger stetig sind,

wollen wir (2) nur unter der zusätzlichen Voraussetzung beweisen, daß die durch (2)

definierte Funktion fz stetig auf Tz ist. - Sei f die Dichte von (X, Y), die außerhalb

des Trägers T = T x x T Y identisch 0 ist. Dann gilt für die Verteilungsfunktion Fz

von Z=X + Y:

Page 73: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Faltungen von Verteilungen

( i) Fia) = P{X+Y<a}

J f(x,y) d(x,y) {(x,y) I x+y::::; a}

II {(x,y) ly::::;a-x}

_t ( _Tf(x,y) dy) dx

+oo( a ) _L _L f(x,z- x) dz dx

ßx a

J ( J f( x, z- x) dz ) dx rxx rxz

a ßx = J ( J f( x, z- x) dx ) dz

rxz rxx

8.8.16 B 6-12

für a E IR

Veranschaulichung: Graphik!

Substitution z=x+y, y=z-x

f(x,z-x) = 0

z<a ==a +a - Z X Y' ax<x ::::}

z-x<a ::::} - y f(x,z-x) = 0

Vertauschung der Integrale (Satz von Fubini)

Die Herleitung von (i) gilt auch ohne die Voraussetzung, daß X und Y stochastisch

unabhängig sind, was später beim Beweis von 6.3 (1) verwendet wird. Wegen der sto­

chastischen Unabhängigkeit ergibt sich aus 5.2 Satz jetzt

a

Fia) = J fiz) dz mit az

und mit ( i) folgt

ßx fiz) = J fx(x) -fy(z- x) dx

ax

Die Dichte von Z ist daher auf Tz= (az,ßz) gegeben durch F; =fz· Die Darstellung

( 2) gilt sogar auch für z < a z bzw. z > ß z = ß x + ß Y' weil das erste Integral dann = 0,

ist: für a < x < ß folgt z- x < a bzw. z- x > ß und somit ~(x, z- x) = 0. x- - x - Y - Y J'

Durch Vertauschen von X mit Y ergibt sich, daß auch die zweite Darstellung von fz

in (2) die Dichte Fz' von Z ist, und somit beide Darstellungen in (2) übereinstim­

men. D

Page 74: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Faltungen von Verteilungen 808016

6.2.1 Faltung von Normal-Verteilungen

Beweis von

(1) mit

Seien X 0 ,.....__ N(p, 0' a?) stochastisch unabhängig für i = 1, 20 z z z

Spezialfall: Aus der Dichte von X 0

z

( i) f.( x) = -1- 0 exp {-l 0 x~ } für i = 1, 2

z a. l27r 2 a. 2y L.,J( 2

ergibt sich mit 6.2 ( 2) die Dichte f z von Z = X1 +X

2 auf Tz= IR zu

+oo (ii) fiz) = J j

1 (x) -j

2(z- x) dx

-00

+oo 1 { 1 [ x

2 ~]} 0 ex -- - + dx 2 1r a a J P 2 a 2 a 2

1 2 -00 1 2

Wir betrachten die Substitution

Mit (iii)

folgt

x2 (z-x) 2

= 2 + 2 vgl. (iii)o a1 a2

Also: +oo

-1- 0 J exp {-l [ u 2 + z ~ J } du

21ra _00

2 a

+oo ~ 0 exp{-l ~} 0 J - 1

- exp{-l u 2} du

a y'21r 2 a 2 _ 00

y'27r 2

+oo II

J cp(u) du= 1 -00

Also ist fz die Dichte von N(O, a 2 ), doho (1) gilt im Spezialfall p,

1 = p,

2 = 00

B 6-13

Page 75: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Faltungen von Verteilungen 808016 B 6-14

Allgemeiner Fall:

Für i = 1, 2 sind U 0 : = (X 0 -p, 0) "' N( 0, a ?) stochastisch unabhängig (5.3 Satz 1) und z z z z

aus dem Spezialfall folgt

Also: vgl. 4.4.1 (7)0

Beweise von

(2) Für a, ß E IR mit ß ;= 0 gilt:

(3) Für stochastisch unabhängige X1, 000, X mit L(Xo) =N(p,o,a?) für alle

n z z z n n n

i = 1, 000, n gilt: cL( 2: X 0) = N( 2: p, 0' 2: a?) 0 0 z 0 z 0 z z=l z=l z=l

ad (2): Mit 4.4.1 (7) ergibt sich:

* la [(a+ßX)- (a+ßp,)] = ; [X-p,] "'N(0,1)

* (a+ßX) "'N([a+ßp,], [ßa] 2 )0

ad {3): Folgt per Induktion aus (1)0

D

D

Page 76: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Faltungen von Verteilungen 8.8.16 B 6-15

6.2.2 Faltung von Exponential- und Gamma-V erteil ungen

Beweis von

(4) c · Gam( a,ß) = Gam( a,cß) für c>O.

Für X "' Gam( a,ß) ergibt sich die Dichte von c X nach 4.4.1 ( 6) zu

f (x) = lf (~) cX c X\c ~ ·!(~I a~ß) für x> 0

1_ ·-1 ·ß-a(~)a- 1 exp{ -xj(cß)} c r(a) c

r(a) ·(cßfaxa-1exp{ -xj(cß)}

= f(x I 0!1 cß).

Also ist cX "'Gam( a,cß). D

Beweise zu

(6) für z> 0

f a ist für a < 1 eine streng fallende Kurve und

für a > 1 eine schiefe Glockenkurve mit einem Maximum in z = a-1. max

Es ist ! ' ( ) 1 [( ) a-2 -z a-1 -z] z = - a-1 z e - z e Q r(a)

- ·z e · a-1 z -1 1 a-1 -z [( ) -1 J r(a)

fa(z) · [(a-1) z- 1 -1 J.

Füra<1ist: [(a-1)z-1 -1]<0

und somit ist f streng fallend. a

f' (z) < 0 Q

Füra>1gilt: f~(z)~O {} [(a-1)z- 1 -1] ~ 0

für z> 0

für z> 0

{} z == (a-1) ~ z für z>O. max <

Also ist f auf (0, z ) streng wachsend und auf (z ,oo) streng fallend mit ei-a max max

nem Maximum in z D max

Page 77: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Faltungen von Verteilungen

Beweis von

(9)

Übung!

8.8.16 B 6-16

Page 78: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Faltungen von Verteilungen

Beweise von

(11) P{ Gam(n, -A-1) < a}

Es ist: P{ Gam(n, -A-1) < a}

und P{ Pois(a-A) > n}

Zu zeigen bleibt für z: = a A

8.8.16

P{ Gam(n, 1) < a-A}

n-1 1 -a>. 'I\' 1 ( ')i - e · u ""'! a /\ z 0

i=O

P{ Pois(a-A) > n}

P { ,\-1 · Gam( n, 1) < a}

P{ Gam(n, 1) < a-A}

1 - P { Pois( a A) < n- 1}

n-1 1 -a>. 'I\' 1 ( ')i - e · u ""'! a /\ .

0 z 0

z=O

n-1 -z 'I\' 1 i 1 - e · u ""'! z

0 z 0

( i) P { Gam( n, 1) < z} z=O

Der Beweis erfolgt per Induktion·

n = 1: Für Gam(1, 1) = Expo(1) ist

für a > 0.

vgl. (4)

P{ Expo(1) <z} = 1- e-z vgl. 4.3.2, d.h. (i) gilt.

Induktionsschritt n f-----t n + 1 z

P { Gam( n + 1, 1) < z} = J f( x In+ 1, 1) dx 0

z 1.. Jxne-xdx n!

0

da T(n+1) = n!

Durch partielle Integration mit g(x) = xn und h(x) =- e-x ergibt sich z

P{Gam(n+1,1)<z} = ~![-xne-x]~ +~! Jnxn-1 e-xdx 0

1 n -z --z e n!

1 n -z --z e n!

z

+ J f(xl n,1) dx 0

+ P { Gam( n, 1) < z}

n-1

B 6-17

1 n -z --z e n! -z 'I\' 1 i + 1- e · u ""'! z nach Ind.-Vor.

z.

n . -z 'I\' 1 z 1-e ·u""'!z. z 0

i=O

i=O

D

Page 79: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Faltungen von Verteilungen 808016 B 6-18

6.2.3 Poisson-Verteilung und Poisson-Prozeß

Beweise von

(3)

(4)

(5)

Max { k E W 0 I S k < t} 0

sk < t

sk < t < sk+l 0

ad {3): Aus Tk > 0 folgt 50

< 51 < 52< 000 <Sn' und somit gilt (3)0

ad (4): Nach (3) gilt SX < to Da die Folge (Sn) monoton wachsend ist, folgt t

Die Umkehrung"~" in (4) folgt sofort mit (3)0

ad (5): X =k t

Beweis von

(6)

Für n E W gilt:

(i) P{ Xt > n} = P{ Sn< t}

und

und

für t> 0 0

vgl. (4)

vgl. (4)0

= P{ Gam(n, -A-1) < t}

= P{ Pois(t-A) > n}

daS "'Gam(n, -A-1), vgl. 6.2.2 (10) n

vgl. 6.2.2 (11)

Hieraus folgt die Behauptung, weil für 1-L = t-A

P{Xt=n} = P{n<Xt<n+l}

= P{ Pois(f-L) > n}- P{ Pois(f-L) > n+l} = P{ Pois(f-L) = n} für nEW

D

Page 80: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Faltungen von Verteilungen 8.8.16

6.2.4 Elementare Eigenschaften der Gammafunktion

Beweise von

(2)

(3)

(5)

r(x+1) X· T(x)

T(l) = 1

r(~) = v;

für x> 0.

ad (2): Partielle Integration mit g( t) = tx und h( t) =- e- t liefert 00 00 00

T(x+1) = J tx · e-t dt [- tx · e-t] + J xtx- 1 . e-t dt 0 0 0

00

J x-1 -t x · t · e dt x · T(x). 0

00

ad {3): T(1) = Je-t dt 0

B 6-19

D

ad (5): Der Beweis geht auf Emil Artirr (The Gamma Function, New York 1964)

zurück und verwendet die folgende Darstellung der Beta-Funktion

1 B(x,y) = Jtx- 1 (1-t)y-1 dt ( i) für x, y > 0

0

durch die Gamma-Funktion

( ii) T(x) · T(y)

B( x, Y) = r( x + Y)

die im Beweis von 6.2.2 (6) hergeleitet wurde. Für x = y = ~ ergibt sich mit (3)

( iii) B( ~, ~) = r( ~) 2, und zu zeigen bleibt

1

(iv) B(~, ~) = J [t(1-t)]-1/2

dt = 1r.

0

Mit der Substitution t = sin2(x) und dt = [2 sin (x) cos(x)] dx ist

t(1- t) = sin2(x) [1- sin2(x)] = sin2(x) cos2(x),

K/2 K/2 und B(~, ~) = J [sin2(x) cos2(x)]-

1/2

[2 sin(x) cos(x)] dx = 2 J dx = 1r. D 0 0

Page 81: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Faltungen von Verteilungen 8.8.16 B 6-20

6.3 Arithmetische Operationen von Zufallsvariablen

Da wir bisher nur Dichten betrachtet haben, die auf dem jeweiligen Träger stetig

sind, wollen wir die Behauptungen hier nur unter der zusätzlichen Voraussetzung

beweisen, daß die durch (1) - (5) definierten Funktion! J ,f ,J I J undf X+Y X-Y X·Y X Y X Y

auf dem jeweiligen Träger stetig sind.

Beweis von

(1) P{X+Y<a} für a EIRund

+oo ßx J j( X, Z- X) dx J j( X, Z- X) dx

-00 rxX

+oo ßy

J f(z-y,y) dy J f(z-y,y) dy für zE IR. -00 (Xy

Z=X + Y hat nach 6.2 (1) den Träger Tz= (az,ßz) = ( ax+ay, ßx+ßy) und für

die Verteilungsfunktion Fz von Z gilt nach (i) im Beweis von 6.2 (2)

a

(i) Fia) - J fiz) dz für a E IR, und -

az

ßx +oo (ii) fiz) J j( X, Z- X) dx J j( X, Z- X) dx

rxX -00

In (ii) ist für z<az bzw. z>ßz=ßx+ßy das erste (und auch das zweite) Integral

= 0, weil für ax < x < ßx dann z- x < ay bzw. z- x > ßy gilt und somit f(x, z- x) = 0

ist. Also gilt die zweite Darstellung von Fz in (1) und die erste Zeile der Darstellung

von fz· Die zweite Zeile der Darstellung von fz ergibt sich durch Vertauschen von X

mit Y (oder durch Substitution x = z- y bzw. y = z- x). D

Page 82: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Faltungen von Verteilungen 8.8.16 B 6-21

Beweis von

a (2) Fx_y(a) = P{X-Y<a} 1 fx_y(z) dz für a E IR und

-00

+oo ßx fx_y(z) 1 f(x, x- z) dx 1 f(x, x- z) dx

-00 rxX

+oo ßy 1 f(z+y,y) dy 1 f(z + y, y) dy für zE IR.

-00 (Xy

Wir geben zwei Beweise an. Der erste Beweis führt (2) auf (1) zurück und der

zweite Beweis verläuft analog dem Beweis von (1),

1. Beweis: Für V=- Y ist X- Y =X+ V und wir können (1) auf (X, V) anwenden,

wenn wir die Dichte von (X, V) bestimmen. Der Träger von V ist T v = (- ßy,- ay)

und der von (X, V) somit T x x T v· Die Verteilungsfunktion von (X, V) ergibt sich zu

( i) F(X,V)(a,b) = P{X<a 1 V<b}

= P{X<a)Y>-b}

a ßy

J ( J f( x, y) dy ) dx x Substitution: a -ß

J (- ( f(x,-v) dv) dx X

a b

1 ( 1 f(x,-v) dv) dx rxX -ßy

Damit definiert

( ii) !(X, V)( a, b) : = !( a,- b)

V =-y

eine stetige Dichte von (X, V) auf dem Träger T x x T V' und (1) angewandt auf (X, V)

liefert die Behauptung (2).

2. Beweis: Nach 6.2 (1) hat Z =X- Y den Träger

mit

Für die Verteilungsfunktion Fz von Z =X- Y gilt:

Page 83: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Faltungen von Verteilungen 8.8.16 B 6-22

( iii) Fia) = P{X-Y<a} für a E IR

J f(x,y) d(x,y) {(x,y) I x-y::::; a}

II {(x,y) I x-a ::::; y}

Veranschaulichung: Graphik!

too( too ) _L xja f(x,y) dy dx

Substitution z=x-y, y=x-z

too( -oo ) _L - j f(x,x-z) dz dx

Tausch der Grenzen des inneren Integrals

too( a ) _L _L f(x,x-z) dz dx

ßx ( a )

xtf:.Tx f(x,x-z) = 0

0

/ _Lf(x,x-z) dz dx z<az= ax-ßy, ax<x ::::} X

ßx a x-z>ß ::::} f(x,x-z) = 0 - y

J ( J f(x,x-z) dz) dx rxx rxz Vertauschung der Integrale

a ßx (Satz von Fubini)

J ( J f(x,x-z) dx) dz rxz rxx

a

J fiz) dz mit az

ßx +oo (iv) J f(x,x-z) dx = J f(x,x-z) dx

rxX -00

In (iv) ist für z < a = a - ß bzw. z > ß = ß - a das erste (und auch das zweite) - Z X Y - Z X Y Integral = 0, weil für ax < x < ß x dann x- z > ßy bzw. x- z < ay gilt und somit f(x,

x- z) = 0 ist. Also gilt die zweite Darstellung von Fz in (2) und die erste Zeile der

Darstellung von fz· Die zweite Zeile der Darstellung von fz ergibt sich durch Vertau­

schen von X mit Y (oder durch Substitution x = z- y bzw. y = z- x). D

Page 84: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Faltungen von Verteilungen 8.8.16 B 6-23

Beweis von

a (3) 1 fx.y(z) dz für a E IR mit

-00

00 0

1 1 ·f(x, !.) dx = 1 l.J(x, ~) dx - 1 ~ -f(x, ~) dx 1R\{O}Ixl X 0 X X -oo

Für die Verteilungsfunktion Fz von Z =X· Y gilt für a E IR:

( i) Fz(a) = P{X·Y<a}

1 f(x,y) d(x,y) r [ J !( x, y) dy l dx {(x,y) I xy ::::;a} -oo {y I xy ::::;a}

= J [ J !( x, y) dy ] dx lR\{0} {ylxy::::;a}

{ y<!!:. für x> 0 } Wegen xy<a -x folgt y>!!:. für x< 0 -x

Fz(a) _l [ if(x,y) dy] dx + a l [ _{' f(x,y) dy] dx

X

Substitution: z dy = l.dz y=-x, X

0 [ -00 l _L j ~-f(x, ~) dz dx + l [ _ i ± J( x, i) dz ] dx

_l [ _i-± f(x, i) dz] dx + .....................

/[ /1. f(x,i)dz]dx + J' [ / LJ(x,i) dz] dx _

00 _

00 lxl

0 _

00 lxl

J [ / 1_ J( x, i) dz ] dx lR\{0} -oolxl

Vertauschung der Integrale (Satz von Fubini)

( ii) Fia) - / [ J L J( x, i) dx ] dz -

_ 00 1R\{O}Ixl

Damit sind die ersten beiden Zeilen in (3) gezeigt. Die zweite Zeile der Darstellung

Page 85: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Faltungen von Verteilungen 808016 B 6-24

von fz ergibt sich durch Vertauschen von X mit Y (oder durch Substitution x = z / y

bzwo y = z / x) 0

Wir zeigen noch, daß der Träger von Z ein offenes Intervall ist:

Zum Nachweis von (iii) betrachten wir für festes y E IR die lineare Funktion

g (x) = x y und erhalten die Darstellung y

(iv) mit

falls y > 0 } falls y = 0 0

falls y > 0

Zur Veranschaulichung der folgende Fälle zeichne man die Geraden g und gß 0

Cty y

Fall1: O< a .o Dann ist Tz = U (axY,ßxY) = (az,ßz) mit - y Q <y<ß y y

{ a" falls "x> 0 } ß=VA falls ßx>O} az = axßY falls ax<O ' z ß a falls ßx<O X y X y

Fall 2: ßy< O.o Dann ist T = U (ßxY,axy) = (az,ßz) mit z Q <y<ß y y

" = { ß.A falls ßx>O } ß = { "xaY falls a >O } x-z ß a falls ßx<O z aß falls ax<O X y X y

Fall 3: O<a - X oder ß < 00 x-Nach Vertauschen von X mit Y ergibt sich (iii) aus FallJ oder Fall 20

Fall4: ay<O<ßy und ax<O<ßx

Dann ist Tz = U gy[(ax,ßx)] = (az,ßz) mit ay<y<ßy

az = Min {axßy, ßxay}, ßz = Max {axaY, ßxßy}o D

Beweis von

(4) für a E IR und

+oo J IY 1-f(zy, Y) dy für zE IR 0

-00

Page 86: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Faltungen von Verteilungen 808016

Völlig analog (3)0 Für die Verteilungsfunktion Fz von Z =:gilt für a E IR:

( i) X Fia) = P{ y <a}

B 6-25

J f(x,y) d(x,y) {(x,y) I f:::; a}

~/~ [ J f(x,y) dx] dy - oo {(x,y) I f:::; a}

Wegen .!!:..<a y-

= J [ J f(x,y) dx] dy lR\{0} {ylxoy:::;a}

{

x < ay

x > ay

für y > 0 }

für y < 0 folgt

_l [ arf(x,y) dx l dy + l [ _ff(x,y) ax] ay

Substitution: x = z 0 y , dx = y 0 dz

_l [ T"y f(zy,y) dz l dy +

_l [ _i-y f(zy,y) dz l dy +

_l [ _iiYI f(zy,y) dz l dy +

_t [ _[IYI f(zy,y) dz] dy

l [ _[ y f(zy,y) dz] dy

(auch für y = 0 !)

Vertauschung der Integrale (Satz von Fubini)

Wir zeigen noch, daß der Träger von Z ein offenes Intervall ist:

(iii) Tz = {: I ax < x<ßx, ay < y <ßy} = (az,ßz)o

Wegen Y;=O ist 0\t(ay,ßy), also ßy<O oder O<ayo Dann hat Y-1 den Träger

( a;\ ß;1) und wegen Z =X 0 y-1 folgt (iii) aus dem Beweis von (3)(iii) mit y-1 statt

y D

Page 87: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Erwartungswert und Varianz 15.1.16 B7-1

7. Parameter von Verteilungen: Erwartungswert, Varianz, Schiefe, Covarianz und Korrelation

7.2 Grundlegende Eigenschaften des Erwartungswerts

Beweis von

(1) L(X) = Dirac(a) d.h. P {X= a} = 1 E(X) =a.

Wegen T = { a} folgt: E(X) = 2:= X 0 p {X= X} a · P {X= a} = a. xET

Beweis von

Satz 1: Sei X: .f2-----+ IR n ein n-dimensionaler diskreter Zufallsvektor mit Träger

T =X[ D] und g: IR n-----+ IR sei meßbar. Wenn E[g(X)] E IR existiert, so gilt

(9) E[g(X)] = 2:= g(x) ·P{X=x} xET

und die Reihe konvergiert sogar absolut. Umgekehrt folgt aus absoluten

Konvergenz der Reihe auch die Existenz von E[g(X)] E IR.

Zusatz: Für g(X) > 0 gilt (9) auch dann noch, wenn E[g(X)] = oo ist.

Y = g(X) hat den Träger S = g[ T]. Der Träger T von X läßt sich disjunkt zerlegen:

( i) T = TniRn = Tn Ug-1{y} yES

Fall 1: T ist endlich. Dann gilt

( ii)

Mit

( iii)

2:= g(x) . P {X= x} xET

2:= 2:= g(x). P {X= x} y Es x E T n g-1{ y} II

y

2:= y 0

[ 2:= p {X = X}] y ES xE Tng-1{y}

2:= y·P{XETng-1{y}} yES

P{XETng-1{y}} =P{XEg-1{y}} = P{Y=y}

2:= g(x) ·P{X=x} 2:= y ·P{Y=y} = E(Y). xET yES

folgt

D

Page 88: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Erwartungswert und Varianz 15.1.16 B7-2

Fall 2: T ist abzählbar und g(X) > 0.

Mit dem Umordnungssatz für Reihen gilt die Herleitung von ( iii) aus FallJ auch hier,

wobei auch beide Seiten oo sein können (was den Zusatz beweist).

Fall 3: T ist abzählbar. Nach Fall 2 angewandt auf lg(X) I> 0 gilt

(iv) 2:= I g( X) I 0 p {X= X} 2:= IYI·P{Y=y} xET yES

wobei die linke Reihe gerrau dann endlich ist, wenn die rechte Reihe dies ist. Folglich

ist die linke Reihe in (iii) gerrau dann absolut konvergent, wenn die rechte Reihe

dies ist, und in diesem Fall gilt die Herleitung von ( iii) auch für abzählbares T. D

Page 89: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Erwartungswert und Varianz 15.1.16 B7-3

Beweis von

Satz 2: Sei X: .f2-----+ IR eine stetige Zufallsvariable mit Träger T = ( a, ß) C IR

deren Dichte f: T-----+ [ 0, oo) in höchstens endlich vielen Punkten unstetig ist.

Weiter sei g: T-----+ IR meßbar. Wenn E[g(X)] E IR existiert, so gilt

ß (10) E[g(X)] = J g(x) -f(x) dx,

und das Integral konvergiert sogar absolut. Umgekehrt folgt aus absoluten

Konvergenz des Integrals auch die Existenz von E [g(X) J E IR.

Zusatz: Für g(X) > 0 gilt (10) auch dann noch, wenn E[g(X)] = oo ist.

Wir beweisen Satz 2 hier nur für die folgenden Spezialfälle stetiger Funktionen

• streng monotones1 stetig-differenzierbares g mit endlicher Menge {g' :;= 0},

• Absolutbetrag:

• Potenzen:

• absolute Potenzen:

g(x) = lxl' g(x) = xk

g(x) = lxlr für kE W,

für r> 0.,

Sei Z = g(X) und D sei die endliche Menge der Unstetigkeitsstellen von f.

Spezialfall1: g ist streng wachsend auf T und N = {g' 7: 0} ist endlich.

Z hat den Trägerg [ T] = (g( a), g(ß)) und für die Dichte von Z gilt nach 4.4 Satz 1

( i)

Fall a:

( ii)

fx(g-\z)) fz(z) = g'(g -l(z)) für g( a) < z < g(ß), z \t g[ N].

N = 0. Dann ist fz stetig auf g [ T] und es gilt

g(ß) J lzl-fz(z) dz

g(rx)

g(ß) fx(g-1(z))

g(~ lzl· g'(g-l(z)) dz

Substitution z = g(x),

ß dz = g'(x) · dx

J lg(x) 1-fx(x) dx

auch wenn die Integrale unendlich sind (womit der Zusatz bereits gezeigt ist). Wei­

ter existiert E(Z) gerrau dann, wenn das rechte Integral endlich ist. In diesem Fall

folgt analog ( ii) - mit z statt I z I g(ß) ß

E(Z) = J z · fz(z) dz g(rx)

( iii) J g(x) -fx(x) dx.

Page 90: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Erwartungswert und Varianz 15.1.16 B7-4

Fall b: N = { c1, ... , cK} wobei c0 : = a < c1 < ... < cK < cK + 1 : = ß.

Für k = 0, ... ,K ist fz auf dem Intervall Ik = (g( ck) 1 g( ck+ 1)) stetig und analog ( ii) gilt

J lzl-fz(z) dz = J lg(x) 1-fx(x) dx, J z -fz(z) dz = J g(x) -fx(x) dx. Ik Ik Ik Ik

Summation über alle k = 0, ... ,K liefert (ii), (iii) und der Rest folgt wie im Fall a. D

Spezialfall 2: g( x) =- x

Z = g(X) =-X hat den Träger (- ß,- a) und nach 4.4.1 ( 6) die Dichte

( i) für - ß < z < - a . -(X

Also ist E( Z) = J z f (- z) dz -ß X

ß Substitution x = - z

J xf (x) dx ß X

J g(x)fx(x) dx. (X

wobei das letzte Integral gerrau dann absolut konvergent ist, wenn E(X) existiert.

Insbesondere haben wir gezeigt:

( ii) E(-X) = -E(X)

Spezialfall 3: g ist streng fallend auf T und N = {g' 7 0} ist endlich.

D

Dann ist h(x) =- g(x) streng wachsend und wegen lh(x)l = lg(x)l gilt (ii) aus Spezialfall

1 auch hier. Und für h stattgergibt sich im SpezialfallJ aus (iii) ß

(i) E(- Z) = J- g(x) -fx(x) dx.

Nach Spezialfall2 gilt E(-Z) = -E(Z) und somit folgt (10) aus (i). D

Page 91: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Erwartungswert und Varianz 15.1.16 B7-5

Spezialfall 4: absolute Potenzen (inklusive Absolutwert)

Es sei g(x) = lxlr mit r > 0 (also inklusive r = 1). Für Tc (0, oo) ist g streng wachsend

auf T und es liegt der SpezialfallJ vor. Und für TC(- oo, 0) ist g streng fallend auf T

und es liegt Spezialfall 3 vor. Zu zeigen bleibt also nur der Fall a < 0 < ß bei dem

IX Ir den Träger hat

( i) [ 0, "()

Mit der Dichte von I X Ir aus 4.4.2 (2)

( ii)

folgt 1

E(IXIr) = d y -flxlr(Y) dy

1 = ~ ; y1/r [f x(y1/r) + f x( _ y1/r)J dy

5 + jzrfx(-z)dz

0

-5 - J (-uf fju) du

0 5 -5 J lzlr fx(z) dz - J lulr fx(u) du

0 0 5 J lxlr -fjx) dx

-5

mit

für 0 < y < "(

S b . . 1/r r u sbtubon z = y , y = z

d r-1d r -1/rd y=rz z=rz y z

8 = "(1/r = max{- a,ß}

Substitution u =- z

wobei die Integrale auch unendlich sem können. Wegen - 8 < a und ß < 8 ist

Tc(- 8, 8). Dafx auf dem Komplement von Tidentisch Null ist, folgt weiter:

ß E(IXIr) = J lxlr -fx(x) dx. D

(X

Spezialfall 5: Potenzen g(x) = i mit k E W.

Für ungerades k ist g streng wachsend und die Behauptung folgt aus dem Spezialfall

1. Und für gerades k ist g(x) = lxlk und die Behauptung folgt aus dem Spezialfall4. D

Page 92: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Erwartungswert und Varianz 15.1.16 B7-6

Beweis von (unter Verwendung von Satz 1 und Satz 2)

(2) E(a + ßY) = a + ßE(Y) für a,ßE IR,

Für ß = 0 folgt (2) aus (1). Für ß ;= 0 ist die Funktion g(x) = a + ßx streng monoton

und (2) ergibt sich mit Satz 1 bzw. 2 wie folgt.

Diskreter Fall: Für diskretes Y mit Träger T lautet (9) aus Satz 1

( i) E [ a + ß Y] = 2:= ( a + ß y) · P { Y = y} yET

= a + ß . 2:= y . P { Y = y} = a + ß E(Y). yET

Da E(Y) E IR existiert, sind die Reihen in (i) absolut konvergent, weil

2:= la+ßyi·P{Y=y} < lal+lßl· 2:= IYI·P{Y=y} < oo. yET yET

Also existiert E[a + ßY] nach Satz 1 und (i) gilt.- Für Y> 0 und ß> 0 gilt (i) übri­

gens auch falls E(Y) und somit auch E[a + ßY] unendlich sind.

Stetiger Fall: Für stetiges Y mit Träger T = ( "(, 8) und Dichte f lautet (10) aus Satz 2 5 5

( ii) E [ a + ß Y] = J ( a + ß y) -f(y) dy = a + ß · J y -f(y) dy = a + ß E(Y) . 1 1

Da E(Y) E IR existiert, sind die Integrale in (ii) absolut konvergent, weil 5 5

J la+ßyl-f(y) dy < Iai + lßl· J IYI-f(y) dy < oo · 1 1

Also existiert E[a + ßY] nach Satz 2 und (ii) gilt.- Für Y> 0 und ß> 0 gilt (ii) übri-

gens auch falls E(Y) und somit auch E[a + ßY] unendlich sind. D

Page 93: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Erwartungswert und Varianz 15.1.16 B7-7

Beweis von (unter Verwendung von Satz 1)

(3) E(X + Y) = E(X) + E(Y),

wobei für X> 0 und Y> 0 auch deren Erwartungswerte unendlich sein dürfen.

Wir zeigen die Behauptung hier nur für den Fall, daß X und Y beide diskret oder

beide stetig verteilt sind und verweisen für den allgemeinen Fall auf die Maß- und

Wahrscheinlichkeitstheorie.

Stetiger Fall: (XY) sei stetig verteilt mit der Dichte f.

Nach 4.7 (9) und 6.3 (1) ergeben sich die Dichten von X, Y und Z =X+ Y wie folgt

+oo +oo ( i) fx(x) 1 f(x, y) dy, fy(y) = 1 f(x, y) dx für x, y E IR.

-00 -00

+oo fiz) = 1 j( X, Z- X) dx für zE IR.

-00

Die folgende Herleitung verwendet zwar das Lebesgue-Integral, gilt aber auch für

das Riemann-Integral, wenn man zusätzlich voraussetzt, daß die Dichten in (i)

höchstens endlich viele Unstetigkeitstellen haben. +oo

Es ist E(Z) = 1 z · fiz) dz -00

( ii)

( iii)

(iv)

( v)

Zu zeigen bleibt noch die absolute Konvergenz des Integrals in (ii) bzw. (iii). Analog

der Herleitung von ( v) aus ( iii) ergibt sich mit I x + y I < I x I + I y I beim Übergang von

(iii) auf (iv) die Ungleichung:

Page 94: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Erwartungswert und Varianz 15.1.16 B7-8

Weil E(X), E(Y) existieren ist die rechte und somit auch die linke Seite endlich.

Für X> 0 und Y > 0 gilt die Herleitung von ( v) - und somit ( 3) - auch noch wenn

E(X) = oo oder E(Y) = oo.

Diskreter Fall: X und Y sind diskret mit Träger T X und T Y

Dann ist (X, Y) : .f2-----+ IR 2 diskret mit Träger T = T x x T Y und Satz 1 liefert

(vi) E(X + Y) 2:: (X + y) 0 p {X= x, y = y} (x, y) E T

( vii) 2:: X 0 p {X= x, y = y} (x, y) E T

+ 2:: y · P {X= x, Y = y} (x, y) E T

2:: X ( 2:: p {X= x, y = y }) + xETx y ETy

2:: y ( 2:: P {X= x, Y = y }) y E Ty x ETx

( viii) 2:: x·P{X=x} xETx

E(X)

+ 2:: y. P{Y=y} yETy

+ E(Y)

Zu zeigen bleibt noch die absolute Konvergenz der Reihe in ( vi). Analog obiger Her­

leitung ergibt sich mit I x + y I< I x I +I y I beim Übergang von ( vi) auf ( vii) die Unglei­

chung:

2:: I X + y I 0 p {X= x, y = y} < 2:: I X I 0 p {X= X} + 2:: I y I 0 p { y = y} (x,y) E T xE Tx y E Ty

Weil E(X), E(Y) existieren ist die rechte und somit auch die linke Seite endlich.

Für X> 0 und Y> 0 gilt die Herleitung von (viii) -und somit (3) -auch noch wenn

E(X) = oo oder E(Y) = oo. D

Beweis von

(4) E(aX + ßY) = aE(X) + ßE(Y) für a,ßE IR.

Es ist: E(aX + ßY) (3) E(aX) + E(ßY) (

2) aE(X) + ßE(Y). D

Page 95: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Erwartungswert und Varianz 15.1.16 B7-9

Beweis von

(5) X, Y stochastisch unabhängig E(X. Y) = E(X) . E(Y) .

wobei für X> 0 und Y> 0 auch deren Erwartungswerte unendlich sein dürfen.

Wir zeigen die Behauptung hier nur für den Fall, daß X und Y beide diskret oder

beide stetig verteilt sind und verweisen für den allgemeinen Fall auf die Maß- und

Wahrscheinlichkeitstheorie.

Stetiger Fall: (XY) sei stetig verteilt mit der Dichte f.

Nach 4.7 (9) und 6.3 (3) (5) lauten die Dichten von X, Y und Z =X· Y wie folgt

+oo +oo ( i) j X( X) = 1 j( X, y) d y , f y(Y) = 1 f( X, y) dx für x, y E IR

-00 -00

00 0

fiz) = J ~-f)x) -fy(~) dx - _L ~-f)x) -fy(~) dx für zE IR

Die folgende Herleitung verwendet wieder das Lebesgue-Integral, gilt aber auch für

das Riemann-Integral, wenn man zusätzlich voraussetzt, daß die Dichten in (i)

höchstens endlich viele Unstetigkeitstellen haben. +oo

Es ist E(Z) 1 z ·fiz) dz -00

( ii) _t [_b fx(x) !)~) dx] rlz

Integration vertauschen (Fubini)

_l [_t ~ fx(x) !)~) rlz] dx

Substitution: y = !_, dy = .l. dz X X

llt xy fx(x)fy(Y) dy] dx - _l [+[,"" xy fjx) fy(y) dy] dx

Integrationsgrenzen vertauscht

O[+oo l + _L _L xy -fx(x) -Jy(y) dy dx

Page 96: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Erwartungswert und Varianz 15.1.16 B 7-10

( iii) E(Z) _t [_t xy -fx(x) -fy(Y) dx] dy

(iv) [_tx fx(x) dx ]· [_tY !y(y) dy]

= E(X) ·E(Y)

Zu zeigen bleibt noch die absolute Konvergenz der Integrale in (iii) bzw. (iv). Wegen

ist die rechte und somit auch die linke Seite endlich, weil E(X), E(Y) existieren.

Für X> 0 und Y> 0 gilt die Herleitung von (iv) - und somit (5) - auch noch wenn

E(X) = oo oder E(Y) = oo.

Diskreter Fall: X und Y sind diskret mit Träger T X und T Y

Dann ist (X, Y) : .f2-----+ IR 2 diskret mit Träger T = T x x T Y und Satz 1 liefert

( i) E(XY) =

( ii)

2::: X 0 y 0 p {X= x, y = y} (x, y) E T

2::: x · y · P {X= x} · P {Y = y} da X, Y stochastisch unabhängig (x, y) E T

2::: 2::: x·y·P{X=x} ·P{Y=y} xETx y ETy

( 2::: x · p {X= x }) xETx

( 2::: y 0 p { y = y }) yETy

E(X) E(Y)

ggf. mit Umordnungssatz für Reihen (vgl. unten)

Zu zeigen bleibt noch die absolute Konvergenz der Reihe in ( i). Mit I x y I statt x y er­

gibt sich aus obiger Herleitung

2::: I X 0 y I 0 p {X= x, y = y} = ( 2::: I X I 0 p {X= X}) 0

( 2::: I y I 0 p { y = y }) (x,y) E T xE Tx y E Ty

Weil E(X), E(Y) existieren ist die rechte und somit auch die linke Seite endlich.

Für X> 0 und Y > 0 gilt die Herleitung von ( ii) - und somit (5) - auch noch wenn

E(X) = oo oder E(Y) = oo. D

Page 97: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Erwartungswert und Varianz 15.1.16 B 7-11

Beweis von

(6)

(7)

X>O

X<Y

E(X) > 0,

E(X) < E(Y),

wobei in (7) für X> 0 die Erwartungswerte auch unendlich sein dürfen.

(8) IE(X) I< E(IXI).

ad {6): X> übedeutet T=X[D] c[O,oo)

Für diskretes X ist:

Für stetiges X mit Dichte f ist:

E(X) 2:: x·P{X=x} > 0. xET

E(X) = 1 x -f(x) dx T

> 0.

1. Beweis von (7): Wir zeigen die Behauptung hier nur für den Fall, daß X und Y

beide diskret oder stetig verteilt. Die Differenz Y- X ist dann auch diskret oder (nach

6.3) stetig verteilt und es gilt nach ( 6)

X<Y Y-X>O E(Y-X) > 0.

Also E(Y) = E([Y- X] +X) = E(Y- X) + E(X) > E(X) vgl. (3),

wobei für X> 0 und Y- X > 0 deren Erwartungswerte auch unendlich sein dürfen.

2. Beweis von (7): Wir verwenden die Darstellung der Erwartungswerte durch die

Verteilungsfunktionen F x und F Y von X und Y ( vgl. 7.1 Satz, der hier allerdings

nicht bewiesen wurde). Wir zeigen zuerst

( i) X<Y F <F, y- X

ad (i): Wegen {Y < a} C {X< a} folgt für jedes a E IR

F y( a) = P {Y < a} < P {X< a} = F x( a). +oo 0

Dann ist E(X) = 1 [1-F (x)] dx - 1 Fx(x) dx 0 X -oo +oo 0

< 1 [ 1-F ( x)] dx - 1 F y( x) dx 0 y -00

wobei E(X) für X> 0 auch unendlich sein darf.

1-F < 1-F x- Y

nach (i)

E(Y)

ad (8): ±X< lXI * ± E(X) = E( ±X) < E( IX I)

IE(X) I< E(IXI) 0

vgl. (2) (7)

D

D

Page 98: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Erwartungswert und Varianz 15.1.16 B 7-12

7.3 Erwartungswerte spezieller Verteilungen 7.3.1 Erwartungswerte spezieller diskreter Verteilungen

Beweis von

(1) E[DG(n)] = n+ 1 2

bzw. L(X) =DG(n)

E(X) = I: i·P{X=i} = (.I: i). ~ = n(ni 1). ~

i=l z=l

n+1 2 0

Beweis von

(2) E[B(n,p)] = np bzw. =? E(X) =np.

Spezialfall n = 1: Für X"' B(1,p) gilt die Beh., weil

E(X) = 2:: X 0 p {X= X} = 0 ° p {X= 0} + 1 ° p {X= 1} = p 0

xE {0,1}

Allgemeiner Fall: Für stochastisch unabhängige X."' B(1,p) mit i = 1, ... , n gilt z

n n E( l:=X.) = l:=E(X.)

0 z 0 z z=l z=l

n Wegen l:=X. "' B(n,p)

0 z z=l

Beweis von

(3)

n 2:: p = np i=l

bzw.

vgl. 7.2 (3) und SpezialfalL

folgt die Beh.

L(X) = Pois(~t) =? E(X) =~t.

D

D

(4)

E[Pois(~t)] = fL

E[NB(n,p)] = n(1;P) bzw. E(X) = n(1-p). p

Übung!

Beweis zu

(5) P{X=n} 1 n (n t 1)

Mit 1 1 1 n(n+1)- n- n+1 und 1 1 - N+1

für nE W,

--::-::----+ 1 N---+oo

ergibt sich, daß durch (5) eine Verteilung auf dem Träger W definiert ist. D

Page 99: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Erwartungswert und Varianz 15.1.16 B 7-13

7.3.2 Erwartungswerte spezieller stetiger Verteilungen

Beweis von

(1) E[SG(a~ß)] = a~ß

ß

bzw. L(X) =SG(a1 ß) =? E(X) = a~ß.

E(X) = 1 x · ~ dx (X

1.. [ .1. x2 J ß mit L1 = ß- a L1 2 Q

Es ist:

Die absolute Konvergenz des Integral folgt aus der Beschränktheit von T = (a 1 ß). D

Beweis von

(2) bzw. * E(X) =p,.

Spezialfall: p, = 0, a = 1. Wir zeigen zuerst, daß E(X) "existiert", d.h.

+oo ( i) 1 I x I · <p( x) dx < oo mit

-00

1 { 1 2} <p(x) = -----= exp -- x yi2K 2 '

ad (i): Es ist

00 00

( ii) 1 x · <p(x) dx = - 1 <p 1(x) dx = <p(O)- <p(oo) <p(O) ' 0 0

0 0 (iii) 1 x · <p(x) dx = - 1 <p 1(x) dx = <p(- oo)- <p(O) = - <p(O) .

-00 -00

+oo 0 oo Also 1 I x I· <p(x) dx = 1 - x · <p(x) dx + 1 x · <p(x) dx = 2 <p(O) und (i) gilt.

-00 -00 0

+oo 0 00

Nun ist: E(X) 1 x · <p(x) dx 1 X · <p( X) dx + 1 X · <p( X) dx -00 -00 0

= - <p(O) + <p(O) = 0, vgl. (ii)(iii).

Allgemeiner Fall: p,, a beliebig. Für U"' N(O, 1) ist nach dem Spezialfall E(U) = 0.

Es folgt L(p, + a U) = N(p,, a 2)

E(p, + a U) = p, + a E( U) = p, ,

vgl. 4.4.1 (7)

vgl. 7.2 (2). D

Page 100: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Erwartungswert und Varianz 15.1.16 B 7-14

Beweis von

(3) E[Gam(a1 ß)] =aß bzw. L(X) = Gam(a1 ß) ::::} E(X) =aß 1

(5) E[Gam(a~ßr] = r~(~r) ßr bzw.

L(X) = Gam(a1 ß) ::::} E( xr) = r( rx + r) ß r r(rx) für r> 0.

(6) k k k-1

E[Gam(a1 ß) ] = ß TI (a+i) bzw. i=O

k k k-1 L(X) = Gam(a1 ß) ::::} E(X ) = ß TI ( a + i) für kE W.

i=O

ad (3): (3) folgt aus (6) für k = 1.

ad (5):

Spezialfall: ß = 1 . Bezeichnet f(x I a) die Dichte von U"' Gam(a,1), so gilt

00

( i) E(Ur) = 1 xr -f(x I a) dx 0

(da der Integrand > 0 ist, ist das

00 Integral auch absolut konvergent)

1 r 1 rx-1 -x d 0 X . T(rx) X e X

00

r(rx+r) 1 1 x(rx+r)-1e-x dx r(rx) 0 r(rx + r)

00

r( (X + r) 1 !(X I a + r) dx - r( (X + r) r(rx) 0 r(rx)

Allgemeiner Fall: ß beliebig. Für X "' Gam( a,ß) ist

U = ß-1x"' Gam( a, 1) vgl. 6.2.2 (3)

und mit dem Spezialfall folgt die Behauptung.

ad (6): Aus T(x+1) = r(x) 0 X ergibt sich für kE w rekursiv k-1

T(a+k) = T(a) ·a·(a+1) · ... ·(a+k-1) r( a) . TI ( a + i) , i=O

und mit (5) für r = k folgt die Behauptung ..

D

D

D

Page 101: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Erwartungswert und Varianz 15.1.16 B 7-15

Beweis von

(7) E[/'+exp{N(a,ß2)}] = "( + exp{a+ ~ß2 } bzw.

L(X) = N(a,ß2) =? E[/' + eX] = "( + exp{ a + ~ ß2}.

Es ist X= a+ßU mit U=l(X-a) ~ N(0,1). ß

Also E['"Y + exp{X}] = E['"Y + exp{ a} · exp{ß U}]

= '"Y + exp { a} · E [ exp {ß U} J vgl. 7.2 (2).

Die Beh. folgt, wenn wir zeigen,

( i) M u(ß) : = E [ exp {ß U} J = exp { ~ ß2} für ß E IR

M U ist die sogenannte Moment-erzeugende Funktion von U. Für ß = 0 folgt dies mit

7.2 (1). Für ß;z::. 0 ist g(x) = eßx streng wachsend und mit (dem hier bewiesenen Spezi­

alfall von) 7.2 Satz 2 folgt

+oo Es ist E[exp{ß U}] 1 exp{ßx} · <p(x) dx

-00

+oo 1 { 1 } = 1 exp{ßx} · y'27f exp - 2 x

2 dx -00

+oo exp{ ~ ß2

} · 1 ;_ exp {-l (x- ß) 2} dx

- oo V 27r 2

II Dichte von N(ß, 1)

7.3.3 Cauchy-Verteilung

Beweis von

(1)

(2)

Wegen

also

F(x) = ~ + ~ · arctan(x)

arctan'(x) = (1+x2r 1

+oo 1 f(x) dx = F( +oo)- F(-oo)

-00

für xE IR,

für xE IR.

ist F' =f1

D

1. D

Page 102: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Erwartungswert und Varianz 15.1.16 B 7-16

Beweis von

(8) L(W) = SG(- ; , + ; ) oi(tan(W)) = C(0,1).

Die Verteilungsfunktion von W ist nach 4.3.1

F ( w) = l. (w + 7r) = l. + l. w w 7r 2 2 7r für _1. < w < l.

7r 7r

Da tan: (- ; , + ; ) -----+IR streng wachsend ist, ergibt sich die Verteilungsfunktion

von X= tan(VV) nach 4.4 (3) zu

F X(x) = F w( arctan(x)) = ~ + ; · arctan(x) für x E IR, d.h. X"' C(O, 1). D

7.3.4 Anwendung: Das Sammlerproblem

Beweis von

(4)

(6)

ad (4):

an:= E(Xn) = n + E(Y1) + ... + E(Yn_1)

a ~ n·log(2n+1) n

Es ist n-1

E(Xn) = n + k'f1

E(Yk)

n-1

n + k'f1 ( n~ k- 1)

n-1 1 + 2:= _.!!:._

k=1 n- k

[ n-1 ]

n l. + 2:= _1_ n k=1 n- k

n n 2:= ~-. z

z=1

n-1

2:= 1 n -

n- k k=O

ad {6): Es gilt approximativ (Veranschaulichung durch Skizze!)

n nt..!. 2

n n 2:= ~-. z

z=1

2:=~ 0 z ~ J ; dx = log(n +~)-log(~) = log(2n + 1) und ( 6) folgt. z=1 1

2

D

Page 103: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Erwartungswert und Varianz 15.1.16 B 7-17

7.4 Varianz und Standardabweichung

Beweise zu

Die Varianz von X existiert ( d.h. ist endlich) gerrau dann, wenn der Erwartungswert

E(X2) existiert ( d.h. endlich ist) und läßt sich berechnen als

Nebenbei bemerkt ergibt sich mit der Abschätzung lXI < 1 +X2 auch die Existenz

von E(X) aus der von E(X2).

Aus [X-0]2 = x2_ 20X + 02 < x2 + 2I0IIXI + 02

und X2 = [X- 0] 2 + 20X- 02 < [X- 0] 2 + 210IIXI

folgen mit der Linearität und Monotonie des Erwartungswerts - vgl. 7.2 ( 4) und (7) -

(i) Var(X) = E([X-~t] 2 ) < E(X2) + 2l~tiE(IXI) + ~t2

(ii) Var(X) = E([X-~t] 2 ) = E(X2 -2~tX+~t2 )

= E(X2)- 2~tE(X) + ~t2 = E(X2

)- ~t2 .

(iii) E(X2) < E([X-~t] 2 ) + 2l~tiE(IXI)

Da E(X) existiert, ist E(IXI) endlich, und nach (i) und (iii) ist Var(X) gerrau dann

endlich, wenn E(X2) endlich ist.

Aus I X I < 1 + IX Ir für r > 1 folgt mit 7.2 (7) (8)

E(IXI) < 1 + E(IXIrL

und somit existiert E(X) falls E(IXI r) für ein r > 1 (z.B. r = 2) endlich ist. D

Page 104: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Erwartungswert und Varianz 15.1.16 B 7-18

Beweis von

( 6) Var ( a + ß Y) = ß 2 · Var(Y) für a, ß E IR,

Esist E(a+ßY) = a+ßE(Y) = a+ßp, mit p,=E(Y).

Also Var(a+ßY) = E{[(a+ßY)- (a+ßp,)] 2}

= E{ ß2(Y- p,) 2} = ß 2

. E{(Y- p,) 2} - ß 2

· Var(Y) . D

Beweis von

(8) Var(X + Y) = Var(X) + Var(Y) + 2 · E( [X- E(X)] · [Y-E(Y)])

(9) Cov(X, Y) : = E( [X- E(X)] · [Y- E(Y)]) ( Covarianz von X und Y)

= E(X Y) - E(X) · E(Y) .

ad {8): Für p, X: = E(X) , f-Ly: = E(Y) ist

Also Var(X + Y) = E{ [(X+ Y)- (p,x+ f-Ly)] 2}

= E{ [(X- 1-Lx) + (Y- f-Ly)] 2}

= E{ [X- 1-Lx] 2 + [Y- !-Ly] 2 + 2[X- 1-Lxl· [Y- 1-Ly]}

= E{[X- 1-Lx] 2} + E{ [Y- !-Ly] 2

} + 2E{ [X- 1-Lxl· [Y- 1-Ly]}

= Var(X) + Var(Y)

ad {9): Wir setzten die Existenz der Erwartungswerte in (9) hier voraus und zei-

gen dies erst im Beweis zu 7.8.1 (1) -sofern die Varianzen von X und Y existieren.

Für 1-Lx: = E(X) , 1-Ly: = E(Y) ist

Cov(X, Y) = E( [X- 1-Lx)J · [Y- 1-Lyl)

= E( XY- 1-Lxy- 1-Lyx + 1-Lxf-Ly)

= E( XY) - 1-LxE(Y) - 1-LyE(X) + 1-Lxf-Ly

= E( XY) - 1-Lxf-Ly. D

Page 105: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Erwartungswert und Varianz 1501.16 B 7-19

Beweis von

(7)

(10)

X, Y stochastisch unabhängig ::::}

X, Y stochastisch unabhängig ::::}

Var(X + Y) = Var(X) + Var(Y) 0

Cov(X, Y) = 0 0

ad {10): Sind X, Y stochastisch unabhängig, so folgt (5.3 Satz 1)

[X- p, X], [Y- f-Ly] stochastisch unabhängig

Also Cov(X, Y) = E([X -E(X)]o [Y -E(Y)])

= E([X-E(X)l) OE([Y-E(Y)l) vgl. 7.2 (5)

= 0 ° 0 = 00

ad (7}: Folgt aus (8) und (10)0 D

Beweise zu

(11) U = X-E(X) =X 0 mit p, =E(X), a 2 = Var(X) SD(X) a

(12) E(U) = 0, Var(U) = 10

Es ist E(U) E( X a 0) = ; 0 [ E(X) -p, J 0 vgl. 7.2 (2)

Var(U) Var( X 0) = .lo Var(X) a a2

1 vgl. ( 6)0 D

Page 106: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Erwartungswert und Varianz 15.1.16

7.5 Varianzen spezieller Verteilungen

7.5.1 V arianzen spezieller diskreter Verteilungen

Beweis von

(1)

(2)

Var [Dirac(a)] = 0.

Var[DG(n)] = n2

- 1 . 12

ad (1): Für X "' Dirac( a) ist p, = E(X) = a nach 7.2 (1) und

E(X2) = a2·P{X=a} = a2

,

Var(X) = E(X2)- [E(X)] 2 = a

2- a2 0.

ad (2): Für X"' DG(n) gilt mit 7.2 Satz 1 n n

E(X2) = _2:: i2·P{X=i} = (.2:: i2). ~ _ n(n+1l(2n+1) ~ z=l z=l

Also: Var(X) = E(X2)- [E(X)]2 = (n+1l(2n+1)_ [(n~1)]2

= 112 [ 2(n + 1)(2n + 1)- 3(n + 1) 2]

= 112 (n + 1) [ 4n + 2- 3n- 3 J = 1

12 (n + 1)(n-1)

Beweis von

(3) Var [B(n,p)] npq mit q = 1-p.

Spezialfall: n = 1

Für X"' B(1,p) mit Träger {0, 1} ist X2 =X und somit E(X2) =E(X) = p.

Also Var(X) = E(X2)- [E(X)] 2 = p- p2 = p q.

B 7-20

(n + 1)(2n + 1) 6

Allgemeiner Fall: Für stochastisch unabhängige X."' B(1,p) mit i = 1, ... , n gilt z

n n Var( l:X.) = 2:: Var(X.)

0 z 0 z z=l z=l

n Wegen l:X. "' B(n,p)

0 z z=l

n 2:: pq i=l

npq vgl. 7.4 (7) und n = 1.

folgt die Beh. D

Page 107: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Erwartungswert und Varianz 15.1.16 B 7-21

Beweis von

(4) Var [Pois(~t) J E[Pois(~t)] .

Übung!

Beweis von

(5) n(l-p)

Var [NB(n,p)] = 2 p

Spezialfall n = 1: Im Beweis von 7.6 (12) wird unter Verwendung einer Rekur­

sionsformel für die zentralen Momente von X,.....__ Geo(p) gezeigt:

mit q = 1-p.

Allgemeiner Fall: Für stochastisch unabhängige X.,.....__ Geo(1,p) mit i = 1, ... , n gilt z

n n n Var( l:X.) = 2:: Var(X.)

0 z 0 z 'I\' qp-2 -2 u = n. qp vgl. 7.4 (7) und n = 1

z=l z=l i=l n

Wegen l:X. '""'"' NB(n,p) 0 z z=l

folgt die Beh. D

Page 108: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Erwartungswert und Varianz 15.1.16 B 7-22

7.5.2 Varianzen spezieller stetiger Verteilungen

Beweis von

Spezialfall: a = 0 , ß = 1 . Für U"' SG(O, 1) gilt mit 7.2 Satz 2 1

E(U2) = 1 u 2 du = [ l.u3

]1

= 1.. 0 3 0 3

Also Var(U) = E(U2)- [E(U)] 2 = ~- (~?

gilt.

1 1 3 4

1 12

Allgemeiner Fall: a, ß beliebig. Für U"' SG(O, 1) ist Var(U) = ~.

d.h. (1)

Es folgt L( a + L1 U) = SG( a 1 ß)

Var(a+ L1 U) = L12 · Var(U)

mitL1=ß-a .j2. l

12

vgl. 4.4.1 (8)

vgl. 7.4 (6). D

Beweis von

(2) 2 a

Spezialfall: 0 = 0 , a = 1 .

Für U "' N( 0, 1) ist U2 "' x~ = Gam( ~, 2) ( vgl. Übungen!), also

( i) vgl. 7.3.2 (3)

(i) ergibt sich mit <p 1(x) =- x · <p(x) - vgl. Beweis von 7.3.2 (2) - mit partieller Inte­

gration auch wie folgt +oo +oo 1 x

2 · <p(x) dx = - 1 x · <p 1(x) dx

+oo +oo = 1 <p( X) dx - [X · <p( X) ]

-00 -00 -00

= 1- [o-o] = 1.

Aus (i) folgt: Var(U) = E(U2)- [E(U)] 2 = 1- 02 = 1, d.h. (2) gilt.

Allgemeiner Fall: 0, a beliebig. Für U"' N(O, 1) ist Var(U) = 1 und es folgt

Es folgt L(0 + a U) = N(0, a 2)

Var(0 + a U) = a 2 · Var(U)

vgl. 4.4.1 (7)

a 2 , vgl. 7.4 ( 6).

-00

D

Page 109: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Erwartungswert und Varianz 1501.16 B 7-23

Beweis von

Nach 7.3.2 ( 6) für k = 2 ist

E(X2

) = ß2 0 a 0 (a +1),

also Var(X) = E(X2)- [E(X)] 2 = ß 2 0 a 0 (a +1)- [aß] 2 = aß2

0 D

Beweis von

(6) Var['y+exp{N(a,ß2)}] = exp{2a+ß2} 0 [exp{ß2}-1]

Es ist X= a+ßU mit U= ~ (X-a) "'N(0,1)0

Also Var [r + exp {X} J = Var [r + exp { a} 0 exp {ß U} J

( i) = (exp{a} )20 Var[exp{ßU}] vgl. 7.4 (6)0

Im Beweis von 7.3.2 (7) wurde gezeigt

( ii) M u(ß) : = E [ exp {ß U} J = exp { ~ ß 2} für ß E IR

Es folgt: Var[exp{ßU}] = E[(exp{ßU})~ - (E[exp{ßU}J?

= E[exp{2 ß U}] - 0 0 0 0 0 0 0 0 0 0 0 0 0

= exp{ 2ß2} - exp{ß2} vgl. (ii)

= exp{ß2} 0 [ exp{ß

2}- 1].

Eingesetzt in ( i) ergibt sich die Beho

D

Page 110: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Erwartungswert und Varianz 15.1.16 B 7-24

7.6* Symmetrie und Schiefe

Beweise zu: Stetiger Fall

(1)' s f(z + ~) = f(~-z) für alle z E IR,

Aus (1)~ ergibt sich (1) bzw. (1)5

wie folgt. Für die Dichten von X- p, und p,-X er­

gibt sich mit 4.4.1 ( 6)

f X-~(z) = f(z + ~) = !(~- z) = ~~-X(z) für alle z E IR.

Mit den Dichten sind auch die Verteilungen gleich.

Beweise zu: Diskreter Fall

Für X"' B(n, ~)ist auch (n-X) "'B(n, ~)und für p, =~folgt

L(X) = L(n-X) * L(X-p,) = L(n-X-p,) = L(p,-X).

Beweis von

(2) E(X) existiert und L(X) symmetrisch um ~ ~ = E(X).

Es gilt: L(X-~) =L(~-X) =? E(X-~) =E(~-X)

=? E(X) - ~ = ~-E(X)

=? 2E(X) = 2~ d.h. (2) gilt.

Beweis von

(3) L(X) symmetrisch um p, = E(X), E([X- p,] 3) existiert

E([X-tt] 3) = 0.

Für beliebiges ungerades n E W (insbesondere n = 3) gilt:

D

D

D

L(X-p,) = L(p,-X) =? oi([X-p,]n) = oi([p,-X]n) = oi(-[X-p,]n)

=? E([X-ttt) = -E([X-ttt)

=? E([X-ttt) = 0. D

Page 111: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Erwartungswert und Varianz 15.1.16 B 7-25

Beweis von

(5) p,iX) = E(X3) - 3E(X2) · E(X) + 2 [E(X)] 3

= E(X3)- p, (3a2 + p,2) mit a2 = Var(X).

(6) ~-Li a + ßX) = ß3 ·p,iX) für a, ß E IR,

ad (5): p,iX) = E([X -p,] 3) = E(X3- 3p,X2 + 3p,2X- p,3)

= E(X3)- 3p,E(X2) + 3p,2 E(X)- p,3

= E(X3)- 3p,E(X2) + 2p,3

= E(X3)- 3p,(a2 + p,2)+ 2p,3

= E(X3) -p,(3a2 + p,2).

ad (6): p,ia + ßX) = E([(a + ßX)- (a + ßp,)] 3) da E(a + ßX) = a + ßp,

= E(ß3[X -p,)]3)

= ß3 ·E([X -p,)]3) = ß3 ·p,iX).

Beweis von

(7) X und Y stochastisch unabhängig

Für die zentrierten Zufallsvariablen U =X -p,x und V= Y -p,Y gilt:

p,iX+Y) = E(([X+Y]-[p,x+p,y])3)

= E([U+ vf)

= E(U3 + 3U2V + 3UV2 + V3)

= E(U3) + 3E(U2V) + 3E(UV2) + E(V3)

da U2, V bzw. U, V2 unabhängig nach 5.3 Satz 1

= E(U3) + 3E(U2)E(V) + 3E(U)E(V2) + E(V3)

= E(U3) + E(V3)

= p,iX) + ~-LiYJ·

da E(U) =E(V) = 0

D

D

Page 112: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Erwartungswert und Varianz 1501.16 B 7-26

Beweis von

(9) eia ± ßX) ± e3(X) für a, ß E IR mit ß > 00

Für 1-L = E(X) ' a2 = Var(X)

ist E(a±ßX) = a±ßp,' Var(a ± ßX) = ß2a2

und eia ± ßX) = p,3( ß~ [[a ± ßX]- [a ± ß p,]])

= p,3( ± ; [X- p,l)

= ± eiX) vgl. (6) 0 D

Beweis von

(10) ( q- p) 0

( n p q) , (q- p) 0 (npqrl/20

Übung!

Beweis von

(11)

Wir leiten eine Rekursionsformel für das r-te zentrale Moment von X,.....__ Pois(p,) her: 00

(i) 1-L (p,) : = E([X- 1-Lr) = 2:= [k- 1-Lr 0 p ( k I 1-L) ! r E wo! wobei r k=O

( ii) p ( k I p,) = f, e -JL p,k mit der partiellen Ableitung

(iii) :f.lp(klp,) = f,(e-f-lkp,k-l_e-f.lp,k) = ~ (k-p,)op(klp,)

Differenzieren von ( i) liefert

Page 113: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Erwartungswert und Varianz 1501.16

(iv)

Aus

= l. OE([X-0r+1) - roE([X-0r-1) f-L

= ~ 0 0rt1(0) - r 0 0r-1(0)

0rt1(0) = 0 ° [ r 0 0r_1(0) + 0~(0)] 0

0o(0) = 1

B 7-27

vgl. ( iii)

bzwo

ergibt sich nun mit (iv) sukzessiv für r = 0, 1, 2, 3, 4 (r = 4 wird hier nicht gebraucht)

r=O: 01 (0) = 0 ° [ 0 + 0 l = 0 0~(0) = 0

r= 1: 02(0) = 0 ° [ 1 + 0 l = 0 0~(0) = 1

r=2: 0i0) = 0 ° [ 0 + 1] = 0 0~(0) = 1

r=3: 0 i0) = 0 ° [ 3 0 + 1] = 302 + 0 0~(0) = 60 + 1.

Also 0iX) = 0' eiX) = 0-3/2 0 0iX) -1/2 = 0 0

Für das r-te Moment E(Xr) ergibt sich analog (was hier aber nicht benötigt wird):

( v)

= l. 0 E(xr+1) - E(Xr) f-L

E(xr+1) = 0 ° [ E(Xr) + :f-L E(Xr)] 0

vgl. ( iii)

bzwo

D

Page 114: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Erwartungswert und Varianz 1501.16 B 7-28

Beweis von

(12) ~t3[NB(n,p)] = nq(1+q) op-3

Spezialfall: n = 1.

Für X,.....__ NB(1,p) = Geo(p) leiten wir auch erst eine Rekursionsformel her für 00

( i)

( ii)

Ii (q) : = E([X -~tr) = 2:= [k-~tr -!( k I q) ! r E wo! wobei r k=O

1t = E(X) = 1 ~q ,

( iii) ;q~t=(1-qr2 [(1-q)+q]-;2 da p=1-q

! ( k I q) = ( 1- q) l (iv)

( v) ..Q...! ( k 1 q) = ( 1- q) k l-1 - l = l. -! ( k 1 q) 0

[ k-L] = l. -! ( k 1 q) 0

[ k - ~t] 8q q 1-q q

Differenzieren von (i) liefert -analog dem Beweis von (11) -

00 00

= ~02:=[k-~tr+1-f(klq)- r202:=[k-~tr-1-J(klq)) k=O p k=O

= ~ 0 E([X -~tr+ 1 ) - ; 2 ° E([X -~tr-1 )

= ~ 0 Ii r + 1 ( q) - ;2 ° Ii r-1 ( q)

( vi) Ii r + 1 ( q) = q 0 [ ;2 0 Ii r-1 (~t) + Ii ~ (~t) J 0

Aus ~t0(q) = 1

ergibt sich nun mit ( vi) sukzessiv

r=O: Ii~ (q) = 0

bzwo

vgl. (iii)( v)

Page 115: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Erwartungswert und Varianz 15.1.16 B 7-29

r = 1: f.l2(q) = q 0 [ 1..2 + 0 l = q (1- qr2 = q p -2 p

fl~(q) = (1-qr4 [(1-q)2 + 2(1-q)qJ = (1-qr4 [1-q2J

= (1- qr4

( 1- q) ( 1 + q) = ( 1- qr3 ( 1 + q) = p -

3 ( 1 + q)

r = 2: fliq) = q · [ 0 + p - 3 (1 + q)] = q. p - 3 (1 + q).

Also fliX) = fl3(q) = q. p - 3 (1 + q) ,

eiX) = f.l2(qr3/2. fliq) = q-3/2 P3. q. P -3 (1 + q) = q-1/2 (1 + q)

d.h.die Beh. gilt für n = 1.

Allgemeiner Fall: n beliebig.

Da NB(n,p) dien-fache Faltung von NB(1,p) ist, folgt aus (7) und dem Spezialfall

f.l3[NB(n,p)] = n · fl

3[NB(1,p)] = n. q. p - 3 (1 + q)

Mit Var[NB(n,p)] = n · fl2[NB(1,p)] = n. q p - 2

folgt e3[NB(n,p)] = (n q p - 2r 312

. fl3[NB(n,p)] = (nqr112 (1 + q). o

Beweis von

(13)

Spezialfall: ß = 1. Für X "' Gam( a, 1) ergibt sich nach 7.3.2 ( 6) für k = 1, 2, 3

E(X) = a, E(X2) = a(a + 1), E(X3

) = a(a + 1)(a + 2).

Also ist fliX) = E(X3) - 3E(X2

) . E(X) + 2 [E(X)] 3

= a ([ a 2 + 3a + 2] - 3 [ a 2 + a] + 2 a 2) = 2a ,

und mit a 2 = Var(X) = a vgl. 7.5.2 (3)

folgt e3(X) = a - 3 · fliX) = a - 312 · 2a = 2 a - 112 .

Allgemeiner Fall: Für beliebiges ß> 0 ist ßX"' Gam(a1 ß), vgl. 6.2.2 (3).

vgl. 7.6 (6)

vgl. 7.6 (8). D

Page 116: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Erwartungswert und Varianz 1501.16 B 7-30

Beweis von

(14) ~t3 [/' + exp{ N( a,ß2)}] = e3

a w3 (w2 -1)2 (w2 + 2) ,

e3

[/' + exp{ N(a,ß2)}] = (w2 -1)1/2 (w2 + 2)

Für U"' N(O, 1) ist X:= a +ß U"' N(a,ß2) und

( i) ~t3 [/' + exp{X}] = ~t3 [/' + ea 0 Y] mit

= e3a OIL3 (Y)

( ii) e3b + exp{X}] = e3b + ea 0 Y] = eiY)

Im Beweis von 7.3.2 (7) wurde gezeigt

Y:= exp{ßU}

vgl. 7.8 (6)

vgl. 7.8 (8)0

(iii) Mu(t) == E[exp{tU}] = exp{ ~ t2} für tEIR

Es folgt: E(Yk) = E[ exp{ß U} k] = E[ exp{k ß U}] = exp{ ~ k2 ß2} = w k2

und ~tiY) = E(Y3)- 3E(Y2

) 0 E(Y) + 2 [E(Y)] 3

= w9

- 3w4w + 2w3 = w3 [w6

- 3w2 + 2]

3[ 6 4 4 2 2 ] = w w + 2w - 2w - 4w + w + 2

= w3 [(w4

- 2w2 + 1)(w2 + 2)] = w3 (w2-1)2(w2 + 2),

also ~t3 [/'+exp{X}] = e3aw3 (w2-1)2(w2+2) 1 nach (i)

Und mit a 2 = Var(Y) = E(Y2)- [E(Y)] 2 = w4

- w2 = w2(w2-1)

folgt eiY) = a-3 o~t3(Y) = w-3 (w2-1r312 ow3 (w2-1)2(w2 +2)

= ( w2 -1)1/2 ( w2 + 2)

nach (ii)o D

Page 117: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Erwartungswert und Varianz 15.1.16

7.7 Die Ungleichungen von Chebyshev und Markov

Beweis von

Ungleichung von Markov: Für eine reelle Zufallsvariable Z und r > 0

existiere das r-te absolute MomentE( IZrl). Dann gilt für jedes c > 0 :

(2)

B 7-31

Wir zeigen allgemeiner für eine Zufallsvariable U > 0 und jede streng monoton wach­

sende Funktion g: [0, oo)-----+ [0, oo) die Ungleichung

(i) P{ U>c} < 9(c) ·E(g(U)),

woraus sich die Markov-Ungleichung für U = IZI und g(x) = xr ergibt. Für (i) geben

wir zwei Beweise an: der erste verwendet die Monotonie des Erwartungswerts, und

der zweite benutzt (nur) die Darstellung des Erwartungswerts aus 7.2 Satz 1 bzw. 2.

1. Beweis von (i): Für die Zufallsvariable

( ii) falls

sonst

U>c bzw.

bzw. Y = g(c) ·l{U~c} = g(c) ·l{g(U)~g(c)}

folgt mit der Monotonie des Erwartungswertes

g(U) > g(c) } < g(UJ .

(iii) E( g( U)) > E(Y) = g( c) · P { Y = g( c)} = g( c) · P { U > c}

Wegen c>O ist g(c) > 0 und Division durch g(c) liefert (i).

2. Beweis von (i):

Stetiger Fall: U sei eine stetige Zufallsvariable mit der Dichte f Dann ist 00

E(g(U)) = 1 g( u)f( u) du 0

00

> 1 g( u) !( u) du c

00

> g(c)1 f(u)du c

dag>O

da g( u) > g( c) für u > c

g( c) 0 p { u > c}

Wegen c>O ist g(c) > 0 und Division durch g(c) liefert (i).

Page 118: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Erwartungswert und Varianz 15.1.16 B 7-32

Diskret Fall: Für diskretes U mit Träger Tc [0, oo) und Zähldichte f ergibt sich

analog zum stetigen Fall (mit Summen statt Integralen):

E(g( U)) = 2:= g( u) f( u) > 2:= g( u) f( u) > g( c) 2:= f( u) = g( c) · P { U > c} . uET c~uET c~uET

Beweis von

(5)

d " a "::::} :

Var(X) = 0

Für p, = E(X) ist zu zeigen

P{X=tt} = 1 bzw.

bzw.

L(X) = Dirac(E(X) ).

P{IX-tti=O} = 1

P{IX-p,I>O} = o (i).

D

Für die aufsteigende Folge An = {IX -p, I> ~} folgt mit der Chebyshev-Ungleichung

für allen

also 0 = lim P(A ) = P( U A ) n---+oo n n E lN n

(Stetigkeit von unten).

Wegen U A = { I X- p, I > 0} nElN n

folgt (i).

ad "{::::": vgl. 7.5.1 (1). D

7.7.1 Normalverteilung

Beweis von

(1) 2 <P(r)- 1

Für U = 1.. (X -p,) "'N(O, 1) gilt a

P{IUI<r} = P{-r<U<r}

= P{U<r}- P{U<-r}

= <P(r) - <P(- r)

= <P(r) - [ 1- <P( r) J vgl. 4.3.3 (3)

= 2 <P(r)- 1. D

Page 119: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Erwartungswert und Varianz 1501.16 B 7-33

7.7.2* Empirische Verteilung

Beweise von

(2) P{X= xo} == 1..o#{k=l,ooo,nlxk=x0}0 z n z

n (3) E(X) = 1.. 2:: xo

n z i=l n

Var(X) = 1.. l:(xo-x) 2 n z

i=l

(5)

n

-==x

2 ==a

X

Mittelwert von x1, 000, x n ,

Varianz von x1, 000, x n °

r-tes Moment von x1, 000 , x n ,

E([X -xr) = ~ 2:: (xi- xr =: p,rx r-tes zentrales Moment von x1, 000, xn,

(6) e3(X) = ~-'3xi~~~3 = .Jii[of_(xi-x)3]o[of_(xi-x)2]-3/2 ==e3xo z=l z=l

ad (2):

ad (3): Folgt aus ( 6) für r = 1 bzwo r = 20

ad (4): Folgt aus 7.7 (3) weil

D

D

P{x-ra <X<x+ra} = l.o#{k=l,ooo,nlx-ra <xk<x+ra} D X X (2) n X X

ad (5): Folgt mit 7.2 Satz 1 und der Darstellung X= x( U) mit U"' DG( n)

ad {6): Aus

n 2:: x(ir 0 P{U = i} i=l

n 2:: [x 0 -xr OP{U=i}

0 z z=l

und ( 4) ergibt sich mit ( 6)

n 'I\' X or 01.. u z n' i=l

1-Lrx 0 D

D

Page 120: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Erwartungswert und Varianz 15.1.16 B 7-34

7.8* Covarianz, Korrelation und linearer Zusammenhang 7.8.1 * Die Covarianz

Beweise zu

(1) Cov(X, Y) : = E( [X -~t) · [Y -~tyl)

= E(XY) -~Lxliy.

( Covarianz von X und Y)

(2) [ E( IXYI) ]2

< E(X2) ·E(Y2

) (Ungleichung von Schwartz).

ad (1): Die Existenz der Erwartungswerte in (1) ergibt sich mit (2) wie folgt

E( IXYI) < VE(X2) ·E(Y2

) < 00

E( I [X- fL) · [Y -~ty]l) < a x · a Y < oo da a X' a Y < oo.

Die Gleichheit in (1) wurde schon in 7.4 (9) gezeigt.

ad (2):

Fall1: a : = E{Y2} > 0.

Aus IXYI < X2 + Y2 folgt E(IXYI) < E(X2) +E(Y2

) < 00

und für b : =- E( IXYI) E IR ergibt sich

0 < E{ [aiXI + biYIJ~ = a2

E{IXI2

} + 2abE(IXIIYI) + b2E{IYI

2}

= a2 E{X2}- 2ab2 + b2

a

= a[aE{X2}-b2].

Wegen a > 0 folgt: b2 < aE{X2} 1 d.h. die Beh. gilt.

Fall 2: 0 = E{Y2} = Var(Y) + [E(Y)f

Es folgt E(Y) = 0, Var(Y) = 0 und somit P{Y = 0} = 1, vgl. 7.7 (5).

Wegen y = 0 ::::} IXYI=O

gilt 1=P{Y=O} < P{IXYI=O} und somit IXYI "'Dirac(O).

Mit 7.7 (1) folgt E( IX Y I) = 0 und somit gilt die Beh.

D

D

Page 121: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Erwartungswert und Varianz

Beweise von

(5)

(6)

Cov( a + X 1 ß + Y) = Cov(X1 Y)

Cov( a X 1 Y) = a · Cov(X1 Y)

= Cov(X1 a Y) ,

15.1.16

für a,ßE IR.

(7) Cov(X1 [Y + Zl) = Cov(X1 Y) + Cov(X,Z) ,

Cov([X +ZL Y) = Cov(X1 Y) + Cov(Z,Y).

(8)

(9)

E(X Y) = E(X) · E(Y) + Cov(X, Y) ,

Var(X + Y) = Var(X) + Var(Y) + 2 · Cov(X, Y) .

B 7-35

ad (5): Cov(a +X1 ß+ Y) = E{ [(a+X)- E(a +X)] · [(ß+ Y)- E(ß + Y)]}

= E{ [X- E(X)] · [Y- E(Y)]} = Cov(X, Y). D

ad (6): Cov(aX1 Y) = E{ [aX- E(aX)] · [Y- E(Y)]}

= a. E{ [X- E(X)] . [Y- E(Y)]} = a. Cov(X1 Y).

Die zweite Gleichung gilt aus Symmetriegründen, vgl. (4). D

ad (7}: Cov(X1 [Y +Z]) =E{ [X- E(X)] · [(Y +Z)- E(Y +Z)]}

= E{ [X -E(X)] · [(Y-E(Y))+(Z+E(Z))]}

= E{ [X- E(X)] · [Y -E(Y)]} +

E{ [X- E(X)] · [Z-E(Z)]}

= Cov(X1 Y) + Cov(X,Z)

Die zweite Gleichung gilt aus Symmetriegründen, vgl. (4). D

ad (8): vgl. (1) bzw. 7.4 (9). D

ad (9): vgl. 7.4 (8). D

Page 122: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Erwartungswert und Varianz 1501.16 B 7-36

Beweise von

(10) n

Var( 2: xo) 0 z z=1

n n 2: Var(Xo) + 2 2: Cov(Xo,Xo) 0 0 z 0 0 z J z=1 z,J =1

i <j

(11) X, Y stochastisch unabhängig Cov(X, Y) = 0 1

ad {10): Induktion über no

Für n = 1 gilt die Beho, und der Induktionsschritt n r----+ n + 1 ergibt sich wie folgt: n n n

Var( [ol:Xi] + Xn+1) = Var(_l:Xi) + Var(Xn+1) + 2Cov( [ ol:Xi],Xn+1) z=1 z=1 z=1

n 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0+ 2 2: Cov(Xi,Xn+1) vgl. (7)

i=1 Mit der Induktionsvoraussetzung erhält man nun die Beho für n + 1:

n nt1 n n Var( [ l:Xi] + Xn+1) =

0

2: Var(Xi) + 2 0 ~ Cov(Xi,Xj) + 2 0

2: Cov(Xi,Xn+1) i=1 z=1 z,J =1 z=1

i <j

nt1 nt1 2: Var(Xo) + 2 2: Cov(Xo,Xo)o 01 z 001 ZJ z= z,J =

D

i <j

ad {11): vgl. 7.4 (10)0 D

Page 123: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Erwartungswert und Varianz 15.1.16 B 7-37

Beweis von

Wir betrachten zuerst den Spezialfall n = 1. Nach 6.1.2 (3) ist Xk ,.....__ B(1,pk) und somit

( i)

Da Xk und Xl nur Werte aus {0, 1} annehmen, ergibt sich für k :;= l

Wegen P{X1 + ... +XK= 1} = 1 folgt P{XkXl = 0} = 1, also XkXl '""'"'Dirac(O) und

(ii) E(XkXz) = 0 für k :;= l.

Mit 7.4 (9) sowie (i) und (ii) folgt nun (12) für n = 1:

Für beliebiges n betrachten wir stochastisch unabhängige

(i) - (i) (i) ,.....__ X - (X1 , ... , XK ) MK(1,p) für i = 1, ... , n.

Setzen wir Xk = I=x1i), so ist X= (X1, ... , XK) ,.....__ MK(n,p) nach 6.1.2 (1) und zu zei­

genbleibt i=l

(iv) für k, l = 1, ... , K.

Für i :;= j sind xp) und xkW stochastisch unabhängig und mit (11) folgt

( v)

Nun ist

Cov(x1i) ,xp)) = 0

( n (i) n 0))

Cov(Xk,Xl) = Cov i"f_lXk , j"f_lXl

.I= .I= Cov(x1i) ,xp)) z=lJ =1 n

2:= Cov(X(i) ,x(i)) 0 k l z=1 n

2:= pk( 8kz- pJ i=1

für i :;= j.

vgl. (7)

vgl. (iv)

nach Spezialfall n = 1

D

Page 124: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Erwartungswert und Varianz 1501.16 B 7-38

7.8.2* Der Korrelationskoeffizient

Beweise von

(2) Corr(X,Y) Cov(X,Y)

jv ar(X) 0 V ar(Y)

Cov(X,Y) axoay

= Cov( X- 1-L x , y- P,y) . ax ay

(4)

(5)

(6)

(7)

Corr( a + ßX, Y) Corr(X,Y) Corr(X, a + ßY) für a E IR, ß > 00

Corr( a- ßX, Y) = - Corr(X, Y) = Corr(X, a- ßY) für a E IR, ß > 00

X, Y stochastisch unabhängig ::::} Corr(X, Y) = 0 1

- 1 < Corr(X, Y) < + 1.

ad (2): Die letzte Darstellung ergibt sich aus den Eigenschaften 7.8.1 (5) ( 6)0 D

ad (4 -5): Aus

und

folgt

Cov( a ± ßX, Y)

Var(a ±ßX)

Corr( a + ßX, Y)

± ß ° Cov(X,Y)

ß2 0 Var(X)

± Corr(X, Y)o

vgl. 7.8.1 (5) ( 6)

Die jeweils zweite Gleichung folgt aus Symmetriegründen, vgl. (3)0 D

ad {6): Die Beho folgt aus 7.8.1 (11)0

ad (7}: Es ist

[Cov(X,Y)]2

= IE((X-p,x)o(Y-p,y))l2

< E(IX-p,xloiY-p,YI)I2

< E( IX- f-Lxl2

) OE( I Y- 1-Lyl ~

und hieraus folgt Corr(X, Y) 2 < 1 und somit (7)0

vgl. 7.2 (8)

a ~ 0 a~ vgl. 7.8.1 (2)

D

D

Page 125: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Erwartungswert und Varianz 15.1.16 B 7-39

7.8.4 * Linearer Zusammenhang und Regressionsgerade

Beweis von

(6) E{(Y-j(XIa,b)) 2} = E{(Y'-c-bX'?}

2 (Y) 22 2 = a Y- 2 b Cov X, + b a X + c

= a~(l-e2 ) + (bax-eay)2 + c2

mit

(7) e: = Corr(X, Y).

Es ist: E{(Y'- c- bX'?} = E{ Y'2 + c2 + b2X'2 - 2cY'- 2bX'Y'- 2 bcX'}

E{Y'2} + c2 + b2 E{X'2}- 2bE{X'Y'} da E(X') = 0, E(Y') = 0

2 2 2 2 ( ) a Y + c + b a X - 2b Cov X, Y

2 2 2 2 a y + c + b a X - 2b &J a Xa y

2 ( )2 2 2 2 ay + bax-eay -e ay+c

= a~(l-l) + (bax-eay? + c2.

Beweis von

(13) E(R)=O, und

D

ad {13): E(R) = E (Y- a- ßX) = f-Ly- a- ßp,x = 0, vgl. (8). D

ad (14): Mit (13) und (9) folgt: D

Page 126: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Erwartungswert und Varianz 15.1.16 B 7-40

Beweis von

(15)

(16)

bzw.

P{Y= a+ßX} = 1.

ad {15): Wegen Var(R) > 0 folgt aus (14): r} < 1.

ad {16): r} = 1 {} Var(R) = 0, vgl. (14)

{} R "'Dirac(O), vgl. (13) und 7.7 (5)

{} P{R=O} = P{Y=a+ßX} 1.

Beweis von

(17) e2 = Var(Y)- Var(R)

Var(Y)

Reststreuung von Y nach Regression auf X

Streuung von Y

D

D

Es gilt: e2 = Var(Y)- Var(R)

Var(Y) Var(R) = Var(Y) · [ 1- e2J , vgl. (14). D

Beweis von

(18) P{IY-f(X)I>ray} < ?-·(1-i) fürr>O.

Esgilt: P{IY-f(X)I>ray} = P{IRI>ray} > --:-_?.~ ·Var(R), vgl.7.7(1) .,-ay

und mit (14) folgt die. Beh. D

Beweise zu

(19) für y E IR.

Die beiden Regressionsgeraden f und g - d.h. gerrauer ihre zugehörigen Graphen in

IR 2 - stimmen aber nur im Falle= e -1 bzw.l e I= 1 überein.

Es ist X= g(y) - O"y -1 ( ) Y - /-Ly + - f2 X - f-L X ax

und somit stimmt g-1 gerrau dann mitf aus (10) überein, wenn e =e-1 gilt. D

Page 127: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Schätzen von Erwartungswert und Varianz 15.1.16 B8-1

8. Schätzung von Erwartungswert und Varianz

8.1 Schätzen des Erwartungswerts

Beweis von

(4) E((L(X)) = p, ,

(5)

(6)

Var((L(X)) = ~ o?

p,3(4(X)) = ~2 ·p,/X) ,

ad (4): E((L(X)) n n n

E(l. l:X.) = 1. l:E(X.) = 1. 2:1-L = p,. n z n z n i=l i=l i=l

D

n n ad (5): Var((L(X)) = Var(~ _l:Xi) = ~2 · Var(.l:xi)

z=l z=l

ad (6):

n = .L · 2:: Var(X.) n2 z

i=l n

= l_. l:a2 = .la2. n2 n

i=l n n

J-L3(4(X)) = J-L3( ~ .2:: xi) = ~3 · J-L3( .2:: xi) z=l z=l

n = ~. 2:: p,3(X.)

n . z z=l

e3(4(X)) = p,3(4(X)) · [Var(4(X))r312

= .L.I-L (X). n3/2 . .L n2 3 a3

= _l_ ·p, (X) . .L = _l_ · e (X). yn 3 a3 yn 3

xl' ... , xn unabhängig

vgl. 7.4 (10)

D

xl' ... , xn unabhängig

vgl. 7.6 (7)

D

Page 128: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Schätzen von Erwartungswert und Varianz 15.1.16 B8-2

8.3* Schätzung der Varianz

8.3.1 * Schätzung der Varianz bei bekanntem Erwartungswert

Beweis von

(5) Var (Y) = p, 4

- a 4 ,

Es ist D

8.3.2* Schätzung der Varianz bei unbekanntem Erwartungswert

Beweis von

(2) XTAX '

wobei die nxn Matrix A = ( a . . ) gegeben ist durch: ZJ

(3) a .. = 8 . . -1.. (8 ist das Kronecker-Symbol). ZJ ZJ n

Es ist ~(X~- 2XX. + X2)

i z z

2 - -2 ~Xi - 2 X(~XJ + nX z z

~x~- 2.l(~x.) 2 +.l(~x.) 2

iz niz niz

~x~ _.l(~x.) 2

i z n i z

~ ~ 8 .. x.x.-1. (~x.)(~ x.) i j ZJ z J n i z j J

~ ~ 8 .. x.x.-1. ~ ~ x.x. i j ZJ z J n i j z J

~ ~ (8 .. -l.)x.x. i j ZJ n z J

~ ~ a .. x.x. i j ZJ Z J

XTAX. D

Page 129: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Schätzen von Erwartungswert und Varianz 15.1.16

Beweis von

(4) ~ (Xi-X)2 z

~ (Xi-X)2 z

Es ist

Beweis von

2 - 2 ~(Xi-a) -n(X-a) z

~X?- nX2 i z

für aEIR

vgl. (2)

2 2 -2 - 2 ~Xi - 2a(~Xi) + na - [nX - 2anX + na J z z

2 2 -2 - 2 0[Xi - 2aXi + a J - n [X - 2 aX + a J z

- 2 -n(X-a) .

B8-3

D

(5) (erwartungstreu).

1. Beweis (direkt):

Es ist E{SXX} E{~ (Xi-~t) 2 - n (X-~t) 2 } z

0 E{(Xi-~t) 2}- nE{(X-~t) 2 } z

2 -na - n Var(X)

2 2 na -a vgl. 1.1 (2).

und (5) folgt.

2. Beweis (mit nachfolgendem Theorem): vgl. Beweis von (9).

Beweis von

(6) E(a(X))<a,

vgl. (4) für a = fL

wobei die Gleichheit nur im trivialen Fall gilt, wenn a(X) Dime-verteilt ist.

Für Y = a(X) gilt nach 7.7 (6)

( i) Var(Y) = E(Y2)- [E(Y)]2 > 0

[E(Y)]2 < E(Y2) = a 2

bzw.

bzw. E(Y) < a

D

wobei die Gleichheit gerrau dann gilt, wenn Y bzw. a2(X) Dirac-verteilt ist. D

Page 130: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Schätzen von Erwartungswert und Varianz 1501.16

Beweis von

Das Theorem soll angewandt werden auf Uo = Xo-p, für i = 1, 000, no z z

Wegen U = X -p,

ist SUU = ~ (Ui- U) 2 = ~ (Xi- X) 2 = SXX 1 z z

also SUU = UT AU nach (2) mit U statt Xund A aus (3)0

Das 20 und 40 zentrale Moment von Uo ergeben sich zu z

m2 = E{ u;} = E{(Xi-p,)2} = a2

,

m4

= E{ u:} = E{(Xi-p,) 4} = p,

4 0

Für die Matrix A = ( a 0 0) aus ( 3) ergibt sich ZJ

Spur(A) = ~ aoo = ~ (8° 0 _1..) = n-1 0

i u i u n

Ferner ist A idempotent

AA=A (Beweis: elemetar ausrechnen!),

also Spur(AA) = Spur(A) = n-1.

Aus dem Theorem ergibt sich daher

B8-4

( i)

( ii)

E{UTA U}

Var{UT AU}

(n-1)a2 als 20 Beweis für (5),

( ~ a 7 i) 0 (p, 4 - 3 a 4

) + 2 ( n- 1) a 4

0

z

Mit ~a~o = ~ (1-1..) 2 = n(1-1..) 2 =1..(n-1)2 i zz i n n n

folgt Var{UTAU} = ~(n-1)o[p,4(n-1)-a4(3(n-1)-2n)J

= ~ ( n- 1) 0 [!-Li n- 1) - a \ n- 3) J

= .l (n- 1) 2 0 [!-L - n - 3 a 4 J 0

n 4 n-1

Wegen o-2 = - 1-sxx = - 1-urAu n-1 n-1

folgt Var(G-2) = [n~ 1] 2 0 Var(UT AU) 1[ n-34] - 1-L --a n 4 n-1 °

D

Page 131: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Schätzen von Erwartungswert und Varianz 1501.16 B8-5

Beweis von

Theorem: Erwartungswert und Varianz quadratischer Formen

U = (U1, 000, Un) sei ein Vektor unabhängiger identisch verteilter Zufallsvariablen

U1, 000, U mit Erwartungswert E(Uo) = 0 und exisitierenden Momenten

n z

für 1 < k < 4 0

Für eine symmetrische nxn Matrix A = ( a 0 0) hat die quadratische Form ZJ

T U AU= "E,"E,aOOUOUO i j ZJ Z J

den Erwartungswert und die Varianz

(a)

(b)

ad (a):

E(UTA U)

Var(UT AU)

Spur(A) om2

(~aii) o(m4 -3m;) + 2Spur(AA) om; 0

z

Für i :;= j sind U 0 und U 0 unabhängig und somit z J

Es folgt

ad (b):

E{UOUO} = E{Uo} OE{Uo} = 0 0

z J z J

E{"E, "E, a 0 0 U 0 U 0} i j 'lJ z J

"E, "E, aooE{UOUO} i j 'lJ z J

"E,aooE{U?} i zz z

"E,aoo m2 i zz

Spur(A) 0 m2

Wegen (i) Var(UT AU) E{(UT A U) 2}- E{UT A U} 2

0 0 0 0 0 0 0 0 0 0 0 0 0 - [Spur(A) 0 m2F

ist noch zu berechnen

E{(UT A U)2

} = E{('f 1 aij Uiuj?}

E{"E, "E,"E, "E,aooak1uououku1} ijkf 'lJ ZJ

"E, "E, "E, "E, a 0 0 ak R ( U 0 U 0 Uk U1) 0 ijkZ'lJ r zJ

nach (a)

Page 132: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Schätzen von Erwartungswert und Varianz 15.1.16

Zur Bestimmung von E (Ui Uj Uk Uz) unterschieden wir mehrere Fälle:

i=j=k=l: E(UiUjUkUz) =E(Ui4) =m4 .

i=j;=k=l: E(UiUjUkUl) =E(Ui2u;)

i=k;=j=l:

= E (Ui2). E(U;)

2 = m2

-m2

= m2

.

2 =m 2

analog.

i=l;=j=k: E(UiUjUkUl) = m; analog.

i \t {j,k,l}: E(UiUjUkUz) =E(U([UjUkUl])

B8-6

= E(U) ·E(UjUkUl) da Ui' [UjUkUz] unabhängig

= o . E( uj u k uz ) = o .

j \t { i, k, l } :

k \t { i,j, l } :

l \t { i,j, k } :

Also ist

E (Ui ujuk uz)

E (Ui ujuk uz)

E (Ui ujuk uz)

~ ~ ~ ~ a .. ak R ( U. U. Uk Ul). ijkZ'lJ r zJ

=0 analog.

=0 analog.

=0 analog.

2 ~ a .. a .. m

4 + ~ ~a .. akkm

2 i zz zz i~k zz

2 + ~ ~ a .. a .. m2 i ~ j ZJ ZJ

2 + ~ ~ a .. a .. m2 i ~ j ZJ JZ

J a.. da A symmetrisch

1J

= m4(~ a~.) + m 22 [~ ~a .. akk + 2 ~ ~ a~.].

z zz z ~ k zz z ~ J ZJ

Wir formen den Ausdruck [ .... ] weiter um

Page 133: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Schätzen von Erwartungswert und Varianz 1501.16

2 ~ ~ a 0 0 akk + 2 ~ ~ a 0 0 i ;zt. k zz i ;zt. J ZJ

und erhalten

2 2 2 ~ ~ a 0 0 akk - ~ a 0 0 + 2 ~ ~ a 0 0 - 2 ~ a 0 0 i k ZZ i Z Z i J ZJ i Z Z

~ ~ aooakk i k zz

(~ aol i zz

(Spur A) 2

(Spur A) 2

2 + 2 ~~ aoo i J ZJ

+ 2 ~(~ ao oaoo) i J ZJ JZ

+ 2 ~ (AA)oo i zz

+ 2 Spur(AA)

2 -3 ~ aoo i zz

2 -3 ~ aoo i zz

m4 (~ a7J + m; [(Spur A? + 2 Spur(AA)- 3 ~ a7J z z

(~ a7J(m4 - 3m;) + m; [(Spur A) 2 + 2 Spur(AA)] 0

z

Mit (i) folgt jetzt (b)o

B8-7

D

Page 134: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Schwaches Gesetz der großen Zahlen und Zentraler Grenzwertsatz 28.1.16 B 9 - 1

9. Schwaches Gesetz der großen Zahlen und Zentraler Grenzwertsatz

9.1 Konvergenz nach Wahrscheinlichkeit und

Schwaches Gesetz der großen Zahlen

Beweise zur Definition

Die Äquivalenz (1) {} (1) 1 und die Eindeutigkeit des Grenzwerts folgen aus den je­

weiligen Eigenschaften in 9.1.1 für den Spezialfall n = 1. D

Beweis von

(2) E(X ) = p, für alle n E W, n

lim Var(X ) = 0 n---+oo n

Für jedes c > o folgt aus der Chebyshev-Ungleichung

0 < P{ I xn- 1-L I > c} < _!__ 0 Var(X ) c:2 n

Also 0 < lim P{ IX -p, I> c} < 1._2

·lim Var(X ) n---+ oo n - c: n---+ oo n

Beweis von

1 -·0 c:2

p X ------+ p, .

n

0.

Schwaches Gesetz der großen Zahlen: Sei (X ) li.T eine Folge stochastisch n nEm

unabhängiger und identisch wie X: (.f2, d, P)-----+ IR verteilter Zufallsvariablen

deren Erwartungswert p, = E(X) und Varianz a 2 = Var(X) existieren. Dann

konvergiert der Mittelwert x(n) der ersten n Zufallsvariablen nach Wahrschein­

lichkeit gegen p,:

(3) x(n) _P_--+ n---+ oo 1-L

Anwendung von (2) auf die Folge x(n) mit

Var(x(n)) = 1n a 2 ----+ 0. n---+ oo

(schwaches Gesetz).

D

D

Page 135: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Schwaches Gesetz der großen Zahlen und Zentraler Grenzwertsatz 28.1.16 B 9 - 2

9.1.1 Eigenschaften der Konvergenz nach Wahrscheinlichkeit

Beweise zur Definition

(1) Für jede offene Umgebung U von a gilt:

lim P{X EU}= 1 bzw. n---+oo n lim P{ X \tU} = 0. n---+oo n

(1)' Für jedes c > 0 gilt:

lim P { II X - a II < c} = 1 bzw. n---+oo n lim P { II X - a II > c} = 0 . n---+oo n -

Bemerkung: Der Grenzwert a ist durch (1) bzw. (1)' eindeutig bestimmt.

Der Nachweis der Bemerkung ist eine Übung und wir zeigen nur (1) <=> (1)'.

Vorbemerkung: Für die offene c-Umgebung U (a) == {xEIRKIIIx-all <c} um a gilt [

( i) {X EU (a)} = {II X -all <c}. n e n

ad (1) => (1)': Für U = U (a) in (1) ergibt sich (1)'. [

ad (1)' => (1): Zu U gibt es ein c > 0 mit U (a) CU. [

Aus P{IIXn-all<c} = P{XnEUs(a)} < P{XnEU} < 1

folgt 1 = #--TooP{ II xn- a II < c} < #--TooP{ xn EU} < 1

also lim P{ X EU}= 1. n---+oo n D

Beweis von

(2) p X ----+a

n n---+ oo

Es ist: P{IIX -all <c} = P{IIIX -aii-OI<c}. n n D

Page 136: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Schwaches Gesetz der großen Zahlen und Zentraler Grenzwertsatz 28.1.16 B 9 - 3

Beweis von

(3) p

g stetig in a , X n n---+oo ------+ a

Für c > 0 ist zu zeigen

(i) P{llg(Xn)-g(a) II <c} n---+oo 1.

Da g stetig in a ist, gibt es ein 8 > 0 mit

llx-all<8 ::::} II g(x)- g(a) II < c für alle x E IRK

Also {II X -all < 8} c {llg(X )-g(a) II <c} n n

und P{ll X -all < 8} < P{llg(X )-g(a) II <c} n n < 1

I da X

p I a t n n---+ oo

1 und ( i) folgt. D

Beweis von

(4) p

X n n---+oo ------+ a für alle k = 1, ... ,K.

ad ,;::::}": Folgt aus (3), weil die k-te Projektion 1r k: IRK-----+ IR stetig ist.

ad "<;::=.": Für c > 0 ist zu zeigen

( i) P{ II xn- a II > c} _n_---+_00--t 0 0

Aus

::::} IIX -all <c n

folgt

K Also p { II xn- a II > c } < p ( u { I X k- ak I > ~ c } )

k=l n vK

K 2:: P { I X k- ak I > ~ c } k=l n vK

< (Sub-Additivität)

1 da xnk p a

n---+ oo k

0 und ( i) folgt. D

Page 137: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Schwaches Gesetz der großen Zahlen und Zentraler Grenzwertsatz 2801.16 B 9 - 4

Beweis von

(5)

(6)

Für reelle Zufallsvariablen X , Y und a, b E IR gilt: n n

p X ----+ a

n n---+oo ' y p

----+ b n n---+oo

p X +Y ----+ n- n n---+ oo p X oy

n n n---+ oo

Ist X a E IRK konstant für allen E W, so folgt: n n

X p

----+ a n n---+ oo

lim a = a 0

n---+oo n

ad (5): Es gilt nach (4)

Aus der Stetigkeit der arithmetischen Operationen folgt die Beho mit (3)0

ad {6): Für c > 0 gilt

P{IIX -all<c} n

Also: p

X ----+ a n n---+ oo

Für alle c > 0:

Für alle c > 0:

lim a = a 0

n---+oo n

P{wED 111 X (w)-all <c} n

P{wED 111 a -all <c} n

{ P(D) = 1 falls II an- a II < c }

0

P(0) = 0 sonst

lim P { II X - a II < c} = 1 {} n---+oo n

II a - a II < c für fast alle n E W {} n

a±b

aob

D

Page 138: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Schwaches Gesetz der großen Zahlen und Zentraler Grenzwertsatz 28.1.16 B 9 - 5

9.1.2 Stochastische Konvergenz und Konsistenz von Schätzern

Beweis von

o-2(x(n)) = n~1 ~ (Xi-x(n))2 z

(4)

(5)

(6)

(1- ~). o-2(x(n)) = ~ ~ (Xi- x(n))2 z

a(x(n))

ad (4) {1. Beweis): Aus 8.3.2 (9) folgt

p n---+ oo

p n---+ oo

p n---+ oo

Var(a2(x(n))) = ~(~t4 -~::::~a4 ) -----+ 0

und somit ergibt sich (4) mit dem Kriterium 9.1 (2).

ad (4) (2. Beweis): ohne 8.3.2 (9)

Es gilt:

( i)

1 n-1

1 n-1

n n-1

1

~(Xi-~t)2 z

n o-2 (x(n)) -Ii

[ 52 (x(n)) Ii

(3) ~ p

2 a

Mit den Rechenregeln 9.1.1 (5) und (7) folgt (4).

(2) ~ p

0

2 a .

2 a .

a.

vgl. 8.3.2 ( 4)

für n---+ oo

2 =a .

D

D

ad (5): Folgt aus ( 4) mit 9.1.1 (7) und ( 1- ~) -----+ 1. D

ad {6): Folgt aus (5) mit 9.1.1 (3), da g(x) = Jx. eine stetige Funktion ist. D

Page 139: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Schwaches Gesetz der großen Zahlen und Zentraler Grenzwertsatz 2801.16 B 9 - 6

Beweis von

(7)

Wir zeigen erst n

(i) 1. 2:= (X 0 - x(n)) 3 n 0 z

z=l

p

n---+ oo

p n---+ oo

ad (i): Für Z: =X- p, sind die Zufallsvariable Z 0 =X 0- p, stochastisch unabhän-z z

gig für i = 1, 000, n mit Mittelwert z(n) = x(n) -p,o Es folgt:

n = 1. 2:= [ Z~- 3Z~ 0 z(n) + 3Z 0 ° z(n)

2- z(n)

3 J

n 0 z z z z=l

1. tz~ -3 ° 1. tz~ 0 z(n) + 3 ° 1. i:zo 0 z(n)2

z(n)3

n z n z n z i=l i=l i=l

für n---+ oo IP IP

I IP IP IP I p

vgl. 9.1.3 (3) l l l l l l E(Z3) -30 E(Z~) 0 E(Z) + 3 OE(Z) o[E(Z)] 2

- [E(Z)] 2 z

Mit E(Z) = 0, I-L3 = E(Z3) ergibt sich (i)o

Da g(x) = x-3/2 eine stetige Funktion ist, folgt aus (5) mit 9.1.1 (3)

[ n l-~2 ~ 02:= (Xi- x(n))2

z=l

p -3 a ' ( ii)

n---+ oo

und Multiplikation mit (i) liefert nach 9.1.1 (5)

p n---+ oo

Page 140: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Schwaches Gesetz der großen Zahlen und Zentraler Grenzwertsatz 28.1.16 B 9 - 7

9.2 Verteilungskonvergenz und Zentraler Grenzwertsatz

Übung: Beweis von

Beweis von

(7)

(8)

p { u () u( n) } _n_---+_oo---t

p { u1 () u(n) () u2} _n_----+_00---t

1- <P(u)

<P( u~ - <P( u1)

ad (7}: Zunächst ergibt sich aus ( 6) sofort

L(X) = L(X').

für alle u E IR,

( i) 1-<P(u) für uEIR.

Zu zeigen bleibt

( ii) ------+ 1- <P( u) n---+ oo

für uEIR.

Für Y =-X ist: f-Ly = E(Y) = -E(X) =- f-Lx' Var(Y) = Var(X) = a2

v(n): = _1_ [ y(n)- np, ] = _1_ [- x(n) + np, ] = - u(n)_ ayn + Y ayn + x

( 6) angewandt auf Y liefert

(iii) ------+ <P(- u) = 1- <P( u) d.h. (ii). n---+ oo

ad {8): Aus (ii) folgt die komplementäre Aussage

und somit läßt sich ( 6) erweitern zu

(iv) P { u(n) () u} n---+oo <P( u)

Wegen P{ u1 < u(n) () u

2} = P{ u(n) () u

2}- P{ u(n) < u

1}

P{ u1 < u(n) () u2} = P{ u(n) () u2}- P{ u(n) < u1}

folgt (8) aus (iv) für u = u2

und u =ur

für uEIR.

für uEIR.

D

ad Zusatz 2: Aus der Gleichmäßigkeit der Konvergenz in ( 6) ergibt sich mit obigen

Beweisen auch die gleichmäßige Konvergenz in (7) bzw. (8). D

Page 141: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Schwaches Gesetz der großen Zahlen und Zentraler Grenzwertsatz 28.1.16 B 9 - 8

Beweis von (unter Verwendung von (14)):

(15)

(16) u,~~JR I P{ u () u(n) () v}- [<P(v) -<P(u)]l 2c -3 < -·a ·v. Vn 3

ad {15): Wie im Beweis von (7) betrachten wir Y =-X mit

Anwendung von (14) auf Y liefert- vgl. (iii) im Beweis von (7) -

:~~ IP{u<rfn)}-<P(-u) I < Jn·a-3 ·v3

und mit <P(- u) = 1- <P( u) folgt die Beh.

ad {16}: Wie im Beweis von (7) betrachten wir Y =-X mit

Wegen P{u<rfn)} = 1-P{rfn)<u}

ist I P{ u< u(n)}- [1-<P(u)]l = I P{ u(n) < u}- <P(u) I

und aus (15) folgt

sup 1 P { u(n) < u}- <t>( u) 1 < s uE 1R

mit S : = fo . a -3. v 3 .

Also läßt sich (14) erweitern zu

( i) sup I P{ u(n) (<) u}- <P(u) I < s 0

uE1R -

Wegen I P{ u < u(n) () v}- [<P(v)- <P(u)]l

= I P{ u(n) ()V}- P{ u(n) < u}- [<P(v)- <P(u)]l

< IP{U(n) ()v}-<P(v) I+ IP{rfn)<u}-<P(u) I

sup I P { u < u(n) (<) v}- [<P( v)- <P( u)]l < S + S. u,vElR -

folgt aus (i)

Die zweite Variante von (16) mit u < u(n) statt u < u(n) folgt analog mit (i) (durch

Tauschen von "<" mit "<"). D

Page 142: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Schwaches Gesetz der großen Zahlen und Zentraler Grenzwertsatz 28.1.16 B 9 - 9

9.3 Grenzwertsätze für Binomial-V erteil ungen

9.3.1 Die Normal-Approximation der Binomial-Verteilung

Beweis von

Binomial-Grenzwertsatz von de Moivre und Laplace:

Es sei 0 <p < 1 und für n E W sei X eine B(n,p)-verteilte Zufallsvariable mit n

(1) a 2 : = Var( X ) = n p (1- p)

n n

und der Standardisierung

(2) u(n) : = _1 [X _ 1-L J an n n

Dann gilt u(n) L N(0,1), d.h. für beliebige u1 < u

2 gilt

n---+ oo

(3) p { u1 < u(n) < u2} (n---+ oo) <!>( u2) - <!>( u1) 0

Für eine Folge (Y ) unabhängiger Wiederholungen von Y ,.....__ B(1,p) ist n

1-L = E(Y) = p, a 2 = Var(Y) = p (1- p), n

(i) y(n) = 2:: Y. ,.....__ B(n,p) + i=1 z

Für die Standardisierung von y~)

u(n) : = _1_ [ y(n) _ n p J = _l_ [ y(n) _ 1-L J ayiii + an + n

folgt aus dem Zentraler Grenzwertsatz u(n) L N(0,1) und somit (4). Wegen (i) n---+ oo

ist der Satz- mit der Bezeichnung y~) statt Xn -bewiesen. D

Beweis von

(4) mit q= 1-p

Es ist: D

Page 143: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Schwaches Gesetz der großen Zahlen und Zentraler Grenzwertsatz 2801.16 B 9 - 10

Beweise zu

(5)

(6)

(7)

(8)

Es ist:

h( CJ) : = l - 2 CJ mit a=m CJ

sup I P { u(n) < u} - <P( u) I uE 1R

sup I P{ u< u(n)}- [1-<P(u)]l uE 1R

u ~~JR IP{u()u(n)()v}-[<P(v)-<P(u)]l '

a-3ov3

= a-3opq(p2+q2)

= l(p2 + q2) a

= ;[(p+q)2-2pq]

= ; [ 1- 2a2

J = h( a) 0

< fo 0 h(a) ,

< fo 0 h(a) ,

< ~ 0 h(a) 0

2 da a = pq

Damit ergeben sich (6) - (8) aus dem Theorem von Berry und Esseeno

Aus h'(a) = -a-2 -2 < 0 folgt

(i) h ist streng fallend auf (0, oo)o

Wegen a 2 = a2(p) = p(1- p) = p- p2 = - (p- ~) 2 + ~

wird a2(p) - und somit auch a(p) - maximal für p = ~ 0 Der zugehörige maximimale

Wert a( ~) = ~ liefert nach ( i) den minimalen Wert h( ~) = 1 für h( a) 0 D

Page 144: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Schwaches Gesetz der großen Zahlen und Zentraler Grenzwertsatz 2801.16 B 9 - 11

9.3.3 Die Poisson-Approximation der Binomial-Verteilung

Beweis von

Poisson-Grenzwertsatz für Binomial-Verteilungen:

Sei 1-L > 0 und p : = 1.. 1-L für n > f-Lo Dann konvergiert die Zähldichte n n

(1)

der Binomialverteilung B( n, p ) punktweise gegen die Zähldichte n

(2)

der Poisson-Verteilung Pois(f-L) 1 doh

(3) b(kln,p ) n n---+ oo p(klf-L) für k = 0, 1, 0000

Folgerung:

(4) P{ B(n,pn) < a} n---+ oo P { Pois(f-L) < a} für jedes a E IR

(5) B(n,p ) L Pois(f-L) 0 n n---+ oo

Übung!

Page 145: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Schwaches Gesetz der großen Zahlen und Zentraler Grenzwertsatz 28.1.16 B 9 - 12

Beweis von

Poisson-Approximation von Binomial-Wahrscheinlichkeiten für kleines p

Für beliebige 0 <p < 1, n E W, p, = np > 0 und AC W0

gilt

(6) I P { B( n, p) E A} - P { Pois(p,) E A} I < 2 np.

Zusatz: Weiter gilt, wobei b(k I n, p) : = 0 für k > n

(7)

Vorbemerkung: Die Beweisidee für den Zusatz (7) ist von Krengel (2005) übernom­

men. Man beachte, daß aus (7) sofort folgt

I P { B( n, p ) E A } - P { Pois(p,) E A } I n

< 2:: 1 b(k 1 n, P) - p(k 1~-L) I kEA

Die um den Faktor 2 verbesserte Abschätzung in (6) gegenüber (6)2

ist dem Buch

von Sheldon Ross, A first course in probability (Prentic Hall, 2005, 7th edition) ent-

nommen.

Beweisübersicht: Im ersten Schritt konstruieren wir (sogar auf zwei verschiedene

Arten) Zufallsvariablen X,.....__ B(1,p) und Y ,.....__ Pois(p) auf einem gemeinsamen diskre­

ten Wahrscheinlichkeitsraum (fl,P), wobei X und Y nicht stochastisch unabhängig

sondern "gekoppelt" sind, so daß gilt

wobei die Abschätzung aus 1- e-p < p folgt. - Und im zweiten Schritt betrachten

wirnunabhängige Wiederholungen (X., Y.) des Paares (X, Y). Aus den Faltungsei­z z genschaften ( vgl. 6.1.1, 6.1.3) ergibt sich

n n ( ii) X+= _l:Xi '""'"' B(n,p),

z=l Y + = _2:: Yi ,.....__ Pois(np),

z=l und zum Nachweis von ( 6) genügt es dann zu zeigen

Page 146: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Schwaches Gesetz der großen Zahlen und Zentraler Grenzwertsatz 28.1.16 B 9 - 13

1. Schritt (Konstruktion 1): Ausgangspunkt sind stochastisch unabhängige Zufalls­

variablen Y '""'"'Pois(p) und Z ,.....__ß(1,pz) auf demselben diskreten Wahrscheinlichkeits­

raum (fl,P) mit

Pz = 1- (1-p)JI E (0,1), da 1- p < e-p bzw. (1- p)t! < 1.

Beispielsweise lassen sich Y und Z als die beiden Projektionen des Produktraums

von (W 01 Pois(p)) mit ({0, 1},B(1,pz)) wählen (vgl. 3.3). - Für die auf f2 definierte

Zufallsvariable

ist P{X=O}

Es gilt {X=Y}

falls

falls Y= 0 und Z= 0 } Y :;= 0 oder Z :;= 0

P { Y = 0 und Z = 0 }

P{Y=O} ·P{Z=O},

e-p · (1-p)JI 1- p 1

{X= 0, Y = 0} u {X= 1, Y = 1}

{X=O} u {Y=1}

da Y, Z unabhängig

also X ,.....__ß(1,p).

da X= 0 ::::} Y = 0 ,

Y=1 * X=1.

Also ist P{X=Y} = P{X=O} +P{Y=1} = (1- p) + pe-p und ( i) gilt.

1. Schritt (Konstruktion 2): Da die 1. Konstruktion einen Produktraum benötigt,

geben wir noch eine zweite Kostruktion an, die ohne diesen auskommt. Hierzu

wählen wir f2 = W0

U { -1} und zur Definition von P auf f2 modifizieren wir zu­

nächst die Poisson-Verteilung Pois(p) mit der Zähldichte

(kl ) - 1 -p k p p - k! e p

indem wir p ( 0 I p) wie folgt zerlegen

p(Oip) = e-p = [e-p-(1-p)]+(1-p).

Die Verteilung P auf f2 wird jetzt definiert durch

P{-1}

P{O}

P{k}

e-p_ (1-p) > 0,

1- p > 0'

p(klp)

da e-p > 1-p,

fürkEW.

Für die Zufallsvariablen X, Y: fl-----+ W 0

definiert durch

Page 147: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Schwaches Gesetz der großen Zahlen und Zentraler Grenzwertsatz 28.1.16 B 9 - 14

ist

und

X(k) = H für k = -1} für k = 0 1

für k E W

P{X=O} =P{O} = 1-p,

P{Y=k} =P{k} =p(klp)

Y(k) = u also

P{Y=O} =P{-1}+P{O} =p(Oip) 1 also

Die Eigenschaft (i) ergibt sich jetzt aus:

P {X= Y} = P { 0} + P { 1} = (1- p) + e -p p .

für k = -1} für k = 0 für k E W

X~ B(1,p),

Y ~ Pois(p).

2. Schritt: Sind (X., Y.) für i = 1, ... , n unabhängige Wiederholungen von (X, Y), so z z

bleibt noch (iii) zu zeigen. Für X= (X1, ... ,Xn) und Y = (Y

1, ... , Yn) ist

n {X=Y} = {X.=Y.fürallei=1, ... ,n} = n {X.=Y.},

z z i =1 z z

n n {X;=Y} = C n {X.=Y.}

0 1 z z = U {X.;= Y.},

0 1 z z z= z=

und mit der Subadditivität ergibt sich n n

(iv) P{X;=Y} = P( U {X.;=Y.}) < 2:: P{X.;=Y.} < np(1-e-p) 0 1 z z z z z= i=l

Weiter ist

P{X+EA} = P{X+EA,X=Y}+P{X+EA,X;=Y}

II

P{Y+EA} = P{Y+EA,X=Y}+P{Y+EA,X;=Y}

vgl. (i).

also P {X+ E A} - P { Y + E A} = P {X+ E A, X ;= Y} - P { Y + E A, X ;= Y}

< P{X + EA, X;= Y} < P{X;= Y},

und P{Y+EA}-P{X+EA} = P{Y+EA,X;=Y}-P{X+EA,X;=Y}

< P{Y+ EA, X;=Y} < P{X;=Y}.

Insgesamt ist daher

und mit ( iv) ergibt sich ( iii).

Page 148: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Schwaches Gesetz der großen Zahlen und Zentraler Grenzwertsatz 28.1.16 B 9 - 15

Beweis des Zusatzes: Für jedes k E W0

gilt

P{X+ =k} P{X+ =k,X+ =Y+} + P{X+ =k,X+;=Y+},

II

P{Y+ =k} = P{Y+ =k,X+ =Y+} + P{Y+ =k,X+;=Y+},

P{X+ =k}-P{Y+ =k} = P{X+ =k,X+;=Y+}-P{Y+ =k,X+;=Y+}. 00

Also ist 2:= I P {X+ = k} - P { Y + = k} I k=O

00

00

< 2:= P{X+ =k,X+;=Y+} k=O

< P{X+;=Y+} -

< 2P{X+;=Y+} -

und mit (iv) ergibt sich der Zusatz.

00

+ 2:= P{Y+ =k,X+;=Y+} k=O

+ P{X+ ;=Y+}

D

Page 149: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Schwaches Gesetz der großen Zahlen und Zentraler Grenzwertsatz 28.1.16 B 9 - 16

9.7 Eigenschaften der Konvergenz nach Verteilung

Beweis von

X L X ::::} L (1)

(2)

(6)

Für stetiges g: IR-----+ IR gilt: n n---+ oo

g(X ) n n---+ oo

(8)

ad (1):

( i)

( ii)

X L X ::::} a+ßX L a+ßX. n n---+ oo n n---+ oo

X L X, y p z p ß ::::}

n n---+ oo n---+ oo a,

n n---+ oo

Y +Z ·X n n n n---+oo

a+ß·X.

X p

X ------+ a. n n---+ oo n n---+oo

Für g(X ) n n---+ oo

g(X) ist nach (VK) 1 für beliebiges BE IB mit

P{g(X) EBB} = 0 zu ze1gen

P{g(X ) EB} P{g(X) EB} bzw. n n---+ oo

II II

P{X Eg-1[B]} n n---+ oo

P{XEg-1[B]}.

Für A : = g - 1 [ B] E IB folgt ( ii) aus X L X und (VK) 1 wenn wir zeigen

n n---+ oo

( iii) P {XE BA } = 0

Aus Bo c B c B-!

B- \ Bo

g(X) 0

folgt g-1[Bo] c A c g-1[B-]! g-1[B-] \ g-1[Bo]

Da g stetig ist, ist g - 1 [ B 0

] offen und g - 1 [ B-] abgeschlossen, also

g-1[Bo] c Ao, A-c g-1[B-].

Es ist: BA= A-\Ao c g-1[B-] \g-1[Bo] = g-1[BB]

und somit?{ XE BA} < P{ X Eg-1[ BB]} = P{g(X) E BB} 0 vgl. (i),

also folgt ( iii). D

ad (2): Folgt aus (1), weil g(x) = a + ßx stetig ist. D

ad (6): Mit ( 6) folgt n---+ oo

ß·X Z ·X n n

Y +Z ·X L a+ß·X. n n n n---+ oo

und mit (5) ergibt sich D

ad (8): Übung! D

Page 150: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Schwaches Gesetz der großen Zahlen und Zentraler Grenzwertsatz 28.1.16 B 9 - 17

9.8 Hypergeometrische Verteilungen 9.8.2 Zufälliges Ziehen mit und ohne Zurücklegen

Beweis von

(13)

(14)

für i EI

n(n-1) < E(Yi)·E(Yz)- n2 N(N-1) N2

n(N- n) Cov(Yi' Yz) = - N2(N -1) < 0

ad {13): Zu zeigen ist: (i) P{ Yi = 1} - 'Jv.

Es gilt: { yi = 1} = { A E n I Y/A) = 1}

= { A CI I i EA , #A = n}

für i ;= j,

für i ;= j.

A = {i}UB) B = A\{i} = { {i}UB I Bci\{i}, #B=n-1}.

Also # {Yi=1} = # ~n-1(I\{i}) _ (N-1) _ (N-1)! _ n·N! = _Nn. (Nn) - n-1 - (n-1)! ·(N-n)!- N·n!·(N-n)!

und

ad (14): Wegen YiYzE{0,1} gilt

mit

und für die 1. Behauptung bleibt zu zeigen:

( i) n(n-1) N(N-1)

Esgilt: {YiYz=1} = {Aciii,lEA,#A=n}

vgl. (9), d.h. ( i) gilt. D

für i ;= j.

A = {i,Z} UB) B = A\{i,l}

= { {i,Z} uB I Bci\{i,l}, #B=n-2}.

Page 151: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Schwaches Gesetz der großen Zahlen und Zentraler Grenzwertsatz 28.1.16 B 9 - 18

Also # {YiYz=1} = # ~n-ii\{i)}) _ (N-2) _ (N-2)! _ n(n-l)·N! _ n(n-1) (N) - n-2 - (n-2)! ·(N-n)!- N(N-l)·n!·(N-n)! - N(N-1) n

1 n(n-1) P{Yi Yz= 1} = #D · # {YiYz= 1} = N(N _ 1) vgl. (9), d.h. (i) gilt.

Weiter: Cov(Yi,Yz) = E(YiYl) - E(Yi)E(Yz)

n(n-1) n2

N(N-1) N 2

n N 2 (N- 1) [N(n-1)- n(N-1)]

n(n-N)

N 2 (N -1)

Beweis von

(15) T = { mE{O, ... ,n} I n-(N-M) < m <M}.

(16) P{y = } = (~)(~=;;n m (~) .

ad {15): n-m<N-M und m<M - - n- (N-M) < m < M .

ad {16}: {Y =m} = {Ac! I #(A nK) =m, #A=n}

A1

= An K 1 A2

= An CK = {A1 UA2 1 A1 cK,A

2cCK, #A1=m, #A2=n-m}

D

also #{Y=m} #{A1 1A1 cK,#A1=m} #{A2 1A2 cCK,#A2=n-m}

(~) (~=~) da#K=M da #CK=N-m

Wegen P{Y = m} 1

#D ·#{Y=m} folgt die Beh. mit (9). D

Beweis von

(19) k>n (~)=o,

Für k > n ist ( n) k = 0, weil es den Faktor n- k = 0 enthält. D

Page 152: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Schwaches Gesetz der großen Zahlen und Zentraler Grenzwertsatz 2801.16 B 9 - 19

9.8.3 Definition und Eigenschaften der hypergeometrischen Verteilung

Beweis von

(4) E{ H(n,M,N)} = np mit

(5) Var { H( n, M, N) } = n p ( 1- p) 0 ~:::: ~ 0

Übung!

9.8.4 Anwendungen und Schätzungen

Beweis von

(2)

(3)

Es ist

E(ß (Y)) = p

Var(ß(Y)) = ~op(1-p)o~=~ 0

E(~ Y) = ~E(Y) = ~ np

Var(l.Y) = 1.._2

Var(Y) = lnp(1-p) ON-n = l.p(1-p) ON-n 0 D n n n2 N-1 n N-1

Page 153: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Schwaches Gesetz der großen Zahlen und Zentraler Grenzwertsatz 2801.16 B 9 - 20

9.8.5 Binomial-Approximation der hypergeometrischen Verteilung

Beweis von

(1) cN(m) 0 b(m I n,p) < h(m I n,M,N) < dNO b(m I n,p) mit

(2) c (m)==[1-..2?!:.Jmo[1-n-mt-m <1, q=1-p, N Np Nq

(3) dN:= [1-N J-n > 10

Es ist h(m I n,M,N) =

Aus

folgt

Analog ist

und es folgt

(M)m (N- M)n-m n! -- o-~~-

m! (n- m)! (N)n

( n ) 0 (M)m 0 (N- M)n-m 0 .!!.:_ m Nm Nn-m (N)n

m-1 m-1 (MLm = TI M-i = TI (p-i_) N i=O N i=O N

( _ m)m < (M)m < m P N - (N)m - P

n-m-1 (N-M)n-m = TI N-M-i

Nn-m 0 N z=O

(i)o

(ii)o

( iii) 0

Mit ergibt sich aus (i) - (iii)

(~) 0 (p _ ;J)m 0 (q _ n N mt-m < h(m 1 n,M,N) < (~) 0 Pm 0 qn-m 0 (N~~)n

< b(mln,p) odN (iv),

wobei Weiter ist

Page 154: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Schwaches Gesetz der großen Zahlen und Zentraler Grenzwertsatz 2801.16 B 9 - 21

(n) ( m)m ( n-m)n-m m 0 p- N 0 q-----w- b( m 1 n, p) 0 [ ~ (p _ 7)) J m 0 [ ~ ( q _ n Nm) J n- m

b(m I n,p) 0 cN(m) ( v)o

Mit (iv) (v) ist (1) gezeigt und die Abschätzungen cJm) < 1, dN> 1 sind trivial. D

Beweis von

Hypergeometrischer Grenzwertsatz: Sei (MNE W)N>2

eine Folge mit

MN<Nund

(4)

Dann gilt für festes n E W

(5) h(m I n,MN,N)

Folgerung:

(6)

(7)

ad (5):

also

P{ H(n,MN'N) EA}

H(n,MN,N)

Aus ( 4) folgt

M ----+ oo 1 N N ---+oo

N---+ oo

N ---+oo

L N ---+oo

Für festes n gilt daher für fast alle N

( i)

Aus ( i) folgt

b(m I n,p)

P{ B(n1 p) EA}

B(n1 p) 0

T M N = { mE{O,ooo,n} I n-(N-M) < m < M} n, N'

und mit (1) ergibt sich weiter für m = 0, 000, n

für m = 0, 000, no

für AC {0, 000, n},

{o, 000, n}

Page 155: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Schwaches Gesetz der großen Zahlen und Zentraler Grenzwertsatz 2801.16 B 9 - 22

gilt c (m) = [ 1-..2?:?:. Jm 0 [ 1- n-m]n-m 1 N NpN NqN N---+oo

( iii) 0

SOWle dN=[1-;J-n N---+oo 1 (iv)o

Da (ii) für fast alleN gilt, folgt (5) mit (iii) und (iv)o D

ad {6): Da AC {0, 000, n} endlich ist, ergibt sich aus (5) sofort

P{ H(n,MN'N) EA} = ~ h(m I n,MN,N) N ~ b(m I n,p) = P{ B(n1 p) EA}. EA ---+oo mEA D m

ad (7}: Für YN"'H(n,MN'N) und beliebiges aEIR seiA==(-oo,a] n{O, 000, n}o

Dann folgt aus ( 6)

Page 156: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Schwaches Gesetz der großen Zahlen und Zentraler Grenzwertsatz 28.1.16 B 9 - 23

9.8.6 Die multivariate hypergeometrische Verteilung

Beweis von

(9) P{X=x} für x E T.

Der Beweis ist eine direkte Verallgemeinerung des Beweises von 9.8.2 (16).

Esist {X=x} = {Acii#(Anik)=xk fürallek=1, ... ,K}

also # {X=x}

Wegen P{X = x}

K Ak=Anlk fürallek

{ U Ak I Ak Clk und #Ak=xk für alle k = 1, ... ,K} k=l

K TI # { Ak I Ak clk, #A1=xk}

k=l K TI (Mk) da #lk=Mk

k=l Xk

1 #D ·#{X=x} folgt die Beh. mit ( 4). D

Page 157: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Schwaches Gesetz der großen Zahlen und Zentraler Grenzwertsatz 28.1.16 B 9 - 24

Beweis von

(17) n(N-n)MkMz

N 2(N -1)

(18) Corr(X X ) = - J Pk Pl k' z V (1-pk)(1-pz)

n(N-n)PkPl < 0 für k :;=. l, (N-1)

für k :;=. l,

ad (17}: Unter Verwendung der Indikatorfunktion Y.: .f2-----+ {0, 1} dafür, daß die Ku­z

gel i EI gezogen wird ( vgl. 9.8.2 (11))

( i) Y;(A) = { ~ falls falls

iEA

i \tA (Kugel i wird gezogen)

lassen sich die Anzahlen X k und Xz als Summen von Indikatoren darstellen

( ii)

Es folgt Cov(Xk,Xz) = Cov( 2:= Y., 2:= Y.) i Efk z jEiz J

= 2:= Cov(Y., 2:= Y.) i Efk z jEiz J

= 2:= 2:= Cov(Y., Y.) i Efkj Elz z J

= 2:= 2:= _ n}N -n) i EI J.EI N (N-l)

k l

vgl. 7.8.1 (7)

vgl. 7.8.1 (7)

Mit #lk=Mk und #lz=Mz folgt die erste (und auch zweite) Gleichung in (17).

ad {18}: folgt direkt aus (17) und (16). D

Page 158: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Schwaches Gesetz der großen Zahlen und Zentraler Grenzwertsatz 28.1.16 B 9 - 25

Beweis von

(23) cN(x) ·multiK(xln,p) < hK(xln,M,N) < dN· multiK(xln,p) mit

(24) K x xk

cN(x) : = TI [ 1-__!_ J < 1, k=l Mk

(25) dN:= [1-N J-n > 1.

Der Beweis verläuft analog zur univariaten hypergeometrischen Verteilung in 9.8.5.

Es ist

n!

Für jedes M = Mk und x = xk gilt

(M)x _ X -1 M-i

N x - .TI N z=O

und somit

Mit

wobei

mit

(i)

X -1 = TI (p-i.)

i=O N

(ii).

ergibt sich aus (i) (ii)

Weiter ist

(iv)

Mit (iii) - (iv) ist (23) gezeigt und die Abschätzungen cN(x) < 1, dN> 1 sind trivial. D

Page 159: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Schwaches Gesetz der großen Zahlen und Zentraler Grenzwertsatz 2801.16 B 9 - 26

Beweis von

Multivariater hypergeometrischer Grenzwertsatz:

Sei MN= (M Nl' 000, M NK) E WK für n > 2 eine Folge mit

(26)

(27)

M =N + und

Dann gilt für festes n E W

(28) für x E T 0

n

Folgerung:

(29) für Ac T 0

n

ad {28}: Der Beweis verläuft analog zum univariaten Grenzwertsatz in 9.8.5.

Aus (27) folgt für jedes k = 1, 000, K

Für festes n gilt daher

n<MNk für fast alle N,

also Tn,M,N = { x= (xl,ooo,xK) E w~ I X+ =n, X <M}

= { X E w~ I X+= n } T n für fast alle n

und mit (23) ergibt sich weiter für x ET MN= T n, , n

Aus

und

folgt (28) mit (ii) und (iii)o

ad {29): Da AC T endlich ist1 ergibt sich aus (28) sofort n

2:: multiK(x I n,p) = xEA

P{ MK(n1 p) EA}.

(i),

(ii),

( v)o

(iv)o

D

D

Page 160: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Konfidenzgrenzen für den Erwartungswert 1501.09 B 10-1

10. Konfidenzgrenzen für den Erwartungswert

10.1 * Exakte Konfidenzgrenzen für den Erwartungswert einer Normal-Verteilung mit bekannter Varianz

Beweis von

Die Irrtumswahrscheinlichkeit (7) nimmt gerrau dann den vorgegeben Wert a an,

wenn die Bandbreite wie folgt gewählt wird

d Q

z 0 a(X) Q

1 z o-a etyn

Es gilt:

Beweis von

(13) P { 1-L < 4 (X)} = 1 - a o,a

Es gilt: p { 1-L > 4 o et(X) } = p { 1-L

' - p _a > {

-d - a(X)

Beweis von

(16)

Es gilt:

P { p, EI (X) } = 1 - a Ct

P{ p, \tla(X)}

Ct

2

u

u

+

}

}

-d a(X)

d

Ct

2

z 0 a(X) 0

Ct D

ao D

ao D

Page 161: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Konfidenzgrenzen für den Erwartungswert 15.1.09 B 10-2

Beweis von

F(xl4 (x))== P{X<xl4 (x)} = a o,a o,a bzw. (18)

(19) 40

a(x) - Max {~t E IR I F(x l~t) > a} '

G( x I 4 ( x)) : = P {X> x I 4 ( x) } = a u,a o,a (21) bzw.

ad {18): F(x 14 (x)) = <I>{ x- 4o,a(x)} = <I>{ -da } = <I>(-za) = a. o, a a(X) a(X)

ad {19): folgt aus (18), da F(x l~t) streng fallend in fL ist.

ad {21): G(x 14 (x)) = <I>{ 4u,a(x)- x} = <I>{ -da } = <I>(-za) = a. u, a a(X) a(X)

ad {22): folgt aus (21), da G(x l~t) streng wachsend in fL ist. D

Page 162: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Konfidenzgrenzen für den Erwartungswert 15.8.16 B 10-3

10.2* Asymptotische Konfidenzgrenzen für den Erwartungswert einer beliebigen Verteilung

Beweis von

(12)

(13)

P{4 (x(n))<~t} 1-a, u, a n---+ oo

P { fL < 4 (x(n)) } 1 - a . o,a n---+ oo

Der Beweis gilt für jede konsistente Schätzung a(X(n)), weil dann (10) gilt.

ad {12): P { 4 (xCn)) < Ii} = P { x(n)- d < Ii} ~Q Q

= p { fo[ x(n) -~t l < z a(x(n))} Q

= p { u(n) < z a(x(n))/a} Q

( i) = P{v(n) < 0},

Aus der Konsistenz (10) folgt mit 9.1.1 (3)

z a(x(n))/a p a n---+oo

z 0

Q

Mit (8) und dem Theorem von Slutzky ergibt sich

( ii) v(n) L N(O, 1)- z = N(-z , 1). n---+ oo a a

Aus der Eigenschaft (VK)** der Verteilungskonvergenz (für stetige Limes-Vertei­

lungen) ergibt sich mit ( i)

------+ P{N(-z ,1)<0} = <I>(z) = 1-a. n---+oo a a

ad (14): Analog ( i) ergibt sich

P{~t<4 (xCn))} = P{~t<X(n)+d} o,a a

= P{v(n) < 0}, v(n) : =- u(n)- z a(x(n))ja. Q

Wegen - u(n) L - N(O 1) - N(O 1) folgt wieder (ii) und somit. (n---+oo) ' - '

P { fL < 4 (X(n)) } P { N(- z , 1) < 0} = <P(z ) = 1- a. D u,a n---+oo a a

Page 163: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Konfidenzgrenzen für den Erwartungswert 15.1.09 B 10-4

10.3* Exakte Konfidenzgrenzen für den Erwartungswert einer Normal-Verteilung mit unbekannter Varianz

Beweis von

(12) P{ X- z0ß(X) < p,} = P n-1(z

0J = P{p, <X+ z

0ß(X)}

Es ist P {X- z 0

c7(X) < I'} = P { ;M < Za }

= P{ T(X) () Za } = P n-1(za)

und P{X+z0<7(X)>1'} = P{ ;M >-za}

= P{ T(X) > -za}

= 1- P (-z ) n-1 a

Beweis von

(18) P { 4 (X) < p, } = 1 - a = P { p, < 4 (X) } u,a o,a

P { 4 (X) < 1-L} = P{ X- dn a < 1-L u,a '

= P{ T(X)

}

d } < a(~)

Es gilt

= P{ T(X) < t } ( ) m,a

mit m = n-1

=P(t )=1-a. m m,a

und: P { 4 (X) > 1-L} = P { X+ dn a > 1-L } o,a '

= p{ -d } T(X) > a(~)

= P{ T(X) > -t } mit m = n-1 m,a

= 1-<P (-t ) m m,a

=P(t )=1-a m m,a

vgl. (11). D

Page 164: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Konfidenzgrenzen für eine Wahrscheinlichkeit 21.1.16 B 11-1

11 Konfidenzgrenzen für eine Wahrscheinlichkeit

11.1 Die exakte obere Konfidenzgrenze nach Clopper-Pearson

Beweis von

(3) a Bp F(xlp)

x-n -- b(xln,p) < 0 für x<n. 1-p

Übung!

Beweis von

(6) b(xln,O) == lim b(xln,p) { 1 falls x=O p----+0 0 falls x>O

(7) b( x I n , 1) : = lim b( x I n , p) { 1 falls x=n p----+1 0 falls x<n

(4) F(xl 0) == lim F(xlp) 1. p----+0

(5) F( x 11) : = lim F( x I p) { 0 falls x<n p----+1 1 falls x=n

ad (6): b(xln,p) (~) P.x(1- Pt-x p----+0

(~) 0x 1 n-x

ad (7}: b(xln,p) (~) P.x(1- Pt-x p----+1

(~) 1 X on-X

X X

ad (4): lim F(xlp) = lim 2:: b(iln,p) = 2:: lim b(iln,p) = 1 vgl. ( 6). p---+O p---+O i=O i=O p---+O

X { 0 falls x<n }· ad (5): lim F(x I p) 2:: lim b( i I n , p) - D -falls p----+1 i=OP----+ 1 1 x=n

Page 165: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Konfidenzgrenzen für eine Wahrscheinlichkeit

Beweis von

(10) F(xlß (x)) = a o, 0:

p (n) = 1 o, 0:

(11)

für x<n, wobei

für x= n.

Max { F(ll p) < a ll = 1, ... , n }

F(L~a) IP) < a

21.1.16

p (x) < 1, o, 0:

wobei

L~a) = Max{l=O, ... ,niF(llp)<a}

B 11-2

ad {10): Für x < n ist F( x 1-): [ 0, 1] -----+ [ 0, 1] eine streng fallende, bijektive Funktion,

und somit gibt es gerrau einen Wert p (x) < 1 sodaß (10) gilt. Und dieser Wert o,o: stimmt überein mit dem Maximum in

( 9) p 0

o: ( x) : = Max { 0 < p < 1 I F( x I p) > a}. '

Für x = n ist F( n I p) 1 und es folgt

p0

o:(n) = Max {O<p<111>a} = Max (0,1] = 1.

' D

ad {11): Für x < n ist F( x I p) ist streng fallend in p nach (2), also gilt

( i)

vgl. (10)

Diese Äquivalenz gilt auch für x = n, weil dann wegen

p (n) = 1 > p o, 0:

und

nach Definition, da F(n I p) = 1 > a

beide Seiten in (i) falsch sind. Aus (i) für alle x = 0, 1, ... , n folgt dann

P{p0

o:(X) < p} = P{ X <Lp(a)} '

= F(Lp(a) I p)

< a nach Definition von L~ a).

Da F(ZI p) streng wachsend in l ist gilt auch

Max{F(Zip) <a IZ=1, ... ,n} = F(L~a) IP) D

Page 166: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Konfidenzgrenzen für eine Wahrscheinlichkeit 21.1.16 Bll-3

Beweis von

(14) !E_ = p(x) < p (x) n o,a

für x<n

Im Fall n = 1 ist x = 0 und die Behauptung folgt aus p(O) = 0 < p (0.). Im folgen-o,a

den sei n > 2. Nach W Uhlmann {1966) Satz 6 ( vgl. unten) gilt:

( i) F(xln~ 1 ) >1.. 2 > F(xl~!{) für 0 <X< n-1

- 2

( ii) F(xln~ 1 ) 1 = F(xl~!{) für n-1 2

x=--2

( iii) F(xln~ 1 ) <1.. < F(xl~!{) für n-1 2

-2-< x< n.

Da F( x I p) für 0 < x < n streng fallend in p ist, folgt

(iv) _x_ < !E_ F(xl~) > F(xln~ 1 ) > 1 für n-1 n-1 - n ::::}

2 0 < x<-

2- < n

( v) x(n+1) < n(x+1) ::::}

:E_ < x+1 ::::} F(x I~) > F(xlx+1) > 1 für n-1 n - n+1 - n+l 2

-2-< x< n

Insgesamt ergibt sich daher für 0 < x < n

und mit der Monotonie (2) von F(x I p) folgt die Behauptung.

Literatur: W. Uhlmann (1966) Vergleich der hypergeometrischen mit der Binomial-Ver­

teilung. Metrika 10, 145-158. D

Page 167: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Konfidenzgrenzen für eine Wahrscheinlichkeit 21.1.16 B 11-4

11.2 Die exakte untere Konfidenzgrenze nach Clopper-Pearson

Beweis von

(2) G( x I p) ist streng wachsend in p für x> 0,

G(Oip) = 1.

Für 0 < x < n ist 0 < x-1 < n und nach 11.1 (2) ist F( x-11 p) streng fallend in p1

also G( x I p) = 1-F( x-11 p) streng wachsend in p. Und G( 0 I p) = 1 ist trivial. D

Beweis von

(4) G( x I p ( x)) = a bzw. F(x-1lß (x)) = 1-a für x> 0 1 u,a u,a

p (0) = 0 für x= 0. u,a

Der Beweis verläuft analog 11.1 (10). Für x > 0 ist G(x 1- ): [ 0, 1] -----+ [ 0, 1] eme

streng fallende, bijektive Funktion, und somit gibt es gerrau einen Wert p (x) sodaß u,a ( 4) gilt. Und dieser Wert stimmt überein mit dem Minimum in

(3) pua(x) == Min{O<p<1IG(xlp)>a}. '

Für x = 0 ist G( x I p) 1 und es folgt

p0(xla) = Min {O<p<111>a} = Min [0,1) 0. D

Beweis von

(5) Max { G(ZI p) < a ll = 1, ... , n}

G(LG(a) IP) < a wobei

LG(a) = Min{l=O, ... , n I G(Zip) <a}

Der Beweis verläuft analog 11.1 (11). Für jedes x > 0 ist G( x I p) ist streng wachsend

in p nach (2), also gilt

Page 168: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Konfidenzgrenzen für eine Wahrscheinlichkeit 21.1.16

( i) G( X I p) < G( X I p u Q (X)) '

vgl. (4)

Diese Äquivalenz gilt aber trivialerweise auch für x = 0, weil dann wegen

p (0) = 0 < p u,a

und

nach Definition, da G(O I p) = 1 > a

beide Seiten in (i) falsch sind. Aus (i) für alle x = 0, 1, ... , n folgt dann

P{LG(a) <X}

G(LG(a)IP)

B 11-5

< a nach Definition von LG(a).

Da G(ZI p) streng fallend in l ist gilt auch

Max{G(Zip) <a IZ=1, ... ,n} = G(LG(a)IP) D

Beweis von

(8) p (x) < p(x) = E._ u,a n

für x>O

Wir betrachten Y ,.....__ B( n, q) mit q = 1- p und y = n- x < n.

1. Beweis: Mit

G( X I p) = p {X> X I p} = p { y < y I q} = F(y I q)

ergibt sich aus ( vi) im Beweis von 11.1 (14) für 0 < y < n

G(x I~) = F(y I~)> ~ > a = G( X I Pu,a(x)).

Da G(x I p) streng wachsend in p ist, folgt die Behauptung.

2. Beweis: Wir führen die Behauptung mit 11.4 (5) zurück auf die zugehörige Ei­

genschaft 11.1 (14) der oberen Grenze für q

JL < q (y) = 1- p (x) n o,a u,a also D

Page 169: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Konfidenzgrenzen für eine Wahrscheinlichkeit 21.1.16 Bll-6

11.3 Das exakte zweiseitige Konfidenzintervall

Beweis von

(1) für O<x<n.

Für x = 0 ist p ( x) = 0 1 u,a p (x) > 0

o, Ct und somit gilt (1).

Für x = n ist p ( x) < 1 1 u,a p (x) = 1

o, Ct und somit gilt (1).

Und für 0 < x < n ergibt sich wegen a < ~

F( x I p ( x)) = a < 1- a = 1- G( x I p ( x)) o,a u,a

= F( x-1lß (x)) u,a

vgl.11.1 (10), 11.2 (4)

vgl. 11.2 (1)

<F(xlß (x)) u,a

und da F(x I p) streng fallend in p ist, folgt die Behauptung. D

Beweis von

(3) P{p a(X)<p<p a(X)} > 1-a. u,2 o,2

Wir zeigen, daß die komplementäre Wahrscheinlichkeit< a ist:. Wegen (1) gilt

P{p < p Q'(X)} + P{p Q'(X) < p} vgl. (1) u,2 o,2

< Ct

2 + Ct

2 =a.D

Page 170: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Konfidenzgrenzen für eine Wahrscheinlichkeit 21.1.16

11.4 Berechnung der Grenzen

Beweis von

1

(0) p (n) = oli. u,a

Wegen F(O IP) = (1-Pt, bzw.

ist p (0) bzw. p (n) die eindeutige Lösung von o,a u,a

Beweis von

(3)

(4) G( x I p) = F( n -x I q)

bzw. n p = a.

für x> 0.

mit q= 1-p

(5) pu a(x) = 1- q0

a(y) mit y = n-x. ' '

ad {3): Für 0 < x< n ist 0 < x-1 < n. Mit G(x IP) = 1-F(x-1lp) folgt

G(xl p) = a F(x-1lp) = 1-a,

und hieraus ergibt sich (3).

ad (4): Für X"' B(n,p) ist Y = n- X"' B(n, q) und somit gilt

G(xlp) = P{X>x I p} = P{Y<n-x lq} = F(n-xlq).

ad (5):

Für x = 0 ist: p ( 0) = 0 , q ( n) = 1 u,a o,a und somit gilt (3).

B 11-7

D

Für x> 0 ist: a=G(xlß (x))()F(yl1-p (x)) u,a 4 u,a und mit 11.1 (10) folgt

d.h. (5) gilt. D

Page 171: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Konfidenzgrenzen für eine Wahrscheinlichkeit 21.1.16 Bll-8

Beweis von (7) (8) unter Voraussetzung der Beziehung (6)

(6) P { B( n,p) < x} = P { F k l > u} bzw. F( x I p) = 1- P k l ( u) mit

k=2(x+1), l p u=-·-k 1- p l = 2(n-x),

(7) Pu,a.(x) = 1 ~ a (exakte untere Grenze) für 0 < x mit

k a = y·Fkl;a.' k=2(n-x+1), l = 2x.

(8) Pa,a.(x) = 1 ~ a (exakte obere Grenze) für x < n mit

k a = y·Fkl;a.' k=2(x+1), l = 2(n-x),

ad (8): Die charakterisierende Gleichung 11.1 (10) für p (x) lautet mit (6) o,a.

1-Pkz(u)=a mit u=lk·p (x)/(1-p (x)), o,a. o,a.

Also ist u = Fkl·a. '

und aus a=b_·F =b_·u=p (x)/(1-p (x)) l k l; (X l o, (X o, (X

folgt a- a p (x) = p (x) o, (X o, (X

ß (x)=a(1+ar 1. o, (X

und somit

ad (7}: Wir verwenden den Zusammenhang

(5) Pu a.(x) = 1- qo a.(y) ' '

Nach (8) ist q (y) = a (1 + a r 1 o, (X

mit y = n-x.

für y < n mit

k = 2(y+1) = 2(n-x-1)

l=2(n-y)=2x.

1-a(1+ar1 = (1+ar 1.

D

D

Page 172: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Konfidenzgrenzen für eine Wahrscheinlichkeit 21.1.16 Bll-9

11.6 Asymptotische (approximative) Konfidenzgrenzen

Beweise zu

(9)

2 ap -bp+c

mit

(10) a == n + z 2 > 0 Q '

b - 2 2 : = 2n X+ Z = 2 X+ Z > 0,

Q Q

(11) p (x) m

- 1 2 1 2 X+ 27i"Za x+2za

1 + 1._ z2 2 n+z n a Q

-2 2 (12) 2 X

p2 (x)-X

pm(x)- 1 2 n( n +z;) 1 +-z m

n a D(x)

-2 1 2 c==nx =-x >O n

b E (0, 1) ,

2a

2 c p (x)- - > 0 0 m a

(13)

(14)

p (x) == p (x) +/Ni) o,a m (asymptotische obere Grenze) 1

p (x) == p (x)- /Ni) u,a m (asymptotische untere Grenze).

(15) 0 < pu a(x) < p(x) < p0

a(x) < 1.

' ' (16) 0 = p (0) u,a < p (0) o,a < 1'

(17) 0 < p (n) < p (n) 1. u,a o,a

(18) 0 < p (x) < p(x) < p (x) < 1 falls 0 < x < n. u,a o,a

Im Beweis setzen wir p = p (x) und D =D(x). Die verschiedenen Darstellungen m m

der in (9)-(12) definierten Größen ergeben sich durch elementare Umformungen.

Wegen a < ~ ist z a > 0 und hieraus erhält man die Ungleichungen in (10)

Aus a, b > 0 ::::}

und

p > 0 m

p <1 m

ergibt sich p E (0, 1) in (11). Und für die Diskriminante D gilt m

Page 173: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Konfidenzgrenzen für eine Wahrscheinlichkeit

D>O 2 ap > c

m

21.1.16 Bll-10

2 ( 2 1 2 2) b >4ac=4 x +nx za.

Mit b2

= (2x + z!)2 = 4x

2 + 4xz! + z! > 4(x

2 + xz!) > 4 ( x

2 + ~ x2 z!) ergibt sich die Ungleichung D > 0 in (12).

Wegen a>O hat die Funktionfinp E(0,1) ihr Minimum m

( i) f(p ) =- a < 0, m

da

da

z >0 Q

und besitzt die beiden reellen Nullstellen p (x), p (x) aus (13), (14) mit 0 u

( ii) p (x) < p < p (x) u m o

Daf auf(- oo,p ] streng fallend und auf [p ,oo) streng wachsend ist folgt aus m m

( iii) !(1) = n (1- x)2 > 0

und 0 < p < 1 zunächst, daß beide Nullstellen im Intervall [0, 1]liegen: m

Im Fall x > 0 ist sogar f(O) > 0 und somit

( v) falls x> 0.

Und im Fall x < n ist f(1) > 0 und somit

( vi) falls x< n.

Aus

(vii) f(x) =- x(1-x)z; < o

erhält man weiter

Im Fall 0 < x < n ist sogar f(x) < 0 und es gilt

(ix) p (x) < x < p (x) u 0 falls 0 < x < n.

Mit (iv) und (ix) ist (15) gezeigt, weil p(x) = x Wir zeigen jetzt (16) - (18).

Page 174: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Konfidenzgrenzen für eine Wahrscheinlichkeit 21.1.16 Bll-11

1. Fall: x = 0

Dann ist f(O) = 0 und nach ( vi) ist p (0) = 0 und (16) folgt. u

2. Fall: x = n

Dann istf(1) = 0 und nach (v) ist p (n) = 1 und (17) folgt. 0

3. Fall: 0 < x < n

Dann folgt (18) aus ( v) und (ix). D

Beweise zu

Im Fall x < n ist die obere Grenze p (x) die einzige Lösung der approximierte o, 0:

Gleichung (6) im Intervall (0, 1). Und im Fall x> 0 ist die untere Grenze p (x) die u,o:

einzige Lösung der approximierte Gleichung (8) im Intervall (0, 1).

(6)

(8)

<~>(Jn(x-p)) = a a(p)

<I> ( Vn (p- x) ) = a a(p)

bzw.

bzw.

Jn(p-x)-a(p) zo:

Jn(p-x)-a(p) - -zo:.

Wegen a(p) > 0 für 0 <p < 1 und z > 0 läßt sich (6) äquivalent schreiben als 0:

fo(p- x) = z a(p) 0:

x < p und f(p) = 0.

und hat wegen (15) im Intervall [0, 1] die einzige Lösung p (x). Für x < n folgt mit o, 0:

(16) und (18) sogar 0 < p (x) < 1. o, 0:

Analog läßt sich (8) läßt sich äquivalent schreiben als

fo(p- x) = -z a(p) 0:

p<x und f(p) = 0

und hat wegen (15) und (17) im Intervall [0, 1] die einzige Lösung p (x). Für x> 0 u,o:

folgt mit (17) und (18) sogar 0 < p (x) < 1. D u,o:

Page 175: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Konfidenzgrenzen für eine Wahrscheinlichkeit 21.1.16 B 11-12

Beweise von

(19) x- np < z · a(p) JTi, Ct

p < p (x) a, Ct

np- x < z · a(p) JTi. Ct

Zum Nachweis zeigen wir die Äquivalenz der entsprechenden Negationen, wobei wir

ausnutzen daß die Funktion f auf (0 ,p (x)) streng fällt und auf (p (x), 1) streng m m

wächst. Dann gilt für 0 < p < 1:

p <Pu a(x) {} p <Pu a(x) und p<x vgl. (15) ' '

{} f(p) > f(p u a(x)) = 0 und p<x '

{} n(p- x) 2 > a2(p) z; und p<x

{} Vn (x- p) > a(p) z ri

{} (x-np) > a(p)z(Xvn °

Damit gilt die erste Äquivalenz in (19), und die zweite folgt analog:

Pa a(x) < p {} Pa a(x) < p und x<p vgl. (15)

' ' {} f(p) > f(p a a(x)) = 0 und x<p

' {} n(p- x) 2 > a2(p) z; und x<p

{} Vn (p - x) > a(p) z ri

{} ( n p - x) > a(p) z a JTi . D

Page 176: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Konfidenzgrenzen für eine Wahrscheinlichkeit 21.1.16 B 11-13

Beweise von

(20) P{p <p (X)} = P{np-X < z 0 a(p) vn} ,......, 1- a, ,......, o, 0: 0:

P{ p (X) < p} = P{ X - np < z 0 a(p) vn} ,......, 1- a, ,......, u,o: 0:

lim P{p<p (_x(n))} = 1-a, lim P{p (_x(n)) < p} 1-a 0

n---+oo o, o: n---+oo u, o: (21)

Aus (19) und dem Binomial-Grenzwertsatz ergibt sich

P{p < p (x(n))} = P{ np -x(n) < z 0 a(p) fo} o, 0: 0:

{ x(n)_np }

= p a(p) yln > -zo: n---+oo P{N(0,1) >-zo:} =

1 - <!>(- zo:) = 1- a 0

Damit sind die ersten Behauptungen in (20), (21) gezeigt und die zweiten erhält

man analog:

P{p (x(n)) < p} = P{ x(n)- np < z 0 a(p) fo} u,o: 0:

{ x(n)_np }

= p a(p) yfn < zo: n---+ oo P{N(0,1) <zo:}

<I>(zo:) = 1- ao D

Page 177: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Konfidenzgrenzen für eine Wahrscheinlichkeit

Beweise von

(22)

(23)

p ( x) ist für x > 0 streng wachsend in a, u,a

p ( x) ist für x < n streng fallend in a. o,a

21.1.16

ad (22): Für a < a' < 12

und ist zu zeigen p (x) < p 1(x) 1 also mit (19) u,a u,a

( i) x-np < z ·a(p)fo Ct

wobei p=p ~(x). u,a

Nun ist p für x > 0 die (einzige) Lösung von (8) mit a' statt a, .d.h. es gilt

( ii) X - np = n(p- X) = Z 1 • a(p) Vn . Ct

Mit z 1 = <P(1- a') < <P(1- a) = z Ct Ct

ergibt sich (i) aus (ii).

ad {23): Analog (22) -oder mit (22) und (24).

Für a < a' < 12

und ist zu zeigen p 1(x) < p (x) 1 also mit (19) o, Ct o, Ct

( i) np- x < z · a(p) JTi Ct

wobei p=p ~(x). o,a

Nun ist p für x< n die (einzige) Lösung von (6) mit a' statt a, .d.h. es gilt

( ii) np- x = z 1 • a(p) JTi < z · a(p) JTi, Ct Ct

d.h. ( i) gilt.

B 11-14

D

Page 178: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Konfidenzgrenzen für eine Wahrscheinlichkeit 21.1.16

Beweis von

(24) mit

Für x = 0 bzw. x = n ist y = n bzw. y = 0 und (24) gilt. Sei jetzt 0 < x, y < n.

Mit - 1 -y=-y=1-x n

und

ist q (y) die eindeutige Lösung q von o,o:

yln(!i- q) yln(p- x) a(q) a(p)

( i)

a(p) = a(q)

B 11-15

y = n-x.

Damit ist 1-q (y) eine Lösungp von (i), und mit (8) folgtp (x) = 1-q (y). o, 0: u, 0: o, 0:

Analog ist q (y) die eindeutige Lösung q von u,o:

(ii) z = Jn(!i- q) = Jn(p- x) o: a(q) a(p) '

und 1-q (y) ist eine Lösungp von (ii). Mit (6) folgtp (x) = 1-q (y). D u, 0: o, 0: u, 0:

Page 179: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Konfidenzgrenzen für eine Wahrscheinlichkeit 21.1.16 B 11-16

Beweis von

(25) [pm(x(n))- p(X(n)) J p

0, n---+ oo

(26) n [pm(x(n))- p(X(n)) J p z; [ ~- p J . n---+ oo

(27) V D(x(n)) p 0, n---+ oo

(28) V n ·D(x(n)) p Za· a(p) . n---+ oo

Im Beweis setzen wir p~) = pm(x(n))1

p(n) = p(X(n))1

D(n) =D(X(n)) und verwenden

die Konsistenz p(n) p p sowie die Eigenschaften 9.1.1 (3) und (7) ohne expli-n---+ oo

zite Erwähnung.

ad {25) 1 {26}: Es gelten

(i) [P~- p(n) ][ 1 + ~ z;] PA(n) + _1 z2 _ PA(n) [ 1 + 1.. z2] 2n a n a

1 2 [ 1 A(n) J nZa 2- P '

2 [1.. _ A(n)J Za 2 P '

p z; [ ~- p J . n---+ oo

1 ( iii) n---+ oo

(26) ergibt sich jetzt durch "Multiplikation" von (ii) mit (iii). Und (25) folgt durch

"Multiplikation" von (26) mit: 1.. 0. n n---+ oo

ad (27} 1 {28}: Es gelten

(iv)

( v)

Mit

folgt

p

n---+ oo

[ 1 + ~ z;] -2 _n_---+_oo-----+

n D(n) _P_--+ n---+ oo

2 A(n) (1- A(n)) + _1 4 ZaP p 4n Za

z; p ( 1-p ) = z; · a2(p) .

1

also auch (28). Und (27) folgt durch "Multiplikation" von (28) mit: 1 0. D yn n---+oo

Page 180: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Konfidenzgrenzen für eine Wahrscheinlichkeit 15.8.16 B 11-17

11.7 Grobe asymptotische (approximative) Konfidenzgrenzen

Beweis von

(4) p a(p).

n---+ oo

Nach 9.1.2 (2) (mit p statt p,) gilt

p n---+oo P

und da die Funktion a(-) in p stetig ist, folgt (4) mit 9.1.1 (3). D

Beweis von

(9) lim P{p (x(n)) < p} = 1- a = lim P{p < p (x(n))}. n---+oo u, a n---+oo o, a

Wie am Ende des Abschnitts ausgeführt wird, ergibt sich (9) als Spezialfall aus

10.2 (12) und (13) für B(1,p)-verteilte Zufallsvariablen X1, ... , Xn. Der Vollständigkeit

halber geben wir den Beweis trotzdem für diesen Spezialfall an und setzen hierbei

p(n): = p(X(n)), o-(n): = a(ß(X(n))) und a: = a(p). Für die untere Grenze gilt

P{p (x(n)) < p} = P{p(n)_ d < p} u,a a

P{rJn) <z o-(n)ja} Ct

( i) P{v(n) < 0},

Aus der Konsistenz (4) folgt mit 9.1.1 (3)

z a(x(n))/a p a n---+oo

z 0

Q

Mit (5) und dem Theorem von Slutzky ergibt sich

( ii) v(n) L N(O, 1)- z = N(-z , 1). n---+ oo a a

vgl. (5)

v(n) : = u(n) _ z 5(n) ja. Ct

Aus der Eigenschaft (VK)** der Verteilungskonvergenz (für stetige Limes-Vertei­

lungen) ergibt sich mit ( i)

------+ P{N(-z,",1) <0} = <I>(zJ = 1-a. n----+ oo '--'- '--'-

Analog ( i) ergibt sich für die obere Grenze

Page 181: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Konfidenzgrenzen für eine Wahrscheinlichkeit 15.8.16 B 11-18

P{p < p (x(n))} = P{p < p(n) + d } o,a a

= P{v(n) < 0},

Wegen - u(n) L - N(O 1) - N(O 1) folgt wieder (ii) und somit. (n---+oo) ' - '

P{p<p (X(n))} P{N(-z ,1)<o}=<P(z) =1-a. D o, a n---+ oo a a

Beweise von

(10) d (x(n)) Vn p Q n---+ oo

d (x(n)) p

(11) Q

Jn(x(n)) n---+ oo

Im Beweis setzen wir p(n) = p(X(n))1 d~n) = da(x(n)), D(n) =D(x(n)) und verwenden

die Konsistenz p(n) p p sowie die Eigenschaften 9.1.1 (3) und (7). n---+ oo

p n---+ oo

ad {11): Aus 11.6 (28) folgt

p n---+ oo

und "Multiplikation" mit (10) ergibt (11). D

Beweise zu

(15) a2(ß(X)) = ~ ~ (Xi-X)2 = n~1 a2(X). z

Wegen X. E {0, 1} ist x? =X. und somit z z z

= l[~x. _l(~x.?J n i z n i z - -2 X-X

a2(X) = a2(ß(X) ).

Damit gilt die erste Gleichheit in (5) und die zweite ergibt sich mit (14). D

Page 182: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Konfidenzgrenzen für den Erwartungswert einer Poisson-Verteilung 16.3.16 B 12- 1

12. Konfidenzgrenzen für den Erwartungswert einer

Poisson-Verteilung

12.1 Konstruktion der exakten oberen Konfidenzgrenze

Beweis von

(3) für x> 0, p,>O.

Es ist a ( I ) 1 [ x-1 -f..l X -f..l] Bf-L p x p, = x! x p, e - p, e

= p(x-llf-L)- p(xlf-L)

wobei per Definition p( -1lp,) = 0 gesetzt wird. Hieraus ergibt sich X

: F(xlp,) = 2:= [p(i-1lp,)- p(ilp,)] f-L i=O

Beweis von

(4) F(x I 0) == lim F(x IJ-L) = 1 f-1--+0

(5) p(x I 0) == lim p(x IJ-L) = { 10 f.L--+0

(6) p( x I oo) : = lim p( x 11-L) = 0 , f-1--+ 00

= - p( X I f-L) 0

falls x = 0

falls x> 0

F(x I oo) : = lim F(x IJ-L) f-1--+ 00

(5) gilt, weil p( x 11-L) in p, = 0 rechts-stetig ist, und ( 4) ergibt sich daraus.

0.

D

Die erste Behauptung in (6) ergibt sich, weil ef-l für p,---+ oo schneller wächst als jede

Potenz p,x, und die zweite Behauptung folgt aus der ersten. D

Page 183: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Konfidenzgrenzen für den Erwartungswert einer Poisson-Verteilung 16.3.16 B 12- 2

Beweis von

(8) F(xl 4 (x)) = a o, 0: für x> 0.

Da F(x 1- ): ( 0, oo)-----+ ( 0,1) eine streng fallende Bijektion ist, gibt es gerrau einen

Wert 4 (x) > 0, sodaß (8) gilt. Weiter folgt o,o:

Beweis von

(9) Max { F(ll~t) < a ll E W 0 }

F(Lpf_a) l~t) < a

D

wobei

Für jedes x E W0 ist F( x l~t) ist streng fallend in fL nach (2), also gilt

vgl. (8)

{} x < LF(a).

Es folgt P{ 40

o:(X) < ~t} = P{ X <LF(a)} '

< a nach Definition von Lpf_ a).

Da F(ll~t) streng wachsend in l ist gilt auch

D

Page 184: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Konfidenzgrenzen für den Erwartungswert einer Poisson-Verteilung 16.3.16 B 12- 3

12.2 Konstruktion der exakten unteren Konfidenzgrenze

Beweis von

(4) G(xl4 (x)) = a bzw. F(x-114 (x)) = 1-a u,a u,a

für x> 0 1

4 (0) =0 u,a

für x= 0.

Für x > 0 ist G( x 1-): ( 0, oo) -----+ ( 0, 1) eine streng wachsende Bijektion, und somit

gibt es gerrau einen Wert 4 (x) > 0, sodaß (4). Weiter folgt u

4 u a ( x) = Min { fL > 0 I G( x I fL) > a}. '

Für x = 0 ist G(O I tt) = 1 > a für alle tt > 0. Aus (3) ergibt sich daher

4u a(O) = Min {tt>O l1>a} = Min [O,oo) = 0. '

Beweis von

(5) Max { G( ll tt) < a ll E W 0 }

G(LG(a) I fL) < a wobei

L G( a) = Min { l E W 0 I G( litt) < a} ,

Für jedes x E W ist G( x I tt) ist streng wachsend in tt nach (2), also gilt

( i) G( X I fL) < G( X 14 u Q (X)) '

G(x I tt) < a vgl. (4)

Diese Äquivalenz gilt aber trivialerweise auch für x = 0, weil dann wegen

4 (0) = 0 u,a

und

LG(a) > 0 nach Definition, da G(O I tt) = 1 > a

beide Seiten in ( i) falsch sind. Aus ( i) für alle x E W 0

folgt dann

P{LG(a) <X}

G(LG(a) I fL)

D

< a nach Definition von LG(a).

Page 185: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Konfidenzgrenzen für den Erwartungswert einer Poisson-Verteilung 16.3.16 B 12- 4

Da G(Zip,) streng fallend in l ist gilt auch

D

12.3 Konstruktion des exakten zweiseitigen Konfidenzintervalls

Beweis von

(1) für x> 0.

Für x = 0 folgt die Behauptung sofort, weil 4 (0) = 0 und 4 (0) > 0 ist. u,a o,a

Und für x > 0 ergibt sich wegen a < ~

F( x I 4 ( x)) = a < 1- a = F( x-11 4 ( x)) o,a u,a

vgl. 12.1(8), 12.2(4)

< F(xl4 (x)) u,a

und da F(x IJ-L) streng fallend in p, ist, folgt die Behauptung. D

Beweis von

(3)

Wir zeigen, daß die komplementäre Wahrscheinlichkeit < a ist:. Mit (1) folgt

< Q

2 + Q

2 =a.D

Page 186: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Konfidenzgrenzen für den Erwartungswert einer Poisson-Verteilung 16.3.16 B 12- 5

12.4 Berechnung der exakten Grenzen

Beweis von

(1) 4 (0) =-log a<Q o, 0:

Für x = 0 ist 4 (0) nach 12.1 (8) die Lösung der Gleichung o, 0:

a = F( 0 I fL) = p( 0 I fL) = exp {- fL}

also tt = -log a.

Beweis von

(4) P{ Pois(tt) <X} = P{ x~> 2tt} bzw F(xltt) = 1-<P (2tt) m

mit m=2(x+1), xEW.

Wir zeigen die Gleichheit der komplementären Wahrscheinlichkeiten

P{ Pois(tt) > x} = P{ X~< 2tt} bzw.

( i) P { Pois(tt) > x + 1} = P { X~< 2tt} .

Aus 6.2.2 (11) mit n = x + 1, A = 1 und a = tt ergibt sich zunächst

P{ Pois(tt) > x + 1} P{ Gam(x+1, 1) < fL}

P{ 2·Gam(x+1,1) < 2tt}

P{ Gam(x+1,2) < 2tt}, vgl. 6.2.2 ( 4).

Nach 8.3.3 (2) ist x~ = GamC:):, 2) = Gam( x + 1, 2) und ( i) folgt.

D

D

Page 187: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Konfidenzgrenzen für den Erwartungswert einer Poisson-Verteilung 16.3.16 B 12- 6

Beweis von

(5) (to a(x) 1 2 für x>O mit m=2(x+1), 2Xm·a

' '

(6) (tu a(x) 1 2 für x>O mit m= 2x. 2 Xm·1-a

' '

ad (7): Die Gleichung 12.1 (8) für (t (x) läßt sich mit (4) schreiben als o,a

P{x!>2{t0

a(x)} = a mit m=2(x+1) '

Also ist d.h. ( 6) gilt.

ad (6): Die Gleichung 12.2 (4) für (t (x) läßt sich mit (5) schreiben als u,a

P{x!>2(tua(x)} = 1-a mit m=2x '

Also ist d.h. (7) gilt. D

Page 188: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Konfidenzgrenzen für den Erwartungswert einer Poisson-Verteilung 16.3.16 B 12- 7

12.5* Asymptotische (approximative) Konfidenzgrenzen

Beweise zu

(9)

(10)

(11)

(12)

(13)

fi (x) : = p, (x) + JDriJ o,o: m

fi (x) == p, (x)- JDriJ u,o: m

0 < fiu o:(x) < (L(x) < fi (x) ' o,o:

fi (0) = 0 u,o:

0 < fi (x) < tl(x) < fi (x) u, 0: o, 0:

(asymptotische obere Grenze) 1

(asymptotische untere Grenze),

für x > 0.

für x > 0.

Die obere Grenze fi (x) ist die einzige Lösung p, > 0 der approximierte Gleichung o,o: (3). Und im Fall x > 0 ist die untere Grenze fi (x) die einzige Lösung p, > 0 der ap-u,o: proximierte Gleichung (5).

Wir zeigen zunächst die obigen Folgerungen aus (11)-(13), wobei wir abkürzend

x = (L(x), p, = p, (x) und D = D(x) verwenden. Die Gleichung (3) läßt sich äquivalent m m

schreiben als

p,-x = zo:vfi x < p, und f(p,) = 0

und hat wegen (11) die (eindeutige) Lösung fi (x). Analog läßt sich (5) äquivalent o,o: schreiben als

p,-x = -zo:vfi p, < x und f(p,) = 0

und hat für x > 0 wegen (13) die (eindeutige) Lösung fi (x). Man beachte, daß (5) u,o: für x = 0 keine Lösung hat, aber fi (0) trotzdem durch (10) definiert ist. u,o:

Zum Nachweis von (11)-(13) stellen erst wir einige Eigenschaften der Funktion f zu­

sammen. Wegen a < ~ ist z o: > 0 und somit

( i) D> 0.

Weiter ist p, die Minimalstelle von f mit m

( ii) f(p, ) = - D < 0 , m

und es folgt

Page 189: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Konfidenzgrenzen für den Erwartungswert einer Poisson-Verteilung 16.3.16 B 12- 8

( iii) f ist strengfallend auf (-oo, p, ] und streng wachsend auf [p, , oo). m m

Zum Nachweis von (11) - (13) unterscheiden wir zwei Fälle.

1. Fall: x = 0

nach (iv) eine Lösung von (3) und offenbar auch die einzige.

Wegen fiu a(O) 1 2 1 2 = 0 -z --z '

2 Q 2 Q gelten (11) und (12) in diesem Fall.

2. Fall: x>O

Dann ist

(iv) j( X) = - X z2 < 0 , Ct

f(O) = x2 >0

Mit (i) und (iii) folgt hieraus, daß die untere Nullsstelle vonf im Intervall (O,x) und

die obere im Intervall (x,oo) liegen muß. Also gilt (13) und somit auch (11). D

Beweise von

(14)

1-L < fi (x) o,a

Zum Nachweis von (14) zeigen wir die Äquivalenz der entsprechenden Negationen

unter Verwendung von (iii) aus dem Beweis von (11) - (13).

1-L < fiu a(x) {} 1-L < fiu a(x) und p,<x, vgl. (11)

' ' {} f(p,) > f(fiu a(x)) = 0 und p,<x, vgl.( iii)

' {} (p,-x) 2 > p,z; und p,<x

{} x-p, > Jii zct

Damit gilt die erste Äquivalenz in (14), und die zweite folgt analog:

fio a(x) < 1-L {} fio a(x) < 1-L und X< P,, vgl. (11)

' ' {} j(p,) > f(fi

0 Ct (X)) = 0 und x<p,, vgl..(iii)

' {} (p,-x) 2 > p,z; und x<p,

{} p,-x > Jii zct D

Page 190: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Konfidenzgrenzen für den Erwartungswert einer Poisson-Verteilung 16.3.16 B 12- 9

Beweise von

(15) P{ p, < {i (X) } = P{ p,- X < z · JjL } ~ 1 - a , o,a a

P{ {i (X) < p,} = P{ X -p, < z · JjL} ~ 1 - a , u,a a

(16) lim P{ p, < fi (X) } = 1- a , fL---+ 00 o, Q

lim P{ {i (X) < p,} fL---+ 00 u, Q

1-a.

Aus (14) und dem Poisson-Grenzwertsatz ergibt sich

P{ p, < {i (X) } o,a

P{N(0,1) >-za} =

1- <!>(- za) = 1- a .

Damit sind die ersten Behauptungen in (15),(16) gezeigt und die zweiten erhält man

analog:

P{ {i (X) < p,} u,a {X-p, }

p y0" < Za n---+ oo

P{N(0,1) <za}

<I>(za) = 1- a.

Beweise von

(17)

(18)

ad (17}:

( i)

fi ist für x > 0 streng wachsend in a, u,a

fi ist für x E W0 streng fallend in a. o,a

Für a < a' < 12

und ist zu zeigen fi (x) < fi ,(x)1 also mit (14) u,a u,a

1-L = fi ,(x). u,a wobei

Nun ist p, für x > 0 die (einzige) Lösung von (5) mit a' statt a, .d.h. es gilt

Mit

ad {18):

( i)

z , = <!>(1-a') < <!>(1-a) = z Q Q

ergibt sich (i) aus (ii).

Analog (17) ist für a < a' < 12

zu zeigen p ,(x) < p (x) 1 also mit (14) o,a o,a

wobei 1-L = fi ,(x). o,a

Nun ist p, die (einzige) Lösung von (3) mit a' statt a, .d.h. es gilt

( ii) p,- x = za,·Jjt < za ·Jjt, und ( i) folgt.

D

D

Page 191: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Testen von Hypothesen über Wahrscheinlichkeiten 16.3.16 B 13-1

13 Testen von Hypothesen über W ahrscheinlichkeiten

13.1 Der exakte einseitige Binamial-Test mit oberer Alternative

13.1.3 Der optimale Test zum vorgegebenen Niveau

Beweis der Äquivalenz von

(4) Die Beobachtung x überschreitet einen oberen kritischen Wert k rx(p0

)

(5) Die Wahrscheinlichkeit P{ X> x I p0

} unterschreitet das Niveau a:

(6) Die exakte untere Konfidenzgrenze p (x) überschreitet den Wert p0 u,rx

ad (4) <=> (5): Da G(xlp0

) == P{X>x I p0

} fallend in xE{O, ... ,n+1} ist, gilt

Also gilt (4) =? (5), und die Umkehrung (5) =? (4) folgt aus der Definition von krx(p0

).

ad (5) <=> ( 6): Für x > 0 ist G( x I p) nach 11.2 ( 2) streng wachsend in p, also gilt

( i) G( x I p 0) < G( x I p u rx ( x)) = a . '

Für x = 0 sind beide Seiten in ( i) unwahr, weil p ( 0) = 0 < p0

und G( 0 I p0

) = 1 > a. u,rx Also gilt die Äquivalenz (i) auch in diesem Fall. D

Page 192: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Testen von Hypothesen über Wahrscheinlichkeiten 16.3.16 B 13-2

13.2 Der exakte einseitige Test mit unterer Alternative

Beweis der Äquivalenz von

(2) Die Beobachtung x unterschreitet einen unteren kritischen Wert k~(p0 ):

(3) Die Wahrscheinlichkeit P{ X< x I p0

} unterschreitet das Niveau a:

(4) Die exakte obere Konfidenzgrenze p (x) unterschreitet den Wert p0

: o, 0:

ad (2) <=> (3): Da F(x I p0

) : = P{ X< x I p0} wachsend in x E { -1, ... , n} ist, gilt

Also gilt (2) =? (3), und die Umkehrung (3) =? (2) folgt aus der Definition von k~(p0 ).

ad (3) <=> ( 4): Für x < n ist F( x I p) nach 11.1 ( 2) streng fallend in p, also gilt

( i)

Für x = n sind beide Seiten in ( i) unwahr, weil p ( n) = 1 > p0

und F( n I p0

) = 1 > a. o, 0:

Also gilt die Äquivalenz (i) auch in diesem Fall. D

Page 193: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Testen von Hypothesen über Wahrscheinlichkeiten 16.3.16 B 13-3

Beweise von

(5) mit

Für Y = n-X"' B(n,q) gilt

n- kr)q0

) = n- Min { k E {0, ... , n + 1} I P{ Y> k I q0

} < a}.

Max { n-k E { -1, ... , n} I P{ Y> k I q0} < a}

Max { n-k E { -1, ... , n} I P{ X< n-k I p0} < a}

Max { l E { -1, ... , n} I P{ X< Zl p0

} < a}

= k~(p0 ). D

Page 194: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Testen von Hypothesen über Wahrscheinlichkeiten 16.3.16 B 13-4

13.3 Der exakte zweiseitige Binomial-Test

Beweis der Äquivalenz von

(3)

(4)

oder x < k~(pO) 2

oder P{X<xlp0 }<~

(5) Der Wert p0

liegt nicht im exakten zweiseitigen Konfidenzintervall Irx(x):

p0 \t I rx(x) : = ( Pu Q'(x) 1 p0 Q'(x) )

'2 '2

Die Äquialenzen ergeben sich aus denen in 13.1.3 (4)-(6) und 13.2 (2)-(4) weil

(5) oder

Beweise von

(8) k~(p0 ) < kQ'(p0

) für 0 < a < 1 2 2

(9) Pow ~(p I a) = Pow>(p I~) + Pow <(p I~).

ad {8): Für k': = k~(p0 ) < 0 ist nichts zu zeigen, weil k: = kQ'(p0

) > 0. 2 2

Für k' > 0 ist nach Definition von k für (8) nur zu zeigen

1-P{X<k'lp0

} = P{X>k'lp0

} > ~ bzw.

(i) P{X<k'-1lp0

} < 1-~.

Mit der Definition von k' ergibt sich (i) wie folgt:

P{X<k'-1lp0

} < P{X<k'lp0

} < ~ < 1-~.

D

ad {9): Pow~(p I a) = P{ d~(X) = 11 p}

= P{ X> kQ'(p0

) oder X< k~(p0 ) I p}

vgl. 13.1.2 (1)

vgl. (3) 2 2

= P{X>kQ'(p0 ) IP} +P{X<k~(p0 ) IP} 2 2

vgl. (8)

vgl. (6)(7). D

Page 195: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Testen von Hypothesen über Wahrscheinlichkeiten 1603016 B 13-5

13.4 Asymptotische Tests

13.4.1 Der asymptotische einseitige obere Test

Beweis der Äquivalenz von

(2) Die asymptotische untere Konfidenzgrenze p (x) überschreitet den Wert p0 u,a

(vgl. 11.6)

(3) Die Beobachtung x überschreitet einen oberen kritischen Wert:

(4) Die Wahrscheinlichkeit P { N(O, 1) > t(x)} unterschreitet das Niveau a:

P{ N(0,1) > t(x)} = <P(-t(x)) < a 0

Es gilt:

Po < Pu a(x) {} z a 0 a(po) Vn < x- np0

vgl. 11.6 (19) '

{} ka(Po) = npo + zaa(po) Vn < X

{} z < t(x) 0 Q

{} -t(x) < -z Q

{} <P(- t(x)) < <P(-z ) = a 0 D Q

Beweis von

(8) n---+ oo ao

Es ist a>(p0 ) = P{ t(X) > za I p 0} vgl. (3)

I dafürp=p0

:

t t(X) n:oo N(0,1)

P{ N(0,1) > za} = ao D

Page 196: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Testen von Hypothesen über Wahrscheinlichkeiten 16.3.16 B 13-6

Beweise zu

(12) mit u(p) Vn (p- Po) - Za a(po)

a(p)

wobei die Konstante c und die Funktion h in 9.3.1 angegeben sind.

Ausgangspunkt ist der Grenzwertsatz von de Moivre und Laplace aus 9.3.1 (wobei wir

den Index n hier unterdrücken)

( i) X-np L

U·----.- a(p) Vn n----+oo

N(0,1)

und die zugehörige Abschätzung von Berry und Esseen in 9.3.1 (7)

( ii) supJR IP{U>u}-<P(-u)]l < ~-h(a), uE yn

Aus

{} X-np > za a(pJJTi- n(p- p0 )

{} U > - u(p)

folgt Pow>(p) = P{X> ka(p0 ) IP} = P{U>-u(p)}.

Also I Pow>(p)- APow>(p) I = I P{ U>- u(p)}- <P( u(p)) I

und (13) folgt mit (ii).

Beweise von

(14) n----+oo 1 ' Pow(n)(p) ------+ 1

> n----+oo

Für p > p0

gilt Vn (p- Po)

u(n)(p) = a~) [vn (p- Po)- za a(po)]

APow~)(p) = <P( u(n)(p))

n----+oo

n----+oo

n----+oo

Also gilt die erste Beh. in (14) und die zweite folgt mit (13), weil

lim ( Pow(n)(p)- APow(n)(p)) = 0. n----+oo > >

00

00 ::::}

<P(oo) = 1.

D

D

Page 197: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Testen von Hypothesen über Wahrscheinlichkeiten 16.3.16 B 13-7

13.4.2 Der asymptotische einseitige untere Test

Alle Beweise sind völlig analog zu denen aus 13.4.1, werden aber trotzdem

hier vollständig ausgeführt.

Beweis der Äquivalenz von

(2) Die asymptotische obere Konfidenzgrenze p (x) unterschreitet p0 o, 0:

(vgl. 11.6)

(3) Die Beobachtung x unterschreitet einen unteren kritischen Wert:

x- np t(x) == 0

a(po) Vn bzw. < -z

0:

(4) Die Wahrscheinlichkeit P { N(O, 1) < t(x)} unterschreitet das Niveau a:

<P( t( x)) < a .

ad (2) {} (3) {} (4):

vgl. 11.6 (19)

x < k~(p0 ) = n p0 - z aa(p0 ) fo

t(x) < -z 0:

D

Page 198: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Testen von Hypothesen über Wahrscheinlichkeiten 16.3.16

Beweise von

Das maximale Fehlerrisiko 1. Art (effektive Niveau) ist gegeben durch

(6)

(7)

ad (6):

a. n---+ oo

Für k = Max { l E Z IZ < k ~ (p 0

) } ist

a<(p) = P{X<k~(p0 ) IP}=P{X<klp} wachsendinp.

Folglich ist

ad (7}: a>(p0 ) = P{ t(X) <-za I p0

}

I d f .. 1 a urp=p

0:

t t(X)

n---+ oo N(O,l)

P{N(O,l)<-za}= a.

B 13-8

D

Page 199: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Testen von Hypothesen über Wahrscheinlichkeiten 16.3.16 B 13-9

Beweise zu

(9) APow <(p) = <!>( u(p)) mit

(10) I Pow>(p)- APow>(p) I < {n · h(a(p))

Ausgangspunkt ist der Grenzwertsatz von de Moivre und Laplace ( vgl. 9.3.1)

( i) X-np L

U·----.- a(p) Vn n----+oo

N(0,1)

und die zugehörige Abschätzung von Berry und Esseen in 9.3.1 ( 6)

( ii) supJR IP{U<u}-<I>(u)]l < ~-h(a), uE yn

Aus

{} X-np < n(p0

- p)- zrx a(pJfo

{} U < u(p)

folgt Pow<(p) = P{X<k~(p0 ) IP} = P{U<u(p)}.

Also I Pow <(p) - APow <(p) I = I P { U < u(p) } - <!>( u(p)) I

< {n · h( a(p)) vgl. (ii). d.h. (10) gilt. D

Beweise von

(11) APow(<n) (p) ------+ 1 n----+oo '

Für p < p0

gilt Vn (P0 - P)

u(n)(p) = a1(p) [fo (Po-p)- Za a(po)J

APow~)(p) = <!>( u(n)(p))

n----+oo

n----+oo

n----+oo

Also gilt die erste Beh. in (11) und die zweite folgt mit (10), weil

lim ( Pow(n)(p)- APow(n)(p)) = 0. n----+oo < <

00

00 ::::}

<I>(oo) = 1.

D

Page 200: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Testen von Hypothesen über Wahrscheinlichkeiten 1603016 B 13-10

13.4.3 Der asymptotische zweiseitige Test

Beweis der Äquivalenz von

(2) Der Wert p0

liegt nicht im asymptotischen zweiseitigen Konfidenzintervall:

(3) Der absolute Testwert überschreitet einen kritischen Wert:

lx- np I I t(x) I : = 0 > z0'

a(po) Vn 2

(4) <P( -I t( X) I) < ~ 0

Die Äquivalenzen von (2) und (3) ergibt sich aus denen von 13.4.1 (2-4) und 13.4.2

(2-4), wenn man diese Aussagen wie folgt äquivalent umformuliert:

(2)' Po< P 0(x) oder P 0(x) <Po u,2 o,2

(3)' t(x) > z0 oder t(x) <- z0 2 2

ad {3) {} (4): I t(x) I > z0 {} -I t(x) I <- z0 2 2

{} <P( -I t(x) I)< <P(-z0 ) = ~ 0 D

2

Beweis von

(5) Pow ~(p I a) = Pow>(p I~) + Pow <(p I~ )0

Es ist: Pow~(p I a) = P{ lt(X) I> z0 IP} 2

= P { t(X) > z0 oder t(X) <- z0 I p} 2 2

= P { t(X) > z0 1 p} + P { t(X) <- z0 I p} 2 2

vgl. 13.4.1(11), 13.4.2(8).0

Page 201: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Testen von Hypothesen über Wahrscheinlichkeiten 1603016 B 13-11

Beweise von

(7)

(9)

ad (7): Die Beho ergibt sich mit 13.4.1(8) und 13.4.2(7) aus (6)

n---+ oo ~ + ~ = a 0

ad (9):

Fall1: p > p0

0 Die Beho ergibt sich mit (8) bzwo (5) aus

1 > APow +:(p I a) > APow>(p I~) 1 ' n---+ oo vgl. 13.4.1 (14)

1 > Pow +:(p I a) > Pow>(p I~) 10 n---+ oo

Fall 2: p < p0

0 Die Beho ergibt sich analog Fall1

1 > APow +:(p I a) > APow<(p I~) 1 ' n---+ oo vgl. 13.4.2 (11)

1 > Pow +:(p I a) > Pow<(p I~) 10 n---+ oo

D

Page 202: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Testen von Hypothesen über Wahrscheinlichkeiten 16.3.16 B 13-12

13.5 Planung des erforderlicher Stichproben-Mindestumfangs

13.5.1 Der einseitige obere Test

Beweis zu

(3) mit ao = a(po) = JPo (1- Po)

a 1 = a(p1) = J P1 ( 1-P1)

Zu zeigen ist, daß (3) die (einzige) Lösung von (2) für n E [0, oo) ist. Nach 13.4.1 (12)

gilt:

mit

{} u1

= <P-\1- ß) = zß

{} Jn(p1-p0)-zaao=zßa1

Fn= Za ao + zßa1

( i). p1-p0

Also hat (2) bzw. (i) gerrau die Lösung n( a,ß,p0,p1) aus (3) bzgl n. D

Page 203: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Tests für den Erwartungswert der Poissonverteilung 17.2.09 B 14-1

14.* Tests für den Erwartungswert der Poisson-Verteilung

14.1 * Der einseitige Poisson-Test mit oberer Alternative

14.1.1 * Der exakte einseitige obere Poisson-Test

Beweis der Äquivalenz von

(1) Die Wahrscheinlichkeit P{ X> x 11-Lo} unterschreitet das Niveau a:

(2) Die exakte untere Konfidenzgrenze 4 (x) überschreitet den Wert p,0

: u,a

(3) Die Beobachtung x überschreitet einen oberen kritischen Wert k a(p,0

):

ad (1) <=> (3): Da G( x lp,0

) = P{ X> x 11-Lo} fallend in x E W 0

ist, gilt

Also gilt (3) =? (1), und die Umkehrung (1) =? (3) folgt aus der Definition von k a(p,0

).

ad (1) <=> (2): Für x > 0 ist G( x 11-L) nach 12.2 ( 2) streng wachsend in p,, also gilt

( i)

Für x = 0 sind 4 ( 0) = 0 < p,0

und G( 0 11-Lo) = 1 > a stets erfüllt, und somit gilt die u,a

Äquivalenz (i) auch in diesem Fall (beiden Seiten sind unwahr). D

Page 204: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Tests für den Erwartungswert der Poissonverteilung 1702009 B 14-2

14.1.2* Der asymptotische einseitige obere Poisson-Test

Beweis der Äquivalenz von

(2) Die asymptotische untere Konfidenzgrenze fi (x) überschreitet den Wert p,0

: u,a

(vgl. 12.5)

(3) Die Beobachtung x überschreitet einen oberen kritischen Wert k a(p,0

):

bzwo X-J-L

t( X) : = O > Z et ,

Vilo (4) Die Wahrscheinlichkeit P { N(O, 1) > t(x)} unterschreitet das Niveau a:

P{ N(0,1) > t(x)} = <P(-t(x)) < a 0

Es gilt:

1-Lo < fiu a(x) {} za vfLo < x -p,o vgl. 12.5 (14) '

Beweis von

(7)

{}

{}

{}

{}

f.L----+00 0

k a(J-Lo) = 1-Lo + z a vfLo z

Q

-t(x)

<P(- t(x))

ao

Es ist a>(p,0) = P{ t(X) > z a IJ-L 0}

< X

< t(x)

< -z Q

< <P(-z ) = a 0

Q

vgl. (3)

1 da für I'= l'o: t(X) f-l :oo N(O, 1) 0

P{ N(0,1) > za} = ao

D

D

Page 205: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Tests für den Erwartungswert der Poissonverteilung 17.2.09 B 14-3

Beweis zu

(8) mit

Ausgangspunkt ist der Poisson-Grenzwertsatz ( vgl. 9.4)

( i) X-!1

U:= Vfi f.L---+ 00

N(0,1).

X - !1 > z fL - (!1- fl ) aYt-"0 0

U > - u(f.l)

ergibt sich für nicht zu kleines f1 mit ( i) die Approximation

Pow>(f.l) = P{X> ka(!l0 ) lfl} = P{U>-u(f.l)}

~ P { N(O, 1) >- u(f.l)} = <!>( u(f.l))

Page 206: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Tests für den Erwartungswert der Poissonverteilung 17.2.09 B 14-4

14.2* Der einseitige Poisson-Test mit unterer Alternative

14.2.1 * Der exakte einseitige untere Poisson-Test

Beweis der Äquivalenz von

(1) Die Wahrscheinlichkeit P{ X:::; x 11-Lo} unterschreitet das Niveau a:

(2) Die exakte obere Konfidenzgrenze (t (x) unterschreitet den Wert p,0

: o, 0:

(3) Die Beobachtung x unterschreitet einen unteren kritischen Wert k ~(p,0 ):

ad (1) <=> (3): Da F(x lp,0

) = P{ X:::; x 11-Lo} wachsend in x E W 0

U { -1} ist, gilt

Also gilt (3) =? (1), und die Umkehrung (1) =? (3) folgt aus der Definition von k~(p,0 ).

ad (1) <=> (2): Für x E W 0 ist F( x 11-L) nach 12.1 ( 2) streng fallend in p,, also gilt

( i) D

Page 207: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Tests für den Erwartungswert der Poissonverteilung 1702009 B 14-5

14.2.2* Der asymptotische einseitige untere Poisson-Test

Beweis der Äquivalenz von

(1) Die asymptotische obere Konfidenzgrenze fi (x) unterschreitet den Wert p,0 o, 0:

(vgl. 12.5)

(2) Die Beobachtung x unterschreitet einen unteren kritischen Wert:

X-J-L t(x) : = 0

Vilo bzwo < -z

0:

(3) Die Wahrscheinlichkeit P { N(O, 1) < t(x)} unterschreitet das Niveau a:

P{ N(0,1) < t(x)} = <P(t(x)) < a 0

Es gilt:

fio a(x) < 1-Lo {} z o: /iLo < 1-Lo - x vgl. 12.5 (14) '

{} x < 1-Lo - z o: /iLo k~(J-Lo)

{} t(x) < -z 0:

{} <P( t(x)) < <P(-zo:) = a 0

Beweis von

(6)

Es ist

f.L----+00 0

ao

a>(p,0 ) = P{ t(X) <- z o: IJ-L 0}

I 1 da für p, = p,0:

P{N(0,1)<-zo:}= ao

vgl. (3)

t(X) f-l :oo N(0,1) 0

D

D

Page 208: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Tests für den Erwartungswert der Poissonverteilung 17.2.09 B 14-6

Beweis zu

(7) APow <(p,) = <!>( u(p,)) mit

Ausgangspunkt ist der Poisson-Grenzwertsatz ( vgl. 9.4)

( i) X-p,

U:= Vfi f.L---+ 00

N(0,1).

X-p, < -z ljJ: o aY~'-"o

X - p, < (p, - p,) - z ljJ: 0 aY~'-"O

U < u(p,)

ergibt sich für nicht zu kleines p, mit ( i) die Approximation

Pow <(p,) = P {X< k~(p,0 ) 11-L} = P { U < u(p,)}

~ P { N(O, 1) < u(p,)} <!>( u(p,))

APow <(p,). D

Page 209: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Tests für den Erwartungswert der Poissonverteilung

14.4* Der zweiseitige Poison-Test

14.4.1 * Der exakte zweiseitige Poisson-Test

Beweise von

(6)

(7)

k~(p,0 ) < k0 (p,0

) für 2 2

Pow ~(1-L I a) = Pow >(1-L I~) + Pow <(1-L I~ )0

1702009

0<a<1

ad (6): Für k': = k~(p,0 ) < 0 ist nichts zu zeigen, weil k: = k0 (p,0

) > 00 2 2

Für k' > 0 ist nach Definition 14.1.1 (3) von k für (6) nur zu zeigen

B 14-7

P{ X> k' lp,0

} > ~ bzwo 1 - P{ X< k' 11-Lo} > ~ bzwo

( i) P{ X< k' -1lp,0 } < 1- ~ 0

Mit der Definition 14.2.1 (3) von k' ergibt sich (i) wie folgt:

P{ X< k' -1 11-Lo} < P{ X< k' 11-Lo} < ~ < ~ < 1 - ~ 0

ad (7}: Pow ~(1-L I a) = P{ d~(X) = 1lp,}

= P{ X> k0 (p,0

) oder X< k~(p,0 ) 11-L} vgl. (3) 2 2

= P{ X> k0 (p,0 ) 11-L} + P{ X< k~(p,0 ) 11-L} vgl. (6) 2 2

vgl. (4)(5)0 D

Page 210: Beweise zum Skript 'Stochastik' - Uni Bremenosius/download/lehre/Skripte/Stochastik/Osius... · 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative 13.1.3 Der optimale

Tests für den Erwartungswert der Poissonverteilung 17.2.09

14.4.2* Der asymptotische zweiseitige Poisson-Test

Beweis von

(4) Pow ~(~t I a) = Pow >(~t I~) + Pow <(~t I~).

Es ist: Pow ~(~t I a) = P { I t(X) I> zQ' l~t} 2

= P{ t(X) > zQ' oder t(X) <-zQ' l~t} 2 2

= P{ t(X) > zQ' l~t} + P{ t(X) <-zQ' l~t} 2 2

Beweis von

(6) a,

Die Beh. ergibt sich mit 14.1.2 (7) und 14.2.2 (6) aus (5)

a~)(~t0 ) = a~n\~t0 I~) + a~\~t0 I~) n---+ oo Q+Q

2 2

B 14-8

D

a. D