Bew-eise zum Skript
Stochastik von
Gerhard Osius
Dichte, von N (0, 1) 0.4
0.2
0 -4 -2 a 0 2 4
1,0 ' ' 0,9 Verteilungsfunktion von !N(O, 1)
' 0,8
I I I I
0,7 I I I
0,6 I
' I '
015
0,4 <D(a)
0,3
0,2
0,1
-4 -2 a 0 2 4
August 2016 Fachbereich Ma thema tik/lnforma tik
Universität Bremen
Beweise zur Stochastik 15.8.16 Vorwort- 1
Vorwort
Der vorliegende Beweis-Band enthält nur die Beweise für das Skript zur Stochastik. Der Grund für die Trennung der Beweise vom Text-Band war zunächst historisch bedingt, weil das Skripts in den ersten Auflagen noch keine Beweise enthielt. Nachdem mittlerweile die Beweise hinzugekommen sind, habe ich sie dennoch aus verschiedenen Gründen in einem separaten Teil zusammengestellt.
Die Beweise sind hier gerrau so aufgeführt, wie sie in der Vorlesung vorgetragen werden - damit die Studierenden nicht mitschreiben müssen und sich auf die Inhalte konzentrieren können. Demzufolge sind die Beweise auch nicht besonders platzsparend sondern eher übersichtlicher dargestellt. Der Begleittext der Beweise ist dagegen extrem kurz gefaßt und besteht oft nur aus Querverweisen oder Stichworten.
Einige Beweise fehlen hier, entweder weil sie den hier vorgesehenen Rahmen sprengen würden (was bereits im Skript vermerkt ist) oder weil sie als Übungsaufgaben vorgesehen sind.
Inhaltlich unterscheidet sich diese Auflage von der letzten Version (März 2016) zunächst durch einige Korrekturen sowie kleinere Änderungen bzw. Ergänzungen, die durch die jeweiligen Änderungen im Skript bedingt sind. Hinzugekommen bzw. neu formuliert sind die Beweise in den Abschnitten 6.1.4, 10.2 und 11.7.
Erfahrungsgemäß enthält das Skript - trotz Korrekturlesen - noch Druckfehler. Bevor man daher am eigenen Verständnis zweifelt, sollte man auch einen Fehler im Skript in Erwägung ziehen. Für Hinweise auf Druckfehler oder andere Kommentare pere-Mail ([email protected]) bin ich dankbar.
Bremen, am 15. August 2016 Gerhard Osius
Beweise zur Stochastik 15.8.16
Inhalt (Beweise)
Für die nicht aufgeführten Abschnitte sind hier keine Beweise vorgesehen.
1. Wahrscheinlichkeitsräume
1.0 Mengensysteme 1.1 Wahrscheinlichkeitsmaße 1.2 Endliche Wahrscheinlichkeitsräume
1.2.3 Binomial-Verteilung 1.2.4 * Relative Häufigkeiten
1.3 Abzählbare Wahrscheinlichkeitsräume 1.3.1 Poisson-Verteilung
1.4 Reelle Wahrscheinlichkeitsmaße mit Dichten 1.4.1 Normal-Verteilung 1.4.2 Exponential-Verteilung 1.4.3 Stetige Gleichverteilung
2. Zufallsvariablen und ihre Verteilungen
2.2 Definition einer Zufallsvariable und ihrer Verteilung 2.3 Reelle Zufallsvariablen
Inhalt- 1
(Seiten pro Kapitel) Kapitel - Seite
(13)
1-1 1-2 1-9
1-10
1-10
1-11 1-11 1-12 1-12 1-13 1-13
(4) 2-1 2-4
3. Bedingte Wahrscheinlichkeit und stochastische Unabhängigkeit (6) 3-1 3-3 3-3 3-4 3-6
3.1 Bedingte Wahrscheinlichkeit 3.1.1 Wartezeiten und Exponential-Verteilung
3.2 Stochastische Unabhängigkeit von Ereignissen 3.3 Produkte diskreter Wahrscheinlichkeitsräume
3.3.1 Bernoulli-Wiederholungen und Binomialverteilung
4. Verteilungsfunktionen und Dichten 4.1 Verteilungsfunktionen reeller Zufallsvariablen
4.1.1 Quasi-Inverse einer Verteilungsfunktion 4.2 Verteilungsfunktionen diskreter Zufallsvariablen
4.2.2 Binomial-Verteilung 4.2.3 Poisson-Verteilung
4.3 Stetige Zufallsvariablen mit Dichten 4.3.1 Stetige Gleichverteilung 4.3.2 Exponential-Verteilung 4.3.3 Normal-Verteilung
4.4 Dichten transformierter Zufallsvariablen
(21) 4-1 4-3 4-5 4-6 4-6 4-7
4-10 4-10 4-10
4-11 4.4.1 Lineare Transformationen stetiger Zufallsvariablen 4-13 4.4.2 Absolutbetrag und Potenzen stetiger Zufallsvariablen 4-14 4.4.3 Log-Normalverteilung 4-15 4.4.4 Weibull-Verteilung 4-15 4.4.5 Erzeugung von Zufallszahlen 4-15
4.5 Zufallsvektoren 4-16 4.5.1 Mehrdimensionale Borel-Menge 4-16
Beweise zur Stochastik 2.9.16 Inhalt- 2
4.6 Diskrete Zufallsvektoren 4-16 4.6.1 Multinomial-Verteilung 4-16
4.7 Stetige Dichten für zweidimensionalen Verteilungen 4-17
4.7.1 Zwei-dimensionale Normal-Verteilung 4-18
4.9 Endliche Produkte von Wahrscheinlichkeitsräumen 4-20 4.9.2 Allgemeiner Fall: beliebige Wahrscheinlichkeitsräume 4-20
4.10 Abzählbare Produkte von Wahrscheinlichkeitsräumen 4-21
5. Stochastische Unabhängigkeit von Zufallsvariablen (11) 5.1 Stochastische Unabhängigkeit diskreter Zufallsvariablen 5-3
5.1.1 Randomisierte klinische Vergleichsstudie 5-4
5.1.2 Geometrische Verteilung 5-5
5.2 Unabhängigkeit bei stetigen Zufallsvariablen mit Dichten 5-6
5.2.1 Normalverteilte Zufallsvariablen 5-9 5.3 Unabhängigkeit bei Zufallsvektoren 5-10
6. Faltungen von Verteilungen (25) 6.1 Faltung diskreter Verteilungen 6-1
6.1.1 Binomial-Verteilung 6-1
6.1.2 Multinomial-Verteilung 6-3
6.1.3 Faltung von Poisson-Verteilungen 6-5
6.1.4 Negative Binomial-Verteilungen 6-6
6.2 Faltung stetiger Verteilungen mit Dichten 6-11
6.2.1 Faltung von Normal-Verteilungen 6-13
6.2.2 Faltung von Exponential- und Gamma-Verteilungen 6-15 6.2.3 Poisson-Verteilung und Poisson-Prozeß 6-18
6.2.4 Elementare Eigenschaften der Gammafunktion 6-19
6.3 Arithmetische Operationen von Zufallsvariablen 6-20
Beweise zur Stochastik 15.8.16
7. Parameter von Verteilungen: Erwartungswert, Varianz, Schiefe, Covarianz und Korrelation 7.2 Grundlegende Eigenschaften des Erwartungswerts 7.3 Erwartungswerte spezieller Verteilungen
7.3.1 Erwartungswerte spezieller diskreter Verteilungen 7.3.2 Erwartungswerte spezieller stetiger Verteilungen 7.3.3 Cauchy-Verteilung 7.3.4 Anwendung: Das Sammlerproblem
7.4 Varianz und Standardabweichung 7.5 Varianzen spezieller Verteilungen
7.5.1 Varianzen spezieller diskreter Verteilungen 7.5.2 Varianzen spezieller stetiger Verteilungen
7.6 Symmetrie und Schiefe 7.7 Die Ungleichungen von Chebychev und Markov
7.7.1 Normalverteilung 7.7.2 Empirische Verteilung
7.8 Covarianz, Korrelation und linearer Zusammenhang 7.8.1 Die Covarianz 7.8.2 Der Korrelationskoeffizient 7.8.4 Linearer Zusammenhang und Regressionsgerade
Inhalt- 3
(40) 7-1
7-12 7-13 7-15 7-16 7-17
7-20 7-22 7-24 7-31 7-32 7-33
7-34 7-38 7-39
8. Schätzung von Erwartungswert und Varianz (7)
8.1 Schätzen des Erwartungswerts 8-1 8.3 Schätzung der Varianz
8.3.1 Schätzung der Varianz bei bekanntem Erwartungswert 8-2 8.3.2 Schätzung der Varianz bei unbekanntem Erwartungswert 8-2
9. Schwaches Gesetz der großen Zahlen und Zentraler Grenzwertsatz (26)
9.1 Konvergenz nach Wahrscheinlichkeit und Schwaches Gesetz der großen Zahlen 9-1 9.1.1 Eigenschaften der Konvergenz nach Wahrscheinlichkeit 9-2 9.1.2 Stochastische Konvergenz und Konsistenz von Schätzern 9-5
9.2 Verteilungskonvergenz und Zentraler Grenzwertsatz 9-7 9.3 Grenzwertsätze für Binomial-Verteilungen
9.3.1 Die Normal-Approximation der Binomial-Verteilung 9-9 9.3.3 Die Poisson-Approximation der Binomial-Verteilung 9-11
9.7 Eigenschaften der Konvergenz nach Verteilung 9-16 9.8 Hypergeometrische Verteilungen
9.8.2 Zufälliges Ziehen mit und ohne Zurücklegen 9-17 9.8.3 Definition und Eigenschaften der hypergeom. Verteilung 9-19 9.8.4 Anwendungen und Schätzungen 9-19 9.8.5 Binamial-Approximation der hypergeometrischen Verteilung 9-20 9.8.6 Die multivariate hypergeometrische Verteilung 9-23
Beweise zur Stochastik 15.8.16 Inhalt- 4
10. Konfidenzgrenzen für den Erwartungswert (4)
10.1 Exakte Konfidenzgrenzen für den Erwartungswert einer Normal-Verteilung mit bekannter Varianz 10-1
10.2 Asymptotische Konfidenzgrenzen für den Erwartungswert einer beliebigen Verteilung 10-3
10.3 Exakte Konfidenzgrenzen für den Erwartungswert einer Normal-Verteilung mit unbekannter Varianz 10-4
11 Konfidenzgrenzen für eine Wahrscheinlichkeit (18) 11.1 Die exakte obere Konfidenzgrenze nach Clopper-Pearson 11-1 11.2 Die exakte untere Konfidenzgrenze nach Clopper-Pearson 11-4 11.3 Das exakte zweiseitige Konfidenzintervall 11-6 11.4 Berechnung der Grenzen 11-7 11.6 Asymptotische (approximative) Konfidenzgrenzen 11-9 11.7 Grobe asymptotische (approximative) Konfidenzgrenzen 11-17
12 Konfidenzgrenzen für den Erwartungswert einer Poisson-Verteilung (9) 12.1 Konstruktion der exakten oberen Konfidenzgrenze 12-1 12.2 Konstruktion der exakten unteren Konfidenzgrenze 12-3 12.3 Konstruktion des exakten zweiseitigen Konfidenzintervalls 12-4 12.4 Berechnung der exakten Grenzen 12-5 12.5 Asymptotische (approximative) Konfidenzgrenzen 12-7
13. Testen von Hypothesen über Wahrscheinlichkeiten (12) 13.1 Der exakte einseitige Binomial-Test mit oberer Alternative
13.1.3 Der optimale Test zum vorgegebenen Niveau 13-1 13.2 Der exakte einseitige Test mit unterer Alternative 13-2 13.3 Der exakte zweiseitige Binomial-Test 13-4 13.4 Asymptotische Tests
13.4.1 Der asymptotische einseitige obere Test 13-5 13.4.2 Der asymptotische einseitige untere Test 13-7 13.4.3 Der asymptotische zweiseitige Test 13-10
13.5 Planung des erforderlicher Stichproben-Mindestumfangs 13.5.1 Der einseitige obere Test 13-12
14. Tests für den Erwartungswert der Poisson-Verteilung (8) 14.1 Der einseitige Poisson-Test mit oberer Alternative
14.1.1 Der exakte einseitige obere Poisson-Test 14-1 14.1.2 Der asymptotische einseitige obere Poisson-Test 14-2
14.2 Der einseitige Poisson-Test mit unterer Alternative 14.2.1 Der exakte einseitige untere Poisson-Test 14-4 14.2.2 Der asymptotische einseitige untere Poisson-Test 14-5
14.4 Der zweiseitige Poison-Test 14-7 14.4.2 Der asymptotische zweiseitige Poisson-Test 14-8
Wahrscheinlichkeitsräume 3.11.15 Bl-1
1. Wahrscheinlichkeitsräume
1.0 Mengensysteme
Beweis von
(3) A,EE d =? AUE, AnE, A\E=AnCE E d.
ad "u, n": Für die Folge (A ), definiert durch n
A ==A 1 ) A ==E n '
gilt AUE= U A Ed, nElN n
AnE= nA Ed nElN n
ad "\ ": Folgt aus "n", weil CEE d nach (A2).
Beweis von
Borel-Mengen in IR
• alle offenen und alle abgeschlossenen Teilmengen von IR.
für n > 2
nach (A3), (A3) 1•
D
Eine offene Menge A :;= 0 ist darstellbar als abzählbare Vereinigung offener Intervalle
A = U (a,b), a,b E <Q (a,b) CA
also A E lB. Für abgeschlossenesEist CE offen und somit in lB, also ist auch E E lB. D
Wahrscheinlichkeitsräume
1.1 Wahrscheinlichkeitsmaße
Beweis von
(1) P(0) = 0.
Für die Folge (A ) mit n
A == .f2 1 ) A ==0 n
ist .f2 = U A . nElN n
Es folgt P(.f!) = 2:= P(A ) nElN n
= P(.f!) + 2:= P(0) n>2
und somit 2:= P( 0) = 0. n>2
3.11.15
für n > 2
nach (P3)
Nach (Pl) ist P(0) > 0 und es folgt P(0) = 0
Beweis von
(2) Für paarweise disjunkte A1, ... , AKE d gilt:
Setzt man A ·- 0 für n>K n
K
U Ak UA k=l nElN n
so ist
K P( U Ak) 2:= P(A )
k=l nElN n und
K 2:= P(Ak) k=l
Bl-2
D
nach (P3)
nach (1). D
Wahrscheinlichkeitsräume 3.11.15 B 1-3
Beweis von
(3) P(CA) = 1- P(A) für alle A E d.
(4) 0 < P(A) < 1 für alle A E d.
(5) P(A UB) = P(A) + P(B)- P(AnB) < P(A) + P(B)
(8) A c B =? P( A) < P(B) = P(B\A) + P(A) für alle A, BE d.
ad (3): Da A1
: = A und A2
: =CA disjunkt sind, folgt aus (2) P(A) + P(CA) = 1.
ad (4): Aus vgl. (P1) , (3)
folgt
0 < P(CA) = 1-P(A)
P(A) < 1 und somit (4) wegen (P1).
ad (5): Man veranschauliche sich die Situation an 3.1 Abb.J.
Aus der disjunkten Zerlegung B = (B n A) U (B\A) ergibt sich mit (2)
(i) P(B) = P(A nB) + P(B\A)
Und aus der disjunkten Zerlegung AU B = AU (B\A) erhält man
P(A UB) = P(A) + P(B\A)
= P(A) + P(B) - P(A n B)
< P(A) + P(B)
ad (8): Für A cB ergibt sich aus (i) wegen A nB = A
P(B) = P(A) + P(B\A)
> P(A)
nach (i)
wegen (P1).
wegen (P1).
D
D
D
Wahrscheinlichkeitsräume 3011015 B1-4
Beweis von
(6) 2:= (-1)#I-10P( n Ao), 0 I z 0 7':- I C {1,000/(} z E
Der Beweis erfolgt durch Induktion über K (für beliebige A1, 000, AK E d) 0
K = 1: Es gibt nur ein 0 ;=I C {1} - und zwar I= {1} - und somit ist
Induktionsschritt Kr----+ K + 1: Nach (5) gilt zunächst:
K K K (i) P(AK+1 U U Ak) = P(AK+1) + P( U Ak)- P(AK+1 n U Ak)
k=l k=l k=l K
= ooooooooooooooooooo-P(U(AknAK+1)) k=l
Die Induktionsvoraussetzung, angewandt auf Ak und auf Bk =AknAK+1, liefert
K (ii) P(UAk) = 2:= (-1)#I-10 P(nAO),
k=1 07':-IC{1,ooo/(} iEI z
K (iii) P( U (AknAK+1)) = 2:= (-1)#I-10 P( 0n (AinAK+1))
k=1 07':-IC{1,ooo/(} zEI
2:= (-1)#I-10P( n Ao) 07':-IC{1,ooo/(} iEIU{K+1} z
J = Iu{K+1} 2:= (-1)#1- 10 P( n A 0) 0
{K+1}~JC{1,ooo/(+1} iEJ z
Einsetzen von ( ii) und ( iii) in ( i) ergibt:
K+l (iv) P( U Ak) = 2:= (-1)#I-10 P( 0ni AJ + P(AK+1) +
k=1 07':-IC{1,ooo/(} zE
2:= (-1)#I-10P( n Ao) {K+1}~IC{1,ooo/(+1} iEI z
Für jedes 0 ;=I C {1, 000, K + 1} gilt
I c {1, 000,K} oder I= {K+1} oder {K+1} CI C {1, 000, K+1} ;=
und somit ergibt sich aus (iv) die Beho für K+1:
K+l P( U Ak) = 2:= (-1)#I-10 P( n Ao) 0
k=1 07':-IC{1,ooo/(+1} iEI z D
Wahrscheinlichkeitsräume 3.11.15 Bl-5
Beweis von
(9) Wenn (An) aufsteigend ist, d.h. An cAn+1 für allen, so gilt:
P( U A ) = lim P(A ) n E lN n n---+oo n
(,,Stetigkeit von unten").
(10) Wenn (An) abfallend ist, d.h. An+1 cAn für allen, so gilt:
ad (9):
Es ist
P( n A ) = lim P(A ) n E lN n n---+oo n
(,,Stetigkeit von oben").
Man veranschauliche sich die Folge (B ) auch durch ein Venn-Diagramm. n
UA nElN n
U B nElN n
i
mit
wobei
A ==0 0
B ==A\A Ed n n n-1
"C": Zu w E U A gibt es ein kleinstes n mit w E A , also w E B nElN n n n
"::)'': Folgt aus B CA . n n
Die Folge (B ) ist paarweise disjunkt, weil n
Es folgt
Wegen
k<n
P( UA) =P( UB) nElN n nElN n
n 2:= P(B.)
0 z z=l
2:= P(B ) nElN n
n lim 2:= P(B .) n---+oo . z
z=l n
2:= P(Ai\Ai-1) i=l n
0
nach (P3)
( i)
2:= [ P(Ai)- P(Ai_1) J
i=l
P(A), n
folgt (9) aus (i).
da (A ) aufsteigend n
(8)
daA0=0.
Wahrscheinlichkeitsräume 3.11.15
ad {10):
( ii)
Die Folge (CAn) ist aufsteigend, und nach (9) ist
P( U CA ) = lim P(CA ) n E lN n n---+oo n
= lim [1-P(A )] n---+oo n
1-lim P(A ), n---+oo n
Es folgt P( n A ) = P( C U CA ) nElN n nElN n
= 1- P( U CA ) nElN n
= lim P(A ), n---+oo n
B 1-6
vgl. (3).
vgl. 1.0 (2)
vgl (ii). D
Wahrscheinlichkeitsräume 3011015 Bl-7
Beweis von
(11) P( U A ) < 2:= P(A ) nElN n nElN n
(,,Sub-Additivität")
1. Beweis: mit {9) (,,Stetigkeit von unten'~
Für n
B==UAOEd n 0 1
z z=
ist U A = U B und somit nElN n nElN n
( i) P( U A ) = P( U B ) = lim P(B ) nElN n nElN n n---+oo n
vgl. (9)
n n Aus P(B ) = P( U Ao) < 2:= P(Ao)
n 0
1 z z
z = i=1 vgl. (7)
folgt lim P(B ) < 2:= P(A ) n---+oo n n E lN n
(auch falls Reihe= oo ist)
und mit ( i) ergibt sich die Beho
2. Beweis: direkt mit a-Addditivität
Es ist mit
u c nElN n
wobei
Die Folge ( C ) ist paarweise disjunkt, weil n
xEC ::::} n x t1. B n-1
X \t Ak
xt1. ck!
Also gilt Ck n C n = 0 für k < no Weiter folgt
P( UA) =P( uc) nElN n nElN n
n-1
B ==UAkEd n-1 k=1
C ==A \B Ed n n n-1
2:= P(C ) nElN n
nach (P3)
< 2:= P(A ) nElN n
da C CA , (8)0 n n
D
D
Wahrscheinlichkeitsräume 3.11.15 B 1-8
Beweis von
(12) Bei ezner beliebigen Familie (A. E d) . I paarwezse disjunkter Ereignisse z z E
haben höchstens abzählbar viele eine von 0 verschiedene Wahrscheinlichkeit)
d.h. die Menge K = { k EI I P(Ak) > 0} ist höchstens abzählbar.
Da es zu jedem k E Kein n E W gibt mit P(Ak) > ~' läßt sich K darstellen als
K= U K nElN n
mit K = { kEK I P(Ak) >l. }. n n
Wenn wir zeigen: ( i)
so ist K als abzählbare Vereinigung endlicher Mengen K höchstens abzählbar. n
Angenommen ( i) gilt nicht. Dann gibt es ein L C K mit #L = n + 1, und es folgt n
P( U Az) = 2: P(Az) > 2: l. = (n+1) l. > 1 lEL lEL lEL n n
im Widerspruch zu P( U Az) < 1. lEL
D
Wahrscheinlichkeitsräume 3.11.15 B 1-9
1.2 Endliche Wahrscheinlichkeitsräume
Beweis zu
(4) für A cn
Zu zeigen ist, daß Pf die Eigenschaften (P1) - (P3) erfüllt.
ad (P1): j> 0 =?
ad (P2): P1(n) = 2: f(w) = 1
wED nach (3)
ad (P3): Wir zeigen zuerst
( i) A, B disjunkt =?
ad (i): 2: f(w) wEAUB
2: f(w) + 2: f(w) wEA wEB
P/A) + P/B)
Per Induktion über K E W folgt aus (i) die endliche Additivität von Pf K K
(ii) A1, ..... , AK disjunkt =? P f U Ak) = 2: P fAk). k=l k=l
Zum Nachweis von (P3) seien A mit n E W paarweise disjunkt. Ist N == # .f!, so n
können höchsten N dieser Mengen nicht-leer sein, d.h. es gibt ein K E W mit
( iii) A =0 n
und somit P1(A ) = 2: f(w) = 0 n wE0
für n> K
Wahrscheinlichkeitsräume
1.2.3 Binomial-V erteil ung
Beweis zu
(1) b(kln,p) := P{k}
Zu zeigen ist
3011015
n 2:= b(kln,p) k=O
Nach dem Binomischen Lehrsatz gilt n
2:= (~)pk(1-pt-k = (p+(1-p)t = 1n k=O
1.2.4* Relative Häufigkeiten
Beweis zu
B 1-10
für k = 0, 1, 000, no
10
1. D
(2) P (A) : = 1. 0 # { k = 11 0001 n I xk E A} (relative Häufigkeit der x-Werte in A) 0 x n
Es ist P (A) = 2:= P { x} = 1. 2:= # { k = 11 0001 n I xk = x} X X n
xEA xEA
= ~ 0 # { k = 11 0001 n I xk E A} 0 D
I
Wahrscheinlichkeitsräume 3.11.15
1.3 Abzählbare Wahrscheinlichkeitsräume
Beweis zu
(4) für A cn
Zu zeigen ist, daß Pf die Eigenschaften (P1) - (P3) erfüllt.
ad (P1): j> 0 =?
ad (P2): P1(n) = 2: f(w) = 1
wED
ad (P3): Seien A , n E W paarweise disjunkt. n
Aus 2: f(w) wEAn
folgt 2: 2: f(w)
nach (3)
B 1-11
nElN wEAn Umordnungssatz für Reihen/Summen
= Pi( U A ). nElN n
D
1.3.1 Poisson-Verteilung
Beweis zu
(1) p(k;p,) := P{k} - 1 -f.L k - k! e 1-L für k = 0, 1, ...
00
Zu zeigen ist 2: p(k;p,) 1. k=O
00 k
00 k Es gilt: 2: ~ e-f-li-L e-f-l 2: ~ 1-L e-f-l. ef-l 1.
k=O k. k=O k. D
Wahrscheinlichkeitsräume 3.11.15 B 1-12
1.4 Reelle Wahrscheinlichkeitsmaße mit Dichten
Beweis von
für alle w E .f2. b
(4)
(5) Pf [ a, b] = Pf [ a, b) = Pf ( a, b) = Pf ( a, b] = J f( x) dx a
für a < b.
ad (4): Mit Kenntnis des Lebesgue-Integrals folgt (4) sofort aus (3). Und unter
Verwendung des Riemann-Integrals ergibt sich (4) aus (2) wie folgt. Es gibt eine
Folge w Eil mit w tw, und aus {w}C(w ,w] folgt n n n
w w 0 < P1{w} < P/w n' w] = J f(x) dx -n-----+-
00----+ J f(x) dx = 0.
wn w
ad (5): Mit ( 4) ergibt sich (5) wie folgt:
1.4.1 Normal-Verteilung
Beweis von
+oo (2) J f(x) dx = 1
-00
Unter Verwendung der Substitution u = (x-p,)a - 1 mit du= a - 1 dx lautet (2) +oo
( i) J cp(u) du = 1 -00
Und wegen cp(-x) = cp(x) reicht es zu zeigen
( ii) 00
J cp(u) du = ~ 0
bzw.
mit cp aus (3).
00 2/2 Je-u du = ~ßf = v-f. 0
Der Nachweis von (ii) verwendet die folgende Eigenschaft der Gamma-Funktion
( iii) vgl. 6.2.4 (5).
Mit der Substitution 1 2 t = 2 u , dt = u · du = J2f · du
00 2/ Je-u 2 du 00 1 e-t(2tr1/2 dt ist nach (iii).
0 0
D
D
D
Wahrscheinlichkeitsräume 3.11.15
1.4.2 Exponential-Verteilung
Beweis zu
für t> 0.
00
Zu zeigen ist: 1 f( t) dt = 1. 0
Es gilt: [ ->.t]b ->.b -e =-e +1 0 b----+oo
1.4.3 Stetige Gleichverteilung
Beweis zu
f(x)
(2) P (a, b)
Es ist (i)
1 L1
b-a L1
für a < x < ß.
für a < a < b < ß .
b b 1 f( x) dx = [ ~ J
a Ll a
b-a L1
ß Für a = a, b = ß folgt: 1 f(x) dx = 1, d.h. f ist eine Dichte.
Und (2) folgt direkt aus (i).
B 1-13
1. D
D
Zufallsvariablen und ihre Verteilungen 19.10.15 B2-1
2. Zufallsvariablen und ihre Verteilungen
2.2 Definition einer Zufallsvariable und ihrer Verteilung
Beweis von
(3) für A' Ed'
Der Beweis verwendet die Eigenschaften (5) - (8) der Urbild-Operators x-1.
ad (P1): P> 0
ad (P2): x-1[D'] = .f2 =? PjD') = P(D) = 1
ad (P3): A' E d' paarweise disjunkt für n E W =? n
x-1[A'] E d' paarweise disjunkt, vgl. (8). n
Es folgt: Px( U A') nElN n
= P(x-1[ U A']) nElN n
= P( U x-1[A' l) nElN n
vgl. (7)
2: P(x-1 [A' l) nElN n
vgl. (P3) für P
2: Px(A'). nElN n
D
Zufallsvariablen und ihre Verteilungen 19.10.15 B2-2
Beweis von
(s) x-1 [ 0] = 0 ,
(6) x-1 [CE]= cx-1[EJ,
(7) Für eine beliebige Indexmenge I gilt:
ad (5): w E x-1 [0] {} X(w) E 0
Die rechte und somit auch die linke Seite der Äquivalenz ist stets falsch.
ad (6):
ad (7}:
Also gilt (5).
w E x-1 [CE] {}
{}
{}
Vereinigung
w E x-1 [ U E.J iEI z
{}
{}
X(w) E CE X(w) \t E
w ~t x-1[E]
X(w) E U E. iEI z
es gibt ein i EI: X(w) E E. z
~ w EX-1[E.]
z {} w E U x-1[E.].
i EI z
Durchschnitt (analog Vereinigung)
X(w) E n E. iEI z
{} für alle i EI: X( w) E E. z
~ w EX-1[E.]
z {} w E n x-1[E.].
i EI z
ad (8): x-1 [E1
] n x-1 [E2
] = x-1 [E1 nE
2] vgl. (7)
= x-1[0] = 0 vgl. (5). D
Zufallsvariablen und ihre Verteilungen 19.10.15 B2-3
Beweis von
Für ein Intervall .f2 C IR und .f!' E lB sind folgende Funktionen meßbar bzgl. (lBD, lBD,)
• alle stetigen Funktionen X: .f2-----+ D',
• alle Funktionen X: .f2-----+ .f21 mit endlich vielen Unstetigkeitsstellen,
• alle monotonen (wachsenden oder fallenden) Funktionen X: .f2-----+ D'.
Zu zeigen ist für ein beliebiges offenes Intervall A
(i) T 1[A] E lB.
1. Wenn X stetig ist, so ist x-1[A] als Urbild einer offenen Menge wieder offen und
somit eine Borel-Menge.
2. Wenn die Menge D der Unstetigkeitsstellen von X endlich ist, so ist D abgeschlos
sen und somit .a1
= .f2 \D offen. Die Einschränkung X1 =X ID
1 von X auf .a
1 ist
dann stetig und somit ist
X1-
1[A] = {wE.f21
1X(w)EA} = .f21nx-1[A]
offen, und damit Borel-Menge. Da Dnx-1[A] als endliche Menge ebenfalls eine Bo
rel-Menge ist, ergibt sich (i) aus
3. Wenn X monoton ist, so ist x-1[A] sogar ein Intervall ist, und hierzu reicht es für
beliebige w1, w
2 E x-1[A] mit w
1 < w
2 zu zeigen
( ii) bzw. X(w) EA
Für monoton wachsendes X gilt
Wegen X(w1) 1 X(wJ E A folgt X(w) E A, weil A ein Intervall ist.
Für monoton fallendes X gilt
und X( w) E A folgt wie oben. Diese Argumentation gilt sogar für ein beliebiges (nicht
notwendig offenes) Intervall A. D
Zufallsvariablen und ihre Verteilungen 19.10.15 B2-4
2.3 Reelle Zufallsvariablen
Beweise zu Fortsetzung und Einschränkung
Übung!
Beweis zu
(8) T p : = {XE IR I P{ X} > 0} E lB
Da P diskret ist, hat es einen höchstens abzählbaren Träger TE lB. Zu zeigen ist
( ii) T' E lB Träger von P T CT I b p zw.
ad (ii): Da T' ein Träger von P ist, gilt P(CT') = 1-P(T') = 0, also
ad (i):
folgt.
P{x} = 0 bzw. xE CTP.
Für T' = T folgt TP C Taus (ii). Also ist TF höchstens abzählbar und (i)
D
Bedingte Wahrscheinlichkeit und stochastische Unabhängigkeit 3.11.15 B 3- 1
3. Bedingte Wahrscheinlichkeit und stochastische Unabhängigkeit
3.1 Bedingte Wahrscheinlichkeit
Beweis zu
dB ist als Durchschnitt der beiden a-Algebren d und ~(B) wieder eine a-Algebra.
Allgemeiner läßt sich zeigen (Übung!), daß für eine beliebige Familie d. C ~(D), z
i EI, von a-Algebren auch ihr Durchschnitt
n d. = { A c n I A E d. für alle i EI} . I z z zE
wieder eine a-Algebra ist.
Beweis von
(5)
(6)
(7)
P( -I B) : dB-----+ IR ist ein Wahrscheinlichkeitmaß auf (B, dB) .
C c B * P(CIB) = P(C) P(B)
P(BIB) = 1, P(0IB) = o.
ad {6): Folgt aus der Definition von P( CI B), weil C n B = C.
ad (7}: Folgt sofort aus ( 6) für C = B bzw. C = 0.
ad (5): Nach (6) unterscheiden sich P(-1 B) von P( -) nur durch den Faktor P(B).
Mit P(-) ist also auch P(-IB) nicht-negativ und a-additiv.
Die Normiertheit von P( -I B) folgt aus (7).
D
D
Bedingte Wahrscheinlichkeit und stochastische Unabhängigkeit 3011015 B 3- 2
Beweis von
(8) P(A1 nA
2n 000 nAn)
P(A1) 0 P(A
21 A
1) 0 P(A
31 A
1 n A
2) 0 0 0 0 0 ° P(An 1 A
1 n A
2 n 000 n An_
1)
Folgt mit Induktion über no Für n = 1 ist nichts zu zeigen und der Induktionsschritt
ergibt sich mit (2), weil
P(A1 nA2 n 000 nAn nAn+l)
P(A1 nA2 n 000 nAn) 0 P(An+1 1A1 nA2 n 000 nAn)o D
Beweis von
Satz von der totalen Zerlegung:
Wenn die Familie (Bo E d) 0 I mit höchstens abzählbarer Indexmenge I paarweise z z E
disjunkt ist mit .f2 = U B 0 und P(B 0 ) > 0 für alle i E I1 so gilt für jedes A E d iEI z z
(11) P(A) = 2:= P(A IBO) OP(Bo) 0
0 I z z zE
Es ist A = An.f! =An U Bo = U (AnB 0 ) 0
i EI z i EI z
Da die Familie (An B 0 ) 0 I auch paarweise disjunkt ist, folgt z z E
P(A) = 2:= P(A n B 0)
0 z zEI II
P(A IBO) OP(Bo) z z
nach (2)0 D
Beweis von
(12) P(BIA) = P(A IB) 0 P(B) P(A)
für P(A) > 0 (Formel von Bayes)o
Nach (2) ist P(B I A) 0 P(A) = P(A n B) = P(A I B) 0 P(B)
und nach Division durch P(A) ergibt sich die Formel von Bayeso D
Bedingte Wahrscheinlichkeit und stochastische Unabhängigkeit 3.11.15 B 3- 3
3.1.2 Wartezeiten und Exponential-Verteilung
Beweis von 00
(1) P { T > t} = 1 ). e-).. x dx = e-).. t für alle t > 0. t
(2) P { T > s + t I T > s} = P { T > t} für alle s, t > 0 .
t t ad (1): P { T < t} 1 ). e-). x dx = [- e-). x J = - e-). t + 1
0 0
P{T>t} 1-P{T<t} = e-At_
ad (2): P{T>s+t I T>s}
P{T>s+t}
P{T>s}
e-A (s + t) -As e
->.t e
= P{T>t}.
3.2 Stochastische Unabhängigkeit von Ereignissen
Beweis von
(2)
(3)
A1 E stochastisch unabhängig
P(E) = 0
ad (2): Für P(E) > 0 gilt:
P(AnE) =P(A) ·P(E)
ad (3): P(E) = 0
Übung: Beweis von
P(A I E) = P(A)
A1 E stochastisch unabhängig
P(A I E) = P(A nE) = P(A). P(B)
P(A nE) < P(E) = 0
P(A nE) = 0 = P(A) ·P(E).
(4) A1 E stochastisch unabhängig ::::} CA1 E stochastisch unabhängig,
A1 CE stochastisch unabhängig,
CA1 CE stochastisch unabhängig.
D
D
D
Bedingte Wahrscheinlichkeit und stochastische Unabhängigkeit 3.11.15 B 3- 4
3.3 Produkte diskreter Wahrscheinlichkeitsräume
Beweis zu
Es ist: 2:: P{w} wED
Beweis von
(4) n
P( TI A.) 0 1 z z=
1 1
n TI P.(A.)
0 1 z z z= bzw.
1
Es sei A. :;= 0 für alle i1 weil andernfalls beide Seiten in ( 4) gleich Null sind. z
Aus P.(A .) = 2:: P.{ w .} für alle i z z W· EA. z z
2 2
TI P.(A.) = [ 2:: P1{w1}]· ... · [ 2:: P {w }] . z z EA EA n n z wl 1 wn n
folgt
= 2:: . . . 2:: Pl {wl} ..... Pn {wn} wl EAl wn EAn II
= 1. D
2:: P{w} vgl. (1), mit w = (wl' ... , wn) wEA1x ... xAn
Bedingte Wahrscheinlichkeit und stochastische Unabhängigkeit 3011015 B 3- 5
Beweis von
(7) P{ 1roEAO} = Po(Ao) z z z z
für jedes A 0 E do und jedes io z z
Mit für alle k ;= i
lautet (4): p (nl XoooX Ai XoooX nn) = Pl(nl) 0 000 ° P/Ai) 0ooo 0 Pn(nn) Po(Ao) z z
II II II
Beweis von n
P{ 1roEAO} z z
(8) n { 7r 0 E A 0} = Al X A2 X 000 X An 0 1 z z z=
n Es gilt: w E n { 1roEAO}
i =1 z z
Beweis von
(9)
Für
n
für i E K } für i tJ. K
n
1
n TI Ao 0
0 1 z z=
woEAO z z
n w E TI Ao 0
0 1 z z=
1
für alle i
für 0 ;= K C {1, 000, n}
folgt aus ( 4)
P( TI Bo) i= 1 z
TI Po(Bo) i= 1 z z
TI Pk(Ak) kEK II
da P 0 ( .f2 0) = 1 für i tJ_ K z z
Zu zeigen bleibt
Nun ist:
P{ 1rk EAk} nach (7)0 n TI B 0 = n { 7rk E Ak} 0
i=l z kEK
n w E TI Bo
0 1 z z= {} w 0 E B 0 für alle i
z z
nach Def. von B 0
z
D
D
D
Bedingte Wahrscheinlichkeit und stochastische Unabhängigkeit 3011015 B 3- 6
3.3.1 Bernoulli-Wiederholungen und Binomialverteilung
Beweis von
n k = # { i = 1, 000, n I w 0 = 1} = 2:: w 0 = : w+o z z
i=l
Beweis zu
flPO{wo}, wobei woE{0,1} 0 z z z z II
k n-k p q
mit q=1-p
(3) P{X=k} = b(kln,p) = (~)Pk (1-pt-k für k = 0,1, 000, no
Für Ak : = {X= k} = { w E n I w + = k}
D
entspricht jedem w = (w1, 000, w n) E Ak eineindeutig eme k-elementige Teilmenge
C C {0, 000,n} via
und
wo= 1 z
i E C für alle io
( vgl. Kombinatorik oder Übungsaufgabe)
nach (1)
D
Verteilungsfunktionen und Dichten 16.3.16 B4-1
4. Verteilungsfunktionen und Dichten 4.1 Verteilungsfunktionen reeller Zufallsvariablen
Beweis von
(2) F ist monoton wachsend:
(3)
(4)
(5)
a<b
F ist rechts-stetig:
F(a) < F(b)
lim F(x) = F(a) xta
für alle a, b E IR.
für alle a E IR.
F(- oo) : = lim F( x) = 0 , F( + oo) : = lim F( x) = 1 x~-oo x~+oo
F(a-) == lim F(x) = PX(-oo,a) = P{X<a} füralleaEIR. xja
ad (2): a < b (-oo,a] C (-oo,b]
ad (3):
Es folgt
ad (4):
Sei x l a eine beliebige fallende Folge. Dann ist n
A : = (-oo, X l abfallend mit: n (-oo, X l = (-oo, a ]. n n nElN n
F(a) = Px(-oo, a l = p ( n (-oo, X l) _x\nElN n
lim PX(-oo, x ] n---+oo n Stetigkeit von oben: 1.1 (10)
lim F(x ). n---+oo n
Für eine fallende Folge x 1-oo ergibt sich analog ad (3) mit a =- oo n
lim F(x ) = P r n (-oo,x l) = Px(0) = 0 n---+oo n _x\ n E lN n
Für eine wachsende Folge x loo ist (- oo, x ] aufsteigend und aus der n n
ad (5):
Es folgt
Stetigkeit von unten 1.1 (9) folgt
lim F(x ) = P ( U (-oo,x l) = PX(IR) 1. n---+oo n _x\ n E lN n
Sei x I a eine beliebige wachsende Folge. Dann ist n
A : = (-oo, x ] aufsteigend mit: U (-oo, x ] = (-oo, a ). n n nElN n
P x(-oo, a) = P x( U (-oo, x l) nElN n
lim PX(-oo, x ] n---+oo n Stetigkeit von unten: 1.1 (9)
lim F(x ). n---+oo n
D
Verteilungsfunktionen und Dichten 16.3.16 B4-2
Beweis von
(6) P{X=a} = F(a) -F(a-) für alle a E IR.
(7) P { a < X < b} = F(b) - F( a) ,
P { a <X< b} = F(b) - F( a -) ,
P{a <X< b} = F(b-) -F(a-),
P { a < X < b} = F(b -) - F( a)
ad {6): {X= a} = {X< a} \ {X< a})
P{X=a} = P{X<a}-P{X<a}) = F(a)-F(a-) vgl.1.1(8).
ad (7}: Analog ( 6) folgt
P { a < X < b} = P {X< b} - P {X< a} = F(b) - F( a)
P { a < X < b} = P {X< b} - P {X< a} = F(b) - F( a-)
P { a < X < b} = P {X< b} - P {X< a} = F(b-) - F( a-)
P { a < X < b} = P {X< b} - P {X< a} = F(b-) - F( a) .
Beweis von
(8) F ist in a stetig P{X=a} = 0,
(9) F hat höchstens abzählbar viele Unstetigkeitsstellen.
ad {8): Da F rechts-stetig ist gilt
F ist in a stetig
ad {9): Nach (8) gilt für jedes aEIR
(i) F ist in a unstetig {}
F(a) = F(a-)
P{X=a} = 0 vgl. ( 6)
D
Da die Familie { a} für a E IR paarweise disjunkt ist, kann P x { a} > 0 nach 1.1 (12) für
höchstens abzählbar viele a E IR gelten. Mit (i) folgt (9) sofort. D
Verteilungsfunktionen und Dichten 16.3.16 B4-3
4.1.1* Quasi-Inverse einer Verteilungsfunktion
Beweise zu
(1) F-(p) ·- inf{xEIR lp::;F(x)} (Quasi-Inverse von F).
Wir zeigen zuerst, daß p-(p) wohldefiniert ist, d.h in IR liegt. Wegen F( oo) = 1 und
p < 1 ist A : = { x E IR I p < F(x)} ;= 0 und es gibt eine Irrfirnum-Folge xn E A mit
x l inf A E [-oo, oo) n
Da F in inf A rechts-stetig ist , folgt
( i) p < lim F(x ) = F(infA), - n---+oo n
auch für inf A =- oo nach 4.1 ( 4)
Wegen F(- oo) = 0 und p > 0 folgt inf A ;=- oo. Also ist F-(p) = inf A E IR.
ad (2): Übung!
Beweise von
(4)
(5)
p-(p) <X {}
F(F-(F(x)) = F(x) .
ad (4): Übung!
ad {3): Ergibt sich aus (4) für p = F(x).
p ::; F(x) ,
ad (5): Mit der Monotonie von F ergibt sich aus (3)
vgl. (2) für p = F(x).
D
D
Verteilungsfunktionen und Dichten 16.3.16 B4-4
Beweise von
(6)
(7)
(8)
F- ist monoton wachsend und links-stetig.
Fist stetig
F ist streng wachsend
ad (6): "monoton wachsend":
F(F-(p)) = p
F-(F(x)) = x
P1 < P2 < F(F-(p2))
F-(p1) < F-(p2)
"links-stetig": Für eine beliebige Folge p I p ist zu zeigen n
( i)
für alle 0 < p < 1.
für alle x E IR.
vgl. (2)
vgl. (4).
Da F- monoton wachsend ist, ist auch die Folge F-(p ) wachsend und n
( ii) X ·-·-
F-(pn) < F-(p)
sup F-(p n) < F-(p) n
Weiter gilt für alle n:
Also p = sup p < F(x) n n
bzw.
für allen
pn < F(x)
F-(p) <X
Zusammen mit (ii) folgt (i): F-(p) = x = lim F-(p ). n---+oo n
ad (7}: Wir zeigen erst allgemeiner (auch für nicht-stetiges F)
vgl. (4)
vgl. (4).
( iii) F(x -) = lim F(y) < p ytx
Der Nachweis erfolgt indirekt: wenn p < F(x -) ist, so gibt es ein y E IR mit
Mit ( 4) folgt
P < F(y)' p-(p) < y <X
y <X. und somit gilt (iii).
Wir zeigen jetzt (7). Für x = F-(p) folgt mit (iii) und (2)
F(x-) < p < F(x)
Da F in x stetig ist, folgt: p = F(x) = F(F-(p)).
ad {8): Die Beh. folgt aus (5), da F insbesondere auch injektiv ist. D
Verteilungsfunktionen und Dichten 1603016
4.2 Verteilungsfunktionen diskreter Zufallsvariablen
Beweis von
(2) P{XE T} = 1
(3) P{XEB} = P{XEBn T} für BE lBO
(5) F(a) = 2:= f(x) 0
xET x<a
ad (2): P{XE T} = P(fl) = 10
ad {3): P{XEB} = P{wEfliX(w)EB}
= P { w E f2 1 X( w) E B n T} - P {XE B n T} 0
ad (5): F(a) = P{X < a} = P{XEB} mit B=(-oo,a]
= P{XEBnT} vgl. (3)
= PJBnT)
2:= f(x) xET x<a
B4-5
D
Verteilungsfunktionen und Dichten 1603016 B4-6
4.2.2 Binomial-Verteilung
Beweis von
Int(a) (1) F(a) 2:= b( i I n, p) mit Irrt( a) = Max { i E W I i < a}, aEIRO
i=O
Für f(i) b(i I n,p) folgt mit 4.2 (5) Int(a)
F(a) 2:= f(i) 2:= f(i) 0 D i ET i=O i<a
4.2.3 Poisson-Verteilung
Beweis von
Int(a) (1) F(a) 2:= p(i l~t) mit Irrt( a) = Max { i E W I i < a}, aEIRO
i=O
Analog Binomialverteilung (1) mit f(i) p(i l~t) 0 D
Verteilungsfunktionen und Dichten 16.3.16 B4-7
4.3 Stetige Zufallsvariablen mit Dichten
Beweis zu
(5) f(x) : = 0 für alle x \t T.
Zu zeigen bleibt, daß f: IR-----+ [ 0, oo) meßbar ist. Die Einschränkung j1
= f I C T ist ste
tig und somit meßbar, und die Einschränkung j2 =!I T ist ebenfalls meßbar, weil T
endlich ist. Aus der Meßbarkeit beider Einschränkungen ergibt sich die Meßbarkeit
vonfallgemein wie folgt. Für jede Bore1-Menge B C [ 0, oo) ist
als Vereinigung von zwei Bore1-Mengen ebenfalls Borel-Menge. D
Beweis von
(7) F( a) = 0 für a < a, F(b) = 1 für b > ß.
Es ist 1 = P {XE IR} = P {X< a} + P { a <X< ß} + P {X> ß} . ß
Aus P{ a <X< ß} = 1 f(x) dx = 1, daf Dichte auf T
folgt F(a) = P{X<a} = 0, 1-F(ß) = P{X>ß} = 0.
Also auch a < a =? F(a) < F(a) = 0, b>ß =? F(b) > F(ß) = 1. D
Beweis von
(8) F '(x) =f(x) für alle Stetigkeitsstellen x von f.
Ordnen wir die K> 0 Unstetigkeitsstellen vonf auf IR aufsteigend an
und setzen
so ist f auf jedem Intervall Ik = ( dk, dk+ 1
) stetig. Jede Stetigkeitsstelle x vonfliegt in
(genau) einem solchen Intervall Ik und für ein festes a E (dk, x) gilt X
(i) F(x)-F(a) = P{a<X<x} = 1 f(z)dz. a
Daf auf Ik stetig ist, ergibt sich (8) durch Differenzieren von (i) nach x. D
Verteilungsfunktionen und Dichten 16.3.16 B4-8
Beweis von
Satz: Die Verteilungsfunktion F Y einer Zufallsvariablen Y sei auf IR stetig und die
Menge D = { y E IR I Fist in y nicht stetig differenzierbar} sei endlich. Dann ist
(9) für y t1. D } für y ED-
(kanonische Dichte)
die (kanonische) Dichte von Y1 und f Y ist höchstens auf D unstetig.
Zusatz: Andert man f Y auf D beliebig ab1 so bleibt es eine Dichte von Y.
Wir lassen den Index "Y" im Beweis fort. Der Beweis verwendet nicht, daß f auf D
gleich 0 ist (allgemein kann eine Dichte in ihren Unstetigkeitsstellen beliebig abge
ändert werden, vgl. Abschnitt 1.4). Die Menge D läßt sich D darstellen als
mit
Nach Konstruktion ist f höchstens auf D unstetig. Wenn wir zeigen y
(i) F(y) = P{Y < y} = 1 f(x) dx für alle y E IR, -=
so istfeine (kanonische) Dichte von Y, weil dann für jedes Intervall ( a, b] C IR folgt
( ii) P{a<Y<b} P{ Y < b}- P{ Y < a} b a b
J f(x) dx- J f(x) dx J f(x) dx -= -= a
Zum Nachweis von (i) sei d ==-oo 0 !
Für jedes k > 0 ist F auf jedem Intervall Ik = (dk, dk+1
) stetig differenzierbar mit
Ableitungf. Aus dem Hauptsatz der Differential- und Integralrechnung folgt b
(iii) 1 f(x)dx = F(b)-F(a) fürallea,bElk. a
Da F stetig ist folgt für a l dk b
(iv) 1 f(x) dx = F(b)- F(dk) für alle b E Ik, dk
und für bt dk+1 erhält man (iv) auch für b = dk+1, also
y (v) 1 f(x)dx = F(y)-F(dk) füralledk<y<dk+1,
dk Zum Nachweis von (i) zeigen wir perInduktionfür jedes k = 1, ... ,K+l
y (vi) F(y) = P{Y<y} = 1 f(x)dx füralley<dk.
-=
Verteilungsfunktionen und Dichten 16.3.16 B4-9
ad (vi): k=l: Wegen d0=-oo undF(-oo) =0 folgt (vi) aus (v) (für k=1).
k r----+ k + 1: Für dk < y < dk+ 1
ergibt sich mit der Induktionsvoraussetzung und ( v)
(für k + 1 statt k) y dk y
J f(x) dx f f(x) dx + f f(x) dx = F(dk) + [F(y) -F(dk)] = F(y). D -= -= dk
Beweise zu
(10) aF=inf {xEIRIF(x)>O} E [-oo,+oo),
ßF=sup{xEIRIF(x)<1} E (-oo,+oo].
(11) F(aF) = 0, F(ßF) = 1, P(aF,ßF) = 1,
(12) P(a',ß') = 1 a' < a < ß < ß'. - F F-
Übung!
Verteilungsfunktionen und Dichten 1603016
4.3.1 Stetige Gleichverteilung
Beweis von
(1) F(x) 1 für a < x < ß 0 - (x-a)
L1
Es ist F(x) X 1 1 1- du = L1 (x- a) 0
(X L1
4.3.2 Exponential-Verteilung
Beweis von
(1) für t> 00
Es ist
F(t) = 1- e-"\ t
F(t) = P{ T< t} 1-P{T>t} = 1- e-"\t, vgl. 3.1.1 (1)0
4.3.3 Normal-Verteilung
Beweis von
(3) <!>(- a) = 1- <!>( a) für a E IR 0
Die Behauptung ergibt sich aus cp(- x) = cp(x) wie folgt:
<!>( -a) -a a 1 cp(x) dx = - 1 cp(-u) du
-00 00
00
1 cp( u) du a
= P{U>a}
1-P{U<a}
1- <!>( a) 0
für u =- x
B 4-10
D
D
D
Verteilungsfunktionen und Dichten 16.3.16 B 4-11
4.4 Dichten transformierter Zufallsvariablen
Beweis von
Satz 1 (Monotone Transformationen stetiger Zufallsvariablen)
X sei eine stetige Zufallsvariable mit Träger Tx= (ax,ßx) 1 Verteilungsfunktion
F x und Dichte fx: T x-----+ [0, oo), und die Menge D der Unstetigkeitsstellen vonfx
sei endlich. Weiter sei g: T X-----+ IR eine stetig-differenzierbare und streng monotone
(wachsende oder fallende) Funktion.
(a) Für streng wachsendesgergibt sich die Verteilungsfunktion von g(X) aus
Fg(X)(z) = F x(g-\z))
Fg(X)(g( ax)) = 0,
für zEg[Txl = (g(ax),g(ßx))
Fg(X)(g(ßx)) = 1.
(b) Für streng fallendes g ergibt sich die Verteilungsfunktion von g(X) aus
Fg(X)(z) = 1- F x(g-\z))
Fg(X)(g(ßx)) = o,
für zEg[Txl = (g(ßx),g(ax))
Fg(X)(g( ax)) = 1.
(c) Ist N = {g' = 0} endlich, so ist eine Dichte von g(X) auf g[T xl gegeben durch
(i) fx(g-\z))
lg'(g-1(z)) I 0
für zEg[Tx] \g[N],
für zEg[N],
und fg(X) ist höchstens auf der endlichen Menge g [DUN] unstetig.
Sei Z: = g(X) und für z E g [ T xl sei x = g -\z) E T X' also z = g(x).
Der Beweis von (a) und (b) benötigt nur die Stetigkeit von F X' aber nicht die Exi
stenz einer Dichte f X
ad (a): Für streng wachsendes g ist g [ T x] = (g( a X), g(ß X)) und für z E g [ T x] gilt
Fjz) = P{Z<z} = P{wEDIZ(w)<z}
= P{ wEn I g(X(w)) < g(x) }
:(!: da g streng wachsend
= P{ wEn I X(w) <X } = P{X<x} = Fjx) = Fx(g-\z)).
Aus P{g(ax) <Z <g(ßx)} = P{ ax<X <ßx} = 1 folgt weiter
F jg(ax)) = P{ Z <g(ax)} = o, F jg(ßx)) = P{ Z <g(ßx)} = 1.
Verteilungsfunktionen und Dichten 16.3.16 B 4-12
ad (b): Für streng fallendes g ist g[ Tx] = (g(ßx),g(aX)) und für zEg[ Tx] gilt
ad (c):
Fall1:
mit
F jz) = P{ wEn I g(X(w)) < g(x) } vgl. (a)
:(!: da g streng fallend
= P{wEfl I X(w)> x }
=P{X>x}
= P{X>x}+P{X=x}
= P{ X>x} da F X in x stetig ist
= 1-Fjx) = 1-Fx(g-\z)).
Aus P{g(ßx) <Z <g(ax)} = P{ ax<X <ßx} = 1 folgt weiter
F jg(ßx)) = P{ Z <g(ßx)} = o, F jg(ax)) = P{ Z <g(ax)} = 1.
g ist wachsend. Dann ist g1 > 0 und für xtf:.N sogar g'(x) > 0.
Differenzieren in (a) liefert für x = g -\z) (/:.DUN
fjz) = F;(z) = F~(g-\z)) · (g-1)'(z)
1 (g-1)'(z) = g'(g-1(z)) ' g'(g-\z)) = lg'(g-\z))l.
Wegen f X( x) = F J/.._ x) für x (/:. D folgt ( i) zunächst für x (/:. D U N. Da D U N endlich ist,
können wirf X( x) : = 0 für x E DUN definieren und fz: g [ T x] -----+ [0, oo) ist dann eine
Dichte von g(X) ist, die höchstens auf g [ D U N] unstetig ist. Ändern wir nun f Z auf
der endlichen Menge g [ D] ab, indem wir (i) und (ii) als Definition verwenden, dann
ist das so geänderte fz ebenfalls eine Dichte von Z (aber nicht notwendig die kano
nische Dichte).
Fall 2: g ist fallend. Dann ist g1 < 0 und für x (/:. N sogar g'(x) < 0.
Differenzieren in (b) liefert für x = g-\ z) (/:. D U N
fjz) = F;(z) = -F~(g-\z)) · (g-1)'(z)
Wegen - g'(g-\z)) = lg'(g-\z)) I folgt (c) analog FallJ. D
Verteilungsfunktionen und Dichten 1603016 B 4-13
4.4.1 Lineare Transformationen stetiger Zufallsvariablen
Beweis von
(7) L(U) = N(O, 1) {} L(p, + a U) = N(p,, a 2) ,
L(X) = N(p,, a 2) {} L(; [X -p,l) = N(O, 1) 0
(8) L(U) = SG(O, 1) {} L(a + L1 U) = SG(a,ß) 0
(9) L(U) = Expo(1) {} L(~ U) = Expo(>.) 0
Übung!
Verteilungsfunktionen und Dichten 16.3.16 B 4-14
4.4.2 Absolutbetrag und Potenzen stetiger Zufallsvariablen
Beweis von
(5)
(6)
(9)
FIXIr(Y) = F ~y1/r)- F ~-y1/r)
FIXIr(Y) = 0
JIXIr(Y) = ~ Y(1-r)/r[J~y1/r) + J~-y1/r)]
!IXIr(Y) = o
F xn(Y) = F ~y1/n) für y E IR
für y > 0,
für y < 0.
für y > 0,
für y < 0.
n > 1 ungerade.
(10) f xn (y) = ~ y(1- n)/n f ~y11n) für y E IR, y ;= 0, n > 1 ungerade.
ad (5): FIXIr(Y) = P{ IX Ir< Y} = P{ lXI < y1/r} für y > 0
= P{ _ 1/r < X < 1/r} y - _y
= P{ X< y1/r}- P{ X< -y1/r}
= F ~y11r) - F ~- y11r) da F X stetig.
Wegen P { I X Ir > 0} = P {X;= 0} = 1-P {X = 0} = 1 folgt
FIXIr(Y) = P{ IX Ir< y} = 0 für y < 0.
ad {6): Nach (5) ist FIXI r höchstens auf der endlichen Menge
E = { y > 0 I y1/r E D} U { y > 0 1- y1/r E D}
nicht stetig-differenzierbar, und für y (/:. E, y > 0 ergibt sich ( vgl. 4.3 (8))
(i) JIXIr(Y) = Fl~r(y) = ~ y(1/r)-1 F jy1/r) + ~ y(1/r)-1 F j-y1/r)
= ~y(1-r)/r[Jx(y1/r) +Jx(-y1/r)].
Setzt manfiXIr auf E durch (i) fort, so ergibt sich die Dichte (6).
ad (9): Fxn(Y) = P{Xn<y} = P{X<y1/n} = F~y11n).
ad {10): Fxn ist höchstens auf der endlichen Menge EU{O} mit E={yly11nED}
nicht stetig-differenzierbar, und für y (/:. E, y ;= 0 ergibt sich
Setzt manfxn auf E durch (ii) fort, so ergibt sich die Dichte (10). D
Verteilungsfunktionen und Dichten 1603016
4.4.3 Log-Normal verteil ung
Beweis von
(4) jz(z)
Die Beho folgt aus 4.4 Satz 1 angewandt auf U (statt X) und g, weil
g'(u) = ßerx+ßu = ßo[g(u)-1'],
g'(g-\z)) = ß 0 [g(g-\z)) -')' J = ß 0 [z-')' J 0
4.4.4 Weibull-Verteilung
Übung!
4.4.5* Erzeugung von Zufallszahlen
Übung!
B 4-15
für z > "(.
D
Verteilungsfunktionen und Dichten 1603016 B 4-16
4.5 Zufallsvektoren 4.5.1 Mehrdimensionale Borel-Mengen
Beweis zu
Außerdem enthält lBn alle offenen und alle abgeschlossenen Teilmengen des IR no
Eine offene Menge A :;= 0 ist darstellbar als abzählbare Vereinigung offener Intervalle
A = U (a,b) a,b E<Qn (a, b) CA
also A E lBno Für abgeschlossenesBist CE offen und in lBn, also ist auch BE lBno D
4.6 Diskrete Zufallsvektoren 4.6.1 Multinomial-Verteilung
Beweis zu
(2) f (x) n
K 1 X n!fl-,opk
k=1 xko k
f ist eine Zähldichte, denn nach dem Multinomial-Satz ist n
n ( n ) xl xK 1 = (p1 + 000 + pK) = xfT x1 0 0 0 xK p1 0 0 opK = xfT fn(x) 0 D
n n
Verteilungsfunktionen und Dichten 16.3.16 B 4-17
4.7 Stetige Dichten für zweidimensionalen Verteilungen
Beweis von
Es ist
(i) P1
((a1,b1] x(a2,b2]) = P{a1 <X1 <b1, a2<X2<b2}
= P{X1
<b1, a2<X2<b2}- P{X
1<a
1, a2<X2<b2},
(ii) P{X1
<b1, a2<X2<b2} = P{X
1<b
1, X2<b2}-P{X1<b1, X2<a2}
= F x(b1' b2) - F x(b1' a2) ,
vgl. ( ii) mit a1
statt b1
Einsetzen von (ii) und (iii) in (i) liefert die Behauptung. D
Beweis von
(8)
Da Toffen ist, gibt es a = (a1, a
2), b = (b
1, b
2) E T mit a < x < b. Nach (7), (2) ist
Da f auf [ a, b] stetig ist, ist die linke (und somit auch die rechte) Seite partiell nach
x1
und x2
differenzierbar. Durch (partielles) Differenzieren ergibt sich (8). D
Verteilungsfunktionen und Dichten 16.3.16 B 4-18
Beweis von
b1 (9) F
1(b
1) =P{X
1 <b
1} = 1 j
1(x
1)dx
1 al
ßl b2
F2(b2)=P{X2<b2}= 1 f2(x2)dx2 mit j 2(x2) = 1 f(x1, x2) dx
1 .
a2 al
vgl. ( 6)
vgl. (7)
Die zweite Behauptung ergibt sich durch Vertauschen der Indizes 1 und 2. D
4.7.1 Zwei-dimensionale Normal-Verteilung
Beweis zu
(2)
Es ist
( i)
1 2 1-e
und durch Einsetzen in (i) ergibt sich die Behauptung. D
Verteilungsfunktionen und Dichten 16.3.16 B 4-19
Beweise zu
(3)
(4) mit
für i = 1, 2.
Daßfeine Dichte ist, d.h. J f( x1, x2) d( x1, x2) = 1, wird hier nicht gezeigt. 1R2
Die Gleichheit in ( 4) ergibt sich aus
[x- J.L]T L'-1 [x- J.L]
1 (x1- tt1)2 2e( x1- tt1)( x2- ft~ (x2-tt2)2
2 2 + 2 1-e al ala2 a2
1 u2 u2 2u1u2 +
1- e2 1 2
Beweis von
(5) L(X.) =N(tt.,a?) z z z für i = 1, 2.
Übung!
D
Verteilungsfunktionen und Dichten 1603016 B 4-20
4.9 Produkte reeller Wahrscheinlichkeitsräume 4.9.2 Allgemeiner Fall: beliebige Wahrscheinlichkeitsräume
Beweise von
(8)
(9)
(10)
(11)
{ 1r 0 E A 0} : = 1r 0-l [A 0] z z z z { ( w1, w
2, 000 , w ) I w 0 E A 0 } E f!Jl
n z z
P{ 1roEAO} = Po(Ao) z z z z n n { 7r 0 E A 0} = A1 x A
2 x 000 x A
0
1 z z n
z= n
n TI Ao 0
0 1 z z=
p { 7rl E Al' 000 ) 7r E A } = TI P{ 7r 0 E A 0} 0 n n °
1 z z
z=
(13) P( n { 7rk EAk}) = TI P{ 7rk EAk} 0 k EK kEK
ad (8), (9):
Es ist { 7r 0 E A 0} = { ( w1, w2
, 000, w ) I w 0 E A 0 } = .f21 Xooox A 0 Xooox .f2 E f!Jl z z n z z z n
und mit für alle k ;= i
lautet (5): P (n1 xooox Ai xooox .an) = P1(.f21) 0 000 ° P/Ai) 0ooo 0 Pn(.f!n)
ad {10):
Es gilt:
II II II
P{ 1roEAO} z z
n w E n { 1roEAO}
i =1 z z
1
woEAO z z
n w E TI Ao 0
0 1 z z= n n
1
für alle i
Po(Ao) z z
D
D
ad {11): P{ 1r1EA1, 000, 1r EA } = P(TIAO) = TIPO(Ao) n n 0
1z 0
1zz vgl. (10) und (5)
z= z= n
= TI P{ 7roEAO} vgl. (9)0 D 0 1 z z z=
ad {13): Mit A 0 : = .f2 0 für alle i \t K ist z z n n { 7rkEAk} = TI Ao
k EK i=l z und aus (5) folgt
P( n { 7rk EAk}) = TI Pk(Ak) k EK kEK
da P( A 0) = 1 für i \t K. z
und mit (9) ergibt sich (13)0 D
Verteilungsfunktionen und Dichten 1603016 B 4-21
4.10 Abzählbare Produkte von Wahrscheinlichkeitsräumen
Beweise von
(11)
(12)
(13)
1r 0 : .f2-----+ .f2 0 ist meßbar bzgl. d und do 0 z z z
P{ 1roEAO} = Po(Ao) für alle AOE d 0o z z z z z z
Po ist das Bildmaß von P unter 1r 0' doho Po= P1r -:-1 = L( 1r .)0 z z z z z
ad {11), {12), {13}: Für beliebiges A 0 E do und A : = .f2 für alle n ;= i ist z z n n
{ 1roEAO} = 7ro-1 [Ao] = {(w) l'>T I woEAO} = TI A E ~ z z z z n nEm z z n E lN n
und somit folgt (11)0 Weiter ergibt sich
P(7ro-1
[Aol) =P{7roEAO} =P( TI Ak) z z z z kElN
z = TI Pk(Ak)
k=l
=Po(A.) z z
Damit gilt (12)0 Und (13) folgt aus (12)0
vgl. (9)
ad (14): Wir setzen n = Max{ k I k E K} und A 0 = .f2 ° für i \t K. Dann folgt z z n
P( n { KkEAk}) = P( n {1roEA}) k EK i =1 z z
da { 1r 0 E A 0} = .f2 für i \t K z z
n TI Po(Ao)
0 1 z z z= vgl. (9)
da P .(A.) = 1 für i \t K z z
und mit (12) ergibt sich (14)0 D
Stochastische Unabhängigkeit von Zufallsvariablen 16.3.16
5. Stochastische Unabhängigkeit von Zufallsvariablen
Beweis der Äquivalenz von
(U1) Für beliebige B1
E d{, ... , B n E d~ sind die Ereignisse
{X1
EB1}, ... , {Xn EBn} stochastisch unabhängig.
(U2) Für beliebige B1
E d{, ... , B n E d~ gilt n
P{X1 EB1' ... ,X EB } = TI P{X.EB.} 0 n n . 1
z z z=
(U1) =? (U2):
(U2) =? (U1):
Folgt sofort mit 3.2 Def. 2 für K =I:= {1, ... , n}
Für 0 ;= K C I setze B. = .f2 ~ für i \t K. Dann folgt z z
n = TI P{X.EB.}
0 1 z z z= nach (U2)
B5-1
= TI P{Xk E Bk} kEK
da P {X. E .f2!} = 1. D z z
Beweis von
Satz: Für i = 1, ... , n sei X.: .f2-----+ IR eine reelle Zufallsvariable mit Verteilungsz funktion F X.' und F X sei die Verteilungsfunktion des Zufallsvektors
2
X= (X1, ... ,Xn). Dann sind X
1, ... , Xn genau dann stochastisch unabhängig wenn
n P{X1 <a1, ... ,Xn <an} =.TI P{Xi<ai}
z=1 bzw.
für alle a1
, ... ,an E.IR
Der Satz ist ein Spezialfall von 5.3 Satz 2. Es wird dort jedoch nur eine Rich
tung gezeigt: aus der Unabhängigkeit folgt (U) F" D
Stochastische Unabhängigkeit von Zufallsvariablen 16.3.16 B5-2
Beweis von
(1) (X ) -r-.T stochastisch unabhängig {} n nEm
Für jedes n E W sind X1, ... , Xn stochastisch unabhängig.
ad "::::}": Gilt nach Definition 2.
ad "~": Für endliches 0 :;= K C W sein= Max K, also K C {1, ... , n}.
Nach Vor. sind X1, ... , Xn stochastisch unabhängig und somit ist auch die
Teilfamilie (X k) k E K stochastisch unabhängig. D
Beweis von
(2) A1, ... , An stochastisch unabhängig {}
I , ... , I stochastisch unabhängig. Al An
Übung!
Stochastische Unabhängigkeit von Zufallsvariablen 16.3.16 B5-3
5.1 Stochastische Unabhängigkeit diskreter Zufallsvariablen
Beweis von
Satz: Diskrete Zufallsvariablen X1, ... , Xn sind gerrau dann stochastisch
unabhängig, wenn gilt n
(5) TI f.(x .) 0 1 z z z=
bzw.
n TI P{X. = x .} für alle (x
1, ... , xn) E f2'.
0 1 z z z=
n (6) x1, ... , xn stochastisch unabhängig L(X1' ... ,X ) = TI L(X.). n .
1 z
z=
(U2) ~ (5): Wähle B. = { x .}. z z
(5) ~ (U2): Mit den Rand-Verteilungen P X , ... , P X und der gemeinsamen Verteil n
lung P X von X lautet (5)
(5) I
Dies ist nach 3.3 (2) äquivalent dazu, daß P X das Produktmaß von P X, ... , P X ist: 1 n n
(5) II p X = .TI p X. 0
z=1 2
Für das Produktmaß PX gilt nach 3.3 ( 4) für beliebige B. C f2 ~ z z
bzw.
n P{X
1EB
1, ... ,X EB} = TIP{X.EB.},
n n . 1
z z z=
d.h. (U2) gilt.
ad (6): Folgt aus dem Satz und der oben gezeigten Äquivalenz (5) {} (5) 11. D
Stochastische Unabhängigkeit von Zufallsvariablen 16.3.16 B5-4
5.1.1 Randomisierte klinische Vergleichsstudie
Beweis von
(3) P{Y=1IX=j} = P{Y=1} für j = 0, 1.
ad ))X) Y stochastisch unabhängig ::::} (3)":
P{Y= IX="} = P{Y=1)X=j} 1 J P{X=j}
P{Y=1} ·P{X=j} = P{Y= } P{X=j}
1
ad );(3) {} X) Y stochastisch unabhängig 11:
(3) {} P{Y= 1) X=j} = P{Y=1} ·P{X=j} für j = 0, 1
{} {Y = 1 }) {X= j} stochastisch unabhängig für j = 0, 1
{} {Y = k }) {X= j} stochastisch unabhängig für j, k= 0, 1, vgl. 3.2 ( 4)
{} X, Y stochastisch unabhängig vgl. (U2). D
Stochastische Unabhängigkeit von Zufallsvariablen 16.3.16 B5-5
5.1.2 Geometrische Verteilung
Beweise zu
(3)
(4)
k P{Y=k} = p(1-p) für k = 0, 1, ...
P { Y = oo} = P {X = 0 für alle n E W } = 0 . n
ad (3): P{Y=k} = P{X1 =0, ... Xk=O,Xk+1 =1}
= P{X1 = 0} · ... ·P{Xk = 0} ·P{Xk+l = 1}
k = q ·p wobei q = 1 - p.
ad (4 ): A = {X.= 0 für alle i = 1, ... , n} ist eine fallende Folge mit n z
n P(A ) = TI P{X.=O} = t
n . 1
z z=
wobei q = 1 - p.
Also P {X = 0 für alle n E W } = P( n A ) n nElN n
lim P(A ) n---+oo n
lim qn = 0. n---+oo
Beweis zu
Stetigkeit von oben
D
(5) g(k;p) := P{k} = p(1-p)k für k = 0, 1, ...
g definiert eine Zähl-Dichte, weil für q = 1- p gilt 00
k 1 2:: q =-k=O p
Beweise zu
P{Y<k}
(geometrische Reihe).
1 kt1 -q ' P{Y>k}
P{Y>k+ll Y>l} = P{Y>k}.
k q ' (8)
(9)
(10) p = P{Y=k I Y>k-1} = P{Y=k I Y>k}
Übung!
D
für kE W.
Stochastische Unabhängigkeit von Zufallsvariablen 16.3.16 B5-6
5.2 Unabhängigkeit bei stetigen Zufallsvariablen mit Dichten
Beweis von
Satz: Reelle Zufallsvariablen X. mit Dichten f. für i = 1, ... , n sind gerrau dann z z stochastisch unabhängig, wenn das Produkt f: IR n-----+ [ o, oo) der Dichten,
definiert durch n
(1) f(x1, ... ,x)== Tlf.(x.)
n . 1
z z z=
eine Wahrscheinlichkeitsdichte für den Zufallsvektor X= (X1, ... ,Xn) ist.
Aus didaktischen Gründen betrachten wir zuerst den Spezialfall n = 2, der für (auf
dem Träger) stetige Dichten unter Verwendung (des hier nicht bewiesenen) Satzes
aus 5 relativ einfach beweisen läßt. Der Beweis des allgemeinen Falles verwendet
das Lebesgue-Integral, gilt aber auch für das Riemann-Integral, wenn man (auf
dem Träger) stetige Dichten f. voraussetzt. z
Spezialfall: n = 2
Ist T. = ( a ., ß .) C IR der Träger von X., so hat X den Träger T = T1
x T2
= ( a., ß) mit z z z z
a. = ( a 1, a 2), ß = (ßl' ß2) E IR 2. Wir setzen voraus, daß fi auf Ti stetig ist. Dann ist
das Dichteprodukt
auf ( a., ß) stetig. f ist eine Dichte, weil
ßl ß2 J J f(x1, x2) dx2 dx1
Ql Q2
1·1 1.
Stochastische Unabhängigkeit von Zufallsvariablen 16.3.16 B5-7
ad: x1, x2 stochastisch unabhängig
Nach 5 Satz ist die Verteilungsfunktion F X von X durch die Verteilungsfunktionen
F x. von Xi wie folgt gegeben: 2
Da F X. auf Ti differenzierbar ist mit der Ableitungfi ergibt sich für (x1, x
2) E T
2 2
8x~8x2 FX(x1,x2) = FJr1(x1) ·FJr
2(x2) = f1(x1) -f2(x2) = f(x1,x2)
Nach 4.7(8) istfeine Dichte von X.
ad: fistDichte von X= (X1,X
2) ::::} X
1, X
2 stochastisch unabhängig
Für die Verteilungsfunktion F X von X ergibt sich dann für (x1, x
2) E IR 2
Xl X2
FX(x1,x2) = 1 1 f1(u1) -fiu2) du2du1 -00 -00
Nach 5 Satz sind X1
und X2
stochastisch unabhängig. D
Allgemeiner Fall: n beliebig
Wir zeigen zuerst, daß durch (1) eine Dichte definiert ist. Ist ( a ., ß .) C IR der Träger z z
von X., so hat X den Träger ( a, ß) C IR n mit a = ( a .), ß = (ß .) E IR n_ Für das Dieh-z z z
teprodukt f gilt für beliebige ai < ai < bi < ßi (i = 1, ... , n)
bl bn (i) 1 . . . 1 f(x1, ... , xn) d(x1, ... ,xn)
al an
bl bn ( bl ) ( bn ) 1 . . . 1 j 1(x1) · ... -fn(xn) dxn ... dx1 = 1 j1(x1) dx1 · ... · 1 fn(xn) dxn . al an al an
ß. 2
Speziell für a. = a. und b. = ß. folgt aus z z z z 1 f.( x.) dx. = 1
z z z
ßl ßn (Xi
1 . . . 1 f(x1, ... , xn) d(x1, ... ,xn) = 1 d.h. f ist eine Dichte auf ( a, ß).
Stochastische Unabhängigkeit von Zufallsvariablen 16.3.16
ad: X1, ... , Xn stochastisch unabhängig ::::} f ist Dichte von X
Für beliebige a = (a .), b = (b .) E IRn mit (a ., b .] C ( a ., ß .) gilt z z z z z z
n TI P{a.<X.<b.} .
1 z z- z
z= n b· 2
nach Vor .
TI J f.( x.) dx. i=1 a· z z z
da f. Dichte von X. z z
2
bl J vgl. (i).
al an
Also ist f eine Dichte von X
ad: f ist Dichte von X ::::} xl' ... , xn stochastisch unabhängig
Nach 5 Satz 1 genügt es, für beliebige b1, ... , bn E.IR zu zeigen
n ( ii) P{X1 <b1, .. ,Xn <bn} =.TI P{Xi<bi}
z=l n
P{a1<X1<b1, .. ,an<Xn<bn} = iDlP{ai<Xi<bi}'
B5-8
bzw.
da (a.,ß.) der Träger von X. ist. Nunistfeine Dichte von X und nach (i) gilt z z z
bl bn P{ a 1 <X1 < b1, .. ,an <Xn < bn} J . . . J f(x1, ... , xn) d(x1, ... ,xn)
Ql an
= ( /' JN dxl) · ··· · ( /n fn(xn) dxn) al an
da f. Dichte von X .. D z z
Stochastische Unabhängigkeit von Zufallsvariablen 16.3.16 B5-9
5.2.1 Normalverteilte Zufallsvariablen
Beweis von
(1) xl' ... , xn stochastisch unabhängig L(X1, ... ,X ) = N (p,,E).
n n
Die Dichte f. von X. ist gegeben durch z z
( i) f.(x.) = z z 1 . {-l(xi-f-li)2} exp 2 a. .
a.~ 2 z
Nach 5.2 Satz sind X1, ... , Xn gerrau dann stochastisch unabhängig, wenn
n ( ii) f(x
1, ... , x ) : = TI f.(x .)
n . 1
z z z=
eine Dichte von X= (X1, ... ,Xn) ist. Nun ist
( iii) n 1 Tif.(x.) = /2 . z z (2 )n z=1 a1 ... an 1r
{ 1 ;.., (xi-f..li )2} ·exp -- u --2 . ai
z=1
Wegen 2 2 Det E = a1 · ... ·an
ist f = TI f. die Dichte von N (p,, E) aus 4.8.1. Also sind x1, ... , X gerrau dann sto-. z n n
chastis~h unabhängig, wenn L(X) = N (p,, E) gilt. n
Stochastische Unabhängigkeit von Zufallsvariablen 16.3.16 B 5-10
5.3 Unabhängigkeit bei Zufallsvektoren
Beweis von
Satz 1: Für i = 1, ... , n sei X. : .f2-----+ IR ni ein Zufallsvektor und g. :IR ni-----+ IR mi z z
eine meßbare Abbildung. Dann gilt:
(1) ... , X n
stochastisch unabhängig
Wir ze1gen den Satz sogar für beliebige Räume mit a-Algebren (D', d') und
(D", d'~ an Stelle von (IRni, lBni) und (IRmi, lBmi). Für beliebige B.E d" gilt z
P{ g1(X1) EB1 , ... , gn(Xn) EBn}
1:t 1:t n TI P{ X.Eg~1[B.]}
0 1 z z z z= P{ X1 Eg~
1[B1 ] , ... , Xn Eg~1[Bn]} nach Vor.
n TI P{g.(X.) EB.}
0 1 z z z z= Also sind g
1(X
1), ... , gn(Xn) stochastisch unabhängig. D
Stochastische Unabhängigkeit von Zufallsvariablen 16.3.16 B 5-11
Beweis von
Satz 2: Für i = 1, ... , n sei X. : .f2-----+ IR mi ein m .-dimensionaler Zufallsvektor mit z z
Verteilungsfunktion F X.' und F X sei die Verteilungsfunktion des Zufallsvek-2
tors X= (X1, ... ,Xn) der Dimension m +"Dann sind X
1, ... , Xn genau dann stocha-
stisch unabhängig wenn gilt n
(2) Fx( a1, ... , a ) = TI Fx.( a .) n i=l 2 z
Wir zeigen nur ))X1, ... , Xn stochastisch unabhängig ::::} (2)". Für a = (a
1, ... ,an) ist
n TIP{X.<a.} nach Vor. . 1 z z z= n
.TI F x.(a) . z=l 2
Beweis von
Satz 3: Für stochastisch unabhängige Zufallsvektoren X1, ... , Xn und Y
1, ... , Y m
auf demselben Raum .f2 (aber nicht notwendig von gleicher Dimension) sind
auch die beiden Zufallsvektoren X= (X1, ... , Xn) und Y = (Y
1, ... , Y m) stocha
stisch unabhängig.
Folgerung: Für meßbare Abbildungeng: IR k-----+ IR k' und h: IRl-----+ IRl' (mit ge
eignetem k und Z) sind auch die beiden Zufallsvariablen g(X) und h(Y) stocha
stisch unabhängig.
Nach Satz 2- angewandt auf X und Y (mit n = 2) -ist nur zu zeigen
( i)
Nach Satz 2- angewandt X1, ... , Xn) Y
1, ... , Y m- folgt
n m (ii) F(X, Y)(a, b) = }]
1 F Xi(a) · k 1]
1 F yk (bk) .
D
Da sowohl die Teilfamilie (X1, ... , Xn) als auch (Y
1, ... , Y m) stochastisch unabhängig
ist, ergibt sich mit Satz 2 n
( iii) Fx(a)= .TI Fx.(a), z=1 2
und mit (ii) ergibt sich (i).
Die Folgerung erhält man aus der Unabhängigkeit von X und Y mit Satz 1. D
Faltungen von Verteilungen 19.11.15
6. Faltungen von Verteilungen
6.1 Faltung diskreter Verteilungen
Beweis von
(3) P{X+Y=z} 2:= P{X=x} ·P{Y=z-x} xETx
2:= P{Y=y} ·P{X=z-y} yE Ty
Es ist P { X+ Y = z} = P { Y = z-X}
p ( u { X= X ' y = z- X}) xETx
B6-1
für zE Tz.
2:= P{ X= x, Y = z- x} da disjunkte Vereinung xETx
2:= P{ X= x} · P{Y =z- x} da X, Y unabhängig xETx
Die zweite Darstellung in (3) ergibt sich durch Vertauschung von X mit Y. D
6.1.1 Binomial-V erteil ung
Beweis von
(1) B(n,p) = B(l,p) * .... * B(l,p) t ... n-mal ... t
oder mit Zufallsvariablen formuliert
(1)' Für stochastisch unabhängige X1, ... , Xn mit B(l,p)-Verteilung gilt:
n cL( l:=X.) = B(n,p).
0 z z=l
1. Beweis: Die Beh. (1) 1 folgt direkt aus den Überlegungen in 3.3.1.
2. Beweis: Beh. (1) ist ein Spezialfall von 6.1.2 (1) für Multinomial-Verteilungen. D
Faltungen von Verteilungen 19.11.15
Beweis von
(Die Verallgemeinerung für Multinomial-Verteilungen folgt in 6.1.2)
Seien
so daß
X.~ B(1,p) z
Y. ~ B(1,p) J
für i = 1, ... , n1
für j = 1, ... , n2
x1, .... ,X ' Y1, ... , y stochastisch unabhängig. Aus (1) I folgt nl n2
B6-2
Die beiden Zufallsvektoren X = (X1, ... , X ) und Y = (Y
1, ... , Y ) sind nach 5.3 Satz
nl n2
3 stochastisch unabhängig und nach der Folgerung aus dem Satz sind auch X+ und
Y + stochastisch unabhängig. Also ist
und mit (i) folgt die Behauptung. D
Faltungen von Verteilungen 19.11.15 B6-3
6.1.2 Multinomial-Verteilung
Beweis von
(1)' Für stochastisch unabhängige X1
, ... , Xn mit MK(1,p)-Verteilung gilt: n
oi(_l:XJ = MK(n,p). z=1
Induktion über n. Für n = 1 ist nichts zu zeigen. Zum Induktionsschritt n f-----t n + 1: n
Nach Induktionsvor. gilt Y: = _2:: Xi "' MK(n,p) z=l
und Y ist stochastisch unabhängig von Xn+l "'MK(1,p) nach 5.3 Satz 3 (Folgerung).
Der Träger von y ist Tn = {X= (xl, ... , xK) E w~ I X+= n}
und der Träger von Xn+l ist die Menge T1
= { e1, ... , eK} der K Einheitsvektoren.
Also ist der Träger von Y +X n+ 1
T n + T1 = { x + e I x E T n' e E T1 } T n+ r
Für z E T n+ 1 gilt nach 6.1 (3) K
P{ Xn+l + Y = z} = k'fl P{Xn+l = ek} ·P{ Y = z- ek}
f p ·[n! TI 1 '·pzl-8kll k=l k l=l (zz- 8kz)· l
da z E T n+ 1 ::::} z + = n + 1. D
Faltungen von Verteilungen 19.11.15 B6-4
Beweis von
Der Beweis verläuft völlig analog zur Binomialverteilung, d.h. zu 6.1.1 (2).
Seien
so daß
( i)
Xi "'MK(1,p)
Yj "'MK(1,p)
für i = 1, ... , n1
für j = 1, ... , n2
x1, .... ,X ' Y1, ... , y stochastisch unabhängig. Aus (1) I folgt nl n2
Die beiden Zufallsvektoren X = (X1, ... , X ) und Y = (Y
1, ... , Y ) sind nach 5.3 Satz
nl n2
3 stochastisch unabhängig und nach der Folgerung aus dem Satz sind auch X+ und
Y + stochastisch unabhängig. Also ist
und mit (i) folgt die Behauptung. D
Beweis von
(3) für k = 1, ... ,K.
Wir betrachten zuerst n = 1:
Xk kann nur Werte aus {0,1} annehmen und L(Xk) =B(1,pk) folgt aus
P{Xk=1} = 2:::: P{X=x} = P{X=ek} = pk xET1 ,xk=1
Für beliebiges n seien x(1), ... , x(n) unabhängig mit MK(1,p)-Verteilung. Nach 5.3
Satz 1 und dem Fall n = 1 folgt
X~), ... , x1n) stochastisch unabhängig mit B(1,pk)-Verteilung.
Mit den Faltungseigenschaften 6.1.1 (1) und 6.1.2 (1) ergibt sich
X·- ~ x(i) "'M (n p) X ·- ~ x(i) ,..__ß(n p ) ·- u K ' ' k·- u k ' k i=l i=l
und die Beh. folgt. D
Faltungen von Verteilungen 19.11.15 B6-5
Beweis von
(4) P{X1 + ... +XK=n} = 1.
Es ist: P{X1 + ... +XK=n} = P{(X1 , ... ,XK)ETn} 1. D
6.1.3 Faltung von Poisson-Verteilungen
Beweis von
(1) Pois(p,1
) * Pois(p,2
) = Pois(p,1 + p,
2).
Übung!
Faltungen von Verteilungen 19.11.15
6.1.4 Negative Binomial-Verteilungen als Faltungen geometrischer Verteilungen
Beweis von
(2)
B6-6
Für n + k = 1, d.h. n = 1 und k = 0, gilt (2) trivialerweise (vgl. auch 5.1.2), weil
Sei jetzt n + k > 1. Dann gilt k+n-1
( i) Z== 2:: X."' z i=1
B([k + n-1 ],p)
( ii) xk+n und z sind stochastisch unabhängig
Also ist: P { Y = k } P { X k+n = 1, Z = n -1 }
P{Xk+n=1} · P{Z=n-1}
p (k + n-1) n-1 k
· n-1 p q
vgl. 6.1.1
5.3 Satz 3 Folgerung.
vgl. ( ii)
vgl. (i), q = 1- p.
Bemerkung (auch zum Namen "negative Binomialverteilung'?
Definiert man die negative Binomialverteilung auf W0
durch (2), so ist zu zeigen
(iii) 1 = 'f ( n + ~- 1 ) pn l bzw. p -n = 'f ( n + ~- 1 ) l k=O k=O
(Binomial-Reihe)
und mit folgt ( iii).
Zur allgemeinen Definition des Binomialkoeffizenten vgl. man 9.8.2 (17)-(18) D
Faltungen von Verteilungen
Beweis von 00
(3) P{l:X.<n} 0 1 z z=
8.8.16
0.
FürfestesN EW:sei AN= {XN+n=OfürallenEW}
Aus 5.1.2 (5)- angewandt auf die Folge (XN+n)nElN- ergibt sich P(AN) = 0.
B6-7
Es folgt: P( U AN)= lim P(AN) = 0, NE lN N---+oo
Stetigkeit von unten, da (AN) aufsteigend.
00
Nun gilt: 2:: X.< n 0 1 z z=
::::} es gibt ein NE W mit XN +n = 0 für allen E W
00
Also P{l:X.<n} < i=l z
0.
Beweis von
(4) Y<k
ad "::::}": Für Y < k gibt es ein l E {0, ... , k} mit Y = l und nach (1) ist
X1 + ... +Xz+n = n. Wegen Xz+n+l + ... + Xk+n > 0 folgt
Xl + ... +Xk+n > n.
ad "~": Für X1 + ... +Xk+n > n ist
( i) X.=1. z
mit
D
Wegen Xz E {0, 1} ist n = X1 + ... + Xi < i, also n < i < k + n. Also gibt es em
l E {0, ... , k} mit i = l + n. Nach (i) und (1) ist Y = l und somit Y < k. D
Beweis von
(5) P{NB(n,p) < k} = P{B(k+n,p) > n}
Wir geben zwei Beweise an. Der erste Beweis verwendet die Beziehung ( 4) und der
zweite nur die Definition der Zähldichte ( 2) von NB( n, p). Es sei wieder q = 1- p.
1. Beweis: Aus L(Y) = NB(n,p), L(X1 + ... +Xk+n) = B(k+n,p) und (4) folgt (5).
Faltungen von Verteilungen 8.8.16
2. Beweis: Induktion über k
Für (beliebige) Zufallsvariablen U ""'NB(n,p) und Vk ,..__,ß(k+n,p) ist zu zeigen
( i) P{U<k} = P{Vk>n}
Für k = 0 gilt (i) wegen
P{U<O} = P{U=O} = pn,
P{V0>n} = P{V
0=n} =pn nach (2).
B6-8
Für den Induktionsschritt k 1-----+ k + 1 verwenden wir em Vk+1
= Vk + W wobei
W'"'"' B(1, p) stochastisch unabhängig von Vk ist. Nach Induktionsvoraussetzung ist
(ii) P { U < k + 1} = P { U < k} + P { U = k + 1} = P {V k > n} + P { U = k + 1}
= q·P{Vk>n} + p·P{Vk>n} +P{U=k+1}.
Andererseits gilt
P{Vk >n-1} =P{Vk =n-1} +P{Vk >n} und somit
(iii) P{Vk+1 > n} = P{Vk + W> n}
=P{W=O, Vk >n}+P{W=1, Vk >n-1}
= q·P{Vk >n}+ p·P{Vk >n-1}
= q·P{Vk >n}+ p·P{Vk =n-1} + p·P{Vk >n}.
Für die Gleicheit der linken Seiten in (ii) und (iii) bleibt also zu zeigen
( iv) P { U = k + 1} = p · P {V k = n- 1}.
Nach (2) ist
p { U = k + 1} = ( ~ + ~) pn l+ 1 und
P { V _ _ 1} _ ( n + k) n-1 k+ 1 k-n - n-1 P q woraus (iv) folgt. D
Faltungen von Verteilungen 8.8.16 B6-9
Beweis von (unter Verwendung von (8))
(7)' Für stochastisch unabhängige Y1, ... , Yn mit Geo(p)-Verteilung gilt:
n cL( 2: Y.) = NB(n,p).
0 z z=l
Induktion über n. Für n = 1 ist nichts zu zeigen. Zum Induktionsschritt n f-----t n + 1:
n Nach Induktionsvor. gilt Z: = 2: Y. "' NB(n,p)
0 z z=l
und Z ist stochastisch unabhängig von Y n+ 1
"' Geo(p) nach 5.3 Satz 3 (Folgerung).
Der Träger von Z + Yn+1
ist W0 + W
0 = W
0, und für k E W
0 ist nach 6.1 (3)
00
P { Z + Y n+ 1 = k } = i ~ 0
P { Y n+ 1 = i } · P { Z = k- i }
k 2: P{ Y +1 =i} · P{Z=k-i} .
0 n
da P{Z< 0} = 0 z =
k
2: z pq ( n + k- i-1) n k-i
· n-1 p q i =0
vgl. (6). D
Faltungen von Verteilungen 8.8.16 B 6-10
Beweis von
k 0
2: c~~;1) i=O
(8)
Induktion über k.
k = 0: trivial, da(~) = 1.
k 1-----+ k + 1: k+l 0 2: (z+n-1)
n-1 i=O
(k!n) + (~~~)
(k+~+n)
nach Induktions-Vor.
vgl. ( i) unten.
Der Vollständigkeit halber zeigen wir noch für a, r E W0
Dies ergibt sich unter Verwendung absteigender Produkte (vgl. 9.8.2 (17)) wie folgt
(a)r-1 (a)r -- +(r-1)! r!
(a)r-1· r + (a)r-1 · (a-r+l) r!
(a+l) · (a)r-1 (a+l)r = . D r! r!
Beweis von
Der Beweis verläuft völlig analog zur Multinomialverteilung, d.h. zu 6.1.2 (2).
Seien X.~ NB(1,p) z
für i = 1, ... , n1
Yk ~ NB(1,p) für k = 1, ... , n2
sodaß x1, .... , X ' Y1, ... , y stochastisch unabhängig. Aus (5) I folgt nl n2
( i) L(X +) = NB(nl'p),
L(X + + Y +) = NB([n1 + n 2], p).
Da die beiden Zufallsvektoren X+ und Y + nach 5.3 Satz 3 (Folgerung) stochastisch
unabhängig sind folgt die Behauptung mit (i), weil
( ii) D
Faltungen von Verteilungen 8.8.16 B 6-11
6.2 Faltung stetiger Verteilungen mit Dichten
Beweis von
(1) ( ax +ay, ßx +ßy),
ad T +T c T '': " X Y Z
ax<x<ßx, ay<y<ßy
( i) ay < z-ax,
Die beiden Intervalle (z- ßx,z- ax) und (ay,ßy) sind daher nicht disjunkt: sonst
müßte z- ax < ay oder ßy < z- ßx gelten - im Widerspruch zu (i). Also gibt es ein
x E T X und ein y E T Y mit z- x = y. Damit ist z = x + y E T X+ T y·
Beweis von
(2) für zE Tz.
Da wir hier Dichten f X und f Y betrachten, die auf dem jeweiligen Träger stetig sind,
wollen wir (2) nur unter der zusätzlichen Voraussetzung beweisen, daß die durch (2)
definierte Funktion fz stetig auf Tz ist. - Sei f die Dichte von (X, Y), die außerhalb
des Trägers T = T x x T Y identisch 0 ist. Dann gilt für die Verteilungsfunktion Fz
von Z=X + Y:
Faltungen von Verteilungen
( i) Fia) = P{X+Y<a}
J f(x,y) d(x,y) {(x,y) I x+y::::; a}
II {(x,y) ly::::;a-x}
_t ( _Tf(x,y) dy) dx
+oo( a ) _L _L f(x,z- x) dz dx
ßx a
J ( J f( x, z- x) dz ) dx rxx rxz
a ßx = J ( J f( x, z- x) dx ) dz
rxz rxx
8.8.16 B 6-12
für a E IR
Veranschaulichung: Graphik!
Substitution z=x+y, y=z-x
f(x,z-x) = 0
z<a ==a +a - Z X Y' ax<x ::::}
z-x<a ::::} - y f(x,z-x) = 0
Vertauschung der Integrale (Satz von Fubini)
Die Herleitung von (i) gilt auch ohne die Voraussetzung, daß X und Y stochastisch
unabhängig sind, was später beim Beweis von 6.3 (1) verwendet wird. Wegen der sto
chastischen Unabhängigkeit ergibt sich aus 5.2 Satz jetzt
a
Fia) = J fiz) dz mit az
und mit ( i) folgt
ßx fiz) = J fx(x) -fy(z- x) dx
ax
Die Dichte von Z ist daher auf Tz= (az,ßz) gegeben durch F; =fz· Die Darstellung
( 2) gilt sogar auch für z < a z bzw. z > ß z = ß x + ß Y' weil das erste Integral dann = 0,
ist: für a < x < ß folgt z- x < a bzw. z- x > ß und somit ~(x, z- x) = 0. x- - x - Y - Y J'
Durch Vertauschen von X mit Y ergibt sich, daß auch die zweite Darstellung von fz
in (2) die Dichte Fz' von Z ist, und somit beide Darstellungen in (2) übereinstim
men. D
Faltungen von Verteilungen 808016
6.2.1 Faltung von Normal-Verteilungen
Beweis von
(1) mit
Seien X 0 ,.....__ N(p, 0' a?) stochastisch unabhängig für i = 1, 20 z z z
Spezialfall: Aus der Dichte von X 0
z
( i) f.( x) = -1- 0 exp {-l 0 x~ } für i = 1, 2
z a. l27r 2 a. 2y L.,J( 2
ergibt sich mit 6.2 ( 2) die Dichte f z von Z = X1 +X
2 auf Tz= IR zu
+oo (ii) fiz) = J j
1 (x) -j
2(z- x) dx
-00
+oo 1 { 1 [ x
2 ~]} 0 ex -- - + dx 2 1r a a J P 2 a 2 a 2
1 2 -00 1 2
Wir betrachten die Substitution
Mit (iii)
folgt
x2 (z-x) 2
= 2 + 2 vgl. (iii)o a1 a2
Also: +oo
-1- 0 J exp {-l [ u 2 + z ~ J } du
21ra _00
2 a
+oo ~ 0 exp{-l ~} 0 J - 1
- exp{-l u 2} du
a y'21r 2 a 2 _ 00
y'27r 2
+oo II
J cp(u) du= 1 -00
Also ist fz die Dichte von N(O, a 2 ), doho (1) gilt im Spezialfall p,
1 = p,
2 = 00
B 6-13
Faltungen von Verteilungen 808016 B 6-14
Allgemeiner Fall:
Für i = 1, 2 sind U 0 : = (X 0 -p, 0) "' N( 0, a ?) stochastisch unabhängig (5.3 Satz 1) und z z z z
aus dem Spezialfall folgt
Also: vgl. 4.4.1 (7)0
Beweise von
(2) Für a, ß E IR mit ß ;= 0 gilt:
(3) Für stochastisch unabhängige X1, 000, X mit L(Xo) =N(p,o,a?) für alle
n z z z n n n
i = 1, 000, n gilt: cL( 2: X 0) = N( 2: p, 0' 2: a?) 0 0 z 0 z 0 z z=l z=l z=l
ad (2): Mit 4.4.1 (7) ergibt sich:
* la [(a+ßX)- (a+ßp,)] = ; [X-p,] "'N(0,1)
* (a+ßX) "'N([a+ßp,], [ßa] 2 )0
ad {3): Folgt per Induktion aus (1)0
D
D
Faltungen von Verteilungen 8.8.16 B 6-15
6.2.2 Faltung von Exponential- und Gamma-V erteil ungen
Beweis von
(4) c · Gam( a,ß) = Gam( a,cß) für c>O.
Für X "' Gam( a,ß) ergibt sich die Dichte von c X nach 4.4.1 ( 6) zu
f (x) = lf (~) cX c X\c ~ ·!(~I a~ß) für x> 0
1_ ·-1 ·ß-a(~)a- 1 exp{ -xj(cß)} c r(a) c
r(a) ·(cßfaxa-1exp{ -xj(cß)}
= f(x I 0!1 cß).
Also ist cX "'Gam( a,cß). D
Beweise zu
(6) für z> 0
f a ist für a < 1 eine streng fallende Kurve und
für a > 1 eine schiefe Glockenkurve mit einem Maximum in z = a-1. max
Es ist ! ' ( ) 1 [( ) a-2 -z a-1 -z] z = - a-1 z e - z e Q r(a)
- ·z e · a-1 z -1 1 a-1 -z [( ) -1 J r(a)
fa(z) · [(a-1) z- 1 -1 J.
Füra<1ist: [(a-1)z-1 -1]<0
und somit ist f streng fallend. a
f' (z) < 0 Q
Füra>1gilt: f~(z)~O {} [(a-1)z- 1 -1] ~ 0
für z> 0
für z> 0
{} z == (a-1) ~ z für z>O. max <
Also ist f auf (0, z ) streng wachsend und auf (z ,oo) streng fallend mit ei-a max max
nem Maximum in z D max
Faltungen von Verteilungen
Beweis von
(9)
Übung!
8.8.16 B 6-16
Faltungen von Verteilungen
Beweise von
(11) P{ Gam(n, -A-1) < a}
Es ist: P{ Gam(n, -A-1) < a}
und P{ Pois(a-A) > n}
Zu zeigen bleibt für z: = a A
8.8.16
P{ Gam(n, 1) < a-A}
n-1 1 -a>. 'I\' 1 ( ')i - e · u ""'! a /\ z 0
i=O
P{ Pois(a-A) > n}
P { ,\-1 · Gam( n, 1) < a}
P{ Gam(n, 1) < a-A}
1 - P { Pois( a A) < n- 1}
n-1 1 -a>. 'I\' 1 ( ')i - e · u ""'! a /\ .
0 z 0
z=O
n-1 -z 'I\' 1 i 1 - e · u ""'! z
0 z 0
( i) P { Gam( n, 1) < z} z=O
Der Beweis erfolgt per Induktion·
n = 1: Für Gam(1, 1) = Expo(1) ist
für a > 0.
vgl. (4)
P{ Expo(1) <z} = 1- e-z vgl. 4.3.2, d.h. (i) gilt.
Induktionsschritt n f-----t n + 1 z
P { Gam( n + 1, 1) < z} = J f( x In+ 1, 1) dx 0
z 1.. Jxne-xdx n!
0
da T(n+1) = n!
Durch partielle Integration mit g(x) = xn und h(x) =- e-x ergibt sich z
P{Gam(n+1,1)<z} = ~![-xne-x]~ +~! Jnxn-1 e-xdx 0
1 n -z --z e n!
1 n -z --z e n!
z
+ J f(xl n,1) dx 0
+ P { Gam( n, 1) < z}
n-1
B 6-17
1 n -z --z e n! -z 'I\' 1 i + 1- e · u ""'! z nach Ind.-Vor.
z.
n . -z 'I\' 1 z 1-e ·u""'!z. z 0
i=O
i=O
D
Faltungen von Verteilungen 808016 B 6-18
6.2.3 Poisson-Verteilung und Poisson-Prozeß
Beweise von
(3)
(4)
(5)
Max { k E W 0 I S k < t} 0
sk < t
sk < t < sk+l 0
ad {3): Aus Tk > 0 folgt 50
< 51 < 52< 000 <Sn' und somit gilt (3)0
ad (4): Nach (3) gilt SX < to Da die Folge (Sn) monoton wachsend ist, folgt t
Die Umkehrung"~" in (4) folgt sofort mit (3)0
ad (5): X =k t
Beweis von
(6)
Für n E W gilt:
(i) P{ Xt > n} = P{ Sn< t}
und
und
für t> 0 0
vgl. (4)
vgl. (4)0
= P{ Gam(n, -A-1) < t}
= P{ Pois(t-A) > n}
daS "'Gam(n, -A-1), vgl. 6.2.2 (10) n
vgl. 6.2.2 (11)
Hieraus folgt die Behauptung, weil für 1-L = t-A
P{Xt=n} = P{n<Xt<n+l}
= P{ Pois(f-L) > n}- P{ Pois(f-L) > n+l} = P{ Pois(f-L) = n} für nEW
D
Faltungen von Verteilungen 8.8.16
6.2.4 Elementare Eigenschaften der Gammafunktion
Beweise von
(2)
(3)
(5)
r(x+1) X· T(x)
T(l) = 1
r(~) = v;
für x> 0.
ad (2): Partielle Integration mit g( t) = tx und h( t) =- e- t liefert 00 00 00
T(x+1) = J tx · e-t dt [- tx · e-t] + J xtx- 1 . e-t dt 0 0 0
00
J x-1 -t x · t · e dt x · T(x). 0
00
ad {3): T(1) = Je-t dt 0
B 6-19
D
ad (5): Der Beweis geht auf Emil Artirr (The Gamma Function, New York 1964)
zurück und verwendet die folgende Darstellung der Beta-Funktion
1 B(x,y) = Jtx- 1 (1-t)y-1 dt ( i) für x, y > 0
0
durch die Gamma-Funktion
( ii) T(x) · T(y)
B( x, Y) = r( x + Y)
die im Beweis von 6.2.2 (6) hergeleitet wurde. Für x = y = ~ ergibt sich mit (3)
( iii) B( ~, ~) = r( ~) 2, und zu zeigen bleibt
1
(iv) B(~, ~) = J [t(1-t)]-1/2
dt = 1r.
0
Mit der Substitution t = sin2(x) und dt = [2 sin (x) cos(x)] dx ist
t(1- t) = sin2(x) [1- sin2(x)] = sin2(x) cos2(x),
K/2 K/2 und B(~, ~) = J [sin2(x) cos2(x)]-
1/2
[2 sin(x) cos(x)] dx = 2 J dx = 1r. D 0 0
Faltungen von Verteilungen 8.8.16 B 6-20
6.3 Arithmetische Operationen von Zufallsvariablen
Da wir bisher nur Dichten betrachtet haben, die auf dem jeweiligen Träger stetig
sind, wollen wir die Behauptungen hier nur unter der zusätzlichen Voraussetzung
beweisen, daß die durch (1) - (5) definierten Funktion! J ,f ,J I J undf X+Y X-Y X·Y X Y X Y
auf dem jeweiligen Träger stetig sind.
Beweis von
(1) P{X+Y<a} für a EIRund
+oo ßx J j( X, Z- X) dx J j( X, Z- X) dx
-00 rxX
+oo ßy
J f(z-y,y) dy J f(z-y,y) dy für zE IR. -00 (Xy
Z=X + Y hat nach 6.2 (1) den Träger Tz= (az,ßz) = ( ax+ay, ßx+ßy) und für
die Verteilungsfunktion Fz von Z gilt nach (i) im Beweis von 6.2 (2)
a
(i) Fia) - J fiz) dz für a E IR, und -
az
ßx +oo (ii) fiz) J j( X, Z- X) dx J j( X, Z- X) dx
rxX -00
In (ii) ist für z<az bzw. z>ßz=ßx+ßy das erste (und auch das zweite) Integral
= 0, weil für ax < x < ßx dann z- x < ay bzw. z- x > ßy gilt und somit f(x, z- x) = 0
ist. Also gilt die zweite Darstellung von Fz in (1) und die erste Zeile der Darstellung
von fz· Die zweite Zeile der Darstellung von fz ergibt sich durch Vertauschen von X
mit Y (oder durch Substitution x = z- y bzw. y = z- x). D
Faltungen von Verteilungen 8.8.16 B 6-21
Beweis von
a (2) Fx_y(a) = P{X-Y<a} 1 fx_y(z) dz für a E IR und
-00
+oo ßx fx_y(z) 1 f(x, x- z) dx 1 f(x, x- z) dx
-00 rxX
+oo ßy 1 f(z+y,y) dy 1 f(z + y, y) dy für zE IR.
-00 (Xy
Wir geben zwei Beweise an. Der erste Beweis führt (2) auf (1) zurück und der
zweite Beweis verläuft analog dem Beweis von (1),
1. Beweis: Für V=- Y ist X- Y =X+ V und wir können (1) auf (X, V) anwenden,
wenn wir die Dichte von (X, V) bestimmen. Der Träger von V ist T v = (- ßy,- ay)
und der von (X, V) somit T x x T v· Die Verteilungsfunktion von (X, V) ergibt sich zu
( i) F(X,V)(a,b) = P{X<a 1 V<b}
= P{X<a)Y>-b}
a ßy
J ( J f( x, y) dy ) dx x Substitution: a -ß
J (- ( f(x,-v) dv) dx X
a b
1 ( 1 f(x,-v) dv) dx rxX -ßy
Damit definiert
( ii) !(X, V)( a, b) : = !( a,- b)
V =-y
eine stetige Dichte von (X, V) auf dem Träger T x x T V' und (1) angewandt auf (X, V)
liefert die Behauptung (2).
2. Beweis: Nach 6.2 (1) hat Z =X- Y den Träger
mit
Für die Verteilungsfunktion Fz von Z =X- Y gilt:
Faltungen von Verteilungen 8.8.16 B 6-22
( iii) Fia) = P{X-Y<a} für a E IR
J f(x,y) d(x,y) {(x,y) I x-y::::; a}
II {(x,y) I x-a ::::; y}
Veranschaulichung: Graphik!
too( too ) _L xja f(x,y) dy dx
Substitution z=x-y, y=x-z
too( -oo ) _L - j f(x,x-z) dz dx
Tausch der Grenzen des inneren Integrals
too( a ) _L _L f(x,x-z) dz dx
ßx ( a )
xtf:.Tx f(x,x-z) = 0
0
/ _Lf(x,x-z) dz dx z<az= ax-ßy, ax<x ::::} X
ßx a x-z>ß ::::} f(x,x-z) = 0 - y
J ( J f(x,x-z) dz) dx rxx rxz Vertauschung der Integrale
a ßx (Satz von Fubini)
J ( J f(x,x-z) dx) dz rxz rxx
a
J fiz) dz mit az
ßx +oo (iv) J f(x,x-z) dx = J f(x,x-z) dx
rxX -00
In (iv) ist für z < a = a - ß bzw. z > ß = ß - a das erste (und auch das zweite) - Z X Y - Z X Y Integral = 0, weil für ax < x < ß x dann x- z > ßy bzw. x- z < ay gilt und somit f(x,
x- z) = 0 ist. Also gilt die zweite Darstellung von Fz in (2) und die erste Zeile der
Darstellung von fz· Die zweite Zeile der Darstellung von fz ergibt sich durch Vertau
schen von X mit Y (oder durch Substitution x = z- y bzw. y = z- x). D
Faltungen von Verteilungen 8.8.16 B 6-23
Beweis von
a (3) 1 fx.y(z) dz für a E IR mit
-00
00 0
1 1 ·f(x, !.) dx = 1 l.J(x, ~) dx - 1 ~ -f(x, ~) dx 1R\{O}Ixl X 0 X X -oo
Für die Verteilungsfunktion Fz von Z =X· Y gilt für a E IR:
( i) Fz(a) = P{X·Y<a}
1 f(x,y) d(x,y) r [ J !( x, y) dy l dx {(x,y) I xy ::::;a} -oo {y I xy ::::;a}
= J [ J !( x, y) dy ] dx lR\{0} {ylxy::::;a}
{ y<!!:. für x> 0 } Wegen xy<a -x folgt y>!!:. für x< 0 -x
Fz(a) _l [ if(x,y) dy] dx + a l [ _{' f(x,y) dy] dx
X
Substitution: z dy = l.dz y=-x, X
0 [ -00 l _L j ~-f(x, ~) dz dx + l [ _ i ± J( x, i) dz ] dx
_l [ _i-± f(x, i) dz] dx + .....................
/[ /1. f(x,i)dz]dx + J' [ / LJ(x,i) dz] dx _
00 _
00 lxl
0 _
00 lxl
J [ / 1_ J( x, i) dz ] dx lR\{0} -oolxl
Vertauschung der Integrale (Satz von Fubini)
( ii) Fia) - / [ J L J( x, i) dx ] dz -
_ 00 1R\{O}Ixl
Damit sind die ersten beiden Zeilen in (3) gezeigt. Die zweite Zeile der Darstellung
Faltungen von Verteilungen 808016 B 6-24
von fz ergibt sich durch Vertauschen von X mit Y (oder durch Substitution x = z / y
bzwo y = z / x) 0
Wir zeigen noch, daß der Träger von Z ein offenes Intervall ist:
Zum Nachweis von (iii) betrachten wir für festes y E IR die lineare Funktion
g (x) = x y und erhalten die Darstellung y
(iv) mit
falls y > 0 } falls y = 0 0
falls y > 0
Zur Veranschaulichung der folgende Fälle zeichne man die Geraden g und gß 0
Cty y
Fall1: O< a .o Dann ist Tz = U (axY,ßxY) = (az,ßz) mit - y Q <y<ß y y
{ a" falls "x> 0 } ß=VA falls ßx>O} az = axßY falls ax<O ' z ß a falls ßx<O X y X y
Fall 2: ßy< O.o Dann ist T = U (ßxY,axy) = (az,ßz) mit z Q <y<ß y y
" = { ß.A falls ßx>O } ß = { "xaY falls a >O } x-z ß a falls ßx<O z aß falls ax<O X y X y
Fall 3: O<a - X oder ß < 00 x-Nach Vertauschen von X mit Y ergibt sich (iii) aus FallJ oder Fall 20
Fall4: ay<O<ßy und ax<O<ßx
Dann ist Tz = U gy[(ax,ßx)] = (az,ßz) mit ay<y<ßy
az = Min {axßy, ßxay}, ßz = Max {axaY, ßxßy}o D
Beweis von
(4) für a E IR und
+oo J IY 1-f(zy, Y) dy für zE IR 0
-00
Faltungen von Verteilungen 808016
Völlig analog (3)0 Für die Verteilungsfunktion Fz von Z =:gilt für a E IR:
( i) X Fia) = P{ y <a}
B 6-25
J f(x,y) d(x,y) {(x,y) I f:::; a}
~/~ [ J f(x,y) dx] dy - oo {(x,y) I f:::; a}
Wegen .!!:..<a y-
= J [ J f(x,y) dx] dy lR\{0} {ylxoy:::;a}
{
x < ay
x > ay
für y > 0 }
für y < 0 folgt
_l [ arf(x,y) dx l dy + l [ _ff(x,y) ax] ay
Substitution: x = z 0 y , dx = y 0 dz
_l [ T"y f(zy,y) dz l dy +
_l [ _i-y f(zy,y) dz l dy +
_l [ _iiYI f(zy,y) dz l dy +
_t [ _[IYI f(zy,y) dz] dy
l [ _[ y f(zy,y) dz] dy
(auch für y = 0 !)
Vertauschung der Integrale (Satz von Fubini)
Wir zeigen noch, daß der Träger von Z ein offenes Intervall ist:
(iii) Tz = {: I ax < x<ßx, ay < y <ßy} = (az,ßz)o
Wegen Y;=O ist 0\t(ay,ßy), also ßy<O oder O<ayo Dann hat Y-1 den Träger
( a;\ ß;1) und wegen Z =X 0 y-1 folgt (iii) aus dem Beweis von (3)(iii) mit y-1 statt
y D
Erwartungswert und Varianz 15.1.16 B7-1
7. Parameter von Verteilungen: Erwartungswert, Varianz, Schiefe, Covarianz und Korrelation
7.2 Grundlegende Eigenschaften des Erwartungswerts
Beweis von
(1) L(X) = Dirac(a) d.h. P {X= a} = 1 E(X) =a.
Wegen T = { a} folgt: E(X) = 2:= X 0 p {X= X} a · P {X= a} = a. xET
Beweis von
Satz 1: Sei X: .f2-----+ IR n ein n-dimensionaler diskreter Zufallsvektor mit Träger
T =X[ D] und g: IR n-----+ IR sei meßbar. Wenn E[g(X)] E IR existiert, so gilt
(9) E[g(X)] = 2:= g(x) ·P{X=x} xET
und die Reihe konvergiert sogar absolut. Umgekehrt folgt aus absoluten
Konvergenz der Reihe auch die Existenz von E[g(X)] E IR.
Zusatz: Für g(X) > 0 gilt (9) auch dann noch, wenn E[g(X)] = oo ist.
Y = g(X) hat den Träger S = g[ T]. Der Träger T von X läßt sich disjunkt zerlegen:
( i) T = TniRn = Tn Ug-1{y} yES
Fall 1: T ist endlich. Dann gilt
( ii)
Mit
( iii)
2:= g(x) . P {X= x} xET
2:= 2:= g(x). P {X= x} y Es x E T n g-1{ y} II
y
2:= y 0
[ 2:= p {X = X}] y ES xE Tng-1{y}
2:= y·P{XETng-1{y}} yES
P{XETng-1{y}} =P{XEg-1{y}} = P{Y=y}
2:= g(x) ·P{X=x} 2:= y ·P{Y=y} = E(Y). xET yES
folgt
D
Erwartungswert und Varianz 15.1.16 B7-2
Fall 2: T ist abzählbar und g(X) > 0.
Mit dem Umordnungssatz für Reihen gilt die Herleitung von ( iii) aus FallJ auch hier,
wobei auch beide Seiten oo sein können (was den Zusatz beweist).
Fall 3: T ist abzählbar. Nach Fall 2 angewandt auf lg(X) I> 0 gilt
(iv) 2:= I g( X) I 0 p {X= X} 2:= IYI·P{Y=y} xET yES
wobei die linke Reihe gerrau dann endlich ist, wenn die rechte Reihe dies ist. Folglich
ist die linke Reihe in (iii) gerrau dann absolut konvergent, wenn die rechte Reihe
dies ist, und in diesem Fall gilt die Herleitung von ( iii) auch für abzählbares T. D
Erwartungswert und Varianz 15.1.16 B7-3
Beweis von
Satz 2: Sei X: .f2-----+ IR eine stetige Zufallsvariable mit Träger T = ( a, ß) C IR
deren Dichte f: T-----+ [ 0, oo) in höchstens endlich vielen Punkten unstetig ist.
Weiter sei g: T-----+ IR meßbar. Wenn E[g(X)] E IR existiert, so gilt
ß (10) E[g(X)] = J g(x) -f(x) dx,
und das Integral konvergiert sogar absolut. Umgekehrt folgt aus absoluten
Konvergenz des Integrals auch die Existenz von E [g(X) J E IR.
Zusatz: Für g(X) > 0 gilt (10) auch dann noch, wenn E[g(X)] = oo ist.
Wir beweisen Satz 2 hier nur für die folgenden Spezialfälle stetiger Funktionen
• streng monotones1 stetig-differenzierbares g mit endlicher Menge {g' :;= 0},
• Absolutbetrag:
• Potenzen:
• absolute Potenzen:
g(x) = lxl' g(x) = xk
g(x) = lxlr für kE W,
für r> 0.,
Sei Z = g(X) und D sei die endliche Menge der Unstetigkeitsstellen von f.
Spezialfall1: g ist streng wachsend auf T und N = {g' 7: 0} ist endlich.
Z hat den Trägerg [ T] = (g( a), g(ß)) und für die Dichte von Z gilt nach 4.4 Satz 1
( i)
Fall a:
( ii)
fx(g-\z)) fz(z) = g'(g -l(z)) für g( a) < z < g(ß), z \t g[ N].
N = 0. Dann ist fz stetig auf g [ T] und es gilt
g(ß) J lzl-fz(z) dz
g(rx)
g(ß) fx(g-1(z))
g(~ lzl· g'(g-l(z)) dz
Substitution z = g(x),
ß dz = g'(x) · dx
J lg(x) 1-fx(x) dx
auch wenn die Integrale unendlich sind (womit der Zusatz bereits gezeigt ist). Wei
ter existiert E(Z) gerrau dann, wenn das rechte Integral endlich ist. In diesem Fall
folgt analog ( ii) - mit z statt I z I g(ß) ß
E(Z) = J z · fz(z) dz g(rx)
( iii) J g(x) -fx(x) dx.
Erwartungswert und Varianz 15.1.16 B7-4
Fall b: N = { c1, ... , cK} wobei c0 : = a < c1 < ... < cK < cK + 1 : = ß.
Für k = 0, ... ,K ist fz auf dem Intervall Ik = (g( ck) 1 g( ck+ 1)) stetig und analog ( ii) gilt
J lzl-fz(z) dz = J lg(x) 1-fx(x) dx, J z -fz(z) dz = J g(x) -fx(x) dx. Ik Ik Ik Ik
Summation über alle k = 0, ... ,K liefert (ii), (iii) und der Rest folgt wie im Fall a. D
Spezialfall 2: g( x) =- x
Z = g(X) =-X hat den Träger (- ß,- a) und nach 4.4.1 ( 6) die Dichte
( i) für - ß < z < - a . -(X
Also ist E( Z) = J z f (- z) dz -ß X
ß Substitution x = - z
J xf (x) dx ß X
J g(x)fx(x) dx. (X
wobei das letzte Integral gerrau dann absolut konvergent ist, wenn E(X) existiert.
Insbesondere haben wir gezeigt:
( ii) E(-X) = -E(X)
Spezialfall 3: g ist streng fallend auf T und N = {g' 7 0} ist endlich.
D
Dann ist h(x) =- g(x) streng wachsend und wegen lh(x)l = lg(x)l gilt (ii) aus Spezialfall
1 auch hier. Und für h stattgergibt sich im SpezialfallJ aus (iii) ß
(i) E(- Z) = J- g(x) -fx(x) dx.
Nach Spezialfall2 gilt E(-Z) = -E(Z) und somit folgt (10) aus (i). D
Erwartungswert und Varianz 15.1.16 B7-5
Spezialfall 4: absolute Potenzen (inklusive Absolutwert)
Es sei g(x) = lxlr mit r > 0 (also inklusive r = 1). Für Tc (0, oo) ist g streng wachsend
auf T und es liegt der SpezialfallJ vor. Und für TC(- oo, 0) ist g streng fallend auf T
und es liegt Spezialfall 3 vor. Zu zeigen bleibt also nur der Fall a < 0 < ß bei dem
IX Ir den Träger hat
( i) [ 0, "()
Mit der Dichte von I X Ir aus 4.4.2 (2)
( ii)
folgt 1
E(IXIr) = d y -flxlr(Y) dy
1 = ~ ; y1/r [f x(y1/r) + f x( _ y1/r)J dy
5 + jzrfx(-z)dz
0
-5 - J (-uf fju) du
0 5 -5 J lzlr fx(z) dz - J lulr fx(u) du
0 0 5 J lxlr -fjx) dx
-5
mit
für 0 < y < "(
S b . . 1/r r u sbtubon z = y , y = z
d r-1d r -1/rd y=rz z=rz y z
8 = "(1/r = max{- a,ß}
Substitution u =- z
wobei die Integrale auch unendlich sem können. Wegen - 8 < a und ß < 8 ist
Tc(- 8, 8). Dafx auf dem Komplement von Tidentisch Null ist, folgt weiter:
ß E(IXIr) = J lxlr -fx(x) dx. D
(X
Spezialfall 5: Potenzen g(x) = i mit k E W.
Für ungerades k ist g streng wachsend und die Behauptung folgt aus dem Spezialfall
1. Und für gerades k ist g(x) = lxlk und die Behauptung folgt aus dem Spezialfall4. D
Erwartungswert und Varianz 15.1.16 B7-6
Beweis von (unter Verwendung von Satz 1 und Satz 2)
(2) E(a + ßY) = a + ßE(Y) für a,ßE IR,
Für ß = 0 folgt (2) aus (1). Für ß ;= 0 ist die Funktion g(x) = a + ßx streng monoton
und (2) ergibt sich mit Satz 1 bzw. 2 wie folgt.
Diskreter Fall: Für diskretes Y mit Träger T lautet (9) aus Satz 1
( i) E [ a + ß Y] = 2:= ( a + ß y) · P { Y = y} yET
= a + ß . 2:= y . P { Y = y} = a + ß E(Y). yET
Da E(Y) E IR existiert, sind die Reihen in (i) absolut konvergent, weil
2:= la+ßyi·P{Y=y} < lal+lßl· 2:= IYI·P{Y=y} < oo. yET yET
Also existiert E[a + ßY] nach Satz 1 und (i) gilt.- Für Y> 0 und ß> 0 gilt (i) übri
gens auch falls E(Y) und somit auch E[a + ßY] unendlich sind.
Stetiger Fall: Für stetiges Y mit Träger T = ( "(, 8) und Dichte f lautet (10) aus Satz 2 5 5
( ii) E [ a + ß Y] = J ( a + ß y) -f(y) dy = a + ß · J y -f(y) dy = a + ß E(Y) . 1 1
Da E(Y) E IR existiert, sind die Integrale in (ii) absolut konvergent, weil 5 5
J la+ßyl-f(y) dy < Iai + lßl· J IYI-f(y) dy < oo · 1 1
Also existiert E[a + ßY] nach Satz 2 und (ii) gilt.- Für Y> 0 und ß> 0 gilt (ii) übri-
gens auch falls E(Y) und somit auch E[a + ßY] unendlich sind. D
Erwartungswert und Varianz 15.1.16 B7-7
Beweis von (unter Verwendung von Satz 1)
(3) E(X + Y) = E(X) + E(Y),
wobei für X> 0 und Y> 0 auch deren Erwartungswerte unendlich sein dürfen.
Wir zeigen die Behauptung hier nur für den Fall, daß X und Y beide diskret oder
beide stetig verteilt sind und verweisen für den allgemeinen Fall auf die Maß- und
Wahrscheinlichkeitstheorie.
Stetiger Fall: (XY) sei stetig verteilt mit der Dichte f.
Nach 4.7 (9) und 6.3 (1) ergeben sich die Dichten von X, Y und Z =X+ Y wie folgt
+oo +oo ( i) fx(x) 1 f(x, y) dy, fy(y) = 1 f(x, y) dx für x, y E IR.
-00 -00
+oo fiz) = 1 j( X, Z- X) dx für zE IR.
-00
Die folgende Herleitung verwendet zwar das Lebesgue-Integral, gilt aber auch für
das Riemann-Integral, wenn man zusätzlich voraussetzt, daß die Dichten in (i)
höchstens endlich viele Unstetigkeitstellen haben. +oo
Es ist E(Z) = 1 z · fiz) dz -00
( ii)
( iii)
(iv)
( v)
Zu zeigen bleibt noch die absolute Konvergenz des Integrals in (ii) bzw. (iii). Analog
der Herleitung von ( v) aus ( iii) ergibt sich mit I x + y I < I x I + I y I beim Übergang von
(iii) auf (iv) die Ungleichung:
Erwartungswert und Varianz 15.1.16 B7-8
Weil E(X), E(Y) existieren ist die rechte und somit auch die linke Seite endlich.
Für X> 0 und Y > 0 gilt die Herleitung von ( v) - und somit ( 3) - auch noch wenn
E(X) = oo oder E(Y) = oo.
Diskreter Fall: X und Y sind diskret mit Träger T X und T Y
Dann ist (X, Y) : .f2-----+ IR 2 diskret mit Träger T = T x x T Y und Satz 1 liefert
(vi) E(X + Y) 2:: (X + y) 0 p {X= x, y = y} (x, y) E T
( vii) 2:: X 0 p {X= x, y = y} (x, y) E T
+ 2:: y · P {X= x, Y = y} (x, y) E T
2:: X ( 2:: p {X= x, y = y }) + xETx y ETy
2:: y ( 2:: P {X= x, Y = y }) y E Ty x ETx
( viii) 2:: x·P{X=x} xETx
E(X)
+ 2:: y. P{Y=y} yETy
+ E(Y)
Zu zeigen bleibt noch die absolute Konvergenz der Reihe in ( vi). Analog obiger Her
leitung ergibt sich mit I x + y I< I x I +I y I beim Übergang von ( vi) auf ( vii) die Unglei
chung:
2:: I X + y I 0 p {X= x, y = y} < 2:: I X I 0 p {X= X} + 2:: I y I 0 p { y = y} (x,y) E T xE Tx y E Ty
Weil E(X), E(Y) existieren ist die rechte und somit auch die linke Seite endlich.
Für X> 0 und Y> 0 gilt die Herleitung von (viii) -und somit (3) -auch noch wenn
E(X) = oo oder E(Y) = oo. D
Beweis von
(4) E(aX + ßY) = aE(X) + ßE(Y) für a,ßE IR.
Es ist: E(aX + ßY) (3) E(aX) + E(ßY) (
2) aE(X) + ßE(Y). D
Erwartungswert und Varianz 15.1.16 B7-9
Beweis von
(5) X, Y stochastisch unabhängig E(X. Y) = E(X) . E(Y) .
wobei für X> 0 und Y> 0 auch deren Erwartungswerte unendlich sein dürfen.
Wir zeigen die Behauptung hier nur für den Fall, daß X und Y beide diskret oder
beide stetig verteilt sind und verweisen für den allgemeinen Fall auf die Maß- und
Wahrscheinlichkeitstheorie.
Stetiger Fall: (XY) sei stetig verteilt mit der Dichte f.
Nach 4.7 (9) und 6.3 (3) (5) lauten die Dichten von X, Y und Z =X· Y wie folgt
+oo +oo ( i) j X( X) = 1 j( X, y) d y , f y(Y) = 1 f( X, y) dx für x, y E IR
-00 -00
00 0
fiz) = J ~-f)x) -fy(~) dx - _L ~-f)x) -fy(~) dx für zE IR
Die folgende Herleitung verwendet wieder das Lebesgue-Integral, gilt aber auch für
das Riemann-Integral, wenn man zusätzlich voraussetzt, daß die Dichten in (i)
höchstens endlich viele Unstetigkeitstellen haben. +oo
Es ist E(Z) 1 z ·fiz) dz -00
( ii) _t [_b fx(x) !)~) dx] rlz
Integration vertauschen (Fubini)
_l [_t ~ fx(x) !)~) rlz] dx
Substitution: y = !_, dy = .l. dz X X
llt xy fx(x)fy(Y) dy] dx - _l [+[,"" xy fjx) fy(y) dy] dx
Integrationsgrenzen vertauscht
O[+oo l + _L _L xy -fx(x) -Jy(y) dy dx
Erwartungswert und Varianz 15.1.16 B 7-10
( iii) E(Z) _t [_t xy -fx(x) -fy(Y) dx] dy
(iv) [_tx fx(x) dx ]· [_tY !y(y) dy]
= E(X) ·E(Y)
Zu zeigen bleibt noch die absolute Konvergenz der Integrale in (iii) bzw. (iv). Wegen
ist die rechte und somit auch die linke Seite endlich, weil E(X), E(Y) existieren.
Für X> 0 und Y> 0 gilt die Herleitung von (iv) - und somit (5) - auch noch wenn
E(X) = oo oder E(Y) = oo.
Diskreter Fall: X und Y sind diskret mit Träger T X und T Y
Dann ist (X, Y) : .f2-----+ IR 2 diskret mit Träger T = T x x T Y und Satz 1 liefert
( i) E(XY) =
( ii)
2::: X 0 y 0 p {X= x, y = y} (x, y) E T
2::: x · y · P {X= x} · P {Y = y} da X, Y stochastisch unabhängig (x, y) E T
2::: 2::: x·y·P{X=x} ·P{Y=y} xETx y ETy
( 2::: x · p {X= x }) xETx
( 2::: y 0 p { y = y }) yETy
E(X) E(Y)
ggf. mit Umordnungssatz für Reihen (vgl. unten)
Zu zeigen bleibt noch die absolute Konvergenz der Reihe in ( i). Mit I x y I statt x y er
gibt sich aus obiger Herleitung
2::: I X 0 y I 0 p {X= x, y = y} = ( 2::: I X I 0 p {X= X}) 0
( 2::: I y I 0 p { y = y }) (x,y) E T xE Tx y E Ty
Weil E(X), E(Y) existieren ist die rechte und somit auch die linke Seite endlich.
Für X> 0 und Y > 0 gilt die Herleitung von ( ii) - und somit (5) - auch noch wenn
E(X) = oo oder E(Y) = oo. D
Erwartungswert und Varianz 15.1.16 B 7-11
Beweis von
(6)
(7)
X>O
X<Y
E(X) > 0,
E(X) < E(Y),
wobei in (7) für X> 0 die Erwartungswerte auch unendlich sein dürfen.
(8) IE(X) I< E(IXI).
ad {6): X> übedeutet T=X[D] c[O,oo)
Für diskretes X ist:
Für stetiges X mit Dichte f ist:
E(X) 2:: x·P{X=x} > 0. xET
E(X) = 1 x -f(x) dx T
> 0.
1. Beweis von (7): Wir zeigen die Behauptung hier nur für den Fall, daß X und Y
beide diskret oder stetig verteilt. Die Differenz Y- X ist dann auch diskret oder (nach
6.3) stetig verteilt und es gilt nach ( 6)
X<Y Y-X>O E(Y-X) > 0.
Also E(Y) = E([Y- X] +X) = E(Y- X) + E(X) > E(X) vgl. (3),
wobei für X> 0 und Y- X > 0 deren Erwartungswerte auch unendlich sein dürfen.
2. Beweis von (7): Wir verwenden die Darstellung der Erwartungswerte durch die
Verteilungsfunktionen F x und F Y von X und Y ( vgl. 7.1 Satz, der hier allerdings
nicht bewiesen wurde). Wir zeigen zuerst
( i) X<Y F <F, y- X
ad (i): Wegen {Y < a} C {X< a} folgt für jedes a E IR
F y( a) = P {Y < a} < P {X< a} = F x( a). +oo 0
Dann ist E(X) = 1 [1-F (x)] dx - 1 Fx(x) dx 0 X -oo +oo 0
< 1 [ 1-F ( x)] dx - 1 F y( x) dx 0 y -00
wobei E(X) für X> 0 auch unendlich sein darf.
1-F < 1-F x- Y
nach (i)
E(Y)
ad (8): ±X< lXI * ± E(X) = E( ±X) < E( IX I)
IE(X) I< E(IXI) 0
vgl. (2) (7)
D
D
Erwartungswert und Varianz 15.1.16 B 7-12
7.3 Erwartungswerte spezieller Verteilungen 7.3.1 Erwartungswerte spezieller diskreter Verteilungen
Beweis von
(1) E[DG(n)] = n+ 1 2
bzw. L(X) =DG(n)
E(X) = I: i·P{X=i} = (.I: i). ~ = n(ni 1). ~
i=l z=l
n+1 2 0
Beweis von
(2) E[B(n,p)] = np bzw. =? E(X) =np.
Spezialfall n = 1: Für X"' B(1,p) gilt die Beh., weil
E(X) = 2:: X 0 p {X= X} = 0 ° p {X= 0} + 1 ° p {X= 1} = p 0
xE {0,1}
Allgemeiner Fall: Für stochastisch unabhängige X."' B(1,p) mit i = 1, ... , n gilt z
n n E( l:=X.) = l:=E(X.)
0 z 0 z z=l z=l
n Wegen l:=X. "' B(n,p)
0 z z=l
Beweis von
(3)
n 2:: p = np i=l
bzw.
vgl. 7.2 (3) und SpezialfalL
folgt die Beh.
L(X) = Pois(~t) =? E(X) =~t.
D
D
(4)
E[Pois(~t)] = fL
E[NB(n,p)] = n(1;P) bzw. E(X) = n(1-p). p
Übung!
Beweis zu
(5) P{X=n} 1 n (n t 1)
Mit 1 1 1 n(n+1)- n- n+1 und 1 1 - N+1
für nE W,
--::-::----+ 1 N---+oo
ergibt sich, daß durch (5) eine Verteilung auf dem Träger W definiert ist. D
Erwartungswert und Varianz 15.1.16 B 7-13
7.3.2 Erwartungswerte spezieller stetiger Verteilungen
Beweis von
(1) E[SG(a~ß)] = a~ß
ß
bzw. L(X) =SG(a1 ß) =? E(X) = a~ß.
E(X) = 1 x · ~ dx (X
1.. [ .1. x2 J ß mit L1 = ß- a L1 2 Q
Es ist:
Die absolute Konvergenz des Integral folgt aus der Beschränktheit von T = (a 1 ß). D
Beweis von
(2) bzw. * E(X) =p,.
Spezialfall: p, = 0, a = 1. Wir zeigen zuerst, daß E(X) "existiert", d.h.
+oo ( i) 1 I x I · <p( x) dx < oo mit
-00
1 { 1 2} <p(x) = -----= exp -- x yi2K 2 '
ad (i): Es ist
00 00
( ii) 1 x · <p(x) dx = - 1 <p 1(x) dx = <p(O)- <p(oo) <p(O) ' 0 0
0 0 (iii) 1 x · <p(x) dx = - 1 <p 1(x) dx = <p(- oo)- <p(O) = - <p(O) .
-00 -00
+oo 0 oo Also 1 I x I· <p(x) dx = 1 - x · <p(x) dx + 1 x · <p(x) dx = 2 <p(O) und (i) gilt.
-00 -00 0
+oo 0 00
Nun ist: E(X) 1 x · <p(x) dx 1 X · <p( X) dx + 1 X · <p( X) dx -00 -00 0
= - <p(O) + <p(O) = 0, vgl. (ii)(iii).
Allgemeiner Fall: p,, a beliebig. Für U"' N(O, 1) ist nach dem Spezialfall E(U) = 0.
Es folgt L(p, + a U) = N(p,, a 2)
E(p, + a U) = p, + a E( U) = p, ,
vgl. 4.4.1 (7)
vgl. 7.2 (2). D
Erwartungswert und Varianz 15.1.16 B 7-14
Beweis von
(3) E[Gam(a1 ß)] =aß bzw. L(X) = Gam(a1 ß) ::::} E(X) =aß 1
(5) E[Gam(a~ßr] = r~(~r) ßr bzw.
L(X) = Gam(a1 ß) ::::} E( xr) = r( rx + r) ß r r(rx) für r> 0.
(6) k k k-1
E[Gam(a1 ß) ] = ß TI (a+i) bzw. i=O
k k k-1 L(X) = Gam(a1 ß) ::::} E(X ) = ß TI ( a + i) für kE W.
i=O
ad (3): (3) folgt aus (6) für k = 1.
ad (5):
Spezialfall: ß = 1 . Bezeichnet f(x I a) die Dichte von U"' Gam(a,1), so gilt
00
( i) E(Ur) = 1 xr -f(x I a) dx 0
(da der Integrand > 0 ist, ist das
00 Integral auch absolut konvergent)
1 r 1 rx-1 -x d 0 X . T(rx) X e X
00
r(rx+r) 1 1 x(rx+r)-1e-x dx r(rx) 0 r(rx + r)
00
r( (X + r) 1 !(X I a + r) dx - r( (X + r) r(rx) 0 r(rx)
Allgemeiner Fall: ß beliebig. Für X "' Gam( a,ß) ist
U = ß-1x"' Gam( a, 1) vgl. 6.2.2 (3)
und mit dem Spezialfall folgt die Behauptung.
ad (6): Aus T(x+1) = r(x) 0 X ergibt sich für kE w rekursiv k-1
T(a+k) = T(a) ·a·(a+1) · ... ·(a+k-1) r( a) . TI ( a + i) , i=O
und mit (5) für r = k folgt die Behauptung ..
D
D
D
Erwartungswert und Varianz 15.1.16 B 7-15
Beweis von
(7) E[/'+exp{N(a,ß2)}] = "( + exp{a+ ~ß2 } bzw.
L(X) = N(a,ß2) =? E[/' + eX] = "( + exp{ a + ~ ß2}.
Es ist X= a+ßU mit U=l(X-a) ~ N(0,1). ß
Also E['"Y + exp{X}] = E['"Y + exp{ a} · exp{ß U}]
= '"Y + exp { a} · E [ exp {ß U} J vgl. 7.2 (2).
Die Beh. folgt, wenn wir zeigen,
( i) M u(ß) : = E [ exp {ß U} J = exp { ~ ß2} für ß E IR
M U ist die sogenannte Moment-erzeugende Funktion von U. Für ß = 0 folgt dies mit
7.2 (1). Für ß;z::. 0 ist g(x) = eßx streng wachsend und mit (dem hier bewiesenen Spezi
alfall von) 7.2 Satz 2 folgt
+oo Es ist E[exp{ß U}] 1 exp{ßx} · <p(x) dx
-00
+oo 1 { 1 } = 1 exp{ßx} · y'27f exp - 2 x
2 dx -00
+oo exp{ ~ ß2
} · 1 ;_ exp {-l (x- ß) 2} dx
- oo V 27r 2
II Dichte von N(ß, 1)
7.3.3 Cauchy-Verteilung
Beweis von
(1)
(2)
Wegen
also
F(x) = ~ + ~ · arctan(x)
arctan'(x) = (1+x2r 1
+oo 1 f(x) dx = F( +oo)- F(-oo)
-00
für xE IR,
für xE IR.
ist F' =f1
D
1. D
Erwartungswert und Varianz 15.1.16 B 7-16
Beweis von
(8) L(W) = SG(- ; , + ; ) oi(tan(W)) = C(0,1).
Die Verteilungsfunktion von W ist nach 4.3.1
F ( w) = l. (w + 7r) = l. + l. w w 7r 2 2 7r für _1. < w < l.
7r 7r
Da tan: (- ; , + ; ) -----+IR streng wachsend ist, ergibt sich die Verteilungsfunktion
von X= tan(VV) nach 4.4 (3) zu
F X(x) = F w( arctan(x)) = ~ + ; · arctan(x) für x E IR, d.h. X"' C(O, 1). D
7.3.4 Anwendung: Das Sammlerproblem
Beweis von
(4)
(6)
ad (4):
an:= E(Xn) = n + E(Y1) + ... + E(Yn_1)
a ~ n·log(2n+1) n
Es ist n-1
E(Xn) = n + k'f1
E(Yk)
n-1
n + k'f1 ( n~ k- 1)
n-1 1 + 2:= _.!!:._
k=1 n- k
[ n-1 ]
n l. + 2:= _1_ n k=1 n- k
n n 2:= ~-. z
z=1
n-1
2:= 1 n -
n- k k=O
ad {6): Es gilt approximativ (Veranschaulichung durch Skizze!)
n nt..!. 2
n n 2:= ~-. z
z=1
2:=~ 0 z ~ J ; dx = log(n +~)-log(~) = log(2n + 1) und ( 6) folgt. z=1 1
2
D
Erwartungswert und Varianz 15.1.16 B 7-17
7.4 Varianz und Standardabweichung
Beweise zu
Die Varianz von X existiert ( d.h. ist endlich) gerrau dann, wenn der Erwartungswert
E(X2) existiert ( d.h. endlich ist) und läßt sich berechnen als
Nebenbei bemerkt ergibt sich mit der Abschätzung lXI < 1 +X2 auch die Existenz
von E(X) aus der von E(X2).
Aus [X-0]2 = x2_ 20X + 02 < x2 + 2I0IIXI + 02
und X2 = [X- 0] 2 + 20X- 02 < [X- 0] 2 + 210IIXI
folgen mit der Linearität und Monotonie des Erwartungswerts - vgl. 7.2 ( 4) und (7) -
(i) Var(X) = E([X-~t] 2 ) < E(X2) + 2l~tiE(IXI) + ~t2
(ii) Var(X) = E([X-~t] 2 ) = E(X2 -2~tX+~t2 )
= E(X2)- 2~tE(X) + ~t2 = E(X2
)- ~t2 .
(iii) E(X2) < E([X-~t] 2 ) + 2l~tiE(IXI)
Da E(X) existiert, ist E(IXI) endlich, und nach (i) und (iii) ist Var(X) gerrau dann
endlich, wenn E(X2) endlich ist.
Aus I X I < 1 + IX Ir für r > 1 folgt mit 7.2 (7) (8)
E(IXI) < 1 + E(IXIrL
und somit existiert E(X) falls E(IXI r) für ein r > 1 (z.B. r = 2) endlich ist. D
Erwartungswert und Varianz 15.1.16 B 7-18
Beweis von
( 6) Var ( a + ß Y) = ß 2 · Var(Y) für a, ß E IR,
Esist E(a+ßY) = a+ßE(Y) = a+ßp, mit p,=E(Y).
Also Var(a+ßY) = E{[(a+ßY)- (a+ßp,)] 2}
= E{ ß2(Y- p,) 2} = ß 2
. E{(Y- p,) 2} - ß 2
· Var(Y) . D
Beweis von
(8) Var(X + Y) = Var(X) + Var(Y) + 2 · E( [X- E(X)] · [Y-E(Y)])
(9) Cov(X, Y) : = E( [X- E(X)] · [Y- E(Y)]) ( Covarianz von X und Y)
= E(X Y) - E(X) · E(Y) .
ad {8): Für p, X: = E(X) , f-Ly: = E(Y) ist
Also Var(X + Y) = E{ [(X+ Y)- (p,x+ f-Ly)] 2}
= E{ [(X- 1-Lx) + (Y- f-Ly)] 2}
= E{ [X- 1-Lx] 2 + [Y- !-Ly] 2 + 2[X- 1-Lxl· [Y- 1-Ly]}
= E{[X- 1-Lx] 2} + E{ [Y- !-Ly] 2
} + 2E{ [X- 1-Lxl· [Y- 1-Ly]}
= Var(X) + Var(Y)
ad {9): Wir setzten die Existenz der Erwartungswerte in (9) hier voraus und zei-
gen dies erst im Beweis zu 7.8.1 (1) -sofern die Varianzen von X und Y existieren.
Für 1-Lx: = E(X) , 1-Ly: = E(Y) ist
Cov(X, Y) = E( [X- 1-Lx)J · [Y- 1-Lyl)
= E( XY- 1-Lxy- 1-Lyx + 1-Lxf-Ly)
= E( XY) - 1-LxE(Y) - 1-LyE(X) + 1-Lxf-Ly
= E( XY) - 1-Lxf-Ly. D
Erwartungswert und Varianz 1501.16 B 7-19
Beweis von
(7)
(10)
X, Y stochastisch unabhängig ::::}
X, Y stochastisch unabhängig ::::}
Var(X + Y) = Var(X) + Var(Y) 0
Cov(X, Y) = 0 0
ad {10): Sind X, Y stochastisch unabhängig, so folgt (5.3 Satz 1)
[X- p, X], [Y- f-Ly] stochastisch unabhängig
Also Cov(X, Y) = E([X -E(X)]o [Y -E(Y)])
= E([X-E(X)l) OE([Y-E(Y)l) vgl. 7.2 (5)
= 0 ° 0 = 00
ad (7}: Folgt aus (8) und (10)0 D
Beweise zu
(11) U = X-E(X) =X 0 mit p, =E(X), a 2 = Var(X) SD(X) a
(12) E(U) = 0, Var(U) = 10
Es ist E(U) E( X a 0) = ; 0 [ E(X) -p, J 0 vgl. 7.2 (2)
Var(U) Var( X 0) = .lo Var(X) a a2
1 vgl. ( 6)0 D
Erwartungswert und Varianz 15.1.16
7.5 Varianzen spezieller Verteilungen
7.5.1 V arianzen spezieller diskreter Verteilungen
Beweis von
(1)
(2)
Var [Dirac(a)] = 0.
Var[DG(n)] = n2
- 1 . 12
ad (1): Für X "' Dirac( a) ist p, = E(X) = a nach 7.2 (1) und
E(X2) = a2·P{X=a} = a2
,
Var(X) = E(X2)- [E(X)] 2 = a
2- a2 0.
ad (2): Für X"' DG(n) gilt mit 7.2 Satz 1 n n
E(X2) = _2:: i2·P{X=i} = (.2:: i2). ~ _ n(n+1l(2n+1) ~ z=l z=l
Also: Var(X) = E(X2)- [E(X)]2 = (n+1l(2n+1)_ [(n~1)]2
= 112 [ 2(n + 1)(2n + 1)- 3(n + 1) 2]
= 112 (n + 1) [ 4n + 2- 3n- 3 J = 1
12 (n + 1)(n-1)
Beweis von
(3) Var [B(n,p)] npq mit q = 1-p.
Spezialfall: n = 1
Für X"' B(1,p) mit Träger {0, 1} ist X2 =X und somit E(X2) =E(X) = p.
Also Var(X) = E(X2)- [E(X)] 2 = p- p2 = p q.
B 7-20
(n + 1)(2n + 1) 6
Allgemeiner Fall: Für stochastisch unabhängige X."' B(1,p) mit i = 1, ... , n gilt z
n n Var( l:X.) = 2:: Var(X.)
0 z 0 z z=l z=l
n Wegen l:X. "' B(n,p)
0 z z=l
n 2:: pq i=l
npq vgl. 7.4 (7) und n = 1.
folgt die Beh. D
Erwartungswert und Varianz 15.1.16 B 7-21
Beweis von
(4) Var [Pois(~t) J E[Pois(~t)] .
Übung!
Beweis von
(5) n(l-p)
Var [NB(n,p)] = 2 p
Spezialfall n = 1: Im Beweis von 7.6 (12) wird unter Verwendung einer Rekur
sionsformel für die zentralen Momente von X,.....__ Geo(p) gezeigt:
mit q = 1-p.
Allgemeiner Fall: Für stochastisch unabhängige X.,.....__ Geo(1,p) mit i = 1, ... , n gilt z
n n n Var( l:X.) = 2:: Var(X.)
0 z 0 z 'I\' qp-2 -2 u = n. qp vgl. 7.4 (7) und n = 1
z=l z=l i=l n
Wegen l:X. '""'"' NB(n,p) 0 z z=l
folgt die Beh. D
Erwartungswert und Varianz 15.1.16 B 7-22
7.5.2 Varianzen spezieller stetiger Verteilungen
Beweis von
Spezialfall: a = 0 , ß = 1 . Für U"' SG(O, 1) gilt mit 7.2 Satz 2 1
E(U2) = 1 u 2 du = [ l.u3
]1
= 1.. 0 3 0 3
Also Var(U) = E(U2)- [E(U)] 2 = ~- (~?
gilt.
1 1 3 4
1 12
Allgemeiner Fall: a, ß beliebig. Für U"' SG(O, 1) ist Var(U) = ~.
d.h. (1)
Es folgt L( a + L1 U) = SG( a 1 ß)
Var(a+ L1 U) = L12 · Var(U)
mitL1=ß-a .j2. l
12
vgl. 4.4.1 (8)
vgl. 7.4 (6). D
Beweis von
(2) 2 a
Spezialfall: 0 = 0 , a = 1 .
Für U "' N( 0, 1) ist U2 "' x~ = Gam( ~, 2) ( vgl. Übungen!), also
( i) vgl. 7.3.2 (3)
(i) ergibt sich mit <p 1(x) =- x · <p(x) - vgl. Beweis von 7.3.2 (2) - mit partieller Inte
gration auch wie folgt +oo +oo 1 x
2 · <p(x) dx = - 1 x · <p 1(x) dx
+oo +oo = 1 <p( X) dx - [X · <p( X) ]
-00 -00 -00
= 1- [o-o] = 1.
Aus (i) folgt: Var(U) = E(U2)- [E(U)] 2 = 1- 02 = 1, d.h. (2) gilt.
Allgemeiner Fall: 0, a beliebig. Für U"' N(O, 1) ist Var(U) = 1 und es folgt
Es folgt L(0 + a U) = N(0, a 2)
Var(0 + a U) = a 2 · Var(U)
vgl. 4.4.1 (7)
a 2 , vgl. 7.4 ( 6).
-00
D
Erwartungswert und Varianz 1501.16 B 7-23
Beweis von
Nach 7.3.2 ( 6) für k = 2 ist
E(X2
) = ß2 0 a 0 (a +1),
also Var(X) = E(X2)- [E(X)] 2 = ß 2 0 a 0 (a +1)- [aß] 2 = aß2
0 D
Beweis von
(6) Var['y+exp{N(a,ß2)}] = exp{2a+ß2} 0 [exp{ß2}-1]
Es ist X= a+ßU mit U= ~ (X-a) "'N(0,1)0
Also Var [r + exp {X} J = Var [r + exp { a} 0 exp {ß U} J
( i) = (exp{a} )20 Var[exp{ßU}] vgl. 7.4 (6)0
Im Beweis von 7.3.2 (7) wurde gezeigt
( ii) M u(ß) : = E [ exp {ß U} J = exp { ~ ß 2} für ß E IR
Es folgt: Var[exp{ßU}] = E[(exp{ßU})~ - (E[exp{ßU}J?
= E[exp{2 ß U}] - 0 0 0 0 0 0 0 0 0 0 0 0 0
= exp{ 2ß2} - exp{ß2} vgl. (ii)
= exp{ß2} 0 [ exp{ß
2}- 1].
Eingesetzt in ( i) ergibt sich die Beho
D
Erwartungswert und Varianz 15.1.16 B 7-24
7.6* Symmetrie und Schiefe
Beweise zu: Stetiger Fall
(1)' s f(z + ~) = f(~-z) für alle z E IR,
Aus (1)~ ergibt sich (1) bzw. (1)5
wie folgt. Für die Dichten von X- p, und p,-X er
gibt sich mit 4.4.1 ( 6)
f X-~(z) = f(z + ~) = !(~- z) = ~~-X(z) für alle z E IR.
Mit den Dichten sind auch die Verteilungen gleich.
Beweise zu: Diskreter Fall
Für X"' B(n, ~)ist auch (n-X) "'B(n, ~)und für p, =~folgt
L(X) = L(n-X) * L(X-p,) = L(n-X-p,) = L(p,-X).
Beweis von
(2) E(X) existiert und L(X) symmetrisch um ~ ~ = E(X).
Es gilt: L(X-~) =L(~-X) =? E(X-~) =E(~-X)
=? E(X) - ~ = ~-E(X)
=? 2E(X) = 2~ d.h. (2) gilt.
Beweis von
(3) L(X) symmetrisch um p, = E(X), E([X- p,] 3) existiert
E([X-tt] 3) = 0.
Für beliebiges ungerades n E W (insbesondere n = 3) gilt:
D
D
D
L(X-p,) = L(p,-X) =? oi([X-p,]n) = oi([p,-X]n) = oi(-[X-p,]n)
=? E([X-ttt) = -E([X-ttt)
=? E([X-ttt) = 0. D
Erwartungswert und Varianz 15.1.16 B 7-25
Beweis von
(5) p,iX) = E(X3) - 3E(X2) · E(X) + 2 [E(X)] 3
= E(X3)- p, (3a2 + p,2) mit a2 = Var(X).
(6) ~-Li a + ßX) = ß3 ·p,iX) für a, ß E IR,
ad (5): p,iX) = E([X -p,] 3) = E(X3- 3p,X2 + 3p,2X- p,3)
= E(X3)- 3p,E(X2) + 3p,2 E(X)- p,3
= E(X3)- 3p,E(X2) + 2p,3
= E(X3)- 3p,(a2 + p,2)+ 2p,3
= E(X3) -p,(3a2 + p,2).
ad (6): p,ia + ßX) = E([(a + ßX)- (a + ßp,)] 3) da E(a + ßX) = a + ßp,
= E(ß3[X -p,)]3)
= ß3 ·E([X -p,)]3) = ß3 ·p,iX).
Beweis von
(7) X und Y stochastisch unabhängig
Für die zentrierten Zufallsvariablen U =X -p,x und V= Y -p,Y gilt:
p,iX+Y) = E(([X+Y]-[p,x+p,y])3)
= E([U+ vf)
= E(U3 + 3U2V + 3UV2 + V3)
= E(U3) + 3E(U2V) + 3E(UV2) + E(V3)
da U2, V bzw. U, V2 unabhängig nach 5.3 Satz 1
= E(U3) + 3E(U2)E(V) + 3E(U)E(V2) + E(V3)
= E(U3) + E(V3)
= p,iX) + ~-LiYJ·
da E(U) =E(V) = 0
D
D
Erwartungswert und Varianz 1501.16 B 7-26
Beweis von
(9) eia ± ßX) ± e3(X) für a, ß E IR mit ß > 00
Für 1-L = E(X) ' a2 = Var(X)
ist E(a±ßX) = a±ßp,' Var(a ± ßX) = ß2a2
und eia ± ßX) = p,3( ß~ [[a ± ßX]- [a ± ß p,]])
= p,3( ± ; [X- p,l)
= ± eiX) vgl. (6) 0 D
Beweis von
(10) ( q- p) 0
( n p q) , (q- p) 0 (npqrl/20
Übung!
Beweis von
(11)
Wir leiten eine Rekursionsformel für das r-te zentrale Moment von X,.....__ Pois(p,) her: 00
(i) 1-L (p,) : = E([X- 1-Lr) = 2:= [k- 1-Lr 0 p ( k I 1-L) ! r E wo! wobei r k=O
( ii) p ( k I p,) = f, e -JL p,k mit der partiellen Ableitung
(iii) :f.lp(klp,) = f,(e-f-lkp,k-l_e-f.lp,k) = ~ (k-p,)op(klp,)
Differenzieren von ( i) liefert
Erwartungswert und Varianz 1501.16
(iv)
Aus
= l. OE([X-0r+1) - roE([X-0r-1) f-L
= ~ 0 0rt1(0) - r 0 0r-1(0)
0rt1(0) = 0 ° [ r 0 0r_1(0) + 0~(0)] 0
0o(0) = 1
B 7-27
vgl. ( iii)
bzwo
ergibt sich nun mit (iv) sukzessiv für r = 0, 1, 2, 3, 4 (r = 4 wird hier nicht gebraucht)
r=O: 01 (0) = 0 ° [ 0 + 0 l = 0 0~(0) = 0
r= 1: 02(0) = 0 ° [ 1 + 0 l = 0 0~(0) = 1
r=2: 0i0) = 0 ° [ 0 + 1] = 0 0~(0) = 1
r=3: 0 i0) = 0 ° [ 3 0 + 1] = 302 + 0 0~(0) = 60 + 1.
Also 0iX) = 0' eiX) = 0-3/2 0 0iX) -1/2 = 0 0
Für das r-te Moment E(Xr) ergibt sich analog (was hier aber nicht benötigt wird):
( v)
= l. 0 E(xr+1) - E(Xr) f-L
E(xr+1) = 0 ° [ E(Xr) + :f-L E(Xr)] 0
vgl. ( iii)
bzwo
D
Erwartungswert und Varianz 1501.16 B 7-28
Beweis von
(12) ~t3[NB(n,p)] = nq(1+q) op-3
Spezialfall: n = 1.
Für X,.....__ NB(1,p) = Geo(p) leiten wir auch erst eine Rekursionsformel her für 00
( i)
( ii)
Ii (q) : = E([X -~tr) = 2:= [k-~tr -!( k I q) ! r E wo! wobei r k=O
1t = E(X) = 1 ~q ,
( iii) ;q~t=(1-qr2 [(1-q)+q]-;2 da p=1-q
! ( k I q) = ( 1- q) l (iv)
( v) ..Q...! ( k 1 q) = ( 1- q) k l-1 - l = l. -! ( k 1 q) 0
[ k-L] = l. -! ( k 1 q) 0
[ k - ~t] 8q q 1-q q
Differenzieren von (i) liefert -analog dem Beweis von (11) -
00 00
= ~02:=[k-~tr+1-f(klq)- r202:=[k-~tr-1-J(klq)) k=O p k=O
= ~ 0 E([X -~tr+ 1 ) - ; 2 ° E([X -~tr-1 )
= ~ 0 Ii r + 1 ( q) - ;2 ° Ii r-1 ( q)
( vi) Ii r + 1 ( q) = q 0 [ ;2 0 Ii r-1 (~t) + Ii ~ (~t) J 0
Aus ~t0(q) = 1
ergibt sich nun mit ( vi) sukzessiv
r=O: Ii~ (q) = 0
bzwo
vgl. (iii)( v)
Erwartungswert und Varianz 15.1.16 B 7-29
r = 1: f.l2(q) = q 0 [ 1..2 + 0 l = q (1- qr2 = q p -2 p
fl~(q) = (1-qr4 [(1-q)2 + 2(1-q)qJ = (1-qr4 [1-q2J
= (1- qr4
( 1- q) ( 1 + q) = ( 1- qr3 ( 1 + q) = p -
3 ( 1 + q)
r = 2: fliq) = q · [ 0 + p - 3 (1 + q)] = q. p - 3 (1 + q).
Also fliX) = fl3(q) = q. p - 3 (1 + q) ,
eiX) = f.l2(qr3/2. fliq) = q-3/2 P3. q. P -3 (1 + q) = q-1/2 (1 + q)
d.h.die Beh. gilt für n = 1.
Allgemeiner Fall: n beliebig.
Da NB(n,p) dien-fache Faltung von NB(1,p) ist, folgt aus (7) und dem Spezialfall
f.l3[NB(n,p)] = n · fl
3[NB(1,p)] = n. q. p - 3 (1 + q)
Mit Var[NB(n,p)] = n · fl2[NB(1,p)] = n. q p - 2
folgt e3[NB(n,p)] = (n q p - 2r 312
. fl3[NB(n,p)] = (nqr112 (1 + q). o
Beweis von
(13)
Spezialfall: ß = 1. Für X "' Gam( a, 1) ergibt sich nach 7.3.2 ( 6) für k = 1, 2, 3
E(X) = a, E(X2) = a(a + 1), E(X3
) = a(a + 1)(a + 2).
Also ist fliX) = E(X3) - 3E(X2
) . E(X) + 2 [E(X)] 3
= a ([ a 2 + 3a + 2] - 3 [ a 2 + a] + 2 a 2) = 2a ,
und mit a 2 = Var(X) = a vgl. 7.5.2 (3)
folgt e3(X) = a - 3 · fliX) = a - 312 · 2a = 2 a - 112 .
Allgemeiner Fall: Für beliebiges ß> 0 ist ßX"' Gam(a1 ß), vgl. 6.2.2 (3).
vgl. 7.6 (6)
vgl. 7.6 (8). D
Erwartungswert und Varianz 1501.16 B 7-30
Beweis von
(14) ~t3 [/' + exp{ N( a,ß2)}] = e3
a w3 (w2 -1)2 (w2 + 2) ,
e3
[/' + exp{ N(a,ß2)}] = (w2 -1)1/2 (w2 + 2)
Für U"' N(O, 1) ist X:= a +ß U"' N(a,ß2) und
( i) ~t3 [/' + exp{X}] = ~t3 [/' + ea 0 Y] mit
= e3a OIL3 (Y)
( ii) e3b + exp{X}] = e3b + ea 0 Y] = eiY)
Im Beweis von 7.3.2 (7) wurde gezeigt
Y:= exp{ßU}
vgl. 7.8 (6)
vgl. 7.8 (8)0
(iii) Mu(t) == E[exp{tU}] = exp{ ~ t2} für tEIR
Es folgt: E(Yk) = E[ exp{ß U} k] = E[ exp{k ß U}] = exp{ ~ k2 ß2} = w k2
und ~tiY) = E(Y3)- 3E(Y2
) 0 E(Y) + 2 [E(Y)] 3
= w9
- 3w4w + 2w3 = w3 [w6
- 3w2 + 2]
3[ 6 4 4 2 2 ] = w w + 2w - 2w - 4w + w + 2
= w3 [(w4
- 2w2 + 1)(w2 + 2)] = w3 (w2-1)2(w2 + 2),
also ~t3 [/'+exp{X}] = e3aw3 (w2-1)2(w2+2) 1 nach (i)
Und mit a 2 = Var(Y) = E(Y2)- [E(Y)] 2 = w4
- w2 = w2(w2-1)
folgt eiY) = a-3 o~t3(Y) = w-3 (w2-1r312 ow3 (w2-1)2(w2 +2)
= ( w2 -1)1/2 ( w2 + 2)
nach (ii)o D
Erwartungswert und Varianz 15.1.16
7.7 Die Ungleichungen von Chebyshev und Markov
Beweis von
Ungleichung von Markov: Für eine reelle Zufallsvariable Z und r > 0
existiere das r-te absolute MomentE( IZrl). Dann gilt für jedes c > 0 :
(2)
B 7-31
Wir zeigen allgemeiner für eine Zufallsvariable U > 0 und jede streng monoton wach
sende Funktion g: [0, oo)-----+ [0, oo) die Ungleichung
(i) P{ U>c} < 9(c) ·E(g(U)),
woraus sich die Markov-Ungleichung für U = IZI und g(x) = xr ergibt. Für (i) geben
wir zwei Beweise an: der erste verwendet die Monotonie des Erwartungswerts, und
der zweite benutzt (nur) die Darstellung des Erwartungswerts aus 7.2 Satz 1 bzw. 2.
1. Beweis von (i): Für die Zufallsvariable
( ii) falls
sonst
U>c bzw.
bzw. Y = g(c) ·l{U~c} = g(c) ·l{g(U)~g(c)}
folgt mit der Monotonie des Erwartungswertes
g(U) > g(c) } < g(UJ .
(iii) E( g( U)) > E(Y) = g( c) · P { Y = g( c)} = g( c) · P { U > c}
Wegen c>O ist g(c) > 0 und Division durch g(c) liefert (i).
2. Beweis von (i):
Stetiger Fall: U sei eine stetige Zufallsvariable mit der Dichte f Dann ist 00
E(g(U)) = 1 g( u)f( u) du 0
00
> 1 g( u) !( u) du c
00
> g(c)1 f(u)du c
dag>O
da g( u) > g( c) für u > c
g( c) 0 p { u > c}
Wegen c>O ist g(c) > 0 und Division durch g(c) liefert (i).
Erwartungswert und Varianz 15.1.16 B 7-32
Diskret Fall: Für diskretes U mit Träger Tc [0, oo) und Zähldichte f ergibt sich
analog zum stetigen Fall (mit Summen statt Integralen):
E(g( U)) = 2:= g( u) f( u) > 2:= g( u) f( u) > g( c) 2:= f( u) = g( c) · P { U > c} . uET c~uET c~uET
Beweis von
(5)
d " a "::::} :
Var(X) = 0
Für p, = E(X) ist zu zeigen
P{X=tt} = 1 bzw.
bzw.
L(X) = Dirac(E(X) ).
P{IX-tti=O} = 1
P{IX-p,I>O} = o (i).
D
Für die aufsteigende Folge An = {IX -p, I> ~} folgt mit der Chebyshev-Ungleichung
für allen
also 0 = lim P(A ) = P( U A ) n---+oo n n E lN n
(Stetigkeit von unten).
Wegen U A = { I X- p, I > 0} nElN n
folgt (i).
ad "{::::": vgl. 7.5.1 (1). D
7.7.1 Normalverteilung
Beweis von
(1) 2 <P(r)- 1
Für U = 1.. (X -p,) "'N(O, 1) gilt a
P{IUI<r} = P{-r<U<r}
= P{U<r}- P{U<-r}
= <P(r) - <P(- r)
= <P(r) - [ 1- <P( r) J vgl. 4.3.3 (3)
= 2 <P(r)- 1. D
Erwartungswert und Varianz 1501.16 B 7-33
7.7.2* Empirische Verteilung
Beweise von
(2) P{X= xo} == 1..o#{k=l,ooo,nlxk=x0}0 z n z
n (3) E(X) = 1.. 2:: xo
n z i=l n
Var(X) = 1.. l:(xo-x) 2 n z
i=l
(5)
n
-==x
2 ==a
X
Mittelwert von x1, 000, x n ,
Varianz von x1, 000, x n °
r-tes Moment von x1, 000 , x n ,
E([X -xr) = ~ 2:: (xi- xr =: p,rx r-tes zentrales Moment von x1, 000, xn,
(6) e3(X) = ~-'3xi~~~3 = .Jii[of_(xi-x)3]o[of_(xi-x)2]-3/2 ==e3xo z=l z=l
ad (2):
ad (3): Folgt aus ( 6) für r = 1 bzwo r = 20
ad (4): Folgt aus 7.7 (3) weil
D
D
P{x-ra <X<x+ra} = l.o#{k=l,ooo,nlx-ra <xk<x+ra} D X X (2) n X X
ad (5): Folgt mit 7.2 Satz 1 und der Darstellung X= x( U) mit U"' DG( n)
ad {6): Aus
n 2:: x(ir 0 P{U = i} i=l
n 2:: [x 0 -xr OP{U=i}
0 z z=l
und ( 4) ergibt sich mit ( 6)
n 'I\' X or 01.. u z n' i=l
1-Lrx 0 D
D
Erwartungswert und Varianz 15.1.16 B 7-34
7.8* Covarianz, Korrelation und linearer Zusammenhang 7.8.1 * Die Covarianz
Beweise zu
(1) Cov(X, Y) : = E( [X -~t) · [Y -~tyl)
= E(XY) -~Lxliy.
( Covarianz von X und Y)
(2) [ E( IXYI) ]2
< E(X2) ·E(Y2
) (Ungleichung von Schwartz).
ad (1): Die Existenz der Erwartungswerte in (1) ergibt sich mit (2) wie folgt
E( IXYI) < VE(X2) ·E(Y2
) < 00
E( I [X- fL) · [Y -~ty]l) < a x · a Y < oo da a X' a Y < oo.
Die Gleichheit in (1) wurde schon in 7.4 (9) gezeigt.
ad (2):
Fall1: a : = E{Y2} > 0.
Aus IXYI < X2 + Y2 folgt E(IXYI) < E(X2) +E(Y2
) < 00
und für b : =- E( IXYI) E IR ergibt sich
0 < E{ [aiXI + biYIJ~ = a2
E{IXI2
} + 2abE(IXIIYI) + b2E{IYI
2}
= a2 E{X2}- 2ab2 + b2
a
= a[aE{X2}-b2].
Wegen a > 0 folgt: b2 < aE{X2} 1 d.h. die Beh. gilt.
Fall 2: 0 = E{Y2} = Var(Y) + [E(Y)f
Es folgt E(Y) = 0, Var(Y) = 0 und somit P{Y = 0} = 1, vgl. 7.7 (5).
Wegen y = 0 ::::} IXYI=O
gilt 1=P{Y=O} < P{IXYI=O} und somit IXYI "'Dirac(O).
Mit 7.7 (1) folgt E( IX Y I) = 0 und somit gilt die Beh.
D
D
Erwartungswert und Varianz
Beweise von
(5)
(6)
Cov( a + X 1 ß + Y) = Cov(X1 Y)
Cov( a X 1 Y) = a · Cov(X1 Y)
= Cov(X1 a Y) ,
15.1.16
für a,ßE IR.
(7) Cov(X1 [Y + Zl) = Cov(X1 Y) + Cov(X,Z) ,
Cov([X +ZL Y) = Cov(X1 Y) + Cov(Z,Y).
(8)
(9)
E(X Y) = E(X) · E(Y) + Cov(X, Y) ,
Var(X + Y) = Var(X) + Var(Y) + 2 · Cov(X, Y) .
B 7-35
ad (5): Cov(a +X1 ß+ Y) = E{ [(a+X)- E(a +X)] · [(ß+ Y)- E(ß + Y)]}
= E{ [X- E(X)] · [Y- E(Y)]} = Cov(X, Y). D
ad (6): Cov(aX1 Y) = E{ [aX- E(aX)] · [Y- E(Y)]}
= a. E{ [X- E(X)] . [Y- E(Y)]} = a. Cov(X1 Y).
Die zweite Gleichung gilt aus Symmetriegründen, vgl. (4). D
ad (7}: Cov(X1 [Y +Z]) =E{ [X- E(X)] · [(Y +Z)- E(Y +Z)]}
= E{ [X -E(X)] · [(Y-E(Y))+(Z+E(Z))]}
= E{ [X- E(X)] · [Y -E(Y)]} +
E{ [X- E(X)] · [Z-E(Z)]}
= Cov(X1 Y) + Cov(X,Z)
Die zweite Gleichung gilt aus Symmetriegründen, vgl. (4). D
ad (8): vgl. (1) bzw. 7.4 (9). D
ad (9): vgl. 7.4 (8). D
Erwartungswert und Varianz 1501.16 B 7-36
Beweise von
(10) n
Var( 2: xo) 0 z z=1
n n 2: Var(Xo) + 2 2: Cov(Xo,Xo) 0 0 z 0 0 z J z=1 z,J =1
i <j
(11) X, Y stochastisch unabhängig Cov(X, Y) = 0 1
ad {10): Induktion über no
Für n = 1 gilt die Beho, und der Induktionsschritt n r----+ n + 1 ergibt sich wie folgt: n n n
Var( [ol:Xi] + Xn+1) = Var(_l:Xi) + Var(Xn+1) + 2Cov( [ ol:Xi],Xn+1) z=1 z=1 z=1
n 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0+ 2 2: Cov(Xi,Xn+1) vgl. (7)
i=1 Mit der Induktionsvoraussetzung erhält man nun die Beho für n + 1:
n nt1 n n Var( [ l:Xi] + Xn+1) =
0
2: Var(Xi) + 2 0 ~ Cov(Xi,Xj) + 2 0
2: Cov(Xi,Xn+1) i=1 z=1 z,J =1 z=1
i <j
nt1 nt1 2: Var(Xo) + 2 2: Cov(Xo,Xo)o 01 z 001 ZJ z= z,J =
D
i <j
ad {11): vgl. 7.4 (10)0 D
Erwartungswert und Varianz 15.1.16 B 7-37
Beweis von
Wir betrachten zuerst den Spezialfall n = 1. Nach 6.1.2 (3) ist Xk ,.....__ B(1,pk) und somit
( i)
Da Xk und Xl nur Werte aus {0, 1} annehmen, ergibt sich für k :;= l
Wegen P{X1 + ... +XK= 1} = 1 folgt P{XkXl = 0} = 1, also XkXl '""'"'Dirac(O) und
(ii) E(XkXz) = 0 für k :;= l.
Mit 7.4 (9) sowie (i) und (ii) folgt nun (12) für n = 1:
Für beliebiges n betrachten wir stochastisch unabhängige
(i) - (i) (i) ,.....__ X - (X1 , ... , XK ) MK(1,p) für i = 1, ... , n.
Setzen wir Xk = I=x1i), so ist X= (X1, ... , XK) ,.....__ MK(n,p) nach 6.1.2 (1) und zu zei
genbleibt i=l
(iv) für k, l = 1, ... , K.
Für i :;= j sind xp) und xkW stochastisch unabhängig und mit (11) folgt
( v)
Nun ist
Cov(x1i) ,xp)) = 0
( n (i) n 0))
Cov(Xk,Xl) = Cov i"f_lXk , j"f_lXl
.I= .I= Cov(x1i) ,xp)) z=lJ =1 n
2:= Cov(X(i) ,x(i)) 0 k l z=1 n
2:= pk( 8kz- pJ i=1
für i :;= j.
vgl. (7)
vgl. (iv)
nach Spezialfall n = 1
D
Erwartungswert und Varianz 1501.16 B 7-38
7.8.2* Der Korrelationskoeffizient
Beweise von
(2) Corr(X,Y) Cov(X,Y)
jv ar(X) 0 V ar(Y)
Cov(X,Y) axoay
= Cov( X- 1-L x , y- P,y) . ax ay
(4)
(5)
(6)
(7)
Corr( a + ßX, Y) Corr(X,Y) Corr(X, a + ßY) für a E IR, ß > 00
Corr( a- ßX, Y) = - Corr(X, Y) = Corr(X, a- ßY) für a E IR, ß > 00
X, Y stochastisch unabhängig ::::} Corr(X, Y) = 0 1
- 1 < Corr(X, Y) < + 1.
ad (2): Die letzte Darstellung ergibt sich aus den Eigenschaften 7.8.1 (5) ( 6)0 D
ad (4 -5): Aus
und
folgt
Cov( a ± ßX, Y)
Var(a ±ßX)
Corr( a + ßX, Y)
± ß ° Cov(X,Y)
ß2 0 Var(X)
± Corr(X, Y)o
vgl. 7.8.1 (5) ( 6)
Die jeweils zweite Gleichung folgt aus Symmetriegründen, vgl. (3)0 D
ad {6): Die Beho folgt aus 7.8.1 (11)0
ad (7}: Es ist
[Cov(X,Y)]2
= IE((X-p,x)o(Y-p,y))l2
< E(IX-p,xloiY-p,YI)I2
< E( IX- f-Lxl2
) OE( I Y- 1-Lyl ~
und hieraus folgt Corr(X, Y) 2 < 1 und somit (7)0
vgl. 7.2 (8)
a ~ 0 a~ vgl. 7.8.1 (2)
D
D
Erwartungswert und Varianz 15.1.16 B 7-39
7.8.4 * Linearer Zusammenhang und Regressionsgerade
Beweis von
(6) E{(Y-j(XIa,b)) 2} = E{(Y'-c-bX'?}
2 (Y) 22 2 = a Y- 2 b Cov X, + b a X + c
= a~(l-e2 ) + (bax-eay)2 + c2
mit
(7) e: = Corr(X, Y).
Es ist: E{(Y'- c- bX'?} = E{ Y'2 + c2 + b2X'2 - 2cY'- 2bX'Y'- 2 bcX'}
E{Y'2} + c2 + b2 E{X'2}- 2bE{X'Y'} da E(X') = 0, E(Y') = 0
2 2 2 2 ( ) a Y + c + b a X - 2b Cov X, Y
2 2 2 2 a y + c + b a X - 2b &J a Xa y
2 ( )2 2 2 2 ay + bax-eay -e ay+c
= a~(l-l) + (bax-eay? + c2.
Beweis von
(13) E(R)=O, und
D
ad {13): E(R) = E (Y- a- ßX) = f-Ly- a- ßp,x = 0, vgl. (8). D
ad (14): Mit (13) und (9) folgt: D
Erwartungswert und Varianz 15.1.16 B 7-40
Beweis von
(15)
(16)
bzw.
P{Y= a+ßX} = 1.
ad {15): Wegen Var(R) > 0 folgt aus (14): r} < 1.
ad {16): r} = 1 {} Var(R) = 0, vgl. (14)
{} R "'Dirac(O), vgl. (13) und 7.7 (5)
{} P{R=O} = P{Y=a+ßX} 1.
Beweis von
(17) e2 = Var(Y)- Var(R)
Var(Y)
Reststreuung von Y nach Regression auf X
Streuung von Y
D
D
Es gilt: e2 = Var(Y)- Var(R)
Var(Y) Var(R) = Var(Y) · [ 1- e2J , vgl. (14). D
Beweis von
(18) P{IY-f(X)I>ray} < ?-·(1-i) fürr>O.
Esgilt: P{IY-f(X)I>ray} = P{IRI>ray} > --:-_?.~ ·Var(R), vgl.7.7(1) .,-ay
und mit (14) folgt die. Beh. D
Beweise zu
(19) für y E IR.
Die beiden Regressionsgeraden f und g - d.h. gerrauer ihre zugehörigen Graphen in
IR 2 - stimmen aber nur im Falle= e -1 bzw.l e I= 1 überein.
Es ist X= g(y) - O"y -1 ( ) Y - /-Ly + - f2 X - f-L X ax
und somit stimmt g-1 gerrau dann mitf aus (10) überein, wenn e =e-1 gilt. D
Schätzen von Erwartungswert und Varianz 15.1.16 B8-1
8. Schätzung von Erwartungswert und Varianz
8.1 Schätzen des Erwartungswerts
Beweis von
(4) E((L(X)) = p, ,
(5)
(6)
Var((L(X)) = ~ o?
p,3(4(X)) = ~2 ·p,/X) ,
ad (4): E((L(X)) n n n
E(l. l:X.) = 1. l:E(X.) = 1. 2:1-L = p,. n z n z n i=l i=l i=l
D
n n ad (5): Var((L(X)) = Var(~ _l:Xi) = ~2 · Var(.l:xi)
z=l z=l
ad (6):
n = .L · 2:: Var(X.) n2 z
i=l n
= l_. l:a2 = .la2. n2 n
i=l n n
J-L3(4(X)) = J-L3( ~ .2:: xi) = ~3 · J-L3( .2:: xi) z=l z=l
n = ~. 2:: p,3(X.)
n . z z=l
e3(4(X)) = p,3(4(X)) · [Var(4(X))r312
= .L.I-L (X). n3/2 . .L n2 3 a3
= _l_ ·p, (X) . .L = _l_ · e (X). yn 3 a3 yn 3
xl' ... , xn unabhängig
vgl. 7.4 (10)
D
xl' ... , xn unabhängig
vgl. 7.6 (7)
D
Schätzen von Erwartungswert und Varianz 15.1.16 B8-2
8.3* Schätzung der Varianz
8.3.1 * Schätzung der Varianz bei bekanntem Erwartungswert
Beweis von
(5) Var (Y) = p, 4
- a 4 ,
Es ist D
8.3.2* Schätzung der Varianz bei unbekanntem Erwartungswert
Beweis von
(2) XTAX '
wobei die nxn Matrix A = ( a . . ) gegeben ist durch: ZJ
(3) a .. = 8 . . -1.. (8 ist das Kronecker-Symbol). ZJ ZJ n
Es ist ~(X~- 2XX. + X2)
i z z
2 - -2 ~Xi - 2 X(~XJ + nX z z
~x~- 2.l(~x.) 2 +.l(~x.) 2
iz niz niz
~x~ _.l(~x.) 2
i z n i z
~ ~ 8 .. x.x.-1. (~x.)(~ x.) i j ZJ z J n i z j J
~ ~ 8 .. x.x.-1. ~ ~ x.x. i j ZJ z J n i j z J
~ ~ (8 .. -l.)x.x. i j ZJ n z J
~ ~ a .. x.x. i j ZJ Z J
XTAX. D
Schätzen von Erwartungswert und Varianz 15.1.16
Beweis von
(4) ~ (Xi-X)2 z
~ (Xi-X)2 z
Es ist
Beweis von
2 - 2 ~(Xi-a) -n(X-a) z
~X?- nX2 i z
für aEIR
vgl. (2)
2 2 -2 - 2 ~Xi - 2a(~Xi) + na - [nX - 2anX + na J z z
2 2 -2 - 2 0[Xi - 2aXi + a J - n [X - 2 aX + a J z
- 2 -n(X-a) .
B8-3
D
(5) (erwartungstreu).
1. Beweis (direkt):
Es ist E{SXX} E{~ (Xi-~t) 2 - n (X-~t) 2 } z
0 E{(Xi-~t) 2}- nE{(X-~t) 2 } z
2 -na - n Var(X)
2 2 na -a vgl. 1.1 (2).
und (5) folgt.
2. Beweis (mit nachfolgendem Theorem): vgl. Beweis von (9).
Beweis von
(6) E(a(X))<a,
vgl. (4) für a = fL
wobei die Gleichheit nur im trivialen Fall gilt, wenn a(X) Dime-verteilt ist.
Für Y = a(X) gilt nach 7.7 (6)
( i) Var(Y) = E(Y2)- [E(Y)]2 > 0
[E(Y)]2 < E(Y2) = a 2
bzw.
bzw. E(Y) < a
D
wobei die Gleichheit gerrau dann gilt, wenn Y bzw. a2(X) Dirac-verteilt ist. D
Schätzen von Erwartungswert und Varianz 1501.16
Beweis von
Das Theorem soll angewandt werden auf Uo = Xo-p, für i = 1, 000, no z z
Wegen U = X -p,
ist SUU = ~ (Ui- U) 2 = ~ (Xi- X) 2 = SXX 1 z z
also SUU = UT AU nach (2) mit U statt Xund A aus (3)0
Das 20 und 40 zentrale Moment von Uo ergeben sich zu z
m2 = E{ u;} = E{(Xi-p,)2} = a2
,
m4
= E{ u:} = E{(Xi-p,) 4} = p,
4 0
Für die Matrix A = ( a 0 0) aus ( 3) ergibt sich ZJ
Spur(A) = ~ aoo = ~ (8° 0 _1..) = n-1 0
i u i u n
Ferner ist A idempotent
AA=A (Beweis: elemetar ausrechnen!),
also Spur(AA) = Spur(A) = n-1.
Aus dem Theorem ergibt sich daher
B8-4
( i)
( ii)
E{UTA U}
Var{UT AU}
(n-1)a2 als 20 Beweis für (5),
( ~ a 7 i) 0 (p, 4 - 3 a 4
) + 2 ( n- 1) a 4
0
z
Mit ~a~o = ~ (1-1..) 2 = n(1-1..) 2 =1..(n-1)2 i zz i n n n
folgt Var{UTAU} = ~(n-1)o[p,4(n-1)-a4(3(n-1)-2n)J
= ~ ( n- 1) 0 [!-Li n- 1) - a \ n- 3) J
= .l (n- 1) 2 0 [!-L - n - 3 a 4 J 0
n 4 n-1
Wegen o-2 = - 1-sxx = - 1-urAu n-1 n-1
folgt Var(G-2) = [n~ 1] 2 0 Var(UT AU) 1[ n-34] - 1-L --a n 4 n-1 °
D
Schätzen von Erwartungswert und Varianz 1501.16 B8-5
Beweis von
Theorem: Erwartungswert und Varianz quadratischer Formen
U = (U1, 000, Un) sei ein Vektor unabhängiger identisch verteilter Zufallsvariablen
U1, 000, U mit Erwartungswert E(Uo) = 0 und exisitierenden Momenten
n z
für 1 < k < 4 0
Für eine symmetrische nxn Matrix A = ( a 0 0) hat die quadratische Form ZJ
T U AU= "E,"E,aOOUOUO i j ZJ Z J
den Erwartungswert und die Varianz
(a)
(b)
ad (a):
E(UTA U)
Var(UT AU)
Spur(A) om2
(~aii) o(m4 -3m;) + 2Spur(AA) om; 0
z
Für i :;= j sind U 0 und U 0 unabhängig und somit z J
Es folgt
ad (b):
E{UOUO} = E{Uo} OE{Uo} = 0 0
z J z J
E{"E, "E, a 0 0 U 0 U 0} i j 'lJ z J
"E, "E, aooE{UOUO} i j 'lJ z J
"E,aooE{U?} i zz z
"E,aoo m2 i zz
Spur(A) 0 m2
Wegen (i) Var(UT AU) E{(UT A U) 2}- E{UT A U} 2
0 0 0 0 0 0 0 0 0 0 0 0 0 - [Spur(A) 0 m2F
ist noch zu berechnen
E{(UT A U)2
} = E{('f 1 aij Uiuj?}
E{"E, "E,"E, "E,aooak1uououku1} ijkf 'lJ ZJ
"E, "E, "E, "E, a 0 0 ak R ( U 0 U 0 Uk U1) 0 ijkZ'lJ r zJ
nach (a)
Schätzen von Erwartungswert und Varianz 15.1.16
Zur Bestimmung von E (Ui Uj Uk Uz) unterschieden wir mehrere Fälle:
i=j=k=l: E(UiUjUkUz) =E(Ui4) =m4 .
i=j;=k=l: E(UiUjUkUl) =E(Ui2u;)
i=k;=j=l:
= E (Ui2). E(U;)
2 = m2
-m2
= m2
.
2 =m 2
analog.
i=l;=j=k: E(UiUjUkUl) = m; analog.
i \t {j,k,l}: E(UiUjUkUz) =E(U([UjUkUl])
B8-6
= E(U) ·E(UjUkUl) da Ui' [UjUkUz] unabhängig
= o . E( uj u k uz ) = o .
j \t { i, k, l } :
k \t { i,j, l } :
l \t { i,j, k } :
Also ist
E (Ui ujuk uz)
E (Ui ujuk uz)
E (Ui ujuk uz)
~ ~ ~ ~ a .. ak R ( U. U. Uk Ul). ijkZ'lJ r zJ
=0 analog.
=0 analog.
=0 analog.
2 ~ a .. a .. m
4 + ~ ~a .. akkm
2 i zz zz i~k zz
2 + ~ ~ a .. a .. m2 i ~ j ZJ ZJ
2 + ~ ~ a .. a .. m2 i ~ j ZJ JZ
J a.. da A symmetrisch
1J
= m4(~ a~.) + m 22 [~ ~a .. akk + 2 ~ ~ a~.].
z zz z ~ k zz z ~ J ZJ
Wir formen den Ausdruck [ .... ] weiter um
Schätzen von Erwartungswert und Varianz 1501.16
2 ~ ~ a 0 0 akk + 2 ~ ~ a 0 0 i ;zt. k zz i ;zt. J ZJ
und erhalten
2 2 2 ~ ~ a 0 0 akk - ~ a 0 0 + 2 ~ ~ a 0 0 - 2 ~ a 0 0 i k ZZ i Z Z i J ZJ i Z Z
~ ~ aooakk i k zz
(~ aol i zz
(Spur A) 2
(Spur A) 2
2 + 2 ~~ aoo i J ZJ
+ 2 ~(~ ao oaoo) i J ZJ JZ
+ 2 ~ (AA)oo i zz
+ 2 Spur(AA)
2 -3 ~ aoo i zz
2 -3 ~ aoo i zz
m4 (~ a7J + m; [(Spur A? + 2 Spur(AA)- 3 ~ a7J z z
(~ a7J(m4 - 3m;) + m; [(Spur A) 2 + 2 Spur(AA)] 0
z
Mit (i) folgt jetzt (b)o
B8-7
D
Schwaches Gesetz der großen Zahlen und Zentraler Grenzwertsatz 28.1.16 B 9 - 1
9. Schwaches Gesetz der großen Zahlen und Zentraler Grenzwertsatz
9.1 Konvergenz nach Wahrscheinlichkeit und
Schwaches Gesetz der großen Zahlen
Beweise zur Definition
Die Äquivalenz (1) {} (1) 1 und die Eindeutigkeit des Grenzwerts folgen aus den je
weiligen Eigenschaften in 9.1.1 für den Spezialfall n = 1. D
Beweis von
(2) E(X ) = p, für alle n E W, n
lim Var(X ) = 0 n---+oo n
Für jedes c > o folgt aus der Chebyshev-Ungleichung
0 < P{ I xn- 1-L I > c} < _!__ 0 Var(X ) c:2 n
Also 0 < lim P{ IX -p, I> c} < 1._2
·lim Var(X ) n---+ oo n - c: n---+ oo n
Beweis von
1 -·0 c:2
p X ------+ p, .
n
0.
Schwaches Gesetz der großen Zahlen: Sei (X ) li.T eine Folge stochastisch n nEm
unabhängiger und identisch wie X: (.f2, d, P)-----+ IR verteilter Zufallsvariablen
deren Erwartungswert p, = E(X) und Varianz a 2 = Var(X) existieren. Dann
konvergiert der Mittelwert x(n) der ersten n Zufallsvariablen nach Wahrschein
lichkeit gegen p,:
(3) x(n) _P_--+ n---+ oo 1-L
Anwendung von (2) auf die Folge x(n) mit
Var(x(n)) = 1n a 2 ----+ 0. n---+ oo
(schwaches Gesetz).
D
D
Schwaches Gesetz der großen Zahlen und Zentraler Grenzwertsatz 28.1.16 B 9 - 2
9.1.1 Eigenschaften der Konvergenz nach Wahrscheinlichkeit
Beweise zur Definition
(1) Für jede offene Umgebung U von a gilt:
lim P{X EU}= 1 bzw. n---+oo n lim P{ X \tU} = 0. n---+oo n
(1)' Für jedes c > 0 gilt:
lim P { II X - a II < c} = 1 bzw. n---+oo n lim P { II X - a II > c} = 0 . n---+oo n -
Bemerkung: Der Grenzwert a ist durch (1) bzw. (1)' eindeutig bestimmt.
Der Nachweis der Bemerkung ist eine Übung und wir zeigen nur (1) <=> (1)'.
Vorbemerkung: Für die offene c-Umgebung U (a) == {xEIRKIIIx-all <c} um a gilt [
( i) {X EU (a)} = {II X -all <c}. n e n
ad (1) => (1)': Für U = U (a) in (1) ergibt sich (1)'. [
ad (1)' => (1): Zu U gibt es ein c > 0 mit U (a) CU. [
Aus P{IIXn-all<c} = P{XnEUs(a)} < P{XnEU} < 1
folgt 1 = #--TooP{ II xn- a II < c} < #--TooP{ xn EU} < 1
also lim P{ X EU}= 1. n---+oo n D
Beweis von
(2) p X ----+a
n n---+ oo
Es ist: P{IIX -all <c} = P{IIIX -aii-OI<c}. n n D
Schwaches Gesetz der großen Zahlen und Zentraler Grenzwertsatz 28.1.16 B 9 - 3
Beweis von
(3) p
g stetig in a , X n n---+oo ------+ a
Für c > 0 ist zu zeigen
(i) P{llg(Xn)-g(a) II <c} n---+oo 1.
Da g stetig in a ist, gibt es ein 8 > 0 mit
llx-all<8 ::::} II g(x)- g(a) II < c für alle x E IRK
Also {II X -all < 8} c {llg(X )-g(a) II <c} n n
und P{ll X -all < 8} < P{llg(X )-g(a) II <c} n n < 1
I da X
p I a t n n---+ oo
1 und ( i) folgt. D
Beweis von
(4) p
X n n---+oo ------+ a für alle k = 1, ... ,K.
ad ,;::::}": Folgt aus (3), weil die k-te Projektion 1r k: IRK-----+ IR stetig ist.
ad "<;::=.": Für c > 0 ist zu zeigen
( i) P{ II xn- a II > c} _n_---+_00--t 0 0
Aus
::::} IIX -all <c n
folgt
K Also p { II xn- a II > c } < p ( u { I X k- ak I > ~ c } )
k=l n vK
K 2:: P { I X k- ak I > ~ c } k=l n vK
< (Sub-Additivität)
1 da xnk p a
n---+ oo k
0 und ( i) folgt. D
Schwaches Gesetz der großen Zahlen und Zentraler Grenzwertsatz 2801.16 B 9 - 4
Beweis von
(5)
(6)
Für reelle Zufallsvariablen X , Y und a, b E IR gilt: n n
p X ----+ a
n n---+oo ' y p
----+ b n n---+oo
p X +Y ----+ n- n n---+ oo p X oy
n n n---+ oo
Ist X a E IRK konstant für allen E W, so folgt: n n
X p
----+ a n n---+ oo
lim a = a 0
n---+oo n
ad (5): Es gilt nach (4)
Aus der Stetigkeit der arithmetischen Operationen folgt die Beho mit (3)0
ad {6): Für c > 0 gilt
P{IIX -all<c} n
Also: p
X ----+ a n n---+ oo
Für alle c > 0:
Für alle c > 0:
lim a = a 0
n---+oo n
P{wED 111 X (w)-all <c} n
P{wED 111 a -all <c} n
{ P(D) = 1 falls II an- a II < c }
0
P(0) = 0 sonst
lim P { II X - a II < c} = 1 {} n---+oo n
II a - a II < c für fast alle n E W {} n
a±b
aob
D
Schwaches Gesetz der großen Zahlen und Zentraler Grenzwertsatz 28.1.16 B 9 - 5
9.1.2 Stochastische Konvergenz und Konsistenz von Schätzern
Beweis von
o-2(x(n)) = n~1 ~ (Xi-x(n))2 z
(4)
(5)
(6)
(1- ~). o-2(x(n)) = ~ ~ (Xi- x(n))2 z
a(x(n))
ad (4) {1. Beweis): Aus 8.3.2 (9) folgt
p n---+ oo
p n---+ oo
p n---+ oo
Var(a2(x(n))) = ~(~t4 -~::::~a4 ) -----+ 0
und somit ergibt sich (4) mit dem Kriterium 9.1 (2).
ad (4) (2. Beweis): ohne 8.3.2 (9)
Es gilt:
( i)
1 n-1
1 n-1
n n-1
1
~(Xi-~t)2 z
n o-2 (x(n)) -Ii
[ 52 (x(n)) Ii
(3) ~ p
2 a
Mit den Rechenregeln 9.1.1 (5) und (7) folgt (4).
(2) ~ p
0
2 a .
2 a .
a.
vgl. 8.3.2 ( 4)
für n---+ oo
2 =a .
D
D
ad (5): Folgt aus ( 4) mit 9.1.1 (7) und ( 1- ~) -----+ 1. D
ad {6): Folgt aus (5) mit 9.1.1 (3), da g(x) = Jx. eine stetige Funktion ist. D
Schwaches Gesetz der großen Zahlen und Zentraler Grenzwertsatz 2801.16 B 9 - 6
Beweis von
(7)
Wir zeigen erst n
(i) 1. 2:= (X 0 - x(n)) 3 n 0 z
z=l
p
n---+ oo
p n---+ oo
ad (i): Für Z: =X- p, sind die Zufallsvariable Z 0 =X 0- p, stochastisch unabhän-z z
gig für i = 1, 000, n mit Mittelwert z(n) = x(n) -p,o Es folgt:
n = 1. 2:= [ Z~- 3Z~ 0 z(n) + 3Z 0 ° z(n)
2- z(n)
3 J
n 0 z z z z=l
1. tz~ -3 ° 1. tz~ 0 z(n) + 3 ° 1. i:zo 0 z(n)2
z(n)3
n z n z n z i=l i=l i=l
für n---+ oo IP IP
I IP IP IP I p
vgl. 9.1.3 (3) l l l l l l E(Z3) -30 E(Z~) 0 E(Z) + 3 OE(Z) o[E(Z)] 2
- [E(Z)] 2 z
Mit E(Z) = 0, I-L3 = E(Z3) ergibt sich (i)o
Da g(x) = x-3/2 eine stetige Funktion ist, folgt aus (5) mit 9.1.1 (3)
[ n l-~2 ~ 02:= (Xi- x(n))2
z=l
p -3 a ' ( ii)
n---+ oo
und Multiplikation mit (i) liefert nach 9.1.1 (5)
p n---+ oo
Schwaches Gesetz der großen Zahlen und Zentraler Grenzwertsatz 28.1.16 B 9 - 7
9.2 Verteilungskonvergenz und Zentraler Grenzwertsatz
Übung: Beweis von
Beweis von
(7)
(8)
p { u () u( n) } _n_---+_oo---t
p { u1 () u(n) () u2} _n_----+_00---t
1- <P(u)
<P( u~ - <P( u1)
ad (7}: Zunächst ergibt sich aus ( 6) sofort
L(X) = L(X').
für alle u E IR,
( i) 1-<P(u) für uEIR.
Zu zeigen bleibt
( ii) ------+ 1- <P( u) n---+ oo
für uEIR.
Für Y =-X ist: f-Ly = E(Y) = -E(X) =- f-Lx' Var(Y) = Var(X) = a2
v(n): = _1_ [ y(n)- np, ] = _1_ [- x(n) + np, ] = - u(n)_ ayn + Y ayn + x
( 6) angewandt auf Y liefert
(iii) ------+ <P(- u) = 1- <P( u) d.h. (ii). n---+ oo
ad {8): Aus (ii) folgt die komplementäre Aussage
und somit läßt sich ( 6) erweitern zu
(iv) P { u(n) () u} n---+oo <P( u)
Wegen P{ u1 < u(n) () u
2} = P{ u(n) () u
2}- P{ u(n) < u
1}
P{ u1 < u(n) () u2} = P{ u(n) () u2}- P{ u(n) < u1}
folgt (8) aus (iv) für u = u2
und u =ur
für uEIR.
für uEIR.
D
ad Zusatz 2: Aus der Gleichmäßigkeit der Konvergenz in ( 6) ergibt sich mit obigen
Beweisen auch die gleichmäßige Konvergenz in (7) bzw. (8). D
Schwaches Gesetz der großen Zahlen und Zentraler Grenzwertsatz 28.1.16 B 9 - 8
Beweis von (unter Verwendung von (14)):
(15)
(16) u,~~JR I P{ u () u(n) () v}- [<P(v) -<P(u)]l 2c -3 < -·a ·v. Vn 3
ad {15): Wie im Beweis von (7) betrachten wir Y =-X mit
Anwendung von (14) auf Y liefert- vgl. (iii) im Beweis von (7) -
:~~ IP{u<rfn)}-<P(-u) I < Jn·a-3 ·v3
und mit <P(- u) = 1- <P( u) folgt die Beh.
ad {16}: Wie im Beweis von (7) betrachten wir Y =-X mit
Wegen P{u<rfn)} = 1-P{rfn)<u}
ist I P{ u< u(n)}- [1-<P(u)]l = I P{ u(n) < u}- <P(u) I
und aus (15) folgt
sup 1 P { u(n) < u}- <t>( u) 1 < s uE 1R
mit S : = fo . a -3. v 3 .
Also läßt sich (14) erweitern zu
( i) sup I P{ u(n) (<) u}- <P(u) I < s 0
uE1R -
Wegen I P{ u < u(n) () v}- [<P(v)- <P(u)]l
= I P{ u(n) ()V}- P{ u(n) < u}- [<P(v)- <P(u)]l
< IP{U(n) ()v}-<P(v) I+ IP{rfn)<u}-<P(u) I
sup I P { u < u(n) (<) v}- [<P( v)- <P( u)]l < S + S. u,vElR -
folgt aus (i)
Die zweite Variante von (16) mit u < u(n) statt u < u(n) folgt analog mit (i) (durch
Tauschen von "<" mit "<"). D
Schwaches Gesetz der großen Zahlen und Zentraler Grenzwertsatz 28.1.16 B 9 - 9
9.3 Grenzwertsätze für Binomial-V erteil ungen
9.3.1 Die Normal-Approximation der Binomial-Verteilung
Beweis von
Binomial-Grenzwertsatz von de Moivre und Laplace:
Es sei 0 <p < 1 und für n E W sei X eine B(n,p)-verteilte Zufallsvariable mit n
(1) a 2 : = Var( X ) = n p (1- p)
n n
und der Standardisierung
(2) u(n) : = _1 [X _ 1-L J an n n
Dann gilt u(n) L N(0,1), d.h. für beliebige u1 < u
2 gilt
n---+ oo
(3) p { u1 < u(n) < u2} (n---+ oo) <!>( u2) - <!>( u1) 0
Für eine Folge (Y ) unabhängiger Wiederholungen von Y ,.....__ B(1,p) ist n
1-L = E(Y) = p, a 2 = Var(Y) = p (1- p), n
(i) y(n) = 2:: Y. ,.....__ B(n,p) + i=1 z
Für die Standardisierung von y~)
u(n) : = _1_ [ y(n) _ n p J = _l_ [ y(n) _ 1-L J ayiii + an + n
folgt aus dem Zentraler Grenzwertsatz u(n) L N(0,1) und somit (4). Wegen (i) n---+ oo
ist der Satz- mit der Bezeichnung y~) statt Xn -bewiesen. D
Beweis von
(4) mit q= 1-p
Es ist: D
Schwaches Gesetz der großen Zahlen und Zentraler Grenzwertsatz 2801.16 B 9 - 10
Beweise zu
(5)
(6)
(7)
(8)
Es ist:
h( CJ) : = l - 2 CJ mit a=m CJ
sup I P { u(n) < u} - <P( u) I uE 1R
sup I P{ u< u(n)}- [1-<P(u)]l uE 1R
u ~~JR IP{u()u(n)()v}-[<P(v)-<P(u)]l '
a-3ov3
= a-3opq(p2+q2)
= l(p2 + q2) a
= ;[(p+q)2-2pq]
= ; [ 1- 2a2
J = h( a) 0
< fo 0 h(a) ,
< fo 0 h(a) ,
< ~ 0 h(a) 0
2 da a = pq
Damit ergeben sich (6) - (8) aus dem Theorem von Berry und Esseeno
Aus h'(a) = -a-2 -2 < 0 folgt
(i) h ist streng fallend auf (0, oo)o
Wegen a 2 = a2(p) = p(1- p) = p- p2 = - (p- ~) 2 + ~
wird a2(p) - und somit auch a(p) - maximal für p = ~ 0 Der zugehörige maximimale
Wert a( ~) = ~ liefert nach ( i) den minimalen Wert h( ~) = 1 für h( a) 0 D
Schwaches Gesetz der großen Zahlen und Zentraler Grenzwertsatz 2801.16 B 9 - 11
9.3.3 Die Poisson-Approximation der Binomial-Verteilung
Beweis von
Poisson-Grenzwertsatz für Binomial-Verteilungen:
Sei 1-L > 0 und p : = 1.. 1-L für n > f-Lo Dann konvergiert die Zähldichte n n
(1)
der Binomialverteilung B( n, p ) punktweise gegen die Zähldichte n
(2)
der Poisson-Verteilung Pois(f-L) 1 doh
(3) b(kln,p ) n n---+ oo p(klf-L) für k = 0, 1, 0000
Folgerung:
(4) P{ B(n,pn) < a} n---+ oo P { Pois(f-L) < a} für jedes a E IR
(5) B(n,p ) L Pois(f-L) 0 n n---+ oo
Übung!
Schwaches Gesetz der großen Zahlen und Zentraler Grenzwertsatz 28.1.16 B 9 - 12
Beweis von
Poisson-Approximation von Binomial-Wahrscheinlichkeiten für kleines p
Für beliebige 0 <p < 1, n E W, p, = np > 0 und AC W0
gilt
(6) I P { B( n, p) E A} - P { Pois(p,) E A} I < 2 np.
Zusatz: Weiter gilt, wobei b(k I n, p) : = 0 für k > n
(7)
Vorbemerkung: Die Beweisidee für den Zusatz (7) ist von Krengel (2005) übernom
men. Man beachte, daß aus (7) sofort folgt
I P { B( n, p ) E A } - P { Pois(p,) E A } I n
< 2:: 1 b(k 1 n, P) - p(k 1~-L) I kEA
Die um den Faktor 2 verbesserte Abschätzung in (6) gegenüber (6)2
ist dem Buch
von Sheldon Ross, A first course in probability (Prentic Hall, 2005, 7th edition) ent-
nommen.
Beweisübersicht: Im ersten Schritt konstruieren wir (sogar auf zwei verschiedene
Arten) Zufallsvariablen X,.....__ B(1,p) und Y ,.....__ Pois(p) auf einem gemeinsamen diskre
ten Wahrscheinlichkeitsraum (fl,P), wobei X und Y nicht stochastisch unabhängig
sondern "gekoppelt" sind, so daß gilt
wobei die Abschätzung aus 1- e-p < p folgt. - Und im zweiten Schritt betrachten
wirnunabhängige Wiederholungen (X., Y.) des Paares (X, Y). Aus den Faltungseiz z genschaften ( vgl. 6.1.1, 6.1.3) ergibt sich
n n ( ii) X+= _l:Xi '""'"' B(n,p),
z=l Y + = _2:: Yi ,.....__ Pois(np),
z=l und zum Nachweis von ( 6) genügt es dann zu zeigen
Schwaches Gesetz der großen Zahlen und Zentraler Grenzwertsatz 28.1.16 B 9 - 13
1. Schritt (Konstruktion 1): Ausgangspunkt sind stochastisch unabhängige Zufalls
variablen Y '""'"'Pois(p) und Z ,.....__ß(1,pz) auf demselben diskreten Wahrscheinlichkeits
raum (fl,P) mit
Pz = 1- (1-p)JI E (0,1), da 1- p < e-p bzw. (1- p)t! < 1.
Beispielsweise lassen sich Y und Z als die beiden Projektionen des Produktraums
von (W 01 Pois(p)) mit ({0, 1},B(1,pz)) wählen (vgl. 3.3). - Für die auf f2 definierte
Zufallsvariable
ist P{X=O}
Es gilt {X=Y}
falls
falls Y= 0 und Z= 0 } Y :;= 0 oder Z :;= 0
P { Y = 0 und Z = 0 }
P{Y=O} ·P{Z=O},
e-p · (1-p)JI 1- p 1
{X= 0, Y = 0} u {X= 1, Y = 1}
{X=O} u {Y=1}
da Y, Z unabhängig
also X ,.....__ß(1,p).
da X= 0 ::::} Y = 0 ,
Y=1 * X=1.
Also ist P{X=Y} = P{X=O} +P{Y=1} = (1- p) + pe-p und ( i) gilt.
1. Schritt (Konstruktion 2): Da die 1. Konstruktion einen Produktraum benötigt,
geben wir noch eine zweite Kostruktion an, die ohne diesen auskommt. Hierzu
wählen wir f2 = W0
U { -1} und zur Definition von P auf f2 modifizieren wir zu
nächst die Poisson-Verteilung Pois(p) mit der Zähldichte
(kl ) - 1 -p k p p - k! e p
indem wir p ( 0 I p) wie folgt zerlegen
p(Oip) = e-p = [e-p-(1-p)]+(1-p).
Die Verteilung P auf f2 wird jetzt definiert durch
P{-1}
P{O}
P{k}
e-p_ (1-p) > 0,
1- p > 0'
p(klp)
da e-p > 1-p,
fürkEW.
Für die Zufallsvariablen X, Y: fl-----+ W 0
definiert durch
Schwaches Gesetz der großen Zahlen und Zentraler Grenzwertsatz 28.1.16 B 9 - 14
ist
und
X(k) = H für k = -1} für k = 0 1
für k E W
P{X=O} =P{O} = 1-p,
P{Y=k} =P{k} =p(klp)
Y(k) = u also
P{Y=O} =P{-1}+P{O} =p(Oip) 1 also
Die Eigenschaft (i) ergibt sich jetzt aus:
P {X= Y} = P { 0} + P { 1} = (1- p) + e -p p .
für k = -1} für k = 0 für k E W
X~ B(1,p),
Y ~ Pois(p).
2. Schritt: Sind (X., Y.) für i = 1, ... , n unabhängige Wiederholungen von (X, Y), so z z
bleibt noch (iii) zu zeigen. Für X= (X1, ... ,Xn) und Y = (Y
1, ... , Yn) ist
n {X=Y} = {X.=Y.fürallei=1, ... ,n} = n {X.=Y.},
z z i =1 z z
n n {X;=Y} = C n {X.=Y.}
0 1 z z = U {X.;= Y.},
0 1 z z z= z=
und mit der Subadditivität ergibt sich n n
(iv) P{X;=Y} = P( U {X.;=Y.}) < 2:: P{X.;=Y.} < np(1-e-p) 0 1 z z z z z= i=l
Weiter ist
P{X+EA} = P{X+EA,X=Y}+P{X+EA,X;=Y}
II
P{Y+EA} = P{Y+EA,X=Y}+P{Y+EA,X;=Y}
vgl. (i).
also P {X+ E A} - P { Y + E A} = P {X+ E A, X ;= Y} - P { Y + E A, X ;= Y}
< P{X + EA, X;= Y} < P{X;= Y},
und P{Y+EA}-P{X+EA} = P{Y+EA,X;=Y}-P{X+EA,X;=Y}
< P{Y+ EA, X;=Y} < P{X;=Y}.
Insgesamt ist daher
und mit ( iv) ergibt sich ( iii).
Schwaches Gesetz der großen Zahlen und Zentraler Grenzwertsatz 28.1.16 B 9 - 15
Beweis des Zusatzes: Für jedes k E W0
gilt
P{X+ =k} P{X+ =k,X+ =Y+} + P{X+ =k,X+;=Y+},
II
P{Y+ =k} = P{Y+ =k,X+ =Y+} + P{Y+ =k,X+;=Y+},
P{X+ =k}-P{Y+ =k} = P{X+ =k,X+;=Y+}-P{Y+ =k,X+;=Y+}. 00
Also ist 2:= I P {X+ = k} - P { Y + = k} I k=O
00
00
< 2:= P{X+ =k,X+;=Y+} k=O
< P{X+;=Y+} -
< 2P{X+;=Y+} -
und mit (iv) ergibt sich der Zusatz.
00
+ 2:= P{Y+ =k,X+;=Y+} k=O
+ P{X+ ;=Y+}
D
Schwaches Gesetz der großen Zahlen und Zentraler Grenzwertsatz 28.1.16 B 9 - 16
9.7 Eigenschaften der Konvergenz nach Verteilung
Beweis von
X L X ::::} L (1)
(2)
(6)
Für stetiges g: IR-----+ IR gilt: n n---+ oo
g(X ) n n---+ oo
(8)
ad (1):
( i)
( ii)
X L X ::::} a+ßX L a+ßX. n n---+ oo n n---+ oo
X L X, y p z p ß ::::}
n n---+ oo n---+ oo a,
n n---+ oo
Y +Z ·X n n n n---+oo
a+ß·X.
X p
X ------+ a. n n---+ oo n n---+oo
Für g(X ) n n---+ oo
g(X) ist nach (VK) 1 für beliebiges BE IB mit
P{g(X) EBB} = 0 zu ze1gen
P{g(X ) EB} P{g(X) EB} bzw. n n---+ oo
II II
P{X Eg-1[B]} n n---+ oo
P{XEg-1[B]}.
Für A : = g - 1 [ B] E IB folgt ( ii) aus X L X und (VK) 1 wenn wir zeigen
n n---+ oo
( iii) P {XE BA } = 0
Aus Bo c B c B-!
B- \ Bo
g(X) 0
folgt g-1[Bo] c A c g-1[B-]! g-1[B-] \ g-1[Bo]
Da g stetig ist, ist g - 1 [ B 0
] offen und g - 1 [ B-] abgeschlossen, also
g-1[Bo] c Ao, A-c g-1[B-].
Es ist: BA= A-\Ao c g-1[B-] \g-1[Bo] = g-1[BB]
und somit?{ XE BA} < P{ X Eg-1[ BB]} = P{g(X) E BB} 0 vgl. (i),
also folgt ( iii). D
ad (2): Folgt aus (1), weil g(x) = a + ßx stetig ist. D
ad (6): Mit ( 6) folgt n---+ oo
ß·X Z ·X n n
Y +Z ·X L a+ß·X. n n n n---+ oo
und mit (5) ergibt sich D
ad (8): Übung! D
Schwaches Gesetz der großen Zahlen und Zentraler Grenzwertsatz 28.1.16 B 9 - 17
9.8 Hypergeometrische Verteilungen 9.8.2 Zufälliges Ziehen mit und ohne Zurücklegen
Beweis von
(13)
(14)
für i EI
n(n-1) < E(Yi)·E(Yz)- n2 N(N-1) N2
n(N- n) Cov(Yi' Yz) = - N2(N -1) < 0
ad {13): Zu zeigen ist: (i) P{ Yi = 1} - 'Jv.
Es gilt: { yi = 1} = { A E n I Y/A) = 1}
= { A CI I i EA , #A = n}
für i ;= j,
für i ;= j.
A = {i}UB) B = A\{i} = { {i}UB I Bci\{i}, #B=n-1}.
Also # {Yi=1} = # ~n-1(I\{i}) _ (N-1) _ (N-1)! _ n·N! = _Nn. (Nn) - n-1 - (n-1)! ·(N-n)!- N·n!·(N-n)!
und
ad (14): Wegen YiYzE{0,1} gilt
mit
und für die 1. Behauptung bleibt zu zeigen:
( i) n(n-1) N(N-1)
Esgilt: {YiYz=1} = {Aciii,lEA,#A=n}
vgl. (9), d.h. ( i) gilt. D
für i ;= j.
A = {i,Z} UB) B = A\{i,l}
= { {i,Z} uB I Bci\{i,l}, #B=n-2}.
Schwaches Gesetz der großen Zahlen und Zentraler Grenzwertsatz 28.1.16 B 9 - 18
Also # {YiYz=1} = # ~n-ii\{i)}) _ (N-2) _ (N-2)! _ n(n-l)·N! _ n(n-1) (N) - n-2 - (n-2)! ·(N-n)!- N(N-l)·n!·(N-n)! - N(N-1) n
1 n(n-1) P{Yi Yz= 1} = #D · # {YiYz= 1} = N(N _ 1) vgl. (9), d.h. (i) gilt.
Weiter: Cov(Yi,Yz) = E(YiYl) - E(Yi)E(Yz)
n(n-1) n2
N(N-1) N 2
n N 2 (N- 1) [N(n-1)- n(N-1)]
n(n-N)
N 2 (N -1)
Beweis von
(15) T = { mE{O, ... ,n} I n-(N-M) < m <M}.
(16) P{y = } = (~)(~=;;n m (~) .
ad {15): n-m<N-M und m<M - - n- (N-M) < m < M .
ad {16}: {Y =m} = {Ac! I #(A nK) =m, #A=n}
A1
= An K 1 A2
= An CK = {A1 UA2 1 A1 cK,A
2cCK, #A1=m, #A2=n-m}
D
also #{Y=m} #{A1 1A1 cK,#A1=m} #{A2 1A2 cCK,#A2=n-m}
(~) (~=~) da#K=M da #CK=N-m
Wegen P{Y = m} 1
#D ·#{Y=m} folgt die Beh. mit (9). D
Beweis von
(19) k>n (~)=o,
Für k > n ist ( n) k = 0, weil es den Faktor n- k = 0 enthält. D
Schwaches Gesetz der großen Zahlen und Zentraler Grenzwertsatz 2801.16 B 9 - 19
9.8.3 Definition und Eigenschaften der hypergeometrischen Verteilung
Beweis von
(4) E{ H(n,M,N)} = np mit
(5) Var { H( n, M, N) } = n p ( 1- p) 0 ~:::: ~ 0
Übung!
9.8.4 Anwendungen und Schätzungen
Beweis von
(2)
(3)
Es ist
E(ß (Y)) = p
Var(ß(Y)) = ~op(1-p)o~=~ 0
E(~ Y) = ~E(Y) = ~ np
Var(l.Y) = 1.._2
Var(Y) = lnp(1-p) ON-n = l.p(1-p) ON-n 0 D n n n2 N-1 n N-1
Schwaches Gesetz der großen Zahlen und Zentraler Grenzwertsatz 2801.16 B 9 - 20
9.8.5 Binomial-Approximation der hypergeometrischen Verteilung
Beweis von
(1) cN(m) 0 b(m I n,p) < h(m I n,M,N) < dNO b(m I n,p) mit
(2) c (m)==[1-..2?!:.Jmo[1-n-mt-m <1, q=1-p, N Np Nq
(3) dN:= [1-N J-n > 10
Es ist h(m I n,M,N) =
Aus
folgt
Analog ist
und es folgt
(M)m (N- M)n-m n! -- o-~~-
m! (n- m)! (N)n
( n ) 0 (M)m 0 (N- M)n-m 0 .!!.:_ m Nm Nn-m (N)n
m-1 m-1 (MLm = TI M-i = TI (p-i_) N i=O N i=O N
( _ m)m < (M)m < m P N - (N)m - P
n-m-1 (N-M)n-m = TI N-M-i
Nn-m 0 N z=O
(i)o
(ii)o
( iii) 0
Mit ergibt sich aus (i) - (iii)
(~) 0 (p _ ;J)m 0 (q _ n N mt-m < h(m 1 n,M,N) < (~) 0 Pm 0 qn-m 0 (N~~)n
< b(mln,p) odN (iv),
wobei Weiter ist
Schwaches Gesetz der großen Zahlen und Zentraler Grenzwertsatz 2801.16 B 9 - 21
(n) ( m)m ( n-m)n-m m 0 p- N 0 q-----w- b( m 1 n, p) 0 [ ~ (p _ 7)) J m 0 [ ~ ( q _ n Nm) J n- m
b(m I n,p) 0 cN(m) ( v)o
Mit (iv) (v) ist (1) gezeigt und die Abschätzungen cJm) < 1, dN> 1 sind trivial. D
Beweis von
Hypergeometrischer Grenzwertsatz: Sei (MNE W)N>2
eine Folge mit
MN<Nund
(4)
Dann gilt für festes n E W
(5) h(m I n,MN,N)
Folgerung:
(6)
(7)
ad (5):
also
P{ H(n,MN'N) EA}
H(n,MN,N)
Aus ( 4) folgt
M ----+ oo 1 N N ---+oo
N---+ oo
N ---+oo
L N ---+oo
Für festes n gilt daher für fast alle N
( i)
Aus ( i) folgt
b(m I n,p)
P{ B(n1 p) EA}
B(n1 p) 0
T M N = { mE{O,ooo,n} I n-(N-M) < m < M} n, N'
und mit (1) ergibt sich weiter für m = 0, 000, n
für m = 0, 000, no
für AC {0, 000, n},
{o, 000, n}
Schwaches Gesetz der großen Zahlen und Zentraler Grenzwertsatz 2801.16 B 9 - 22
gilt c (m) = [ 1-..2?:?:. Jm 0 [ 1- n-m]n-m 1 N NpN NqN N---+oo
( iii) 0
SOWle dN=[1-;J-n N---+oo 1 (iv)o
Da (ii) für fast alleN gilt, folgt (5) mit (iii) und (iv)o D
ad {6): Da AC {0, 000, n} endlich ist, ergibt sich aus (5) sofort
P{ H(n,MN'N) EA} = ~ h(m I n,MN,N) N ~ b(m I n,p) = P{ B(n1 p) EA}. EA ---+oo mEA D m
ad (7}: Für YN"'H(n,MN'N) und beliebiges aEIR seiA==(-oo,a] n{O, 000, n}o
Dann folgt aus ( 6)
Schwaches Gesetz der großen Zahlen und Zentraler Grenzwertsatz 28.1.16 B 9 - 23
9.8.6 Die multivariate hypergeometrische Verteilung
Beweis von
(9) P{X=x} für x E T.
Der Beweis ist eine direkte Verallgemeinerung des Beweises von 9.8.2 (16).
Esist {X=x} = {Acii#(Anik)=xk fürallek=1, ... ,K}
also # {X=x}
Wegen P{X = x}
K Ak=Anlk fürallek
{ U Ak I Ak Clk und #Ak=xk für alle k = 1, ... ,K} k=l
K TI # { Ak I Ak clk, #A1=xk}
k=l K TI (Mk) da #lk=Mk
k=l Xk
1 #D ·#{X=x} folgt die Beh. mit ( 4). D
Schwaches Gesetz der großen Zahlen und Zentraler Grenzwertsatz 28.1.16 B 9 - 24
Beweis von
(17) n(N-n)MkMz
N 2(N -1)
(18) Corr(X X ) = - J Pk Pl k' z V (1-pk)(1-pz)
n(N-n)PkPl < 0 für k :;=. l, (N-1)
für k :;=. l,
ad (17}: Unter Verwendung der Indikatorfunktion Y.: .f2-----+ {0, 1} dafür, daß die Kuz
gel i EI gezogen wird ( vgl. 9.8.2 (11))
( i) Y;(A) = { ~ falls falls
iEA
i \tA (Kugel i wird gezogen)
lassen sich die Anzahlen X k und Xz als Summen von Indikatoren darstellen
( ii)
Es folgt Cov(Xk,Xz) = Cov( 2:= Y., 2:= Y.) i Efk z jEiz J
= 2:= Cov(Y., 2:= Y.) i Efk z jEiz J
= 2:= 2:= Cov(Y., Y.) i Efkj Elz z J
= 2:= 2:= _ n}N -n) i EI J.EI N (N-l)
k l
vgl. 7.8.1 (7)
vgl. 7.8.1 (7)
Mit #lk=Mk und #lz=Mz folgt die erste (und auch zweite) Gleichung in (17).
ad {18}: folgt direkt aus (17) und (16). D
Schwaches Gesetz der großen Zahlen und Zentraler Grenzwertsatz 28.1.16 B 9 - 25
Beweis von
(23) cN(x) ·multiK(xln,p) < hK(xln,M,N) < dN· multiK(xln,p) mit
(24) K x xk
cN(x) : = TI [ 1-__!_ J < 1, k=l Mk
(25) dN:= [1-N J-n > 1.
Der Beweis verläuft analog zur univariaten hypergeometrischen Verteilung in 9.8.5.
Es ist
n!
Für jedes M = Mk und x = xk gilt
(M)x _ X -1 M-i
N x - .TI N z=O
und somit
Mit
wobei
mit
(i)
X -1 = TI (p-i.)
i=O N
(ii).
ergibt sich aus (i) (ii)
Weiter ist
(iv)
Mit (iii) - (iv) ist (23) gezeigt und die Abschätzungen cN(x) < 1, dN> 1 sind trivial. D
Schwaches Gesetz der großen Zahlen und Zentraler Grenzwertsatz 2801.16 B 9 - 26
Beweis von
Multivariater hypergeometrischer Grenzwertsatz:
Sei MN= (M Nl' 000, M NK) E WK für n > 2 eine Folge mit
(26)
(27)
M =N + und
Dann gilt für festes n E W
(28) für x E T 0
n
Folgerung:
(29) für Ac T 0
n
ad {28}: Der Beweis verläuft analog zum univariaten Grenzwertsatz in 9.8.5.
Aus (27) folgt für jedes k = 1, 000, K
Für festes n gilt daher
n<MNk für fast alle N,
also Tn,M,N = { x= (xl,ooo,xK) E w~ I X+ =n, X <M}
= { X E w~ I X+= n } T n für fast alle n
und mit (23) ergibt sich weiter für x ET MN= T n, , n
Aus
und
folgt (28) mit (ii) und (iii)o
ad {29): Da AC T endlich ist1 ergibt sich aus (28) sofort n
2:: multiK(x I n,p) = xEA
P{ MK(n1 p) EA}.
(i),
(ii),
( v)o
(iv)o
D
D
Konfidenzgrenzen für den Erwartungswert 1501.09 B 10-1
10. Konfidenzgrenzen für den Erwartungswert
10.1 * Exakte Konfidenzgrenzen für den Erwartungswert einer Normal-Verteilung mit bekannter Varianz
Beweis von
Die Irrtumswahrscheinlichkeit (7) nimmt gerrau dann den vorgegeben Wert a an,
wenn die Bandbreite wie folgt gewählt wird
d Q
z 0 a(X) Q
1 z o-a etyn
Es gilt:
Beweis von
(13) P { 1-L < 4 (X)} = 1 - a o,a
Es gilt: p { 1-L > 4 o et(X) } = p { 1-L
' - p _a > {
-d - a(X)
Beweis von
(16)
Es gilt:
P { p, EI (X) } = 1 - a Ct
P{ p, \tla(X)}
Ct
2
u
u
+
}
}
-d a(X)
d
Ct
2
z 0 a(X) 0
Ct D
ao D
ao D
Konfidenzgrenzen für den Erwartungswert 15.1.09 B 10-2
Beweis von
F(xl4 (x))== P{X<xl4 (x)} = a o,a o,a bzw. (18)
(19) 40
a(x) - Max {~t E IR I F(x l~t) > a} '
G( x I 4 ( x)) : = P {X> x I 4 ( x) } = a u,a o,a (21) bzw.
ad {18): F(x 14 (x)) = <I>{ x- 4o,a(x)} = <I>{ -da } = <I>(-za) = a. o, a a(X) a(X)
ad {19): folgt aus (18), da F(x l~t) streng fallend in fL ist.
ad {21): G(x 14 (x)) = <I>{ 4u,a(x)- x} = <I>{ -da } = <I>(-za) = a. u, a a(X) a(X)
ad {22): folgt aus (21), da G(x l~t) streng wachsend in fL ist. D
Konfidenzgrenzen für den Erwartungswert 15.8.16 B 10-3
10.2* Asymptotische Konfidenzgrenzen für den Erwartungswert einer beliebigen Verteilung
Beweis von
(12)
(13)
P{4 (x(n))<~t} 1-a, u, a n---+ oo
P { fL < 4 (x(n)) } 1 - a . o,a n---+ oo
Der Beweis gilt für jede konsistente Schätzung a(X(n)), weil dann (10) gilt.
ad {12): P { 4 (xCn)) < Ii} = P { x(n)- d < Ii} ~Q Q
= p { fo[ x(n) -~t l < z a(x(n))} Q
= p { u(n) < z a(x(n))/a} Q
( i) = P{v(n) < 0},
Aus der Konsistenz (10) folgt mit 9.1.1 (3)
z a(x(n))/a p a n---+oo
z 0
Q
Mit (8) und dem Theorem von Slutzky ergibt sich
( ii) v(n) L N(O, 1)- z = N(-z , 1). n---+ oo a a
Aus der Eigenschaft (VK)** der Verteilungskonvergenz (für stetige Limes-Vertei
lungen) ergibt sich mit ( i)
------+ P{N(-z ,1)<0} = <I>(z) = 1-a. n---+oo a a
ad (14): Analog ( i) ergibt sich
P{~t<4 (xCn))} = P{~t<X(n)+d} o,a a
= P{v(n) < 0}, v(n) : =- u(n)- z a(x(n))ja. Q
Wegen - u(n) L - N(O 1) - N(O 1) folgt wieder (ii) und somit. (n---+oo) ' - '
P { fL < 4 (X(n)) } P { N(- z , 1) < 0} = <P(z ) = 1- a. D u,a n---+oo a a
Konfidenzgrenzen für den Erwartungswert 15.1.09 B 10-4
10.3* Exakte Konfidenzgrenzen für den Erwartungswert einer Normal-Verteilung mit unbekannter Varianz
Beweis von
(12) P{ X- z0ß(X) < p,} = P n-1(z
0J = P{p, <X+ z
0ß(X)}
Es ist P {X- z 0
c7(X) < I'} = P { ;M < Za }
= P{ T(X) () Za } = P n-1(za)
und P{X+z0<7(X)>1'} = P{ ;M >-za}
= P{ T(X) > -za}
= 1- P (-z ) n-1 a
Beweis von
(18) P { 4 (X) < p, } = 1 - a = P { p, < 4 (X) } u,a o,a
P { 4 (X) < 1-L} = P{ X- dn a < 1-L u,a '
= P{ T(X)
}
d } < a(~)
Es gilt
= P{ T(X) < t } ( ) m,a
mit m = n-1
=P(t )=1-a. m m,a
und: P { 4 (X) > 1-L} = P { X+ dn a > 1-L } o,a '
= p{ -d } T(X) > a(~)
= P{ T(X) > -t } mit m = n-1 m,a
= 1-<P (-t ) m m,a
=P(t )=1-a m m,a
vgl. (11). D
Konfidenzgrenzen für eine Wahrscheinlichkeit 21.1.16 B 11-1
11 Konfidenzgrenzen für eine Wahrscheinlichkeit
11.1 Die exakte obere Konfidenzgrenze nach Clopper-Pearson
Beweis von
(3) a Bp F(xlp)
x-n -- b(xln,p) < 0 für x<n. 1-p
Übung!
Beweis von
(6) b(xln,O) == lim b(xln,p) { 1 falls x=O p----+0 0 falls x>O
(7) b( x I n , 1) : = lim b( x I n , p) { 1 falls x=n p----+1 0 falls x<n
(4) F(xl 0) == lim F(xlp) 1. p----+0
(5) F( x 11) : = lim F( x I p) { 0 falls x<n p----+1 1 falls x=n
ad (6): b(xln,p) (~) P.x(1- Pt-x p----+0
(~) 0x 1 n-x
ad (7}: b(xln,p) (~) P.x(1- Pt-x p----+1
(~) 1 X on-X
X X
ad (4): lim F(xlp) = lim 2:: b(iln,p) = 2:: lim b(iln,p) = 1 vgl. ( 6). p---+O p---+O i=O i=O p---+O
X { 0 falls x<n }· ad (5): lim F(x I p) 2:: lim b( i I n , p) - D -falls p----+1 i=OP----+ 1 1 x=n
Konfidenzgrenzen für eine Wahrscheinlichkeit
Beweis von
(10) F(xlß (x)) = a o, 0:
p (n) = 1 o, 0:
(11)
für x<n, wobei
für x= n.
Max { F(ll p) < a ll = 1, ... , n }
F(L~a) IP) < a
21.1.16
p (x) < 1, o, 0:
wobei
L~a) = Max{l=O, ... ,niF(llp)<a}
B 11-2
ad {10): Für x < n ist F( x 1-): [ 0, 1] -----+ [ 0, 1] eine streng fallende, bijektive Funktion,
und somit gibt es gerrau einen Wert p (x) < 1 sodaß (10) gilt. Und dieser Wert o,o: stimmt überein mit dem Maximum in
( 9) p 0
o: ( x) : = Max { 0 < p < 1 I F( x I p) > a}. '
Für x = n ist F( n I p) 1 und es folgt
p0
o:(n) = Max {O<p<111>a} = Max (0,1] = 1.
' D
ad {11): Für x < n ist F( x I p) ist streng fallend in p nach (2), also gilt
( i)
vgl. (10)
Diese Äquivalenz gilt auch für x = n, weil dann wegen
p (n) = 1 > p o, 0:
und
nach Definition, da F(n I p) = 1 > a
beide Seiten in (i) falsch sind. Aus (i) für alle x = 0, 1, ... , n folgt dann
P{p0
o:(X) < p} = P{ X <Lp(a)} '
= F(Lp(a) I p)
< a nach Definition von L~ a).
Da F(ZI p) streng wachsend in l ist gilt auch
Max{F(Zip) <a IZ=1, ... ,n} = F(L~a) IP) D
Konfidenzgrenzen für eine Wahrscheinlichkeit 21.1.16 Bll-3
Beweis von
(14) !E_ = p(x) < p (x) n o,a
für x<n
Im Fall n = 1 ist x = 0 und die Behauptung folgt aus p(O) = 0 < p (0.). Im folgen-o,a
den sei n > 2. Nach W Uhlmann {1966) Satz 6 ( vgl. unten) gilt:
( i) F(xln~ 1 ) >1.. 2 > F(xl~!{) für 0 <X< n-1
- 2
( ii) F(xln~ 1 ) 1 = F(xl~!{) für n-1 2
x=--2
( iii) F(xln~ 1 ) <1.. < F(xl~!{) für n-1 2
-2-< x< n.
Da F( x I p) für 0 < x < n streng fallend in p ist, folgt
(iv) _x_ < !E_ F(xl~) > F(xln~ 1 ) > 1 für n-1 n-1 - n ::::}
2 0 < x<-
2- < n
( v) x(n+1) < n(x+1) ::::}
:E_ < x+1 ::::} F(x I~) > F(xlx+1) > 1 für n-1 n - n+1 - n+l 2
-2-< x< n
Insgesamt ergibt sich daher für 0 < x < n
und mit der Monotonie (2) von F(x I p) folgt die Behauptung.
Literatur: W. Uhlmann (1966) Vergleich der hypergeometrischen mit der Binomial-Ver
teilung. Metrika 10, 145-158. D
Konfidenzgrenzen für eine Wahrscheinlichkeit 21.1.16 B 11-4
11.2 Die exakte untere Konfidenzgrenze nach Clopper-Pearson
Beweis von
(2) G( x I p) ist streng wachsend in p für x> 0,
G(Oip) = 1.
Für 0 < x < n ist 0 < x-1 < n und nach 11.1 (2) ist F( x-11 p) streng fallend in p1
also G( x I p) = 1-F( x-11 p) streng wachsend in p. Und G( 0 I p) = 1 ist trivial. D
Beweis von
(4) G( x I p ( x)) = a bzw. F(x-1lß (x)) = 1-a für x> 0 1 u,a u,a
p (0) = 0 für x= 0. u,a
Der Beweis verläuft analog 11.1 (10). Für x > 0 ist G(x 1- ): [ 0, 1] -----+ [ 0, 1] eme
streng fallende, bijektive Funktion, und somit gibt es gerrau einen Wert p (x) sodaß u,a ( 4) gilt. Und dieser Wert stimmt überein mit dem Minimum in
(3) pua(x) == Min{O<p<1IG(xlp)>a}. '
Für x = 0 ist G( x I p) 1 und es folgt
p0(xla) = Min {O<p<111>a} = Min [0,1) 0. D
Beweis von
(5) Max { G(ZI p) < a ll = 1, ... , n}
G(LG(a) IP) < a wobei
LG(a) = Min{l=O, ... , n I G(Zip) <a}
Der Beweis verläuft analog 11.1 (11). Für jedes x > 0 ist G( x I p) ist streng wachsend
in p nach (2), also gilt
Konfidenzgrenzen für eine Wahrscheinlichkeit 21.1.16
( i) G( X I p) < G( X I p u Q (X)) '
vgl. (4)
Diese Äquivalenz gilt aber trivialerweise auch für x = 0, weil dann wegen
p (0) = 0 < p u,a
und
nach Definition, da G(O I p) = 1 > a
beide Seiten in (i) falsch sind. Aus (i) für alle x = 0, 1, ... , n folgt dann
P{LG(a) <X}
G(LG(a)IP)
B 11-5
< a nach Definition von LG(a).
Da G(ZI p) streng fallend in l ist gilt auch
Max{G(Zip) <a IZ=1, ... ,n} = G(LG(a)IP) D
Beweis von
(8) p (x) < p(x) = E._ u,a n
für x>O
Wir betrachten Y ,.....__ B( n, q) mit q = 1- p und y = n- x < n.
1. Beweis: Mit
G( X I p) = p {X> X I p} = p { y < y I q} = F(y I q)
ergibt sich aus ( vi) im Beweis von 11.1 (14) für 0 < y < n
G(x I~) = F(y I~)> ~ > a = G( X I Pu,a(x)).
Da G(x I p) streng wachsend in p ist, folgt die Behauptung.
2. Beweis: Wir führen die Behauptung mit 11.4 (5) zurück auf die zugehörige Ei
genschaft 11.1 (14) der oberen Grenze für q
JL < q (y) = 1- p (x) n o,a u,a also D
Konfidenzgrenzen für eine Wahrscheinlichkeit 21.1.16 Bll-6
11.3 Das exakte zweiseitige Konfidenzintervall
Beweis von
(1) für O<x<n.
Für x = 0 ist p ( x) = 0 1 u,a p (x) > 0
o, Ct und somit gilt (1).
Für x = n ist p ( x) < 1 1 u,a p (x) = 1
o, Ct und somit gilt (1).
Und für 0 < x < n ergibt sich wegen a < ~
F( x I p ( x)) = a < 1- a = 1- G( x I p ( x)) o,a u,a
= F( x-1lß (x)) u,a
vgl.11.1 (10), 11.2 (4)
vgl. 11.2 (1)
<F(xlß (x)) u,a
und da F(x I p) streng fallend in p ist, folgt die Behauptung. D
Beweis von
(3) P{p a(X)<p<p a(X)} > 1-a. u,2 o,2
Wir zeigen, daß die komplementäre Wahrscheinlichkeit< a ist:. Wegen (1) gilt
P{p < p Q'(X)} + P{p Q'(X) < p} vgl. (1) u,2 o,2
< Ct
2 + Ct
2 =a.D
Konfidenzgrenzen für eine Wahrscheinlichkeit 21.1.16
11.4 Berechnung der Grenzen
Beweis von
1
(0) p (n) = oli. u,a
Wegen F(O IP) = (1-Pt, bzw.
ist p (0) bzw. p (n) die eindeutige Lösung von o,a u,a
Beweis von
(3)
(4) G( x I p) = F( n -x I q)
bzw. n p = a.
für x> 0.
mit q= 1-p
(5) pu a(x) = 1- q0
a(y) mit y = n-x. ' '
ad {3): Für 0 < x< n ist 0 < x-1 < n. Mit G(x IP) = 1-F(x-1lp) folgt
G(xl p) = a F(x-1lp) = 1-a,
und hieraus ergibt sich (3).
ad (4): Für X"' B(n,p) ist Y = n- X"' B(n, q) und somit gilt
G(xlp) = P{X>x I p} = P{Y<n-x lq} = F(n-xlq).
ad (5):
Für x = 0 ist: p ( 0) = 0 , q ( n) = 1 u,a o,a und somit gilt (3).
B 11-7
D
Für x> 0 ist: a=G(xlß (x))()F(yl1-p (x)) u,a 4 u,a und mit 11.1 (10) folgt
d.h. (5) gilt. D
Konfidenzgrenzen für eine Wahrscheinlichkeit 21.1.16 Bll-8
Beweis von (7) (8) unter Voraussetzung der Beziehung (6)
(6) P { B( n,p) < x} = P { F k l > u} bzw. F( x I p) = 1- P k l ( u) mit
k=2(x+1), l p u=-·-k 1- p l = 2(n-x),
(7) Pu,a.(x) = 1 ~ a (exakte untere Grenze) für 0 < x mit
k a = y·Fkl;a.' k=2(n-x+1), l = 2x.
(8) Pa,a.(x) = 1 ~ a (exakte obere Grenze) für x < n mit
k a = y·Fkl;a.' k=2(x+1), l = 2(n-x),
ad (8): Die charakterisierende Gleichung 11.1 (10) für p (x) lautet mit (6) o,a.
1-Pkz(u)=a mit u=lk·p (x)/(1-p (x)), o,a. o,a.
Also ist u = Fkl·a. '
und aus a=b_·F =b_·u=p (x)/(1-p (x)) l k l; (X l o, (X o, (X
folgt a- a p (x) = p (x) o, (X o, (X
ß (x)=a(1+ar 1. o, (X
und somit
ad (7}: Wir verwenden den Zusammenhang
(5) Pu a.(x) = 1- qo a.(y) ' '
Nach (8) ist q (y) = a (1 + a r 1 o, (X
mit y = n-x.
für y < n mit
k = 2(y+1) = 2(n-x-1)
l=2(n-y)=2x.
1-a(1+ar1 = (1+ar 1.
D
D
Konfidenzgrenzen für eine Wahrscheinlichkeit 21.1.16 Bll-9
11.6 Asymptotische (approximative) Konfidenzgrenzen
Beweise zu
(9)
2 ap -bp+c
mit
(10) a == n + z 2 > 0 Q '
b - 2 2 : = 2n X+ Z = 2 X+ Z > 0,
Q Q
(11) p (x) m
- 1 2 1 2 X+ 27i"Za x+2za
1 + 1._ z2 2 n+z n a Q
-2 2 (12) 2 X
p2 (x)-X
pm(x)- 1 2 n( n +z;) 1 +-z m
n a D(x)
-2 1 2 c==nx =-x >O n
b E (0, 1) ,
2a
2 c p (x)- - > 0 0 m a
(13)
(14)
p (x) == p (x) +/Ni) o,a m (asymptotische obere Grenze) 1
p (x) == p (x)- /Ni) u,a m (asymptotische untere Grenze).
(15) 0 < pu a(x) < p(x) < p0
a(x) < 1.
' ' (16) 0 = p (0) u,a < p (0) o,a < 1'
(17) 0 < p (n) < p (n) 1. u,a o,a
(18) 0 < p (x) < p(x) < p (x) < 1 falls 0 < x < n. u,a o,a
Im Beweis setzen wir p = p (x) und D =D(x). Die verschiedenen Darstellungen m m
der in (9)-(12) definierten Größen ergeben sich durch elementare Umformungen.
Wegen a < ~ ist z a > 0 und hieraus erhält man die Ungleichungen in (10)
Aus a, b > 0 ::::}
und
p > 0 m
p <1 m
ergibt sich p E (0, 1) in (11). Und für die Diskriminante D gilt m
Konfidenzgrenzen für eine Wahrscheinlichkeit
D>O 2 ap > c
m
21.1.16 Bll-10
2 ( 2 1 2 2) b >4ac=4 x +nx za.
Mit b2
= (2x + z!)2 = 4x
2 + 4xz! + z! > 4(x
2 + xz!) > 4 ( x
2 + ~ x2 z!) ergibt sich die Ungleichung D > 0 in (12).
Wegen a>O hat die Funktionfinp E(0,1) ihr Minimum m
( i) f(p ) =- a < 0, m
da
da
z >0 Q
und besitzt die beiden reellen Nullstellen p (x), p (x) aus (13), (14) mit 0 u
( ii) p (x) < p < p (x) u m o
Daf auf(- oo,p ] streng fallend und auf [p ,oo) streng wachsend ist folgt aus m m
( iii) !(1) = n (1- x)2 > 0
und 0 < p < 1 zunächst, daß beide Nullstellen im Intervall [0, 1]liegen: m
Im Fall x > 0 ist sogar f(O) > 0 und somit
( v) falls x> 0.
Und im Fall x < n ist f(1) > 0 und somit
( vi) falls x< n.
Aus
(vii) f(x) =- x(1-x)z; < o
erhält man weiter
Im Fall 0 < x < n ist sogar f(x) < 0 und es gilt
(ix) p (x) < x < p (x) u 0 falls 0 < x < n.
Mit (iv) und (ix) ist (15) gezeigt, weil p(x) = x Wir zeigen jetzt (16) - (18).
Konfidenzgrenzen für eine Wahrscheinlichkeit 21.1.16 Bll-11
1. Fall: x = 0
Dann ist f(O) = 0 und nach ( vi) ist p (0) = 0 und (16) folgt. u
2. Fall: x = n
Dann istf(1) = 0 und nach (v) ist p (n) = 1 und (17) folgt. 0
3. Fall: 0 < x < n
Dann folgt (18) aus ( v) und (ix). D
Beweise zu
Im Fall x < n ist die obere Grenze p (x) die einzige Lösung der approximierte o, 0:
Gleichung (6) im Intervall (0, 1). Und im Fall x> 0 ist die untere Grenze p (x) die u,o:
einzige Lösung der approximierte Gleichung (8) im Intervall (0, 1).
(6)
(8)
<~>(Jn(x-p)) = a a(p)
<I> ( Vn (p- x) ) = a a(p)
bzw.
bzw.
Jn(p-x)-a(p) zo:
Jn(p-x)-a(p) - -zo:.
Wegen a(p) > 0 für 0 <p < 1 und z > 0 läßt sich (6) äquivalent schreiben als 0:
fo(p- x) = z a(p) 0:
x < p und f(p) = 0.
und hat wegen (15) im Intervall [0, 1] die einzige Lösung p (x). Für x < n folgt mit o, 0:
(16) und (18) sogar 0 < p (x) < 1. o, 0:
Analog läßt sich (8) läßt sich äquivalent schreiben als
fo(p- x) = -z a(p) 0:
p<x und f(p) = 0
und hat wegen (15) und (17) im Intervall [0, 1] die einzige Lösung p (x). Für x> 0 u,o:
folgt mit (17) und (18) sogar 0 < p (x) < 1. D u,o:
Konfidenzgrenzen für eine Wahrscheinlichkeit 21.1.16 B 11-12
Beweise von
(19) x- np < z · a(p) JTi, Ct
p < p (x) a, Ct
np- x < z · a(p) JTi. Ct
Zum Nachweis zeigen wir die Äquivalenz der entsprechenden Negationen, wobei wir
ausnutzen daß die Funktion f auf (0 ,p (x)) streng fällt und auf (p (x), 1) streng m m
wächst. Dann gilt für 0 < p < 1:
p <Pu a(x) {} p <Pu a(x) und p<x vgl. (15) ' '
{} f(p) > f(p u a(x)) = 0 und p<x '
{} n(p- x) 2 > a2(p) z; und p<x
{} Vn (x- p) > a(p) z ri
{} (x-np) > a(p)z(Xvn °
Damit gilt die erste Äquivalenz in (19), und die zweite folgt analog:
Pa a(x) < p {} Pa a(x) < p und x<p vgl. (15)
' ' {} f(p) > f(p a a(x)) = 0 und x<p
' {} n(p- x) 2 > a2(p) z; und x<p
{} Vn (p - x) > a(p) z ri
{} ( n p - x) > a(p) z a JTi . D
Konfidenzgrenzen für eine Wahrscheinlichkeit 21.1.16 B 11-13
Beweise von
(20) P{p <p (X)} = P{np-X < z 0 a(p) vn} ,......, 1- a, ,......, o, 0: 0:
P{ p (X) < p} = P{ X - np < z 0 a(p) vn} ,......, 1- a, ,......, u,o: 0:
lim P{p<p (_x(n))} = 1-a, lim P{p (_x(n)) < p} 1-a 0
n---+oo o, o: n---+oo u, o: (21)
Aus (19) und dem Binomial-Grenzwertsatz ergibt sich
P{p < p (x(n))} = P{ np -x(n) < z 0 a(p) fo} o, 0: 0:
{ x(n)_np }
= p a(p) yln > -zo: n---+oo P{N(0,1) >-zo:} =
1 - <!>(- zo:) = 1- a 0
Damit sind die ersten Behauptungen in (20), (21) gezeigt und die zweiten erhält
man analog:
P{p (x(n)) < p} = P{ x(n)- np < z 0 a(p) fo} u,o: 0:
{ x(n)_np }
= p a(p) yfn < zo: n---+ oo P{N(0,1) <zo:}
<I>(zo:) = 1- ao D
Konfidenzgrenzen für eine Wahrscheinlichkeit
Beweise von
(22)
(23)
p ( x) ist für x > 0 streng wachsend in a, u,a
p ( x) ist für x < n streng fallend in a. o,a
21.1.16
ad (22): Für a < a' < 12
und ist zu zeigen p (x) < p 1(x) 1 also mit (19) u,a u,a
( i) x-np < z ·a(p)fo Ct
wobei p=p ~(x). u,a
Nun ist p für x > 0 die (einzige) Lösung von (8) mit a' statt a, .d.h. es gilt
( ii) X - np = n(p- X) = Z 1 • a(p) Vn . Ct
Mit z 1 = <P(1- a') < <P(1- a) = z Ct Ct
ergibt sich (i) aus (ii).
ad {23): Analog (22) -oder mit (22) und (24).
Für a < a' < 12
und ist zu zeigen p 1(x) < p (x) 1 also mit (19) o, Ct o, Ct
( i) np- x < z · a(p) JTi Ct
wobei p=p ~(x). o,a
Nun ist p für x< n die (einzige) Lösung von (6) mit a' statt a, .d.h. es gilt
( ii) np- x = z 1 • a(p) JTi < z · a(p) JTi, Ct Ct
d.h. ( i) gilt.
B 11-14
D
Konfidenzgrenzen für eine Wahrscheinlichkeit 21.1.16
Beweis von
(24) mit
Für x = 0 bzw. x = n ist y = n bzw. y = 0 und (24) gilt. Sei jetzt 0 < x, y < n.
Mit - 1 -y=-y=1-x n
und
ist q (y) die eindeutige Lösung q von o,o:
yln(!i- q) yln(p- x) a(q) a(p)
( i)
a(p) = a(q)
B 11-15
y = n-x.
Damit ist 1-q (y) eine Lösungp von (i), und mit (8) folgtp (x) = 1-q (y). o, 0: u, 0: o, 0:
Analog ist q (y) die eindeutige Lösung q von u,o:
(ii) z = Jn(!i- q) = Jn(p- x) o: a(q) a(p) '
und 1-q (y) ist eine Lösungp von (ii). Mit (6) folgtp (x) = 1-q (y). D u, 0: o, 0: u, 0:
Konfidenzgrenzen für eine Wahrscheinlichkeit 21.1.16 B 11-16
Beweis von
(25) [pm(x(n))- p(X(n)) J p
0, n---+ oo
(26) n [pm(x(n))- p(X(n)) J p z; [ ~- p J . n---+ oo
(27) V D(x(n)) p 0, n---+ oo
(28) V n ·D(x(n)) p Za· a(p) . n---+ oo
Im Beweis setzen wir p~) = pm(x(n))1
p(n) = p(X(n))1
D(n) =D(X(n)) und verwenden
die Konsistenz p(n) p p sowie die Eigenschaften 9.1.1 (3) und (7) ohne expli-n---+ oo
zite Erwähnung.
ad {25) 1 {26}: Es gelten
(i) [P~- p(n) ][ 1 + ~ z;] PA(n) + _1 z2 _ PA(n) [ 1 + 1.. z2] 2n a n a
1 2 [ 1 A(n) J nZa 2- P '
2 [1.. _ A(n)J Za 2 P '
p z; [ ~- p J . n---+ oo
1 ( iii) n---+ oo
(26) ergibt sich jetzt durch "Multiplikation" von (ii) mit (iii). Und (25) folgt durch
"Multiplikation" von (26) mit: 1.. 0. n n---+ oo
ad (27} 1 {28}: Es gelten
(iv)
( v)
Mit
folgt
p
n---+ oo
[ 1 + ~ z;] -2 _n_---+_oo-----+
n D(n) _P_--+ n---+ oo
2 A(n) (1- A(n)) + _1 4 ZaP p 4n Za
z; p ( 1-p ) = z; · a2(p) .
1
also auch (28). Und (27) folgt durch "Multiplikation" von (28) mit: 1 0. D yn n---+oo
Konfidenzgrenzen für eine Wahrscheinlichkeit 15.8.16 B 11-17
11.7 Grobe asymptotische (approximative) Konfidenzgrenzen
Beweis von
(4) p a(p).
n---+ oo
Nach 9.1.2 (2) (mit p statt p,) gilt
p n---+oo P
und da die Funktion a(-) in p stetig ist, folgt (4) mit 9.1.1 (3). D
Beweis von
(9) lim P{p (x(n)) < p} = 1- a = lim P{p < p (x(n))}. n---+oo u, a n---+oo o, a
Wie am Ende des Abschnitts ausgeführt wird, ergibt sich (9) als Spezialfall aus
10.2 (12) und (13) für B(1,p)-verteilte Zufallsvariablen X1, ... , Xn. Der Vollständigkeit
halber geben wir den Beweis trotzdem für diesen Spezialfall an und setzen hierbei
p(n): = p(X(n)), o-(n): = a(ß(X(n))) und a: = a(p). Für die untere Grenze gilt
P{p (x(n)) < p} = P{p(n)_ d < p} u,a a
P{rJn) <z o-(n)ja} Ct
( i) P{v(n) < 0},
Aus der Konsistenz (4) folgt mit 9.1.1 (3)
z a(x(n))/a p a n---+oo
z 0
Q
Mit (5) und dem Theorem von Slutzky ergibt sich
( ii) v(n) L N(O, 1)- z = N(-z , 1). n---+ oo a a
vgl. (5)
v(n) : = u(n) _ z 5(n) ja. Ct
Aus der Eigenschaft (VK)** der Verteilungskonvergenz (für stetige Limes-Vertei
lungen) ergibt sich mit ( i)
------+ P{N(-z,",1) <0} = <I>(zJ = 1-a. n----+ oo '--'- '--'-
Analog ( i) ergibt sich für die obere Grenze
Konfidenzgrenzen für eine Wahrscheinlichkeit 15.8.16 B 11-18
P{p < p (x(n))} = P{p < p(n) + d } o,a a
= P{v(n) < 0},
Wegen - u(n) L - N(O 1) - N(O 1) folgt wieder (ii) und somit. (n---+oo) ' - '
P{p<p (X(n))} P{N(-z ,1)<o}=<P(z) =1-a. D o, a n---+ oo a a
Beweise von
(10) d (x(n)) Vn p Q n---+ oo
d (x(n)) p
(11) Q
Jn(x(n)) n---+ oo
Im Beweis setzen wir p(n) = p(X(n))1 d~n) = da(x(n)), D(n) =D(x(n)) und verwenden
die Konsistenz p(n) p p sowie die Eigenschaften 9.1.1 (3) und (7). n---+ oo
p n---+ oo
ad {11): Aus 11.6 (28) folgt
p n---+ oo
und "Multiplikation" mit (10) ergibt (11). D
Beweise zu
(15) a2(ß(X)) = ~ ~ (Xi-X)2 = n~1 a2(X). z
Wegen X. E {0, 1} ist x? =X. und somit z z z
= l[~x. _l(~x.?J n i z n i z - -2 X-X
a2(X) = a2(ß(X) ).
Damit gilt die erste Gleichheit in (5) und die zweite ergibt sich mit (14). D
Konfidenzgrenzen für den Erwartungswert einer Poisson-Verteilung 16.3.16 B 12- 1
12. Konfidenzgrenzen für den Erwartungswert einer
Poisson-Verteilung
12.1 Konstruktion der exakten oberen Konfidenzgrenze
Beweis von
(3) für x> 0, p,>O.
Es ist a ( I ) 1 [ x-1 -f..l X -f..l] Bf-L p x p, = x! x p, e - p, e
= p(x-llf-L)- p(xlf-L)
wobei per Definition p( -1lp,) = 0 gesetzt wird. Hieraus ergibt sich X
: F(xlp,) = 2:= [p(i-1lp,)- p(ilp,)] f-L i=O
Beweis von
(4) F(x I 0) == lim F(x IJ-L) = 1 f-1--+0
(5) p(x I 0) == lim p(x IJ-L) = { 10 f.L--+0
(6) p( x I oo) : = lim p( x 11-L) = 0 , f-1--+ 00
= - p( X I f-L) 0
falls x = 0
falls x> 0
F(x I oo) : = lim F(x IJ-L) f-1--+ 00
(5) gilt, weil p( x 11-L) in p, = 0 rechts-stetig ist, und ( 4) ergibt sich daraus.
0.
D
Die erste Behauptung in (6) ergibt sich, weil ef-l für p,---+ oo schneller wächst als jede
Potenz p,x, und die zweite Behauptung folgt aus der ersten. D
Konfidenzgrenzen für den Erwartungswert einer Poisson-Verteilung 16.3.16 B 12- 2
Beweis von
(8) F(xl 4 (x)) = a o, 0: für x> 0.
Da F(x 1- ): ( 0, oo)-----+ ( 0,1) eine streng fallende Bijektion ist, gibt es gerrau einen
Wert 4 (x) > 0, sodaß (8) gilt. Weiter folgt o,o:
Beweis von
(9) Max { F(ll~t) < a ll E W 0 }
F(Lpf_a) l~t) < a
D
wobei
Für jedes x E W0 ist F( x l~t) ist streng fallend in fL nach (2), also gilt
vgl. (8)
{} x < LF(a).
Es folgt P{ 40
o:(X) < ~t} = P{ X <LF(a)} '
< a nach Definition von Lpf_ a).
Da F(ll~t) streng wachsend in l ist gilt auch
D
Konfidenzgrenzen für den Erwartungswert einer Poisson-Verteilung 16.3.16 B 12- 3
12.2 Konstruktion der exakten unteren Konfidenzgrenze
Beweis von
(4) G(xl4 (x)) = a bzw. F(x-114 (x)) = 1-a u,a u,a
für x> 0 1
4 (0) =0 u,a
für x= 0.
Für x > 0 ist G( x 1-): ( 0, oo) -----+ ( 0, 1) eine streng wachsende Bijektion, und somit
gibt es gerrau einen Wert 4 (x) > 0, sodaß (4). Weiter folgt u
4 u a ( x) = Min { fL > 0 I G( x I fL) > a}. '
Für x = 0 ist G(O I tt) = 1 > a für alle tt > 0. Aus (3) ergibt sich daher
4u a(O) = Min {tt>O l1>a} = Min [O,oo) = 0. '
Beweis von
(5) Max { G( ll tt) < a ll E W 0 }
G(LG(a) I fL) < a wobei
L G( a) = Min { l E W 0 I G( litt) < a} ,
Für jedes x E W ist G( x I tt) ist streng wachsend in tt nach (2), also gilt
( i) G( X I fL) < G( X 14 u Q (X)) '
G(x I tt) < a vgl. (4)
Diese Äquivalenz gilt aber trivialerweise auch für x = 0, weil dann wegen
4 (0) = 0 u,a
und
LG(a) > 0 nach Definition, da G(O I tt) = 1 > a
beide Seiten in ( i) falsch sind. Aus ( i) für alle x E W 0
folgt dann
P{LG(a) <X}
G(LG(a) I fL)
D
< a nach Definition von LG(a).
Konfidenzgrenzen für den Erwartungswert einer Poisson-Verteilung 16.3.16 B 12- 4
Da G(Zip,) streng fallend in l ist gilt auch
D
12.3 Konstruktion des exakten zweiseitigen Konfidenzintervalls
Beweis von
(1) für x> 0.
Für x = 0 folgt die Behauptung sofort, weil 4 (0) = 0 und 4 (0) > 0 ist. u,a o,a
Und für x > 0 ergibt sich wegen a < ~
F( x I 4 ( x)) = a < 1- a = F( x-11 4 ( x)) o,a u,a
vgl. 12.1(8), 12.2(4)
< F(xl4 (x)) u,a
und da F(x IJ-L) streng fallend in p, ist, folgt die Behauptung. D
Beweis von
(3)
Wir zeigen, daß die komplementäre Wahrscheinlichkeit < a ist:. Mit (1) folgt
< Q
2 + Q
2 =a.D
Konfidenzgrenzen für den Erwartungswert einer Poisson-Verteilung 16.3.16 B 12- 5
12.4 Berechnung der exakten Grenzen
Beweis von
(1) 4 (0) =-log a<Q o, 0:
Für x = 0 ist 4 (0) nach 12.1 (8) die Lösung der Gleichung o, 0:
a = F( 0 I fL) = p( 0 I fL) = exp {- fL}
also tt = -log a.
Beweis von
(4) P{ Pois(tt) <X} = P{ x~> 2tt} bzw F(xltt) = 1-<P (2tt) m
mit m=2(x+1), xEW.
Wir zeigen die Gleichheit der komplementären Wahrscheinlichkeiten
P{ Pois(tt) > x} = P{ X~< 2tt} bzw.
( i) P { Pois(tt) > x + 1} = P { X~< 2tt} .
Aus 6.2.2 (11) mit n = x + 1, A = 1 und a = tt ergibt sich zunächst
P{ Pois(tt) > x + 1} P{ Gam(x+1, 1) < fL}
P{ 2·Gam(x+1,1) < 2tt}
P{ Gam(x+1,2) < 2tt}, vgl. 6.2.2 ( 4).
Nach 8.3.3 (2) ist x~ = GamC:):, 2) = Gam( x + 1, 2) und ( i) folgt.
D
D
Konfidenzgrenzen für den Erwartungswert einer Poisson-Verteilung 16.3.16 B 12- 6
Beweis von
(5) (to a(x) 1 2 für x>O mit m=2(x+1), 2Xm·a
' '
(6) (tu a(x) 1 2 für x>O mit m= 2x. 2 Xm·1-a
' '
ad (7): Die Gleichung 12.1 (8) für (t (x) läßt sich mit (4) schreiben als o,a
P{x!>2{t0
a(x)} = a mit m=2(x+1) '
Also ist d.h. ( 6) gilt.
ad (6): Die Gleichung 12.2 (4) für (t (x) läßt sich mit (5) schreiben als u,a
P{x!>2(tua(x)} = 1-a mit m=2x '
Also ist d.h. (7) gilt. D
Konfidenzgrenzen für den Erwartungswert einer Poisson-Verteilung 16.3.16 B 12- 7
12.5* Asymptotische (approximative) Konfidenzgrenzen
Beweise zu
(9)
(10)
(11)
(12)
(13)
fi (x) : = p, (x) + JDriJ o,o: m
fi (x) == p, (x)- JDriJ u,o: m
0 < fiu o:(x) < (L(x) < fi (x) ' o,o:
fi (0) = 0 u,o:
0 < fi (x) < tl(x) < fi (x) u, 0: o, 0:
(asymptotische obere Grenze) 1
(asymptotische untere Grenze),
für x > 0.
für x > 0.
Die obere Grenze fi (x) ist die einzige Lösung p, > 0 der approximierte Gleichung o,o: (3). Und im Fall x > 0 ist die untere Grenze fi (x) die einzige Lösung p, > 0 der ap-u,o: proximierte Gleichung (5).
Wir zeigen zunächst die obigen Folgerungen aus (11)-(13), wobei wir abkürzend
x = (L(x), p, = p, (x) und D = D(x) verwenden. Die Gleichung (3) läßt sich äquivalent m m
schreiben als
p,-x = zo:vfi x < p, und f(p,) = 0
und hat wegen (11) die (eindeutige) Lösung fi (x). Analog läßt sich (5) äquivalent o,o: schreiben als
p,-x = -zo:vfi p, < x und f(p,) = 0
und hat für x > 0 wegen (13) die (eindeutige) Lösung fi (x). Man beachte, daß (5) u,o: für x = 0 keine Lösung hat, aber fi (0) trotzdem durch (10) definiert ist. u,o:
Zum Nachweis von (11)-(13) stellen erst wir einige Eigenschaften der Funktion f zu
sammen. Wegen a < ~ ist z o: > 0 und somit
( i) D> 0.
Weiter ist p, die Minimalstelle von f mit m
( ii) f(p, ) = - D < 0 , m
und es folgt
Konfidenzgrenzen für den Erwartungswert einer Poisson-Verteilung 16.3.16 B 12- 8
( iii) f ist strengfallend auf (-oo, p, ] und streng wachsend auf [p, , oo). m m
Zum Nachweis von (11) - (13) unterscheiden wir zwei Fälle.
1. Fall: x = 0
nach (iv) eine Lösung von (3) und offenbar auch die einzige.
Wegen fiu a(O) 1 2 1 2 = 0 -z --z '
2 Q 2 Q gelten (11) und (12) in diesem Fall.
2. Fall: x>O
Dann ist
(iv) j( X) = - X z2 < 0 , Ct
f(O) = x2 >0
Mit (i) und (iii) folgt hieraus, daß die untere Nullsstelle vonf im Intervall (O,x) und
die obere im Intervall (x,oo) liegen muß. Also gilt (13) und somit auch (11). D
Beweise von
(14)
1-L < fi (x) o,a
Zum Nachweis von (14) zeigen wir die Äquivalenz der entsprechenden Negationen
unter Verwendung von (iii) aus dem Beweis von (11) - (13).
1-L < fiu a(x) {} 1-L < fiu a(x) und p,<x, vgl. (11)
' ' {} f(p,) > f(fiu a(x)) = 0 und p,<x, vgl.( iii)
' {} (p,-x) 2 > p,z; und p,<x
{} x-p, > Jii zct
Damit gilt die erste Äquivalenz in (14), und die zweite folgt analog:
fio a(x) < 1-L {} fio a(x) < 1-L und X< P,, vgl. (11)
' ' {} j(p,) > f(fi
0 Ct (X)) = 0 und x<p,, vgl..(iii)
' {} (p,-x) 2 > p,z; und x<p,
{} p,-x > Jii zct D
Konfidenzgrenzen für den Erwartungswert einer Poisson-Verteilung 16.3.16 B 12- 9
Beweise von
(15) P{ p, < {i (X) } = P{ p,- X < z · JjL } ~ 1 - a , o,a a
P{ {i (X) < p,} = P{ X -p, < z · JjL} ~ 1 - a , u,a a
(16) lim P{ p, < fi (X) } = 1- a , fL---+ 00 o, Q
lim P{ {i (X) < p,} fL---+ 00 u, Q
1-a.
Aus (14) und dem Poisson-Grenzwertsatz ergibt sich
P{ p, < {i (X) } o,a
P{N(0,1) >-za} =
1- <!>(- za) = 1- a .
Damit sind die ersten Behauptungen in (15),(16) gezeigt und die zweiten erhält man
analog:
P{ {i (X) < p,} u,a {X-p, }
p y0" < Za n---+ oo
P{N(0,1) <za}
<I>(za) = 1- a.
Beweise von
(17)
(18)
ad (17}:
( i)
fi ist für x > 0 streng wachsend in a, u,a
fi ist für x E W0 streng fallend in a. o,a
Für a < a' < 12
und ist zu zeigen fi (x) < fi ,(x)1 also mit (14) u,a u,a
1-L = fi ,(x). u,a wobei
Nun ist p, für x > 0 die (einzige) Lösung von (5) mit a' statt a, .d.h. es gilt
Mit
ad {18):
( i)
z , = <!>(1-a') < <!>(1-a) = z Q Q
ergibt sich (i) aus (ii).
Analog (17) ist für a < a' < 12
zu zeigen p ,(x) < p (x) 1 also mit (14) o,a o,a
wobei 1-L = fi ,(x). o,a
Nun ist p, die (einzige) Lösung von (3) mit a' statt a, .d.h. es gilt
( ii) p,- x = za,·Jjt < za ·Jjt, und ( i) folgt.
D
D
Testen von Hypothesen über Wahrscheinlichkeiten 16.3.16 B 13-1
13 Testen von Hypothesen über W ahrscheinlichkeiten
13.1 Der exakte einseitige Binamial-Test mit oberer Alternative
13.1.3 Der optimale Test zum vorgegebenen Niveau
Beweis der Äquivalenz von
(4) Die Beobachtung x überschreitet einen oberen kritischen Wert k rx(p0
)
(5) Die Wahrscheinlichkeit P{ X> x I p0
} unterschreitet das Niveau a:
(6) Die exakte untere Konfidenzgrenze p (x) überschreitet den Wert p0 u,rx
ad (4) <=> (5): Da G(xlp0
) == P{X>x I p0
} fallend in xE{O, ... ,n+1} ist, gilt
Also gilt (4) =? (5), und die Umkehrung (5) =? (4) folgt aus der Definition von krx(p0
).
ad (5) <=> ( 6): Für x > 0 ist G( x I p) nach 11.2 ( 2) streng wachsend in p, also gilt
( i) G( x I p 0) < G( x I p u rx ( x)) = a . '
Für x = 0 sind beide Seiten in ( i) unwahr, weil p ( 0) = 0 < p0
und G( 0 I p0
) = 1 > a. u,rx Also gilt die Äquivalenz (i) auch in diesem Fall. D
Testen von Hypothesen über Wahrscheinlichkeiten 16.3.16 B 13-2
13.2 Der exakte einseitige Test mit unterer Alternative
Beweis der Äquivalenz von
(2) Die Beobachtung x unterschreitet einen unteren kritischen Wert k~(p0 ):
(3) Die Wahrscheinlichkeit P{ X< x I p0
} unterschreitet das Niveau a:
(4) Die exakte obere Konfidenzgrenze p (x) unterschreitet den Wert p0
: o, 0:
ad (2) <=> (3): Da F(x I p0
) : = P{ X< x I p0} wachsend in x E { -1, ... , n} ist, gilt
Also gilt (2) =? (3), und die Umkehrung (3) =? (2) folgt aus der Definition von k~(p0 ).
ad (3) <=> ( 4): Für x < n ist F( x I p) nach 11.1 ( 2) streng fallend in p, also gilt
( i)
Für x = n sind beide Seiten in ( i) unwahr, weil p ( n) = 1 > p0
und F( n I p0
) = 1 > a. o, 0:
Also gilt die Äquivalenz (i) auch in diesem Fall. D
Testen von Hypothesen über Wahrscheinlichkeiten 16.3.16 B 13-3
Beweise von
(5) mit
Für Y = n-X"' B(n,q) gilt
n- kr)q0
) = n- Min { k E {0, ... , n + 1} I P{ Y> k I q0
} < a}.
Max { n-k E { -1, ... , n} I P{ Y> k I q0} < a}
Max { n-k E { -1, ... , n} I P{ X< n-k I p0} < a}
Max { l E { -1, ... , n} I P{ X< Zl p0
} < a}
= k~(p0 ). D
Testen von Hypothesen über Wahrscheinlichkeiten 16.3.16 B 13-4
13.3 Der exakte zweiseitige Binomial-Test
Beweis der Äquivalenz von
(3)
(4)
oder x < k~(pO) 2
oder P{X<xlp0 }<~
(5) Der Wert p0
liegt nicht im exakten zweiseitigen Konfidenzintervall Irx(x):
p0 \t I rx(x) : = ( Pu Q'(x) 1 p0 Q'(x) )
'2 '2
Die Äquialenzen ergeben sich aus denen in 13.1.3 (4)-(6) und 13.2 (2)-(4) weil
(5) oder
Beweise von
(8) k~(p0 ) < kQ'(p0
) für 0 < a < 1 2 2
(9) Pow ~(p I a) = Pow>(p I~) + Pow <(p I~).
ad {8): Für k': = k~(p0 ) < 0 ist nichts zu zeigen, weil k: = kQ'(p0
) > 0. 2 2
Für k' > 0 ist nach Definition von k für (8) nur zu zeigen
1-P{X<k'lp0
} = P{X>k'lp0
} > ~ bzw.
(i) P{X<k'-1lp0
} < 1-~.
Mit der Definition von k' ergibt sich (i) wie folgt:
P{X<k'-1lp0
} < P{X<k'lp0
} < ~ < 1-~.
D
ad {9): Pow~(p I a) = P{ d~(X) = 11 p}
= P{ X> kQ'(p0
) oder X< k~(p0 ) I p}
vgl. 13.1.2 (1)
vgl. (3) 2 2
= P{X>kQ'(p0 ) IP} +P{X<k~(p0 ) IP} 2 2
vgl. (8)
vgl. (6)(7). D
Testen von Hypothesen über Wahrscheinlichkeiten 1603016 B 13-5
13.4 Asymptotische Tests
13.4.1 Der asymptotische einseitige obere Test
Beweis der Äquivalenz von
(2) Die asymptotische untere Konfidenzgrenze p (x) überschreitet den Wert p0 u,a
(vgl. 11.6)
(3) Die Beobachtung x überschreitet einen oberen kritischen Wert:
(4) Die Wahrscheinlichkeit P { N(O, 1) > t(x)} unterschreitet das Niveau a:
P{ N(0,1) > t(x)} = <P(-t(x)) < a 0
Es gilt:
Po < Pu a(x) {} z a 0 a(po) Vn < x- np0
vgl. 11.6 (19) '
{} ka(Po) = npo + zaa(po) Vn < X
{} z < t(x) 0 Q
{} -t(x) < -z Q
{} <P(- t(x)) < <P(-z ) = a 0 D Q
Beweis von
(8) n---+ oo ao
Es ist a>(p0 ) = P{ t(X) > za I p 0} vgl. (3)
I dafürp=p0
:
t t(X) n:oo N(0,1)
P{ N(0,1) > za} = ao D
Testen von Hypothesen über Wahrscheinlichkeiten 16.3.16 B 13-6
Beweise zu
(12) mit u(p) Vn (p- Po) - Za a(po)
a(p)
wobei die Konstante c und die Funktion h in 9.3.1 angegeben sind.
Ausgangspunkt ist der Grenzwertsatz von de Moivre und Laplace aus 9.3.1 (wobei wir
den Index n hier unterdrücken)
( i) X-np L
U·----.- a(p) Vn n----+oo
N(0,1)
und die zugehörige Abschätzung von Berry und Esseen in 9.3.1 (7)
( ii) supJR IP{U>u}-<P(-u)]l < ~-h(a), uE yn
Aus
{} X-np > za a(pJJTi- n(p- p0 )
{} U > - u(p)
folgt Pow>(p) = P{X> ka(p0 ) IP} = P{U>-u(p)}.
Also I Pow>(p)- APow>(p) I = I P{ U>- u(p)}- <P( u(p)) I
und (13) folgt mit (ii).
Beweise von
(14) n----+oo 1 ' Pow(n)(p) ------+ 1
> n----+oo
Für p > p0
gilt Vn (p- Po)
u(n)(p) = a~) [vn (p- Po)- za a(po)]
APow~)(p) = <P( u(n)(p))
n----+oo
n----+oo
n----+oo
Also gilt die erste Beh. in (14) und die zweite folgt mit (13), weil
lim ( Pow(n)(p)- APow(n)(p)) = 0. n----+oo > >
00
00 ::::}
<P(oo) = 1.
D
D
Testen von Hypothesen über Wahrscheinlichkeiten 16.3.16 B 13-7
13.4.2 Der asymptotische einseitige untere Test
Alle Beweise sind völlig analog zu denen aus 13.4.1, werden aber trotzdem
hier vollständig ausgeführt.
Beweis der Äquivalenz von
(2) Die asymptotische obere Konfidenzgrenze p (x) unterschreitet p0 o, 0:
(vgl. 11.6)
(3) Die Beobachtung x unterschreitet einen unteren kritischen Wert:
x- np t(x) == 0
a(po) Vn bzw. < -z
0:
(4) Die Wahrscheinlichkeit P { N(O, 1) < t(x)} unterschreitet das Niveau a:
<P( t( x)) < a .
ad (2) {} (3) {} (4):
vgl. 11.6 (19)
x < k~(p0 ) = n p0 - z aa(p0 ) fo
t(x) < -z 0:
D
Testen von Hypothesen über Wahrscheinlichkeiten 16.3.16
Beweise von
Das maximale Fehlerrisiko 1. Art (effektive Niveau) ist gegeben durch
(6)
(7)
ad (6):
a. n---+ oo
Für k = Max { l E Z IZ < k ~ (p 0
) } ist
a<(p) = P{X<k~(p0 ) IP}=P{X<klp} wachsendinp.
Folglich ist
ad (7}: a>(p0 ) = P{ t(X) <-za I p0
}
I d f .. 1 a urp=p
0:
t t(X)
n---+ oo N(O,l)
P{N(O,l)<-za}= a.
B 13-8
D
Testen von Hypothesen über Wahrscheinlichkeiten 16.3.16 B 13-9
Beweise zu
(9) APow <(p) = <!>( u(p)) mit
(10) I Pow>(p)- APow>(p) I < {n · h(a(p))
Ausgangspunkt ist der Grenzwertsatz von de Moivre und Laplace ( vgl. 9.3.1)
( i) X-np L
U·----.- a(p) Vn n----+oo
N(0,1)
und die zugehörige Abschätzung von Berry und Esseen in 9.3.1 ( 6)
( ii) supJR IP{U<u}-<I>(u)]l < ~-h(a), uE yn
Aus
{} X-np < n(p0
- p)- zrx a(pJfo
{} U < u(p)
folgt Pow<(p) = P{X<k~(p0 ) IP} = P{U<u(p)}.
Also I Pow <(p) - APow <(p) I = I P { U < u(p) } - <!>( u(p)) I
< {n · h( a(p)) vgl. (ii). d.h. (10) gilt. D
Beweise von
(11) APow(<n) (p) ------+ 1 n----+oo '
Für p < p0
gilt Vn (P0 - P)
u(n)(p) = a1(p) [fo (Po-p)- Za a(po)J
APow~)(p) = <!>( u(n)(p))
n----+oo
n----+oo
n----+oo
Also gilt die erste Beh. in (11) und die zweite folgt mit (10), weil
lim ( Pow(n)(p)- APow(n)(p)) = 0. n----+oo < <
00
00 ::::}
<I>(oo) = 1.
D
Testen von Hypothesen über Wahrscheinlichkeiten 1603016 B 13-10
13.4.3 Der asymptotische zweiseitige Test
Beweis der Äquivalenz von
(2) Der Wert p0
liegt nicht im asymptotischen zweiseitigen Konfidenzintervall:
(3) Der absolute Testwert überschreitet einen kritischen Wert:
lx- np I I t(x) I : = 0 > z0'
a(po) Vn 2
(4) <P( -I t( X) I) < ~ 0
Die Äquivalenzen von (2) und (3) ergibt sich aus denen von 13.4.1 (2-4) und 13.4.2
(2-4), wenn man diese Aussagen wie folgt äquivalent umformuliert:
(2)' Po< P 0(x) oder P 0(x) <Po u,2 o,2
(3)' t(x) > z0 oder t(x) <- z0 2 2
ad {3) {} (4): I t(x) I > z0 {} -I t(x) I <- z0 2 2
{} <P( -I t(x) I)< <P(-z0 ) = ~ 0 D
2
Beweis von
(5) Pow ~(p I a) = Pow>(p I~) + Pow <(p I~ )0
Es ist: Pow~(p I a) = P{ lt(X) I> z0 IP} 2
= P { t(X) > z0 oder t(X) <- z0 I p} 2 2
= P { t(X) > z0 1 p} + P { t(X) <- z0 I p} 2 2
vgl. 13.4.1(11), 13.4.2(8).0
Testen von Hypothesen über Wahrscheinlichkeiten 1603016 B 13-11
Beweise von
(7)
(9)
ad (7): Die Beho ergibt sich mit 13.4.1(8) und 13.4.2(7) aus (6)
n---+ oo ~ + ~ = a 0
ad (9):
Fall1: p > p0
0 Die Beho ergibt sich mit (8) bzwo (5) aus
1 > APow +:(p I a) > APow>(p I~) 1 ' n---+ oo vgl. 13.4.1 (14)
1 > Pow +:(p I a) > Pow>(p I~) 10 n---+ oo
Fall 2: p < p0
0 Die Beho ergibt sich analog Fall1
1 > APow +:(p I a) > APow<(p I~) 1 ' n---+ oo vgl. 13.4.2 (11)
1 > Pow +:(p I a) > Pow<(p I~) 10 n---+ oo
D
Testen von Hypothesen über Wahrscheinlichkeiten 16.3.16 B 13-12
13.5 Planung des erforderlicher Stichproben-Mindestumfangs
13.5.1 Der einseitige obere Test
Beweis zu
(3) mit ao = a(po) = JPo (1- Po)
a 1 = a(p1) = J P1 ( 1-P1)
Zu zeigen ist, daß (3) die (einzige) Lösung von (2) für n E [0, oo) ist. Nach 13.4.1 (12)
gilt:
mit
{} u1
= <P-\1- ß) = zß
{} Jn(p1-p0)-zaao=zßa1
Fn= Za ao + zßa1
( i). p1-p0
Also hat (2) bzw. (i) gerrau die Lösung n( a,ß,p0,p1) aus (3) bzgl n. D
Tests für den Erwartungswert der Poissonverteilung 17.2.09 B 14-1
14.* Tests für den Erwartungswert der Poisson-Verteilung
14.1 * Der einseitige Poisson-Test mit oberer Alternative
14.1.1 * Der exakte einseitige obere Poisson-Test
Beweis der Äquivalenz von
(1) Die Wahrscheinlichkeit P{ X> x 11-Lo} unterschreitet das Niveau a:
(2) Die exakte untere Konfidenzgrenze 4 (x) überschreitet den Wert p,0
: u,a
(3) Die Beobachtung x überschreitet einen oberen kritischen Wert k a(p,0
):
ad (1) <=> (3): Da G( x lp,0
) = P{ X> x 11-Lo} fallend in x E W 0
ist, gilt
Also gilt (3) =? (1), und die Umkehrung (1) =? (3) folgt aus der Definition von k a(p,0
).
ad (1) <=> (2): Für x > 0 ist G( x 11-L) nach 12.2 ( 2) streng wachsend in p,, also gilt
( i)
Für x = 0 sind 4 ( 0) = 0 < p,0
und G( 0 11-Lo) = 1 > a stets erfüllt, und somit gilt die u,a
Äquivalenz (i) auch in diesem Fall (beiden Seiten sind unwahr). D
Tests für den Erwartungswert der Poissonverteilung 1702009 B 14-2
14.1.2* Der asymptotische einseitige obere Poisson-Test
Beweis der Äquivalenz von
(2) Die asymptotische untere Konfidenzgrenze fi (x) überschreitet den Wert p,0
: u,a
(vgl. 12.5)
(3) Die Beobachtung x überschreitet einen oberen kritischen Wert k a(p,0
):
bzwo X-J-L
t( X) : = O > Z et ,
Vilo (4) Die Wahrscheinlichkeit P { N(O, 1) > t(x)} unterschreitet das Niveau a:
P{ N(0,1) > t(x)} = <P(-t(x)) < a 0
Es gilt:
1-Lo < fiu a(x) {} za vfLo < x -p,o vgl. 12.5 (14) '
Beweis von
(7)
{}
{}
{}
{}
f.L----+00 0
k a(J-Lo) = 1-Lo + z a vfLo z
Q
-t(x)
<P(- t(x))
ao
Es ist a>(p,0) = P{ t(X) > z a IJ-L 0}
< X
< t(x)
< -z Q
< <P(-z ) = a 0
Q
vgl. (3)
1 da für I'= l'o: t(X) f-l :oo N(O, 1) 0
P{ N(0,1) > za} = ao
D
D
Tests für den Erwartungswert der Poissonverteilung 17.2.09 B 14-3
Beweis zu
(8) mit
Ausgangspunkt ist der Poisson-Grenzwertsatz ( vgl. 9.4)
( i) X-!1
U:= Vfi f.L---+ 00
N(0,1).
X - !1 > z fL - (!1- fl ) aYt-"0 0
U > - u(f.l)
ergibt sich für nicht zu kleines f1 mit ( i) die Approximation
Pow>(f.l) = P{X> ka(!l0 ) lfl} = P{U>-u(f.l)}
~ P { N(O, 1) >- u(f.l)} = <!>( u(f.l))
Tests für den Erwartungswert der Poissonverteilung 17.2.09 B 14-4
14.2* Der einseitige Poisson-Test mit unterer Alternative
14.2.1 * Der exakte einseitige untere Poisson-Test
Beweis der Äquivalenz von
(1) Die Wahrscheinlichkeit P{ X:::; x 11-Lo} unterschreitet das Niveau a:
(2) Die exakte obere Konfidenzgrenze (t (x) unterschreitet den Wert p,0
: o, 0:
(3) Die Beobachtung x unterschreitet einen unteren kritischen Wert k ~(p,0 ):
ad (1) <=> (3): Da F(x lp,0
) = P{ X:::; x 11-Lo} wachsend in x E W 0
U { -1} ist, gilt
Also gilt (3) =? (1), und die Umkehrung (1) =? (3) folgt aus der Definition von k~(p,0 ).
ad (1) <=> (2): Für x E W 0 ist F( x 11-L) nach 12.1 ( 2) streng fallend in p,, also gilt
( i) D
Tests für den Erwartungswert der Poissonverteilung 1702009 B 14-5
14.2.2* Der asymptotische einseitige untere Poisson-Test
Beweis der Äquivalenz von
(1) Die asymptotische obere Konfidenzgrenze fi (x) unterschreitet den Wert p,0 o, 0:
(vgl. 12.5)
(2) Die Beobachtung x unterschreitet einen unteren kritischen Wert:
X-J-L t(x) : = 0
Vilo bzwo < -z
0:
(3) Die Wahrscheinlichkeit P { N(O, 1) < t(x)} unterschreitet das Niveau a:
P{ N(0,1) < t(x)} = <P(t(x)) < a 0
Es gilt:
fio a(x) < 1-Lo {} z o: /iLo < 1-Lo - x vgl. 12.5 (14) '
{} x < 1-Lo - z o: /iLo k~(J-Lo)
{} t(x) < -z 0:
{} <P( t(x)) < <P(-zo:) = a 0
Beweis von
(6)
Es ist
f.L----+00 0
ao
a>(p,0 ) = P{ t(X) <- z o: IJ-L 0}
I 1 da für p, = p,0:
P{N(0,1)<-zo:}= ao
vgl. (3)
t(X) f-l :oo N(0,1) 0
D
D
Tests für den Erwartungswert der Poissonverteilung 17.2.09 B 14-6
Beweis zu
(7) APow <(p,) = <!>( u(p,)) mit
Ausgangspunkt ist der Poisson-Grenzwertsatz ( vgl. 9.4)
( i) X-p,
U:= Vfi f.L---+ 00
N(0,1).
X-p, < -z ljJ: o aY~'-"o
X - p, < (p, - p,) - z ljJ: 0 aY~'-"O
U < u(p,)
ergibt sich für nicht zu kleines p, mit ( i) die Approximation
Pow <(p,) = P {X< k~(p,0 ) 11-L} = P { U < u(p,)}
~ P { N(O, 1) < u(p,)} <!>( u(p,))
APow <(p,). D
Tests für den Erwartungswert der Poissonverteilung
14.4* Der zweiseitige Poison-Test
14.4.1 * Der exakte zweiseitige Poisson-Test
Beweise von
(6)
(7)
k~(p,0 ) < k0 (p,0
) für 2 2
Pow ~(1-L I a) = Pow >(1-L I~) + Pow <(1-L I~ )0
1702009
0<a<1
ad (6): Für k': = k~(p,0 ) < 0 ist nichts zu zeigen, weil k: = k0 (p,0
) > 00 2 2
Für k' > 0 ist nach Definition 14.1.1 (3) von k für (6) nur zu zeigen
B 14-7
P{ X> k' lp,0
} > ~ bzwo 1 - P{ X< k' 11-Lo} > ~ bzwo
( i) P{ X< k' -1lp,0 } < 1- ~ 0
Mit der Definition 14.2.1 (3) von k' ergibt sich (i) wie folgt:
P{ X< k' -1 11-Lo} < P{ X< k' 11-Lo} < ~ < ~ < 1 - ~ 0
ad (7}: Pow ~(1-L I a) = P{ d~(X) = 1lp,}
= P{ X> k0 (p,0
) oder X< k~(p,0 ) 11-L} vgl. (3) 2 2
= P{ X> k0 (p,0 ) 11-L} + P{ X< k~(p,0 ) 11-L} vgl. (6) 2 2
vgl. (4)(5)0 D
Tests für den Erwartungswert der Poissonverteilung 17.2.09
14.4.2* Der asymptotische zweiseitige Poisson-Test
Beweis von
(4) Pow ~(~t I a) = Pow >(~t I~) + Pow <(~t I~).
Es ist: Pow ~(~t I a) = P { I t(X) I> zQ' l~t} 2
= P{ t(X) > zQ' oder t(X) <-zQ' l~t} 2 2
= P{ t(X) > zQ' l~t} + P{ t(X) <-zQ' l~t} 2 2
Beweis von
(6) a,
Die Beh. ergibt sich mit 14.1.2 (7) und 14.2.2 (6) aus (5)
a~)(~t0 ) = a~n\~t0 I~) + a~\~t0 I~) n---+ oo Q+Q
2 2
B 14-8
D
a. D
Top Related