Stichworte der Einfuhrung in die Wahrscheinlichkeitstheorie
(entstanden aus dem Einfuhrung in die Wahrscheinlichkeitstheorie Skript von Herrn Prof Dr Potthof)
Author: Ralf Nicklas
Stand: 24. Januar 2006
∞�
�
�
� �
A 1
A
a posteriori Wahrscheinlichkeiten : P (Bk|A)
absolut stetig verteilet : siehe stetig verteilt
antiton : Folge (An, n ∈ N ) falls An+1 ⊂ An∀n ∈ N gilt lim An := An n n=1
falls (An, n ∈ N ) antiton ist
Axiom zur σ − Algebra : Sei Ω der Grundraum der Elementarereignisse eines Experiments. Die Menge aller Ereignisse A ist eine Familie von Teilmengen von Ω, die eine σ − Algebra bildet.
B
Bayes’sche Formel : Sei B1, . . . , Bn ∈ A eine Zerlegung von Ω mit P (Bk ) > 0 k=1, . . . , n und A ∈ A mit P(A)¿0. Es gilt fur k ∈ {1, . . . , n}P (Bk |A) = P (A∩Bk ) = P (A|Bk )P (Bk ) = n
P (A|Bk )P (Bk ) P (A) P (A) �
P (A|Bk )P (Bk ) k=1
BBW : = Brownsche Bewegung
bedingte diskrete Dichte : siehe diskrete Wahrscheinlichkeitsverteilung
BE : = bedingte Erwartung
bedingte Entropie : mit bedingter Dichte p(xi, yi) = p(xi ,yj ) = P (X = xi|Y = � pY (yj )
yj ) ⇒ H(X,Y = yj ) = − log2(p(xi|yj ))p(xi|yj ) = − log2(p(xi|Y ))p(xi|Y ) i i
Lemma: H(X|Y ) = H(Y ) + E(H(X|Y )) Satz: E(H(X|Y )) ≤ H(x)
bedingte Erwartung : Eine ZV, die BE1 und BE2 erfullt, heißt die bedingte Erwartung von X gegeben Y und wird mit E(X|Y ) notiert.
bedingte Erwartung (Vorbereitung) : Setze Z:= E(X|Y ) ⇒ Z(ω) = xip(xi|y) ∀ω ∈ � � i Ω mit Y (ω) = y ⇒ Z = xip(xi|Y ) oder Z = g◦Y mit g(y) = xip(xi, y)
i i ⇒ BE1 − BE11
bedingte Erwartung 1 : Z ist eine Funktion von Y, d.h. es gibt eine meßbare Funktion g, so dass Z(ω) = g(Y(ω)), ω ∈ Ω
bedingte Erwartung 2 : Fur jedes B ∈ B(R) gilt: ZdP = XdP � � � {Y ∈B} {Y ∈B}
⇒ {Y ∈B}
ZdP = {Y ∈B}
E(X|Y )dP = · · · = {Y ∈B}
XdP
Fakt zwischen BE2 und BE3 : Seien X,Y zwei ZV auf einem W-raum, X integreirbar oder positiv. Dann gibt es eine ZV Z, die die Eigenschaften BE1 und BE2 hat und fast sicher eindeutig ist (falls Z’ eine andere solche ZV ist gilt P(Z=Z’)=1 )
//
�
� � �
� �
B 2
bedingte Erwartung 3 : E(·|Y ) ist linear: seien X1, X2 reellwertige ZV α1, α2 ∈ R. Dann�gilt fast sicher E(α1X�1 + α2X2|Y ) = α1E(X1|Y )+ α2(X2|Y ) außerdem: f (Y )E(X|Y )dP = f (Y )XdP
bedingte Erwartung 4 : Fur jede meßbare Funktion f (derart, dass die Integrale existieren) gilt die Gleichung: f (Y )E(X|Y )dP = intf (Y )XdP
bedingte Erwartung 5 : Fur jede Konstante C gilt E(C|Y ) = C
bedingte Erwartung 6 : F¨ ϕ(Y )E(X|Y )
ur jede meßbare Funktion ϕ gilt E(ϕ(Y )X|Y ) =
bedingte Erwartung 7 : E(E(X|Y )|Y ) = E(X|Y )
bedingte Erwartung 8 : E(E(X|Y )) = E(X)
bedingte Erwartung 9 : E(·|Y ) ist symmetrisch im Sinne, dass fur alle X, Z E(Z|E(X|Y )) = E(E(Z|Y )|X) gilt
bedingte Erwartung 10 : Sei ϕ meßbar, Y=ϕ(Z). Es gilt E(E(X|Z)|Y ) = E(X|Y )
bedingte Erwartung 11 : Falls X und Y unabhangig sind, gilt E(X|Y ) = E(X)
bedingte Wahrscheinlichkeit : Sei (Ω,A,P) ein W-raum, B ∈ A mit P(B)¿0, A ∈ A ⇒ P (A|B) = P (A∩B) = bedingte Wahrscheinlichkeit von A unter BP (B)
⇔ P (A ∩ B) = P (A|B) · P (B)
Bernoullie-Experiment : Ω = R, A = B(R), x1, x2 ∈ R, x1 �= x2, p ∈ [0, 1], P1 = εx1 , P2 = εx2 dann ist P = pεx1 + (1-p)εx2
⇔ 2 Elemtarereignisse die nicht unmoglich sind
Bernoullie-Zufallsvariable : P (X ∈ [a, b]) = {
p falls x1 ∈ [a, b] + x2 ∈ [a, b] 1 − p falls x1 ∈ [a, b] + x2 ∈ [a, b]
1 falls x1 ∈ [a, b] + x2 ∈ [a, b] 0 sonst
mit x1, x2 ∈ R, x1 �= x2, p ∈ [0, 1] und W = pεx1 + (1 − p)εx2
Binomialverteilte Zufallsvariable : mit Parametern (n,p), n ∈ N , p ∈ [0, 1]:
W = n
k=0
n k p
k(1 − p)n−kεk
→ wobei x fast sicher die Werte k = 0, . . . , n annimmt und dabei den Wert k mit Wahrscheinlichkeit n
k pk(1 − p)n−k
Borelmenge : Sei Ω = R: Es gibt eine kleinste σ-Algebra B(R), die alle Intervalle enthalt (=Boral-σ-Algebra) oder auch Ω = Rn: B(Rn) ist kleinste σ-Algebra, die alle Hyperquader enthalt.
Brownsche Bewegung : = Wienerprozess
∞
∞
�
�
�
�
� �
�
�
C 3
Brownsche Bewegung Eigenschaften : * die BBW ist ein Markovprozess, da P (B(t) ∈ A|{B(u), u ≤ s}) = P (B(t) ∈ A|B(s)) gilt die BBW ist ein Martingal, da: sei t ≥ s > 0 E(B(t)|{B(u), u ≤ s}) = . . . = B(s)
C
1Cauchyverteilung : f(x) = π 1+1 x2
Chapman-Kolmogorov-Gleichung : Sei n, k in N0 dann gilt fur jede Wahl von m zwischen k und k+n und alle i,j in N P(X(k+n)) = i(X(k)=j) = P (X(k + n)) = i(X(m =) = l)P (X(m) =
l l|X(k) = j)
charakteristische Funktion von X : Sei f(x) = eiλx = cos(λx) + isin(λx) ⇒ Φ(λ) = E(eiλx) λ ∈ R
D
Dichte : Fall wie bei (absolut) stetig verteilt ⇒ f heißt die Dichte der Verteilung bzw. der Zufallsvariablen
Diracmaß : Sei Ω ein beliebiger Grundraum, A eine σ-Algebra von Ereignis1 falls ω0 ∈ A
heißtsen uber Ω Ferner sei ω0 ∈ Ω. Setze: P(A):={ 0 sonst ¨
Diracmaß in ω0 es wird mit εω0 bezeichnet.
diskret verteilt : Sei {xn, n ∈ N } ∈ R, (pn, n ∈ N ), pn ∈ [0, 1], pn = 1, n=1
das Maß W = pnεxn ⇒ fuhrt die Abbildung A �→ W (A) zu einer n=1
Verteilung + damit zu einer diskret verteilten Zufallsvariablen
n diskrete Gleichverteilung : x1, . . . , xn ∈ R: W = 1 εxkn
k=1
diskrete Wahrscheinlichkeitsverteilung : PX = px(xi)εxi ; PY = pY (yj )εyj � � i j
mit pX (xi) = p(xi, yj ); pY (yj ) = p(xi, yj ) ¿ 0 ⇒ P (X = x|Y = y) = j i
P (X=x,Y =y) P (x,y) P (Y =y) = PY (y) = p(x|y) Damit ist die Verteilung von X unter der
Bedingung Y=y als diskrete Wahrscheinlichkeitsverteilung: p(xi|y)εxi i
gegeben auf (R,B(R)) mit p(x|y) ist die bedingte (diskrete) Dichte von X gegeben Y=y gegeben. ⇒ bedingte Erwartung von X unter Y=y: E(X|Y = y) := xip(xi|y) außerdem E(X|Y )(ω):= E(X|Y = y) fur alle ω ∈ Ω mit
i Y (ω) = y
�
�
�
�
�
�
E 4
E
Elementarereignis : ω ∈ Ω
¨Entropie : = mittlerer Informationsgehalt = mittlere Uberaschung n
E(S) = − (log2(pi))pi = iH(x) i=1 �
man setzt auch: H(x):= − (log2(ϕ(x)))ϕ(x)dx mit H(x) ≤ log2(n) R
Ereignis : A ist Menge von ω ⇒ A ⊂ Ω, A ∈ P(Ω) insbesondere ordnet man ω ∈ Ω das Ereignis {ω} ⊂ Ω zu
Ergodenkette fur Markovketten : Falls k0 ∈ N existiert, so dass Pi,j (k0) > ur alle i,j in {1, . . . , n} dann ist die Markovkette ergodisch. Dabei ist0 f¨
der Invariante Zustand α der eindeutig bestimmte Eigenvektor von P zumEigenwert 1
Erwartungswert : Sei X eine positive oder integrierbare Zufallsvariable auf einem W-raum (Ω,A,P). Dann heißt XdP der mathematische Erwar-
A tungswert oder Mittelwert von X E(x) := XdP
Ω � g(x, y)f (x, y)dxdy gemeinsam stetig
R2
∞Anmerkung: E(g(X,Y)) = { � g(xi, yj )pij gemeinsam diskret
i,j=1
Korollar: X1, . . . , Xn unabhangig, f1, . . . , fn meßbar E(f1(X1) · · · fn(Xn)) = E(f1(X1))· · ·E(fn(Xn))
E bei X Bernoulli ZV : E(f ◦ X) = f (x)dPx(X) = pf (1) + (1 − p)f (0)
E bei X normalverteilt : mit µ, σ ∈ R f=id: 1E(X) = x √
2πσ2 exp(− (x−µ)2
)dx = . . . = µ2σ2
Exponentialverteilung : λ > 0 f (x) = λ1R+ (x)e−λx
F
G
1Gaußfunktion : f(x) = √ 2πσ2
exp( −(x−µ)2
) mit µ, σ ∈ R2σ2
gemeinsame Entropie : X,Y ZVs mit gemeinsamer Verteilung PX⊗Y = p(xi, yj )ε(xi, yj ) � i,j
⇒ H(X,Y) = − log2(p(xi, yk ))p(xi, yk ) i,j
gemeinsame Verteilung : V W-maß auf (R2 , B(R2)), Ω = R2 , A = B(R2), P = V, X = π1, Y = π2, πi = i − teProjektion d.h. ω=(x,y)∈ R2 ist π1(ω) = x, π2(ω) = y. Dann haben X, Y die gemeinsame Verteilung V
�
�
H 5
gemeinsame Verteilungsfunktion : wahle B = (−∞, x) × (−∞, x), x,y∈ R dann heißt FX◦Y ((x, y)) = PX◦Y ((−∞, x) × (−∞, y)) = P (X < x, Y < y) die gemeinsame Verteilungsfunktion von X und Y
2geometrische Brownsche Bewegung : Sei T=R+ X(t):=eλB(t)− λ2 t t ∈ R+
mit λ ∈ R: Der stochastische Prozess (X(t), t ∈ R+) wird geometrische BBW genannt und ist ein Martingal
geordent ohne Wiederholung : falls, man auf die Reihenfolge der Auswahl achtet und kein element mehr als einmal gewahlt werden darf ⇒ (ωi1 , . . . , ωik ) (k ≤ n) = k-Tupel
geordent mit Wiederholung : falls die Reihenfolge registriert wird und die Elemente wiederholt ausgew¨ urfenahlt werden d¨ ⇒ (ωi1 , . . . , ωik ) = k-Tupel mit Eintragen aus Ω
Gleichverteilung � auf [a,b :] sei a,b ∈ R, a¡b, f = (b − a)−11[a,b]
1W(A) = b−a 1[a,b](x)dx = λ(A∩[a,b]) b−a
A wobei λ = Labesguemaß auf ([a, b], B([a, b])) ist
GM : geordnet mit Wiederholung
GO : geordnet ohne Wiederholung
großte σ-Algebra : P(Ω)
Grundmenge : Ω = sicheres Ereignis
H
’hit and miss’-Monte-Carlo-Methode : man sch¨ ache unter dematzt die Fl¨ Graphen von f dadurch, dass man n viele Punkte gleichverteilt im Quadrat [0, 1] × [0, 1] erzeugt und den Anteil bestimmt der unter dem Graphen liegt. Seien X, Y unabhangig auf [0, 1] gleichverteilte ZVs setze Z
= 1{Y ≤f (X)} (= Bernoullie-ZV) ⇒ p = �1
0 f (x)dx und es gilt E(Z) = p
1⇒ n
n
1 Zk → n→∞
�1
0 f (x)dx
Hypothese : Bk
I
Irrfahrt : Sei T = N0 und betrachte eine uiv Folge (Y (n), n ∈ N ) von Bernoullizufallsvariablen zu Parameter p ∈ [0, 1], mit Werten -1 und 1, P (Yi =
1) = p. Setze X(0) = 0 und X(n) := n
i=1 Y (i) n ∈ N ⇒ der stochastische
Prozess (X(n), n ∈ N0) heißt Irrfahrt.
∞
�
� �
�
�
J 6
� isoton : Folge (An, n ∈ N ) falls An ⊂ An+1∀n ∈ N gilt lim An := An falls
n n=1 (An, n ∈ N )isoton ist
J
K
kleinste σ-Algebra : A = {Ω, �}
Kodierung : X nehme die Werte x1, . . . , xN , N ∈ N an. Es gibt genau dann are Kodierung von x1, . . . , xN mit L¨eine bin¨ angen n1, . . . , nN , wenn gilt
N
Ko
2−ni ≤ 1 i=1
n N oglich falls f¨
1
dierung ist m¨ ur alle n in N gilt: 2−j ωj ≤ 1 ⇔ 2−ni ≤ i=1 i=1
Konstruktionsprinzip : Sei W W-maß auf (R,B(R)). Dann gibt es einen Wraum (Ω,A,P) und darauf eine Zufallsvariable X, so dass W gleich der Verteilung PX von X ist. Man wahlt ganz einfach: Ω = R, A = B(R), P = W, X = id ⇒ X(ω) = ω fur ω ∈ Ω = R noch zu zeigen dass PX = W PX ((−∞, x)) = P (X ∈ (−∞, x)) = P ({ω,X(ω) < x}) = P ({ω, ω < x}) = W ({ω, ω < x}) = W ((−∞, x))
Konvergenz (eidwt) : (Xn, n ∈ N ) sei eine Folge von reellwertigen ZVs auf einem W-raum (Ω,A,P), X sei ZV auf (Ω,A,P) i) (Xn, n ∈ N ) konvergiert fast sicher gegen X, wenn P ({ω; Xn(ω) → n→∞
X(ω)}) = 1 ur jedes � > 0:ii) (Xn, n ∈ N ) konvergiert stochastisch gegen X, wenn f¨
P ({ω; |Xn(ω) − X(ω)| > �}) → n→∞ 0 iii) (Xn, n ∈ N ) konvergiert in Verteilung gegen X, wenn die Folge (PXn , n ∈ N ) der Verteilung von (Xn, n ∈ N ) schwach gegen die Verteilung PX kon� ur alle beschr¨vergiert, d.h. wenn f¨ ankte, stetige Funktionen f: f (x)dPXn (x) → n→∞
f (x)dPX (x) gilt iv) (Xn, n ∈ N ) konvergiert im p-ten Mittel oder in L’(P), p ≥ 1 gegen X falls
Ω |Xn − X|pdP → n→∞ 0
KV in L�(P ), p ≥ 1 ⇓ fast sichere KV ⇒ stochastische KV ⇐ KV in L1(P ) ⇓
KV in V erteilung
Korrelation : Falls die Varianz V(X), V(Y) verschwinden, so heißt die Große ρ(X,Y ) = √Cov(X,Y ) die Korrelation
V (X)V (Y )
Kovarianz : Sei X, Y quadratintegrierbare ZV. Dann heißt Cov(X,Y) = E((X-E(X))(Y-E(Y))) die Kovarianz von X und Y
�
L 7
Korollar: Sei X und Y unabhangig mit endlicher Varianz, dann sind X und Y unkorreliert: Cov(X,Y) = 0
KV : = Konvergenz
L
Laplace-Experiment : endlicher Grundraum und alle elementarereignisse sind gleichwahrscheinlich. hier gilt:
1p = n |A|⇒ P(A) = |Ω| =
k 1P ({ωij }) = k · n mit A = {ωi1 , . . . , ωik }
j=1
Lebesguemaß : Sei Ω = [0, 1], A = B([0, 1]), d.h. unser Experiment produziert eine reelle Zahl zwischen 0 und 1. Es gibt ein W-maß λ, das jedem Intervall [a, b] in [0, 1] als W-keit dessen Lange zuordnet: λ([a, b]) = b − a
Lemma i (eidwt) : Sei X1, . . . , Xn unabhangig. Dann gilt PX1 +···+Xn = PX1 · · · PXn
Lemma ii (eidwt) : Sei X1, . . . , Xn unabhangige ZVs mit momenterzeugende Funktionen ψX1 , . . . , ψXn . Dann gilt ψX1 +···+Xn (t) = ψX1 (t) · · · ψXn (t) t ∈ R Falls X1, . . . , Xn uiv ZVs sind, gilt insbesondere ψX1 +···+Xn (t) = (ψX1 (t))
n
Lemma zur bedingten Wahrscheinlichkeit : Sei A1, . . . , An ∈ A dann gilt P(A1∩. . .∩An) = P (A1)·P (A2|A1)·P (A3|A1∩A2) · · · P (An|A1∩· · ·∩An−1)
Lemma zu meßbar und Zufallsvariablen : Sei (Ω, A) vorgelegt, g eine meßbare Funktion von Ω nach R, f eine meßbare Funktion von R nach R. Dann ist f ◦ g meßbar ⇔ Die Komposition meßbarer Abbildungen ist meßbar ⇒ f ◦ X ist eine Zuvallsvariable
M
Markoveigenschaft : P (X(n + 1) ∈ B|X(0), . . . , X(n)) = P (X(n + 1) ∈ B|Xn) Interpretattion: Der Prozess hat kein Gedachtnis
Markovprozess : Prozess mit ME z.B. Irrfahrt
Martingal : ein stochastischer Prozess (X(n), n ∈ N ) mit der Eigenschaft MTG fur alle n in N heißt Martingal z.B. ist die Irrfahrt ein Martingal wenn p= 1 ist2
Martingalkette : (X(t), t ∈ T ) ein stochastischer Prozess mit diskreter Zeit T=N0 oder T={0, . . . , n} der die Markoveigenschaft erfullt ⇔ Markovkette
Maß : Sei Ω eine Menge, A eine σ-Algebra uber Ω, P eine Abbildung von A¨ ¯ nach R+ := [0, +∞]
P heißt Maß, falls gilt: i) P(
∞�
�
N 8
oslash) = 0 ii) P ist σ-additiv: falls (An, n ∈ N ) eine paarweise disjunkte Folge in A
∞ist, so gilt: P( n=1An) = P (An) n=1
ME : = Markoveigenschaft
meßbar : Sei Ω eine Menge, A eine σ-Algebra uber Ω, f eine reellwertige Funktion auf Ω mit f −1((−∞, x)) ∈ A∀x ∈ R ⇒ f heißt meßbarFakt: f ist genau dann meßbar, wenn f¨ur jede Borelmenge B ∈ B(R) f −1(B) ∈ A gilt
Methode der kleinsten Fehlerquadrate nach Gauß-Laplace : Die großte E((X − g(Y ))2), g meßbare Funktion, hat bei g(Y) = E(X|Y ) ihr Minimum
Mittelwert : siehe Erwartungswert
¨mittlerer Informationsgehalt : = Entropie = mittlere Uberraschung
¨mittlere Uberaschung : = Entropie = mittlerer Informationsgehalt
Moment : siehe auch n-tes Moment
momenterzeugende Funktion von X : ψ(λ) = E(eλX ) λ ∈ R
Monte-Carlo-Methoden : Methoden zur numerischen Berechnung von Integralen zum Beispiel siehe auch: ’hit and miss’-Monte-Carlo-Methode zweit Monte-Carlo-Methode
MTG : = Martingaleigenschaft (siehe auch Martingal) E(X(n + 1)|X(1), . . . , X(n)) = X(n)
N
n-tes Moment : Sei X ZV: E(Xn) heißt das n-te Moment von X siehe Erwartungswert
Normalverteilung : N(µ, σ2), µ, σ ∈ R: 1W(A) = √
2πσ2 exp(− (x−µ)2
)dx A ∈ B(R)2σ2
A
O
ω : ω = Elementarereignis
Ω : Ω = Grundraum aller Elemtarereignissen
∞�
� �
P 9
P
Pfad : von einem stochastischen Prozess X ist eine zufallige reellwertige Funktion auf T
Poissonprozess : T=R+, (X(t), t ≥ 0) ein stochastischer Prozess mit i) X(0) = 0 fast sicher ii) unabh¨ are Zuw¨angige, station¨ achse iii) die Zuwachse X(t) - X(s), s¡t habe die Poissonverteilung mit Parameter λ(t − s), λ > 0 heißt Poissonprozess mit Rate λ → Markovprozess aber kein Martingal
Poisonverteilung : mit Parameter λ > 0: W = e−λk 1! λ
kεk k=0
⇒ X nimmt fast sicher Werte in N0 an, dabei fur k ∈ N P(x=k) = e−λ λk
k!
Produktmaß : siehe Versuchsreihe P1 ⊗ P2 = P
Q
R
realisiert : Ist A Ereignis und gilt ω ∈ A ⇒ ω realisiert A
S
S1 : S(1) = 0
S2 : S strikt monoton fallend auf (0, 1]
S3 : S ist stetig auf (0, 1]
S4 : S(pq) = S(p) + S(q) f¨ur alle p,q in (0, 1]
Satz von Bayes : Sei B1, . . . , Bn ∈ A eine (paarweise disjunkte) Zerlegung nvon Ω d.h. Ω = k=1Bk
Dann kann man jedes Ereignis A ∈ A nach {Bk, k = 1, . . . , n} zerlegen: nA = k=1(Bk ∩ A)
RightarrowP (A) = n P (A|Bk )P (Bk ) =
k=1
n
k=1 P (Bk ∩ A)
Satz von Bienaym : X1, . . . , Xn seien paarweise unkorrelierte ZVs. Dann gilt: V(X1 + · · · + Xn) = V(X1)+ · · · +V(Xn)
(
�
� �
S 10
Satz von Fubini : Sei f reellwertig, meßbare Funktion auf Ω1 × Ω2
a) Fur jedes ω1 ∈ Ω1 ist die Funktion f(ω1, ·) auf Ω2 meßbar ur jedes ω1 ∈ Ω1 die Funktion f(ω1, ·) positiv oder µ2-integrierbarb) Falls f¨ �
ist, dann ist die Funktion ω1 �→ f (ω1, ω2)dµ(ω2) auf Ω1 meßbar � Ω2� c) f ist µ1 ⊗ µ2-integrierbar⇔ ( |f (ω1, ω2)|dµ2(ω2))dµ1(ω1) < +∞
Ω1 Ω2
d) amaloge Aussage zu a), b) und c) gelten mutatis mutandis, wenn die Rolle der Indizes 1 und 2 vertauscht ist � e) Falls f positiv oder µ1 ⊗ µ2-integrierbar ist, dann gilt fdµ1 ⊗ µ2 = � � � � Ω1 ×Ω2
( f (ω1, ω2)dµ2(ω2))dµ1(ω1) ( f (ω1, ω2)dµ1(ω1))dµ2(ω2) Ω1 Ω2 Ω2 Ω1
Merke: Dei der Integration bezuglich eines Produktmaßes kann man die Integration Variable f¨ uhren und es kommt nicht auf dieur Variable durchf¨ Reihenfolge der Integration an.
Satz von Poisson : Sei (Xn, n ∈ N ) eine Folge von binomialverteilte ZV, wobei Xn Parameter (n,pn) mit lim npn = λ > 0 hat. Dann konvergiert
n (Xn, n ∈ N ) in Verteilung gegen eine Poissonzufallsvariable mit Parameter λ
Satz von Shannon : Fur jede Kodierung C einer ZV X mit Werten x1, . . . , xN
gilt E(LC ) ≥ H(X)
Satz zum Produkt : Gegeben seien k Mengen M1, . . . ,Mk mit |Mi| = ni ∈ N , i=1, . . . , k. Dann ist die Anzahl aller k-Tupel der Form (m1, . . . ,mk ); mi ∈ Mi i=1, . . . , k gleich k ni
i=1
Satz zur Anzahl der Moglichkeiten : zu den verschiedenen Proben gibt es jeweils die folgende Anzahl von Moglichkeiten:
n!GO: n−k)! Maxwell-Boltzmann-Statistik nUO: Fermi-Dirac-Statistikk
GM: �nk � UM: n+k−1 Bose-Einstein-Statistikk
Satz zur gemeinsamen Verteilung und dem Produktmaß : Seien die ZV X1, . . . , Xn unabhangig. Dann ist die gemeinsame Verteilung PX1 ⊕···⊕Xn
gleich dem Produktmaß PX1 ⊕ · · · ⊕ PXn der Verteilung
σ − Algebra : Sei Ω eine Menge, A eine Menge von Teilmengen von Ω dann heißt A σ-Algebra falls gilt: i) Ω ∈ A ii) fur jedes A ∈ A gilt Ac ∈ A
∞� iii) fur jede Folge (An, n ∈ N ) ∈ A gilt An ∈ A
n=1 Bsp) A = {Ω, A,Ac , �}
Standardabweichung : siehe Streuung
�
�
�
� �
T 11
Starkes Gesetz der großen Zahlen : Sei (Xn, n ∈ N ) eine unabhangige Folge von identisch verteilte ZVs, deren viertes Moment existiert. E(X1
4) ¡ n
−∞. Dann konvergiert sn mit sn = Xn fast sicher gegen E(X1)n k=1
Stetigkeit von W-maßen : Sei (An, n ∈ N ) eine isotone oder antitone Folge von Ereignissen. Dann gilt: P(lim An) = lim P (An)
n n
(absolut) stetig verteilt : f ≥ 0 st¨ �uckweise stetige Funktion mit f (x)dx = 1 ⇒ fuhrt die Abbildung A �→ W (A) = f (x)dx zu einer Verteilung +
A damit zu einer (absolut) stetig verteilten Zufallsvariablen
Stetigkeitslemma von P. Lvy : Sei (Yn, n ∈ N ) eine Folge von ZV mit existierenden momenterzeugenden Funktionen: ψYn (t) = E(exp(tYn)) < +∞ mit t in R und n in N. Ferner sei Y ZV mit existierender momenterzeugender Funktion ψY . Falls ψYn punktweise gegen ψY konvergiert, so konvergiert Yn in Verteilung gegen Y.
stochastischer Prozess : Sei T eine Teilmenge von R+, (Ω,B,P) ein W-raum, (E,E ) ein meßbarer Raum (d.h. eine Menge, die mit einer σ-Algebra ausgestattet ist). Eine Abbildung T in einer Menge von ZV uber (Ω,B,P) mit Wertebereich E heißt stochastischer Prozess mit Zustandsraum E. (Die Menge T wird typischerweise als Bereich eines Zeitparameters aufgefasst. Gebrauchlich sin T \ N,R+) Notationen: X(t)(ω) ≡ X(t, ω) ≡ Xt(ω) mit t in T und ω ∈ Ω
Streuung : von X: V (X) (oder auch Standardabweichung)
T
Transformationssatz : Sei (Ω,A,µ) Maßraum, (Ω� ,A�) Meßraum, g meßbare Abbildung von Ω nach Ω� . Auf (Ω� ,A�) sei µg (A�) := µ(g−1(A�)), A’ ∈ A� ein Maß. Sei f reellwertige, meßbare Funktion auf Ω� , die positiv oder µg -integrierbar ist. Dann gilt f ◦ gdµ = fdµg Fakt: sei Px(B) = � Ω Ω� � φ(x)dxB ∈ B(R) mit φ(x) stuckweise stetig, sowie φ ≥ 0 und φ(x)dx =
B R 1 sei f stuckweise stetig und somit messbar und so dass das (uneigentliche)
+�∞
Riemanintegral −∞
|f (x)|φ(x)dx endlich ist. Dann gilt:
� +�∞
fdPx = f (x)φ(x)dx R −∞ � +�∞
⇒ E(f ◦ X) = fdPx = f (x)φ(x)dx mit X ZV und φ Dichte R � −∞ �
Lemma: Sei Px = αnεxn , f meßbar und so dass die Reihe αnf (xn) n � � n
absolut konvergiert. Dann gilt: fdPx = αnf (xn) R n
�
� �
�
U 12
U
Uberraschung : S als Funktion der W-keit p ∈ [0, 1], p=0 bei großem S und p=1 bei kleinem S siehe S1-S4Satz: Eine Funktion auf (0, 1], die S1-S4 erf¨ullt ist von der Form: S(p) = -C log2(p) wobei C eine positive Konsante ist. (Konvention: C=1)
UM : ungeordent mit Wiederholung
unabhangig (eidwt) : Sei (Xn, n ∈ N ) eine Folge von ZV aif einem W-raum angig, falls f¨(Ω,A,P). Sie heißt unabh¨ ur jedes n ∈ N , jede Wahl von
k1, . . . , kn ∈ N und jede Wahl xk1 , . . . , xkn ∈ R,
P(Xk1 < xk1 , . . . , Xkn < xkn ) = n
l=1 P (Xkl < xkl )gilt
unabhangig (2 Ereignisse) (eidwt) : Seien A1, . . . , An Ereignisse. Sie heißen unabh¨ ur jede Wahl von k ∈ {1, . . . , n} und jede Wahl von kangig falls f¨ Ereignissen Ai1 , . . . , Aik die Gleichung P (Ai1 ∩· · ·∩Aik ) = P (Ai1 ) · · · P (Aik ) gilt
P ( k
j=1 Aij ) =
k
j=1 P (Aij )
unabhangige standard normalverteilte Zustandsvariable : Seien U1 und U2 zwei unabh¨ �angige auf [0, 1] gleichverteilte ZV setze: X= −2ln(U1)cos(2πU2); Y= −2ln(U1)sin(2πU2) dann sind X,Y unabhangige standard normalverteilte ZVs.
uiv : = unabhangig identisch verteilt
Unabhangigkeit von Zufallsvariablen : X1, . . . , Xn n ∈ N wenn alle Ereignisse der Form {Xi ∈ Bi}, Bi ∈ B(R) i=1, . . . , n unabhangig sind.
ungeordent mit Wiederholung : falls man nicht die Reihenfolge berucksichtigt und die Elemente wiederholt ausgew¨ urfenahlt werden d¨ ⇒ {ωi1 , . . . , ωik } (k ≤ n) = Menge und ∀j �= k gilt ωij �= ωik
ungeordent ohne Wiederholung : falls man die Reihenfolge nicht registriert und kein Element mehr als einmal gewahlt werden darf ⇒< ωi1 , . . . , ωik > (k ≤ n) = Sammlung von Elementen aus Ω mit Vielfachheit zwischen 0 und k
unkorreliert : falls Cov(X,Y) = 0 und damit ρ(X,Y ) = 0 gilt, so heißt X und Y unkorreliert.
UO : ungeordnet ohne Wiederholung
V
Varianz : Die Große V(X) = E((X − E(X))2) heißt Varianz
�
� �
� �
W 13
Versuchsreihe : unabh¨ uhrung von Experimenten Bsp: 2 Experiangige Ausf¨ mente W-raume (Ω1,A1,P1), (Ω2,A2,P2) ⇒ Ω1 × Ω2 = {(ω1, ω2)} ist der grundraum aller ω das kombinierte Experiment (zuerst 1., dann 2.) A1 × A2 = im Experiment1 tritt A1 und in Experiment2 tritt A2 ein definiere A1 ⊗A2
als kleinste σ-Algebra die alle Ereignisse A1 × A2 enthalt ⇒ P(A1 × A2) := P1(A1) · P2(A2) heißt Produktmaß
Verteilung : Sei (Ω,A,P) ein W-raum, X feste Zuvallsvariable. Dann konnen wir fur jedes B ∈ B(R) den Wert P (X ∈ B) = P (X−1(B)) ermitteln ⇒ Abbildung PX von B(R) und [0, 1] : PX (B) := P (X ∈ B) ⇒ PX = V erteilung → Die Funktion F(x) = PX ((−∞, x)) = P (X < x)heißt Verteilungsfunktion von XSatz: PX ist ein W-maß auf (R,B(R))
W
Warmeleitungsgleichung : Verteilung B(t), Dichte p(t,x) ⇒ WLGL: ( δδt −
1 δ2
2 δx2 )p(t, x) = 0
Warmeleitungskern : siehe Wienerprozess
W-keit : = Wahrscheinlichkeit
W-maß : = Wahrscheinlichkeitsmaß
W-raum : = Wahrscheinlichkeitsraum
Wahrscheinlichkeit : Sei Ω der Grundraum aller Elementarereignisse eines Experiments, A eine σ-Algebra von Ereignissen. Falls P ein W-maß auf (Ω,A) ist, so heißt fur iedes A ∈ A, P(A) die Wahrscheinlichkeit des Ereignisses A.
Wahrscheinlichkeiten : Ω = {ω1, . . . , ωn} endlich, falls wir wahlen p1, . . . , pn ∈ n
[0, 1] mit pi = 1 dann k¨ ur die W-keit des Eronnen wir P({ωi}) = pi f¨ i=1
eignisses setzen. ⇒ wir erhalten ein W-maß auf (Ω,(P )(Ω))
k k P(A) = P ({wij }) = pj mit A = {wi1 , . . . , wik }
j=1 j=1
Wahrscheinlichkeitsmaß : Es werden alle Voraussetzungen von einem Maß benotigt und dazu: iii) P(Ω) = 1
Wahrscheinlichkeitsmaß mit α : Sei Ω ein Grundraum, A eine σ-Algebra, P1, . . . , Pn W-maße, α1, . . . , αn Zahlen in [0, 1] mit α1 + · · · + αn = 1
n n ⇒ P := αk Pk ⇒ P (A) = αk Pk(A) A ∈ A
k=1 k=1
∞
∞
∞
∞
�
�
�
�
�
X 14
Wahrscheinlichkeitsmaß mit Integral : Sei Ω = R, A = B(R), f stuckweise stetig + positiv mit f (x)dx = 1 dann definiert:
R
P(A) := A f (x)dx, A ⊂ B(R) ein W-maß auf (R,B(R))
Wahrscheinlichkeitsraum : Das Tripel (Ω,A,P) heißt Wahrscheinlichkeitsraum
Wahrscheinlichkeitstheoretische Interpretationen fur Operationen auf Mengen : Ω = sicheres Ereignis, � = unmogliches Ereignis A ∪ B = A oder B tritt ein , A ∩ B = A und B tritt ein Ac = A tritt nicht ein , A � B = entweder A oder B tritt ein A \ B = A tritt ein und B nicht , A ⊂ B = A zieht B nach sich �
An = fur ein gewisses n ∈ N tritt An ein n=1
n=1 An = fur alle n ∈ N tritt An ein
∞�
n=1 k=n lim n inf (An) := Ak = fur fast alle n ∈ N tritt An ein
n=1
∞�
k=n lim n sup(An) := Ak = fur unendlich viele n ∈ N tritt An ein
ahlen T=R+ als Bereich f¨Wienerprozess : Wir w¨ ur den Zeitparameter. Ein Prozess B=(B(t), t ≥ 0) heißt Wienerprozess falls gilt: i) B(0) = 0 (fast sicher) ii) B hat unabh¨ are Zuw¨angige, station¨ achse iii) der Zuwachs B(t) - B(s), 0 ≤ s ≤ t ist N(0,t-s)-verteiltiv) die Pfade von B sind fast sicher stetigMeist ist es die Dichte ft1 ,...,tn (x1, . . . , xn) in dem Zeitpunkt t1, . . . , tn dergemeinsam verteilten ZVs B(t1), . . . , B(tn) zu kennen. ⇒ Falls 0 < t1 <. . . < tn gilt: ft1 ,...,tn (x1, . . . , xn) = p(t1, x1)p(t2 − t1, x2 − x1) · · · p(tn −
2 tn−1, xn − xn−1) wobei p(t, x) = √ 1 exp(− x
2t ) x ∈ R, t > 0 der soge2πε
nannte Warmeleitungskern ist
X
Y
Z
Zentraler Grenzwertsatz : Sei (Xn, n ∈ N ) eine Folge von uiv ZVs mit E(X1) = µ und V(X1) = σ ¿ 0. Falls die momenterzeugende Funktion ψX1 auf ganz R endlich und in einer Umgebung des Ursprungs zweimal stetig diffbar ist, dann konvergiert die Folge (Zn, n ∈ N ), definiert durch
√Zn = X1 +···+Xn −nµ , n ∈ N nσ2
∞�
�
�
Z 15
Zufallsvariable : Ist (Ω, A, P ) ein W-raum, so heißt eine meßbare Abbildung X von Ω nach R eine Zufallsvariable
Zufallszahlenalgorithmus : Zn = a·Zn−1+cmodM (Z0 = seed) a, c,M ∈ N = kongruente Generatoren mit c=0 == multiplikativ kongruente oder einfach kongruente Generatoren Lemma: Sei X stetig verteilt mit Dichte fx und Verteilungsfunktion Fx
Fx(x) = −∞
fx(y)dy, x ∈ R. Dann ist die ZV Fx ◦ X auf [0, 1] gleichver
teilt.Korollar:Sei U eine auf [0, 1] gleichverteilte ZV. Dann hat Fx
−1 ◦U diesselbe Verteilung wie X = Mthode der inversen Verteilungsfunktion = Transformationsmethode
Zustandsraum : siehe stochastischer Prozess
ZV : = Zufallsvariable
zweidimensionale Brownsche Bewegung : BBW in der Ebene = 2 BBW: jeweils fur die x- und y-Koordinate: B(t) = (B1(t), B2(t))
zweite Monte-Carlo-Methode : Sei Z=f ◦ X wobei X eine auf [0, 1] gleich
verteilte ZV. Dann gilt mit dem Transformationssatz E(Z) = �1
0 f (x)dx ⇒
fast sicher 1 n
1
0 f (x)dx
Zylindermenge : ((Ωn, An, Pn)n ∈ N ) Ω = n∈N
Ωn ω ∈ Ω = (ω1, . . . , ωn, . . .)
A = ⊗An mit A = A1 × · · · × An × · · · wobei nur endlich viele An ∈ An
verschieden von Ωn sind ⇒ A = Ω1 ×· · ·×Ai1 ×Ωi+1 ×· · ·×Ai2 ×· · · ⇒ P (A) = Pi1 (Ai1 ) · · · Pik (Aik )
INHALT 16
Inhalt
A 1a posteriori Wahrscheinlichkeiten . . . . . . . . . . . . . . . . . . . . . 1absolut stetig verteilt . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1antiton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1Axiom zur σ − Algebra . . . . . . . . . . . . . . . . . . . . . . . . . . 1
B 1Bayes’sche Formel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1BBW . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1bedingte diskrete Dichte . . . . . . . . . . . . . . . . . . . . . . . . . . 1BE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1bedingte Entropie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1bedingte Erwartung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1bedingte Erwartung (Vorbereitung) . . . . . . . . . . . . . . . . . . . . 1bedingte Erwartung 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . 1bedingte Erwartung 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . 1Fakt zwischen BE2 und BE3 . . . . . . . . . . . . . . . . . . . . . . . 1bedingte Erwartung 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . 2bedingte Erwartung 4 . . . . . . . . . . . . . . . . . . . . . . . . . . . 2bedingte Erwartung 5 . . . . . . . . . . . . . . . . . . . . . . . . . . . 2bedingte Erwartung 6 . . . . . . . . . . . . . . . . . . . . . . . . . . . 2bedingte Erwartung 7 . . . . . . . . . . . . . . . . . . . . . . . . . . . 2bedingte Erwartung 8 . . . . . . . . . . . . . . . . . . . . . . . . . . . 2bedingte Erwartung 9 . . . . . . . . . . . . . . . . . . . . . . . . . . . 2bedingte Erwartung 10 . . . . . . . . . . . . . . . . . . . . . . . . . . . 2bedingte Erwartung 11 . . . . . . . . . . . . . . . . . . . . . . . . . . . 2bedingte Wahrscheinlichkeit . . . . . . . . . . . . . . . . . . . . . . . . 2Bernoullie-Experiment . . . . . . . . . . . . . . . . . . . . . . . . . . . 2Bernoullie-Zufallsvariable . . . . . . . . . . . . . . . . . . . . . . . . . 2Binomialverteilte Zufallsvariable . . . . . . . . . . . . . . . . . . . . . 2Borelmenge . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2Brownsche Bewegung . . . . . . . . . . . . . . . . . . . . . . . . . . . 2Brownsche Bewegung Eigenschaften . . . . . . . . . . . . . . . . . . . 3
C 3Cauchyverteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3Chapman-Kolmogorov-Gleichung . . . . . . . . . . . . . . . . . . . . . 3charakteristische Funktion von X . . . . . . . . . . . . . . . . . . . . . 3
D 3Dichte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3Diracmaß . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3diskret verteilt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3diskrete Gleichverteilung . . . . . . . . . . . . . . . . . . . . . . . . . . 3diskrete Wahrscheinlichkeitsverteilung . . . . . . . . . . . . . . . . . . 3
INHALT 17
E 4Elementarereignis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4Entropie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4Ereignis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4Ergodenkette f¨ur Markovketten . . . . . . . . . . . . . . . . . . . . . . 4Erwartungswert . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4E bei X Bernoulli ZV . . . . . . . . . . . . . . . . . . . . . . . . . . . 4E bei X normalverteilt . . . . . . . . . . . . . . . . . . . . . . . . . . . 4Exponentialverteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
F 4
G 4Gaußfunktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4gemeinsame Entropie . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4gemeinsame Verteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . 4gemeinsame Verteilungsfunktion . . . . . . . . . . . . . . . . . . . . . 5geometrische Brownsche Bewegung . . . . . . . . . . . . . . . . . . . . 5geordent ohne Wiederholung . . . . . . . . . . . . . . . . . . . . . . . 5geordent mit Wiederholung . . . . . . . . . . . . . . . . . . . . . . . . 5Gleichverteilung auf [a, b] . . . . . . . . . . . . . . . . . . . . . . . . . 5GM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5GO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5gr¨oßte σ-Algebra . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5Grundmenge . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
H 5’hit and miss’-Monte-Carlo-Methode . . . . . . . . . . . . . . . . . . . 5Hypothese . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
I 5Irrfahrt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5isoton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
J 6
K 6kleinste σ-Algebra . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6Kodierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6Konstruktionsprinzip . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6Konvergenz (eidwt) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6Korrelation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6Kovarianz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6KV . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
L 7Laplace-Experiment . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7Lebesguemaß . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7Lemma i (eidwt) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7Lemma ii (eidwt) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7Lemma zur bedingten Wahrscheinlichkeit . . . . . . . . . . . . . . . . 7
INHALT 18
Lemma zu meßbar und Zufallsvariablen . . . . . . . . . . . . . . . . . 7
M 7Markoveigenschaft . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7Markovprozess . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7Martingal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7Martingalkette . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7Maß . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7ME . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8meßbar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8Methode der kleinsten Fehlerquadrate nach Gauß-Laplace . . . . . . . 8Mittelwert . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8mittlerer Informationsgehalt . . . . . . . . . . . . . . . . . . . . . . . . 8
¨mittlere Uberaschung . . . . . . . . . . . . . . . . . . . . . . . . . . . 8Moment . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8momenterzeugende Funktion von X . . . . . . . . . . . . . . . . . . . . 8Monte-Carlo-Methoden . . . . . . . . . . . . . . . . . . . . . . . . . . 8MTG . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
N 8n-tes Moment . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8Normalverteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
O 8ω . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8Ω . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
P 9Pfad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9Poissonprozess . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9Poisonverteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9Produktmaß . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
Q 9
R 9realisiert . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
S 9S1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9S2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9S3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9S4 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9Satz von Bayes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9Satz von Bienaym . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9Satz von Fubini . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10Satz von Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10Satz von Shannon . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10Satz zum Produkt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10Satz zur Anzahl der M¨oglichkeiten . . . . . . . . . . . . . . . . . . . . 10Satz zur gemeinsamen Verteilung und dem Produktmaß . . . . . . . . 10
INHALT 19
σ − Algebra . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10Standardabweichung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10Starkes Gesetz der großen Zahlen . . . . . . . . . . . . . . . . . . . . . 11Stetigkeit von W-maßen . . . . . . . . . . . . . . . . . . . . . . . . . . 11(absolut) stetig verteilt . . . . . . . . . . . . . . . . . . . . . . . . . . . 11Stetigkeitslemma von P. Lvy . . . . . . . . . . . . . . . . . . . . . . . 11stochastischer Prozess . . . . . . . . . . . . . . . . . . . . . . . . . . . 11Streuung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
T 11Transformationssatz . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
U 12¨Uberraschung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12UM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12unabh¨angig (eidwt) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12unabh¨angig (2 Ereignisse) (eidwt) . . . . . . . . . . . . . . . . . . . . 12unabh¨angige standard normalverteilte Zustandsvariable . . . . . . . . 12 uiv . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12Unabh¨angigkeit von Zufallsvariablen . . . . . . . . . . . . . . . . . . . 12ungeordent mit Wiederholung . . . . . . . . . . . . . . . . . . . . . . . 12ungeordent ohne Wiederholung . . . . . . . . . . . . . . . . . . . . . . 12unkorreliert . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12UO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
V 12Varianz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12Versuchsreihe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13Verteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
W 13W¨armeleitungsgleichung . . . . . . . . . . . . . . . . . . . . . . . . . . 13W¨armeleitungskern . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13W-keit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13W-maß . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13W-raum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13Wahrscheinlichkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13Wahrscheinlichkeiten . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13Wahrscheinlichkeitsmaß . . . . . . . . . . . . . . . . . . . . . . . . . . 13Wahrscheinlichkeitsmaß mit α . . . . . . . . . . . . . . . . . . . . . . . 13Wahrscheinlichkeitsmaß mit Integral . . . . . . . . . . . . . . . . . . . 14Wahrscheinlichkeitsraum . . . . . . . . . . . . . . . . . . . . . . . . . . 14Wahrscheinlichkeitstheoretische Interpretationen
ur Operationen auf Mengen . . . . . . . . . . . . . . . . . . . . . 14f¨Wienerprozess . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
X 14
Y 14
INHALT 20
Z 14Zentraler Grenzwertsatz . . . . . . . . . . . . . . . . . . . . . . . . . . 14Zufallsvariable . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15Zufallszahlenalgorithmus . . . . . . . . . . . . . . . . . . . . . . . . . . 15Zustandsraum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15ZV . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15zweidimensionale Brownsche Bewegung . . . . . . . . . . . . . . . . . 15zweite Monte-Carlo-Methode . . . . . . . . . . . . . . . . . . . . . . . 15Zylindermenge . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
Top Related