Parametersch atzung und Messunsicherheit mit der Bayes...

29
Parametersch¨ atzung und Messunsicherheit mit der Bayes-Statistik Dozent: Dr.-Ing. Gerd Ehret Physikalisch-Technische Bundesanstalt 27. Nov. 2017 Sechste Vorlesung zu Messdatenauswertung und Messunsicherheit (MDA) Modulverantwortlicher: Prof. Dr.-Ing. R. Tutsch, iprom, TU Braunschweig 1 Bayes-Theorem 1.1 Einleitung: Klassische und Bayessche Statistik Grob gesagt verwendet die klassische Statistik zum Sch¨ atzen von Parametern und zum Testen von Hypothesen nur die Stichprobe; die bayessche stellt zus¨ atzlich in Rechnung, was man sonst noch ¨ uber das Problem weiß oder annimmt. Dies h¨ angt mit den unterschiedlichen Meinungen dar¨ uber zusammen, was Wahrscheinlichkeit bedeutet: relative H¨ aufigkeit in Zufallsexperimen- ten (die klassiches Sicht) oder einen Ausdruck des Wissens (die bayessche Sicht). Siehe hierzu auch die 4. Vorlesung. 1

Transcript of Parametersch atzung und Messunsicherheit mit der Bayes...

Page 1: Parametersch atzung und Messunsicherheit mit der Bayes ...iprom.tu-bs.de/_media/lehre/vorlesungen/mda_munsicherheit/mdavorl_2017... · Parametersch atzung und Messunsicherheit mit

Parameterschatzung und

Messunsicherheit mit der Bayes-Statistik

Dozent: Dr.-Ing. Gerd Ehret

Physikalisch-Technische Bundesanstalt

27. Nov. 2017

Sechste Vorlesung zu

Messdatenauswertung und Messunsicherheit (MDA)

Modulverantwortlicher:

Prof. Dr.-Ing. R. Tutsch, iprom, TU Braunschweig

1 Bayes-Theorem

1.1 Einleitung: Klassische und Bayessche Statistik

Grob gesagt verwendet die klassische Statistik zum Schatzen von Parametern und zum Testen

von Hypothesen nur die Stichprobe; die bayessche stellt zusatzlich in Rechnung, was man sonst

noch uber das Problem weiß oder annimmt. Dies hangt mit den unterschiedlichen Meinungen

daruber zusammen, was Wahrscheinlichkeit bedeutet: relative Haufigkeit in Zufallsexperimen-

ten (die klassiches Sicht) oder einen Ausdruck des Wissens (die bayessche Sicht). Siehe hierzu

auch die 4. Vorlesung.

1

Page 2: Parametersch atzung und Messunsicherheit mit der Bayes ...iprom.tu-bs.de/_media/lehre/vorlesungen/mda_munsicherheit/mdavorl_2017... · Parametersch atzung und Messunsicherheit mit

1.2 Das Bayes-Theorem

(Hinweis: Unter einer bedingten Wahrscheinlichkeit P (A|B) versteht man die Wahrscheinlich-

keit, dass ein Ereignis A unter der Bedingung eintritt, dass das Eintreten eines Ereignisses

B bereits bekannt ist, d.h. Ereignis B bereits eingetreten ist. Im Gegensatz dazu gibt es die

totale Wahrscheinlichkeit p(A).)

In der Statistik wird der zu schatzende Parameter haufig mit θ bezeichnet. Deshalb nehmen

wir hier auch fur den Modellparameter θ anstatt Y . Gegeben sind Messdaten / Beobachtungen

einer Messgroße X mit Xj, j = 1...J . Die dazugehorige bedingte Wahrscheinlichkeitsdichte in

Abhangigkeit von dem Parameter θ ist p(X|θ). Unter der Annahme, dass θ eine Wahrschein-

lichkeitsdichte p(θ) besitzt, gibt es nach Bayes folgenden Zusammenhang

p(X|θ) · p(θ) = p(θ|X) · p(X) (1)

Die gesuchte bedingte Wahrscheinlichkeit p(θ|X) ist dann gegeben durch:

p(θ|X) =p(X|θ) · p(θ)

p(X)(2)

Die totale Wahrscheinlichkeitsdichte erhalten wir durch:

p(X) = E(p(X|θ)) = c−1 =

{ ∫p(X|θ)p(θ)dθ mit θ kontinuierlich∑p(X|θ)p(θ) mit θ diskret

(3)

Das Integral oder die Summe geht uber den erlaubten Bereich von θ. E() bezeichnet den

Erwartungswert.

Damit konnen wir die Gl. (2) umschreiben:

p(θ|X) = c · p(X|θ) · p(θ) (4)

Gl.(2) bzw. Gl.(4) wird in der Regel als Bayes-Theorem bezeichnet. Wir bezeichnen:

• p(θ|X): Gesuchte Posterior-Wahrscheinlichkeitsdichte, kurz: Posterior

• p(X|θ): Bedingte Wahrscheinlichkeitsdichte der Messdaten X

• p(θ): Prior-Wahrscheinlichkeitsdichte von θ, kurz: Prior

• c: Normierungskonstante, die sicherstellt, dass die Summe bzw. das Integral uber die

Posterior p(θ|X) gleich Eins ist.

MDA, 6.V, iprom, Version: 21.11.2017 2 [email protected]

Page 3: Parametersch atzung und Messunsicherheit mit der Bayes ...iprom.tu-bs.de/_media/lehre/vorlesungen/mda_munsicherheit/mdavorl_2017... · Parametersch atzung und Messunsicherheit mit

Da c”nur“ eine Normierungskonstante ist wird das Bayes-Theorem auch oft als Proportiona-

litatsgleichung geschrieben:

p(θ|X) ∝ p(X|θ) · p(θ) (5)

Zusammenhang zwischen Bayes-Theorem und Likelihood-Funktion:

Die bedingte Wahrscheinlichkeitsdichte p(X|θ) kann

(a) als Funktion von X gesehen werden

oder

(b) als Funktion von θ, d.h. welches θ passt am besten zu den gemessenen Daten X; dieses

bezeichnet man als Likelihood-Funktion: l(θ|X)

Somit konnen wir die Gl.(5) auch schreiben als:

p(θ|X) ∝ l(θ|X) · p(θ) (6)

Das Bayes-Theorem gibt uns die Wahrscheinlichkeitsfunktion fur den Posterior p(θ|X) durch

das Produkt aus der Likelihoodfunktion und der Prior-Funktion p(θ)

Posterior− Verteilung ∝ Likelihood− Funktion x Prior− Verteilung

Die Likelihood-Fkt. spielt eine entscheidende Rolle bei Bayes, da sie durch Aufnehmen von

Messdaten X meine Priorkenntnis uber θ updated.

Eine Konstante bei der Likelihood-Funktion hat keinen Einfluss auf das erweiterte Wissen, da

schlussendlich ja die Posterior-Verteilung normiert bleiben muss, d.h.∫p(θ|X)dθ = 1. Deshalb

sind nur die relativen Werte der Likelihood-Funktion von Relevanz.

Sequentielle Natur von Bayes

Ein wichtige Eigenschaft des Bayes-Theorems ist, dass Vorwissen mit neuem Wissen kombi-

niert werden kann. Es gilt bei Aufnahme von zwei Messungen (zwei Beobachtungen) X1 und

X2

p(θ|X2, X1) ∝ p(θ) · l(θ|X1) · l(θ|X2)

∝ p(θ|X1) · l(θ|X2)

D.h. die Posterior p(θ|X1) der 1.Beobachtung wird zum Prior fur die 2. Beobachtung. Dieser

Prozess kann beliebig of wiederholt werden., d.h. wir erhalten:

p(θ|X1, . . . , XJ) ∝ p(θ|X1 . . . , XJ−1) · l(θ|XJ) (7)

MDA, 6.V, iprom, Version: 21.11.2017 3 [email protected]

Page 4: Parametersch atzung und Messunsicherheit mit der Bayes ...iprom.tu-bs.de/_media/lehre/vorlesungen/mda_munsicherheit/mdavorl_2017... · Parametersch atzung und Messunsicherheit mit

Diese Gleichung beschreibt den Prozess des Lernens durch kontinuierliche Updates.

Dies ist auch fur Ringvergleiche interessant. Hier messen mehrere Institute denselben Prufling

(siehe spatere Vorlesung zu Ringvergleichen).

2 Parameterschatzung mit Bayesscher Statistik

2.1 Einfuhrung

Wie in der klassischen Statistik (frequentistische Statistik), so kann man auch in der bayess-

chen Statistik eine Parameterschatzung durchfuhren. Eine Schatzung hat zum Ziel einen Wert

anzugeben, der dem wahren Wert moglichst nahe kommt. Man gibt zum Schatzwert noch ein

Intervall an, indem vermutlich der wahre Wert liegt. Sowohl der Schatzwert θ als auch das

dazugehorige Intervall kann aus der Posterior-Verteilungsdichte p(θ|X) bestimmt werden.

2.2 Beispiel: Schatzung einer physikalischen Konstante

Dieses etwas fiktive Beispiel soll zeigen, wie sich unterschiedliches Vorwissen oder unterschied-

liche Beobachtungen auf die Schatzung einer physikalischen Konstante auswirkt. Wir nehmen

an, dass Beobachter A sehr vertraut auf diesem Gebiet ist und großes Vorwissen hat und somit

einen guten Schatzwert fur den Prior pA(θ) angeben kann. Wir nehmen an, dass das Prior-

Wissen des Beobachters A durch eine Normalverteilung N (µ = 900, σ2 = 202) approximiert

werden kann. D.h.

pA(θ) =1√

(2 π)20exp

[− 1

2

(θ − 900

20

)2]

Im Gegensatz dazu nehmen wir an, dass Beobachter B weniger Vorwissen hat, hier beispiel-

weise nur eine Varianz von σ2 = 802 hat. Wir nehmen fur B als Prior eine Normalverteilung

N (800, 802) an. D.h.

pB(θ) =1√

(2 π)80exp

[− 1

2

(θ − 800

80

)2]

Abb.1 zeigt die beiden Prior-Verteilungen: Wir nehmen zunachst an, dass die physik. Konstan-

te einmal beobachtet wird mit dem Mittelwert θ = 850 und der Standardabweichung 40, d.h.

als Likelihood der Messdaten haben wir eine Normalverteilung l(θ|X) ∼ N (850, 40). Abb.2

zeigt die Wahrscheinlichkeitsdichtefunktion (engl. probability density function, kurz pdf) der

Likelihood und Abb.3 die Posteriorverteilung pA(θ|X) fur den Beobachter A und die Posterior-

Verteilung pB(θ|X) fur den Beobachter B. Abb. 3 zeigt, dass Beobachter A nicht viel gelernt

MDA, 6.V, iprom, Version: 21.11.2017 4 [email protected]

Page 5: Parametersch atzung und Messunsicherheit mit der Bayes ...iprom.tu-bs.de/_media/lehre/vorlesungen/mda_munsicherheit/mdavorl_2017... · Parametersch atzung und Messunsicherheit mit

Abbildung 1: Prior-Verteilungen fur A und B

hat, wahrend Beobachter B viel gelernt hat.

Abbildung 2: Standardisierte Likelihood fur 1 Beobachtung mit x = 850

Wenn sowohl der Prior θ ∼ N(θ0, σ20) als auch die Likelihood normalverteilt ist, dann ist auch

der Posterior p(θ|X) normalverteilt mit N (θ, σ2), wobei

θ =1

w0 + w1

(w0θ0 + w1x) ,1

σ2= w0 + w1 (8)

mit w0 =1

σ20

und w1 =1

σ21

Beweis dazu siehe weiter unten.

MDA, 6.V, iprom, Version: 21.11.2017 5 [email protected]

Page 6: Parametersch atzung und Messunsicherheit mit der Bayes ...iprom.tu-bs.de/_media/lehre/vorlesungen/mda_munsicherheit/mdavorl_2017... · Parametersch atzung und Messunsicherheit mit

Abbildung 3: Posterior Verteilung fur A und B nach einer Beobachtung mit σA = 17.9 undσB = 35.7. D.h. A hat wenig gelernt, B hat viel gelernt.

Mit σ2 bezeichnen wir hier die Varianz der Posterior und nicht die Varianz des Mittelwer-

tes. D.h. durch die Beobachtung wird meine Varianz upgedatet. Bei J Beobachtungen ware

dann die Varianz σ2 des Posteriors die Kombination aus der Varianz des Priors σ20 und den

Messungen σ2J :

1

σ2=

(J∑j=1

1

σ2j

)+

1

σ20

Der Posterior Mittelwert θ ist das gewichtete Mittel des Prior-Mittelwertes und des Mittel-

wertes x der Beobachtung X.

Fur den Beobachter A ergibt sich der Mittelwert des Posteriors zu:

θA =1

1/202 + 1/402

(1

202· 900 +

1

402· 850

)= 890

Die Standardabweichung ergibt sich zu:

1

σ2A

=1

202+

1

402⇒ σA = 17.9

Die Ergebnisse sind in Tab.1 zusammengefasst.

Nehmen wir jetzt an, dass 99 weitere unabhangige Messungen zur Bestimmung der phys.

Konstante gemacht werden mit einem Mittelwert x = 1/100 ·∑100

j=1 fur 100 Beobachtungen

mit Mittelwert 870. Die Likelihood-Funktion von θ bei J unabhangigen Beobachtungen, die

MDA, 6.V, iprom, Version: 21.11.2017 6 [email protected]

Page 7: Parametersch atzung und Messunsicherheit mit der Bayes ...iprom.tu-bs.de/_media/lehre/vorlesungen/mda_munsicherheit/mdavorl_2017... · Parametersch atzung und Messunsicherheit mit

Tabelle 1: Zusammenfassung der Ergebnisse fur Beobachter A und B. A lernt wenig. B lerntviel.

Prior Verteilung Likelihood von den Daten Posterior VerteilungA A A

θ ∼ N(900, 202) N(850, 402) θ ∼ N(890, 17.92)B B B

θ ∼ N(800, 802) N(850, 402) θ ∼ N(840, 35.72)

normalverteilt N(θ, σ2) sind, ist gegeben durch:

l(θ|X) ∝(

1√2πσ

)nexp

[− 1

2σ2

J∑j=1

(Xj − θ)2]

DaJ∑j=1

(Xj − θ)2 =J∑j=1

(Xi − ¯(X))2 + J(θ − ¯(X))

und die gegebenen Daten∑

(Xj − Y )2 eine feste Konstante ist, so ist die Likelihood:

l(θ|X) ∝ exp

− 1

2

(θ − Xσ/√

(J)

)2 (9)

D.h. dies ist eine Normalverteilung zentriert bei X mit Standardabweichung σ/√J . Im gege-

benem Beispiel ist die Likelihood die Normalverteilung mit dem Mittelwert X = 870 und der

Standardabweichung des Mittelwertes σ/√

(J) = 40/√

100 = 4. Dies ist in Abb. 4 gezeigt.

Abbildung 4: Standardisierte Likelihood fur 100 Beobachtungen mit X = 870

MDA, 6.V, iprom, Version: 21.11.2017 7 [email protected]

Page 8: Parametersch atzung und Messunsicherheit mit der Bayes ...iprom.tu-bs.de/_media/lehre/vorlesungen/mda_munsicherheit/mdavorl_2017... · Parametersch atzung und Messunsicherheit mit

Mit der Formel in Gl.(8) errechnen sich die Posterior-Verteilungen von A und B zuN(871.2, 3.92)

und N(869.8, 3.99952). Diese sind in Abb.5 dargestellt.

Abbildung 5: Posterior-Verteilungen fur A und B nach 100 Beobachtungen

Nach 100 Beobachtungen sind die Beobachter A und B fast in Ubereinstimmung. Das Prior-

Wissen von A und B spielt fast keine Rolle mehr. In Tabelle 2 sind die Ergebnisse dargestellt.

Tabelle 2: Zusammenfassung der Ergebnisse fur Beobachter A und B bei 100 Beobachtungen.Vorwissen von Beobachter A und B spielt fast keine Rolle mehr

Prior Verteilung Likelihood von den Daten Posterior VerteilungA A A

θ ∼ N(900, 202) N(870, 42) θ ∼ N(871.2, 3.92)B B B

θ ∼ N(800, 802) N(870, 42) θ ∼ N(869.8, 3.9952)

Anhang (a): Herleitung von Gl.(8)

Im Folgenden wollen wir noch die Gl.(8) herleiten, mit der wir die Posterior berechnen konnen,

wenn die Prior-Verteilung und die Likelihood normalverteilt sind. Wir nehmen an, dass die

Prior normalverteilt ist mit:

p(θ) =1√

2πσ0exp

[− 1

2

(θ − θ0σ0

)2], −∞ < θ <∞ (10)

Die Likelihood-Funktion von θ ist ebenfalls normalverteilt:

l(θ|X) ∝ exp

[− 1

2

(θ −Xσ1

)2]

(11)

MDA, 6.V, iprom, Version: 21.11.2017 8 [email protected]

Page 9: Parametersch atzung und Messunsicherheit mit der Bayes ...iprom.tu-bs.de/_media/lehre/vorlesungen/mda_munsicherheit/mdavorl_2017... · Parametersch atzung und Messunsicherheit mit

Die Posterior-Verteilung erahlten wir dann:

p(θ|X) =p(θ) l(θ|X)∫∞

−∞ p(θ) l(θ|X))dθ=

f(θ|X)∫∞−∞ f(θ|X)dθ

(12)

mit

f(θ|X) = exp

{− 1

2

[(θ − θ0σ0

)2

+

(X − θσ1

)]}(13)

Unter der Verwendung der Identitat

A(z − a)2 +B(z − b)2 = (A+B)(z − c)2 +AB

A+B(a− b)2 (14)

mit

c =1

A+B(A a+B b) (15)

konnen wir den folgenden Ausdruck wie folgt schreiben:(θ − θ0σ0

)2

+

(x− θσ1

)2

= (σ−20 + σ−21 ) (θ − θ)2 + d (16)

wobei

θ =1

σ−20 + σ−1 2(σ−20 θ0 + σ−21 X)

und d ist konstant, d.h. unabhangig von θ. Somit

f(θ|X) = exp

(− d

2

)exp[− 1/2 · (σ−20 + σ−21 )(θ − θ)2] (17)

so dass ∫∞−∞ f(θ|X)dθ = exp

(− d

2

)·∫∞−∞ exp

[− 1

2(σ−20 + σ−21 )(θ − θ)2

]dθ

=√

2π(σ−20 + σ−21 )−1/2 exp(−d/2)(18)

Es folgt daraus, dass

p(θ|X) =(σ−20 + σ−21 )1/2√

2πexp

[−1/2 · (σ−20 + σ−21 )(θ − θ)2)

](19)

mit der Normalverteilung

N[θ, (σ−20 + σ−21 )−1

](20)

MDA, 6.V, iprom, Version: 21.11.2017 9 [email protected]

Page 10: Parametersch atzung und Messunsicherheit mit der Bayes ...iprom.tu-bs.de/_media/lehre/vorlesungen/mda_munsicherheit/mdavorl_2017... · Parametersch atzung und Messunsicherheit mit

Anhang (b): Octave/Matlab-Skript zum Beispiel

% by Ehret, date: 17-11-06

clear all; close all;

% Beispiel: Bayes for a physical constants

% Definition der X-Werte

X = linspace(600,1100,1000);

% Beispiel

% Prior-Verteilung des Beobachters A

% Normalverteilt mit mu_A = 900 und sigma_a = 20

mu_A = 900;

sigma_A = 20;

DeltaX = X(2)-X(1);

p_A = normpdf(X,mu_A, sigma_A);

% Prior-Verteilung des Beobachters B

% Normalverteilt mit mu_B = 800 und sigma_a = 80

mu_B = 800;

sigma_B = 80;

p_B = normpdf(X,mu_B, sigma_B);

% Plotten der Prior-Verteilungen von A und B

figure(1)

plot(X,p_A,’r-’,’linewidth’,2)

hold on;

plot(X,p_B,’b--’,’linewidth’,2)

grid on;

legend(’p_A(\theta) \sim N(900,20^2)’,’p_B(\theta) \sim N(800,80^2)’, ...

’Location’,’NorthWest’)

xlabel(’\theta’,’fontsize’,14)

ylabel(’p’,’fontsize’,14)

set(gcf, ’PaperUnits’, ’centimeters’);

x_width=15 ;y_width= 8;

set(gcf, ’PaperPosition’, [0 0 x_width y_width]);

print ’-dpng’ prior_A_Prior_B.png

MDA, 6.V, iprom, Version: 21.11.2017 10 [email protected]

Page 11: Parametersch atzung und Messunsicherheit mit der Bayes ...iprom.tu-bs.de/_media/lehre/vorlesungen/mda_munsicherheit/mdavorl_2017... · Parametersch atzung und Messunsicherheit mit

% Annahme der Likelihood (Messung) als Normalverteilung mit l ~ N(850,40^2 )

mu_likeli = 850;

sigma_likeli = 40;

likelihood = normpdf(X,mu_likeli, sigma_likeli);

% Plotten der Likelihood

figure(2)

plot(X,likelihood,’k-’,’linewidth’,2)

grid on;

legend(’l(\theta|X) \sim N(850,40^2)’)

xlabel(’\theta’,’fontsize’,14)

ylabel(’p’,’fontsize’,14)

set(gcf, ’PaperUnits’, ’centimeters’);

x_width=15 ;y_width= 8;

set(gcf, ’PaperPosition’, [0 0 x_width y_width]);

print ’-dpng’ likelihood_1_Beobachtung.png

% Berechnung der Posterior fur eine Beobachtung fur A und B

% Posterior ~ Prior x Likelihood

p_post_A_1 = p_A .* likelihood;

p_post_B_1 = p_B .* likelihood;

% Normierung des posterior mit Normierungskonstante

% Nicht ganz korrekt, da eigentlich

% von -\inf bis +\inf integriert bzw. summiert werden musste

const_post_A1 = 1/sum(p_post_A_1*DeltaX);

p_post_A_1 = const_post_A1 * p_post_A_1 ;

const_post_B1 = 1/sum(p_post_B_1*DeltaX);

p_post_B_1 = const_post_B1 * p_post_B_1 ;

% Plotten der Posterior

figure(3)

plot(X,p_post_A_1,’r-’,’linewidth’,2)

MDA, 6.V, iprom, Version: 21.11.2017 11 [email protected]

Page 12: Parametersch atzung und Messunsicherheit mit der Bayes ...iprom.tu-bs.de/_media/lehre/vorlesungen/mda_munsicherheit/mdavorl_2017... · Parametersch atzung und Messunsicherheit mit

hold on;

plot(X,p_post_B_1,’b--’,’linewidth’,2)

grid on;

legend(’p_A(\theta|X)’,’p_B(\theta|X) ’, ...

’Location’,’NorthWest’)

xlabel(’\theta’,’fontsize’,14)

ylabel(’p’,’fontsize’,14)

set(gcf, ’PaperUnits’, ’centimeters’);

x_width=15 ;y_width= 8;

set(gcf, ’PaperPosition’, [0 0 x_width y_width]);

print ’-dpng’ posterior_A_posterior_B.png

% Jezt besteht die Likelihood aus 100 Stichproben

% Bei 100 Stichproben kann die Verteilung schmaler werden

% Wir nehmen eine Normalverteilung N(870, \sigma /sqrt(N)^2) an

N = 100;

sigma_likeli_100 = sigma_likeli / sqrt(N);

mu_likeli_100 = 870;

% Likelihood Funktion fur 100 Stichproben

likelihood_100 = normpdf(X,mu_likeli_100, sigma_likeli_100);

figure(4)

plot(X,likelihood_100,’k-’,’linewidth’,2)

grid on;

legend(’l(\theta|X) \sim N(870,4^2)’)

xlabel(’\theta’,’fontsize’,14)

ylabel(’p’,’fontsize’,14)

set(gcf, ’PaperUnits’, ’centimeters’);

x_width=15 ;y_width= 8;

set(gcf, ’PaperPosition’, [0 0 x_width y_width]);

print ’-dpng’ likelihood_100_Beobachtung.png

% Berechnung der Posterior fur 100 Beobachtungen fur A und B

p_post_A_100 = p_A .* likelihood_100;

p_post_B_100 = p_B .* likelihood_100;

MDA, 6.V, iprom, Version: 21.11.2017 12 [email protected]

Page 13: Parametersch atzung und Messunsicherheit mit der Bayes ...iprom.tu-bs.de/_media/lehre/vorlesungen/mda_munsicherheit/mdavorl_2017... · Parametersch atzung und Messunsicherheit mit

% Normierung des posterior mit Normierungskonstante

% Nicht ganz korrekt, da eigentlich

% von -\inf bis +\inf integriert bzw. summiert werden musste

const_post_A_100 = 1/sum(p_post_A_100*DeltaX);

p_post_A_100 = const_post_A_100 * p_post_A_100 ;

const_post_B_100 = 1/sum(p_post_B_100*DeltaX);

p_post_B_100 = const_post_B_100 * p_post_B_100 ;

figure(5)

plot(X,p_post_A_100,’r-’,’linewidth’,2)

hold on;

plot(X,p_post_B_100,’b--’,’linewidth’,2)

grid on;

legend(’p_A(\theta|X)’,’p_B(\theta|X) ’, ...

’Location’,’NorthWest’)

xlabel(’\theta’,’fontsize’,14)

ylabel(’p’,’fontsize’,14)

set(gcf, ’PaperUnits’, ’centimeters’);

x_width=15 ;y_width= 8;

set(gcf, ’PaperPosition’, [0 0 x_width y_width]);

print ’-dpng’ posterior_A_posterior_B_100_Beobachtungen.png

MDA, 6.V, iprom, Version: 21.11.2017 13 [email protected]

Page 14: Parametersch atzung und Messunsicherheit mit der Bayes ...iprom.tu-bs.de/_media/lehre/vorlesungen/mda_munsicherheit/mdavorl_2017... · Parametersch atzung und Messunsicherheit mit

2.3 Priorverteilungen

Um das Bayes-Theorem anzuwenden, muss immer eine Prior-Verteilung angenommen / gege-

ben sein. Im Extremfall kann man evtl. als Priorverteilung eine konstante Verteilung anneh-

men:

p(θ) = const

Mit dieser lasst sich leicht rechnen, kann jedoch zu Widerspruchen fuhren. Ein Beispiel hierfur

ist die Bestimmung der Flache eine Rechteckes F = a · b. Wenn wir kein Wissen uber

das Verhaltnis der Seitenlangen a und b haben, dann wurden wir zunachst sagen, dass al-

le Verhaltnisse (a + b)/b gleichverteilt sind, d.h. die Verhaltnisse von (0 + ∞)/∞ = 0 bis

(∞+ 0)/0 = 1 sind gleichverteilt. Umgekehrt,wenn wir nichts uber die Flache wissen, wurden

wir annehmen, dass alle Flachen gleichverteilt sind. Beide Priors sind in Abb. 6 dargestellt.

Abbildung 6: Plausible Priors fur den Anteil (a+ b)/b und die Flache F = a · b.Beide Priors sind jedoch nicht konsistent zueinander.

Abbildung 7: Priors fur den Anteil (a+ b)/b und die Flache F = a · b.Beide Priors sind jetzt konsistent zueinander.

Wenn jedoch das Verhaltnis bei Null die Wahrscheinlichkeitsdichte Null hat, so musste auch

die Flache bei a = 0 Null sein. Da der Prior der Flache dann bei Null auch Null sein musste,

musste er auch uber den gesamten Wertebereich Null sein. Dies geht jedoch nicht, da die

Prior normiert sein muss. Dies fuhrt zu einem Widerspruch. Deshalb hat sich hier Jeffrey

MDA, 6.V, iprom, Version: 21.11.2017 14 [email protected]

Page 15: Parametersch atzung und Messunsicherheit mit der Bayes ...iprom.tu-bs.de/_media/lehre/vorlesungen/mda_munsicherheit/mdavorl_2017... · Parametersch atzung und Messunsicherheit mit

[Hel08] etwas einfallen lassen, er schlagt fur den Prior des Anteiles, eine Beta-Verteilung mit

α = β = 0.5 vor, wie sie Abb. 7 dargestellt ist. Nun haben wir in Abb.7 zwei in sich konsistente

Prior-Verteilungen.

Die Betaverteilung ist eine stetige Wahrscheinlichkeitsverteilung uber dem Intervall (0, 1). Die

Beta-Verteilungsdichte ist definiert durch (siehe z.B. Wikipedia):

p(X) =1

B(α, β)Xα−1(1−X)β−1.

Außerhalb des Intervalls (0, 1) wird sie durch p(X) = 0 fortgesetzt. Fur α, β ≥ 1 lasst sich

(0, 1) durch [0, 1] ersetzen. Die Betaverteilung besitzt die reellen Parameter α und β. Um ihre

Normierbarkeit zu garantieren, wird α, β > 0 gefordert.

Der Vorfaktor 1/B(α, β) dient der korrekten Normierung. Der Ausdruck

B(α, β) =Γ(α)Γ(β)

Γ(α + β)=

∫ 1

0

uα−1(1− u)β−1 du

steht fur die Betafunktion, nach der die Verteilung benannt ist. Dabei bezeichnet Γ die Gam-

mafunktion.

Ein paar weitere nutzliche Priors sind beispielhaft in Tab.3 dargestellt.

Hinweise zur skalierten und verschobenen t-Verteilung als Prior

(Hinweis: Wir bezeichnen hier die Anzahl der Beobachtungen mit n und nicht mit J um mit

den Guides zur Bestimmung der Messunsicherheit konsistent zu sein, also statt ξi,1, . . . , ξi,J

verwenden wir hier ξi,1, . . . , ξi,n) Wenn angenommmen wird, dass wir aus n Beobachtungen

ξi,1, . . . , ξi,n, die aus einer Gauß- bzw. Normalverteilung (Erwartungswert und Varianz unbe-

kannt) gezogen wurden und diese den Mittelwert ξ und die empirische Standardabweichung

s besitzt, so konnen wir eine mit der Varianz des Mittelwertes s2i /n skalierte und um den

Mittelwert ξ verschobene t-Verteilung mit n− 1 Freiheitsgraden annehmen: tn−1(ξ, s2i /n).

Der beste Schatzwert fur X und die dazugehorige Varianz, die die beste Schatzung fur die

Unsicherheit darstellt, sind

x = ξ

u(xi) =

(n− 1

n− 3

)1/2si√n

mit

si =

[1

n− 1

n∑r=1

(ξi,r − ξi)2]1/2

MDA, 6.V, iprom, Version: 21.11.2017 15 [email protected]

Page 16: Parametersch atzung und Messunsicherheit mit der Bayes ...iprom.tu-bs.de/_media/lehre/vorlesungen/mda_munsicherheit/mdavorl_2017... · Parametersch atzung und Messunsicherheit mit

Tabelle 3: Einige Priors.

VorhandenesVorwissen

PDF und Illustration x und u(x)

Schatzwert xund Standar-dunsicherheitu(x)

Normal:N (x, u(x)2)

x,u(x)

Es sind schonvorhandene (his-torische) Wertebekannt. DerErwartungswertund die Vari-anz ist jedochunbekannt.

Skalierte undverschobenet-Verteilungtn−1(ξ, s

2/n)

x = ξ,u(x) =

(n−1n−3

)s√n

Kenntnisse uberdie Varianzensind bekannt

X 2 x,u(x)

Obere und unte-re Grenzen a, bsind bekannt

Rechteck:R(a, b)

x = a+b2,

u(x) = b−a√12

MDA, 6.V, iprom, Version: 21.11.2017 16 [email protected]

Page 17: Parametersch atzung und Messunsicherheit mit der Bayes ...iprom.tu-bs.de/_media/lehre/vorlesungen/mda_munsicherheit/mdavorl_2017... · Parametersch atzung und Messunsicherheit mit

Eine Herleitung des Vorfaktors√

n−1n−3 ist z. B. in [Kac03] zu finden.

2.4 Posteriorverteilungen des Erwartungswertes

Wir geben hier ein paar Beispiele fur Posterior-Verteilungen an:

(a) Priorverteilung ist konstant und die Varianz σ der Messdaten X ist bekannt

Priorverteilung : p(θ) ∼ U(−∞,+∞)

Likelihood (siehe auch Gl.9) : l(θ|X) ∼ N(X, σ2/J) ∝ exp

[− 1

2

(θ − Xσ/√J

)2]

Posteriorverteilung : p(θ|X) ∼ N(X, σ2/J)

(b) Priorverteilung ist normalverteilt und die Varianz σ der Messdaten X ist

bekannt

Priorverteilung : p(θ) ∼ N(θ0, σ20)

Likelihood (siehe auch Gl.9) : l(θ|X) ∼ N(X, σ2/J) ∝ exp

[− 1

2

(θ − Xσ/√J

)2]

Posteriorverteilung : p(θ|X) ∼ N(θ, σ2)

mit dem Erwartungswert

θ =σ20 · X + σ2

J· θ0

σ20 + σ2

J

und der Standardabweichung

σ2 =σ20 · σ

2

J

σ20 + σ2

J

(a) Priorverteilung ist normalverteilt und die Varianz σ2 der Messdaten X ist

unbekannt

Ist die Varianz der Messgroße unbekannt, so muss die Varianz auch noch geschatzt werden,

z.B. uber die X 2 -Verteilung (siehe z.B. Vorlesung 04)

2.5 Bayessche Punktschatzung

Wir untersuchen hier zwei verschiedene Kriterien, um einen Parameter zu schatzen. Es kann (a)

der quadratische Fehler minimiert werden (entpricht einer Gauß-Verteilung, also ∝ exp(−1/2 ·

MDA, 6.V, iprom, Version: 21.11.2017 17 [email protected]

Page 18: Parametersch atzung und Messunsicherheit mit der Bayes ...iprom.tu-bs.de/_media/lehre/vorlesungen/mda_munsicherheit/mdavorl_2017... · Parametersch atzung und Messunsicherheit mit

(X − µ)2/σ2)) oder (b) der Erwartungswertes der absoluten Abweichung (entpricht einer

Laplace-Verteilung, also ∝ exp(−|X − µ|/σ)) minimiert werden.

2.5.1 Mit Posterior-Mittelwert

Zum Schatzen eines Parmeters wird z.B. der mittlere quadratische Fehler minimiert; d.h. den

besten Schatzwert θ erhalt man, wenn:

ε(θ) := E(p((θ − θ)2|X)) → min. (21)

Die erste Ableitung wird zu Null gesetzt:

dθ=

d

∫ ∞−∞

(θ − θ)2p(θ|X)dθ = 0 (22)

2 ·∫ ∞−∞

(θ − θ)p(θ|X)dθ = 0

Daraus folgt:

θ

∫ ∞−∞

p(θ|X)dθ =

∫ ∞−∞

θp(θ|X)dθ

Das linke Integral ist auf Grund der Normierungsbedingung∫∞−∞ p(θ|X)dθ = 1. Es folgt somit:

θ =

∫ ∞−∞

θp(θ|X)dθ = E(p(θ|X)) (23)

Der Mittelwert E(p(θ|X)) der posterior-Verteilung p(θ|X) ist derjenige Schatzwert θ, der den

mittleren quadratischen Fehler minimiert.

2.5.2 Mit Posterior-Median

Der Median ist das 0.5-Quantil Q0.5. Quantile wurden in der 3. Vorlesung eingefuhrt. Ein

Quantil Qα ist ein Lagemaß in der Statistik. So liegen z.B. beim 0.5-Quantil 50% der Verteilung

unterhalb und 50% der Verteilung oberhalb des Quantils. Wir minimieren den Erwartungswert

der absoluten Abweichung zwischen θ und θ, d.h.

ε(θ) := E(p(|θ − θ||X)) → min.

MDA, 6.V, iprom, Version: 21.11.2017 18 [email protected]

Page 19: Parametersch atzung und Messunsicherheit mit der Bayes ...iprom.tu-bs.de/_media/lehre/vorlesungen/mda_munsicherheit/mdavorl_2017... · Parametersch atzung und Messunsicherheit mit

Es muss also dε/dθ = 0 sein:

dεdθ

= ddθ

∞∫−∞|θ − θ|p(θ|X)dθ = 0

= ddθ

[θ∫−∞

(θ − θ)p(θ|X)dθ +∞∫θ

(θ − θ)p(θ|X))dθ

]= 0

Mit der Leibnizschen Regel fur Paramterintegrale leiten wir die Gleichung ab und erhalten:

∫ θ

−∞p(θ|X)dθ −

∫ ∞θ

p(θ|X))dθ = 0

Die Summe der beiden Integrale ist als Dichte-Integral gleich 1. Daraus folgt:

∫ θ

−∞p(θ|X)dθ =

∫ ∞θ

p(θ|X))dθ = 0.5

Somit ist θ der Median bzw. das 50-Prozent-Quantil Q0.5.

2.6 Bayessche Intervallschatzung

Wie eine klassische Punktschatzung z.B. mit MLE oder LS, so sagt auch eine bayessche nicht

aus, wie nahe der Schatzwert dem wahren Wert kommt. Doch auch hier kann man ein Intervall

angeben, die den wahren Wert mit einer gewissen Wahrscheinlichkeit enthalten. Der ublichen

Sprachregelung folgend bezeichnen wir die Intervalle der Bayes-Statistik nicht als Vertrauens-

/Konfidenz-Intervalle sondern als Kredibilitatsintervalle. (credibility: Glaubwurdigkeit, confi-

dence: Vertrauen). Nicht weil das Wort credibility treffender ware als das Wort confidence.

Beide enstammen der Umgangssprache. Wir wahlen den anderen Ausdruck, damit jederzeit

klar wird, ob wir ein klassiches oder ein bayessches Intervall meinen. Der ISO-Guide ver-

wendet den Begriff Uberdeckungsintervall, engl. coverage intervall, das das Intervall angibt,

das die Menge der wahren Werte einer Messgroße mit einer angegeben Wahrscheinlichkeit

enthalt, auf der Grundlage der verfugbaren Information [VIM08]. (siehe zu den Begrifflichkei-

ten: Vertrauens-, Credible- und Uberdeckungintervall auch die Ausfuhrungen der 4. Vorlesung)

Den Wahrscheinlichkeitswert, den ein credible interval einschließt, bezeichnen wir als Kredi-

bilitatsniveau γ.

Beispiel: Symmetrische/ nichtsymmetrische Verteilungen

Bei symmetrischen Posterior-Verteilungen wird in der Regel das symmetrische Intervall ge-

nommen. So ist in Abb. 8 das 95%ige Intervall einer Normalverteilung N(10, 202) dargestellt.

MDA, 6.V, iprom, Version: 21.11.2017 19 [email protected]

Page 20: Parametersch atzung und Messunsicherheit mit der Bayes ...iprom.tu-bs.de/_media/lehre/vorlesungen/mda_munsicherheit/mdavorl_2017... · Parametersch atzung und Messunsicherheit mit

Die untere und obere Grenze kann hier noch per Hand ausgerechnet werden. Mit Z = (θ−µ)/σ

(Standardisieren, siehe 3. Vorlesung). In der 3. Vorlesung haben die kummulierten Wahrschein-

lichkeitsfunktionen mit P (X) =∫ X−∞ p(X

′)dX ′ bezeichnet. Im Falle der Standardnormalvertei-

lung N (0, 1) bezeichnen wir diese hier mit Φ. Die Quantile der rechtsseitigen Verteilungsfunk-

tion sind im Anhang in der Tabelle dargestellt. Die gesuchte obere Grenze θoG des Intervalls

erhalten wir durch:

Φ

(θoG − µ

σ

)= 0.5 + 0.95/2 = 0.975

In einer Quantiltabelle der Normalverteilung (siehe z.B. im Anhang) kann der Wert 1.96

abgelesen werden. Wir erhalten damit:

θoG − 10

4= 1.96→ θoG = 17.84→ θuG = 17.84− 2 · 7.84 = 2.16

Bei nichtsymmetrischen Intervallen lassen sich unterschiedliche obere und untere Grenzen

Abbildung 8: Bestimmung des Kredibilitatsintervalls der Posterior-Verteilung N(10, 42)furdas Kredibilitatsniveau γ = 0.95, untere Grenze: θuG = 2.16, obere Grenze θoG= 2.16

finden, die zum gleichen Kredibilitatsintervall gehoren. Dies ist in Abb. 9 schematisch in dem

Beispiel mit der X 2-Verteilung mit N = 10 Freiheitsgraden dargestellt.

3 MU-Bestimmunmg gemaß dem ISO-Guide 1995/2008

Der”Guide to the expression of uncertainty in measurement“ [GUM95] ist ein Leitfaden

zur Bestimmung der Messunsicherheit. Er wurde durch die International Organization for

Standardization (ISO) im Namen von sieben wissenschaftlichen Organisationen veroffentlicht.

MDA, 6.V, iprom, Version: 21.11.2017 20 [email protected]

Page 21: Parametersch atzung und Messunsicherheit mit der Bayes ...iprom.tu-bs.de/_media/lehre/vorlesungen/mda_munsicherheit/mdavorl_2017... · Parametersch atzung und Messunsicherheit mit

Abbildung 9: Bestimmung des Credible-Intervalls einer X 2-Verteilung fur N = 10 Freiheits-grade. Der grun und blau schraffierte Bereich hat dasselbe Credibilitatsniveau.

(International Bureau of Weights and Measures Weights and Measures (BIPM), International

Electro-technical Commission, (IEC), International Federation of Clinical Chemistry (IFCC),

International Organization for Standardization (ISO), International Union of Pure and Ap-

plied Chemistry (IUPAC), International Union of Pure and Applied Physics (IUPAP), and

International Organization of Legal Metrology (OIML)). Der-ISO Guide wurde dann durch die

meisten nationalen Metrologieinstitute ubernommen (NMIs) und er ist weltweit anerkannt.

Eine Messunsicherheit ergibt sich aus der Kombination von einzelnen Beitragen (Komponen-

ten) der Eingangsgroßen einer Messung. Laut dem ISO-Guide kann eine Komponente der

Messunsicherheit auf zwei Weisen ermittelt werden:

Typ-A: Ermittlung aus der statistischen Analyse mehrerer statistisch unabhangiger Messwerte

aus einer Messwiederholung bei gleichen Messbedingungen.

Typ-B: Ermittlung ohne statistische Methoden, beispielsweise durch Entnahme der Werte

aus einem Kalibrierschein, aus der Genauigkeitsklasse eines Messgerats oder aufgrund

personlicher Erfahrungen und vorangegangener Messungen. Auch die Fehlergrenze kann

zur Ermittlung der Messunsicherheit vom Typ-B herangezogen werden, wobei man von

einer Rechteckverteilung ausgeht. Es handelt sich um eine A-priori-Verteilung.

Beide Methoden beruhen auf Wahrscheinlichkeitsverteilungen. Bei Typ-A wird die Varianz

durch Messwiederholungen bestimmt und bei Typ-B wird auf andere Quellen zuruckgegriffen.Die

Ermittlungsmethode Typ-A folgt der frequentistischen und Typ-B der bayesschen Interpreta-

tion der Wahrscheinlichkeit.

Die Ermittlung der Messunsicherheit wird in mehreren Schritten durchgefuhrt:

MDA, 6.V, iprom, Version: 21.11.2017 21 [email protected]

Page 22: Parametersch atzung und Messunsicherheit mit der Bayes ...iprom.tu-bs.de/_media/lehre/vorlesungen/mda_munsicherheit/mdavorl_2017... · Parametersch atzung und Messunsicherheit mit

1. Stelle die Modellgleichung auf: Y = f(X1, . . . , XN)

2. Bestimme bzw. schatze x1, . . . , xN die direkten Messgroßen: X1, . . . , XN . Schatzung ent-

weder auf Basis der frequentistischen Statistik bei Serienmessungen oder durch andere

Verfahren.

3. Bestimme die Standardunsicherheit u(xi) von jedem Schatzwert xi auf Basis der fre-

quentistischen oder anderen Methoden.

4. Bestimme die Korrelationskoeffizienten von allen Paaren von korrelierten, geschatzten

Eingangsparametern

5. Berechne den Schatzwert y der indirekten Messgroße mit Hilfe der Modellgleichung Y =

f(X1, . . . , XN)

6. Bestimme die kombinierte Messunsicherheit u(y) von y aus den Standardunsicherheiten

u(xi) und den Korrelationskoeffizienten r(xi, xj):

u2(y) =∑i

c2i u2(xi) + 2

∑(i<j)

cicju(xi)u(xj)r(xi, xj)

mit den partiellen Ableitungen ci (Sensitivitatskoeffzienten):

ci =∂f(X1, . . . , XN)

∂Xi

∣∣∣∣Xi=xi

Dabei sind r(xi, xj) die Korrelationskoeffizienten zwischen Xi und Xj fur i, j = 1, . . . , N

7. Die erweiterte Unsicherheit U fur die Messgroße Y bestimmen, mit dem Ziel ein Intervall

y±U anzugeben. Multipliziere die kombinierte Standardmessunsicherheit u(y) mit einem

Uberdeckungsfaktor k, das U = ku(y) ergibt. Das Intervall [y±U ] = [y±ku(y)] wird als

erweitertes Unsicherheitsintervall, manchmal auch mit Uberdeckungsintervall (“coverage

interval“) bezeichnet.

8. Dokumentiere das Messergebnis y zusammen mit der kombinierten Standardunsicher-

heit u(y) oder der erweiterten Standardunsicherheit U . Beschreiben wie y, u(y) und U

bestimmt wurden.

Fazit zu ISO-Guide:

• Der ISO Guide verwendet keine Informationen uber Wahrscheinlichkeitsverteilungen, die

eventuell ja vorhanden sind. Es werden nur die Unsicherheiten fortgepflanzt jedoch keine

Wahrscheinlichkeitsverteilungen.

MDA, 6.V, iprom, Version: 21.11.2017 22 [email protected]

Page 23: Parametersch atzung und Messunsicherheit mit der Bayes ...iprom.tu-bs.de/_media/lehre/vorlesungen/mda_munsicherheit/mdavorl_2017... · Parametersch atzung und Messunsicherheit mit

• Das Messergebnis gibt keine vollstandige Information wieder, da keine Wahrscheinlich-

keitsverteilung angegeben wird.

• Die Fehlerfortpflanzung erfordert Sensitivitaten.

Der ISO-Guide ist heutzutage der Leitfaden zur Angabe der Messunsicherheit z.B. fur An-

gabe der Messunsicherheit auf Kalibrierscheinen. Wenn die pdf der Messgroße Y normal-

verteilt ist, hat das Uberdeckungsintervall [y ± 2u(y)] eine Uberdeckungswahrscheinlichkeit

von 95.45% (siehe Tabelle G.2 im ISO-Guide [GUM95]). Bei anderen Verteilungen kann die

Uberdeckungs- wahrscheinlichkeit p des Intervalls [y ± 2u(y)] kleiner oder großer sein. Der

ISO-Guide (Abschnitt 2.3.5 und 6.3.2) schreibt, dass ohne Kenntnis der Verteilung auch keine

Uberdeckungswahrscheinlichkeiten bestimmt werden konnen. Schlussendlich schlagt der ISO-

Guide jedoch dann vor, dass fur die Messgroße Y eine Normalverteilung oder eine skalierte

und geschiftete Normalverteilung angenommen werden soll. Es wird dann vorgschlagen, dass

die erweiterte Messunsicherheit Up = kpuc(y) (uc: Kombinerte Unsicherheit) fur ein Grad des

Vertrauens p (siehe Guide G 6.4) mit Hilfe der Welch-Satterthwaite Formel berechnet werden

soll. Diese Formel bietet eine Naherung bei gemischten Verteilungen der Messgroßen Xi (siehe

4. Vorlesung).

• Bestimme y und uc(y)

• Bereche die effektiven Freiheitsgrade mit der Welch-Satterthwaite-Formel

νeff =u4c(y)∑Ni=1

u4i (y)

νi

• Bestimme das t-Quantil tp(νeff ) fur das gewunschte Vertrauensintervall

• Der Erweiterungsfaktor ist dann kp = tp(νeff ). Daraus berechnet sich die erweiterte Mes-

sunsicherheit Up = kpuc(y) und das vollstandige Messergebnis kann angegeben werden.

Y = y ± kpuc

In der Bayesschen Statisitk wird die Standard-Unsicherheit vom Typ-A-Fehler nicht mehr als

ein Schatzwert sondern als ein Parameter des Kenntnisstandes der pdf betrachtet. Es wird auch

das Kozept der effektiven Freiheitsgrade nicht mehr benotigt. Die Typ-A-Unsicherheit wird an-

ders ausgewertet. Es ergibt sich fur die Standardunsicherheit u(xi) =√

(n− 1)/(n− 3)·si/√n

[Kac03]. Im Folgenden schauen wir uns die Messunsicherheitsbestimmung mit der Bayes-

Statistik an.

MDA, 6.V, iprom, Version: 21.11.2017 23 [email protected]

Page 24: Parametersch atzung und Messunsicherheit mit der Bayes ...iprom.tu-bs.de/_media/lehre/vorlesungen/mda_munsicherheit/mdavorl_2017... · Parametersch atzung und Messunsicherheit mit

4 MU-Bestimmung mit der Bayesschen Statisktik

Ziel der Bayesschen Statsistik ist es die PDF (probability density function) p(Y |X) der Mess-

große Y zu bestimmen. Bestimmt man davon den Erwartungwert y, erhalt man den besten

Schatzwert fur die Messgroße. Die Standardabweichung von Y ergibt meine zugeordnete Stan-

dardunsicherheit u(y). Das Uberdeckungsintervall (engl. coverage integral) wird dann aus der

Posterior p(Y |X) bestimmt. Der Erwartungswert der Posterior ist der beste Schatzer fur die

Messgroße Y:

E(Y ) = y =

∫ ∞−∞

Y p(Y |X) dY

Die Varianz ist ein Maß fur die Messunsicherheit:

u2(y) =: V (y) = E ((y − E(y)2)

=∞∫−∞

(y − Y )2p(Y |X)dy

Zur Bestimmung der Posterior kann wiederum das Bayes-Theorem angewendet werden.

p(Y |X) ∝ l(Y |X) · p(Y ) (24)

Anstelle der Likelihood l(Y |X) wird haufig die bedingte Wahrscheinlichkeitsdichte p(X|Y )

geschrieben.

p(Y |X) ∝ p(X|Y ) · p(Y )

Wir bezeichnen p(Y ) als die Prior-Wahrscheinlichkeit, l(Y |X) Likelihood der Messdaten bzw.

p(X|Y ) die Wahrscheinlichkeitsdichte der Messdaten und p(Y |X) die gesuchte Posterior-

Wahrscheinlichkeitsdichte. Oftmals ist es nicht moglich die Integrale analytisch zu losen und es

kommen numerische Integrationsmethoden zum Einsatz. Bei komplexen Modellen mit vielen

Parametern sind numerische Verfahren mit gleichformigem Raster zu kostspielig /langwierig.

Fur solche Falle werden statistische Integrationsmethoden eingesetzt, bei denen die Positionen,

an denen die zu integrierende Funktion auszurechnen ist, gewurfelt werden. Solche Methoden

nennt man wegen des Auswurfelns, also des Verwendens von Pseudozufallszahlen, in Erin-

nerung an Spielcasinos Monte-Carlo-Methoden. Es gibt dazu unterschiedliche Strategien wie

beispielsweise das Markov-Ketten-Monte-Carlo.

MDA, 6.V, iprom, Version: 21.11.2017 24 [email protected]

Page 25: Parametersch atzung und Messunsicherheit mit der Bayes ...iprom.tu-bs.de/_media/lehre/vorlesungen/mda_munsicherheit/mdavorl_2017... · Parametersch atzung und Messunsicherheit mit

Literatur

[VIM08] VIM International vocabulary of metrology – Basic and general concepts and asso-

ciated terms (VIM) 3rd edition (2008)

[GUM95] JCGM 100:2008 BIPM, IEC, IFCC, ISO, IUPAC, IUPAP and OIML 1995 Gui-

de to the Expression of Uncertainty in Measurement (GUM) (Geneva, Switzerland:

International Organization for Standardization) ISBN 92-67-10188-9

[Kac03] R. Kacker, A. Jones: On use of Bayesian statistics to make the Guide to the Expression

of Uncertainty in Measurement consistent, Metrologia, Volume 40, Issue 5, pp. 235-248

(2003).

[Hel08] L. Held: Methoden der statistischen Inferenz. Likelihood und Bayes. Spektrum, Hei-

delberg (2008)

MDA, 6.V, iprom, Version: 21.11.2017 25 [email protected]

Page 26: Parametersch atzung und Messunsicherheit mit der Bayes ...iprom.tu-bs.de/_media/lehre/vorlesungen/mda_munsicherheit/mdavorl_2017... · Parametersch atzung und Messunsicherheit mit

Anhang

Abbildung 10: Quantile der Normalverteilung

MDA, 6.V, iprom, Version: 21.11.2017 26 [email protected]

Page 27: Parametersch atzung und Messunsicherheit mit der Bayes ...iprom.tu-bs.de/_media/lehre/vorlesungen/mda_munsicherheit/mdavorl_2017... · Parametersch atzung und Messunsicherheit mit

5 Ubungsaufgaben

Aufgabe 6-1: Likelihood des Erwartungswertes bei bekannter Varianz

(a) Bestimmen Sie die Likelihood einer normalverteilten Zufallsgroße X, die sich aus J

unabhangigen Beobachtungen X1, . . . , XJ ergibt. Die Varianz σ2 der Zufallsgroße X sei

bekannt.

Losung zu 6-1(a)

Die Likelihoodfunktion ist gegeben durch:

l(θ|X) =J∏j=1

l(θ|Xj)

Die Beobachtungen sind normalverteilt mit Erwartungswert θ und Varianz σ. Es ergibt sich:

l(θ|X) =J∏j=1

1√(2π)

e− 1

2

(Xj−θσ

)2

Somit erhalten wir:

l(θ|X) ∝J∏j=1

e−(Xj−θ)

2

2σ2

= e−

J∑j=1

(Xj − θ)2

2σ2

= e−

J∑j=1

(X2j − 2Xj θ + θ2)

2σ2

= e−

J∑j=1

X2j − 2(

J∑j=1

Xj)θ + Jθ2

2σ2

= e− X

2 − 2Xθ + θ2

2σ2/J

MDA, 6.V, iprom, Version: 21.11.2017 27 [email protected]

Page 28: Parametersch atzung und Messunsicherheit mit der Bayes ...iprom.tu-bs.de/_media/lehre/vorlesungen/mda_munsicherheit/mdavorl_2017... · Parametersch atzung und Messunsicherheit mit

Die empirische Varianz s2 ist gegeben durch:

s2 = 1J

J∑j=1

(Xi − X)2

= 1J

(∑

j X2j − 2

∑j XjX +

∑j X

2)

= X2 − ¯(X)2

Damit erhalten wir fur die Likelihood:

l(θ|X) ∝ e− X

2 + s2 − 2Xθ + θ2

2σ2/J

= e− X

2 − 2Xθ + θ2

2σ2/J e− s2

2σ2/J

= e−

(X − θ)22σ2/J · e

− s2

2σ2/J

Da der Term

e− s2

2σ2/J = const.

ist, geht dieser Term nur in die Normierung ein. Es folgt fur die Likelihood der Stichproben:

l(θ|X) = l(θ|X) ∝ e−

(X − θ)22σ2/J

Der Stichprobenmittelwert X ist also normalverteilt mit dem Erwartungwert θ und der Varianz

σ2/J Hinweis / Erganzug: Ist die Varianz von X unbekannt, dann schatzen wir diese durch

die empirische Varianz s2 (klassische Statistik) Fur annahernd große Stichproben geht die t-

Verteilung in die Normalverteilung uber und der Stichprobenmittelwert ist normalverteilt mit

der Varianz s2/J . Dann erhalten wir analog fur die Likelihood des Mittelwertes:

l(θ|X) ∝ e−

(X − θ)22s2/J

Aufgabe 6-2: Bestimmung des Credible-Intervalls einer Posterior-Verteilung

Sie wollen die Temperatur T eines Laborraumes bestimmen. Da hier T der zu bestimmende

Parameter ist, bezeichnen wir diesen im Folgenden mit θ. Aus Erfahrung wissen wir (wenn

die Klimaanlage gerade nicht ausgefallen ist :-)), dass die Temperatur normalverteilt bei 20◦C

mit einer Steuung von 2◦C ist. D.h. als Prior nehmen wir an θ ∼ N(µ = 20, σ2 = 22). Zur

MDA, 6.V, iprom, Version: 21.11.2017 28 [email protected]

Page 29: Parametersch atzung und Messunsicherheit mit der Bayes ...iprom.tu-bs.de/_media/lehre/vorlesungen/mda_munsicherheit/mdavorl_2017... · Parametersch atzung und Messunsicherheit mit

genauen Bestimmung der Labortemperatur verwenden Sie nun einen Temperaturfuhler, der

einer Normalverteilung mit N(20.5, 0.52) folgt.

(a) Bestimmen sie die Posteriorverteilung, wenn eine Stichprobe von 4 Messungen durch-

gefuhrt wird.

b Bestimmen Sie die obere und untere Grenze des 95%igen Credible-Intervall der Posterior-

Verteilung.

Losung zu 6-2(a) In der Vorlesung wurde gezeigt, dass wenn Priorverteilung und die Like-

lihood normalverteilt sind, auch die Posteriorverteilung normalverteilt ist. Die Likelihood bei

16 Stichproben ist normalverteilt mit σ/√

(J) = 0.5/√

4 = 0.25

w0 =1

σ20

= 1/22 = 0.25;w1 =1

σ20/J

= 1/0.252 = 16;

σ2 = 1/(w0 + w1) = 0.062

θ =1

w0 + w1

(w0θ0 + w1x) =1

0.25 + 16(0.25 · 20 + 16 · 20.5) = 20.49

Die Posterior ist also eine Normalverteilung mit N(20.49, 0.252). Das Vorwissen hat hier fast

keinen Einfluss mehr auf die Posterior.

Losung zu 6-2(b)

N(20.49, 0.252) ist gegeben.

Mit Z = (θ − µ)/σ (Standardisieren) und mit der rechtseitigen Verteilungsfunktion Φ erhalt

man die obere Grenze θoG durch:

Φ

(θoG − µ

σ

)= 0.5 + 0.95/2 = 0.975

In einer Quantiltabelle der Normalverteilung (siehe Anhang) kann der Wert 1.96 abgelesen

werden. Wir erhalten damit:

θoG − 20.49

0.25= 1.96→ θoG = 20.98→ θuG = 20.98− 2 · (20.98− 20.49) = 20

MDA, 6.V, iprom, Version: 21.11.2017 29 [email protected]