Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... ·...
Transcript of Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... ·...
Material zur Veranstaltung
Einführung in die Statistik von
Gerhard Osius
April 2003 (incl. Korrekturen vom August 2006)
Institut für Statistik Fachbereich MathematikIInformatik
Universität Bremen
Einführung in die Statistik 2.8.06 Vorwort - 1
Vorwort
Dieses Manuskript ist aus Materialien zu gleichnamigen Lehrveranstaltungen für Studierende der Mathematik im Laufe der letzten Jahre entstanden und liegt nun in einer relativ vollständigen Form vor. Lediglich die Beweise der nicht unmittelbar nachvollziehbaren Behauptungen sind hier bewußt fortgelassen (sie sollen demnächst in einem separaten Teil zusammengestellt werden) um die Darstellung der Metho- den nicht zu unterbrechen. Obwohl dieses Material primär als Ergänzung und spä- tere Referenz für die an der Vorlesung Teilnehmenden gedacht ist, eignet es sich auch bedingt zum Selbststudium, wofür es allerdings - unter anderem wegen der noch fehlenden Beweise - nicht primär konzipiert ist.
Die Veranstaltung sollte (aufbauend auf einem Kurs zur MaP- und Wahrscheinlich- keitstheorie) in die beiden Grundkonzepte der Statistik, das Schätzen und das Testen einführen, wobei für die Darstellung ein Mittelweg zwischen einer rein theoreti- sch orientierten und einer angewandten Statistik gewählt wurde. Das Ziel bestand darin, einige grundlegende statistische Methoden relativ ausführlich zu diskutieren und (im wesentlichen vollständig) mathematisch zu behandeln sowie auf einfache konkrete Situationen anzuwenden. Die hierfür noch erforderlichen Ergänzungen aus der Wahrscheinlichkeitstheorie (insbesondere einige wichtige Verteilungsklass- sen) sind im Anhang zusammengestellt und wurden nur teilweise im Kurs bewie- sen.
Im ersten Teil des Kurses werden zunächst Punkt- und Intervall-Schätzungen für den Erwartungswert und die Varianz von Verteilungen behandelt. Die Verteilung der Schätzer wird für einige wichtige Verteilungsklassen (Normal-, Binomial-, Pois- son- und Gamma-Verteilung) exakt bestimmt und zusätzlich wird die asymptotische Verteilung der Schätzer (für beliebige Verteilungen) angegeben. Dann werden Schät- zungen für die Verteilungsfunktion und Quantile (insbesondere den Median) vorge- stellt. Danach wird der Maximum-Likelihood Schätzer eingeführt und seine Konsi- stenz und asymptotische Normalität werden exemplarisch für einen eindimensio- nalen Parameter bei unabhängigen Wiederholungen zunächst in Exponential-Fa- milien und danach in allgemeinen Dichtefamilien nachgewiesen. Zum Vergleich verschiedener Schätzmethoden wird dann die Ungleichung von Cramer-Rao herge- leitet, und abschließend wird die Schätzung nach der Momenten-Methode kurz er- läutert.
Der zweite Teil beschäftigt sich mit der klassischen Testtheorie. Ausgehend vom Neyman-Pearson-Lemma werden (exakte) Tests von Hypothesen über den Erwar- tungswert zunächst für spezielle Verteilungsklassen (Normal-, Binomial-, Poisson- Verteilung) hergeleitet und dann zu asymptotischen Tests für beliebige Verteilun- gen ausgeweitet. Anschließend wird die allgemeine Klasse der Likelihood-Quotien- ten Tests eingeführt. Danach werden (asymptotische) Tests zum Vergleich zweier Erwartungswerte (für zwei Stichproben), und speziell von zwei Wahrscheinlichkei- ten, behandelt. Bei diesen Tests wird die ( g f . asymptotische) Verteilung der Test- statistik nicht nur unter der Nullhypothese sondern auch unter (ggf. benachbarten) Alternativen bestimmt, die Test-Schärfe (zumindest approximativ) angegeben und
Einführung in die Statistik 2.8.06 Vorwort - 2
eine Bestimmung von Mindest-Stichprobenumfängen für eine Versuchsplanung durchgeführt. Zum Abschluß werden Anpassungstests für parametrische Modelle bei Multinomialverteilungen und (daraus abgeleitet) für beliebige Verteilungen vor- gestellt, wobei die entscheidenden asymptotischen Verteilungsaussagen nicht mehr bewiesen wurden.
Die Veranstaltung umfaßt vier Wochenstunden Vorlesung und zwei Wochenstun- den Übungen. Da sich der Stoffumfang ständig erweitert hat, wurden in den letzten Jahren nicht mehr alle Kapitel (vollständig) behandelt.
Mein besonderer Dank gilt Frau Heidi Eckl-Reichelt für das Schreiben der Rohfas- sung dieses Textes.
Die vorliegende Fassung ist eine redaktionell überarbeitete und geringfügig erwei- terte Fassung der Auflage zum Sommersemester 2002 (in dem ich die Veranstaltung zuletzt gehalten habe). Neu hinzugekommen ist ein Abschnitt (17.1.2) über rando- misierte Tests und zur besseren Übersicht sind wichtige Passagen jetzt mit einer Box eingerahmt. Außerdem wurde (zur Harmonisierung mit dem Stochastik-Skript) bei den Darstellungen der Konfidenzgrenzen in den Kapiteln 3 - 6 jeweils das Infi- mum bzw. Supremum durch das entsprechende Minimum bzw. Maximum ersetzt, und das Literaturverzeichnis wurde aktualisiert. - Gegenüber der letzten Fassung vom April 2003 sind lediglich die Formeln 10.2 (I), 16.4 (10) und 19.3 (1) verändert bzw. korrigiert und auf Seite 20-2 ist ein Druckfehler beseitigt.
Bremen, im August 2006 Gerhard Osius
PS Die aktuelle Fassung des Skriptes (und der Übungsaufgaben) findet man unter: http://www.math.uni-bremen.de/"osius/download/lehre/Statistik/.
Die Zugangsdaten und das Kennwort für das Skript können per e-Mai1 (s.u.) er- fragt werden. Für Hinweise auf Druckfehler oder andere Kommentare bin ich dankbar, am besten per e-mail: [email protected].
Einführung in die Statistik 2.8.06 Inhalt - 1
Inhalt (Seiten pro Kapitel)
I. Schätzungen
0. Anwendungsbeispiele 0.1 Leukämiefälle im Umkreis des Kernkraftwerks Krümme1 0.2 Asbestmessungen in Schulgebäuden 0.3 Wahlumfragen 0.4 Rauchen in der Schwangerschaft 0.5 Broccoli als Krebsvorsorge?
1 Schätzen des Erwartungswertes
1.1 Eigenschaften des Schätzers 1.2 Spezielle Verteilungsmodelle
1.2.1 Das Binomial-Verteilungsmodell 1.2.2 Das Poisson-Verteilungsmodell 1.2.3 Das Normal-Verteilungsmodell 1.2.4 Das Gamma-Verteilungsmodell
2. Schätzen der Varianz 2.1 Schätzung der Varianz bei bekanntem Erwartungswert 2.2 Schätzung der Varianz bei unbekanntem Erwartungswert
3. Konfidenzgrenzen für den Erwartungswert 3.1 Exakte Konfidenzgrenzen für den Erwartungswert einer
Normal-Verteilung mit bekannter Varianz 3.2 Asymptotische Konfidenzgrenzen für den Erwartungswert einer
beliebigen Verteilung 3.3 Chebychev-Konfidenzintervalle für den Erwartungswert einer
beliebigen Verteilung mit bekannter Varianz
4 Konfidenzgrenzen für eine Wahrscheinlichkeit 4.1 Konstruktion der exakten oberen Konfidenzgrenze 4.2 Konstruktion der exakten unteren Konfidenzgrenze 4.3 Konstruktion des exakten zweiseitigen Konfidenzintervalls 4.4 Berechnung der exakten Grenzen 4.5 Asymptotische (approximative) Konfidenzgrenzen 4.6 Grobe asymptotische (approximative) Konfidenzgrenzen
5 Konfidenzgrenzen für den Erwartungswert einer Poisson-Verteilung 5.1 Konstruktion der exakten oberen Konfidenzgrenze 5.2 Konstruktion der exakten unteren Konfidenzgrenze 5.3 Konstruktion des exakten zweiseitigen Konfidenzintervalls 5.4 Berechnung der exakten Grenzen 5.5 Asymptotische (approximative) Konfidenzgrenzen 5.6 Anwendung: Asbestmessungen in Schulgebäuden 5.7 Konfidenzgrenzen bei unabhängigen Wiederholungen
Einführung in die Statistik 2.8.06 Inhalt - 2
6. Konfidenzgrenzen im Normal-Verteilungsmodell 6.1 Verteilung der Varianzschätzung
(7) 6 - 1
6.2 Konfidenzgrenzen für den Erwartungswert bei geschätzter Varianz im Normalverteilungsmodell 6 - 2
6.3 Asymptotische Konfidenzgrenzen für den Erwartungswert bei
geschätzter Varianz in beliebigen Verteilungsmodellen 6 - 5 6.4 Konfidenzgrenzen für die Varianz 6 - 6
7. Schätzen einer Verteilungsfunktion 7.1 Die empirische Verteilung der Stichprobe 7.2 Eigenschaften der empirischen Verteilung 7.3 Anwendung: Verteilung des Lebensalters
8. Schätzen von Quantilen und Momenten 8.1 Schätzen des Medians 8.2 Schätzen eines Quantils 8.3 Schätzen von Momenten
9. Parametrische Modelle und Exponential-Familien 9.1 Parametrische Verteilungsmodelle 9.2 Parametrische Exponential-Familien 9.3 Binomial-Verteilung 9.4 Poisson-Verteilung 9.5 Normal-Verteilung 9.6 Gamma-Verteilung 9.7 Cauchy-Verteilung
10. Maximum-Likelihood Schätzung von Parametern (I2) 10.1 Likelihood und Schätzung 10 - 1 10.2 Maximum-Likelihood Schätzung in Exponential-Familien 10 - 3 10.3 Schätzung im Binomial-Verteilungsmodell 10 - 5 10.4 Schätzung im Poisson-Verteilungsmodell 10 - 6 10.5 Schätzung in einparametrigen Exponential-Familien bei unabhängigen
Wiederholungen 10 - 7
11. Asymptotische Eigenschaften des ML-Schätzers * (9> 11.1 Asymptotische Existenz und Konsistenz 2 11.2 Asymptotische Normalverteilung 4 11.3 Asymptotische Konfidenzgrenzen 8
12. Die Ungleichung von Cramer-Rao und effiziente Schätzer * (7> 12.1 Die Ungleichung von Cramer-Rao 2
12.1.1 Spezialfall: Identische Wiederholungen 4 12.2 Effiziente Schätzer 6
13 Momente-Schätzung * (3>
* Diese Kapitel werden irn Teil I1 nicht vorausgesetzt
Einführung in die Statistik 2.8.06 Inhalt - 3
11. Tests
14. Testen von Hypothesen 14.1 Einseitiger (oberer) Gauß-Test
(12) 5
14.2 Einseitiger (unterer) Gauß-Test mit dualen Hypothesen 8 14.3 Zweiseitiger Gauß-Test 9 14.4 Anwendung 10
15. Likelihood-Quotienten-Tests 15.1 Schärfste Tests und Neymann-Pearson Lemma
(6) 1
15.2 Monotone Likelihood-Quotienten 3 15.3 Einparametrige Exponential-Familie 5
16. Testen eines Erwartungswertes (I2) 16.1 Einseitiger (oberer) t-Test von Student im Normal-Verteilungsmodell 2 16.2 Dualer einseitiger (unterer) t-Test von Student
im Normal-Verteilungsmodell 6 16.3 Zweiseitiger t-Test von Student im Normal-Verteilungsmodell 7 16.4 Asymptotische Eigenschaften des t-Tests
(bei beliebiger Verteilung) 8 16.5 Schärfe-Approximation des t-Tests bei beliebiger Verteilung 10 16.6 Versuchsplanung beim t-Tests 11
17. Testen einer Wahrscheinlichkeit 17.1 Einseitiger oberer Test einer Wahrscheinlichkeit
(20) 17 - 2
17.1.1 Exakter Test zum nominellen Niveau 17 - 3 17.1.2 Randomisierter Test 17 - 4 17.1.3 Asymptotischer Gauß-Test 17 - 6
17.2 Einseitiger unterer Test einer Wahrscheinlichkeit 17 - 8 17.3 Zweiseitiger Test einer Wahrscheinlichkeit 17 - 9 17.4 Approximation der Testschärfe und Versuchsplanung für den
asymptotischen Test 17 - 11 17.5 Anwendungen 17 - 16
17.5.1 Vererbung eines Merkmals 17 - 16 17.5.2 Wahlprognose 17 - 20
18. Likelihood-Quotienten Tests 18.1 Allgemeiner Likelihood-Quotienten Test
(4) 18 - 1
18.2 Invarianz des Likelihood-Quotienten bei Umparametrisierung 18 - 3 18.3 Asymptotische Verteilung des Likelihood-Quotienten 18 - 4
19. Vergleich von zwei Erwartungswerten bei Normalverteilungen mit gleichen Varianzen [SI 19.0 Testproblem und Stichproben-Modelle 19 - 1 19.1 Das Normal-Verteilungsmodell mit gleichen Varianzen 19 - 3 19.2 Der zweiseitige t-Test als Likelihood-Quotienten-Test 19 - 4 19.3 Der einseitige t-Test 19 - 7 19.4 Konfidenzgrenzen für die Differenz der Erwartungswerte 19 - 8
Einführung in die Statistik 2.8.06 Inhalt - 4
20. Vergleich von zwei Erwartungswerten bei beliebigen Verteilungen 20.1 Herleitung einer Teststatistik 20.2 Asymptotische Verteilung der Teststatistik 20.3 Asymptotische Tests 20.4 Schärfe-Approximation für den einseitigen Tests 20.5 Versuchsplanung für den einseitigen Test
20.5.1 Das Normal-Verteilsmodell mit gleichen Varianzen 20.6 Zweiseitiger Test: Schärfe und Versuchsplanung 20.7 Konfidenzgrenzen für die Differenz der Erwartungswerte 20.8 Anwendungen
20.8.1 Vergleich von zwei Meßverfahren 20.8.2 Geburtsgewicht und Geschlecht (StatLab-Auswahl 1985) 20.8.3 Geburtsgröße und Geschlecht (StatLab-Auswahl 1985)
21 Vergleich von zwei Wahrscheinlichkeiten 21.1 Zwei-Stichproben-Binomial-Verteilungsmodell 21.2 Herleitung einer Teststatistik 21.3 Asymptotische Verteilung der Teststatistik 21.4 Asymptotische Tests 21.5 Schärfe-Approximation für den einseitigen Tests 21.6 Versuchsplanung für den einseitigen Test 21.7 Zweiseitiger Tests: Schärfe und Versuchplanung 21.8 Konfidenzgrenzen für die Differenz der Wahrscheinlichkeiten 21.9 Anwendungen
21.9.1 Rauchen in der Schwangerschaft 21.9.2 Vergleich von zwei Therapien 21.9.3 Säuglingssterblichkeit nach Geschlecht 21.9.4 Gefährdung von Schwangerschaften nach Tschernobyl 21.9.5 Broccoli als Krebsvorsorge?
22. Anpassungstests bei Multinomialverteilungen
22.1 Multinomial-Verteilungsmodell 22.2 Testen einer einfachen Nullhypothese 22.3 Der Chiquadrat-Anpassungstest von Pearson 22.4 Die Schärfe des Chiquadrat-Anpassungstests
22.4.1 Benachbarte Alternativen 22.4.2 Versuchsplanung 22.4.3 Spezialfall: Binomial-Verteilungsmodell
22.5 Der Likelihood-Quotienten-Anpassungstest 22.6 Die Schärfe des Likelihood-Quotienten-Anpassungstests 22.7 Allgemeines zum Pearson- und LQ-Test 22.8 Testen eines parametrischen Modells 22.9 Anwendungen
22.9.1 Kreuzung von Monohybriden 22.9.2 Hardy-Weinberg Gleichgewicht
Einführung in die Statistik 2.8.06 Inhalt - 5
23. Chiquadrat-Anpassungstests für Verteilungen 23.1 Reduktion auf eine Multinomial-Verteilung 23.2 Testen der einfachen Nullhypothese 23.3 Testen des parametrischen Modells 23.4 Wahl der Zerlegungs-Klassen 23.5 Stetige Verteilungen 23.6 Diskrete Verteilungen mit endlichem Träger 23.7 Diskrete Verteilungen mit unendlichem Träger
Anhang
Literatur
Übungsaufgaben (2002)
StatLab-Daten
Statistische Tabellen Verteilungsfunktion der Normalverteilung N(0,l) Quantile der N(0, l ) und t-Verteilung Quantile der Chiquadrat-Verteilung Quantile der F-Verteilung
Index
Exkurse Aus dem separat erhältlichen Skript Exkurse wurden die folgenden Kapitel hier verwendet.
Spezielle Verteilungen
V Die zentralen und nichtzentralen Chiquadrat-, t- und F-Verteilungen G Die Gammaverteilung W Die Weibull-Verteilung M Die Multinomialverteilung
Ergänzungen zur Majl- und Wahrscheinlichkeitstheorie
PI Stetigkeit und Differenzierbarkeit von Parameter-Integralen Q Quantile von Verteilungen CF Charakteristische, Momente- und Kumulanten-erzeugende Funktionen KV Konvergenz nach Verteilung in euklidischen Räumen ZGS Der zentrale Grenzwertsatz für reelle Zufallsvariablen
Anwendungsbeispiele 27.7.02 0 - 1
0. Anwendungsbeispiele
Zu Beginn wollen wir einige typische und relevante Anwendungssituationen für
statistische Analysen kennenlernen, die einerseits als Motivation der teilweise sehr
abstrakten Methoden dienen sollen andererseits später als Anwendungsbeispiele
wieder aufgegriffen werden.
0.1 Leukämiefälle im Umkreis des Kernkraftwerks Krümmel
Der Kinderarzt M. Demuth berichtet in dem Preprint Leukämiemorbidität bei Kin-
dern in der direkten Umgebung des Kernkraftwerks Krümel (Kassel 1991, Tabelle 1)
von Leukämie-Erkrankungsfällen bei Kindern von 0 bis 14 Jahren in der Umgebung
des Kerkraftwerks Krümmel und vergleicht die beobachteten Leukämiefälle mit den
(unter Berücksichtigung der Bevölkerungsdichte) nach bundesdeutschem Durschnitt
zu erwartenden Fällen:
Tabelle 1: Leukämieerkrankungsfälle bei Kindern von 0-14 Jahren in der Umgebung des Kernkraftwerks Krümel (nach Demuth 199q.
Region
Samtgemeinde Elbmarsch
5-km-Radius um das Kerkraftwerk Krümmel
Die statistische Analyse dieser Daten soll klären, ob die Abweichungen der be-
obachteten Leukämiefälle von den erwarteten Fällen noch durch den Zufall zu er-
klären sind, oder ob bereits eine statistisch signifikante Erhöhung der Leukämie-Inzi-
denz vorliegt (Die Frage nach einem möglichen kausalen Zusammenhang zum
Zeitraum
1990 1 9 9 0 - 1991 1980 - 1990 1980 - 1991
1990 1 9 9 0 - 1991 1980 - 1990 1980 - 1991
Kernkraftwerk kann Statistik nicht beantworten!). Hierbei geht man davon aus, daß
die beobachtete Anzahl von Fällen ( innerhalb einer Region und eines Zeitraums)
eine Zufallsvariable X mit Poisson-Verteilung ist (vgl. Abb. I), und vergleicht ihren
Erwartungswert ,LL = E(X) mit der nach Bundesdurchchschnitt erwarteten Fallzahl
po. Ein solcher Vergleich kann durch eine statistischen Test erfolgen, bei dem man
Leukämiefälle beobachtet erwartet
3 0.06 4 0.1 3 4 0.68 5 0.75
3 0.2 1 5 0.44 4 2.30 6 2.53
Anwendungsbeispiele 27.7.02 0 - 2
sich aufgrund der beobachteten Realisierung X von X zwischen den folgenden bei-
den Hypothesen entscheidet
Nullhypothese: ,LL 5 po (keine Erhöhung gegenüber Bundesdurchschnitt),
Alternative: ,LL > po (Erhöhung gegenüber Bundesdurchschnitt).
Eine andere (äquivalente) Möglichkeit des Vergleich besteht darin, daß man aus der
Beobachtung X eine untere Konfidenzgrenze fiu(x) für den Erwartungswert ,LL be-
stimmt und sich im Fall fiu(x) 5 ,uo für keine Erhöhung (Nullhypothese) entscheidet.
0 2 4 6 8 1 0 Anzahl
-
-
-
-
-
-
Poisson-Verteilung p=2,53
Poisson-Verteilung p=0,44
I ' I ' I ' I ' I ' I '
0 2 4 6 8 1 0 Anzahl
Abb.. 1: Histogramme der Poisson-Verteilung für zwei Erwartungswerte aus Tabelle 1
Das Testproblem wird erst gegen Ende des Kurses (in allgemeiner Form) behandelt
und die Konfidenzgrenzen werden im Kapitel 2 erläutert.
Schließlich kann man auch direkt überprüfen, wie wahrscheinlich (bzw. unwahr-
scheinlich) die beobachtete oder eine noch höhere Anzahl ist, wenn man den den
Bundesdurchschnitt zugrunde legt. Hierzu berechnet man für die Beobachtung X die
Poisson-Wahrscheinlichkeit P{X 2 X) unter der Annahme ,LL = ,LL und wenn diese 0'
Wahrscheinlichkeit zu gering ist glaubt man nicht mehr an einen Zufall.
Anwendungsbeispiele 27.7.02 0 - 3
0.2 Asbestmessungen in Schulgebäuden
Bei einer Asbestmessung soll festgestellt werden, wie hoch die Asbestfaserkonzen- 3 tration X [in Fasern pro m ] in dem untersuchten Innenraum ist, und ob der zuläs-
sige Grenzwert X. eingehalten wird oder nicht. Hierzu wird die Raumluft von ei-
nem Kompressor durch einen Filter angesaugt, in dem die Asbestfasern hängen
bleiben. Ein Teil des Filters wird dann mikroskopisch ausgewertet, um die Asbest-
fasern dort zu zählen. Die Anzahl X der Asbestfasern in dem zugehörigen (ausge-
werteten) Volumenanteil V [in m3] ist dann eine Zufallsvariable, die (in guter Nähe-
rung) eine Poisson-Verteilung hat. Ihr Erwartungswert ,LL = E(X) ist die im Volumen
V erwartete Anzahl von Fasern und die erwartete Asbestfaserkonzentration ergibt sich
zu X = ,LL/ V (vgl. Abb. 0.2). Ausgehend von einer beobachteten Anzahl X (als Reali-
sierung von X) hat die statistische Analyse folgende Ziele:
Schätzung der Asbestfaserkonzentration
Bestimmung einer oberen Konfidenzgrenze Xo(x) für die Asbestfaserkonzentra-
tion X,
Überprüfung, ob ein Grenzwert X. eingehalten wird oder nicht, d.h. Durchfüh-
rung eines statistischen Tests zur Entscheidung zwischen den Hypothesen
Nullhypothese: X < X, (Grenzwert wird eingehalten),
Alternative: X > X, (Grenzwert wird überschritten).
Die Original-Protokolle zweier Messungen in Schulräumen aus dem Jahr 1989 ist in
den Tabellen 2 und 3 auszugsweise wiedergegeben. Die Methoden zur Berechnung
der Vertrauens- bzw. Konfidenzgrenzen werden in Abschnitt 2.6 und die der „Bewer-
tung" zu Grunde liegenden Tests werden erst wesentlich später (in allgemeiner
Form) behandelt.
Anwendungsbeispiele 27.7.02 0 - 4
M e ß b e d i n g u n g e n
MeRdauer 4 h 10 min Meßtemperatur 18.0 'C Luftdruck 1013 hPa rel. Luftfeuchtigkeit 67 X
mittlerer Ansaugdruck -180 hPa mittlerer Volumenstrom 14.58 l/min
Volumendurchsatz (16.0 'C. 1013 hPa) 3.65 m'3
effektive Filterflache 380 mm'2 ausgewerte Filtertlache 1 .64 mm-2 420 Bildfelder bei 2500facher Vergrößerung
M e ß e r g e b n i s s e
~nsgesamt gezählte Fasern 2
AsSestfaser-Anzahlkontontration 127 Fasern/mA3
obere Grenze Ues 95%-Yertrauensintervallg 460 Fasarn/m-3 (Poisson-Statistik)
B e w e r t u n g
Die gemessene Asbestfaser-Konzentration liegt U n t e r dem empfohlenen Grenzwert von 500 Fasern/ma3.
Mit 95%-iger Wahrscheinlichkeit wird nach der Poisson-Stat:stik der empfohiene obere Grenzwert von 1000 um 540 Fasern/ma3 [Erwartungswert) U n t e r s C h r i t t e n.
H e ß b e d i n g u n g e n
Meßdauer 4 h 4 !in Meßtemperatur 16.0 C Luftdruck 1013 hPa
mittlerer Ansaugdruck -85 hPa mittlerer Volumenstrom 17.07 l/min
Volumendurchsatz (16.0 'C, 1013 hPa) 4.16 rn-3
effektive F~lterflache 380 mm'2 ausgewerte Filterfläche 1.40 mm-2 360 Bildfelder bei 25OOfacher Vergrößerung
M e ß e r g e b n i s s e
insgesamt gezählte Fasern 8
Asbestfaser-Anzahlkonzentration 520 Fasern/me3
obere Grenze des 95%-Vertrauensinterval ls 1,024 Fasern/m'd (Poisson-Statistik)
B e w e r t u n g
Die gemessene A s b e s t f a s e r - K o n z e n t r a t i o n liegt U n t e r dem geforderten Grenzwert von 1000 Faserntm3, bezogen auf den Zustand vor der Sanierung.
Tabelle 2 (oben) und 3 (unten): Protokolle von Asbestmessungen in Schulgebäuden (1989) Die „effektive Filterfläche" entspricht einem Kreis mit 11mm Radius (50 Pf. bzw 20 Cent Münze), von der jeweils nur rund O,4% „ausgewertet" werden.
Anwendungsbeispiele
Poisson-Verteilung p=7,88
Poisson-Verteilung p= 15,33
0 5 10 15 20 25 30 0 5 10 15 20 25 30 Anzahl Anzahl
Abb. 2: Poisson-Verteilung der Anzahl von Asbestfasern im Volumen V. Die erwartete Anzahl p = 7.88 (links) bzw. p = 15.33 (rechts) entspricht den
3 „Grenzwerten" von 500 bm. 1000 Fasern/m für das untersuchte Valomen V der Messung aus Tabelle 2 oben bzw. unten.
0.3 Wahlumfragen
Bei einer Wahlumfrage von Infratest
dimap (Quelle: www.infratest-dimap.de)
im Februar 2002 ergaben sich bei
n = 1300 Befragungen die nebenstehen-
den Prozentzahlen für die Stimman-
teile der Parteien (in Klammern: Än-
derung gegenüber dem Vormonat).
Eine einzelne Partei (oder Koalition)
ist dabei primär interessiert an mö-
glichst zuverlässigen Informationen
über ihren unbekannten Stimmanteil p
in der Gesamtbevölkerung. Die Anzahl
X der Befürworter dieser Partei unter
den n Befragten ist eine Zufallsvari-
able mit Binomialverteilung B(n
Sonntagsfrage I Wekhe Prrld iiürdm Sb wärlai. ~ f f n
Untersuchungsanlage
Grundaesamtheit: Wahlberechtiate Bevdlkewna in Deutschland " ab 18 ~ahren"
"
Stichprobe: ReprBsentative ZufallsauswahVRandomstichprobe Erhebungsverfahren: ComputergestOtzte Telefoninte~iews (CATI) Fallzahl: 1.300 Befraate (900 West. 400 Ost) Erhebungszeitraum: 21.1 26. ~ebruar 2002 ' F.hlertderanz:: 1,2' bis 2.7" Prozentpunkte
bei einem Anteilswert von 5% " bei einem Anteilswert von 50%
DurchfOhrendes Instilut: Infratest dimap
Anwendungsbeispiele 27.7.02 0 - 6
Für eine „kleinen Partei (z.B. Die Grünen) mit p = 8 % und eine „großen Partei (z.B.
CDU) mit p = 40 % sind die Elementar-Wahrscheinlichkeiten für die möglichen Er-
gebnisse bei einer kleinen Umfrage mit nur n = 100 (z.B. eine telefonische Blitz-Um-
frage) in Abb. 3 graphisch dargestellt.
0 5 10 15 20 25 30 35 40 45 50 55 60 Anzahl in der Stichprobe
0 5 10 15 20 25 30 35 40 45 50 55 60 Anzahl in der Stichprobe
Abb. 3: Dichten der B(~,P)-Verteilung für n = 100 und p = 8% bzw. p = 40% als Histogramm (oben) und mit Normalapproximation (unten). Die markierten Flächen entsprechen den Wahrscheinlichkeiten P(X< - 5) bei p = 5% und P(X> 50) bei p = 40%.
Anwendungsbeispiele 27.7.02 0 - 7
Die Ziele einer solchen Umfrage sind:
Schätzung des Stimmanteil p,
Bestimmung einer unteren Konfidenzgrenze ju für den Stimmanteil p,
Überprüfung, ob ein Mindestanteil (ein „Wahlziely po erreicht wird, z.B. po = 5%
bzw. po = 50% im Hinblick auf die 5%-Hürde bzw. eine absolute Mehrheit. Der
zugehörige statistische Tests soll sich für eine der beiden Hypothesen entschei-
den
Nullhypothese: P < P o (Stimmanteil unter po),
Alternative: P > p 0 (Stimmanteil mindestens po ).
Die Methoden hierzu werden im Laufe des Kurses erarbeitet.
0.4 Rauchen in der Schwangerschaft
In einer Studie über den Einfluß des Rauchens der Mutter während der Schwanger-
schaft auf die Gesundheit des Säuglings sollen unter anderem folgende Nullhypo-
thesen überprüft werden:
(1) Der Anteil der untergewichtigen Neugeborenen (d.h. Geburtsgewicht 5 2500g)
ist bei rauchenden und nichtrauchenden Müttern gleich groß.
(2) Für untergewichtige Neugeborene ist die Rate der Säuglingssterblichkeit bei
rauchenden und nichtrauchenden Müttern gleich groß.
Die beobachteten Anzahlen einer konkreten Studie sind in Tab. 4 wiedergegeben, und
die zugehörigen Tests werden in Kapitel 19 behandelt.
Tab. 4: Anzahlen einer amerikanischen Studie über Einzelgeburten der weißen Bevölkerung aus den Jahren 1960-67. aus: J. Yerushalmy (1971), Amer. J. Epidemiology 93 , p. 443ff, Table 1.
Mutter raucht
j a nein
Summe
Lebendgeborene
3 726 6 067
9 793
Untergewichtige insgesamt
237 197
434
Untergewichtige nach 4 Wochen gestorben
27 43
70
0.5 Broccoli als Krebsvorsorge?
Anwendungsbeispiele
Das Nachrichtenmagazin Newsweek berichtete im April 1994 über Tierexperimente
mit Ratten zur Krebsforschung, die von Dr. P. Talalay auf folgende Weise durchge-
führt wurden. Bei drei Gruppen von Ratten wurde jedem Tier die krebserzeugende
Substanz DMBA injiziert und beobachtet, ob sich ein Tumor entwickelt. Der zwei-
ten bzw. dritten Gruppe wurde hierbei zusätzlich der im Broccoli (und anderen Ge-
müsearten) enthaltene Wirkstoff mit der englischen Bezeichnung Sulphoraphane in
niedriger bzw. hoher Dosis injeziert. Die Ergebnisse sind in Tab. 5 wiedergegeben.
N E W S W E E K APRIL 2 5 , 1994
Snuff~ng Out Cancer Before It Begins Within hours after being eaten, sulforaphane, one of broccoli's cancer-fighting phytochemicals, enters the blood stream. It circulates and triggers one of the bodv's defense svstems.
The road to cancer can begin When suiforaphane reaches The enzymes burst into action, with a carcinogenic molecule the ceU, it activates a group of attaching the carcinogen to -from food, drink, air or proteins called phase 2 a molecule that whisks it out of smoke-invadiny a cell. enzymes. the ceii. headed for oblivion. DUGRAM: BLUMRICH-NEWSWEEK
"The results are quite dramatic," says Dr. Paul Talalay of Johns Hopkins Medical Institutions. "Far fewer animds [given sul- foraphane] developed tumors." Two years ago Talalay added sulforaphane to human cells growing in a lab dish and showed that it boosted synthesis of anticancer enzymes. Now, in the current Proceedings of the
National Academy of Sciences, his team reports that the broccoli compound pro- tects h ing animals against cancer. Of 25 rats injected with a carcinogen known as DMBA, 68 percent got marnmary tumors. Of 39 animals that were also injected with low or high doses of sulforaphane, only 35 percent and 26 percent, respectively, did.
Tab. 5: Ergebnisse der drei unterschiedlich behandelten Gruppen von Ratten
Gruppe
1 2 3
Zur Beurteilung der Ergebnisse sollen folgende Hypothesen überprüft werden:
Hat die Sulphoraphane-Beigabe einen Einfluß auf das Krebsrisiko?
Falls die Sulphoraphane-Beigabe einen Einfluß auf das Krebsrisiko hat,
spielt dann die Dosierung eine Rolle?
Sulphoraphane
nein geringe Dosis
hohe Dosis
Tumor kein Tumor
17 8 14 25 10 2 9
Summe
25 3 9 3 9
Schätzen des Erwartungswertes 26.7.02 1-1
1. Schätzen des Erwartungswertes
Für die mathematische Behandlung einer konkreten statistischen Fragestellung
(wie die Anwendungen im Kapitel 0) geht man typischerweise von einer oder meh-
reren Zufallsvariablen aus. Eine reelle Zufallsvariable X ist eine meßbare Abbildung
X:R+IR von einem Wahrscheinlichkeitsraum ( R , d , P) nach IR. Der Wahr-
scheinlichkeitsraum ist ein Modell für den zugrundeliegenden stochastischen Vor-
gang, z.B. die Befragung eines zufällig ausgewählten Wahlberechtigten einer Wah-
lumfrage aus 0.3. Der Ergebnisraum R enthält alle Ergebnisse W, die a-Algebra d
enthält die relevanten Ereignisse A C R und das Wahrscheinlichkeitsmafl
P: d+ [O, 11 spezifiziert die Wahrscheinlichkeiten P(A) aller Ereignisse A. Die Zu-
fallsvariable X reduziert das Ergebnis W E R auf eine jeweils interessierende reelle
Zahl X(w), z.B. ein Indikator ob die Antwort ,$'PDu lautet (d.h X = 1) oder nicht
(X = 0). Von primärem Interesse ist dann nur noch die Verteilung 2(X) = Px von X,
d.h. das Bildmafl von P unter X, definiert durch
für alle reellen Borel-Mengen B E B. Untersuchungen über die Verteilung von X redu-
zieren sich daher zu Analysen über Wahrscheinlichkeitsmaße auf (IR, B), wobei der
zugrunde liegende Wahrscheinlichkeitsraum ( R , d , P) nur noch eine untergeord-
nete Rolle spielt (und in Zukunft auch immer seltener selten erwähnt wird). Die
Verteilung des Indikators X für die SPD bei einer einzelnen Befragung aus 0.3 ist
z.B. eine Bernoulli- oder Binomial-Verteilung B(l,p) mit p als (unbekanntem) Stim-
manteil der SPD in der Gesamtbevölkerung.
Ein wichtiger (wenn nicht sogar der wichtigste) Parameter der Verteilung von X ist
der Erwartungswert ,LL = E(X) E IR, gegeben durch
PI E(X) = j'X dP (Mafl-theoretische Definition)
wobei IX I P-integrierbar sein muß, d.h. das IntegralJ IX I dP ist endlich.
Für diskret verteiltes (kurz: diskretes) X, d.h. mit höchstens abzählbarem Träger (Bild)
T = X[R] , ist der Erwartungswert gegeben durch
(für diskretes X).
wobei für abzählbaren Träger T die Reihe sogar absolut konvergent sein muß.
Schätzen des Erwartungswertes 26.7.02 1 - 2
Und für eine stetig verteilte (kurz: stetige) Zufallsvariable, d.h. mit einer Wahrschein-
lichkeitsdichte f : IR + [0, CO) ist der Erwartungswert gegeben durch
(für stetiges X),
wobei das Integral absolut konvergent sein muß.
Weiter wollen wir generell voraussetzen, daß die Zufallsvariable X eine endliche 2 Varianz a = Var(X) < CO hat, wobei
Wenn wir hier (und später) den Erwartungswert, die Varianz oder einen anderen
Parameter von X verwenden, so sei dabei immer stillschweigend voraus, daß der
betreffende Parameter „existiertu und endlich ist, d.h. daß die in der Definition ver-
wendeten Integrale existieren und endlich sind. Es gibt Verteilungen für die der Er-
wartungswert nicht existiert, z.B. die Cauchy-Verteilung.
Bei konkreten Anwendungen kann die Verteilung von X durch ein plausibles Modell
eingeschränkt werden auf eine spezielle Verteilungsklasse. So hat z.B. die Indikator-
variable X für die SPD bei einer Wahlumfrage stets eine Binomial-Verteilung
B(l,p). Allgemein gilt für jede Indikatorvariable X E {O,1} das
Binomial-Verteilungsmodell: 2 ( X ) = B(1, mit ,LL = =(X) = p.
Für die Anzahl X der Leukämiefälle in 0.1 bzw. der Asbestfaser in 0.2 ist das
Poisson-Verteilungsmodell : 2 ( X ) = P o ~ s ( ~ ) mit ,LL = E(X)
eine hinreichend genaues Modell, obwohl streng genommen extrem hohe Werte
aus dem Träger No = U U {O} der Poissonverteilung in der Realität nicht auftreten
können (sie haben aber auch eine verschwindend kleine Wahrscheinlichkeit im
Poisson-Modell).
Für eine stetige Zufallsvariable X verwendet man oft das
Normal-Verteilungsmodell : 2 ( X ) = N(,LL, a2) 2 mit ,LL = E(X) , a = Var(X).
Und für eine positive stetige Zufallsvariable X > 0 kann man z.B. das
Schätzen des Erwartungswertes 26.7.02 1 - 3
2 Gamma-Verteilungsmodell: 2 ( X ) = Gam(a,ß) mit p = aß, a = aß 2
verwenden.
Man beachte, daß in den ersten beiden (diskreten) Verteilungsmodellen die Vertei-
lung bereits durch ihren Erwartunswert p vollständig bestimmt ist, während in die
letzten beiden (stetigen) Verteilungsmodelle die Verteilung erst durch Erwartungs- 2 wert p und Varianz a eindeutig bestimmt ist. Wir wollen bei den folgenden allge-
meinen Betrachtungen zunächst kein konkretes Verteilungsmodell vorausssetzen.
In der Praxis ist der Erwartungswert einer interessierenden Zufallsvariablen X ty-
pischerweise unbekannt und muß aus beobachteten Daten geschätzt werden. Aus-
gangspunkt hierfür ist ein Stichproben-Modell, das hier aus n stochastisch unabhängi-
gen und identisch wie X verteilten Zufallsvariablen Xi (auf R) für i = 1, ..., n besteht.
Man bezeichnet XI, ..., Xn auch als unabhängige Wiederholungen von X und schreibt
hierfür kurz (iid steht für independent identically distributed)
(6) 1 X n 22d 7? X .
Die Stichprobe stellt einen n-dimensionalen Zufalls-Vektor dar
wobei wir den Stichprobenumfang als oberen Index „(n)" nur dann mitschreiben,
wenn dies zur Klarstellung erforderlich ist.
Die beobachteten Daten sind Realisierungen xi = Xi(w) E IR der Zufallsvariablen X ., 2
wobei WER das eingetretene Ergebnis ist. Der beobachtete Vektor
ist dann die zugehörige Realisierung von X. Ebenso wie man zwischen einer Funk-
tion f und einem konkreten Funktionswert f(x) unterscheidet, so wollen wir auch
streng zwischen dem Zufallsvektor X und seiner beobachteten Realisierung
X = X(w) unterscheiden.
Als Schätzung des Erwartungswerts p verwendet man den Mittelwert (arithmeti-
sches Mittel) der Beobachtungen
n (9)
1 /?(X) = X = - ): X . n . z (Schätzung, Schätzwert für p).
2 = 1
Schätzen des Erwartungswertes 26.7.02 1 - 4
Die Abhängigkeit der Schätzung von den „zufälligenn Daten wird beschrieben durch
den Schätzer (die)
n (10)
1 /?(X) = X = - C X. n . 2
(Schätzer, Schätzgröfle für ,LL)
2 = 1
,L(X) ist eine Zufallsvariable auf (R,&P) mit Werten in IR, und der Schätzwert
,L(x) = ,L(X(w)) ist die zugehörige Realisierung des Schätzers.
1.1 Eigenschaften des Schätzers
Finite Eigenschaften:
(1) Der Schätzer ist erwartungstreu (unverfälscht) : E(fi(X)) = P .
(2) Die Varianz des Schätzers ist umgekehrt proportional zu n :
var(,L(x)) = 02.
Offenbar ist ein erwartungstreuer Schätzer für ,LL umso besser, desto kleiner seine
Varianz ist. Verwendet man aus „Faulheitu z.B. nur die erste Komponente
,Ll(X) : = X1 oder das Mittel ,Lln(X) : = i (Xl +Xn) von erstem und letzten Wert, so
sind diese beiden Schätzer zwar erwartungstreu für ,LL, aber ihre Varianzen
sind für n > 2 größer als die von ,L(X). Die Erwartungstreue ist zwar eine wün-
schenswerte Eigenschaft eines Schätzers, aber sie sagt nichts über die Varianz des
Schätzers aus.
Schätzen des Erwartungswertes 26.7.02 1 - 5
Asymptotische Eigenschaften:
Betrachtet man für n i c c die Folge ,L(n) := ,L(x(~)) der Schätzer, so ergeben sich
aus den Gesetzen der groj'en Zahlen und dem Zentralen Grenzwertsatz folgende
asymptotische Eigenschaften (vgl. zu (3) auch Abb. 1 und zu (5) Abb. 2):
(3) Der Schätzer ,L(n) konvergiert nach Wahrscheinlichkeit gegen p :
,L(") L p, (schwache Konsistenz), n+ 00
d.h. für alle E> O gilt : lim P{ I ,L(n) - p I < E } = 1. n
(4) Der Schätzer ,L(n) konvergiert sogar P-fast sicher gegen p:
-(n) P f s P P, (starke Konsistenz),
d.h. P{ WEO I l i m , ~ ( ~ ) ( w ) = p } = I . n
2 (5) Für endliches a konvergiert der standardisierte Schätzer nach Verteilung
gegen die Standard-Normal-Verteilung N(0,l):
Y+) := Jn [,L(") - A N(0,1), d.h . 0 n+ 00
für alle a ER gilt: l i r n ~ { * ) < a } = @ ( U ) n
mit @ als Verteilungsfunktion von N(0,l) .
Für großen Stichprobenumfang n gilt daher für jedes a ER :
d.h. ,L (X) ist approximativ normalverteilt :
Schätzen des Erwartungswertes 26.7.02 1 - 6
Abb. 1: Verteilung des Mittelwerts ,L (X) = X bei wachsendem Stichprobenumfang n
X ist diskret gleichverteilt (Würfel) X ist Gamma-verteilt
0 1 2 3 p 4 5 6 Mittelwert
0 1 2 3 p 4 5 6 Mittelwert
0 1 2 3 p 4 5 6 Mittelwert
0 1 2 3 p 4 5 6 Mittelwert
0 1 2 3 p 4 5 6 Mittelwert
0 1 2 3 p 4 5 6 Mittelwert
0 1 2 3 p 4 5 6 0 1 2 3 p 4 5 6 Mittelwert Mittelwert
Schätzen des Erwartungswertes 26.7.02
Abb. 2: Standardisierter Mittelwert Y = fi (X- ,L)/D und N(0, 1)-Verteilung (dünn) X ist diskret gleichverteilt (Würfel) X ist Gamma-verteilt
-3 -2 -1 0 1 2 3 -3 -2 -1 0 1 2 3 standardisierter Mittelwert standardisierter Mittelwert
-2 -1 0 1 2 standardisierter Mittelwert
-2 -1 0 1 2 standardisierter Mittelwert
-3 -2 -1 0 1 2 3 standardisierter Mittelwert
-3 -2 -1 0 1 2 3 standardisierter Mittelwert
0.4 0.4
0.0 0.0 -3 -2 -1 0 1 2 3 -3 -2 -1 0 1 2 3
standardisierter Mittelwert standardisierter Mittelwert
Schätzen des Erwartungswertes 26.7.02 1 - 8
1.2 Spezielle Verteilungsmodelle
Wenn man voraussetzt, daß die Verteilung J ( X ) aus einer speziellen Klasse
stammt, die gegen Faltungen abgeschlossen ist, so gehört auch die Verteilung der
Summe X = Xl + ...+ Xn zu dieser Klasse und die Verteilung des Schätzers + f i (X) = I x läßt explizit angeben. Wir geben hierfür einige Beispiele.
n +
1.2.1 Das Binomial-Verteilungsmodell
Das Binomial-Verteilungsmodell liegt vor, wenn X diskret ist mit
Wegen ,LL = E(X) = p entspricht die Schätzung von ,LL hier der Schätzung der Wahr-
scheinlichkeit p und wir bezeichnen die Schätzfunktion f i dann auch suggestiv mit
$ : =P Bei Anwendungen ist p typischerweise die Wahrscheinlichkeit eines interes-
sierenden Ziel-Ereignisses und die Schätzung $(X) =La: ist genau die relative Häu- n +
figkeit mit der das Ziel-Ereignis bei den n Wiederholungen eingetreten ist.
Die Verteilung des Schätzers $ ( X ) ='X+ ergibt sich aus
(2) -W+) = +,P) bzw. J($(x)) = ;. B(n,P) .
k Die zweite Formulierung bedeutet, daß $ ( X ) den Träger { ; I k = 0, ..., n ) besitzt
mit der Zähldichte:
1.2.2 Das Poisson-Verteilungsmodell
Das Poisson-Verteilungsmodell ist bei diskretem X gegeben durch
(1) J (x) = Po~s(,LL),
und dann folgt
(2) B X + ) = Pois(np) bzw. J( f i ( X ) ) = ;. Pois(np) .
1 k Die Verteilung von f i ( X ) =-X hat also den Träger { ; I k E WO ) und die Zähl- n +
dichte:
Schätzen des Erwartungswertes 26.7.02 1 - 9
1.2.3 Das Normal-Verteilungsmodell
Für stetiges X ist das Normal-Verteilungsmodell gegeben durch
(1) 4x1 = N ( P , ~ ~ ) ,
und dann gilt
PI .d(X+) = ~ ( n ~ , n o % ) bzw.
1.2.4 Das Gamma-Verteilungsmodell
Das Gamma-Verteilungsmodell liegt bei stetigem X > 0 vor, wenn
( I> . d ( X ) = Gam(a ,ß ) mit 2
0 = a ß 2 P = Q P ,
und dann gilt
PI . d ( X + ) = G a m ( n a , ß ) bzw.
2. Schätzen der Varianz 26.7.02 2 - 1
2. Schätzen der Varianz
Nachdem wir für eine interessierende Zufallsvariable X zunächst ihren Erwar-
tungswert p = E(X) geschätzt haben, wollen wir jetzt die Varianz a2 = Var(X) 2 2 schätzen, wobei wir die Existenz von p E IR und a E IR mit a > 0 vorraussetzen.
Für einige der folgenden Betrachtungen benötigen wir zusätzlich noch die Endlich-
keit des vierten zentralen Moments von X, d.h.
was wir deshalb generell voraussetzen wollen.
Ausgangspunkt der statistischen Betrachtungen ist wie im Kapitel 1 eine Stich-
probe X = (X1, ... , Xn) mit n unabhängigen Wiederholungen von X, sowie eine kon-
krete Realisierung X = (X , X ) von X. Aus methodischen Gründen betrachten 1' ... n
wir zuerst den (in der Praxis eher seltenen) Fall, daß der Erwartungswert p bekannt
ist. Danach wird der Fall behandelt, wo p unbekannt ist und auch geschätzt wird.
2.1 Schätzung der Varianz bei bekanntem Erwartungswert
Für das Quadrat Y = [X - p] der zentrierten Variablen [X - p] gilt
Damit ist die Schätzung der Varianz a" von X auf die Schätzung des Erwartungs-
werts von Y zurückgeführt. Die Zufallsvariablen Yi = (Xi- sind für i = 1, ..., n
unabhängigeWiederholungen von Y und ihr Mittelwert Y ist nach 1.1 ein Schätzer
für a2:
mit den bekannten Eigenschaften (vgl. 1.1)
(3) E($(x)) = a 2 (er~artun~streu)
(4) - 2 1 1
Var(a (X)) Var(Y.) =- (p -a4) P 2 n 4
(5) - 2 P f s 2 0 := g(x(n)) L, 0 .
~n n+ 00 (starke Konsistenz)
(6) Jn 2 - D 2 ] -
n+ 00 N(O , (p4 - a4)) (asymptotische Normalität).
2. Schätzen der Varianz 26.7.02 2 - 2
2.2 Schätzung der Varianz bei unbekanntem Erwartungswert
Bei unbekanntem Erwartungswert ,LL kann der Schätzer 82 (X) aus 2.1 nicht berech- P
net werden. Man verwendet daher einen anologen Schätzer, indem man den Erwar-
tungswert ,LL durch seinen Schätzer f i = X ersetzt und dafür durch n- 1 statt n teilt
(damit der Schätzer erwartungstreu wird):
Hierbei ist SXX eine quadratische Form in X
n n n
(2) - 2 SXX:=C(Xi-X) = C X ~ - ' ( C X . ) ~ 2 n 2 = x T ~ x ,
i= l i= l i= l wobei die nxn Matrix A = (a. .) gegeben ist durch:
2 1
(3) 1 a . . = 6. (6 ist das Kronecker-Symbol).
2 1 2 1 n
Zur Berechnung des Schätzers kann man die Beziehung
(4) - 2 E(Xi-X) = E(x.-a12-n(X-a) 2 für a E IR
2 i
verwenden, wobei es für die Rechengenauigkeit günstig ist, wenn a nahe a m Mittel-
wert X liegt. Speziell für a = 0 ergibt sich wieder (2).
Der Nenner (n- 1) in (1) garantiert, daß der Schätzer erwartungstreu ist:
Die Varianz des Schätzers
(6) 2 1 n-3 4
v a r ( 8 (X)) = ( , L L ~ - ~ D )
ergibt sich aus dem nachfolgenden Theorem.
2. Schätzen der Varianz 26.7.02 2 - 3
Theorem: Erwartungswert und Varianz quadratischer Formen
U = (Ul, ..., Un) sei ein Vektor unabhängiger identisch verteilter Zufallsvariablen
Ul, ..., Un mit Erwartungswert E ( U . ) = 0 und exisitierenden Momenten 2
Für eine symmetrische n x n Matrix A = ( a . .) hat die quadratische Form 2 1
den Erwartungswert und die Varianz
Der Schätzer ist auch konsistent und asymptotisch normalverteilt
P f s 2 82 n : = ~ - ~ ( x ( ~ ) ) -L, D n+ 00
(starke Konsistenz)
(8) 2 ~ n [ 8 i - D 2 ] -
n+ 00 N(O , ( p 4 - 04)) (a~ym~to t i s che Normalität).
3. Konfidenzgrenzen für den Erwartungswert 3.4.03 3 - 1
3. Konfidenzgrenzen für den Erwartungswert
Ausgehend von einer Stichprobe X = (Xl, ..., X,) mit n unabhängigen Wiederholun-
gen der Zufallsvariablen X mit Erwartungswert ,LL = E(X) haben wir in Kapitel 1
einen sogenannten Punkt-Schätzer für ,L, d.h. einen zufälligen reellen Punkt b(X) =F konstruiert. Wir wollen jetzt zusätzlich einen Intervall-Schätzer angeben, d.h. ein zu-
fälliges reelles (offenes) Intervall I(X) = (fi (X) , fi (X)), wobei fiu(X) eine untere und U 0
fio(X) eine obere Konfidenzgrenze (oder Vertrauen~~renze) für den Erwartungswert ,LL
genannt wird. Hierbei soll die untere Grenze fiu(X) mit einer hoher Sicherheit unter-
halb des Erwartungswertes ,LL liegen, d.h. die Wahrscheinlichkeit
(1) P{ fiu(x) < P 1 (Sicherheit der unteren Grenze)
soll möglichst groß sein bzw. die komplementäre Wahrscheinlichkeit
PI P{ P 5 fiu(x) 1 (Irrtumswahrscheinlichkeit der unteren Grenze)
soll möglichst klein sein. Bei der Interpretation der Sicherheit der unteren Grenze
ist zu beachten, daß es sich hier um eine Wahrscheinlichkeit handelt, die sich darauf
bezieht, daß man die Schätzung der Grenze prinzipiell als wiederholbar ansieht.
Schätzt man aus sehr vielen voneinander unabhängigen Stichproben (jeweils vom
Umfang n) die untere Konfidenzgrenze, so entpricht der Anteil aller Schätzungen, bei
die unteren Grenze unterhalb von ,LL liegt, ungefähr der Sicherheit (Hä~fi~keitsinter-
pretation der Sicherheit).
Analog soll die obere Grenze fiu(X) mit einer hoher Sicherheit oberhalb von ,LL liegen,
d.h. die Wahrscheinlichkeit
(3> Pi P < fio(x) 1 (Sicherheit der oberen Grenze)
soll möglichst groß bzw. die komplementäre Wahrscheinlichkeit
(4) P{ fi0(x) 5 P 1 (Irrtumswahrscheinlichkeit der oberen Grenze)
soll möglichst klein sein.
Das durch beide Grenzen gegebene offene Konfidenzintervall (fi (X) , fi (X)) verfehlt U 0
den Erwartungswert ,LL mit der Wahrscheinlichkeit
3. Konfidenzgrenzen für den Erwartungswert 3.4.03 3 - 2
d.h. die Irrtumswahrscheinlichkeit des Intervalls (fiU(x) , fi0(x)) ist die Summe der
Irrtumswahrscheinlichkeiten für die untere und die obere Grenze.
Bei der Konstruktion solcher Konfidenzgrenzen muß man dem Zusammenhang
von Sicherheit einerseits und Informationsgehalt andererseits Rechnung tragen. Je
gröper die untere Grenze fiu(X) ist, desto höher ist auch ihr Informationsgehalt über
p (weil sie p nach unten abschätzt), aber desto geringer ist auch ihre Sicherheit. Zum
Beispiel hat im Extremfall die untere Grenze fiu(X) =- co zwar die maximale Si-
cherheit von 1, aber sie enthält keinerlei Informations über p.
Für die Konstruktion der unteren Grenze gibt man sich daher eine maximale Irr-
tumswahrscheinlichkeit a bzw. eine minimale Sicherheit 1- a vor, und sucht dann
eine möglichst informative (d.h. poße) zugehörige untere Grenze fi (X), die diese U,&
Sicherheit approximativ oder sogar exakt einhält. Als Standard wird typischerweise
der Wert a = 5% verwendet, aber - je nach Anwendungssitiation - kann und sollte
man auch kleinere Werte (z.B. a = 1%) oder gelegentlich auch größere Werte (z.B.
a = 10%) zulassen. Für die theoretischen Ausführungen kann prinzipiell jeder Wert
0 < a < 1 verwendet werden, wobei lediglich gelten sollte
(6) 1 O < a < ? bzw. O<ci!<l-a<1,
damit - entsprechend der Intuition - die Sicherheit 1- a auch echt größer ist als die
Irrtumswahrscheinlichkeit a. Wir wollen die zusätzliche Bedingung (6) im folgenden
generell voraussetzen, obwohl einige Resultate auch für beliebiges 0 < a < 1 gelten.
Analog sucht man bei der Konstruktion der oberen Grenze für vorgegebenes a eine
möglichst informative (d.h. kleine) zugehörige obere Grenze fi (X), die diese Si- 0, &
cherheit approximativ oder sogar exakt einhält.
Hat man die untere und obere Grenze bereits konstruiert, so ergibt sich die Irr-
tumswahrscheinlichkeit des Intervalls ( fi (X) , fi (X) ) nach (5) - approximativ U, 0,
oder exakt - zu 2a . Konstruiert man die Grenzen unter Verwendung von 5 statt a,
so hat das zugehörige Intervall
die Irrtumswahrscheinlichkeit a und somit die Sicherheit 1- a.
Eine untere Grenze ist in der Praxis z.B. dann wichtig, wenn X eine Lebensdauer
(etwa eines technischen Produktes) ist, und man die zu erwartende Lebensdauer
3. Konfidenzgrenzen für den Erwartungswert 3.4.03 3 - 3
zuverlässig nach unten abschätzen will. Ist X dagegen eine Schadstoffbelastung
(z.B. in einem Nahrungsmittel), so wird man primär an einer oberen Grenze der er-
warteten Belastung interessiert sein. Wenn X ein Wirkstoff (z.B. eines Medika-
ments) ist, so interessiert man sich typischerweise sowohl für eine untere als auch
für eine obere Grenze, um den zu erwartenden Wirkstoffgehalt nach beiden Seiten
einzugrenzen und somit eine Unter- oder Überdosierung zu erkennen.
3.1 Exakte Konfidenzgrenzen für den Erwartungswert einer Normal-Verteilung mit bekannter Varianz
Aus didaktischen Gründen behandeln wir zunächst den Fall, daß die Zufallsvari-
able X (und ihre unabhängigen Wiederholungen XI, ..., Xn) normalverteilt ist, d.h.
Zusätzlich betrachten wir den (in der Praxis eher untypischen) Fall, daß die Vari- 2 anz a bekannt ist. Der Fall mit unbekannter Varianz und normalverteiltem X wird in
3.3 und der allgemeine Fall mit beliebiger Verteilung von X wird in 3.2 behandelt.
Wir beginnen mit der Konstruktion einer unteren Konfidenzgrenze für den Erwar-
tungswert ,LL und setzen diese zunächst von der Form an
wobei sich die Abweichung d vom Mittelwert X wie folgt aus der vorgegebenen Irr-
tumswahrscheinlichkeit ci! ergeben wird. Ausgangspunkt hierfür ist die Normalver-
teilung des Mittelwerts X
d.h. der standardisierte Mittelwert
mit
(Standardabweichung von X).
hat eine Standard-Normalverteilung
3. Konfidenzgrenzen für den Erwartungswert 3.4.03 3 - 4
Mit der Verteilungsfunktion !P von N(0,l) ergibt sich hieraus die Irrtumswahr-
scheinlichkeit der unteren Grenze (2) zu
Abb. 1
Dichte von X und Konstruktion der
Bandbreite da für gegebenes Niveau a
Die Grenze f i - dargestellt als Klammer [ U , a
liegt genau dann oberhalb von p, wenn der
Mittelwert im oberen a-Bereich liegt
Die Irrtumswahrscheinlichkeit (7) nimmt genau dann den vorgegeben Wert a an,
wenn die Bandbreite wie folgt gewählt wird
wobei za das sogenannte obere a-Quantil der Standardnormalverteilung ist (vgl. An-
hang T, Seite M), d.h.
(9) z a = @-'(I- a) bzw.
P{N(O, 1) > za} = a
0 2,
N(0, 1)-Dichte mit a-Quantil
3. Konfidenzgrenzen für den Erwartungswert 3.4.03 3 - 5
Mit dieser Bandbreite erhält man die untere Konfidenzgrenze für ,LL
-
(10) f i ( X ) = f i (X)-da = X - d a (untere Grenze) U , a
mit der Sicherheit
(11) P { f i U , a (X)<,LL} = 1 - Q
Und analog ergibt sich als obere Konfidenzgrenze für ,LL
-
(12) f i ( X ) = /?(X) + d a = X + d a (obere Grenze) 0, a
mit der Sicherheit
(13) p { ~ < f i ~ , ~ ( x ) } = 1-"
Aus der unteren und oberen Grenze zum halben Niveau ergibt sich dann das um
den Punkt-Schätzer fi(X) = X symmetrische zweiseitige Konfidenzintervall für ,LL zur
Sicherheit 1 - a
(14) I a ( X ) = (X- da12 , X + daI2 ) mit
(15) 1
doli2 = ' 4 2 . .
Für das in der Praxis routinemäßig verwendete Niveau a = 5% bzw. die Sicherheit
1 - a = 95% ergeben sich:
d.h. in diesem Fall ist die Bandbreite d rund die zweifache Standardabweichung al2
des Schätzers X . Für andere gängige Werte von a läßt sich das Quantil za aus Ta-
bellen (vgl. Anhang T, Seite 3-4) ablesen oder (mit geeigneten Programmen) be-
rechnen.
Wir wollen noch eine andere Interpretation der Konfidenzgrenzen angeben und
betrachten hierzu für eine Realisierung X = (xl, ..., X ) von X die Verteilungsfunk- n
tion des Mittelwerts X an der Stelle des beobachten Mittelwerts Z
3. Konfidenzgrenzen für den Erwartungswert 3.4.03 3 - 6
Da G eine streng wachsende Funktion ist, ist F(X I p) streng fallend in p. Die obere
Grenze f i ( X ) läßt sich daher auch charakterisieren durch 0, &
(18) F ( x I fi0,&(x)) = " bzw.
Damit ist obere Grenze f i ( X ) das Maximium aller möglichen Werte p, die mit der 0, &
Beobachtung X in dem Sinn noch ,,verträglichu sind, daß die Wahrscheinlichkeit
F(% I p) für X oder kleinerer Werte noch mindestens ci! ist (vgl. Abb. 2).
Für eine analoge Interpretation der unterer Konfidenzgrenze betrachten wir die
„obereu Verteilungsfunktion des Mittelwerts X an der Stelle der Beobachtung X
Da G(% I p) streng wachsend in p ist, läßt sich die untere Grenze f i ( X ) charakteri- U , &
sieren durch
(21) G[% I f i , ,(X)) = a bzw.
Also ist untere Grenze f i ( X ) das Minimum aller möglichen Werte p, die mit der Be- U , &
obachtung X in dem Sinn noch ,,verträglichu sind, daß die Wahrscheinlichkeit
G(X I p) für X oder gröflerer Werte noch mindestens ci! ist (vgl. Abb. 2)
- -
Pu, & X X Po, &
Abb 2: Normalverteilungsdichte des Mittelwerts X für verschiedene Werte von p zur Interpretation der unteren bzw. oberen Grenze nach (18) (19) bzw. (21) (22). D' ie mar- kierte Fläche entspricht der Wahrscheinlichkeit G(X I p) bzw. F(X I p).
3. Konfidenzgrenzen für den Erwartungswert 3.4.03 3 - 7
3.2 Asymptotische Konfidenzgrenzen für den Erwartungswert einer beliebigen Verteilung
Wir betrachten jetzt wieder den allgemeinen Fall mit beliebiger Verteilung von X.
Hierbei gehen wir davon aus, daß die Varianz o2 = Var(X) <CO unbekannt ist und
deshalb geschätzt wird durch (vgl. 2.2)
wobei natürlich n > 1 vorausgesetzt ist. Die zugehörige Schätzung der Standardab-
weichung 0(X) des Mittelwerts ist dann
-
(2) .(X) = 2 &(X) (geschätzte Standardabweichung von X). Jn
Ersetzt man in 3.1 einfach die Standardabweichung durch ihre Schätzung so er-
hält man die (geschätzte) Bandbreite
sowie die zugehörigen Grenzen
-
(4) fi (X) = fi(x)-J, = X-Ja (untere Grenze) U , a
-
(5) fi (X) = /?(X) + Ja = x+Ja (obere Grenze) 0, a
Diese Grenzen halten die vorgegebene Sicherheit 1- ci! zwar nicht exakt, aber - wie
wir im folgenden zeigen werden - zumindest approximativ ein, wobei die Approxi-
mation für wachsenden Stichprobenumfang n beliebig genau wird. Der Grund hier-
für ist einerseits, daß der standardisierte Mittelwert
approximativ standard-normalverteilt ist
(7> d ( U ) N N(0,l).
Genauer gilt nach 1.1 (5) - wobei wir den Umfang n als Index „(n)" mitführen
[SI V'") i n+ 00 N(0,l).
3. Konfidenzgrenzen für den Erwartungswert 3.4.03 3 - 8
Andererseits kann die geschätze Standardabweichung als Approximation der unbe-
kannten Standardabweichung verwendet werden
weil die Schätzung nach 2.2 (sogar stark) konsistent ist
Zusammen mit (8) ergibt sich unter Verwendung des Theorems von Slutzky (vgl.
Exkurs KV 5) die Verteilungskonvergenz
Für die Sicherheit der unteren Grenze
ergibt sich daher
und für die obere Grenze erhält man analog
Man interpretiert (13) bzw. (14) dahingehend, daß die untere bzw. obere Grenze die
asymptotische Sicherheit 1- a oder die asymptotische Irrtumswahrscheinlichkeit a hat.
Für die praktische Anwendung bedeutet dies, daß die Grenzen (4) und (5) die appro-
ximative Sicherheit
besitzen, wobei die Approximation für wachsendes n beliebig genau wird.
Bei den obigen Ausführungen haben wir von der speziellen Gestalt (1) der Varianz-
schätzung keinen Gebrauch gemacht, sondern nur ihre Konsistenz (10) ausgenutzt.
Folglich gelten alle Resultate dieses Abschnitts auch für jede konsistente Schätzung
8 2 ( ~ ) der Varianz, weil diese ebenfalls (10) erfüllt.
3. Konfidenzgrenzen für den Erwartungswert 3.4.03 3 - 9
Beispiel: Haltbarkeitsdauer eines Medikaments
Die Haltbarkeitsdauer X (in Tagen) eines spezifischen Medikamentes kann als Zu-
fallsvariable mit einer - ohne zusätzliche Untersuchungen - zunächst nicht bekann-
ten Verteilung betrachtet werden. Eine Verbraucherorganisation will eine untere
95%-Grenze fiU für die erwartete Haltbarkeitsdauer p = E(X) ermitteln. Bei n = 25
unabhängigen Messungen ergab sich der Mittelwert F = 107,5 mit einer Streuung
von &(F) = 12,7 - d. h. die Schätzung auf o war &(X) = 63,5. Aus dem 5%-Quantil
z = 1,645 ergibt sich die Bandbreite d5% = 20,9 und somit eine untere Grenze von 5%
", 5% = 86,6 Tagen. Man beachte, daß die Sicherheit dieser Grenze nur approximativ
95% beträgt.
3.3 Chebychev-Konfidenzintervalle für den Erwartungswert einer beliebigen Verteilung mit bekannter Varianz
Wenn im allgemeinen Fall mit beliebiger Verteilung von X zusätzlich die Varianz
o2 = Var(X) < co bekannt ist, so läßt sich unter Verwendung der Chebychev-Unglei-
chung ein Konfidenzintervall der Form
(X- Ca , X + C a )
1 2 konstruieren. Wegen E(X) = p und ~ a r ( X ) =; o ergibt sich mit der Chebychev-
Ungleichung
-112 1 Für c = a . -o gilt: a Jn
Da die Sicherheit P{ I X- p 1 < c } dieses Chebychev-Intervalls in der Regel deutlich a
gröJ3er ist als der angestrebte Wert 1 - a, spricht man auch von einem konservativem
Konfidenzintervall. Für das Standardniveau a = 0.05 ist ap1I2 = 4.47 und die Band-
breite ca ist z.B. mehr als doppelt so groß, als die Bandbreite d im Normalvertei- 4 2
lungsmodell. Das Chebychev-Konfidenzintervall ist mehr von theoretischem als
von praktischem Interesse, weil es stark konservativ ist und darüberhinaus in An-
wendungen typischerweise auch die Varianz unbekannt ist.
4. Konfidenzgrenzen für eine Wahrscheinlichkeit 4.4.03 4 - 1
4 Konfidenzgrenzen für eine Wahrscheinlichkeit
Es sollen jetzt Konfidenzgrenzen für eine Wahrscheinlichkeit p, also für den Erwar-
tungswert einer Bernoulli-Verteilung B(1, p) konstruiert werden. Wir beginnen mit
den sogenannten exakten Grenzen, deren Sicherheit exakt eingehalten werden und in 1 dem Sinne konservativ sind, daß die vorgegebene Irrtumswahrscheinlichkeit 0 < u <?
(bedingt durch die Unstetigkeit der Verteilungsfunktion der Bionomial-Verteilung)
nicht voll ausgeschöpft wird. Im Anschluß werden dann die auf der Normalapproxi-
mation der Bionomialverteilung basierenden asymptotischen (oder approximativen)
Grenzen behandelt.
Den Ausgangspunkt bildet eine Stichprobe mit n unabhängigen B(1,p)-verteilten
Zufallsvariablen XI, ... X mit 0 < p < 1. Da alle folgenden Betrachtungen nur von n
der Summe X . = Xl + ... +X mit B(n,p)-Verteilung abhängen, gehen wir vereinfa- +' n chend gleich von der B(n,p)-verteilten Zufallsvariable X aus, wobei wir den Index + „+" fortlassen, d.h. wir setzen X : =X+.
Die Wahrscheinlichkeit einer Realisierung X E (0, ... n} von X bezeichen wir mit
(Zähldichte von X)
Die Schätzung von p zur Beobachtung X ist (nach 1.2.1) die relative Häufigkeit
4.1 Konstruktion der exakten oberen Konfidenzgrenze
Für eine Realisierung X E (0, ... n} von X und wollen wir zuerst eine oberen Konfi-
denzgrenze $ (X) für p zur Sicherheit 1- u konstruieren. In Analogie zu 3.1 (19) 0, a
soll die obere Grenze das Maximum aller möglichen Werte p sein, unter denen die
Beobachtung X oder kleinere Werte noch mindestens die Wahrscheinlichkeit u besit-
zen. Hierzu betrachten wir die Verteilungsfunktion von X an der Stelle X
als Funktion in p. Aus der Ableitung
4. Konfidenzgrenzen für eine Wahrscheinlichkeit 4.4.03 4 - 2
ergibt sich die Monotonie-Eigenschaft
(3) F ( x 1 p ) ist streng fallend in p für X < n,
Als Grenzwerte für p+ 0 bzw. p+ 1 erhält man
weil
F(xl0) := lim F(x1p) = 1 . P-0
F(xl1) := lim F(x lp) = 0 P-1
für x < n
(7) 1 falls X = n
b ( x l n , l ) := lim b(x ln ,p ) = P-1 0 falls X < n
Für x < n definiert damit F(x lp ) als Funktion in p eine streng fallende, biektive
Funktion F(x I - ): [ 0,1] - [ 0,1]. Und im Fall X = n ist F(x 1 p) konstant
Für eine Realisierung X soll die obere Grenze j ( X ) maximal unter allen Werten p o,a
gewählt werden, bei denen die Wahrscheinlichkeit ~ ( x l p ) für die Beobachtung X
und kleinere Werte noch mindestens a ist (vgl. Abb. 1). Deshalb definieren wir
d.h. j ( X ) > 0 ist eindeutig bestimmt durch o,a
(10) p { X i ~ l j ~ , , ( ~ ) } = F ( x l j ( X ) ) = a 0, a
für X < n,
j (n) = 1 0, a
für X = n..
Die Irrtumswahrscheinlichkeit dieser oberen oberen Konfidenzgrenze ist allerdings nur
höchstens so groß wie die Vorgabe a
4. Konfidenzgrenzen für eine Wahrscheinlichkeit 4.4.03 4 - 3
(11) ~ { $ ~ , , ( x ) a p } = F ( L ~ ( Q ) I P ) < a wobei
L (a) = Max{ l=-1 , ..., nIF( l1p )<a} F
und somit ist die Sicherheit der oberen Konfidenzgrenze $ mindestens 1- a . Des- 0, &
halb bezeichnet man diese Konfidenzgrenze auch als konservativ im Bezug auf ihre
Sicherheit. Der Grund hierfür ist, daß die Binomial-Verteilung B(n, p) eine diskrete
Verteilung ist, deren Verteilungsfunktion F(x 1 p) in X = 0, ..., n unstetig ist und die
folglich nicht notwendig den vorgegeben Wert a - an der Stelle LF(a) - annimmt.
Abb. 1: Dichte der Verteilung von X (untere Skala) bzw. $ ( X ) (obere Skala) für ver- schiedene Werte von p und n = 100 zur Interpretation der exakten oberen und unte- ren Grenze für eine Beobachtung X. rechts: p = $ ( X ) und p = $ ( X ) aus 4.1 (9) bzw. (10) mit Wahrscheinlichkeit F(X 1 p)
0, als markierter Fläche. links: p = $ ( X ) und p = $ ( X ) aus 4.2 (3) bzw. (4) mit Wahrscheinlichkeit G(X 1 p)
U , & als markierter Fläche.
4.2 Konstruktion der exakten unteren Konfidenzgrenze
Für die Konstruktion einer unteren Konfidenzgrenze jU betrachten wir analog die
„oberen Verteilungsfunktion an der Stelle X als Funktion in p
mit den Eigenschaften
4. Konfidenzgrenzen für eine Wahrscheinlichkeit 4.4.03 4 - 4
(2) G ( x 1 p ) ist streng wachsend in p für X > 0 ,
Die untere Grenze 1; ( X ) soll nun minimal unter allen Werten p gewählt werden, U , a
bei denen die Wahrscheinlichkeit ~ ( x l p ) für die Beobachtung X und gröflere Werte
noch mindestens a ist (vgl. Abb. 1). Also definieren wir
(3) jU,,(x) := Min { 0 < p < l 1 ~ ( x l p ) > a }
= M i n { ~ < p < l l p { x > x l p } > a } (exakteuntereGrenze),
d.h. 1; ( X ) < 1 ist eindeutig bestimmt durch u,a
(4) p { x > ~ l @ ' ~ , , ( ~ ) } = G(x lp U , a ( X ) ) = a bzw.
P { X < X ~ ~ ; ~ , , ( X ) } = F(X-111; U , & ( X ) ) = I-a für X > O ,
1; (0) = 0 U , a für x=O .
Die Irrtumswahrscheinlichkeit dieser unteren Konfidenzgrenze ist höchstens so groß
wie die Vorgabe a
(5) P{ P < P ~ , ~ ( x ) 1 = G ( L ~ ( Q ) I P ) 5 a wobei
LG(a) = Min { 1 = 0, ..., n + 1 1 G(1 Ip) 5 a }
und somit ist die Sicherheit der unteren Konfidenzgrenze 1; mindestens 1- a, d.h. u,a
die untere Grenze ist ebenfalls konservativ.
4.3 Konstruktion des exakten zweiseitigen Konfidenzintervalls
Wegen 0 < a < ist die untere Grenze stets kleiner als die obere, d.h. es gilt
(1) &,,(X) < & , a ( ~ ) für O a x a n .
Bestimmt man nun die untere und obere Grenze jeweils zur halben Irrtumswahr-
scheinlichkeit (an Stelle von a), so ergibt sich das zweiseitige Konfidenz-Intervall
PI I,(x] = ( @'U,+(X) 7 jo, 42(x) (exaktes zweiseitiges Intervall)
4. Konfidenzgrenzen für eine Wahrscheinlichkeit 4.4.03 4 - 5
mit der (exakten) Sicherheit von mindestens 1- a, d.h. es gilt
4.4 Berechnung der exakten Grenzen
Leider läßt sich die exakte obere Grenze nur im Fall X = 0 und die untere Grenze
nur für X = n explizit angeben
11. j (n) = a . U, a
Für X < n läßt sich die obere Grenze nicht als explizite Funktion in X und a darstel-
len, sondern kann nur iterativ bestimmt oder aus Tabellen abgelesen werden. Die
obere Grenze j (X) ist die (eindeutige) Nullstelle der Funktion 0, a
und kann z.B. mit dem Newton-Verfahren oder einer („ableitungsfreien~ Intervall- X schachtelung ermittelt werden. Als Startwert bietet sich die Schätzung $(X) =, an -
sofern sie im offenen Intervall (0,l) liegt - oder man kann die asymptotische obere
Grenze aus 4.5 verwenden. Und die Änderung Ap =-H(p) / ~ ' ( p ) im Iterations-
schritt p - p + Ap ergibt sich aus der Ableitung
für X < n.
Die untere Grenze j (X) kann prinzipiell analog bestimmt werden, läßt sich aber u , a
für X > 0 wegen des Zusammenhangs ~ ( x l p ) = 1- F(x-1 lp) sogar formal auf die
Bestimmung einer oberen Grenze zurückführen:
(3) jU, &(X) = j0, I&- 1) für X > O .
Eine weitere Möglichkeit zur Bestimmung der unteren Grenze aus der oberen (oder
umgekehrt) beruht auf dem Zusammenhang
(4) WP) = F(n-xlq) mit q = ~ - p
der sich daraus ergibt, daß die Zufallsvariable Y = n - X eine B(n , q)-Verteilung hat.
Die untere Grenze für p ergibt sich dann als komplementäre Wahrscheinlichkeit
zur oberen Grenze für q, d.h.
4. Konfidenzgrenzen für eine Wahrscheinlichkeit 4.4.03 4 - 6
(5) &,,(X) = 1 - U,, ,(Y) mit y = n-X
Man kann diese Konfidenzgrenzen auch aus Quantil-Tabellen für die F-Verteilung
entnehmen (vgl. Exkurs V 3.1). Zwischen der Verteilungsfunktion mkl der
Fkl-Verteilung und der B(n,p)-Verteilung besteht folgender (exakter) Zusammen-
hang (der hier nicht hergeleitet wird)
W P { B ( ~ , ~ ) ~ X } = P { F ~ ~ > U } bzw. F ( ~ I p ) = l - @ ~ ~ ( u ) mit
k = 2(x+1) , 1 = 2 ( n - X ) , u=-.P 1 k I - p
Unter Verwendung des oberen a-Quantils Fkl;, der Fkl-Verteilung (vgl. Anhang T,
Seite 8-12) erhält man folgende Darstellung der Konfidenzgrenzen
(7) 1
&,,(X) = 1- (exakte untere Grenze) für 0 < X mit
k a = -.F k = 2(n-x+l) , 1 = 2 x . 1 k l ; a '
(8) a
&,,(X) = 1- (exakte obere Grenze) für X < n mit
k a = -.F k = 2 ( X + I), 1 = 2 ( n - X ) , 1 k l ; a '
Beispiel: Erfolg einer Therapie
In der Tagespresse wird berichtet, daß bei der Anwendung einer neuen Therapie in
nur j= 12% ein Versagen beobachtet wurde, wobei die Anzahl n = 25 der Anwen-
dungen und die beobachte Zahl X = n j = 3 des Versagens nicht genannt wird. Die
exakte obere 95%-K~nfidenz~renze der Versagenswahrscheinlichkeit p ergibt sich
aus (7) mit k = 8, 1 = 44, F - 2,157 und a = 0,3922 zu (vgl. auch 4.5 Abb. 3) k1;5% -
j = 28,2 % für n = 25, j= 12%. 0
Man beachte, daß diese oberen Grenzen - bedingt durch den kleinen Stichproben-
umfang n = 25 - mehr als doppelt so groß sind, wie die beobachtete Rate j= 12%.
Wenn bei dem vierfachen Umfang n = 100 auch wieder in j= 12% Fällen ein Versa-
gen beobachtet wird, d.h. X = n j = 12, so ergibt sich k = 26, 1 = 176, Fk1;5% = 1,669 und
a = 0,2303 die erheblich geringere obere Grenze
j = 18,7 % für n = 100, j= 12%. 0
4. Konfidenzgrenzen für eine Wahrscheinlichkeit 4.4.03 4 - 7
4.5 Asyrnptotische (approximative) Konfidenzgrenzen
Unter Verwendung der Normalapproximation für die Binomialverteilung B(n, p)
wollen wir jetzt sogenannte asymptotische Konfidenzgrenzen für p konstruieren,
deren Sicherheit nur approximativ gleich 1- a ist, wobei die Appproximation für
wachsendes n beliebig genau wird. Ausgangspunkt ist der Binomial-Grenzwertsatz
wobei
die Standardabweichung der B(1,p)-Verteilung als Funktion von p darstellt.
Für eine Realisierung X E (0, ... n} von X bezeichnen wir die Schätzung (relative
Häufigkeit) jetzt abkürzend mit
Unter Verwendung der Verteilungsfunktion @ von N(0,l) ergeben sich die (mit
wachsendem n besser werdenden) Approximationen der Funktionen F und G
Zur Konstruktion der asymptotischen oberen Grenze im Fall X < n wollen wir statt
der Gleichung F(x I n, p) = a jetzt die approximierte Gleichung lösen (vgl. Abb. 2)
(6) bzw. @(P - F) -
- za mit 4 ~ )
(7) 1 z = m- (1 - a) = - @-'(Cl)
a (oberes a-Quantil von N(0,l)).
Und analog wird im Fall X > 0 die untere asymptotische Grenze als Lösung der ap-
proximierten Gleichungverwendet (vgl. Abb. 2)
(8) bzw. @(P - F) - -
4 ~ ) - za
4. Konfidenzgrenzen für eine Wahrscheinlichkeit 4.4.03 4 - 8
Abb. 2: Normalapproximation der Dichte von X (untere Skala) bzw. der Dichte von $ ( X ) (obere Skala) für n = 100 und verschiedene Werte von p zur Interpretation der asymptotischen oberen Grenze P ( X ) (rechts) und der unteren Grenze P ( X ) (links)
0, a U , a für eine Beobachtung X. Die markierte Fläche entspricht der nach (4) bzw. (5) ap- proximierten Wahrscheinlichkeit F(x 1 p ) (rechts) bzw. G(x l p ) (links).
Zur Lösung der Gleichungen (6) bzw. (8) betrachten wir die quadratische Funktion
2 = .[(P-P,) - D ] mit
Wir werden jetzt zeigen, daß die Nullstellen der Funktion f die gesuchten asympto-
tischen Grenzen sind. Zunächst definieren wir die Grenzen als die Nullstellen von f
4. Konfidenzgrenzen für eine Wahrscheinlichkeit 4.4.03 4 - 9
(13) PO,,(x) : = Pm + C (asymptotische obere Grenze),
(14) Pu, &(X) := Pm -G (asymptotische untere Grenze).
und zeigen, daß die Grenzen die gewünschten Eigenschaften haben. Beide Grenzen
liegen im Intervall [0,1] und schachteln die beobachtete relative Häufigkeit F ein
Im Fall X = 0 bzw. X = n ist (wie bei den exakten Grenzen) die asymptotische untere
Grenze gleich 0 bzw. die obere Grenze gleich 1, und es gelten
(16) 0 = 13 U, a (0) < 13 0, a (0) < 1 ,
(17) o < P u , a (n) < P0,&(n) = I .
Und im Fall 0 < X < n gilt in (15) an keiner Stelle die Gleichheit
(18) O < P U,& (X) < F < Po,a(x) < i falls O < x < n .
Im Fall X < n ist die obere Grenze P (X) die einzige Lösung der approximierte 0, a
Gleichung (6) im Intervall (0,l). Und im Fall X > 0 ist die untere Grenze (X) die U, a
einzige Lösung der approximierte Gleichung (8) im Intervall (0,l).
Nachdem wir die asymptotischen Grenzen jetzt definiert haben, wollen wir zeigen,
daß sie approximativ die angestrebte Sicherheit 1- a haben. Aus den fundamenta-
len Äquivalenzen
(19) P,,(x) < P U X - np < z a .o(p) Jn , P < Po,a(~) U np - X < z a . D ( ~ ) Jn .
ergibt sich die Sicherheit dieser Grenzen zu
wobei die Approximationen für wachsenden Umfang n in Gleichheiten übergehen:
(21) 72-00 lim P ip<P 0, a (X)) = 1-Q, 72-00 lim P{P U,& ( X ) < p ) = 1-Q.
Man beachte, daß für ein konkretes n die Sicherheit des asymptotischen Grenze auch
geringer als 1- Q sein kann, während die exakte Grenze eine Sicherheit von minde-
4. Konfidenzgrenzen für eine Wahrscheinlichkeit 4.4.03 4 - 10
stens 1- ci! garantiert. Dies ist der Grund dafür, daß die asymptotischen Grenzen
typischerweise (aber nicht notwendigerweise) enger als die entsprechenden exakten
Grenzen sind, und somit das asymptotische Intervall (von unterer bis oberer
Grenze) im Intervall der exakten Grenzen enthalten ist (vgl. Abb. 3).
relative Häufigkeit in Prozent 100 95 90 85 80 75 70 65 60 55 50
65 0 35
0 5 10 15 20 25 30 35 40 45 50 relative Häufigkeit in Prozent
relative Häufigkeit in Prozent 100 95 90 85 80 75 70 65 60 55 50
0 5 10 15 20 25 30 35 40 45 50 relative Häufigkeit in Prozent
Abb. 3: Exakte und asymptotische untere und obere Grenzen für p zur (einseitigen) Sicherheit von 95% als Funktion der beoabachteten relativen Häufigkeit 2 = x / n für n = 25 und n = 100. Für 25 50% gilt die untere und linke Skala, und für - X 2 50% gilt die obere und rechte Skala. Das Intervall zwischen unterer und oberer Grenze hat eine Sicherheit von 90%.
links: exakte Grenzen mit Ablesebeispielen für 2 = 12% und 2 = 56%. rechts: Vergleich der exakten (Punkte) mit den asymptotischen (Linie) Grenzen. Die
exakten Grenzen sind typischerweise weiter von der relativen Häufigkeit entfernt als die asymptotischen. Der Unterschied wird bei wachsenden n geringer.
4. Konfidenzgrenzen für eine Wahrscheinlichkeit 4.4.03 4 - 11
Beispiel: Erfolg einer Therapie (Fortsetzung aus 4.4)
Für n = 25 und j= 12% ergeben sich die Hilfsgrößen aus (10) - (12) zu
und die asymptotische obere 95%-Konfidenzgrenze 13 für das Therapieversagen ist 0
deutlich geringer als die zugehörige exakte (und konservative) obere Grenze jo (vgl.
auch Abb. 4)
13 = 26,5 % , j = 28,2 % für n = 25, j= 12%. 0 0
Bei dem vierfachen Umfang n = 100 - auch wieder mit j= 12% - ergibt sich aus
die von der exakten Grenze nur gering abweichende asymptotische obere 95%-Konfi-
denzgrenze
13 = 18,3 % , j = 18,7 % für n = 100, j= 12%. 0 0
4.6 Grobe asyrnptotische (approximative) Konfidenzgrenzen
Wir wollen jetzt noch auf eine weitere Art asymptotische Konfidenzgrenzen für p
konstruieren. Wie zu Beginn des Kapitels erläutert können wir die B(n ,P)-verteilte
Zufallsvariable X auch als eine Summe unabhängiger B(1,p)-verteilter Zufallsvari-
ablen XI, ... Xn auffassen, und wir verwenden hier wieder die Bezeichnung X (statt + X). Für die Stichprobe X = (X1, ..., Xn) können wir jetzt wie im Abschnitt 3.2
asymptotischen Konfidenzgrenzen für den Erwartungswert ,LL = p von B(1, p) herlei-
ten (wobei wir statt ,LL jetzt p schreiben). Der Schätzer für p ist der Mittelwert
Da die Varianz von B(1,p) eine Funktion von p ist
ist es naheliegend die Varianz wie folgt zu schätzen
4. Konfidenzgrenzen für eine Wahrscheinlichkeit 4.4.03 4 - 12
Diese Schätzung auf a2(p) ist konsistent, weil $(X) eine konsistente Schätzung auf p
ist. Die Schätzung ist nicht erwartungstreu, aber zumindest asymptotisch erwartung-
streu, weil sie sich von der erwartungstreuen Schätzung
nur um den Faktor (n - 1) - 1 unterscheidet n- 00
(5) &(X)) = 'C i ( x ~ - X ) ~ = 8 2 ( ~ ) .
Wie bereits in 3.2 bemerkt, gilt die dort hergeleitete Verteilungskonvergenz für je- 2 den konsistenten Schätzer von a (P), also insbesondere auch für den Schätzer
a2($(x)), d.h.
Hieraus erhält man dann (wie in 3.2) die groben asymptotischen Grenzen für p
(7) (X) := $(X) -da (X) : = $(X) + damit U , a 0, a
deren Sicherheit für n + CO gegen 1 - ci! konvergiert:
(9) 72-00 lim P{; U , a ( X ) < p ) = 1-ci! = 72-00 lim P ip<; 0, a (X)) .
Wir haben die groben Grenzen hier nur aus Gründen der Vollständigkeit erwähnt.
Sie haben gegenüber den sogenannten normalen asymptotischen Grenzen aus 4.5
mehrere Nachteile, die daraus resultieren, daß sie über die Schätzung der Varianz
a2(p) eine zusätzliche Unsicherheit mit sich bringen. Typischerweise weicht die Si-
cherheit der groben Grenzen stärker von 1- ci! ab als die der normalen Grenzen.
Außerdem können die groben Grenzen auch außerhalb des Intervalls [ O , 11 liegen
(vgl. Abb. 4), und ergeben im Fall $ = XE {O,1) wegen da = 0 keine sinnvollen Werte.
Lediglich bei sehr großem Umfang n und nicht zu extremen Werten von $ (d.h.
nicht zu dicht bei 0 oder 1) sind die groben Grenzen akzeptabel. Da sie sich dann
aber auch nur geringfügig von den normalen Grenzen unterscheiden, ist es sicherer,
stets die normalen Grenzen zu verwenden, deren Bestimmung auch nur unwesent-
lich aufwendiger ist.
4. Konfidenzgrenzen für eine Wahrscheinlichkeit 4.4.03 4 - 13
relative Häufigkeit in Prozent 100 95 90 85 80 75 70 65 60 55 50
relative Häufigkeit in Prozent
relative Häufigkeit in Prozent 100 95 90 85 80 75 70 65 60 55 50
relative Häufigkeit in Prozent
Abb. 4: Grobe und asymptotische untere und obere Grenzen für p zur (einseitigen) Si- cherheit von 95% als Funktion der beoabachteten relativen Häufigkeit T = x/n für n = 25 und n = 100. Für T < 50% gilt die untere und linke Skala, und für T > 50% gilt die obere und rechte Skala. links: Die grobe untere (bzw. obere) Grenze ist für kleines (bzw. goßes) T sogar negativ (bzw. größer als 100%). rechts: Die Abweichung der groben (dünn) von den normalen (fett) Grenzen wird kleiner, je dichter P bei 50% liegt, und verringert sich bei wachsendem n.
Beispiel: Wahlumfrage
Wir betrachten eine Wahlumfrage (vgl. 0.3) und wollen Konfidenzgrenzen für den
Stimmanteil p einer interessierenden Partei bestimmen. Obwohl typischerweise nur
eine untere Konfidenzgrenze von Interesse ist, wollen wir jetzt ein zweiseitiges Kon-
fidenzintervall zur Sicherheit 1 - ci! = 95% angeben, um die Präzision der Umfrage
zu charakteriseren. Bei der konkreten Umfrage aus 0.3 war n = 1300 relativ groß
und deshalb kann man das grobe Konfidenzintervall aus (7) und (8) verwenden
- - ( Pu, a / 2 , Pu, a / 2 ) = ( P - da/2 , + da12) mit d = z .L JjqCj
4 2 J n
Aus z = 1,96 ergeben sich in Abhängigkeit von der Schätzung P folgende Band- 4 2
breiten bzw. Fehlertoleranzen (vgl. Grafik in 0.3 zur „Sonntagsfrage'?:
P = 50%: d = 2,72% bzw. = 5%: da/, = 1,18% . 4 2
Konfidenzgrenzen für den Erwartungswert einer Poisson-Verteilung 4.4.03 5 - 1
5 Konfidenzgrenzen für den Erwartungswert einer Poisson-Verteilung
Es sollen jetzt Konfidenzgrenzen für den Erwartungswert einer Poisson-Verteilung
konstruiert werden. Hierbei gehen wir völlig analog zur Konstruktion der Grenzen
für eine Wahrscheinlichkeit vor. Wir beginnen mit den sogenannten exakten Gren-
zen, deren Sicherheit exakt eingehalten werden und in dem Sinne konservativ sind,
daß die vorgegebene Irrtumswahrscheinlichkeit 0 < a < 1 (bedingt durch die Unste-
tigkeit der Verteilungsfunktion für die Poisson-Verteilung) nicht voll ausgeschöpft
wird. Im Anschluß werden dann die auf der Normalapproximation der Poissonver-
teilung basierenden asymptotischen (oder approximativen) Grenzen behandelt..
Zur formalen Vereinfachung betrachten wir zunächst nur eine Pois(,~~)-verteilte Zu-
fallsvariable X mit ,LL> 0 und behandeln den Fall mit unabhängigen Wiederholungen
von X erst a m Ende dieses Kapitels.
Für eine Realisierung X E No = U U {O) von X bezeichnen wir die zugehörige Wahr-
scheinlichkeit mit
5.1 Konstruktion der exakten oberen Konfidenzgrenze
Für eine Realisierung X E No von X und wollen wir zuerst eine oberen Konfidenz-
grenze f i (X) für ,LL zur Sicherheit 1- a konstruieren. Analog zu 4.1 soll die obere o,a
Grenze das Maximum aller möglichen Werte ,LL sein, unter denen die Beobachtung X
oder kleinere Werte noch mindestens die Wahrscheinlichkeit a besitzen. Hierzu be-
trachten wir die Verteilungsfunktion von X X
(1) F(x~,LL) := ~ { X S X I I L L ) = E ~ ( 2 1 ~ ) i = O
mit der Monotonie-Eigenschaft
(2) F(x 1 ,L) ist streng fallend in ,LL ,
die sich sofort durch Differenzieren nach ,LL ergibt, weil
(3) a - F(x~,LL) U) - P ( X I , L L ) 0 für X > 0, ,LL>O a,LL
Als Grenzwert für ,LL + 0 ergibt sich
Konfidenzgrenzen für den Erwartungswert einer Poisson-Verteilung 4.4.03 5 - 2
F(xl0) := lim F(x~,LL) = 1 P-0
weil
(5) 1 falls X = 0
p(xl0) := lim p(xllu> = P-0 0 falls X > 0
Und für ,LL + W erhält man
p ( x 1 ~ ) := lim p(x1p) = 0 , F(X~W) := lim F(x~,LL) = 0 . P-00 P-00
Damit definiert F(X~,LL) als Funktion in ,LL eine streng fallende, biektive Funktion
F(x 1 -): ( 0 , ~ ) - (0,l).
Für eine Realisierung X soll die obere Grenze fi (X) maximal unter allen Werten ,LL 0, a
gewählt werden, bei denen die Wahrscheinlichkeit F(X~ ,L) für die Beobachtung X
und kleinere Werte noch mindestens a ist (vgl. Abb. 1). Deshalb definieren wir
(7) fio,,(3") := Max{,LL>0 IF(xl,LL)>a}
= M ~ x { , L L > o 1 P { X < x l P } > a } (exakte obere Grenze),
d.h. fi (X) > 0 ist eindeutig bestimmt durch die Gleichung 0, a
(8) p { X < ~ l f i ~ , ~ ( x ) } = ~ ( x l f i ( x ) ) = a 0, a für 220.
Die Irrtumswahrscheinlichkeit dieser oberen oberen Konfidenzgrenze ist allerdings nur
höchstens so groß wie die Vorgabe a
(9) f i 0 , = F ( L ~ ( ~ ) I P ) a a wobei
LF(a) = Max{lEN0 I F ( l lp )<a} .
Folglich ist die Sicherheit der oberen Konfidenzgrenze fi mindestens 1- a und die 0, a
Konfidenzgrenze ist deshalb konservativ im Bezug auf ihre Sicherheit. Der Grund
hierfür ist, daß die Poisson-Verteilung Pois(p,) eine diskrete Verteilung ist, deren Ver-
teilungsfunktion F(x 1 ,L) in X E No unstetig ist und die folglich nicht notwendig den
vorgegeben Wert a - an der Stelle LF(a) - annimmt.
Konfidenzgrenzen für den Erwartungswert einer Poisson-Verteilung 4.4.03 5 - 3
Abb 1: Dichte der Pois(p)-Verteilung von X für verschiedene Werte von p zur Inter- pretation der exakten oberen und unteren Grenze für eine Beobachtung X.
rechts: p = X und p = fi (X) aus 5.1 (7) (8) mit Wahrscheinlichkeit F(X 1 p ) als 0, a
markierter Fläche. links: p = x und p = f i (X) aus 5.2 (3) (4) mit Wahrscheinlichkeit ~ ( x l p ) als
U, a markierter Fläche.
5.2 Konstruktion der exakten unteren Konfidenzgrenze
Für die Konstruktion einer unteren Konfidenzgrenze fiU betrachten wir analog die
„oberen Verteilungsfunktion 00
(1) G(xlp) : = P { X > x I p } = C p ( i l p ) = I - F(X-II ,L), 2=x
für die gilt:
(2) G(x I ,L) ist streng wachsend in p für X > 0 ,
Für X > 0 ergibt sich aus den Eigenschaften von F, daß G(x1-): ( 0 , ~ ) - (0,l)
eine streng wachsende, biektive Funktion
Die untere Grenze fi (X) soll nun minimal unter allen Werten p gewählt werden, U, a
bei denen die Wahrscheinlichkeit ~ ( x l p ) für die Beobachtung X und gröflere Werte
noch mindestens ci! ist (vgl. Abb. 1). Also definieren wir
(3) fiU,,(x) := Min{p>o 1 G ( x l p ) > a )
= { p > 0 I P{x > X 1 p} > CL) (exakte untere Grenze),
Konfidenzgrenzen für den Erwartungswert einer Poisson-Verteilung 4.4.03 5 - 4
d.h. f i ( X ) < 1 ist eindeutig bestimmt durch u,a
(4) p {x>~l f iu ,a (~ ) } = G(+ U , a ( X ) ) = a bzw.
P { X < X I P ~ , , ( X ) } = ~ ( x - l l f i U , a ( X ) ) = I-a für X > O ,
f i (0) =o U , a für x=O .
Die Irrtumswahrscheinlichkeit dieser unteren Konfidenzgrenze ist höchstens so groß
wie die Vorgabe a
(5) P{ P 5 fiu,a(x) 1 = G ( L ~ ( Q ) I P ) 5 wobei
LG(a) = M i n { l ~ N ~ I G ( l l p ) a a } ,
und somit ist die Sicherheit der unteren Konfidenzgrenze f i mindestens 1- a, d.h. U , a
die untere Grenze ist ebenfalls konservativ.
5.3 Konstruktion des exakten zweiseitigen Konfidenzintervalls
Wegen 0 < a < ist die untere Grenze stets kleiner als die obere, d.h. es gilt
für X > 0 .
Bestimmt man nun die untere und obere Grenze jeweils zur halben Irrtumswahr-
scheinlichkeit (an Stelle von a), so ergibt sich das zweiseitige Konfidenz-Intervall
PI I a x = ( fiu, a/2(x) 7 fio, or/2(x) (exaktes zweiseitiges Intervall)
mit der (exakten) Sicherheit von mindestens 1- a, d.h. es gilt
(3) ~ { f i ~ , ~ ~ ( X ) < P < f i ~ , ~ ~ ( X ) }
Konfidenzgrenzen für den Erwartungswert einer Poisson-Verteilung 4.4.03 5 - 5
5.4 Berechnung der exakten Grenzen
Leider läßt sich die obere Grenze nur im Fall X = 0 explizit angeben:
Für X > 0 läßt sich die obere Grenze nicht als explizite Funktion in X und a darstel-
len, sondern kann nur iterativ bestimmt oder aus Tabellen abgelesen werden. Die
obere Grenze ist die (eindeutige) Nullstelle der Funktion
und kann z.B. mit dem Newton-Verfahren oder einer („ableitungsfreien~ Intervall-
schachtelung ermittelt werden. Als Startwert bietet sich die Schätzung p(x) = X an
oder man kann die asymptotische obere Grenze aus 5.5 verwenden. Und die Ände-
rung A,LL = - H(,LL) /H'(,LL) im Iterationsschritt ,LL H ,LL + A,LL erhält man aus der
Ableitung
Die untere Grenze f i (X) kann prinzipiell ebenso bestimmt werden, läßt sich aber u , a
im nicht-trivialen Fall X > 0 wegen des Zusammenhangs G(x 1 ,L) = 1 - F(x- 1 I ,L) auf
die Bestimmung einer oberen Grenze zurückführen:
(4) fiu, = fio, l -a(~ - 1) für X > O .
Man kann diese Grenzen - im nicht-trivialen Fall X > 0 - auch aus Chiquadrat-Quan-
til-Tabellen bestimmen. Bezeichnet Gm die Verteilungsfunktion der Xi-~erteilung,
so besteht folgender (exakter) Zusammenhang (der hier nicht bewiesen wird)
(5) P { P O ~ S ( , L L ) L ) ~ X } = P { ~ ~ > ~ , L L } m- bzw. F(X~,LL) = 1-G,(~,LL) mit
2 Unter Verwendung des oberen a-Quantils X m; a der Xi-~ertei lung (vgl. Anhang T,
Seite 5-7) erhält man folgende Darstellung der Konfidenzgrenzen
(6) 1 2 fio, = 5 Xmia (exakte obere Grenze) für X 2 0, m = 2 (X + I),
(7) 1 2 fiu,a(x) )= 5 x ~ ; ~ - ~ (exakte untere Grenze) für X > 0, m = 2 X .
Konfidenzgrenzen für den Erwartungswert einer Poisson-Verteilung 4.4.03 5 - 6
5.5 Asyrnptotische (approximative) Konfidenzgrenzen
Unter Verwendung der Normalapproximation für die Poisson-Verteilung POZS(~)
wollen wir jetzt sogenannte asymptotische Konfidenzgrenzen für ,LL konstruieren, de-
ren Sicherheit nur approximativ gleich 1-a ist, wobei die Appproximation für
wachsendes ,LL beliebig genau wird. Ausgangspunkt ist der
Pois(P) - ,LL Poisson-Grenzwertsatz: N(0,l) für ,L+ W.
lF Unter Verwendung der Verteilungsfunktion @ von N(0,l) ergeben sich die (mit
wachsendem ,LL besser werdenden) Approximationen der Funktionen F und G
Zur Konstruktion der asymptotischen oberen Grenze wollen wir statt der Gleichung
F(xl ,L) = a jetzt die approximierte Gleichung lösen (vgl. Abb. 2)
(3) @(F) = a bzw. - Za mit P-X -
&
(4) 1 z = m- (1 - a) = - @-'(Cl)
a (oberes a-Quantil von N(0,l)).
Und analog wird - allerdings nur für X > 0 - die untere Grenze als Lösung der Glei-
chung G(x I ,L) = a approximiert durch die Lösung der Gleichung (vgl. Abb. 2)
(5) @(Y) = C)L bzw. P-X - -
& - za
Zur Lösung der Gleichungen (3) bzw. (5) betrachten wir die quadratische Funktion
(6) 2 2
f(P) = (P-X) -Pa
2 = (,L - - D mit
Konfidenzgrenzen für den Erwartungswert einer Poisson-Verteilung 4.4.03 5 - 7
Abb 2: Normalapproximation der Dichte von X für verschiedene Werte von p zur Interpretation der asymptotischen oberen Grenze ,Li ( X ) (rechts) und der unteren
0, a Grenze ,Li ( X ) (links) für eine Beobachtung X. Die markierte Fläche entspricht der
U a nach (1) bzw. (1) approximierten Wahrscheinlichkeit F(x 1 (rechts) bzw. G(x 1 (links).
Wir werden jetzt zeigen, daß die Nullstellen der Funktion f die gesuchten asympto-
tischen Grenzen sind. Zunächst definieren wir die Grenzen als die Nullstellen von f
(9) P,,(x) : = P , + J D (asymptotische obere Grenze),
(10) P U , & ( X ) : = ~ , - \ / D (asymptotische untere Grenze).
und zeigen, daß die Grenzen die gewünschten Eigenschaften haben. Beide Grenzen
sind nicht-negativ und liegen jeweils unter- bzw. oberhalb der Beobachtung X :
(11) 0 5 P U , a ( X ) 5 X < P 0, a (X> für X 2 0 .
Für X = 0 ist die asymptotische untere Grenze gleich 0
(12) P U , a (0) = 0
und stimmt folglich mit der exakten unteren Grenze überein. Und im Fall X > 0 gilt
in (11) an keiner Stelle die Gleichheit
(13) 0 < P (3 < X < P,,(x) für X > 0 . U , a
Die obere Grenze ,Li ( X ) ist die einzige Lösung p > 0 der approximierte Gleichung o,a
(3). Und im Fall X > 0 ist die untere Grenze ,Li ( X ) die einzige Lösung p > 0 der ap- u,a
proximierte Gleichung (5).
Konfidenzgrenzen für den Erwartungswert einer Poisson-Verteilung 4.4.03 5 - 8
Nachdem wir die asymptotischen Grenzen jetzt definiert haben, wollen wir zeigen,
daß sie approximativ die angestrebte Sicherheit 1- ci! haben. Aus den fundamentalen
Äquivalenzen
ergibt sich die Sicherheit dieser Grenzen zu
wobei die Approximationen für wachsendes ,LL in Gleichheiten übergehen:
(16) iim P{,LL<,~ (X)} = 1-Q, iim P{P (X)<,LL} = I-Q P-00 0, a P-00 U , a
Zum Vergleich der asymptotischen mit den exakten Grenzen betrachten wir die
relativen Abweichungen der asymptotischen von den exakten Grenzen
die in Abb. 3 für X = 1, ..., 100 und ci! = 1%, 5% dargestellt sind. Man erkennt einer-
seits, daß die Abweichungen typischerweise mit wachsender Beobachtung X gerin-
ger werden und andererseits, daß die Abweichungen der unteren Grenze deutlich
größer als die der oberen Grenze sind. Der gemeinsame Grund hierfür ist, daß die
Approximationen (1) und (2) für wachsendes ,LL besser werden.
Typischerweise ist die exakte obere Grenze gröJ3er als die asymptotische (und die
exakte untere kleiner als die asymptotische), weil die Irrtumswahrscheinlichkeit ci!
der exakten Grenze stets 5 ci! ist, während die asymptotische Grenze nur gegen ci!
konvergiert (und dabei auch >ci! sein kann).
Konfidenzgrenzen für den Erwartungswert einer Poisson-Verteilung 4.4.03 5 - 9
0 10 20 30 40 50 60 70 80 90 100 0 10 20 30 40 50 60 70 80 90 100 beobachtete Anzahl beobachtete Anzahl
10 - Abweichung: exakt - asymptotisch 20 - Abweichung: exakt - asymptotisch
Abb 3: Die relativen Abweichungen A (X) (links) und A (X) (rechts) (in Prozent) o,a u,a
als Funktion der Beobachtung X für ci! = 5% und ci! = 1%. Man beachte, die unterschiedliche Skalierung.
9 -
+
G 8- N - g 7- C - .-
5.6 Anwendung: Asbestmessungen in Schulgebäuden
obere einseitige Grenze untere einseitige Grenze
a = 1%, 5% a = 1%, 5%
Wir betrachten die im Abschnitt 0.2 beschriebene Asbestmessung in Schulgebäu-
den, und gehen dabei davon aus, daß die Anzahl X der Asbestfasern in einem Stich-
probenvolumen V (in hinreichender Näherung) Pois(,~~)-verteilt.
m -
0 ~ ~ ~ ~ I ~ ~ ~ ~ l ~ ~ ~ ~ l ~ ~ ~ ~ I ~ ~ ~ ~ I ~ ~ ~ ~ I ~ ~ ~ ~ I ~ ~ ~ ~ I ~ ~ ~ ~ l ~ ~ ~ ~ l 0 ~ ~ ~ ~ I ~ ~ ~ ~ l ~ ~ ~ ~ l ~ ~ ~ ~ I ~ ~ ~ ~ I ~ ~ ~ ~ I ~ ~ ~ ~ I ~ ~ ~ ~ I ~ ~ ~ ~ l ~ ~ ~ ~ l
1. Raum: Bei der Messung im ersten Raum wurden X = 2 Asbestfasern in dem aus-
gewerteten Stichprobenvolumen
gezählt. Die exakten (einseitigen) 95%-Grenzen - d.h. ci! = 5% - für die erwartete As-
bestfaser-Konzentration ,LL pro Volumen V ergeben sich aus 5.4 (6) (7) mit den 2 Quantilen x4; 95% = 0,711 und Xi;5% = 12,592 zu
fiU,,%(2) = 0,355 fiO,„(2) = 6,296 .
Und die zugehörigen asymptotischen Grenzen aus 5.5 (7)-(10) erhält aus
,LL = 3,553 und G= 2,691 zu m
Konfidenzgrenzen für den Erwartungswert einer Poisson-Verteilung 4.4.03 5 - 10
Und die entsprechenden Grenzen für die erwartete Konzentration X = ,LL/V pro m 3
ergeben sich hieraus (gerundet) zu
Man beachte, daß das Intervall von unterer bis oberer Grenze - das ja eine Sicher-
heit von 90% hat - mehr als eine Größenordnung umfaßt und somit noch relativ
ungenau ist. Dies liegt - wie auch das folgende Meßergebnis im 2. Raum zeigt - an
der geringen Zahl X = 2 der gezählten Fasern.
Beim Vergleich mit 0.2 Tabelle 2 ist zu beachten, daß dort die (gerundete) obere
Grenze des zweiseitigen 95%-Intervalls angegeben ist, also die mit ci! = 2,5% analog 3 (2) = 459/m bzw. AO, 2.5%
3 berechnete obere Grenze Xo, 2.5% (2) = 463/m .
2. Raum: Bei der Messung im zweiten Raum wurden X = 8 Asbestfasern in dem
ausgewerteten Stichprobenvolumen
gezählt. Und als (einseitige) 95%-Grenzen - d.h. ci! = 5% - für die erwartete Asbestfa- 3 ser-Konzentration ,LL hro Volumen V) bzw. X ( ~ r o m ) erhält man (gerundet)
Im Gegensatz zum 1. Raum ist hier die obere Grenze nur rund viermal so groß wie
die untere Grenze, weil insgesamt mehr Fasern (X = 8) gezählt wurden. Hätte man
beim 1. Raum das vierfache Volumen 4 V (statt V) ausgewertet und darin auch die
vierfache Anzahl von Fasern (also X= 8) gefunden, so ergäben sich wieder obige auf
X = 8 basierende Grenzen und entsprechend engere Grenzen für X = ,LL 1 4 V.
Beim Vergleich mit 0.2 Tabelle 3 ist zu beachten, daß dort die (gerundete) obere
Grenze des zweiseitigen 95%-Intervalls angegeben ist, also die mit ci! = 2,5% analog
berechnete obere Grenze Xo, 2.5% 3 (8) = 1029lm bzw. Xo,2.5% (2) = 1030lm 3 .
Konfidenzgrenzen für den Erwartungswert einer Poisson-Verteilung 4.4.03 5 - 11
5.7 Konfidenzgrenzen bei unabhängigen Wiederholungen
Sind (statt einer) jetzt n unabhängige Pois(p)-verteilte Zufallsvariablen XI, ..., Xn ge-
geben, so wird obige Konstruktion für die Summe X := Xl + ... + X durchgeführt, + n wobei
(1) X+ - ~ o i s ( ~ ( " ) ) mit ,LL(n) = n P.
Aus den (exakten) Konfidenzgrenzen für ergeben sich nach Division durch n 1 (4 die zugehörigen (exakten) Grenzen für ,LL =, ,LL
deren Irrtumswahrscheinlichkeit höchstens ol ist
Und die approximativen Grenzen für ,LL ergeben sich ananog aus denen für zu
Für wachsenden Stichprobenumfang n + CO konvergiert die Irrtumswahrscheinlich-
keit der approximativen Grenzen jeweils gegen ol:
wobei
Iim P{,LL<P (x(~))} = o l , n-00 U,, +
die Summe der ersten n Zufallsvariablen bezeichnet.
6. Konfidenzgrenzen im Normalverteilungsmodell 3.4.03 6 - 1
Konfidenzgrenzen im Normal-Verteilungsmodell
Wir betrachten jetzt wieder das Normalverteilungsmodell für die interessierende
Zufallsvariable X, d.h. wir setzen 2 (X) = ~ ( p , a ~ ) mit a2 > 0 voraus. Ausgangs-
punkt ist wieder eine Stichprobe X = (Xl, ..., Xn) mit n unabhängigen Wiederholun-
gen der Zufallsvariablen X. Nachdem wir bereits in 3.1 exakte Konfidenzgrenzen für 2 p bei bekannter Varianz a angegeben haben wollen wir jetzt auch exakte Grenzen
2 bei unbekanntem a konstruieren. Hierzu bestimmen wir zuerst die exakte Verteilung
der Varianzschätzungen aus Kapitel 2 (aus der sich dann auch exakte Konfidenz-
grenzen für die Varianz a2 ergeben). Als nächstes berechnen wir im Normalvertei-
lungsmodell die exakte Sicherheit der asymptotischen Grenzen für p aus 3.2, die dort
für eine beliebige Verteilung von X hergeleitet wurden. Da diese asymptotischen
Grenzen bei normalverteilten X die geforderte Sicherheit nicht exakt einhalten, leiten
wir entsprechende exakte Grenzen her. Diese exakten Konfidenzgrenzen für p hal-
ten auch bei beliebiger Verteilung von X die Sicherheit noch asymptotisch ein. Sie
entsprechen aber nicht genau den bisherigen asymptotischen Grenzen aus 3.2, son-
dern sind geringfügig weiter vom Mittelwert entfernt, wobei der Unterschied für
wachsenden Umfang n verschwindet.
6.1 Verteilung der Varianzschätzung
Die Verteilung des Schätzers &;(X) aus 2.1 für bekanntes p ergibt sich aus:
(1) ~ { ' c ( x ~ - ~ ) ~ } = a 2 i ~{:.&;(X)}=X: ~ Z W .
a2 2 J{&;(x)} = n . X n .
Zur Bestimmung der Verteilung des Schätzers & 2 ( ~ ) aus 2.2 für geschätztes p benö-
tigen wir ein Resultat über die Invarianz von unabhängigen N(0,l)-Verteilungen
unter orthonormalen Transformationen.
6. Konfidenzgrenzen im Normalverteilungsmodell 3.4.03 6 - 2
Theorem (Orthonormale Transformation von Normalverteilungen)
Z = (Z1, ..., ZJ sei ein kktor unabhängiger identisch verteilter Zufallsvariablen 3 mit Standard-Normalverteilung 2 ( Z . ) = N(0,l). Ferner sei C eine orthonormale
2 T nxn Matrix) dd.. es ist C = C-l. Dann gilt für den transformierten Zufallsvektor
Y = C Z mit den Komponenten Y1, ..., Yn:
(a) Y1, ..., Yn sind unabhängig und identisch N(0,l)-verteilt) d.h. 2 ( Y ) = 2 ( Z ) .
2 (a, IIYII = cy;= cz2= 1 1 ~ 1 1 ~ . 2 i
Die gemeinsame Verteilung beider Schätzer fi = X und 82 =LSXX für den Erwar- n-1
2 tungswert ,LL und die Varianz a ergibt sich dann aus:
(2) fi(X) = X und 8 2 ( ~ ) = L C (X.-X)~ sind stochastisch unabhängig. n-1 i 2
(3) 4x1 = N(P, $) , - 2 2 (4) . ~ { - $ ? ( x ~ - x ) } = x ~ - ~ , bzw. ~ { 8 ~ } = * . n-1 Xn-1.
6.2 Konfidenzgrenzen für den Erwartungswert bei geschätzter Varianz im Normalverteilungsmodell
Da wir in 3.2 bereits Konfidenzgrenzen des Erwartungswerts mit der asymptoti-
sehen Sicherheit 1- ci! bei beliebiger Verteilung von X hergeleitet haben, wollen wir
jetzt die exakte Sicherheit dieser Grenzen für normalverteiltes X bestimmen. Hierbei
wird sich herausstellen, daß die exakte Sicherheit dieser Grenzen für festen Umfang
n stets kleiner als die angestrebte Sicherheit 1- ci! ist, obwohl sie für n + CO (sogar
monoton aufsteigend) gegen 1- ci! konvergiert. Als Konsequenz daraus werden wir
dann eine (mit wachsendem n geringer werdende) „Korrekturu der asymptotischen
Grenzen aus 3.2 einführen, die bei normalverteiltem X stets die exakte Sicherheit
1 - ci! haben.
Zur Berechnung der exakten Irrtumswahrscheinlichkeiten der asymptotischen
Grenzen benötigt man die exakte Verteilung der geschätzten Standardisierung des
Mittelwerts X
6. Konfidenzgrenzen im Normalverteilungsmodell 3.4.03 6 - 3
Die Verteilung von T(X) ist eine (zentrale) t-Verteilung (vgl. Exkurs V 2.1)
&(X-P) mit m = n-1
m
Bezeichnet Gm die Verteilungsfunktion der tm-Verteilung, so ergibt sich die Sicher-
heit sowohl der oberen als aus der unteren asymptotischen Grenze aus 3.2 zu
(4) P{X-Z a &(X) < P ) = G m (Z a ) = P { ~ < X+za&(@).
Man kann zeigen (worauf wir hier verzichten, vgl. aber die Tabellen T 2), daß diese
exakte Sicherheit stets kleiner als die anvisierte Sicherheit 1- a ist, weil
(5) 1 (z ) < 1 - a für jedes n und 0 < a <
n a
Unter Verwendung des oberen a-Quantils t der tn-Verteilung, definiert durch n, a
(6) t n ,a :=mpl(l-a) n bzw.
P{t > t ) = a n - n ,a
0 tn;a t-Dichte mit a-Quantil
ergeben sich mit der Bandbreite
jetzt Konfidenzgrenzen zur exakten Sicherheit 1- a
-
(8) fi U , a (X) = fi(x)-Jn;& = X - J n; a (untere Grenze)
(9) fi (X) = fi(X) + J,;, = X + Jn;& (obere Grenze) 0, a
d.h. für diese Grenzen gilt
6. Konfidenzgrenzen im Normalverteilungsmodell 3.4.03 6 - 4
(10) P { f i U , a ( X ) < ,L} = 1 - Q = P { p < f i 0, a ( X ) }
Die Grenzen (8) und (9) sind stets weiter vom Mittelwert X entfernt als die asymp-
totischen Grenzen aus 3.2, denn (5) ist äquivalent zu
(11) za < t 1 n; a für jedes n und 0 < a < .
Grob gesprochen sind die gegenüber 3.2 hier etwas weiteren Grenzen der Preis da-
für, daß man die unbekannte Varianz o2 geschätzt hat. Allerdings wird der Unter-
schied der Bandbreite $ zu $& für wachsendes n geringer, weil die t-Quantile t n; a '?C'!
für m+ co gegen z konvergieren (vgl. Exkurs V 2.1 und Tabellen T 2) a
(12) t n,a - Z n+oo a'
Wie in 2.1 wollen wir noch eine andere Interpretation der Konfidenzgrenzen ange-
ben und betrachten hierzu für eine Realisierung X = (xl, ..., xn) von X die Vertei-
lungsfunktion der geschätzten Standardisierung T ( X ) des Mittelwerts X an der
Stelle des beobachten Wertes T(x )
Da @ eine streng wachsende Funktion ist, läßt sich die obere Grenze f i ( X ) da- m 0, a her auch charakterisieren durch
(14) F ( ~ ( x ) I fi0,,(x)) = a bzw.
(15) fio,,(x> = Max { P E I R I F (T(X) Ip) > a ) .
Damit ist obere Grenze f i ( X ) das Maximium aller möglichen Werte P, die mit der 0, a
Beobachtung T (x ) in dem Sinn noch ,,verträglichu sind, daß die Wahrscheinlichkeit
F(T(X) 1 P ) für T(x ) oder kleinerer Werte noch mindestens a ist.
Für eine analoge Interpretation der unterer Konfidenzgrenze betrachten wir die
„obereu Verteilungsfunktion von T ( X ) an der Stelle der Beobachtung T(x )
und erhalten die Charakterisierung der unteren Grenze f i ( X ) U , a
(17) G(T(x) I f i u , a ( ~ ) ) = a bzw
6. Konfidenzgrenzen im Normalverteilungsmodell 3.4.03 6 - 5
Damit ist untere Grenze f i (X) das Minimum aller möglichen Werte p,, die mit der U , a
Beobachtung T(x) in dem Sinn noch ,,verträglichu sind, daß die Wahrscheinlichkeit
F(T(X) I ,L) für T(x) oder gröflerer Werte noch mindestens U ist.
6.3 Asymptotische Konfidenzgrenzen für den Erwartungswert bei geschätzter Varianz in beliebigen Verteilungsmodellen
Im beliebigen Verteilungsmodell - d.h. X ist nicht notwendig normalverteilt - haben
die für das Normalverteilungsmodell in 6.2 konstruierten Konfidenzgrenzen für den
Erwartungswert zumindest noch die asymptotische Sicherheit 1-U, d.h. es gelten:
Der Beweis basiert auf der Konvergenz der t-Quantile gegen die Normalvertei-
lungs-Quantile (vgl. Exkurs Q2 oder V2.1):
(4) l i m t n n;a =Z a
Bei praktischen Anwendungen stellt sich nun die Frage, ob man die Konfidenzgren-
Zen aus 3.2 mit der approximativen Sicherheit oder die etwas „weiterenu Grenzen
aus 6.2 verwenden soll, die bei normalverteiltem X die Sicherheit exakt einhalten.
Ein pragmatisches Vorgehen ist, bei stetig verteiltem X vorsichtshalber die weiteren
Grenzen aus 6.2 zu benutzen (die ja bei der Normalverteilung die Sicherheit exakt
einhalten), und bei diskretem X die Grenzen aus 3.2 zu bestimmen, wobei der Unter-
schied beider Methoden bei wachsendem n verschwindet. Für konkrete Verteilungs-
modelle (z.B. Binomial- oder Poisson-Verteilung) sollte man immer die hierfür spe-
ziell konstruierten (exakten oder asymptotischen) Grenzen (vgl. Kapitel 4 bzw. 5)
verwenden.
6. Konfidenzgrenzen im Normalverteilungsmodell 3.4.03 6 - 6
Bleigehalt im Apfelsaft: Zur Bestimmung des Bleigehalts X [in mg/l] einer Apfel-
saftsorte werden von einer Verbraucherorganisation n = 25 zufällig ausgewählte
Flaschen analysiert. Dabei ergab sich ein Mittelwert von F = 0,520 als Schätzung
des erwarteten Bleigehalts ,LL = E(X), und 8 = 0,471 als Schätzung der Standardab-
weichung von X. Als obere Konfidenzgrenze für ,LL zur Sicherheit von 99% ergibt
sich mit t2,, = 2,492
dl%, 25 = 0,235 fio, 1% = 0,755 .
6.4 Konfidenzgrenzen für die Varianz
Aus der Kenntnis der Verteilung der Varianzschätzung können wir jetzt Konfidenz-
grenzen für die Varianz o2 herleiten, wobei wir uns auf den realistischen Fall be-
schränken, daß auch der Erwartungswert ,LL unbekannt ist und geschätzt wird. Be- 2 zeichnet X 2 das obere a-Quantil der xm-Verteilung, so ergibt sich eine einseitige
m; a untere bzw. obere Konfidenzgrenze 82 bzw 82 für die Varianz o2 zur Sicherheit
U , a o,a 1-a wie folgt:
- 2 - 2 m . 0 m . 0 - (1) 82 - - , 8 2 - -
2 2 mit m = n - 1 ,
U , a 0,a Xm; a Xm; 1-a
d.h. es gelten
Ein zweiseitiges Konfidenzintervall zur Sicherheit 1 - a ergibt sich wieder aus obigen
Grenzen mit statt a, d.h. es gilt
6. Konfidenzgrenzen im Normalverteilungsmodell 3.4.03 6 - 7
Bleigehalt im Apfelsaft (Fortsetzung): Aus der Stichprobe (vgl. 6.3) vom Umfang
n = 25 mit 8 = 0,471 [mg/l] soll ein zweiseitiges 95%-Konfidenzintervall für die Va-
rianz a2 bzw. Standardabweichung a des Bleigehalts X [in mg/l] einer Apfelsaft- 2 sorte konstruiert werden. Aus 5 = 2,5% und den Quantilen x ~ ~ , a12 = 39,364 und
2 2 1 -42
= 12,401 ergeben sich die Grenzen für a bzw. a
bzw.
7. Schätzen einer Verteilungsfunktion 4.4.03 7- 1
7. Schätzen einer Verteilungsfunktion
Nachdem wir für eine interessierende Zufallsvariable X bisher ihren Erwartungs-
wert ,LL = E(X) und ihre Varianz o2 = Var(X) geschätzt haben, wollen wir jetzt die
gesamte Verteilung 2(X) schätzen. Die Verteilung von X ist eindeutig bestimmt
durch die Verteilungsfunktion F: IR+ [ O , 11 von X, definiert durch
(1) F ( a ) = P { X < a } für ~ E I R (Verteilungsfunktion von X ).
Somit ist die Verteilungsfunktion F zu schätzen, d.h. die Wahrscheinlichkeiten
P { X < a} sind für jedes ~ E I R zu schätzen. Für die folgenden Betrachtungen wer-
den weder der Erwartungswert noch die Varianz von X benötigt und wir wollen
deshalb deren Existenz in diesem Kapitel nicht voraussetzen.
Ausgangspunkt der statistischen Betrachtungen ist wieder eine Stichprobe
X = (Xl, ... , X n ) mit n unabhängigen Wiederholungen von X, sowie eine konkrete
Realisierung X = (X , X ) von X. 1' ... n
7.1 Die empirische Verteilung der Stichprobe
Die empirische Verteilung der Stichprobe X = (xl, .., xn) E IRn ist definiert als diskretes
Wahrscheinlichkeitsmaß P auf der Menge Z := { xi 1 1 < i < n} aller (verschiedenen)
Komponenten von X mit der Zähldichte
n 1 1 (1) ~ ( z ) = P ( z I x ) : = # { l < i < n l x ~ = z } = - C I n . { z } (X.) 2 f Ü r z ~ Z ,
2=1
wobei IA die Indikatorfunktion für das Ereignis A. bezeichnet. Folglich ist ~ ( z ) die
relative Häufigkeit des Wertes z in der Stichprobe (xl, ..., X,). Allgemeiner ist für
jede Borel-Menge B E IB
die relative Häufigkeit des Ereignisses B in der Stichprobe. Die Verteilungsfunktion
F = F (- 1 X) von P heißt die empirische Verteilungsfunktion der Stichprobe X und ist für
a E IR gegeben durch:
7. Schätzen einer Verteilungsfunktion 4.4.03 7- 2
Die Stichprobe X soll jetzt nach Werten ihrer Komponenten aufsteigend geordnet
werden. Hierfür betrachten wir eine (nicht notwendig eindeutig bestimmte) Permu-
tation 4 auf der Indexmenge (1, ..., n) mit der Eigenschaft
(4) X < X < . . . < X 1) - 2 ) - - (4 wobei (i) = $(i) .
Die empirische Verteilungsfunktion hängt dann nur noch über die geordnete Stich-
probe (x(~) , x ( ~ ) , ..., x ( ~ ) ) von X ab:
(5> ~ ( a ) = ~ ( a l x ) = I n ~ a x { l < i < n l X G) < U ) - für a E IR.
Mit dem Zufallsvektor X = (Xl, ..., Xn) anstelle der Realisierung X = (xl, ..., X ) er- n
hält man die i-te Order-Statistik X von X mit (i)
(6) X < X < . . . < X 1) - 2 ) - - (4 sowie den empirischen Prozefl F(- '(-X) = F als eine Zufallsfunktion auf IR.
7.2 Eigenschaften der empirischen Verteilung
Für jede Borel-Menge B E B ist die Zufallsvariable ~ B I X ) eine erwartungstreue
Schätzung auf die Wahrscheinlichkeit P{XE B), d.h.
Diese Schätzung ist (stark) konsistent und asymptotisch normalverteilt, d.h. für
n + w und P(~)(B) = P(B >(B ~ ( ~ 1 ) gelten:
(2) P f s P(~)(B) - P{XE B) (starke Konsistenz),
falls
7. Schätzen einer Verteilungsfunktion 4.4.03
Insbesondere ist für jedes Argument ~ E I R ist die Zufallsvariable $'(alX) =
j>((-w,a] I x ) eine erwartungstreue Schätzung auf die Wahrscheinlichkeit F(a) =
P{X<a), d.h.
Und diese Schätzung ist (stark) konsistent und asymptotisch normalverteilt, d.h.
für n + w und (U) = P(a I gelten:
(5) P f s F ("1 (U) - F(a) (starke Konsistenz),
falls
Die starke Konsistenz gilt sogar gleichmäJ32g in a E IR, d.h. es gilt das :
Theorem von Glivenko-Cantelli:
Für n + w gilt: P f s sup 1 ~ ( ~ ) ( a ) - F(a) I - 0 . agIR
Beweis: vgl. z.B. Gänssler-Stute (1977), Seite 145.
Am Rande sei bemerkt, daß sich die asymptotische Normalität in einem geeigneten
Funktionenraum auch für den gesamten stochastischen Prozeß formulieren
läßt in folgender Form (vgl. z.B. Billingsley (1968), Seite 141 ff.)
wobei Wo(F) eine Transformation der Brownschen Brücke Wo ist.
7. Schätzen einer Verteilungsfunktion 4.4.03 7 - 4
7.3 Anwendung: Verteilung des Lebensalters
Lebensalter der 1974 gestorbenen 367 251 Frauen empirische Dichte (Histogramm)
0 10 20 30 40 50 60 70 80 90 100 Lebensalter [Jahre]
Lebensalter der 1974 gestorbenen 360 243 Männer empirische Dichte (Histogramm)
Lebensalter der 1974 gestorbenen 367 251 Frauen empirische Verteilungsfunktion
90
0 10 20 30 40 50 60 70 80 90 100 Lebensalter [Jahre]
Lebensalter der 1974 gestorbenen 360 243 Männer empirische Verteilungsfunktion
90
0 10 20 30 40 50 60 70 80 90 100 0 10 20 30 40 50 60 70 80 90 100 Lebensalter [Jahre] Lebensalter [Jahre]
Abb. 1: Verteilung des Lebensalters aller 1974 in der Bundesrepublik Deutschland gestorbenen Frauen (oben) und Männer (unten) links: empirische Dichte (Histogramm), rechts : empirische Verteilungsfunktion.
7. Schätzen einer Verteilungsfunktion 4.4.03
Die Verteilung des Lebensalters X eines Verstorbenen ist z.B. für Lebensversicherer
von großem Interesse. Die Verteilung von X hängt von mehreren Faktoren ab (z.B.
Geschlecht , Nationalität bzw. ethnische Herkunft) und unterliegt auch zeitlichen
Einflüssen (z.B. Kriege und Naturkatastrophen). Folglich ist die Schätzung einer Le-
bensalterverteilung nur für spezifizierte Teilpopulationen sinnvoll.
Im Statistischen Jahrbuch der Bundesrepublik Deutschland ist das Lebensalter (Genau-
igkeit: Jahr) der in einem Kalenderjahr Gestorbenen für das männliche und wei-
bliche Geschlecht getrennt angegeben. Abb. 1 zeigt die Zähldichte P (empirische
Dichte) in Histogramm-Darstellung (Wahrscheinlichkeiten werden durch Flächen
dargestellt) und die empirische Verteilungsfunkrion F jeweils für die 1974 Gestorbe-
nen getrennt nach Geschlecht.
8. Schätzen von Quantilen und Momenten 5.4.03 8 - 1
8. Schätzen von Quantilen und Momenten
Nachdem wir im letzten Kapitel die Verteilungsfunktion F einer Zufallsvariablen X
geschätzt haben, sind wir nun in der Lage beliebige Parameter T(F) E IR der Vertei-
lungsfunktion - und somit der Verteilung von X - zu schätzen. Wir wollen jetzt ei-
nige solcher Parameter T(F) näher untersuchen, und zwar einerseits den Median so-
wie beliebige Quantile von X bzw. F (vgl. Exkurs Q Quantile von Verteilungen) und
andererseits beliebige Momente von X (darunter den schon betrachteten Erwar-
tungswert und die Varianz), deren Existenz vor Gebrauch jeweils vorausgesetzt
wird.
Ausgangspunkt der statistischen Betrachtungen ist wieder eine Stichprobe
X = (Xl, ... ,Xn) mit n unabhängigen Wiederholungen von X, sowie eine konkrete
Realisierung X = (X , xn) von X. Da sich die Verteilungsfunktion F einer Zufalls- 1' ...
variablen durch die empirische Verteilungsfunktion F schätzen läßt, ist es nahelie-
gend, einen unbekannten Parameter T(F) durch den zugehörigen Wert 7 = T($) für
die empirische Verteilungsfunktion zu schätzen. Aufgrund der guten Eigenschaften
der Schätzung F (vgl. Kapitel 7) wird die Schätzung 7 zumindest dann gute Eigen-
schaften haben, wenn T(F) „hinreichend glatt" von F abhängt (was hier nicht weiter
präzisiert werden soll)..
8.1 Schätzen des Medians
Der Median f von X ist definiert als ein 50%-Quantil von X bzw. F (vgl. Exkurs Q
Quantile von Verteilungen), d.h. es gilt
(I) p{x<f}a+ap{xaf} bzw. F((-) a + 5 F(f) .
(Median f von X bzw. F)
Wir setzen hier voraus, daß der Median f von X eindeutig bestimmt ist, d.h. es gibt
genau ein f mit (1).
Als Schätzung des Medians f aus der Stichprobe X soll jetzt der Median (genauer:
ein Median) der empirischen Verteilungsfunktion F = 4- 1 X) definiert werden.
8. Schätzen von Quantilen und Momenten 5.4.03 8 - 2
Für ungeraden Stichprobenumfang n hat F genau einen Median, den Stichproben-
Median [(X), gegeben durch
^ - 1 1 (2) [(X) = F (- 1 X) = F (- 1 X) = X
2 - 2 (4 Stichpro ben-Median für
ungerades n = 2 I% - 1
wobei F bzw. F die links- bzw. rechts-stetige Inverse von F ist (vgl. Exkurs Q 2),
und X die i-te Order-Statistik von X ist. (i)
Für geraden Stichprobenumfang n gibt es keinen eindeutig bestimmten Median von
F, und der Stichproben-Median [=[(X) wird definiert als Mittelwert des kleinsten
und größten Medians von F
(3) [ = i ( ~ ( k ) + ~ ( k + ~ ) ) Stichproben-Median für gerades n = 2 5
mit ~ ( ~ 1 = F - (i I X) , - 1
- F- 1 X)
Für wachsenden Stichprobenumfang n+cc ist der Stichproben-Median
[(n):= [(x(~)) eine konsistente Schätzung des Medians E, d.h. es gilt
(4> [ P, n+ 00 f ur .. n+cc (Konsistenz).
Beispiele:
Der Median E von N(,LL,D~) stimmt mit dem Erwartungswert ,LL überein. Fol-
glich kann man ,LL sowohl durch den Mittelwert als auch durch den Median [ der Stichprobe schätzen.
Der Median E der tl-Verteilung ist 0, und allgemeiner ist der Median E der
Cauchy-Verteilung C(a ,ß) = a + Ptl der Lageparamter E = a. Folglich kann
a durch den Median [ der Stichprobe geschätzt werden (man beachte, daß hier
kein Erwartungswert existiert!).
8. Schätzen von Quantilen und Momenten 26.11.03 8 - 3
8.2 Schätzen eines Quantils
Anstelle des Medians wollen wir jetzt für ein beliebiges 0 < p < 1 das p-Quantil von
X bzw. F schätzen (vgl. Exkurs Q Quantile von Verteilungen), wobei wir wieder die
Eindeutigkeit des p-Quantils voraussetzen, d.h. es gelte P
(1) Ep = F ( P ) = (P-Quantil von F).
Als Schätzung von aus der Stichprobe X soll ein p-Quantil der empirischen Ver- PA
teilungsfunktion F = F(- 1 X) gewählt werden, welches aber im allgemeinen nicht ein-
deutig bestimmt ist, weil
PI mit k = M i n { i ~ N I p < ; } ,
(3> C ( p I x ) mit m = ~ i n { i ~ N I p < ; } > k ,
wobei X die i-te Order-Statistik von X = (X ..., xn) ist. Als Schätzung von E wollen (4 1' P wir jetzt irgendein p-Quantil [ von F zulassen, d.h. für [ soll nur gelten
P P
(4) F - ( P I x ) < $ ( x ) < F - ( P I x ) (Schätzung des p-Quantils)
Für wachsenden Stichprobenumfang n i CO ist das Stichproben-p-Quantil [(n) = P
[ eine konsistente Schätzung des p-Quantils E , d.h. P P
(Konsistenz).
Wenn die Verteilung von X eine stetige Dichte f besitzt so ist die Quantilschätzung
sogar asymptotisch normalverteilt, sofern f(f ) > 0 ist. Genauer gilt das Resultat P
(was hier nicht bewiesen wird, vgl. z.B. Dudewicz und Mishra 1988, Theorem 7.4.21):
Theorem (Asymptotische Normalbuerteilung der Quantilschätzung):
Wenn X eine stetige Dichte f = F' besitzt und f(f ) > 0 ist, so gilt P
(6) &([F)- E,) -i N(O,I) mit 2 P . [ ~ - P I
D (E,) = 4 E P n+ 00 f(EPI2
8. Schätzen von Quantilen und Momenten 5.4.03 8 - 4
Abb. 1: Dichten und Verteilungsfunktion (mit Median) diskreter Verteilungen (Sprungstellen sind durch einen Punkt besonders gekennzeichnet)
Dichte von B(n,p) für n=5, p=0,4
Dichte der Einpunktverteilung Dirac(a) Verteilungsfunktion der Einpunktverteilung Dirac(a) 1,o-
0,5 -
1,o-
0,5
a a
8. Schätzen von Quantilen und Momenten 5.4.03 8 - 5
Abb. 2: Dichten und Verteilungsfunktion (mit Median) stetiger Verteilungen
Dichte der stetigen Gleichverteilung SG(a,b)
Dichte der Exponentialverteilung mit Erwartungswert Exponential-Verteilungsfunktion mit Erwartungswert 1,o-
0,5
T I I I I
8. Schätzen von Quantilen und Momenten 5.4.03 8 - 6
8.3 Schätzen von Momenten
Für SE IN ist das k-te Moment von F bzw. X definiert durch
(1) P;(F) = P;(X) = E(xk) (k-tes Moment von X).
Es wird aus einer Stichprobe X = (xl, ..., xn) geschätzt durch
(empirisches k-tes Moment)
Der zugehörige Schätzer p ; (~ ( - I X)) = I C X ~ ist erwartungstreu und (stark) konsi- n 2
stent. Insbesondere ergibt sich für k = 1 als Schätzung des Erwartungswerts
(3) P = E(Xi) = P;(F)
der bereits in Kapitel 1 betrachtete Mittelwert der Stichprobe.
(4) fi=p;(F(- I X)) = X .
Das k-te zentrale Moment von F bzw. Xi ist
k (5) pk(F) = pk(X) = E{ (X - P) 1 (k-tes zentrales Moment von X).
wobei speziell
Als Schätzung von pk(F) wird das zugehörige zentrale Moment der empirischen
Verteilungsfunktion verwendet
(empirisches k-tes zentrales Moment).
Mit der binomischen Formel lassen sich (bei vorgegebenem Erwartungswert p) die
zentralen Momente pk durch die nicht-zentralen Momenten p; darstellen und um-
gekehrt:
8. Schätzen von Quantilen und Momenten 5.4.03 8 - 7
Mit (6) ergeben sich z.B. das 2. und 3. zentrale Moment nach (8) zu
Speziell ergibt sich mit den Schätzungen f i = F und F anstelle von ,LL und F der ent-
sprechende Zusammenhang der empirischen Momente
Insbesondere ist der Schätzer P~($'(- I X)) = C(X.- X)k des k-ten zentralen Mo- n ,
ments nach (12) eine stetige Funktion aller (nicht-zentralen) Momenten-Schätzer
,LL' (fl- 1 X)) für j = O , ..., k (inclusive des Mittelwerts X). Aus der Konsistenz der k-j (nicht-zentralen) Momente-Schätzer ergibt sich daher auch die Konsistenz der zen-
tralen Momente-Schätzer.
Allerdings ist der Schätzer P~(F(- I X)) im allgemeinen nicht erwartungstreu, denn
z.B. für 5 = 2 ist das zweite zentrale Moment die Varianz
- 2 Und deren Schätzung ,LL~($'(- I X)) = C(Xi-X) unterscheidet sich von der er- 2
wartungstreuen Varianzschätzung 82 aus 2.2 (1) um den Faktor n/(n-1) und ist da-
her nicht erwartungstreu.
Parametrische Modelle und Exponential-Familien 26.7.02 9 - 1
9. Parametrische Modelle und Exponential-Familien
Unser Ausgungspunkt ist jetzt eine Stichprobe in Form eines beliebigen n-
dimensionalen Zufallsvektors X = (X1, ..., X,) : ( O , d , P ) + (IRn, BR), dessen Kom-
ponenten X . - im Gegensatz zu den bisherigen Betrachtungen - im allgemeinen we- 2
der stochastisch unabhängig noch identisch verteilt sein sollen.
9.1 Parametrische Verteilungsmodelle
Das Wahrscheinlichkeitsmaß P soll jetzt durch ein Modell so eingeschränkt wer-
den, daß es in einer vorgegeben Klasse P von Wahrscheinlichkeitsmaßen auf (0, d ) liegen soll. Die Klasse P soll hierbei durch einen S-dimensionalen Parameter
S B = (Q1, ..., Qs) E IRs mit Werten in einem Parameterraum B C IR parametrisiert sein
S Wir wollen weiter voraussetzen, daß der Parameterraum B C R sowohl offen als
auch konvex ist (d.h mit je zwei Punkten Bl und B2 aus B liegt auch ihre Verbin-
dungsstrecke {t Bl + (1- t) B2 I 0 < t < 1) noch ganz in B). Im Spezialfall S = 1 bedeu-
tet dies, daß B C IR stets ein offenes Intervall ist.
Obwohl der Parameter B in den meisten Anwendungen durch P, eindeutig be-
stimmt sein wird, wollen wir dies nicht explizit fordern, d.h. es ist auch P, =P,, für
B s B ' zugelassen.
Die Gültigkeit des parametrischen Modells P bedeutet dann
(2) PE P bzw. P=P, f ü r e i n B ~ B .
Die Verteilung L ( X ) = PX-l wird durch das parametrische Modell ebenfalls einge-
schränkt auf Verteilungen der Form L,(X) = P,x-', d.h. es gilt
Da man sich in der Statistik primär für die Verteilung von X (und weniger für den
zugrunde liegenden Wahrscheinlichkeitsraum ( O , d , P ) interessiert) wird ein para-
metrisches Modell meist durch die zugehörige Verteilungsklasse {L,(X) I BEB}
- anstelle der Klasse P - spezifiziert.
Parametrische Modelle und Exponential-Familien 26.7.02 9 - 2
Ein parametrisches Verteilungsmodell wird meist durch eine parametrisierte Fami-
lie von Dichten fe = f(- 18) : IRn + IR spezifiziert. Für jedes B E 0 ist hierbei fe eine
Dichte der Verteilung Le(X) bzgl. eines von B unabhängigen a-endlichen Maßes u
auf (IRn,IBn), und es gilt
(4) P o { X E B ) = Sfgdv für jedes BEB^ und B E 0. B
Die wichtigsten Spezialfälle sind der stetige Fall (d.h. X ist stetig verteilt), bei dem
U = An das Lebesguemafl ist, und der diskrete Fall (d.h. X ist diskret verteilt), bei dem
u das abzählende Mafl ist. Man beachte, daß die Verteilung Le(X) stets auf den Trä-
ger { fe > 0) C IRn konzentriert ist.
Schreibweise: Alle von der Verteilung Le(X) abhängigen Größen, wie z.B. der Er-
wartungswert einer Funktion g :IRn+ IR von X werden in der Regel (aber nicht
immer) auch mit dem Parameter B indiziert, also z.B.
Spezialfall: Identische Wiederholungen
Ein besonders einfache Situation liegt vor, wenn die Komponenten Xi der Stich-
probe X unabhängige Wiederholungen einer Zufallsvariablen X sind. Dann ist die
Verteilung von X das n-fache Produktmaß der Verteilung von X
Die folgenden - bisher schon betrachteten - parametrischen Verteilungsmodelle für
X liefern daher auch ein entsprechendes parametrisches Modell für L(X)
Normal-Verteilungsmodell : L ( X ) E { N ( , L L , ~ ~ ) I ,LL , a E IR, a > 0) 2 Falls ,LL und a unbekannt sind, so ist B = (,L, a ) der unbekannte Parameter mit
0 = IRx ( 0 , ~ ) . 2 2 Wird a bzw. ,LL als bekannt vorausgesetzt, so ist 8 = p bzw. 8 = a .
Parametrische Modelle und Exponential-Familien 26.7.02 9 - 3
Gamma-Verteilungsmodell: 2 ( X ) E {Gam (a,ß) I a ,PE IR, a, ß> 0)
Falls a und ß unbekannt sind, so ist 8 = (a,ß) der unbekannte Parameter mit
B = ( 0 , ~ ) X ( 0 , ~ ) . Falls a oder ß als bekannt vorausgesetzt werden, so ist I9 der
jeweils andere noch unbekannte Parameter. Für a = l beispielsweise ist
Gam(a,ß) = E x p o ( ~ ) eine Exponentialverteilung mit Erwartungswert ,LL = ß.
Binomial-Verteilungsmodell: 2 ( X ) E { B(1 ,P) I 0 < p < 1) Hier ist I9 = p der unbekannte Parameter und B = (0, l ) .
Poisson-Verteilungsmodell : 2 (X) E { P o ~ s ( ~ ) I ,LL > 0)
Hier ist I9 = ,LL der unbekannte Parameter und B = ( 0 , ~ )
Wenn - wie in den vier obigen Verteilungensmodellen - die Verteilung von X durch
eine parametrisierte Dichte fX(- 18) :IR +IR (bzgl. des Lebesgue- bzw. des abzäh-
lenden Maßes) spezifiziert ist, so ergibt sich die zugehörige Dichte von X (bzgl. des
entsprechenden n-fachen Produktmaßes) zu
(7) f9(x) = n f ~ x ~ ~ e ) für alle X = ( X 1' ..., X n ) E IRn i= l
9.2 Parametrische Exponential-Familien
Die wichtigen Verteilunsklassen für stetige Verteilungen (Normal- und Gammaver-
teilung) und für diskrete Verteilungen (Binomial- und Poisson-Verteilung) haben wir
bisher nur einzeln untersucht. Wir wollen jetzt einen Rahmen schaffen, in dem sich
diese (und andere) Verteilungsklassen gemeinsam behandeln lassen.
Hierzu gehen wir davon aus, daß die Verteilung Jg (X) einen von B E B unabhängi-
gen Träger Tr E I B ~ hat, d.h.
(I> P9{Xc Tr) = 1 für jedes 8 E B,
und daß für jedes B E B die U-Dichte fg von Jg (X) auf dem Träger Tr folgende Ex-
ponentialdarstellung besitzt
(2) f 9 ( ~ ) = S(X I 8) = ~ X P { a(e) Tb(x) + (6) + d (X) 1 S
= '"P { C aJe) bs(x) + C (6) + d (X) 1 für X E Tr. s =l
Parametrische Modelle und Exponential-Familien 26.7.02 9 - 4
S Hierbei sind a = (al, ..., a ) : B i R und C : B i R vorgebene Funktionen des Pa- s S rameters, und b = (bl, ..., bs) : T r i R und d : T r i R sind meßbare Funktionen
auf dem Träger. Eine Dichte-Familie dieser Form (2) heißt eine n-dimensionale S-pa-
rametrige Exponential-Familie. Man beachte, daß die Funktionen a, b, c und d durch
(2) nicht eindeutig bestimmt sind. Entscheidend ist bei der Exponentialfamilie die
additive Zerlegung der log-Dichte
T bei dem der gemeinsame Einfluß von 8 und X über das Produkt a(8) b(x) „ge-
trennt" wird.
Die Eigenschaft, eine Exponentialfamilie zu sein, ist offenbar nicht von der speziel-
len Parametrisierung abhängig, denn bei einer Umparametrisierung X = g(8) bzw.
B = g-'(X) mittels einer bijektive Abbildung g : B 1 1 1 des Parameterraums B in ei- S nen Parameterraum AC R , sind nur die Parameterfunktionen a und c zu ersetzen
durch a o g-l und c o g-':
Eine weitere Eigenschaft der Exponentialfamilie ist die Invarianz gegenüber einer
umkehrbaren meßbaren Transformation G: T r i Tr' E Bn, für die auch die Um-
kehrfunktion G-' meßbar ist. Der transformierte Zufallsvektor X ' := G(X) hat
dann die Dichte fgo G-' bzgl. des Bildmaßes UG-' von u unter G, und diese Dich-
ten bilden wieder eine Exponentialfamilie mit den Funktionen b o G-' und d o G-'
anstelle von b und d.
Der Einfachheit halber wollen wir von Anfang an folgende Forderungen an die Pa-
rameterfunktionen a und c stellen
(FI) Die Funktionen a und c sind zweimal stetig differenzierbar.
(F2) Das Bild 9 := a [B] C IRS von a ist offen und konvex, und die-
Umkehrfunktion a p 1 : 9 i B existiert und ist stetig.
Parametrische Modelle und Exponential-Familien 26.7.02 9 - 5
Die Funktion a liefert daher eine Umparametrisierung
(6) $ = a ( e ) E 9 ~ Z W . e = ap'($) E O,
und 4 wird auch als der kanonische Parameter bezeichnet. UnterVerwendung des ka-
nonischen Parameters läßt sich die Dichte (2) in der Form schreiben
(7) f$(x) =f (x I4) = e x ~ { 4 ~ b ( x ) - h ( 4 ) + d ( x ) } mit X E Tr,
wobei die Funktion h : 9. IR definiert ist durch
(8) h(4) : = - c(a- '(4)) für 4 E 9.
Hierbei ist h(4) bzw. c(8) ist nur eine Normierungskonstante, die sich daraus ergibt,
daß das Integral der Dichte über dem Träger stets 1 sein muß.
Die Funktion h wird auch als Kumulanten-Funktion bezeichnet, weil sie (bis auf ad-
ditive Konstanten) der Kumulanten-erzeugenden Funktion Ky des S-dimensionalen
Zufallsvektor Y = b(X) entspricht:
Der Erwartungswert und die SxS-Covarianzmatrix von Y ergeben sich daher aus
den Ableitungen von h im Punkt 4
(10) E (Y) = ~ h ( $ ) ~ = V h ( $ ) ii
für 4 E 9, bzw.
a E (Y = h(4)
ii s für s = 1, ..., S ,
(11) Cov (Y)=D2h($) ii
für 4 E 9, bzw.
cov (Yr,Ys) = ii
für r , s = l , ..., S .
Wir wollen noch eine weitere Forderung an die Funktion h stellen
(F3) D2 h(4) ist positiv-definit für jedes 4 E 9.
Diese Bedingung läßt sich wegen (9) auch äquivalent als eine Forderung an den S-
dimensionalen Zufallsvektor Y formulieren:
Parametrische Modelle und Exponential-Familien 26.7.02 9 - 6
(F3)' Für jedes t E IRs mit t t 0 und jedes 4 E P ist die Verteilung 2 (tTy) T ii
der Linearkombination t Y = tlYl + ... + tsYs keine Einpunkt- ,7.
I Verteilung, d.h. es gilt Var ( t " ~ ) > 0 . ii I Insbesondere sind die Komponenten von Y (P -fast sicher) linear unabhängig. ii
9.3 Binomial-Verteilung
Für festes n E IN sei X eine Zufallsvariable mit Binomialverteilung B(n,p). Dann
hat X den von p unabhängigen Träger Tr = { O , l , ..., n) und die Zähldichte von X
lautet
(1) fP(4 = ( Z ) P"(~-P)~-" für X E Tr.
Unter Verwendung der bijektiven Logit-Transformation logit : (0,l) + IR (vgl. Abb. 1)
mit
(2) P iogit(p) = log (-) = log(p) - log(1- P) für ~ < p < l ,
1-P
(3) e Y - -
1 logit-l(y) = - für y E IR ,
1 + eY i + e c Y
ergibt sich die Darstellung der log-Dichte
(4) log fp(x) = logit(p) . X + n log (1 - p) + log ( Z ) = a(p) X + ~ ( p ) + d(x) für X E Tr
Für festes n bildet daher die Klasse { B(n I 0 < p < 1) der Binomialverteilungen
eine (eindimensionale) einparametrige Exponentialfamilie mit dem Parameter
19 = p E 0 = (0,1), wobei die Funktion b die Identität ist. Der kanonische Parameter
ist $ = a(p) = logit(p) mit !P = IR als Parameterraum, und die log-Dichte läßt sich
daher auch schreiben als
für X E Tr,
mit der Kumulanten-Funktion
Parametrische Modelle und Exponential-Familien 26.7.02 9 - 7
(6) h($)=nlog( l+eG) für $ E IR
Die Kumulanten-erzeugende Funktion KX der Zufallsvariablen X (die hier mit
Y = b(X) übereinstimmt) lautet nach 9.2 (9) daher
(7) KX(t) = h(t + $1 - h(d) für t E IR.
Die Kumulanten von X ergeben sich daher als Ableitungen von h im Punkt $
und insbesondere ist
(9) EG(X) = r¿,(X) = hl($) = n p
Var (X) = K ~ ( X ) = hl1($) = n p ( l - ~ ) G
mit p = logitP1($) .
Man beachte, daß die Forderungen (FI), (F2) und (F3) hier erfüllt sind.
Y Logit-Skala
Abb. 1: Die Logit-Funktion und Konstruktion einer Logit-Skala (rechte Horizontale) durch „orthogonale Reflektion" der unteren Achse an der Funktion
Parametrische Modelle und Exponential-Familien 26.7.02 9 - 8
9.4 Poisson-Verteilung
X sei eine Zufallsvariable mit Poissonverteilung Pois(p). Dann hat X den von p
unabhängigen Träger Tr = No = U u{O) und die Zähldichte von X lautet
(1) 1 X -F
f,(~) = ,P für X E Tr,
d.h. die log-Dichte besitzt die Darstellung
(2) log fp(x) = log(p) . X - p - log (X!)
= a(p) . X + ~ ( p ) + +(X) für X E Tr
Folglich bildet die Klasse {Pois(p) I p > 0) der Poissonverteilungen eine (eindimen-
sionale) einparametrige Exponentialfamilie mit dem Parameter 19 = p E E = (0, CO),
wobei die Funktion b die Identität ist. Der kanonische Parameter ist der log-Erwar-
tungswert + = a(p) = log(p) mit !P = IR als Parameterraum, und die log-Dichte läßt
sich daher auch schreiben als
(3> 1% f&) -)= + X - h(+) )+ d(x) für X E Tr,
mit der Exponentialfunktion als Kumulanten-Funktion, d.h. h = exp. Die Kumulan-
ten-erzeugende Funktion KX der Zufallsvariablen X (die hier mit Y = b(X) überein-
stimmt) lautet nach 9.2 (9) daher
(4) KX(t) = exp(t + + ) - ~xP(+) für t E IR.
Die Kumulanten von X sind die Ableitungen von h = exp im Punkt +, und stimmen
somit alle überein
und insbesondere ist
(6) p = exp(+) = E i1, (X) = Var+(X) .
Man beachte, daß die Forderungen (FI), (F2) und (F3) hier erfüllt sind.
Parametrische Modelle und Exponential-Familien 26.7.02 9 - 9
9.5 Normal-Verteilung
X sei eine Zufallsvariable mit Normalverteilung ~ ( p , a ~ ) . Dann hat X den von p
und a2 unabhängigen Träger Tr = IR und die Lebesgue-Dichte von X lautet
d.h. die log-Dichte besitzt die Darstellung
2 2 Folglich bildet die Klasse {N(p,a ) 1 p E IR, a > 0) der Normalverteilungen eine
(eindimensionale) zweiparametrige Exponentialfamilie mit dem Parameter 2 2 8 = ( p , a ) E E = IRx (O,a?) , wobei bl(x) = X und b2(x) = X ist. Der kanonische Pa-
rameter 1/> = $2) ist gegeben durch
2 P 2 1 (3) d l = a l ( p , ~ ) = - 7 $2 = a2(p,g ) = - - bzw.
02 202
$1 p = - - 2 1 D = - -
W 2 ' W 2
mit dem Parameterraum !P = IR X (-W, 0). Die Bedingungen (FI), (F2) und (F3)'
sind wieder erfüllt. Wir untersuchen jetzt noch die Fälle, bei denen einer der beiden 2 Parameterkomponenten a oder p als bekannt vorausgesetzt sind.
Fall 1: Die Varianz a" ist bekannt.
Dann ist der Parameter 8 = p E E = IR eindimensional und wegen
(4) l o g f ( x I ~ ) = -2 2 -2 1 2 -2 p . x a - ( 0 +log(211a2)) - ? . X 0
2
2 bildet die Klasse {N(p,a ) I PER) der Normalverteilungen bei fester Varianz a 2
eine (eindimensionale) einparametrige Exponentialfamilie mit dem Parameter -2 p E IR, wobei b(x) = x a ist. Der kanonische Parameter ist hier $ = a(p) = p wieder
Parametrische Modelle und Exponential-Familien 26.7.02 9 - 10
der Erwartungswert. Die Wahl der Funktionen a und b ist nicht zwingend, man -2 kann z.B. auch a(p) = p a und b(x) = X wählen, was wir hier aber nicht tun wollen.
Die Kumulantenfunktion h : IR + IR ist dann wegen Si = p gegeben durch
(5) 2 h(p) = - ~ ( p ) = + (p2ap2 + log (2110 ) ) .
2 Mit 9.2 (9) erhält man die Kumulanten-erzeugende Funktion von Y = b(X) = C X
(6) 2 Ky(t) = ( + t 2 + t p ) a - ,
2 und hieraus ergibt sich die Kumulanten-erzeugende Funktion von X = a Y zu
(7) 2 1 2 2 KX(t) = Ky(a t) = 5 t a + t p .
Fall 2: Der Erwartungswert p ist bekannt.
2 Dann ist der Parameter 19 = a E O = ( 0 , ~ ) eindimensional und wegen
(8) log f(xla2) = 1 -2 . -- 2 2 2 (1-4 - I l o g 2 (2110 )
= a(a2) b(x) + c(a2)
2 bildet die Klasse { ~ ( p , a ~ ) I a > 0) der Normalverteilungen bei festem Erwar-
tungswert p eine (eindimensionale) einparametrige Exponentialfamilie mit dem Pa- 2 rameter a > 0, wobei b(x) = (X- p) ist. Der kanonische Parameter ist hier
Parametrische Modelle und Exponential-Familien 26.7.02 9 - 11
9.6 Gamma-Verteilung
X sei eine Zufallsvariable mit Gammaverteilung Gam(a,ß). Dann hat X den von a
und ß unabhängigen Träger Tr = ( 0 , ~ ) und die Lebesgue-Dichte von X lautet
(1) f(xI.,ß) = ß - " x " - ' e ~ ~ ( - " I ß ) Ir(a) für x > 0 .
d.h. die log-Dichte besitzt die Darstellung
Folglich bildet die Klasse {Gam(a,ß) I a,ß> 0 ) der Gammaverteilungen eine (ein-
dimensionale) zweiparametrige Exponentialfamilie mit dem Parameter
B = (a , ß) E O = (o,w)~, wobei bl(x) = log(x) und b2(x) = X ist. Der kanonische Para-
meter $ = ($', $2) ist gegeben durch
1 (3) = al(a,ß) = ? $2 = a2(a,ß) = - - ß
bzw.
1 a = $, , ß = - -
$2
mit dem Parameterraum !P = (0, W) X (-W, 0). Die Bedingungen (FI), (F2) und
(F3)' sind wieder erfüllt. Wir untersuchen jetzt noch die Fälle, bei denen einer der
beiden Parameterkomponenten ß oder a als bekannt vorausgesetzt sind.
Fall 1: Der Skalenparameter ß ist bekannt.
Dann ist der Parameter 19 = a E O = (0, W) eindimensional und wegen
(4) logf(xIa) = a .10g(x) - (a log(ß) + log r(a)) - (P- ' X + log(x))
- - a . b(x) + ~ ( 4 + 4x1
bildet die Klasse {Gam(a,ß) I a> 0) der Gammaverteilungen bei festem Skalen-
parameter ß eine (eindimensionale) einparametrige Exponentialfamilie mit dem
Formparameter a > 0, wobei a die Identität und b(x) = log(x) ist. Der kanonische
Parameter ist daher $=a, und die Kumulantenfunktion h lautet
Parametrische Modelle und Exponential-Familien 26.7.02 9 - 12
Die Kumulanten-erzeugende Funktion Ky der Zufallsvariablen Y = log(X) lautet
nach 9.2 (9)
(6) Ky(t) = h( t+a) - h(a) für t >-a,
und die Kumulanten von Y ergeben sich als Ableitungen von h im Punkt a
(7) K r (Y) = hlr)(a) für ~ E N .
Insbesondere ist
(8) EJY) = K,(Y) = hl(a) = log(ß) + (log q ( a ) ,
Vara(Y) = K ~ ( Y ) = hl'(a) = (logT)"(a) .
Fall 2: Der Formparameter a ist bekannt.
Dann ist der Parameter 19 = ß E O = (0 ,W) eindimensional und wegen
bildet die Klasse {Gam(a,ß) I ß> 0) der Gammaverteilungen bei festem Formpa-
rameter a eine (eindimensionale) einparametrige Exponentialfamilie mit dem Ska-
lenparameter ß > 0, wobei die Funktion b die Identität ist.
9.7 Cauchy-Verteilung
X sei eine Zufallsvariable mit Cauchy-Verteilung C(a,ß) . Dann hat X den von a
und ß unabhängigen Träger Tr = IR und die Lebesgue-Dichte von X lautet
d.h. die log-Dichte besitzt die Darstellung
(2) log f (X I a,ß) = - log (P 2+ (X- a12) + log (P . <I) .
Folglich bildet die Klasse C(a,ß) der Cauchy-Verteilungen keine zweiparametrige
Exponentialfamilie mit dem Parameter (a,ß) E IRx ( 0 , ~ ) . Auch wenn einer der
beiden Parameter ß bzw. a festgehalten wird, so liegt keine eindimensionale Expo-
nentialfamilie bzgl. des anderen Parameter a~ IR bzw. ß > 0 vor.
10. Maximum-Likelihood Schätzung 26.7.02 10- 1
10. Maximum-Likelihood Schätzung von Parametern
Für die bisher geschätzten Verteilungsparameter ( E r ~ a r t u n ~ s w e r t , Varianz, Quan-
tile) haben wir - unter Berücksichtigung der inhaltlichen Bedeutung dieser Parame-
ter - intuitiv plausible Schätzer angeben können und deren Eigenschaften dann un-
tersucht. Wir wollen jetzt eine universelle Methode zum Schätzen von Parametern
näher betrachten: die Maximum-Likelihood-Schätzung.
Unser Ausgangspunkt ist - wie im letzten Kapitel 9 - eine Stichprobe in Form eines
beliebigen n-dimensionalen Zufallsvektors X = (X1, ..., X,) : ( O , d , P ) + (IRn,lBn),
dessen Komponenten Xi im allgemeinen weder stochastisch unabhängig noch iden-
tisch verteilt sein sollen. Weiter sei ein parametrisches Verteilungsmodell für 2 ( X )
durch eine parametrisierte Familie von Dichten fg = f(- 18) : IRn + IR spezifiziert,
d.h. für jedes B E B ist fB eine Dichte der Verteilung J B ( X ) bzgl. eines von B unab- S hängigen a-endlichen Maßes U auf (IRn,lBn). Der Parameterraum O C IR sei wieder
offen und konvex.
10.1 Likelihood und Schätzung
Für eine Realisierung X E IRn von X kann man die Dichte fg(x) = f(x 18) an der
Stelle X als Funktion des Parameters B betrachten und erhält so die Likelihood-
Funktion L = L (- 1 X): O + IR für X, definiert durch
Als Maximum-Likelihood Schätzung (kurz: ML-Schätzung) für die Realisierung X be-
zeichnet man jede Maximalstelle der Likelihoodfunktion, d.h. jedes 4 E O mit
Dies ist äquivalent dazu, daß 4 eine Maximalstelle der log-Likelihoodfunktion log L
ist, d.h.
(3) log L (4 1 X ) = Max log L (B 1 X ) . B € @
10. Maximum-Likelihood Schätzung 26.7.02 10- 2
Man beachte, daß logL (BI X ) nur dann endlich ist, wenn fg(x) > 0 gilt, d.h. wenn X
im Träger Trg von fg liegt, wobei
(4) Srg := { X 1 fg(x) > 0 ) (Träger von fg ).
Obwohl weder die Existenz noch die Eindeutigkeit der ML-Schätzung im allgemeinen
gesichert ist, kann man die eindeutige Existenz der ML-Schätzung in vielen wichti-
gen Situationen nachweisen. Wenn es mindestens eine ML-Schätzung für X gibt, so
bezeichnet d(x) stets eine solche ML-Schätzung. Dadurch ist implizit eine ML-
Schätzfunktion 4-1 auf einer Teilmange des IRn definiert, die jeder Realisierung X
eine ML-Schätzung zuordnet, falls mindestens eine solche existiert.
Ersetzt man die Realisierung X durch den Zufallsvektor X, so ergibt sich die Zu-
fallsvariable L(B I X ) = fg(X), die man als Likelihood-Variable bezeichnet. Und falls
die ML-Schätzfunktion 4 meßbar ist (was unter geeigneten Bedingungen stets der
Fall ist), so ist 4 (X) ein S-dimensionaler Zufallsvektor, den man als ML-Schätzer be-
zeichnet.
Bes t immung der ML-Schätzer d u r c h Differentiation
Wenn die Likelihood-Funktion log L = log L (- I X ) auf dem offenen Parameterraum
O cIRS endlich und %mal stetig differenzierbar (bzgl. B) ist, so lassen sich die Maxi-
malstellen 4 von logL und somit die ML-Schätzungen für die Realisierung X durch
Differentiation bestimmen. Die erste Ableitung D log L(B) von log L im Punkt B ist
der S-dimensionale Zeilenvektor, d.h. die I x S Matrix
und die zweite Ableitung log L(B) von log L im Punkt B ist die S x S Matrix
Da O offen ist, ist jede Maximalstelle BE O von logL auch ein lokales Maximum und
somit notwendigerweise ein kritischer Punkt von log L, d.h. eine Lösung der S-dimen-
sionalen (im allgemeinen nicht-linearen) Likelihood-Gleichung
10. Maximum-Likelihood Schätzung 13.11.03 10- 3
Damit ist die Bestimmung einer ML-Schätzung zunächst auf die Lösung der Likeli-
hood-Gleichung zurückgeführt, deren Lösungen sich im allgemeinen nur iterativ
(z.B. mit dem Newton-Verfahren) bestimmen lassen.
Ein hinreichendes Kriterium dafür, daß eine Lösung B E O der Likelihood-Gleichung
auch ein lolcales Maximum ist, lautet
(7) D2 log ~ ( 8 ) ist negativ-definit, d.h. - D2 log ~ ( 8 ) ist positiv-definit.
Falls D210gL(B) sogar negativ-definit für alle B E O ist, so ist die log-Likelihood-
funktion logL auf O streng konkav. In diesem Fall besitzt die Likelihood-Gleichung
höchstens eine Lösung, und 8 ist genau dann eine ML-Schätzung, wenn sie die Likeli-
hood-Gleichung löst.
Invar ianz der ML-Schätzung bei Umparamet r i s i e rung
Wir betrachten eine Umparametrisierung, d.h. eine bijektive Abbildung g:O+A S des Parameterraums O in einen Parameterraum AC IR . Den mit g umtransfor-
mierten Parameter B bezeichnen wir mit X = g(B), d.h. es ist B = g-l(X). Verwendet
man nun den Parameter X E A anstelle von B E 0, und betrachtet die Likelihood-
funktion ¿(X) = L ( ~ - ~ ( X ) ) = L(B) als eine Funktion in X, so gilt die folgende
Invarianz der ML-Schätzung bei Umparametrisierung: 1 E A ist genau -1 ^ .
dann eine ML-Schätzung von X , d.h. eine Maximalstelle von ¿, wenn 8 = g (X) ezne
ML-Schätzung von B = g-l(X), d.h eine Maximalstelle von L, ist.
10.2 Maximum-Likelihood Schätzung in Exponential-Familien
Wir betrachten jetzt wieder die Exponential-Familie aus 9.2, bei der für jedes B E O
die log-Dichte auf dem - von B unabhängigen - Träger Tr gegeben ist durch
(1) T
logfg(x) = logf(x 18) = b(x) a(B) + c(B) + d(x) für X E Tr.
Das log-Likelihood als Funktion des kanonischen Parameters 4 = a(8) lautet
10. Maximum-Likelihood Schätzung 26.7.02 10 - 4
und die ersten beiden Ableitungen nach $ ergeben sich zu
(3> DlogL($Ix) = b(xlT-Dh($) ,
Wegen der Forderung (F3) ist die log-Likelihood Funktion logL(- I X) streng konkav
auf dem kanonischen Parameterraum P. Folglich gibt es zur Realisierung X höch-
stens eine ML-Schätzung, und ?i< = ?i<(x) E P ist genau dann eine solche, wenn sie die
Likelihood-Gleichung löst, d.h. wenn gilt
(5) D ~ O ~ L ( ? ~ < ( X ) ~ X ) = b ( ~ ) ~ - ~ h ( ? i < ( ~ ) ) = o bzw.
Ed(x)(b(X)) = b(x) .
Die ML-Schätzfunktion ?i<(-) ist hierdurch auf einer Teilmenge des Trägers Tr irn-
plizit definiert.
Die ML-Schätzung 8 für den ursprünglichen Parameter 8 ergibt sich sofort aus
(6) 8 = apl(?i<) bzw. ?i< = a(8) ,
d.h. 8 = $X) E B ist implizit definiert durch
(7) b(x) T - D h (a(8(x)) ) = o bzw. E ~ ( ~ ) ( ~ ( x ) ) = b(x) .
Für die praktische Bestimmung des ML-Schätzer ist es unerheblich, ob man 8 di-
rekt als Lösung von (7) berechnet, oder erst ?i< als Lösung von (5) und anschließend
8 durch (6) bestimmt. Der theoretische Vorzug des kanonischen Parameters $
gegenüber dem ursprünglichen Parameter 8 liegt vor allem darin, daß das log-Like-
lihood logL($ I X) bzgl. $ streng konkav ist, was die Eindeutigkeit des ML-Schätzers
und seine Charakterisierung als Lösung der Likelihood-Gleichung zur Folge hat. Man
beachte, daß das log-Likelihood logL(8 I X) als Funktion in 8 im allgemeinen nicht
mehr streng konkav ist.
10. Maximum-Likelihood Schätzung 26.7.02 10- 5
10.3 Schätzung im Binomial-Verteilungsmodell
Im Binomial-Verteilungsmodell sind alle Komponenten X1, ..., X stochastisch
unabhängig und identisch binomialverteilt wie X
(1) B X i ) = B(l, P) für i = I, ..., n.
Die Dichte von X an der Stelle einer Realisierung X = (xl, ..., xn) E Tr = {0, 1In ist n
(2) f (X) = n px"(i - = pX+(l-p) mit X = C X.. n-X+
P i= l + i 2
und die log-Dichte als Funktion des kanonischen Parameters $ = logit(p) ist
Hieraus ergibt sich das log-Likelihood
(4) [($I = 1% L($ I X) = $ X + - n h($)
mit der Funktion (vgl. 9.3 für n = 1)
(5) h($) = log (1 + eG) für $ E IR
Aus der Ableitung
ergibt sich die ML-Schätzung 4 = &X) als Lösung von
(7) hl(d) = $ X +' Nach 9.3 (9) - mit n = 1 - ist hl($) = p und somit ergibt sich die zugehörige ML-
Schätzung von p gerade die beobachtete relative Häufigkeit
(8) 1 I; =$(X) = - X n +'
Man beachte, daß die Dichte (2) nur von der Realierung X der binomialverteilten + Summe X = C Xi abhängt. Geht man statt vom Vektor X gleich von der Summe
+ i X+ aus mit
(9) ax+) = ~ ( n , P),
so unterscheidet sich die Dichte (2) von der Dichte der B(n,p)-Verteilung nur um
den Faktor ( n ). Da dieser Faktor nicht vom Parameter p abhängt, stimmt die
ML-Schätzung von p für Realisierung X von X mit obiger ML-Schätzung (8) von + +
10. Maximum-Likelihood Schätzung 26.7.02 10- 6
p überein. Folglich ist es für die ML-Schätzung von p unerheblich, ob man vom Vek-
tor X mit unabhängigen und identisch verteilten Komponenten ausgeht oder gleich
die binomialverteilte Summme X betrachtet. + Ausgehend von .d(X ) = B(n,p) ergibt sich auch direkt aus der Charakterisierung + der ML-Schätzung 10.2 (7) in Exponentialfamilien im hier vorliegenden Spezialfall
(mit b als Identität) in Übereinstimmung mit (8):
>Cx+ 1 = bzw. n $ ( X + ) = X+ +
10.4 Schätzung im Poisson-Verteilungsmodell
Im Poisson-Verteilungsmodell sind alle Komponenten X I , ..., Xn stochastisch unab-
hängig und identisch Poisson wie X
(1) .d(X.) 2 = Pois(p) für i = 1, ..., n.
Die Dichte- bzw. Likelihood-Funktion von X an der Stelle einer Realisierung
X = ( X ..., xn) E Tr =W: ist 1'
(2) f&x) = L(P I X ) n
x . - F - p,x+e-nF/, xi! = n p Z e / x i ! - mit X = C X.. i=l 2
+ i 2
Die Dichte hängt nur über die Summe X von der Realisierung X ab. Betrachten + wir nun direkt die Poisson-verteilte Summe
(3) B X + ) = Po~s(,LL+) mit ,LL+=n,LL,
so unterscheidet sich die Dichte- bzw. Likelihood-Funktion von X an der Stelle X + + (4) f,(x+) = L(P+ I X+) = P+ eCF+ / X+!
= L ( , L L ~ X ) .nx+.(x+!)-l. ,x.! 2
i von (2) nur um eine von ,LL unabhängige Konstante. Folglich ergibt sich folgender
Zusammenhang zwischen der ML-Schätzung fi(x) für die Realisierung X von X und
der ML-Schätzung f i ( X ) für die Realisierung X von X . + + + +' (5) n fi(x) = fi+(x+) bzw. fik) Y i fi+(x+
10. Maximum-Likelihood Schätzung 26.7.02 10- 7
Ausgehend von X ergibt sich aus der Charakterisierung der ML-Schätzung 10.2 + (7) in Exponentialfamilien im hier vorliegenden Spezialfall (mit b als Identität)
(6) Eb+(x +) = bzw. f i + (X + ) = X +' Als ML-Schätzung des Erwartungswertes ,LL = E(X) ergibt sich somit der Mittelwert
der Stichprobe X
10.5 Schätzung in einparametrigen Exponential-Familien bei unabhängigen Wiederholungen
Wir wollen jetzt die obigen Betrachtungen aus dem Binomial- und Poisson-Vertei-
lungsmodell auf beliebige einparametrige Exponentialfamilien verallgemeinern.
Hierbei gehen wir davon aus, daß die Komponenten Xi des n-dimensionalen Zu-
fallsvektors X = (Xl, ..., Xn) unabhängige Wiederholungen einer eindimensionalen Zu-
fallsvariablen X sind. Weiter setzen wir voraus, daß die Verteilung von X aus einer
Exponential-Familie mit eindimensionalen Parameter B E O C IR stammt, wobei O
ein offenes Intervall ist. Auf dem Träger Tr E IB von X hat die Dichte f, von X daher
die Form
(1) f,(x) = exp{a(Q).b(x) + +c(Q) + d ( 4 ) für X E Tr.
Dann hat X den Träger ( T T ) ~ E IBn und die Dichte gg von X lautet
(2) g, (X) = exp { a(Q) . b+(x) + n +c (B) + d+ (X) 1 für X E ( ~ r ) ~ ,
wobei die Funktionen b und d auf ( ~ r ) ~ definiert sind durch + + (3) b+(xl, ..., xn) := C 2 b(xJ , d+(xl, ..., xn) := C 2 d(xJ .
Folglich bildet die Dichtefamilie {g, 1 B E O ) für X eine n-dimensionale einparame-
trige Exponentialfamile. Man beachte, daß beide Dichte-Familien (1) und (2) densel-
ben kanonischen Parameter Si = a(8) haben.
Unter Verwendung des kanonischen Parameters Si = a(8) E !P C IR hat die log-Dichte
log f von X auf dem Träger Tr E IB von X die Form i1,
(4) logfG(x) )= $.b(x)-h(d) + d(x) für X E Tr.
10. Maximum-Likelihood Schätzung 26.7.02 10- 8
mit der Kumulanten-Funktion h($) = -c(apl($)). Die Kumulanten-erzeugende
Funktion K y der Zufallvariablen Y = b(X) ist
und die Kumulanten von Y ergeben sich als Ableitungen von h im Punkt $
(6) K ~ ( Y ) = h(r) ($1 für ~ E N ,
Insbesondere ist
(7) = hl($) , Var i1, (Y) = h"($) .
Die geforderte Voraussetzung (F3) reduziert sich für eine einparametrige Exponen-
tialfamilie zu
hl'($)>O für alle $ E !F.
Folglich ist die Ableitung h': !F+ IR eine streng monoton wachsende Funktion auf
dem offenen Intervall !F, und ihr Bild A := hl[*] C IR ist wieder eine offenes Inter-
vall. Die auf ihr Bild eingeschränkte Funktion h': *+ A ist bijektiv und definiert
eine weitere Umparametrisierung
[SI A = hl($) = h1(a(19)) E A bzw. 19 = (h' o U)-'(X) E O.
Bestimmung der ML-Schätzung
Das log-Likelihood (als Zufallsvariable) lautet nun
(9) log L ($ I X ) = $ . C b(X .) - n h($) + C d(X .) 2 2
mit den Ableitungen
(10) D log L ($ I X ) = C b(X.) - n hl($) , 2
(11) log L($ I X ) = - nhl'($) .
Nach (F3)1 ist log L($ I X ) streng konkav bzgl. $, und falls es eine Maximalstelle
4 E ly gibt, SO ist diese eindeutig bestimmt als Lösung der Normalengleichung
(NG) DlogL($IX) = 0 i1,
(Normalengleichung für $).
Die Umparametrisierung X = h'(4) ist dann die eindeutige Lösung von
10. Maximum-Likelihood Schätzung 26.7.02 10- 9
(NG)A n ( Y - X ) = 0 (N~rmalengleichun~ für X),
wobei Y = (Y1, ..., Y,) der Zufallsvektor mit den unabhängigen Wiederholungen
Y. := b(X.) von Y ist mit Y als sein Mittelwert. Die Lösung der Normalengleichung 2 2
(NG)A lautet
und ist genau die ML-Schätzung für X, wenn sie im zulässigen Parameterbereich A
liegt, d.h. wenn Y E A gilt. Wenn dies der Fall ist, dann ergibt sich der zugehörige
ML-Schätzer 4 bzw. 8 für bzw. 8 aus
(13) X = h1(4) = h1(a(8)) bzw.
4 = (hl)yl(X) , 8 = (hloa)-l(X)
Der Vorteil der Umparametrisierung (8) liegt darin, daß der neue Parameter gerade
der Erwartungswert E(Y) = X von Y = b(X) ist, und sein ML-Schätzer X = Y explizit
angegeben werden kann.
Eigenschaften des ML-Schätzers
Aus den Eigenschaften des Mittelwerts als Schätzung eines Erwartungswerts (vgl.
Kapitel 1) wollen wir jetzt analoge Eigenschaften der Schätzer 8 und 4 herleiten.
Die beiden wichtigsten finiten Eigenschaften von X
(14) E ~ ( X ) = X (er~artun~streu)
(15) varA(X) = VarA(Y) (Varianz-Reduktion)
lassen sich jedoch nicht im allgemeinen nicht auf 8 oder 4 übertragen, da 8 und 4 im allgemeinen nicht-lineare Funktionen von sind.
Bei der Formulierung der asymptotischen Eigenschaften für n+cc verwenden wir
wieder den Stichprobenumfang n als zusätzlichen Index. Der Mittelwert V(,) ist
eine (stark) konsistente Schätzung für X, d.h. es gilt
10. Maximum-Likelihood Schätzung 26.7.02 10 - 10
(16) PA{ lim ~ ( ~ 1 = X } = 1 bzw. n
Y ("1 - X PA-fast sicher n+ 00
(starke Konsistenz).
Da A offen ist, ergibt sich hieraus
pA{ E A für fast alle n E W } = 1
und somit die starke asymtotische Existenz des ML-Schätzers
(17) PA { L(- I hat eine Maximalstelle (n) für fast alle n E W } = 1.
(starke asymptotische Existenz).
Man beachte, daß die Existenz des ML-Schätzers nicht von der gewählten Parame-
trisierung abhängt, d.h. (17) ist äquivalent zu
(17) ' Po { L(- I ) hat eine Maximalstelle B ( ~ ) für fast alle n E W } = 1.
Damit E A zumindest formal immer definiert ist, auch wenn der ML-Schätzer
nicht existiert (weil A) soll jetzt A ( ~ ) : T T ~ + A eine beliebige Zufallsvariable
sein, sodaß A(~)(x) der ML-Schätzer zur Realisierung X ist, falls ein solcher existiert.
Damit ist eine stark konsistente Schätzfolge für X
(I8) X(") n+ 00 X PA-fast sicher (starke Konsistenz für X),
-1 ^(n) und die zugehörige Folge B ( ~ ) = (h'oa) (X ) ist stark konsistent für I9
(19) 8 n+ 00 Po-fast sicher (starke Konsistenz für 8).
Eine weitere zentrale asymptotische Eigenschaft der ML-Schätzfolge ist ihre
asymptotische Normalverteilung:
2 2 (20) J ~ ( x ( ~ ) - x ) - N ( o , ~ ~ ) mit o =VarA(Y). n+ 00
Da die Rückparametrisierung I9 = (h' o a)-l(X) eine dzfferenzierbare Transformation
ist, ergibt sich die asymptotische Normalverteilung der ML-Schätzfolge B ( ~ ) aus (20)
mit der stochastischen Taylorformel (Delta-Methode, vgl. Exkurs KV 14 ) zu
10. Maximum-Likelihood Schätzung 26.7.02 10 - 11
mit der sogenannten Fisher-Information der Einzelbeobachtung X bzgl. B
(22) I(B) : = Vare{De log f(X I B) } (Fisher-Information von X),
wobei Dg die Ableitung nach B bezeichnet. Es ergibt sich hier
Beispiel: Gamma-Verteilung
Die Gammaverteilung Gam(a,ß) mit festem Skalenparamter ß ist bzgl. des Form-
parameters B = a eine einparametrige Exponentialfamilie. Die transformierte Zu-
fallsvariable Y = b(X) = log X hat hier den Erwartungswert
(4 A = E a (Y) = hl(a) = log(ß) + T1(a)/T(a) .
Der ML-Schätzer oi ist zwar durch h'(&) = A eindeutig bestimmt, aber seine kon-
krete Berechnung aus A =Y erfordert ein Iterationsverfahren, da sich die Inverse
von h' nicht explizit angeben läßt.
Da a hier die Identität ist, ergibt sich die Fisher-Information zu
(ii) I(a) = hl'(a) = (log T)"(a) .
10. Maximum-Likelihood Schätzung 26.7.02 10 - 12
Charakteristika einiger Verteilungen aus der eindimensionalen
Exponential-Familie mit Parameter 8
Je @I N(Q, a2) Pois(I9 ) B(1,Q) Gam(ci! , 8) a2 bekannt ci! bekannt
Träger Tr IR No { O J > ( 0 ,m)
8 € @ 8EIR Q E ( o , ~ ) 8 ~ ( 0 , 1 ) I ~ E ( 0 , ~ )
$ = a(I9) E G? QEIR log(I9) E IR 1 logit(8)EIR - - E ( - m , ~ ) I9
19 = apl($) $ ~xP($) (1 + ~xP(- $1)- -- 1 $
A = E e ( Y ) ~ A a219 E IR WO,^) 8 ~ ( 0 , 1 ) CXQE ( 0 , ~ )
hl'($) = Vare (Y) 0 -2 I9 Q(1-I9)
a'(e> 1 8-I (I9 (1 - I9))-l Q - ~
I(Q 1 -2 0 8-I (I9 (1 - I9))-l ci! Q - ~
11. Asymptotische Eigenschaften des ML-Schätzers 27.7.02 11- 1
11. Asymptotische Eigenschaften des ML-Schätzers
Im letzten Abschnitt haben wir die folgenden drei zentralen asymptotischen Eigen-
schaften des Maximum-Likelihood Schätzers
asymptotische Existenz
Konsistenz
asymptotische Normalverteilung
für unabhängige Widerholungen einer Zufallsvariablen X hergeleitet, falls die Ver-
teilung von X aus einer einparametrigen Exponential-Familie stammt. Wir wollen
diese Resultate jetzt auf beliebige parametrische Dichte-Modelle (mit gewissen Zu-
satzbedingungen) verallgemeinern. Da es uns dabei mehr um die prinzipiellen Ideen
und weniger um größtmögliche Allgemeinheit geht, beschränken wir uns hier auf
einen eindimensionalen Parameter (obwohl sich die Herleitungen relativ leicht ins
Mehrdimensionale übertragen lassen) und bevorzugen übersichtliche Zusatzvoraus-
setzungen anstelle komplizierterer Minimalvoraussetzungen.
Ausgangspunkt ist eine n-dimensionale Stichprobe X = x ( ~ ) = (Xl, ..., Xn), deren
Komponenten Xi unabhängige Wiederholungen einer eindimensionalen Zufallsvari-
ablen X sind. Für die Verteilung von X setzen wir das parametrische Dichte-Modell
mit dem eindimensionalen Parameter Q E O voraus. Da O ein offenes Intervall ist,
wollen wir hier der Einfachheit halber O = IR voraussetzen, was sich durch eine
Umparametrisierung stets erreichen läßt.
Die Verteilung .dg(X) hat dann eine U-Dichte fg(x) = f(x 1 Q), von der wir zunächst nur
fordern wollen (später kommen noch weitere Regularitätsbedingungen hinzu)
(RO) Für festes X ist die Funktion f(x I -) auf O stetig.
Außerdem wollen wir voraussetzen, daß der Parameter 8 die Verteilung eindeutig
bestimmt, d.h. wir fordern
(RI) Für alle Q1, B2 E B gilt: 2 (X) = 2 (X) 8, = 8, 91 92
bzw: f - f U-fast sicher + Q1 = 8 91 - 92 2
11. Asymptotische Eigenschaften des ML-Schätzers 27.7.02 11- 2
Im folgenden wollen wir die Bezeichnung B für den wahren Parameterwert reservie-
ren, der durch 2(X) = .d,(X) definiert ist. Als Variablen für Elemente des Parama-
terraums O und verwenden daher BI, B2, ... oder B', B" ,... etc.
Die Dichte g, der Stichprobe X = (Xl, ..., Xn) ist dann
und das Likelihood- bzw. log-Likelihood (als Zufallsvariable) lautet: n n
(2) L ( Q ~ 1 X) = n f(x. 2 1 B I ) bzw. I O ~ L ( B ' I X) = z l o g ~ ( x ~ I B ' ) , i=l i= l
11.1 Asymptotische Existenz und Konsistenz
Die folgende Herleitung der asymptotischen Existenz und Konsistenz des ML-
Schätzers geht auf Wald (1949) zurück. Sie beruht im wesentlichen darauf, daß für
jedes B' das skalierte log-Likelihood log L(B1 I X) als Mittelwert von unabhängi- n
gen, identisch verteilten Zufallsvariablen log f(Xi I B') nach dem Gesetz der großen
Zahlen P,-fast sicher gegen den Erwartungswert E*{ log f(X I B') } konvergiert, und
dieser genau für B' = B maximal wird, d.h. es gilt
(1) Eg{logf(XIQ1)} < Eg{logf(XIQ)} für alle B' s B .
Die genaue Herleitung der Konsistenz erfordert noch die folgenden beiden Zusatz-
bedingungen (KI) und (K2) an die Dichte. Bezeichnet
die offene Kugel um B' vom Radius r > 0, so lautet die erste Bedingung
(KI) lim E, { sup log f(X I -) } = E,{ log f(X I B') } für alle B' E O. r + 0 B(Q1,r)
Hierdurch wird eigentlich nur gefordert, daß die Erwartungswerte auf der linken
Seite in (KI) für alle r Sro existieren, d.h.
(Kl)' Es gibt ein ro > O mit: E,{ISUP l o g f ( ~ ~ - ) l } < W . B(Q1,r)
11. Asymptotische Eigenschaften des ML-Schätzers 27.7.02 11- 3
Mit der Stetigkeit der Funktion log f(x I -) im Punkt 8' (bei festem X) ergibt sich
und mit (Kl)' folgt hieraus (KI).
Die zweite Bedingung richtet sich an das Verhalten der Dichte f(x IB ' ) , wenn sich 19'
dem Rand des Parameterraums O nähert, d.h. hier für 18'1 + CO:
(K2) lim E~ { sup log f ( ~ I B') } = - CO . R+ oo 19' I > R
Diese Bedingung ist z.B. dann erfüllt, wenn für jedes X gilt
(K2)* f(xIB')+0 bzw. logf(xIB')+-CO für ~ B ' ~ + c o ,
und die Erwartungswerte in (K2) existieren.
Mit diesen Voraussetzungen läßt sich für jedes r > 0 die fundamentale asymptoti-
sche Aussage herleiten (wobei wir wieder n als Index einführen):
(3) Pg { SUP L(B1 I < L(B I für fast alle n E U } = 1 . 19'-6'1 >r
Hieraus ergibt sich zuerst die starke asymptotische Existenz des ML-Schätzers
(SAE) Pg { L(- I hat eine Maximalstelle für fast alle n E U } = 1.
Diese asymptotische Existenzaussage garantiert allerdings für festes n nicht, daß die
Likelihoodfunktion L(- 1 X ) für jede Realisierung X eine Maximalstelle 4 besitzt
(von der Eindeutigkeit derselben ganz zu schweigen). Damit aber 4 E O zumindest
formal immer definiert ist (auch wenn das Likelihood keine Maximalstelle besitzt),
betrachten wir im folgenden eine beliebige Folge B ( ~ ) : ~r~ + ß meßbarer Funktio-
nen, die jeweils einen ML-Schätzer B(~)(x) für die Realisierung X liefern, wenn ein
solcher existiert, aber einen beliebigen Wert B(~)(x) aus O annehmen können, wenn
kein ML-Schätzer für X existiert. Formal stellen wir also folgende Bedingung an die
Schätzfolge:
11. Asymptotische Eigenschaften des ML-Schätzers 27.7.02 11 - 4
(ML-S) Besitzt L(- I x ( ~ ) ) eine Maximalstelle, so gilt:
:= B(~)(x(~)) E B ist eine Maximalstelle von L(- I ~ ( ~ 1 ) .
Eine solche Folge wollen wir eine ML-Schätzfolge nennen. Aus (SAE) folgt
(4> P, { L( I ist eine Maximalstelle für fast alle n E W } = 1.
und mit (3) ergibt sich die starke Konsistenz jeder ML-Schätzfolge des Parameters:
(SKonP) lim = 19 P,-fast sicher. 72-00
11.2 Asymptotische Normalverteilung
Zur Herleitung des asymptotischen Normalverteilung des ML-Schätzers werden
noch zusätzliche Regularitätsbedingungen an die Dichtefamilie f, gestellt. Zunächst
wollen wir die Stetigkeits-Bedingung (RO) verschärfen zu
(R2) Für festes X ist f(x I -) auf B dreimal stetig-dgferenzierbar.
Weiter soll die dritte Ableitung der log-Dichte in einer geeigneten Umgebung von 19
nicht zu stark variieren, genauer fordern wir:
(R3) Esgib te inro>Omit : E,{ sup I D ~ I O ~ ~ ( X ~ Q ~ ) I } < W . 1Q1-6'l Sr,,
Man beachte, das Supremum in (R3) nach (R2) stets eine Zufallsvariable ist mit
Werten in ( 0 , ~ ) . Die entscheidende Forderung in (R3) ist daher, daß ihr Erwar-
tungswert endlich ist.
Die nächsten beiden Regularitätbedingungen lassen sich mit der sogenannten
Score-Variablen für X
wie folgt formulieren
11. Asymptotische Eigenschaften des ML-Schätzers 27.7.02 11- 5
(R4) Eg{U(Q)}=O bzw.
E,{D,10gf(XlQ)l = 0 ,
(R5) E ~ { ~ ~ ( Q ) } = E ~ { - D ~ ~ ( Q ) J ~ Z W .
E ~ { ( D , ~ ~ ~ ~ ( x I Q ) ) ~ } = E,{- D ; ~ o ~ s ( x I Q ) } .
Beide Bedingungen (R4) und (R5) zusammen sind äquivalent zur Vertauschbarkeit
von Dgferentiation bzgl. 8 mit Integration bzgl. X
(2) D, [ S ~ ( X I Q ) v(dx)] = P, h(x1Q) 4dx)
für die beiden Funktionen h(x 1 8) = f(x 1 8) und h(x 1 8) = U(8 I X) . f(x 1 8).
Die Varianz der Score-Variablen
heißt auch die Fisher-Information von X. Als letzte Regularitätsbedingung fordern
wir nun, daß diese Varianz weder 0 noch CO ist
Dies garantiert auch, daß U(8) = D, log f(X I 8 ) keine Einpunktverteilung hat, und
somit nicht-trivial verteilt ist.
Die Summe der Score-Variablen U. (8) = U(8 I X .) für alle i wird als Score-Statistik 2 2
der Stichprobe X bezeichnet und entspricht der Ableitung des log-Likelihood
Wenn ein ML-Schätzer 8 existiert, so ist er eine Lösung der Likelihood-Gleichung,
d.h. eine Nullstelle der Score-Statistik: U (8) = 0 . Die asymptotische Normalvertei- + lung des ML-Schätzers beruht im wesentlichen darauf, daß die Score-Statistik (nach
dem zentralen Grenzwertsatz) asymptotisch normalverteilt ist (wobei wir wieder n
als Index einführen):
11. Asymptotische Eigenschaften des ML-Schätzers 27.7.02 11- 6
(ANS) U (n) (B) I N(0, I(B)) (asymptotische Normalität der Scores). + n+ 00
Der Schlüssel zur Bestimmung der asymptotischen Verteilung von B liegt nun in
der folgenden Taylor-Entwicklung der Score-Statistik im Punkt B des wahren Para-
meters (wobei wir den Index n wieder unterdrücken)
(5) U+@) = u+(B) + D e + U ( B ) @ - B ) + + ( B - B ) . H ( B ) . ( B - B )
mit der „gemittelten zweiten Ableitung zwischen B und 4'' 1
(6) H(B) = j' D ; U + ( B + ~ ( B - B ) ) d t . 0
Wir untersuchen jetzt das asymptotische Verhalten der Terme in (5). Aus der
(schwachen) Konsistenz der Parameter-Schätzung
(KonP) 4 (4 ,g n+ 00 (Konsistenz der Parameter-Schätzung),
die natürlich aus der starken Konsistenz (SKonP) folgt, ergibt sich mit (R3)
Für die Ableitung der Score-Statistik erhält man mit dem schwachen Gesetz der
großen Zahlen
Und aus der starken asymptotischen Existenz (SAE) folgt insbesondere
Schreibt man nun die Taylor-Entwicklung (5) in der Form
so erhält man mit (7), (8) und (9) aus der asymptotischen Normalität der Scores die
des ML-Schätzers
(ANP) & B ) I N(o,I-~(B)) n+ 00
(asymptotische Normalität der Parameter-Schätzung).
Bei der Herleitung der asymptotischen Normalität des ML-Schätzers haben wir von
den Eigenschaften der ML-Schätzfolge nur die (schwache) Konsistenz (KonP)
11. Asymptotische Eigenschaften des ML-Schätzers 27.7.02 11- 7
und (9) benutzt, d.h. das Resultat (ANP) gilt sogar ganz allgemein für jede konsi-
stente Schätzfolge die nur eine approximative Lösung der Likelihood Gleichung
ist, d.h. die Eigenschaft (9) besitzt.
Unter Verwendung der Fisher-Information der Stichprobe X
(11) In(Q) : = Varg{Dg log L(8 I ) } (Fisher-Information von X)
(4 } = E ~ { ( D ~ L ( B I X ( ~ ) ) ) ~ } = E ~ { - D ~ L ( B I X .
= n . I(8)
läßt sich (ANP) auch äquivalent formulieren als
(ANP)' ( ~ ( ~ ) - 8 ) / a , ( Q ) N(0,l) mit
(12) a2(8) n = 1-l(8) n = n . 1-l(8) (asymtotische Varianz von B).
Die Information I(-) ist wegen (R3) in 8 stetig, und daher ergibt sich aus der
(schwachen) Konsistenz (KonP) auch die (schwache) Konsistenz der geschätzten
Information ~ ( d ) , d.h. es gilt
(13) I(B (n)) P, I(8) n+ 00
(Konsistenz der geschätzten Information).
2 ^ (4 Folglich ist auch a n, (8 ) eine konsistente Schätzung der asymptotischen Varianz
und hieraus erhält man eine weitere Variante der asymptotischen Normalität des
Schätzers
Dies wird in der Praxis dahingehend interpretiert, daß der Schätzer approximativ
normalverteilt ist mit der asymptotischen Erwartungswert 8 und der geschätzten 2 ^ asymptotischen Varianz an(Q)
(I5) L@) ~ ( 8 , 2 ( 4 ) ) (approximative Normalität des Schätzers).
11. Asymptotische Eigenschaften des ML-Schätzers 27.7.02 11- 8
11.3 Asymptotische Konfidenzgrenzen
Aus der asymptotischen Normalität (ANP)^ lassen sich Konfidenzgrenzen für den
Parameter B zur asymptotischen Sicherheit 1- a herleiten. Eine einseitige untere
bzw. obere Konfidenzgrenze für B ist gegeben durch
(1) [ ( a ) : = s - $ a (untere Grenze) bzw.
[ ( C ) := s + $ a (obere Grenze) mit
a a ^ (4 (2) $ : = z .on(B ) .
Und das zugehörige zweiseitige Konfidenzintervall für B ist:
(3) ( su (&) , so ( ; ) )=(s -$ a/2 , s - d a / 2 ) .
Die obigen Konfidenzbereiche haben die asymptotische Sicherheit 1- a , d.h.
(4) lim Po{ q) ( U ) < B } = I-a , n
(5) l imPo{B<B(n ) (a ) } n o = I - a .
(6) l i m ~ ~ { q ) ( 5 ) < < ~ < ~ ( ~ ) ( 5 ) } = l - a . n o
Manchmal ist man an einer speziellen Funktion X = h(8) des Parameters interes-
siert, wobei h : O+ IR eine stetig-differenzierbare Funktion sein soll, die aber nicht
notwendig eine Umparametrisierung ist, d.h h braucht nicht injektiv zu sein. Dann
ist X = h(4) der naheliegende Schätzer für X = h(B) und wird auch als der ML-Schät-
Zer von X bezeichnet. Aus der asmptotischen Normalität (ANP) von 4 folgt dann
(mit der &Methode) auch die asmptotischen Normalität von A = h(4) :
oder in der äquivalenten Version
(8) ( A ("1 - A B ) / D ~ , ~ ( B ) L N(O, 1) mit
(9) 2 ( B ) = h / ( ~ ) 2 . 2 ( B ) = h 1 ( q 2 . I - ~ ( B )
n n (a~~rntotische Varianz von A)
X,n
Die Varianz ) o2 ( B ) kann konsistent geschätzt werden durch o2 ( B ( ~ ) ) , und man X,n X,n
erhält dann
11. Asymptotische Eigenschaften des ML-Schätzers 27.7.02 11- 9
Analog (1) und (2) ergeben sich hieraus einseitige untere bzw. obere Konfidenzgren-
zen für X zur Sicherheit 1 - ci!
(11> Xu(ci!) := X - $ a (untere Grenze) bzw.
X ( ) := X + d a (obere Grenze) mit
J := a
z (8) a X,n
Und das zugehörige zweiseitige Konfidenzintervall für X ist:
(12) (Xu(;), Xo(;)) = ( X-J a/2 , X-J a/2 ) .
12. Die Ungleichung von Cramer-Rao und effiziente Schätzer 4.4.03 12- 1
12. Die Ungleichung von Cramer-Rao und effiziente Schätzer
In diesem Kapitel wollen wir Schätzer für eine interessierende Funktion X := h(8)
des Parameters untersuchen, wobei h : 0+ AcIR eine beliebige (aber im folgen-
den feste) zweimal stetig-differenzierbare Funktion sein soll, z.B. die Identität (für
die X wieder der ursprüngliche Parameter I9 ist).
Unser Ausgungspunkt ist wieder eine Stichprobe in Form eines beliebigen n-
dimensionalen Zufallsvektors X = (X1, ..., X,) : ( O , d , P ) + (IRn, lBn), dessen Kom-
ponenten Xi im allgemeinen weder stochastisch unabhängig noch identisch verteilt
sein sollen. Weiter sei ein parametrisches Verteilungsmodell für 2(X) durch eine
parametrisierte Familie von Dichten gg = g(- 1 19) : IRn + IR bzgl. eines von I9 unab-
hängigen a-endlichen Maßes U auf (IRn, lBn) spezifiziert, wobei I9 E 0 ein eindimen- n
sionaler Parameter und 0 C IR ein offenes Intervall ist. Zusätzlich wollen wir einige
Regularitätsbedingungen (die wir in Analogie zu Kapitel 11 numerieren) für die
Dichte-Familie fordern. Hinsichtlich der Differenzierbarkeit der Dichte nach dem
Parameter setzten wir voraus
(R2); Für festes X ist g(x I -) auf 0 zweimal stetig-differenzierbar.
Das Likelihood der Stichprobe X ist die Zufallsvariable
und die Ableitung des log-Likelihood ist die Score-Statistik der Stichprobe X
an die wir zunächst die folgenden beiden Bedingungen stellen
(R4)* Eg{U(191X)}=0 bzw.
E g { D g l ~ g g ( X I Q ) I = 0 für alle I9 E 0,
(R5)* E ~ { U ~ ( Q I X ) } = E ~ { - D ~ ~ ( ~ I X ) } ~ Z W .
E ~ { ( D ~ ~ O ~ ~ ( X ~ Q ) ) ~ } = E ~ { - D ~ ~ O ~ ~ ( X I Q ) } f Ü r a l l e I 9 ~ 0 ,
12. Die Ungleichung von Cramer-Rao und effiziente Schätzer 4.4.03 12- 2
Beide Bedingungen (R4)* und (R5)* zusammen sind äquivalent zur Vertauschbar-
keit von Differentiation bzgl. 8 mit Integration bzgl. X
für die beiden Funktionen v(x 1 8) = g(x 1 8) und v(x 1 8) = U(8 I X ) .g(x 1 8).
Die Varianz der Score-Statistik wird als Fisher-Information der Stichprobe X be-
zeichnet (und wird hier mit dem Stichprobenumfang n indiziert)
(4) In(Q) : = Var, {U(8 I X)} (Fisher-Information der Stichprobe X)
= E,{U~(QIX)} = E,{-D,U(QIX)}
= ~ , { ( ~ , l o g s ( ~ l ~ ) ) ~ } = E,{- D ; ~ ~ ~ ~ ( x I Q ) } E [ O , ~ ,
und wir fordern, daß diese Varianz weder Null noch Unendlich ist
(R6) * 0 < 1 n ( 8 ) < 0 0 für alle 8 E O.
12.1 Die Ungleichung von Cramer-Rao
Wir betrachten nun einen beliebigen Schätzer T = t(X) für X, wobei t :IRn+IR
eine meßbare Funktion ist, die jeder Realisierung X E IRn den zugehörigen Schät-
zwert t(x) zuordnet. Sinnvollerweise sollte t(x) im Parameterraum A liegen, was
wir aber nicht generell voraussetzen wollen. Die bisher übliche Notation X für einen
Schätzer wird hier bewußt durch T ersetzt, um Verwechselungen mit dem ML-Schät-
Zer zu vermeiden. Setzen wir voraus, daß der Erwartungswert E{T} existiert, so ist
der Bias (Verzerrung, Verfälschung) des Schätzers T definiert als Abweichung des Er-
wartungswerts E{T} des Schätzers vom zu schätzenden Parameter X = h(8), d.h. als
(1) b(8) = Bias,(T) : = E,{ T} - h(8) (Bias von T).
Der Schätzer T ist also genau dann erwartungstreu für X = h(Q), wenn Bias,(T) = 0
ist. Ein Maß für die Qualität des Schätzers T für X = h(8) ist sein mittlerer quadrati-
scher Fehler (engl.: Mean Square Error) vom zu schätzenden Parameter X = h(8)
12. Die Ungleichung von Cramer-Rao und effiziente Schätzer 4.4.03 12- 3
(2) MSE~(T) : = (T - h(8)12 (Mean Square Error von T)
= Varo {T) + ~ i a s i ( ~ )
= Varo{T) + b2(8)
Man beachte, daß bei erwartungstreuem T der MSE(T) gerade die Varianz von T ist.
Je kleiner der MSE(T) ist, desto besser schätzt T den Parameter X = h(8). Allerdings
kann der MSE(T) nicht beliebig klein werden, zumindest dann nicht, wenn T regu-
lär ist, d.h. folgende Regularitätsbedingung erfüllt
(R7) Dg(Eg{T)) = Eg{T.DglogL(QIX)} bzw.
De(Ee{T)) = EoIT . u(QI X)} für alle 8 E 0,
Die Bedingung (R7) garantiert wieder eine Vertauschung von Differentiation bzgl.
8 mit Integration bzgl. X, d.h. sie ist äquivalent zu
Bei einem regulären Schätzer T für X = h(8) - d.h. unter (R7) - gilt die folgende Un-
gleichung von Cramir-Rao
(3) MSEo(T) > ( h'(8) + b'(8) )2 . IP1(8) n (Cramir-Rao- Ungleichung).
Die rechte Seite der Cramer-Rao-Ungleichung wird als Cramir-Rao-Schranke für
MSE(T) bezeichnet. Der MSE(T) nimmt seine (untere) Cramer-Rao-Schranke ge-
nau dann an, wenn gilt
Po-fast sicher, wobei
(5) q(8) = Covo (T, U(8 I X) . IP1(8). n
Wenn T erwartungstreu für h(8) ist, d.h. der Bias b(8) = 0 ist, so vereinfacht sich die
Ungleichung von Cramer-Rao zu
(3)' Varo(T) > h'(812 . IP1(8) n falls E. {T) = h(8) .
Ist zusätzlich h sogar die Identität, d.h. T ist ein erwartungstreuer Schätzer für den
Parameter 8, so lautet die Ungleichung von Cramer-Rao
12. Die Ungleichung von Cramer-Rao und effiziente Schätzer 4.4.03 1 2 - 4
(3) " Var,(T) > I-~(Q) n falls E,{T) = B = h(B) .
12.1.1 Spezialfall: Identische Wiederholungen
Wir betrachten jetzt den Fall, daß die Komponenten X . von X = (X1, ..., Xn) unab- 2
hängige Wiederholungen einer eindimensionalen Zufallsvariablen X sind. Die Vertei-
lung von X sei - wie im Kapitel 9 - durch eine parametrisierte Familie f,(-) = f(- I B)
von Dichten bzgl. eines Maßes U auf (IR, IB) modelliert, wobei B E O und O C IR ein
offenes Intervall ist.
Die Dichte g, = g(- 1s) der Stichprobe X = (Xl, ..., Xn) ist dann
und das Likelihood- bzw. log-Likelihood (als Zufallsvariable) lautet:
(7) L(QI X) = n X L I Q ) bzw. logL(B1x) = z l o g f(xi1B). i= l i= l
Die Differenzierbarkeitsbedingung (R2); ist erfüllt, wenn wir - als geringfügige Ab-
schwächung von (R2) aus 11.2 - fordern
(R2)2 Für festes X ist f(x I -) auf O zweimal stetig-differenzierbar.
Unter Verwendung der Score-Variablen für X (d.h. einer Stichprobe vom Umfang
n = 1)
läßt sich die Score-Variable der Stichprobe X darstellen
mit den Score-Variablen für die Einzelbeobachtungen Xi
Die Bedingungen (R4)* und (R5)* ergeben sich jetzt aus den folgenden beiden Be-
dingungen (aus 11.2)
12. Die Ungleichung von Cramer-Rao und effiziente Schätzer 4.4.03 12- 5
(R4) Eg{U(Q) l=O bzw.
E e { D g l ~ g f ( X I Q ) I = 0 für alle 8 E 0,
(R5) E ~ { ~ ~ ( Q ) } = E ~ I - D ~ ~ ( Q ) J ~ Z W .
E ~ { ( D , ~ O ~ ~ ( X I Q ) ) ~ } = E,{- D ; ~ o ~ ~ ( x I Q ) } für alle 8 E 0.
Wie schon in 11.2 bemerkt, sind beide Bedingungen (R4) und (R5) zusammen äqui-
valent zur Vertauschbarkeit von Differentiation bzgl. 8 mit Integration bzgl. X
(10) D, [ S ~ ( X I Q ) v(dx)] = P, h(x1Q) 4dx)
für die beiden Funktionen h(x 1 8) = f(x 1 8) und h(x 1 8) = U(8 I X) . f(x 1 8).
Und aus der Fisher-Information von X, d.h. der Varianz der Score-Variablen U(8)
(11> 1(8) := Var,{ U(8))
= E , { u ~ ( Q ) ~ = E,{-D,U(Q)l
= E , { ( D , ' " ~ ~ ( x I Q ) ) ~ } = E,{- ~ ; l o g f ( x l ~ ) j E [ O , 4 .
ergibt sich die Fischer-Information der Stichprobe X zu
(I2) In(8) = n . I(8) .
Folglich ist die Bedingung (R6)* äquivalent zur Bedingung (vgl. 11.2)
(R6) 0 < I(8) < 00 für alle 8 E 0.
12. Die Ungleichung von Cramer-Rao und effiziente Schätzer 4.4.03 12- 6
12.2 Effiziente Schätzer
Wir betrachten jetzt wieder den allgemeinen Fall mit nicht notwendig unabhängigen
und identisch verteilten Komponenten der Stichprobe X = (Xl, ..., X,).
Der Quotient beider Seiten der Ungleichung von Cramer-Rao
wird als Effizienz des Schätzers T für den Parameter X = h(8) bezeichnet. Und der
Schätzer T heißt effizient für den Parameter X = h(8), wenn
(2) Effe(T) = 1 für alle 8 E 0 ,
d.h. wenn 12.1 (4) für alle 8 gilt. Ein effizienter Schätzer ist in dem Sinn optimal,
daß es keinen anderen Schätzer mit geringerem MSE gibt.
Wir wollen jetzt untersuchen, unter welchen Bedingungen es einen effizienten
Schätzer für X = h(8) gibt, und wie man ihn bestimmen kann. Zunächst gilt
(3) T effizient für h(8) U
Ee{T) = h(8) und COV:(U, T) = Varg (U) . Varg (T) für alle 8 E 0.
Ein effizienter Schätzer T für h(8) ist insbesondere stets erwartungstreu, d.h.
Biass(T) = 0 für alle 8. Weiter hat ein effizienter Schätzer T genau dann ein Ein-
punktverteilung (im Punkt h(8)) wenn die Ableitung h1(8) verschwindet:
Um diesen trivialen Fall auszuschließen, wollen wir ab jetzt fordern
(R8) h 1 ( 8 ) s 0 für alle 8 E 0.
Damit ist h : 0+ (1 streng monoton (wachsend oder fallend) und somit eine
Umparametrisierung. Außerdem sollen noch gelten:
(R9) I(8) ist stetig in jedem Punkt 8 E 0
(R9) kann hier (wie im Kapitel 11) auch aus einer zu (R3) analogen Bedingung
hergeleitet werden. Weiter wollen wir noch fordern, daß der Träger von X
12. Die Ungleichung von Cramer-Rao und effiziente Schätzer 4.4.03 12- 7
(5) Tr, := {g, > 0}
nicht vom Parameter 8 abhängt, d.h.
(RIO) Tr = Tr 6'
für alle 8 .
Mit diesen Voraussetzungen ergibt sich aus der Existenz eines effizienten Schätzers
T eine Exponentialdarstellung der Dichte von X:
(6) Wenn T = t(X) effizient für h(8) ist, so gibt es Funktionen &, C und 2, sodaß un-fast sicher gilt:
g,(x) = exp{ &(B) d(x) + C(8) + 2(x) } für X E Tr .
Folglich können effiziente Schätzer höchstens dann auftreten wenn X eine Dichte
aus der Exponential-Familie (vgl. 9.2) folgender Form besitzt
(7) g,(x) = ..P{ a(Q) .b(x) + c(Q) + d(x) 1 für X E Tr ,
wobei der Parameter hier eindimensional ist, und die Funktion b mit t auf dem
Träger Tr übereinstimmt. Und für jede Dichtefamilie (7) ist der Schätzer B = b(X)
des Erwartungswerts
auch stets eine effiziente Schätzung für h(8). Nach Kapitel 9 ist (mit den dortigen
Voraussetzungen) dann b(x) auch der ML-Schätzer von h(8) zur Realisierung X, so-
fern dieser existiert, d.h. b(x) E Bild h = h[@] gilt.
Kurz und bündig kann man sagen, daß ein effizienter Schätzer nur in Exponential-
familien (und auch nur für spezielle Funktionen h der Form (8) des Parameters)
auftritt und dort mit dem ML-Schätzer übereinstimmt. Insbesondere ist damit der
Mittelwert (vgl. Kapitel 1 und 9) im Binomial-, Poisson und Normalverteilungsmo-
dell eine effiziente Schätzung des Erwartungswerts.
Allgemeiner kann man die asymptotische Normalität des ML-Schätzers h(4) aus 11.3
(7) auch dahingehend interpretieren, daß der ML-Schätzer h(4) stets asymptotisch
effizient für h(8) ist.
13. Momenten-Schätzung 26.7.02 13- 1
13. Momente-Schätzung
Obwohl das Maximum-Likelihood-Prinzip im allgemeinen die „bestenu Schätzungen
liefert, gibt es manchmal auch gute Gründe, andere Schätzungen zu verwenden, z.B.
wenn die ML-Schätzung nur mit erhöhtem Rechenaufwand zu bestimmen ist oder
wenn man die Dichte (und damit das Likelihood) der Stichprobe nicht explizit an-
geben (bzw. modellieren) kann. Als Alternative zur Maximum-Likelihood Schätzung
wollen wir jetzt die Momenten-Methode kennenlernen. Hierbei gehen wir wieder
von einer n-dimensionalen Stichprobe X = (X1, ..., Xn) aus, und betrachten aber nur
den Fall, daß die Komponenten Xi unabhängige Wiederholungen einer eindimensiona-
len Zufallsvariablen X sind. Für die Verteilung von X setzen wir ein parametrisches
Modell der folgender Form voraus
S wobei O C IR ein S-dimensionaler Parameterraum ist.
Momenten-Schätzer
Für k~ IN ist das k-te Moment von X
und das k-te zentrale Moment von X
- P (X) = ~ ~ ( ( x - 4 ~ ) (3) ~k - k mit p, = p,' 1 0 = E (X)
eine Funktion des Parameters 8. Wir gehen jetzt davon aus, daß die ersten S Mo-
mente p,' ...,& existieren, und sich der Parameter als stetige Funktion h dieser Mo- l'
mente darstellen läßt:
Bei gegebenem p, = p,; sind die zentralen Momente (p,2, nach 8.3 (8) und (9)
eine umkehrbar eindeutige und stetige Funktion der nicht-zentralen Momente
(p,;, ..., 4) und folglich läßt sich der Parameter auch als stetige Funktion h* des Er-
wartungswerts p, und der zentralen Momente darstellen:
13. Momenten-Schätzung 26.7.02 13- 2
Aus den Schätzungen der Momente (vgl. Abschnitt 8.3)
k (6) fi ;=fi;(X)='Cx. n i 2 '
- k - fi (X) = 'C(X,-X) (7) f i - k
2
erhält man dann den Momente-Schätzer 8 von 0 als entsprechende Funktion der ge-
schätzten Momente
- (8) 8 = h(fii, ..., fik) = h*(fi, fi2, ..., &) mit f i = p 1 = X .
- I Dieser Momente-Schätzer 8 ist (ebenso wie die Schätzungen fi;, fik) stark konsistent
(weil h und h* stetig sind), aber im allgemeinen nicht erwartungstreu. Außerdem ist
die Momente-Schätzung (wie die Maximum-Likelihood Schätzung) invariant ge-
genüber einer Umparametrisierung.
Der Momenten-Schätzer läßt sich leicht explizit berechnen, im Gegensatz zum Ma-
ximum-Likelihood Schätzer, der nur implizit definiert ist und meist nur durch ein
Iterationsverfahren bestimmbar ist, wobei der Momenten-Schätzer dann als Start-
wert verwendbar ist.
Gamma-Verteilung
Für 2 (X) = Gam(a,ß) ist
(2) p = E ( X ) = a ß , 2 o = Var(X) = p = aß2.
2
Für den Parameter 0 = (a,ß) ergibt sich die Funktion h* aus
(ii) 2 2 2 a = 0 = h*(p,o ) = p / O , 1 1
2 ß = 0, = h,*(p,o ) = 0 2 / p .
Und aus den Schätzungen fi und 82 der Momente ergibt der Momenten-Schätzer
8 = (6,ß) wie folgt:
(iii) * 2 * 2 &=p / D , ß = 82/fi.
Man beachte, daß der Maximum-Likelihood Schätzer hier nur iterativ bestimmt
werden kann.
13. Momenten-Schätzung 26.7.02 13- 3
Normal-Verteilung
2 Für L ( X ) = N ( ~ , D ~ ) ist p = E(X), D = Var(X) = p und für den Parameter 2 '
19 = (p,02) ist Funktion h* daher die Identität. Der Momenten-Schätzer 4 ergibt sich
daher direkt aus den Schätzungen f i und 82 für die Momente, die hier übrigens auch
die Maximum-Likelihood Schätzungen sind.
14. Testen von Hypothesen 26.7.02 14 - 1
14. Testen von Hypothesen
Vorbemerkung: Zum besseren Verständnis kann man den Abschnitt 14.1, in dem ein kon-
kretes Testproblem behandelt wird, parallel zu den folgenden Ausführungen lesen.
Ziel eines statistischen Tests: Es soll eine Entscheidung zwischen zwei Hypothe-
sen über die Verteilung von Zufallsvariablen getroffen werden aufgrund von be-
obachteten Realisierungen dieser Zufallsvariablen.
Parametrisches Dichte-Modell: Ausgangspunkt ist (wie in Kapitel 9) ein n-
dimensionaler Zufallsvektor X = (X1, ... , Xn) und ein parametrisches Verteilungs-
modell 2 ( X ) E { d0(X) I BE O } mit einem S-dimensionalen Parameter S S 8 = (Q1, ..., Bs) E IR , dessen Werte in einem Parameterraum O C IR liegen, der hier be-
liebig sein kann (also nicht - wie in den vorangegangenen Kapiteln - eine offene und
konvexe Menge sein muß).
Hypothesen: Eine Hypothese H über den Parameter wird mit der zugehörigen
Menge aller Parameter 8 identifiziert, auf die die Hypothese H zutrifft. Formal ist
eine Hypothese H eine Teilmenge des Parameterraumes O, wobei O E H bedeutet, daß
die Hypothese H auf den Wert 8 zutrifft. Eine Hypothese H heißt einfach, wenn sie
auf genau einen Parameterwert zutrifft, also von der Form H= (8') ist, und somit
die Verteilung 2 ( X ) durch H bereits vollständig bestimmt ist. Eine nicht-einfache Hy-
pothese wird auch als zusammengesetzte Hypothese bezeichnet. Beispiele für zusam-
mengesetzte Hypothesen sind (wenn S 2 2)
H: s1=o bzw. H = { B E @ 1 s1=o} H: sl=s 2 bzw. H = { B E @ 1 sl=s2} H: s l g 2 ~ Z W . H = { O E @ I slas2}
Testproblem und Entscheidungsfunktion: Ein Testproblem besteht aus zwei
disjunkten Hypothesen, einer Nullhypothese Ho und einer alternativen Hypothese (kurz:
Hypothese oder Alternative) Hl. Wir fordern hier nicht, daß stets eine der beiden Hy-
pothesen zutreffen muß, d.h. O = Ho U Hl, obwohl dies in den meisten Fällen sinn-
voll ist, und sich durch Einschränkung des Parameterraumes auf Ho U Hl auch stets
erreichen ließe.
14. Testen von Hypothesen 26.7.02 14- 2
Eine Entscheidungsfunktion (engl: decision function) für dieses Testproblem ist eine
meßbare Funktion d:IRn+{O,l}, die jeder Realisierung X von X eine als Zahl
kodierte Entscheidung d(x) zuordnet mit folgender Bedeutung:
(1) d(x) = 1 U Ho wird abgelehnt zugunsten von Hl aufgrund von X
Die Entscheidungsfunktion d ist also die Indikatorfunktion des kritischen oder Ab-
lehnungs-Bereichs A = { d = l} für Ho, und damit auch durch den Ablehnungsbereich
A eindeutig bestimmt.
Ein Testproblem (Ho ,H1) zusammen mit einer Entscheidungsfunktion d wird auch
als ein statistischer Test bezeichnet. Die Testentscheidung D =d(X) ist dann eine
Indikator-(Zufalls-)Variable für die Ablehnung der Nullhypothese:
(2) D = 1 U Ho wird abgelehnt (zugunsten von H1 aufgrund von X)
Fehlentscheidungen: Bei einem Test sind prinzipiell zwei Arten von Fehlent-
scheidungen möglich (vgl. nachfolgende Tabelle):
Fehler 1. Art (falsch-positive Entscheidung): Ablehnung der Nullhypothese Ho, obwohl sie zutrifft.
Fehler 2. Art (falsch-negative Entscheidung): Annahme der Nullhypothese Ho, obwohl sie nicht zutrifft.
Schärfe und Fehlerrisiken: Die Schärfe (engl.: power) eines Tests d ist die Wahr-
scheinlichkeit für die Ablehnung der Nullhypothese
Testentscheidung
Nullhypothese wird nicht abgelehnt:
D = O
Nullhypothese wird abgelehnt
D = 1
(3) pow(e) = powd(e) := pe{ D = I
= Ee{d(X)} (Schärfe, Power von d),
und die zugehörige Funktion Pow : O + [ 0,1] heißt die Schärfefunktion.
In Wirklichkeit gilt
Nullhypothese
richtige Entscheidung
falsch-positive Entscheidung:
Fehler 1. Art (a)
alternative Hypothese
falsch-negative Entscheidung:
Fehler 2. Art (P)
richtige Entscheidung
14. Testen von Hypothesen 26.7.02 14 - 3
Das Fehlerrisiko 1. Art a(8) ist die Wahrscheinlichkeit für einen Fehler 1. Art und
somit durch die Schärfe gegeben, wenn Ho zutrifft
(4) ,(B) = u,(B) : = powd(e) falls B E Ho (d.h. Ho trifft zu).
Das maximale Fehlerrisiko 1. Art
wird auch als das Niveau des Tests d bezeichnet.
Das Fehlerrisiko 2. Art ß(8) ist die Wahrscheinlichkeit für einen Fehler 2. Art und
durch die komplementäre Schärfe gegeben, wenn Hl zutrifft
(6) ß(e) = ßd(e) : = 1 - P O W ~ ( B ) falls B E H1 (d.h. Hl trifft zu).
Das maximale Fehlerrisiko 2. Art ist
(7) ß = ßd := sup {ß(B) I BEH~} = 1- inf {Powd(B) I BEH~}
Es ist wünschenswert, unter allen Tests d einen solchen auszuwählen, bei dem beide
maximalen Fehlerrisiken ad und ßd möglichst gering sind. Leider läßt sich dies im
allgemeinen nicht erreichen, weil eine Verringerung von a meist eine Vergößerung d von ßd nach sich zieht und umgekehrt. In vielen Fällen (wie z.B. beim Gauß-Test
in 14.1) sind beide maximalen Risiken sogar zueinander komplementär, d.h. es gilt
ad +Pd = 1. Man hat sich daher darauf geeinigt, bei der Gewichtung der Fehler
Prioritäten zu setzen, und dem Fehler 1. Art in dem Sinn eine größere Bedeutung
beizumessen, daß man das Fehlerrisiko 1. Art durch Vorgabe des Testniveaus ad
kontrolliert. Als Standard-Testniveau wird (für die meisten Tests) der Wert a = 5%
vorgegeben, und unter besonderen Umständen wählt man auch kleinere Werte, wie
z.B. 1% oder 0.1%, aber nur selten einen größeren Wert, wie z.B. 10%. Da die Fehler
1. und 2. Art sich vertauschen, wenn man beide Hypothesen miteinander ver-
tauscht, hat die Priorität des Fehlerrisikos 1. Art bei praktischen Anwendungen di-
rekte Konsequenzen auf die Wahl beider Hypothesen, weil nur die Fehlerrisiken 1.
Art über das Testniveau direkt kontrolliert werden.
14. Testen von Hypothesen 26.7.02 14 - 4
Teststatistik: Die meisten Tests werden unter Verwendung einer Testfunktion
t : IRn+ IR konstruiert, die jeder Realisierung X einen Testwert t(x) zuordnet, wo-
bei groj3e Testwerte als Evidenz gegen die Nullhypothese angesehen werden. Nach
Festlegung eines kritischen Wertes to E IR wird der kritische Bereich für die Ent-
scheidungsfunktion d wie folgt definiert,
bzw.
d.h. die Nullhypothese wird genau dann abgelehnt, wenn der Testwert seinen kriti-
schen Wert übersteigt. Der kritische Wert ist meist eine eindeutige Funktion des
Testniveuas ci! und läßt sich dann für vorgegebenes Testniveau bestimmen. Der zu-
fällige Testwert T = t(X) wird auch als Teststatistik bezeichnet. Das wesentliche
Merkmal eines solchen Tests ist die Dimensionsreduktion von der n-dimensionalen
Stichprobe X zur eindimensionalen Teststatistik T. Die Testentscheidung D hängt
nur noch über die Teststatistik T von der Stichprobe ab:
14. Testen von Hypothesen 26.7.02 14 - 5
14.1 Einseitiger (oberer) Gauß-Test
Für einen n-dimensionaler Zufallsvektor X = (Xl, ... , Xn) betrachten wir das Nor-
mal-Verteilungsmodell mit unabhängigen Wiederholungen, d.h. alle Komponenten
X . sind unabhängige Wiederholungen einer N(p , 02)-verteilten Zufallsvariablen X. 2
2 2 Hierbei gehen wir davon aus, daß die Varianz o = oo bekannt ist, und betrachten
daher nur den Erwartungswert als unbekannten Parameter 19 = p E E = @. Für ei-
nen fest vorgebenen „Referenzwertn po interessieren wir uns für das einseitige Test-
problem mit den Hypothesen
(I> Nullhypothese Ho+ bzw. H o = ( b m , ~ ~ ] ,
(2) Hypothese H1:p > bzw. Hl = (p0,+m) .
Drei typische Anwendungssituationen hierfür sind
X ist das Ergebnis einer medizinischen Messung (z.B. Blutdruck) deren Variabili- tät unterschiedliche Ursachen haben kann: Ungenauigkeit der Messung, individu- elle Unterschiede, Zeitpunkt der Messung etc. Dann ist p der durchschnittliche Wert in dem betrachteten Kollektiv, und po ist z.B. ein bedenklich hoher Wert.
X ist der Wirkstoffgehalt eines mit zufälligen Fehlern produzierten Medika- ments. Dann ist p der wahre Wirkstoffgehalt und po z.B. der auf der Packungs- beilage angegebene Wirkstoffgehalt.
X ist die Haltbarkeitsdauer eines Nahrungsmittels (oder eines technischen Pro- duktes) und p die durchschnittliche (erwartete) Haltbarkeit. Der zu testende Wert po ist z.B. eine Mindesthaltbarkeitsdauer (oder „GarantiezeitLi.
Da der Mittelwert X eine erwartungstreue Schätzung von p mit Varianz ist,
liegt es nahe, die standardisierte Abweichung des Mittelwerts von Referenzwert po
als Teststatistik zu verwenden
Da große Werte von T gegen die Nullhypothese sprechen, wollen wir die Hullhypo-
these ablehnen, wenn die beobachtete Realisierung X in einem kritischen Bereich
der Form
14. Testen von Hypothesen 26.7.02 14 - 6
liegt, wobei wir den kritischen Wert tl zunächst noch beliebig lassen. Der kritische
Bereich Al läßt sich äquivalent durch seine Indikatorfunktion dl : IRn + { 0 , I} be-
schreiben, wobei
Formal ist die Entscheidung zwischen beiden Hypothesen Ho und Hl aufgrund der
Realisierung X gegeben durch
d(x) = 1 U Ho wird abgelehnt zugunsten von Hl aufgrund von X
Aus der Verteilung der Teststatistik
(4) -ff"(T) = N(~(P) , 1) mit
(5) Y(P):= Jn ( P - P ~ )
(Nichtzentralitä~ , 0
0
ergibt sich die Schärfe des Tests dl zu
Die Nichtzenträlität und somit auch die Schärfe Powl(p) sind streng monoton
wachsend in p, und hieraus ergeben sich die maximalen Fehlerrisiken
Für vorgegebenes Testniveau a ergibt sich daher der kritische Wert tl als oberes
a-Quantil z der N(0, 1)-Verteilung: a
Der sich hieraus ergebende einseitige GauJ3-Test zum
Niveau a lautet o zff N(0, 1)-Dichte mit a-Quantil
Einseitiger (oberer) GauJ3-Test:
Ablehnung von Ho : p < po zum Niveau a U t(x) > z a
U p(t(x)) : = @(- t(x)) < a
14. Testen von Hypothesen 26.7.02 14 - 7
Die Wahrscheinlichkeit P(t(x)) wird auch als Signifikanz oder P-Wert des beobachteten
Testwerts t(x) bezeichnet. Die zugehörige Entscheidungsfunktion des Tests ist
und die Schärfe des Tests ist gegeben durch
Es besteht ein enger Zusammenhang zwischen diesem Test und der unteren Konfi-
denzgrenze fi (X) = F- d für ,LL zur Sicherheit 1- ci! aus 3.1: der Test lehnt die U,& a
Nullhypothese genau dann ab, wenn po 5 fiu,&(x) ist, d.h. wenn die Nullhypothese
keinen Parameterwert des einseitigen Konfidenzintervalls ( fi (X) , CO) enthält, d.h. u,a
Schränkt man die Nullhypothese ein auf die einfache Nullhypothese H0:p = p0, so
ergibt sich wieder obiger Gauß-Test, weil das maximale Fehlerrisko ci! dort genau für
,LL = ,LL angenommen wird. 0
14. Testen von Hypothesen 26.7.02 14 - 8
14.2 Einseitiger (unterer) Gauß-Test mit dualen Hypothesen
Im Normalverteilungsmodell aus 14.1 betrachten wir jetzt das zu 14.1 (1)-(2) duale
Testproblem mit den Hypothesen
(1) Nullhypothese > P , bzw. Ho = [,LLo,+m),
(2) Hypothese H;: P < Po bzw. H' = ( - ~ , , L L ~ ) . 1
Dieses Testproblem kann man analog zu (Ho,Hl) behandeln oder direkt durch 2 Übergang von X auf X' :=-X mit N(,LL',D )-Verteilung und ,L': = -,L auf das Test-
problem mit (Ho ,Hl) zurückführen. Als Test ergibt sich dann der
Einseitige (unter) GauJ3-Test:
Ablehnung von Ho: ,LL > po zum Niveau a U - t ( x ) > z a U p(t(x)) : = @ ( t ( ~ ) ) a
mit der Teststatistik T aus 14.1 (3) und der zugehörigen Testfunktion d;
(3) d;(x)=l U t ( x ) < - z a U - t ( x ) > z a .
Die Schärfe dieses Tests ist
mit der Nichtzentralität ~ ( , L L ) aus 14.1 (5).
Unter Verwendung der oberen Konfidenzgrenze f i ( X ) = + da für ,LL zur Sicher- o,a
heit 1- a aus 3.1 läßt sich die Testentscheidung äquivalent wie folgt formulieren.
Der Test lehnt die Nullhypothese genau dann ab, wenn f i ( X ) <p0 ist, d.h. wenn o,a
die Nullhypothese keinen Parameterwert des einseitigen Konfidenzintervalls
(km, fi0,, ( X ) ) enthält, d.h.
14. Testen von Hypothesen 26.7.02 14 - 9
14.3 Zweiseitiger Gauß-Test
Im Normal-Verteilungsmodell aus 14.1 betrachten wir jetzt das zweiseitige Testpro-
blem mit den Hypothesen
(1) Nullhypothese H o : ~ = ~ o bzw. Ho = {PO},
(2) Hypothese H1:p bzw. Hl = R - b 0 } .
Da jetzt sowohl hohe positive als auch hohe negative Werte der Teststatistik T aus
14.1 gegen die Nullhypothese sprechen, verwenden wir den Absolutbetrag I T I als
neue Teststatistik und betrachten den zweiseitigen Test d2 mit
(3) d2(x) = 1 * I t(x) 1 > Q2 .
wobei z das obere 42-Quantil von N(0,l) ist. Die Schärfe des Tests ist &/2
mit der Nichtzentralität y(p) aus 14.1 (5) und den Schärfen der beiden einseitigen
Gauß-Tests aus 14.1 (7) und 14.2 (4). Folglich hat der Test d2 das Niveau
Pow2(pJ = a und heißt auch der
Zweiseitige Gauj3-Test:
Ablehnung von H : p = p zum Niveau a U 0 0 I t(x) I 2 z&12 U p(t(x)) := 2@(-lt(x)l) < a .
Der zweiseitige Test zum Niveau a lehnt also H : p = p genau dann ab, wenn einer 0 0
der beiden einseitigen die Nullhypothese zum halben Niveau 5 ablehnen.
Wie sich noch zeigen wird (in 14.3) ist die Schärfe des zweiseitigen Tests unter H1: p
t po ist stets kleiner (und somit das Fehlerrisiko ß(p) stets gröj3er) als bei dem ent-
sprechenden einseitigen Test zum gleichen Niveau a, d.h
für alle p > pO .
für alle p < pO .
14. Testen von Hypothesen 26.7.02 14 - 10
Es besteht wieder ein Zusammenhang zwischen dem zweiseitigen Test und dem
zweiseitigen Konfidenzintervall I(a) für ,LL zur Sicherheit 1- ci! aus 2.1 (7) : der Test
lehnt die Nullhypothese genau dann ab, wenn po nicht im Konfidenzintervall liegt:
14.4 Anwendung
Qualitätskontrolle einer Tablettenproduktion
(Kinder-Osius-Timm, Beispiel 7.17)
Bei einer schmerzstillenden Tablette ist der Gehalt X [ in mg] des Wirkstoffs Ace-
tylsalicylsäure (produktionsbedingt) eine normalverteilte Zufallsvariable mit Er-
wartungswert ,LL und einer bekannten Streuung a = 20 mg. Vor der Auslieferung ei-
ner Tagesproduktion wird im Rahmen einer Qualitätskontrolle zum Niveau ci! = 1 % überprüft, ob der Sollwert von po = 300 mg eingehalten wird, d.h. es werden die Hy-
pothesen getestet
Nullhypothese Ho: ,LL = p0 (Sollwert eingehalten: Ware einwandfrei ), Hypothese H : ,LL t p0 (Sollwert nicht eingehalten: Ware nicht einwandfrei).
Die Tagesproduktion wird nur dann ausgeliefert, wenn die Nullhypothese nicht ab-
gelehnt wird. Der Fehler 1.Art besteht darin, daß die Tagesproduktion nicht ausgelie-
fert wird, obwohl sie einwandfrei ist (Produzenten-Risiko). Und der Fehler 2. Art liegt
vor, wenn die Tagesproduktion ausgeliefert wird, obwohl sie nicht einwandfrei ist
(Konsumenten-Risiko).
Bei n = 20 zufällig ausgewählten Tabletten war f i =F = 310,75 mg und wegen
t = 2,404 < z = 2,576 bzw. P= 2 @(-2,404) = 1,62 % > ci! = 1 % 4 2
lehnt der Gaufl-Test Ho nicht ab. Da ein Fehler 2. Art vorliegen kann, ist Ho zunächst
nur mit dem unbekannten Fehlerrisiko 2. Art ß „abgesichertn.
14. Testen von Hypothesen 26.7.02 14 - 11
Abb. 1: Dichte der N(0 , 1)-verteilten Teststatistik T unter ,LL = po mit Fehlerrisiko .o und Signifikanzniveau P = P($ des beobachteten Testwerts t = t(x).
Annahme I Ablehnung Annahme I Ablehnung
Annahme
einseitig u n t e r e r Tes t
I
zweisei t iger Tes t
-4 -Za/2 0 Za/2 4 -4 -Itl 0 Itl 4
14. Testen von Hypothesen 26.7.02 14 - 12
Abb. 3: Die zweiseitige Schärfe Pow2 als Funktion von y = y ( ~ ) für a = 5% links: im Vergleich mit beiden einseitigen Schärfen (dünn) zum Niveau a rechts: als Summe der beiden einseitigen Schärfen (dünn) zum Niveau $
Abb. 2: Die einseitigen Schärfen Powl, POW; als Funktion von y = y ( ~ ) für a = 5%
-4 -3 -2 -1 0 1 2 3 4 Nichtzentralität
100
90 -
80 -
70 -
"P 60- C .- a, - 50 - :m C $ 40-
30 -
20 -
10 - a 0
-4 -3 -2 -1 0 1 2 3 4 Nichtzentralität
100 100 100
- 90 90 90
- 80 80 80
- 70 70 70
- 60 "P 60 C
60 .-
- 50 a, - 50 :m 50 C
- 40 $ 40 40
- 30 30 30
- 20 20 20
- 10 10 10 a a a
8 8 8 8 1 , 8 8 8 1 , 8 8 8 141 8 8 8 8 1 , 8 8 8 1 , 8 8 8 1 , 8 8 8 0 0 0 -4 -3 -2 -1 0 1 2 3 4 -4 -3 -2 -1 0 1 2 3 4
Nichtzentralität Nichtzentralität
15. Likelihood-Quotienten-Tests 4.4.03 15- 1
15. Likelihood-Quotienten-Tests
Nachdem wir für Normalverteilungen den Gauß-Test kennengelernt haben, wollen
wir jetzt schärfste Test definieren und das fundamentale Lemma von Neymann und
Pearson beweisen. Die daraus resultierenden Likelihood-Quotienten-Tests werden für
einparametrige Exponentialfamilien näher betrachtet.
15.1 Schärfste Tests und Neymann-Pearson Lemma
Definition: schärfster Test
Ein Test d für ein Testproblem mit einfachen Hypothesen Ho ={Bo} und
Hl = {Bl} heißt ein schärfster (engl.: MP = most powerful) Test zum Niveau u,
wenn d das Niveau ci! hat, d.h.
(1) Powd(eo) = a ~ Z W . ad(e0) = U ,
und jeder andere Test d* mit Niveau < u keine gröflere Schärfe auf H1 bzw. kein
kleineres Fehlerrisiko 2. Art besitzt , d.h.
(L] POwd*(eo) < C)L * pOwd*(el) < pOwd(el) ~ Z W .
ad*(eO) a " + pd*(el> r ßd(el) .
Definition: gleichmäJig schärfster Test
Ein Test d für ein Testproblem mit beliebigen Hypothesen Ho und Hl heißt ein
gleichmäJ32g schärfster (engl.: UMP = uniformly most powerful) Test zum Niveau
or, wenn es einen Parameterwert B. E Ho aus der Nullhypothese gibt mit
(3) a = P o w ( B ) = s u p { P o w d ( B ) ~ B ~ H o } d o bzw.
" = "d(eo) = su~{"d(e) I B E H O } > und für jeden Parameterwert Bl E Hl aus der Alternative der Test d ein bester
Test zum Niveau a für die einfachen Hypothesen HO = {Bo} und H;= {Bl} ist,
d.h. für jeden anderen Test d* gilt
(4) powd*(eo) a " * powd*(el) a p ~ w , < e ~ > bzw.
ad*(eO) 5 " + ßd*(el> 2 ßd(el) für alle el E H~ .
15. Likelihood-Quotienten-Tests 4.4.03 15- 2
Wir setzen jetzt wieder ein parametrisches Dichte-Modell für die Stichprobe
X = (Xl, ..., Xn) voraus, d.h. die Verteilung .do(X) besitzt für jedes B E B eine Dichte
fo = f(- 18) : IRn + IR bzgl. eines von 8 unabhängigen o-endlichen Maßes U auf
IR^, P).
Definition und Lemma von Ne yman-Pearson
Für das Testproblem mit den einfachen Hypothesen Ho = {Bo} und H1 = {e1} und ein festes X. > 0 ist der Neyman-Pearson Test d definiert durch
(5) 4x1 = 1 * f(x I oll > X. .f(x I Bol für alle X E IR^.
Dann ist d ist ein schärfster Test zum Niveau
(6) a : = P o w d (8 o ) .
Zusatz:
Sind Trk := {f(- I Bk) > 0) die Träger von .d(X) unter der Hypothese Hk für
k E {0, I), so liegt X unter beiden Hypothesen Po-fast sicher in Tr : = Tro U Trl.
Im nicht-trivialen Fall X o > 0 ist der Neyman-Pearson Test d der einzige
schärfste Test zum Niveau a, d.h. für jeden anderen Test d* gilt:
(7) powd*(e0) = powd(e0) und powd*(e1) = powd(e1) + ( d*(x) = d(x) für alle X E Tr ) U-fast-überall.
Man beachte, daß der Fall X. = 0 trivial ist, weil dann wegen d = 1 die Nullhypo-
these (unabhängig von der Realisierung X) stets abgelehnt wird, und somit
Powd = 1 sowie a = 1 ist. Wir setzen daher im folgenden X. > 0 voraus.
Definition: Der Dichte- oder Likelihood-Quotient ist auf Tr definiert durch
(8) X(X) = X ( X ~ B ~ , B ~ ) : = f(x I 0,) -
- I X)
E[O,oo] fÜrxETr , f(x I 0,) I X)
und wird auf dem Komplement C T ~ gleich Null gesetzt:
(9) X ( X I ~ ~ , ~ ~ ) : = O für X Sf Tr .
15. Likelihood-Quotienten-Tests 4.4.03 15- 3
Der Neymann-Pearson-Test d läßt sich nun äquivalent formulieren als
(5) ' d(x)= i U X(x I B. ,Bl) 2 X. für alle X E IRn,
und wird auch als ein Likelihood-Quotienten-Test bezeichnet, weil er den Likelihood-
Quotienten A = X(X 1 B. , 0,) als Teststatistik verwendet. Das Testniveau a hängt
vom vorgegebenen kritischen Wert X. ab, denn (6) ist äquivalent zu
und somit ist X. ein oberes a-Quantil der Verteilung von A unter Ho. Wenn die Ver-
teilung von A unter Ho eine stetige Verteilung ist, so läßt sich zu jedem vorgegebenem
Niveau a stets ein a-Quantil X. mit (6)' finden. Wenn die Verteilung von A unter
Ho dagegen eine diskrete Verteilung ist, so läßt sich nur für spezielle vorgegebenem Ni-
veaus a ein a-Quantil X. mit (6)' finden.
15.2 Monotone Likelihood-Quotienten
Wir betrachten jetzt Hypothesen über eindimensionale Parameter, d.h. es ist jetzt
S= 1 und O C IR sei ein offenes Intervall. Weiter wollen wir (wie schon an verschie-
denen Stellen zuvor) voraussetzen, daß der Träger Srg = {fg > 0) unabhängig vom
Parameter B ist, d.h. es gilt
(RIO) Tr = Tr 9 für alle B.
Dann ist der Likelihood-Qotient
(1) X(x) = X(x 1 Bo,Bl) := f(x I Q , ) -
- L(Ql I X)
E ( 0 , ~ ) für X E Tr f(x I Q , ) I X)
auf dem Träger Tr für alle Bo, B1 definiert und endlich.
Eine meßbare Funktion t :Tr+IR heißt eine monotone Likelihood-Quotienten
Transformierte (kurz: monotoner Likelihood-Quotient), wenn es zu jedem B. < B1 eine
streng monoton wachsende (und somit auch meßbare) Funktion W(- I B. ,B1) gibt, so-
daß gilt
PI x ( x I B o , B l ) = w(t(x) I B o , B l ) für alle X E Tr.
Man beachte, daß die Funktion t nur von der Stichprobe X, also nicht vom Parame-
ter abhängt. Entscheidend ist dabei, daß der Likelihood-Quotient (2) nur noch über
t(x) von der Stichprobe X abhängt und streng monoton wachsend bzgl. t(x) ist.
15. Likelihood-Quotienten-Tests 4.4.03 15 - 4
Wir betrachten nun das einseitige Testproblem mit der einfachen
(3> Nullhypothese H o : B = B o bzw. Ho = iB0} mit festem Sollwert (Referenzwert) B. E O und der zusammengesetzten einseitigen
(4) Hypothese H, : B > B, bzw. H l = { B ~ O I B > B o } .
Es sei jetzt t(-) eine monotone Likelihood-Quotienten Transformierte, und wir be-
trachten den auf der Teststatistik T = t(X) basierenden Test d mit kritischem Wert
to, definiert durch
Dieser Test ist für jedes B1 > B 0 äquivalent zum Likelihood-Quotienten Test - vgl.
13.1 (5)' - der einfachen Hypothesen Ho = {BO} und H; = {Bl}, weil
t ( x ) > t o * ~ ( x I ~ o , ~ l ) = w ( t ( x ) I ~ o , ~ l ) > w ( t o I ~ o , ~ l ) = : ~ o .
Damit ist d ein gleichmäflig schärfster (d.h UMP) Test für das Testproblem (Ho,Hl)
zum Niveau
(6) a = P O W ~ ( B ~ ) = P { T> to} . 00
Der kritische Wert to ist also ein oberes a-Quantil der Verteilung 2 (T) der Test- 00
statistik T unter Ho. Wie bereits oben erwähnt, läßt sich für vorgegebenes Niveau a
ein solches Quantil to bei stetiger Verteilung 2 (T) stets bestimmen, bei diskre- 00
ter Verteilung dagegen im allgemeinen nicht.
Erweitern wir die einfache Nullhypothese zu
(7) % : B < B o ~ Z W . % = { B E B I B < B ~ }
so ist der Test d unter der Bedingung
(8) sup { powd(B) I B 5 Bo} = powd(Qo)
auch noch ein gleichmäßig schärfster (d.h. UMP) Test für (%,Hl). Die Bedingung
(8) ist z.B. dann erfüllt, wenn die Schärfe Powd auf f$ monoton wächst.
15. Likelihood-Quotienten-Tests 4.4.03 1 5 - 5
15.3 Einparametrige Exponential-Familie
Wir betrachten jetzt wieder die Exponential-Dichte-Familien aus 7.2 mit eindimen-
sionalem Parameter, d.h. die Dichte von . d Q ( X ) bzw. das Likelihood hat die Form
(1) L ( 8 I x ) = f ( x 1 8 ) = e x p { a ( Q ) . b ( x ) + c ( Q ) + d ( x ) } für X E T r .
Der log-Likelihood-Quotient für B. < Q1 ist dann
(2) log x(x 1 8 0 , 81) = [a(Ql - a(QO)I . b ( x ) + [C@1 - c(Qo)l für X E T r .
Wenn die Funktion a auf O streng monoton wachsend ist, so ist die Funktion b eine
monotone Likelihood-Quotienten Transformierte bzgl. der Funktion
(3) w ( z I 80 , Q1) = exp([a (Q1 ) - a(Qo)l . z + c(Q1 ) - c(Qo) ) .
Mit t = b erhält man in diesem Fall einen gleichmäßig schärfsten Test für das ein-
seitige Testproblem mit den Hypothesen
Nullhypothese H o : 8 = 8 , bzw. Ho = { B o l
Hypothese H , : 8 > 8 , bzw. H l = { 8 ~ O 1 8 > 8 0 } .
Unter Verwendung des natürlichen Parameters = a ( 8 ) und der Monotonie von a
lassen sich die Hypothesen hier mit S10 = a(Bo) auch äquivalent formulieren als
(4) H o : Sl=Slo , H1: S l > d o .
Spezialfall: Identische Wiederholungen
Für die folgenden speziellen Verteilungsmodelle gehen wir jetzt zusätzlich davon
aus, daß die Komponenten von X = ( X 1 , ..., X J unabhängige Wiederholungen einer
Zufallsvariablen X sind, deren Verteilung aus einer konkreten eindimensionalen
Exponential-Familie stammt.
15. Likelihood-Quotienten-Tests 4.4.03 15- 6
Normal-Verteilung mit bekannter Varianz
2 2 -2 Es sei 2(X) = N(p,a ) mit Q = p und bekanntem a . Mit a(p) = p a und
b(x) = X = n F gilt die Exponential-Darstellung (1). Ein Vergleich mit der Test- + funktion t des einseitigen Gauß-Tests aus 12.1 zeigt, daß t(x) streng wachsend in F
und somit auch in b(x) ist. Folglich ist mit b(-) auch t(-) eine monotone Likelihood-
Quotienten Transformierte, und somit ist der einseitige Gauß-Test zunächst ein
gleichmäßig schärfster (UMP) Test der einfachen Nullhypothese s = { p O } gegen
Hl = { p E IR I p > pol . Da seine Schärfe streng wachsend in p ist, ist der Gauß-Test
auch noch ein UMP Test bei zusammengsetzter Nullhypothese Ho = { p E IR I p 5 p0}
und Alternative Hl.
Der einseitige Gauß-Test mit den dualen Hypothesen ist natürlich auch ein UMP
Test. Aber der zweiseitige Gauß-Test mit der einfachen Nullhypothese Ho = {po}
und zusammengesetzter Alternative H1 = { p E IR I p t p } ist kein UMP Test, weil 0
für p > po bzw. p < p0 der entsprechende einseitige Gauß-Test (als UMP-Test) eine
höhere Schärfe hat. Man vergleiche hierzu auch 12.3 (5) bzw. (6), die sich jetzt aus
dem Neymann-Pearson-Lemma folgern lassen.
Binomial-Verteilung
Es sei 2(x> = B(1,p) mit I9 = p. Dann ist a(p) = logit(p) die (streng wachsende) Logit-
Transformation und b(x) = X Der zugehörige UMP Test für das einseitige Test- +' problem basiert also auf der Teststatistik b(X) = X , die eine B(n,p)-Verteilung + hat, und wird später im Kapitel 17 ausführlich behandelt.
Poisson-Verteilungsmodell:
Es sei 2(x> = Pois(p) mit I9 =,L Dann ist a(p) = log(p) die (streng wachsende) Lo-
garithmus-Funktion und b ( ~ ) = X Der zugehörige UMP Test für das einseitige +' Testproblem basiert also auf der Teststatistik b(X) = X , die eine Pois(np)-Vertei- + lung hat, und läßt sich analog zum Binomial-Verteilungsmodell in Kapitel 17 her-
16. Testen eines Erwartunswertes 26.7.02 1 6 - 1
16. Testen eines Erwartungswertes
Für eine Zufallsvariable X soll ihr Erwartungswert p = E(X) mit einem festen Refe-
renzwert po verglichen werden, wobei das Testproblem wie folgt ein- oder zweisei-
tig gestellt sein kann:
H o : i L < P o , Hl: P > Po (einseitiges Testpro blem),
Ho:iL>iLo, H1+ < PO (duales einseitiges Testproblem),
H o : " = " o , Hl: P * Po (zweiseitiges Testproblem).
In der Praxis hängt es von der interessierenden Fragestellung ab, welches dieser
drei Testprobleme relevant ist, und wir geben hierfür jeweils typische Beispiele.
Ist X ein Schadstoffgehalt (z.B. in einem Nahrungsmittel oder in der Luft) und po
der zulässige gesetzliche Grenzwert, so ist der Konsument am einseitigen Test-
problem interessiert
Ho: P < Po (Grenzwert wird nicht überschritten),
Hl : P > Po (Grenzwert wird überschritten).
Ist X die Lebensdauer eines technischen Produkts und po die vom Hersteller ga-
rantierte Mindestlebensdauer, so ist für die Qualitätskontrolle das (duale) einsei-
tige Testproblem von Interesse:
Ho: P 2 Po (Mindestlebensdauer wird erreicht),
Hl : P < Po (Mindestlebensdauer wird nicht erreicht).
Ist X der Wirkstoffgehalt eines Medikaments und po der Sollgehalt laut Pa-
ckungsbeilage, so interessiert man sich für das zweiseitige Testproblem
Ho: P = Po (korrekte Dosierung),
Hl : P * Po (falsche Dosierung: Über- oder Unterd~sierun~).
Ausgangspunkt für die Tests ist wieder eine Stichprobe X = (Xl, ..., Xn) vom Umfang
n, deren Komponenten unabhängige Wiederholungen von X sind. Die beobachtete Re-
alisierung von X wird mit x bezeichnet.
16. Testen eines Erwartunswertes 26.7.02 16- 2
16.1 Einseitiger (oberer) t-Test von Student im Normal-Verteilungsmodell
Wir wollen die Testprobleme zuerst für normalverteiltes X betrachten, d.h. wir set-
zen voraus, daß X eine ~ ( ~ , a ~ ) - ~ e r t e i l u n ~ besitzt. Im Gegensatz zum Gauß-Test 2 (vgl. 12.1-3), bei dem die Varianz a als bekannt vorausgesetzt wird, gehen wir hier
2 davon aus, daß die Varianz a unbekannt ist, d.h. der unbekannte Parameter ist 2 jetzt I9 = (,L, a ) oder I9 = (,L, a) mit ,LL E IR und a > 0 und somit zweidimensional.
Zuerst betrachten wir das einseitige Testproblem mit den Hypothesen
(1) Ho:,LL<p0 bzw. Ho = {(P,O) I , L L < , L L ~ , O O ) ,
Hl+ > p0 bzw. Hl = { ( I L , ~ ) I I L > P ~ , D>( ) ) .
Der einseitige Gauß-Test aus 14.1 mit der der Teststatistik
ist zwar ein UMP Test für dieses Testproblem (vgl. 15.2), aber er läßt sich nur an- 2 wenden, wenn die Varianz a bekannt ist, was hier nicht der Fall ist. Es liegt aber
nahe, den Gauß-Test dahingehend zu modifizieren, daß man statt der Varianz a2
ihre Schätzung (vgl. Kapitel 3) verwendet:
(3) - 2 1 a (X) =-C (xi-X) 2
n -1 , Dies führt zu folgender Testfunktion t und Teststatistik T
Die Teststatistik besitzt besitzt eine (einfach) nichtzentrale t-Verteilung
(5) J', ,(T) = mit
(6) m : = n - 1 (Freiheitsgrad),
(7) y=y(,LL):= Jn (,LL-,LL0) (Nichtzentralitä~ ,
0
16. Testen eines Erwartunswertes 26.7.02 1 6 - 3
Hieraus ergibt sich (analog zum Gauß-Test) der folgende Test zum Niveau a :
Einseitiger t-Test (von Student):
Ablehnung von Ho: p < po zum Niveau a U T > t m;a '
wobei t das obere a-Quantil der (zentralen) t-Verteilung bezeichnet. Die zugehö- m; a
rige Entscheidungsfunktion lautet
Da die Verteilung von T nur noch über die Nichtzentralitä y von p und o abhängt,
ist dies auch für die Testschärfe der Fall:
mit @ als Verteilungsfunktion der nichtzentralen tm(y)-Verteilung. Aus den Ei- m, 7
genschaften von @ ergibt sich m, 7
(10) Powl (y 1 a) ist streng wachsend in y
Da y seinerseits streng wachsend in p ist, ist die Schärfe Powl auch streng wach-
send in p. Unter Verwendung des Parameters y statt p lassen sich die Hypothesen
äqivalent formulieren durch
(11) H 0 : y < 0 bzw. Ho = {(y,o) 1 7 5 0 , o>o) ,
H l : y > O bzw. Hl = {(y,o) Ir>(), o>o}.
Das maximale Fehlerrisiko 1. Art unter Ho
(12) SUP { powl(7) I 7 0 1 = powl(0)
tritt genau für y = 0 bzw. p = pO ein. Folglich hat der einseitige t-Test auch dann
noch das Niveau a, wenn man die Nullhypothese einschränkt auf H:: p = po bzw.
H:: y = O .
Der Test läßt sich auch äquivalent formulieren durch:
16. Testen eines Erwartunswertes 26.7.02 1 6 - 4
Die Wahrscheinlichkeit P{ t > t(x) ) wird auch als Signifikanzniveau des beobach- m -
teten Testwerts t(x) oder kurz als p-Wert (engl.: p-level), vgl. auch Abb. 1. Der p-Wert
ist die unter der Nullhypothese maximale Wahrscheinlichkeit dafür, daß die Teststati-
stik T mindestens so groß ist wie der beobachtete Testwert t(x)
(14) ~ { t m- > t(x)) = max P{T >t (x) ) . 7 5 0
In diesem Sinn ist der p-Wert ein Maß dafür betrachtet, wie „glaubwürdigu die Be-
bachtung X unter der Nullhypothese ist.
Wie beim Gauß-Test, so besteht auch hier wieder ein enger Zusammenhang zwi-
schen dem einseitigen t-Test und der unteren Konfidenzgrenze X- da für ,LL zur Si-
cherheit 1- u aus Abschnitt 4.3: der Test lehnt die Nullhypothese genau dann ab,
wenn ,LL die einseitige untere Konfidenzgrenze f i = X-$ für ,LL unterschreitet, 0 U,& a
d.h.
Der einseitige t-Test ist für u <+ kein UMP Test, denn für jedes feste o > 0 hat der
zugehörige Gauss-Test (als Likelihood-Quotienten Test) eine echt größere Schärfe,
d.h.
Da die Varianzschätzung 82 jedoch konsistent ist (vgl. Kapitel 3), konvergiert der
Quotient beider Teststatistiken für n+ CO gegen 1
Wegen
(18) lim n t n-l;a = Z a
konvergieren auch die kritischen Werte des t-Tests gegen den kritischen Wert des
Gauß-Tests und somit ist der einseitige t-Test im Sinn von (11) und (12) „asympto-
tisch äquivalent" zum einseitigen Gauss-Test und damit auch (in einem nicht näher
präzisierten Sinn) zumindest „asymptotisch UMP".
16. Testen eines Erwartunswertes 26.7.02 1 6 - 5
Abb. 1: Dichte der t -verteilten Teststatistik T mit Fehlerrisiko U: (rechts) und m
Signifikanzniveau P für den beobachteten Testwert t = t(x) (links)
Annahme I Ablehnung Annahme I Ablehng von H von H
0
1 -a \ I einseitig oberer Tes t 1 L I
Ablehnung I Annahme Ablehnung I Annahme
einseitig u n t e r e r Tes t
zweisei t iger Tes t
Abb. 1: Dichte der t -verteilten Teststatistik T mit Fehlerrisiko U: (rechts) und m Signifikanzniveau P für den beobachteten Testwert t = t(x) (links)
16. Testen eines Erwartunswertes 26.7.02 1 6 - 6
16.2 Dualer einseitiger (unterer) t-Test von Student im Normal-Verteilungsmodell
Im Normal-Verteilungsmodell betrachten wir jetzt das zu 16.1 (1) duale Testpro-
blem mit den Hypothesen
Dieses Testproblem kann man analog zu (Ho,Hl) behandeln oder direkt durch 2 Übergang von X auf X' :=-X mit N(,LL',D )-Verteilung und ,L': = -,L auf das Test-
problem für (Ho,Hl) zurückführen. Als Test ergibt sich dann
Einseitiger t-Test:
Ablehnung von HO: ,LL > po zum Niveau a U - T > t m;a '
mit der Teststatistik T aus 16.1 (4) und der zugehörigen Testfunktion d;
(2) d ; (x )= i U t ( x ) < - t m; a U - t ( x ) > t m; a .
Die Schärfe dieses Tests ist
Der Test läßt sich auch äquivalent formulieren durch
wobei das Signifikanzniveau des beobachteten Testwerts (p-Wert) - vgl. auch Abb. 16.1
- die unter der Nullhypothese maximale Wahrscheinlichkeit dafür, daß die Teststatistik
T höchstens so groß ist wie der beobachtete Testwert t(x)
~ { t < t(x)} = max P{T <t(x)} . m-
7 2 0
Weiter lehnt dieser Test die Nullhypopthese genau dann ab, wenn po die einseitige
obere Konfidenzgrenze f i = X + $ für ,LL überschreitet, d.h. o,a a
16. Testen eines Erwartunswertes 26.7.02 1 6 - 7
Auch der einseitige untere t-Test ist für a <+ kein UMP Test, denn für jedes feste
a > 0 hat der zugehörige Gauss-Test (als Likelihood-Quotienten Test) eine echt grö-
ßere Schärfe, d.h.
16.3 Zweiseitiger t-Test von Student im Normal-Verteilungsmodell
Im Normal-Verteilungsmodell betrachten wir jetzt das zweiseitige Testproblem mit
den Hypothesen
(1) Ho:,LL=,LLo bzw. Ho: y = 0,
H1+ bzw. H l : y r 0 .
Da jetzt sowohl hohe positive als auch hohe negative Werte von T aus gegen die
Nullhypothese sprechen, verwenden wir den Absolutbetrag I T I als neue Teststati-
stik und betrachten den Test d2 mit
(2) d2(x) = 1 * I t(x) I 2 tm;&/2 .
wobei tm,.a/2 das obere 42-Quantil der (zentralen) tm-Verteilung ist. Hieraus ergibt sich der
Zweiseitiger t-Test:
Ablehnung von H : ,LL = ,LL zum Niveau a U ( T ( > tm;@. 0 0
Der zweiseitige Test zum Niveau a lehnt also Ho: ,LL = po wieder genau dann ab,
wenn einer der beiden einseitigen Tests die Nullhypothese zum halben Niveau a/2
ablehnen. Die Schärfe des zweiseitigen Tests ergibt sich daher als Summe der
Schärfen beider einseitigen Tests zum halben Niveau:
Der Test läßt sich auch äquivalent formulieren durch:
(4) d2(x) = 1 U 2 ~ { t m - > I t ( x ) l ) < a .
16. Testen eines Erwartunswertes 26.7.02 1 6 - 8
wobei das Signifikanzniveau des beobachteten Testwerts (p-Wert) - vgl. auch Abb. 1 -
die Wahrscheinlichkeit unter der Nullhypothese dafür ist, daß der Absolutbetragm der
Teststatistik T mindestens so groß ist wie der beobachtete Absolutbetrag des Test-
wert t(x)
(5) P { l m l > t ( x ) } = 2P{ t m - > It(x)l}.
Es besteht auch wieder ein Zusammenhang zwischen dem zweiseitigen Test und
dem zweiseitigen Konfidenzintervall für ,LL zur Sicherheit 1- ci! aus Abschnitt 4.3: der
Test lehnt die Nullhypothese genau dann ab, wenn po nicht im zweiseitigen Konfi-
denzintervall (bu, a12 , P., 4 2 ) liegt:
(6) I TI 2 tm;aI2 * PO 6 ( fiu, a/i > PO, "12 1 .
16.4 Asymptotische Eigenschaften des t-Tests (bei beliebiger Verteilung)
In den meisten konkreten Anwendungen ist die Verteilungsklasse der Zufallsvari-
ablen X nicht bekannt, und man wird daher für einen Test nicht unbedingt voraus-
setzen wollen, daß X normalverteilt ist. Wir betrachten daher jetzt wieder ein beliebi-
ges Verteilungsmodell für l ( X ) , wobei wir nur vorausstzen, daß die Varianz
o2 = Var(X) endlich ist.
Die Verteilung der (auch in dieser allgemeineren Situation noch) intuitiv nahelie-
genden Teststatistik T aus 16.1 (4) hängt dann von der unbekannten Verteilung von
X ab und kann daher nicht explizit bestimmt werden. Dennoch kann man zumin-
dest für n i CO die asymptotische Verteilung der Teststatistik fi) wie folgt bestim-
men (wobei wir die Abhängigkeit von n wieder durch den Index „nn kennzeichnen):
(1) fi) A N (o,I) für ,LL=,LL o '
(2) fi) Pi - oo für ,LL<,LL~,
(3) fi) 5 + oo für ,LL>,LL~.
Die Schärfe des einseitigen (oberen) t-Tests
(4) POW?(,LL) = P { T ( ~ ) > ~ - n-l;a j
16. Testen eines Erwartunswertes 4.8.05 1 6 - 9
konvergiert daher gegen die asymptotische Schärfe
für ,LL < p0 (5) P O W ~ ( , L L ) : = ~ ~ ~ P O W ~ " ) ( , L L ) = für ,LL=,LL
für ,LL > p0
Folglich ist das asymptotische Fehlerrisiko 1. Art ebenfalls gleich a
(6) 00 00 a := max Pow (,LL) = Q 1 1
P I P ,
Betrachtet man den Test der einfachen Nullhypothese H* : ,LL = po gegen H1: ,LL > po, 0
so konvergiert das Niveau des einseitigen t-Test nach (5) gegen a
(7) 1 : = P O W ~ ( , L L ~ ) I a f u r n + o o . ..
Dieses Resultat gilt auch dann noch für die erweiterte Nullhypothese HO: ,LL 5 ,LL, wenn das maximale Fehlerrisko 1. Art a m Rand d.h. für p = p auftritt:
0
Jn) 1 : = max ~ o w l ( ~ ~ ) = ~ o w l ( ~ ~ ) . P I P ,
Analog konvergiert auch die Schärfe des dualen einseitigen (unteren) t-Tests
gegen die asymptotische Schärfe
für ,LL > p0 (9) pow; = ; i pow; "(.) = 1 H für ,LL=,LL
0 - für ,LL < p0 I
und somit hat auch der duale einseitige (untere) t-Test das asymptotische Niveau a.
Und die Schärfe des zweiseitigen t-Tests
konvergiert ebenfalls gegen die asymptotische Schärfe
für ,LL=,LL
(11) Powy(,LL):= liiPowF)(,LL) = für p s p
0
Damit hat auch der zweiseitige t-Test das asymptotische Niveau a, und das Niveau
des zweiseitigen t-Tests konvergiert auch gegen a
16. Testen eines Erwartunswertes 26.7.02 16- 10
Insgesamt haben wir somit gezeigt, daß die ein- und zweiseitigen t-Test das vorge-
genen Niveau a zumindest asymptotisch einhalten. Für die Praxis bedeutet dies, daß
man den t-Test bei nicht zu kleinem Stichprobenumfang n anwenden kann und
zwar unabhängig davon, welche Verteilung X besitzt, wobei allerdings das ange-
strebte Testniveau a im allgemeinen nur approximativ eingehalten wird.
16.5 Schärfe-Approximation des t-Tests bei beliebiger Verteilung
Wir wollen jetzt bei beliebiger Verteilung von X zunächst eine Approximation der
Testschärfe angeben. Ausgangspunkt der Schärfe-Approximation für den einseitigen
(oberen) Tests ist die Darstellung
(1) P O W ~ ( ~ ~ ~ ) = P { T > ~ - n-l;a ) = P { u + v > ~ - T ) a mit
Aus der asymptotischen Verteilung von U und V
ergibt sich
und aus (1) erhält man die Schärfe-Approximation
Da diese Approximation insbesondere auch für normalverteiltes X gilt, läßt sich die
exakte Schärfe im Normalverteilungsmodell ebenfalls so approximieren, d.h.
16. Testen eines Erwartunswertes 26.7.02 16- 11
(9) P{t,(~)>t,,.,} =P{N(y, l )>z ,} für großes m.
Da wir jedoch bereits aus 16.1 wissen, daß für y > 0 und a < die Abschätzung gilt
P{tm(r) > t,,.,} < P{N(y,l) >z,},
kann man auch den kleineren Wert als Schärfe-Approximation verwenden
was den zusätzlichen Vorteil hat, daß dieser im Normalverteilungsmodell sogar
exakt mit der Schärfe übereinstimmt.
Für die Schärfe des dualen einseitigen (unteren) Test erhält man analog
und zusammen mit (7) die Schärfe-Approximation
Aus den Schärfe-Approximationen beider einseitigen Tests ergibt sich dann die
Schärfe-Approximation für den zweiseitigen Test
16.6 Versuchsplanung beim t-Tests
Die approximierte (und natürlich auch die exakte) Schärfe beim einseitigen (obe-
ren) Test konvergiert bei festem a für n + ~ unter der einseitigen Alternative
Hl : p > p gegen 1, weil dann y + W gilt. Dies kann man ausnutzen, um den erfor- 0
derlichen Stichprobenumfang n zu bestimmen, der bei vorgegebenem a, ß E (O, l ) ,
D > 0 und p > p O eine approximative Schärfe von mindestens 1-ß garantiert, d.h.
für den gilt
(1) APowl(p l a) : = P { ~ ( y , 1) > L,} = @(Y - z,) > 1 - ß bzw.
16. Testen eines Erwartunswertes 26.7.02 16- 12
Hieraus ergibt sich der erforderliche Mindestumfang zu
2
(2) n ( * ~ , a,ß, Q) : = mit *P = 1 1 - P O I ,
der natürlich wieder auf eine ganze Zahl n aufzurunden ist. Man beachte, daß der
Mindestumfang nur über den Quotienten A P / a vom abzusichernden Unterschied
A,LL und der Standardabweichnung a abhängt.
Um sicherzustellen, daß auch bei normalverteiltem X die exakte Schärfe mindestens
1 - ß ist, kann man die Bedingung
(3) P{ t,(r 2 inPi,. 1 2 1 - ß ,
überprüfen, und gegebenfalls n schrittweise um 1 solange erhöhen, bis (5) gilt.
Für den einseitigen unteren Test ergibt sich der erforderliche Mindestumfang, der
für vorgebenenes u, ß E (0, I), a > 0 und ,LL < p0 eine approximative Schärfe minde-
stens 1-ß erreicht, ebenfalls aus (2). Und um sicherzustellen, daß auch bei normal-
verteiltem X die exakte Schärfe mindestens 1-ß ist, erhöht man n gegebenfalls so-
lange, bis gilt
Für den zweiseitigen Test nutzt man zur Bestimmung des erforderlichen Minde-
stumfang, der für vorgebenenes a, ß E (0, I), a > 0 und ,LL s ,LL eine approximative 0
Schärfe von mindestens 1-ß erreicht, aus, daß die (approximierte) Schärfe des
zweiseitigen Tests die Summe der beiden einseitigen Tests zum halben Niveau ; ist:
Konkret bestimmt man n(&, a,ß,") aus (2) - und erhöht das resultierende n gege- 2
benfalls damit (3) bzw. (4) mit 5 statt u gelten. Für den so ermittelten Umfang n ist
die (approximierte) Schärfe dann mindestens 1-ß, weil dies bereits für einen der
beiden Summanden in (5) gilt.
17. Testen einer Wahrscheinlichkeit 4.4.03 17- 1
17. Testen einer Wahrscheinlichkeit
Für ein interessierendes Ziel-Ereignis A (oft als „Erfolg" bezeichnet) soll jetzt die
Eintrittswahrscheinlichkeit p = P(A) mit einer vorgegebenen Wahrscheinlichkeit po
verglichen werden, wobei das Testproblem wie folgt ein- oder zweiseitig gestellt
sein kann:
H ~ : P S P ~ , Hl: P > P o (einseitig oberes Testproblem),
H ~ : P > Po , H;:P< Po (einseitig unteres Testproblem),
H o : p = P 0 , Hl: P *Po (zweiseitiges Testproblem).
Ausgangspunkt ist eine Stichprobe X = (X1, ..., X,) bestehend aus n unabhängigen
Wiederholungen einer B(1,p)-verteilten Zufallsvariablen. Die Summe
X = X + ...+ X ist dann B(n,p)-verteilt, und wir wissen bereits + 1 n
Das Likelihood der Stichprobe hängt nur noch über die Summe X von X ab + (vgl. 10.3)
Der UMP-Test für die einfache Nullhypothese HO : p = po gegen Hl : p > po basi-
sert auf der Summe X als Teststatistik (vgl. 15.3). + Statt der Stichprobe X können wir deshalb gleich von der Summe X ausgehen und + diese vereinfachend mit X = X bezeichnen. + Formal gehen wir im folgenden daher von einer eindimensionalen B(n,p)-verteilten
Stichprobe X aus, wobei 0 < p < 1 gelten soll. Die beobachtete Realisierung von X
wird mit X E (0, ..., n} bezeichnet.
17. Testen einer Wahrscheinlichkeit 4.4.03 17- 2
17.1 Einseitiger oberer Test einer Wahrscheinlichkeit
Zuerst betrachten wir das einseitige Testproblem mit den Hypothesen
wobei 0 <po < 1 gelten soll. Die identische Abbildung ist hier eine monotone Likeli-
hood-Quotienten Transformierte (vgl. 15.3 und 10.3), und somit ist der Likelihood-
Quotienten Test dl von der Form
wobei ohne Beschränkung der Allgemeinheit 5 E (0, ..., n} sei (der Index o steht für 0
oben). Die Schärfe
ist nach 4.2 (2) wachsend in p, und bis auf den trivialen Fall ko= 0 sogar streng
wachsend. Folglich ist der Likelihood-Quotienten Test dl auch für die nicht-einfache
Nullhypothese Ho : p < po ein UMP-Test, und das effektive Testniveau ergibt sich zu
Da X eine diskrete Verteilung besitzt, ist die rechte Seite von (4) eine fallende Trep-
penfunktion, die nur endlich viele Funktionswerte annimmt. Folglich gibt es nicht zu
jedem vorgegebenen Niveau a ein ko, so daß der resultierende Test dieses effektive
Niveau hat. Hier bieten sich drei mögliche Auswege an:
Beschränkung auf natürliche Niveaus a, d.h. solche von der Form (4),
Verwendung eines randomisierten Tests,
Verwendung eines konservativen Tests zum nominellen Niveau a.
Bei einem randomisierten Test hängt die Test-Entscheidung nicht nur von der Stich-
probe X ab, sondern noch von einer weiteren „externenu Zufallszahl Z, die von X
unabhängig ist. Obwohl randomisierte Tests theoretische Vorzüge besitzen, haben
sie sich in der Praxis aus folgenden Gründen nicht durchgesetzt. Einerseits ist nicht
einsichtig, warum eine Entscheidung über die Verteilung von X von einer externen
Zufallszahl Z abhängen soll. Und andererseits ist eine solche Entscheidung nicht re-
produzierbar, weil bei gleicher Realisierung X von X unterschiedliche Realisierungen
17. Testen einer Wahrscheinlichkeit 4.4.03 17- 3
von Z und somit auch unterschiedliche Entscheidungen möglich sind. Wir haben
deshalb bisher auf randomisierte Tests verzichtet und werden den hier angemesse-
nen randomisierten Test in 17.1.2 nur kurz zur Illustration vorstellen.
Ein Test zum nominellen Niveau a ist ein Test dessen effektives Niveau a höch- eff
stens gleich dem nominellen Niveau a ist. Ein solcher Test ist in dem Sinn konserva-
tiv, daß sein maximales Fehlerrisiko 1. Art a die vorgegebene nominelle Irrtums- eff
wahrscheinlichkeit a im allgemeinen nicht voll ausschöpft und im Einzelfall sogar
erheblich kleiner sein kann. Bei einem konservativen Test ist daher typischerweise
das Fehlerrisiko 2. Art höher bzw. die Schärfe geringer als bei einem Test zum
exakten Niveau a.
17.1.1 Exakter Test zum nominellen Niveau
In der vorliegenden Situation ergibt sich ein Test zum nominellen Niveau a, wenn
man den (oberen) kritischen Wert 5 wie folgt wählt: 0
Man beachte, daß ko auch den Wert n + l annehmen kann, und zwar für
" = P{B(n ) = n ) = P{B(n,p0) > n ) . < P, 0
Der Wert ko- 1 ist übrigens ein (1- a)-Quantil von B(n,p0), weil
(2) P{B(n,po)< ko-1) < 1- a < P{B(n,po)<k o -1).
Mit dem Wert 5 aus (1) ergibt dann der 0
Exakte einseitige obere Test einer Wahrscheinlichkeit:
Ablehnung von Ho: p < po zum nominellen Niveau a
U X > k (4 0
U P{B(n,po) > X ) < a ,
wobei die letzte Formulierung den Vorteil hat, daß man den kritischen Wert 5 (a) 0
nicht bestimmen muß, sondern statt dessen die als Signifikanzniveau oder P-Wert der
Beobachtung X bezeichnete Wahrscheinlichkeit P{B(n,po) > X ) berechnet und mit
dem nominellen Niveau a vergleicht. Das Signifikanzniveau ist die unter der ungün-
17. Testen einer Wahrscheinlichkeit 4.4.03 17- 4
stigsten Auslegung der Nullhypothese (d.h. für p =PO) berechnete Wahrscheinlich-
keit dafür, daß die Stichprobe X den beobachteten Wert X oder gröflere Werte (die unter
der Nullhypothese noch unwahrscheinlicher als X sind) annimmt. Man kann sie
kurz als Maß für die Glaubwürdigkeit der Nullhypothese im Lichte der Beobach-
tung X auffassen, und der Test lehnt die Nullhypothese genau dann ab, wenn diese
Glaubwürdigkeit zu gering ist.
Der exakte einseitige Test läßt sich auch unter Verwendung der exakten unteren
Konfidenzgrenze j (X) aus 4.2 entscheiden, weil gilt: U , &
Man beachte, daß dieser Test ein UMP Test zum effektiven Niveau Q aus 17.1 (4), eff
aber im nicht zum nominellen Niveau Q ist, ausgenommen natürlich wenn Q ein na-
türliches Niveau der Form 17.1 (4) ist.
17.1.2 Randomisierter Test
Wenn das effektive Niveau Q < Q ist, so kann man einen randomisierten Test ver- eff
wenden, dessen maximales Fehlerrisiko 1. Art genau das vorgegebene Niveau Q er-
reicht. Die Entscheidung des randomisierten Tests unterscheidet sich von der des
exakten Tests nur im Fall X = ko- 1 mit ko aus 17.2.1 (1). Und in diesem Fall lehnt
man die Nullhypothese ab mit der Wahrscheinlichkeit
Q - P { B ( n , ~ ~ ) 2 5,) Q - Q (1)
- Y = - eff
P{B(n,po) = ko-l) P{B(n,po) = 5,- 1) E [O ,1 ) .
Zur Durchführung des randomisierten Tests verwendet man eine von X unabhän-
gige Zufallsvariable Z mit B(1, Y)-Verteilung und generiert (mit einem geeigneten
Zufallsgenerator, vgl. unten) eine Realisierung z von Z. Die Entscheidungsfunktion
d des randomisierten Test ordnet dann jeder Realisierung (x,z) des Paares (X,Z) r
eine als Zahl kodierte Entscheidung d (x,z) zu mit folgender Bedeutung r
(2) d r (x,z) = 1 U Ho wird abgelehnt zugunsten von Hl aufgrund von (x,z).
Der oben beschriebene randomisierte Test ist dann gegeben durch:
17. Testen einer Wahrscheinlichkeit 4.4.03 17- 5
falls X 2 ko
(3) falls X = ko-1 } bzw. falls x < k o - 1
dT(x,z) = 1 U x > k o oder ( x = k o - l u n d z = l ) .
Man beachte, daß die „externeu Realisierung z nur im „Grenzfallu X = k - 1 ver- 0
wendet wird. Die Schärfe dieses Tests
Pow I r (p) : = P{ dr(X, Z) = 1 1 p } = P{ B(n, p) 2 ko } + a - aeff
ist nach 4.2 (2) wachsend in p. Folglich tritt das maximale Fehlerrisiko 1. Art für
p = p auf und entspricht dem vorgegebenen Niveau a : 0
(5) POW I r o 1 k ) o = Q .
Durch das Zurückgreifen auf eine „externeu Zufallsvariable Z erreicht der randomi-
sierte Test also das angestrebte Niveau a. Für einen Praktiker ist dies - wie bereits
bemerkt - unbefriedigend, weil die externe Zufallsvariable Z nichts mit der unter-
suchten Zufallsvariable X zu tun hat, und die Entscheidung dr(x,z) bei gleicher Re-
alisierung x nicht reproduzierbar ist, weil sie noch von der Realisierung z abhängt.
Dafür hat der randomisierte Test für a < a eine größere Schärfe als der exakte eff
Test aus 17.1.2 zum nominellen Niveau a, weil
Pow = P O W ~ ( ~ ) + a - a I r eff
Dies ist kein Widerspruch zum Neymann-Pearson-Lemma, weil der exakte Test ein
UMP-Test zum effektiven Niveau a aber nicht zum nominellen Niveau a ist. ef?
Man kann die Zufallsvariable Z aus einer von X unabhängigen Zufallszahl U mit
stetiger Gleichverteilung SG(0,l) auf dem Einheitsintervall (0,l) gewinnen, indem
man Z als Indikatorvariable für das Ereignis { U 5 y } wählt:
(7) 1 falls
0 falls U > y
Unter Verwendung einer Realisierung U von U - die man z.B. unter Verwendung ei-
nes (Pseudo-)Zufallsgenerators auf einem Rechner erzeugen kann - läßt sich der
randomisierte Test dann äquivalent formulieren durch:
(8) dr(x,u) = 1 U x > k o oder ( x = k o - l u n d u 5 y ) .
Man beachte, daß sich für a = a bzw. y = 0 wieder der exakte Test ergibt. eff
17. Testen einer Wahrscheinlichkeit 4.4.03 17- 6
17.1.3 Asymptotischer Gauß-Test
Da die Stichprobe X für großes n approximativ normalverteilt ist, kann man auch ei-
nen entsprechenden Gauß-Test anwenden. Ausgehend von der Schätzung P = l X
für p und der Testgröße
(1) t(x) : = J;I (P - P,)
mit 2 0 0 := PO (l-p0)
0 0
ist der entsprechende (asymptotische) Test d i definiert durch
Die Schärfe dieses einseitigen Tests ist (wobei wir wieder mit dem Stichprobenum-
fang n indizieren)
(3) > z mit
(4) fi) = t(n)(x(n)).
Da der Test von der Form 17.1 (2) ist mit kritischen Wert ko = kö(a) , hat er nach
17.1 (4) das Niveau
(5) 1 = P{ B(n,po) > kö(a)} = P{ T ( ~ ) > Z, 1 = P O W ~ ( ~ J
Aus der asymptotischen Verteilung der Teststatistik fi)
(6) f i ) i N(0,l) für p = P n+ 00 0 '
P (7) fi) - - a? n+ 00
für p <po ,
(8) fi) + a? für p >po . n+ 00
ergibt sich seine asymptotische Schärfe als Grenzwert der exakten Schärfen (3) zu
für p < po (9) ~ o w i ( ~ ) := k% P O W ~ ( ~ > = für p = P o
für p > po
Folglich ist das asymptotische Fehlerrisiko 1. Art ebenfalls gleich a
(10) 00 00
Q := max Pow = a , 1 P I P o 1
17. Testen einer Wahrscheinlichkeit 4.4.03
und die Niveaus u p konvergieren gegen das asymptotische Niveau u
(11) Jn) 1 = P O W ~ ) @ ~ ) - n+ 00 u f u r n + o o . ..
Der Test d i hat daher das asymptotische Niveau u und heißt auch der
Asymptotische einseitige obere GauJ3-Test einer Wahrscheinlichkeit:
Ablehnung von Ho: p < po zum asymptotischen Niveau u U t(x) > za.
Der asymptotische Test hat nur approximativ das Niveau u und sollte nur bei nicht
zu kleinem n und nicht zu extremen Werten von po angewandt werden. Nach einer 2 Faustregel sollte die Approximation für n o0 > 5 zufriedenstellend sein.
Der asymptotische Test läßt sich wieder äquivalent beschreiben sowohl unter Ver-
wendung des asymptotischen Signifikanzniveaus (P-Werts) der Beobachtung
als auch der asymptotischen unteren Konfidenzgrenze j7 (X) für p ( ~ ~ 1 . 4.5): u , a
17. Testen einer Wahrscheinlichkeit 4.4.03 17- 8
17.2 Einseitiger unterer Test einer Wahrscheinlichkeit
Wir betrachten jetzt das duale einseitige Testproblem mit den Hypothesen
Dieses Testproblem kann man analog zu (Ho,Hl) behandeln oder direkt durch
Übergang von X auf XI := n- X mit B(n,pl)-Verteilung und p1 : = 1-p auf das Test-
problem mit (Ho ,Hl) zurückführen. Mit dem unteren kritischen Wert
ergibt sich dann der
Exakte einseitige untere Test einer Wahrscheinlichkeit:
Ablehnung von Ho: p > po zum nominellen Niveau a U
x a k U (01) U
P { B ( ~ , P ~ ) a X ) a a U
@',,,(X) a PO .
Die Schärfe dieses Tests ist
(3) POW;(P) = POW;(P l ku(a)) : = P{ ~ ( n , P) a ku(a) 1 Und als asymptotischer Test ergibt sich der
Asymptotische einseitige untere Gauj3-Test einer Wahrscheinlichkeit:
Ablehnung von Ho: p > po zum asymptotischen Niveau a U
- t(x) > z a U
@(t(x)) < a U
- p0,,(x) 5 Po .
17. Testen einer Wahrscheinlichkeit 4.4.03 17- 9
17.3 Zweiseitiger Test einer Wahrscheinlichkeit
Schließlich betrachten wir das zweiseitige Testproblem mit den Hypothesen
Der exakte zweiseitige Test zum nominellen Niveau ci! lehnt die Nullhypothese wie-
der genau dann ab, wenn einer der beiden exakten einseitigen Tests die Nullhypo-
these zum halben nominellen Niveau 5 ablehnt:
Exakter zweiseitiger Test einer Wahrscheinlichkeit:
Ablehnung von H : p = p zum nominellen Niveau ci! 0 0 U
X > "(;) oder X < \(;) U
P{B(n,po) > X ) < ; oder P { B ( n , p o ) < x ) < ;
< I; ( X > Po - u,a/2 oder @',,„(X) PO .
Die Schärfe des zweiseitigen Tests ergibt sich wieder als Summe der Schärfen bei-
der einseitigen Tests zum halben Niveau:
Und als asymptotischer zweiseitiger Test ergibt sich analog der
Asymptotische zweiseitige Gauj3-Test einer Wahrscheinlichkeit:
Ablehnung von H : p = p zum asymptotischen Niveau ci! 0 0
U I t(x) 1 za12
U 2 G(- t ( ~ ) ) ci!
U p0 6 ( Pu, a / 2 ( ~ ) j ' o , a / 2 ( ~ ) .
17. Testen einer Wahrscheinlichkeit 4.4.03 17- 10
Test-Box: exakter Test über die Wahrscheinlichkeit p einer B(n , P)-verteilten Zufallsvariablen X.
einseitig oben
Ho: P < P O VS.
H: P > P o
einseitig unten
Ho: p > p 0 VS.
H: P < P o
zweiseitig
Ho: P = P , VS.
H: P * P o
Testniveau (Fehlerrisiko 1. Art): a (nominell) Stichprobenumfang: n Beobachtete Anzahl der Eintritte: X
beobachtete Eintrittsquote: 1 p = - X
n
Testwert: X
exakte Konfidenzgrenzen für p: $ , , ( X ) < Po,,(X) B(n, -Verteilung:
ko(a) = min { 0 < k < n I P{ B(n, > k ) < a } oberes a-Quantil
ku(a) = max { 0 < k < n I P{ B(n, < k } < a } unteres a-Quantil
Test-Entscheidung: Ablehnung von Ho (Annahme von H), falls gilt
einseitig oben
X > ko(a)
P{B(n,po) > X ) < a
< P (4 P O - u,a
einseitig unten
X < k u (01)
P{B(n,pJ < X ) < a
Poia(x) 5 PO
zweiseitig
X > ko(:) oder X < ku(5)
P{B(n,pJ > X ) < 5 oder
P{B(n,pJ < X ) < 5 po 6 ( Pu,al2(x) Po,a/,(x) 1.
Schärfe (Power), effektives Niveau a und Fehlerrisiko 2. Art Pb) e f f
einseitig oben
P0wl(p I 4 =
P{ B(n, P) 2 k 0 ( 4 1 a eff = Powl(~o I P(,) = 1 - Powl(p la )
einseitig unten
POW; I a ) =
P{ B(n, P) < k U ( 4 1 a eff = Pow; 1 a )
ß(p) = 1 - Pow;(p I
zweiseitig
pow2(p I =
P0w1(p I;) + POW;(P I;) eff = P o w ~ ( P ~ Ia)
P(P) = 1 - POW,(P I
17. Testen einer Wahrscheinlichkeit 4.4.03 17- 11
17.4 Approximation der Testschärfe und Versuchsplanung für den asymptotischen Test
Wir wollen jetzt für den asymptotischen Test eine einfache Approximation der
Schärfe herleiten. Im Rahmen einer Versuchsplanung kann dann für einen interes-
sierende Abweichung von der Nullhypothese der erforderlich Mindest- Stichprobe-
numfang bestimmt werden, bei dem die (approximierte) Schärfe einen vorgebenen
Wert erreicht.
Der Ausgangspunkt ist die approximative Normalverteilung der Standardisierung
X- n p (1) U =
- - Jn ( X 4 -P))
mit 413) Jn 4 ~ )
(2) ~ 2 ( ~ ) = ~ ( l - ~ ) .
Die Konvergenz der Verteilungsfunktion von Un gegen die der Normalverteilung
N(0,l) ist hierbei sogar gleichmäflig und von der Ordnung 1/h. Genauer gilt nach
einem Satz von Berry und Esseen (vgl. z.B. Gänssler-Stute 1977, Satz 4.2.10 und Ko-
rollar 4.2.15 ff.)
(3) I p{un < x)-P{N(o,~) < X ) 1
für alle X E IR I p{un > x)-P{N(o,~) > X ) 1
mit der von p abhängigen positiven Konstanten
c.(p2+(l-p)2) c.(l-202(p)) (4) C(P) =
- - > 0 , c = 0.7995. 4 ~ ) 4 ~ )
1 Die Funktion C(p) ist streng fallend in ~ ( p ) und nimmt ihr Minimum für ~ ( p ) =?, 1 also für p = - an. Und für a(p) + 0 (d.h. p + 0 bzw. p + 1) gilt C(p) + W. 2
Wir betrachten zuerst die Schärfe des einseitigen (oberen) Tests, die sich unter
Verwendung der standardisierten Variablen U wie folgt schreiben läßt:
Powl(p) = P{ U > - U +(P) } mit Jn(p-po) - ~ o r ~ ~
u+(P) = 4 ~ ) Da U approximativ N(0, 1)-verteilt ist, ergibt sich als approximierte Schärfe
17. Testen einer Wahrscheinlichkeit 4.4.03 17- 12
1 Mit (3) ergibt sich, daß die Schärfe-Approximation von der Ordnung - ist: Jn
Man beachte, daß bei wachsendem Umfang n i CO zwar die Schärfe Powl(p) und
ihre Approximation APowl(p) im Fall p < p o gegen 1 konvergieren - weil dann
"+(P)+ CO gilt., aber gleichzeitig auch die Güte der Approximation nach (7)
steigt.
Für die Schärfe des dualen einseitigen (unteren) ergibt sich analog (oder durch An-
wendung des einseitig unteren Tests auf Y = n - X) zu
(8) Pow;(p) = P{ U a U-(p) } mit J n ( P 0 - P) - 2, 00
"-(P) = 4 ~ ) Und die zugehörige Schärfe-Approximation
1 ist wieder von der Ordnung - Jn
Da die Schärfe des zweiseitigen Tests die Summme der Schärfen beider einseitigen
Tests zum halben Niveau ist
(11) Pow2(p 1 Cl) = p0w1(p 1;) + pow;(P 1;) ,
ergibt sich als approximierte Schärfe
Im Fall p > po überwiegt der erste Summand A P O W ~ ( ~ 1 ;) deutlich den zweiten und
man kann vereinfachend auch nur den ersten Summanden verwenden, wodurch
17. Testen einer Wahrscheinlichkeit 4.4.03
man eine Abschätzung der approximierten Schärfe nach unten erhält. Entspre-
chend kann im Fall p <po vereinfachend nur der zweite Summand APOW;(~ 1:) verwendet werden.
Nachdem wir die Schärfe-Approximationen für die asymptotischen Tests hergelei-
tet haben wollen wir jetzt auf die Versuchplanung eingehen, wobei wir mit dem ein-
seitigen (oberen) Test beginnen. Hierbei fixiert man einen „praktisch relevanten"
Wert pl > po und fragt nach dem erforderlichen Stichprobenumfang n, bei dem das
(approximierte) Fehlerrisiko 2. Art höchstens einen vorgegebenen Wert ß erreicht
bzw. die Schärfe A P O W ~ ( ~ J mindestens den Wert 1 - ß erreicht. Wegen
ergibt sich der erforderliche Mindestumfang zu
der dann auf eine natürliche Zahl aufzurunden ist.
Fragt man beim dualen einseitigen (unteren) Test nach dem Mindestumfang, der für
ein pl < po eine approximierte Schärfe APOW;(~~) von mindestens 1 - ß garantiert,
so ergibt sich analog wieder der Umfang n(pl, ß, a) aus (14).
Fragt man schließlich beim zweiseitigen Test nach dem Mindestumfang, der für ein
relevantes pl t p o eine approximierte Schärfe A P O W ~ ( ~ J von mindestens 1-ß ga-
rantiert, so kann man in näherungsweise den Umfang n(pl,ß g) mit dem halben ' 2
Niveau : verwenden. Dieser Umfang garantiert wegen (12) zwar A P O W ~ ( ~ ~ ) > 1- ß,
aber es ist nicht notwendig der kleinste Umfang mit dieser Eigenschaft.
17. Tes ten einer Wahrscheinlichkeit 4.4.03 17 - 14
Test-Box: asymptotischer Test über die Wahrscheinlichkeit p einer B(n , P)-verteilten Zufallsvariablen X.
einseitig oben
Ho: P < P 0 VS.
H : P > P o
einseitig unten
Ho: P > P 0 VS.
H : P < P o
zweiseitig
Ho: P = P , VS.
H : P * P o
Testniveau (Fehlerrisiko 1. Art): a (asymptotisch) Stichprobenumfang: n Beobachtete Anzahl der Eintritte: X
beobachtete Eintrittsquote: 1 p=-X n
Testwert: t = & ( P - P,) 2
m i t o0 = p0 (1 - p O ) 0 0
2 Faustregel für Anwendbarkeit des Tes ts : n o0 > 5.
asymptotische Konfidenzgrenzen für p: Pu(X I U ) < Po(X l a ) N(0, 1)-Verteilung: za = a-Quantil
@ = Verteilungsfunktion (vgl. TabelleIRechner)
Test-Entscheidung: Ablehnung von Ho (Annahme von H), falls gilt
einseitig oben
t > z a
P : = @(-t) 5 a
< P (44 P o - U
einseitig unten
t s - z a
P : = @ ( t ) sa Po(. 1.1 s P ,
zweiseitig
ItI >zai2
P : = 2@(- I t I ) 5 a
P , 6 (PU(x l ;> P0<xI;) 1. Approximation der Schärfe Pow(p) und des Fehlerrisikos 2. Art ß(p)
.2(~) = P (1 - P )
einseitig oben
Jn (P - P,) - zago U =
4 ~ ) Schärfe: Pow(p) N @(U) , Fehlerrisiko: ß(p) N @(- U )
einseitig unten
Jn (P , - P) - zag0 U =
4 ~ )
zweiseitig
J n I P - P o l -za,200 U =
4 ~ )
17. Testen einer Wahrscheinlichkeit 4.4.03 17 - 15
Versuchsplanungs-Box: Für Tests über die Wahrscheinlichkeit p einer B(n , P)-Verteilung
einseitig oben
Ho: P 5 Po H1 : P = P1 > Po.
einseitig unten
Ho: p > p 0 H1 : P = P1 < Po
zweiseitig
Ho: P =P,
Hl : P = P1 * Po
Vorgaben Fehlerrisiko 1. Art: Q
Fehlerrisiko 2. Art für p = pl: ß bzw. Schärfe für p = P .
1' P O W ( ~ ~ ) = 1 - P einseitig oben
CZ = Z a
Erforderlicher z ao + ~p al n E [ l 2 mit
00 = JPo(i_Po) Mindes tumfang P1 - Po 01 = Jp;(i_p;)
einseitig unten
Z = Z a
zweiseitig
= Z a / 2
17. Testen einer Wahrscheinlichkeit 4.4.03 17- 16
17.5 Anwendungen
17.5.1 Vererbung eines Merkmals
In der Genetik wird versucht, den Erbgang eines phänotypischen Merkmals durch
ein möglichst einfaches Modell zu erklären und dieses dann durch Kreuzungsversu-
che zu überprüfen. Im einfachen Modell eines dominanten Erbgangs wird die Merk-
malausprägung durch ein Gen mit zwei Allelen A (dominant) und a (rezessiv) gesteu-
ert, wobei das Merkmal auftritt, wenn mindestens ein dominantes Allel A vorhanden
ist. Ist dagegen noch ein weiteres Gen mit den Allelen B und b a m Erbgang betei-
ligt, so tritt das Merkmal z.B. bei komplementärer Polygenie nur dann auf, wenn beide
dominanten Allele A und B vorhanden sind.
Bei einer dihybriden Kreuzung AABB X aabb hat die erste Tochtergeneration (Fl)
stets den Genotyp AaBb, weil von jedem der beiden gekreuzten Genotypen pro Gen
jeweils eines der beiden vorhandenen Allele zufällig weitervererbt wird. Das Merk-
mal tritt daher in der Fl-Generation sowohl beim einfachen als auch beim Polyge-
nie-Modell stets auf. Bei einer weiteren Kreuzung Aa B b X AaBb der Fl-Generation
untereinander dagegen ergeben sich die folgenden 16 verschiedenen Genotypen der
zweiten Tochtergeneration (F2), die alle mit gleicher Wahrscheinlichkeit auftreten:
Betrachten wir nun das Ereignis „das Merkmal tritt in der F2-Generation nicht auf',
so tritt dieses Ereignis beim einfachen Vererbungsmodell mit dominantem Erbgang
AA Aa aA aa
nur in den 4 der Genotypen der aa-Zeile auf, während es beim Vererbungsmodell
der komplementären Polygenie zusätzlich noch in der bb-Spalte, also bei insgesamt 7
Genotypen auftritt. Bezeichnet p die Wahrscheinlichkeit für das Fehlen des Merk-
BB Bb bB b b
AABB AABb AAbB AAbb AaBB AaBb AabB Aabb aABB aABb aAbB aAb b aaBB aaBb aabB aabb
mals in der F2-Generation, so führen die konkurrierenden genetischen Vererbungs-
modelle zu folgenden Hypothesen
P=Po mit p o = 114 (einfaches Modell),
P=Pl mit pl = 7/16 (Polygenie-Modell),
17. Testen einer Wahrscheinlichkeit 4.4.03
Will man nun diese Hypothesen testen, so gibt es prinzipiell zwei verschieden Mö-
glichkeiten für die Wahl der Hypothesen, und zwar
oder dual
H:: =p0
Wegen po <pl kann man statt (1) bzw. (2) auch die zugehörigen erweiterten zusam-
mengesetzten Hypothesen testen
(3) Ho: P < P 0 ' H1: P>P0 7
(4) H;: P > P l ' H:: p <P,.
Die Wahl zwischen beiden Testproblemen hängt von der konkreten Bedeutung des-
Fehlerrisikos 1. Art ab, weil nur dieses durch das Testniveau begrenzt wird. Zur Er-
läuterung hierfür gehen wir davon aus, daß das einfache Modell die „Lehrbuchmei-
nung" und das Polygenie-Modell eine „neue Theorie" darstellt. Wenn sich der Test
für die „neue Theorie" entscheidet, so wird der Experimentator die neue Theorie
verkünden. Aber wenn der Test sich für die „LehrbuchmeinungU entscheidet, so
wird er nichts unternehmen. Für das Testproblem (1) ist der Fehler 1. Art das Ver-
künden einer „neuen Theorie", obwohl die Lehrbuchmeinung richtig ist („wissen-
schaftliche BlamageL?. Der Fehler 1. Art beim Testproblem (2) - der übrigens der
Fehler 2. Art beim Testproblem (1) ist - dagegen besteht darin, die neue Theorie
nicht zu verkünden, obwohl sie zutrifft („Verhinderung neuer Erkenntnis'?. Wenn
der Experimentator primär das Risiko für eine „wissenschaftliche Blamage" durch
das Testniveau kontrollieren will, so wird er daher das Testproblem (1) bzw. seine
erweiterung (3) wählen, und davon wollen wir im folgenden auch ausgehen.
Die Anzahl X der Erfolge (Merkmal fehlt) unter allen n Nachkommen der
Fz-Generation ist dann B(n,p)-verteilt und für n = 40 unter beiden Vererbungsmo-
dellen in Abb. 17.4.1 (zusammen mit ihren Approximationen durch Normalvertei-
lungen) dargestellt. und in Tab. 1-2 tabelliert..
17. Testen einer Wahrscheinlichkeit 4.4.03 17- 18
1 Nu1 lhypothese: einfaches Model 1 p=1/4
Hypothese: Polygenie-Modell p=7/16
„Neue Theorie"
Abb. 1: B(n,pi)-Verteilung von X mit Normalapproximation für n = 40, i E {O, 1).
Für den exakten Test von (1) bzw. (3) zum nominellen Niveau uo = 5% ergibt sich
aus Tab. 1 der obere kritische Wert k (uJ = 16 und das tatsächliche Testniveau ist 0
mit u = P{X > 16 1 pO} = 2,62% erheblich niedriger als das nominelle Niveau von
5%. Beim Gauj3-Test zum asymptotischen Niveau u = 5% ergibt sich mit za = 1,645
der kritische Wert kö(u)=14.5 und das Testniveau ist mit a(n)=
P{X > 15 1 po} = 5,44% relativ dicht a m asymptotischen Niveau.
Unter p =pl ist die Scharfe des exakten Tests mit P{X> 16 I p l } = 73,65% laut Tab.
2 geringer als die Scharfe P{X > 15 1 pl} = 83,03% des asymptotischen Tests, und so-
mit ist das zugehörige Fehlerrisiko 2. Art P{X < 16 1 pl} = 26,35% des exakten Tests
höher als das Risiko P{ X < 15 1 pl} = 16.97% beim asymptotischen Test.
17. Testen einer Wahrscheinlichkeit 4.4.03 17- 19
17. Testen einer Wahrscheinlichkeit 4.4.03 17- 20
Der erforderliche Mindestumfang n, bei dem für p =pl das asymptotische Fehlerri-
siko ß(pJ < 10 % ist, ergibt sich aus z = 1,282 zu n = 51,69, d.h. aufgerundet 10%
n = 52. Der exakte Test hat für n = 52 den oberen kritische Wert ko(ao) = 25 mit dem
effektiven Niveau a = P{ X > 25 1 po} = 4,30% und daszugehörige exakte Fehlerrisiko
2. Art P{X < 25 1 pl} = 1468% liegt noch über 10%.
Damit auch das exakte Fehlerrisiko P< 10% ist, kann man den Umfang n=52
schrittweise erhöhen und das exakte ß(pl) bestimmen. Da hierbei das effektive Ni-
veau a teilweise stark vom nominellen Niveau ao = 5% abweicht, erhält man erst
für n = 56 das Fehlerrisikoß(pJ = 8,80% bei einem effektiven Niveau a = 4,86%.
17.5.2 Wahlprognose
Eine „kleinen Partei mit Stimmanteil p will ihre Zustimmung zu vorzeitigen Neu-
wahlen von einer Meinungsumfrage (mit Umfang n) abhängig machen, die heraus-
finden soll, ob sie an der 5%-Klausel scheitern würde oder nicht. Die zugehörigen
Hypothesen lauten
H ~ : p < p 0 = 5 % (Scheitern an 5%-Hürde),
H : p > p = 5 % (Einzug ins Parlament). 0
Fehler 1 .Art: Neuwahlen, obwohl 5%-Hürde nicht erreicht wird (Katastrophe).
Daher wird extrem kleines a gewählt: a = 0,5 % .
Fehler 2.Art: Keine Neuwahlen, obwohl Einzug ins Parlament gesichert wäre
(günstiger Wahltermin nicht genutzt).
Frage 1: Wie groß ist das Fehlerrisiko ß = ß(p) für p = 7% und n = 1000 ?
Es ist: U (P) = 0,28 + ß(p) = @(-0,28) N 39 % .
Da das Risiko ß(p) noch ziemlich hoch ist, stellt sich die nächste Frage.
Frage 2: Wie hoch muß der Umfang n (mindestens) sein, damit für p = 7% das
Fehlerrisiko ß(p) (höchstens) 10 % ist ?
Es ist: ß = 10% zp = 1,282
n = 1973 N 2000 .
18. Likelihood-Quotienten Tests 26.7.02 18- 1
18. Likelihood-Quotienten Tests
Wir wollen jetzt in einem parametrischen Dichte-Modell mit S-dimensionalem Pa- s rameter B E B C R einen Test angeben für das allgemeine Testproblem mit den
Hypothesen
(1) H o : B ~ B o , H l : B ~ B 1 , mit B = B O ~ B l .
Hierbei ist B0 bzw. B1 eine Teilmenge des Parameterraumes B, die nach unserer
bisherigen Konvention mit der zugehörigen Hypothese identifiziert wird, d.h.
Ho = B. bzw. Hl =B1. Aus Gründen der Übersicht ist es jedoch hier manchmal
zweckmäßiger, die Hypothese und zugehörige Parametermenge verschieden zu be-
zeichnen, wie dies in (1) geschehen ist.
Die beobachtete Stichprobe besteht wieder (wie in Kapitel 9) aus einem n-
dimensionalen Zufallsvektor X = (Xl, ... , Xn), dessen Verteilung .dg(X) für jedes
B E B eine Dichte fg = f(- 1 B) : Rn + R bzgl. eines von B unabhängigen 0-endlichen
Maßes U auf (Rn,Bn) besitzt. An den Parameterraum B werden zunächst keine
weiteren Forderungen gestellt (er wird also nicht als offen und konvex vorausgesetzt).
Wir wollen allerdings wieder voraussetzen, daß der Träger Trg : = {f(- I B) > 0 ) der
Verteilung von X nicht vom Parameter abhängt, d.h. es gilt
(RIO) Tr = Tr 6' für alle B .
18.1 Allgemeiner Likelihood-Quotienten Test
Für eine Nullhypothese Ho ist der Likelihood-Quotient (kurz: LQ) einer beobachteten
Realisierung X E Tr definiert als das Supremum der Likelihood-Funktion L(- I X)
unter der Nullhypothese bezogen auf das globale Supremum, d.h. als
(1) sup {L(BI X) I B E Go)
= ' ( x I H ~ ) :=
{L(eIx) I BEB) für X E Tr
(Likelihood-Quotient von Ho).
Zur Vermeidung unnötiger Fallunterscheidungen wollen wir hier uns gleich auf den
anwendungsrelevanten Fall beschränken, daß die Likelihood-Funktion L(- I X) für
18. Likelihood-Quotienten Tests 26.7.02 18- 2
jedes X E Tr beschränkt ist. Dann ist der Likekelihood-Quotient X(x) E ( O , l ] stets de-
finiert. Unter Verwendung einer ML-Schätzung d(x) für 8, d.h.
(2) L(~(x) I X) = SUP { ~ ( e I X) I e E B}
und einer ML-Schätzung d,(x) E 0, für 0 unter der Nullhypothese, d.h.
(3) L(~,(x) I X) = sup { ~ ( e I X) I B E B,}
läßt sich der Likelihood-Quotient auch schreiben als
(4) X(x)=X(xIH,):= für X E Tr.
Wenn der Likelihood-Quotient Werte deutlich kleiner als 1 annimmt, so spricht
dies gegen die Nullhypothese. Dies führt zum Likelihood-Quotienten Test d, der für ein
fest vorgegebenes X, < 1 definiert ist durch
(5) Likelihood-Quotienten Test: d(x) = 1 U X(x) 5 X,.
Die Schärfe und das Niveau dieses Tests ergeben sich zu
(6) powd(e) = powd(e 1 X,) : = P ~ { X(X) 5 X, 1 ,
(7) ad= sup {Pow~(BIX,)~BEB,}.
Wenn X eine stetige Verteilung hat, so kann man zu vorgegebenem Testniveau a ei-
nen kritischen Wert X, finden, sodaß ad = a ist. Bei diskret verteiltem X dagegen
kann man zu a im allgemeinen nur ein X, finden mit ad 5 a, d.h. der Test d hat a
nur als nominelles Niveau.
Statt (1) wird auch der folgende Likelihood-Quotient von (H,) H1) verwendet
SUP {L(OI X) I B,} (8) X ( x ~ H ~ ~ H 1 ) : = S U P ~ L ( e I x ) ~ ~ E ~ l ~ E ( 0 , ~ ) für X E Tr
(Likelihood-Quotient von H,, Hl).
Wegen
(9> X(xIHJ = min{l,X(xIHo,H1)}
gilt für X, < 1
18. Likelihood-Quotienten Tests 26.7.02 18- 3
und folglich läßt sich der Likelihood-Quotienten Test auch äquivalent mit
X(x I Ho, H,) anstelle von X(x I Ho) formulieren. Der reziproke Wert
ist der Likelihood-Quotient für die „vertauschtenn Hypothesen, und der Test d läßt
sich äquivalent formulieren als
Der im Kapitel 15 eingeführte Likelihood Quotient für einfache Hypothesen ist in
der jetzigen Terminologie genau der reziproke Wert von X(x I Ho, H,), und der zuge-
hörige Neyman-Pearson Test aus 15 (5)' ist daher ein Likelihood-Quotienten Test
von der obigen Form (5). Da der allgemeine Likelihood-Quotienten Test d eine di-
rekte Verallgemeinerung (von einfachen auf zusammengesetzte Hypothesen) des
Neyman-Pearson Tests ist, wird man vermuten, daß sich die guten Eigenschaften
des Neymann-Pearson Tests in geeigneter Form (z.B. asymptotisch) auf den allge-
meinen Likelihood-Quotienten Test übertragen. Ohne diesem Problem hier genauer
nachzugehen, wollen wir zumindest zwei wichtige Eigenschaften des Likelihood-
Quotienten ansprechen: seine Invarianz bei Umparametrisierung und seine asymp-
totische Verteilung.
18.2 Invarianz des Likelihood-Quotienten bei Umparametrisierung
S Wir betrachten jetzt eine bijektive Umparametrisierung g : @+ P C IR mit dem
„neuenn Parameter $ =g(B) E P. Die Hypothesen lassen sich dann äquivalent for-
mulieren als
(I> Ho: $ ~ * ~ : = g [ @ , ] , H,:$€P, :=g[@,] mit 8 = P o U 8 1
Bezeichnet ¿ ( $ I X) : = ~ ( ~ ~ ' ( 4 ) 1 X) = L(B 1 X) die Likelihood-Funktion bzgl. des
neuen Parameters $, so läßt sich der Likelihood-Quotient auch darstellen als
für X E Tr.
18. Likelihood-Quotienten Tests 26.7.02 18 - 4
Folglich ist der Likelihood-Quotient (ebenso wie die Maximum-Likelihood Schät-
zung) invariant gegenüber dieser Umparametrisierung, und diese Invarianz gilt
dann natürlich auch für den Likelihood-Quotienten Test.
S Viele wichtige Testprobleme lassen derart umparametrisieren, daß !P = IR gilt, und
!Po C IRs sogar ein linearer Teilraum ist. Man spricht dann von einem Testproblem
mit linearen Hypothesen, wobei eine Hypothese als linear bezeichnet wird, wenn sie
einem linearen Teilraum des zugrundeliegenden Parameterraums entspricht.
18.3 Asymptotische Verteilung des Likelihood-Quotienten
Wir betrachten jetzt wieder das Stichproben-Modell bei dem die Komponenten von
X = (X,, ..., xn) unabhängige Wiederholungen einer Zufallsvariablen X sind, deren
Verteilung von B abhängt. Weiter gehen wir davon aus, daß es sich um lineare Hypo- S thesen handelt, d.h. und @ sind lineare Teilräume des IR , wobei man ohne Be-
schränkung der Allgemeinheit (ggf. durch lineare Umparametrisierung) S = Dim @ S und somit @ = IR wählen kann. Unter geeeigneten Regularitätsbedingungen (die hier
nicht explizit formuliert werden) läßt sich dann zeigen, daß der transformierte Li-
kelihood-Quotient t(X) : = - 2 log X(X) unter der Nullhypothese für n + CO eine
asymptotische Chiquadrat-Verteilung besitzt
(1) 2 t(x(" ) = - 2 log x(x(~)) - 2
Xm für B E mit n+ 00
(2) m = D i m @ - D i m @ 0
Der Freiheitsgrad m ist hierbei gerade der Dimensionsunterschied des gesamten Pa-
rameterraums @ zu dem durch die Nullhypothese eingeschränkten linearen Unter- 2 raums Go. Bezeichnet X2 das obere a-Quantil der xm-Verteilung, so ergibt sich
m; a der
Asymptotische Likelihood-Quotienten Test: 2 (3) Ablehnung von Ho zum asymptotischen Niveau a U t(X) > X,;, .
19. Vergleich zweier Erwartungswerte bei Normalverteilungen 2.8.06 1 9 - 1
19. Vergleich von zwei Erwartungswerten bei Normalverteilungen mit gleichen Varianzen
Nachdem wir bisher Tests für den Erwartungswert einer Zufallsvariablen X behan-
delt haben, betrachten wir jetzt zwei Zufallsvariablen X und Y mit Erwartungswer- 2 2 ten pX = E(X) und pY = E(Y) und Varianzen oX= Var(X) und oy = Var(Y). Typi-
sche Anwendungsbeispiele hierfür sind
die Meßergebnisse X und Y aus zwei verschiedenen Meßverfahren,
das Geburtsgewicht X bzw. Y der männlichen bzw. weiblichen Neugeborenen,
der Blutdruck X bzw. Y von Patienten unter zwei verschiedenen Medikamenten,
die Schadstoffbelastungen X und Y in zwei verschiedenen Regionen.
Von Interesse sind Vergleiche der beiden Erwartungswerte ,LL und ,LL also insbeson- X Y
dere Tests und Konfidenzgrenzen für den Unterschied ,LL - Wir werden in die- X Y'
Sem Kapitel die zugehörigen Tests (und Konfidenzbereiche) zuerst für normalver- 2 teiltes X und Y mit gleichen Varianzen o2 = o entwickeln, weil man in dieser Situ-
X Y
ation der Likelihood-Quotienten-Test zu einem exakten (im Gegensatz zu asymptoti-
sehen) Tests führt. Der Fall mit beliebiger Verteilung von X und Y und nicht not-
wendig gleichen Varianzen wird im Kapitel 20 behandelt.
19.0 Testproblem und Stichproben-Modelle
Wir wollen jetzt für zwei Zufallsvariablen X und Y ihre Erwartungswerte
= E(X) und p y = E(Y) miteinander vergleichen, wobei das Testproblem ein-
oder zweiseitig gestellt sein kann:
(1) H o : P x 5 P y ? H l : P x > P y (einseitiges Testpro blem),
(2) H o : P x = P y ? H1 : P x * P y (zweiseitiges Testproblem).
Unter Verwendung der Differenz A,LL : = ,LL - ,LL beider Erwartungswerte lassen sich X Y
die Hypothesen äquivalent formulieren als
(1) H o : A p < O , : aP > 0 (einseitiges Testproblem),
P) H 0 :aP=O, : aP t 0 (zweiseitiges Testproblem).
19. Vergleich zweier Erwartungswerte bei Normalverteilungen 28.10.02 19- 2
Man beachte, daß die zweiseitige Nullhypothese eine lineare Hypothese ist. Für die
Form der Datenerhebung betrachten wir zwei verschiedene Stichproben-Modelle.
Zwei-Stichproben-Modell: Es liegen zwei voneinander unabhängige Teilstich-
proben X = (Xl, ..., X ) und Y = (Y1„ Y ) vom Umfang n und ny vor, wobei die n x n~ X
Komponenten von X bzw. Y jeweils unabhängige Wiederholungen von X bzw. Y
sind. Die Gesamtstichprobe Z = (X, Y) vom Umfang n = nx+ny läßt sich dann
auch schreiben als Z = (Zl, ..., Zn), wobei
Die beobachtete Realisierung von Z = (X, Y) wird mit z = (X, y) bezeichnet.
Ein-Stichproben-Modell: Eine prinzipiell andere Art der Datenerhebung besteht
darin, daß beide Zufallsvariablen X und Y jeweils am gleichen Untersuchunbgsob-
jekt beobachtet werden. Dies ist z.B. bei der Bestimmung eines Schadstoffgehalts
der Fall, wenn beide Meßergebnisse X und Y mit unterschiedlichen Meßmethoden
aber a m gleichen Nahrungsmittel durchgeführt werden. Eine solche verbundene
Stichprobe besteht dann aus n unabhängigen Wiederholungen (X., Y .) des Paares 2 2
(X,Y), wobei die einzelnen Komponenten Xi und Yi im typischerweise nicht vonei-
nander unabhängig sind (z.B. weil sie a m gleichen Objekt beobachtet werden). Da
die Differenz D = X - Y den Erwartungswert E(D) = A,LL hat, können die obigen
Testprobleme auch als Tests für den Erwartungswert von D aufgefaßt und mit den
Methoden des Kapitels 16 (mit p0 = 0 als Referenzwert ) behandelt werden. Im fol-
genden wird daher nur noch das Zwei-Stichproben-Modell behandelt.
19. Vergleich zweier Erwartungswerte bei Normalverteilungen 28.10.02 19 - 3
19.1 Das Normal-Verteilungsmodell mit gleichen Varianzen
Wir wollen die Testprobleme hier nur für normalverteiltes X und Y betrachten, d.h.
wir setzen - für den Rest des Kapitels - das Normal-Verteilungsmodell voraus:
Der Einfachheit halber wollen wir zusätzlich davon ausgehen, daß die beiden Vari-
anzen gleich (aber unbekannt) sind, d.h. es gilt
2 2 2 (HV) a = a = a X Y (homogene Varianzen) .
2 2 Der Modellparameter 19 = (iLy , py , a ) E O = R X ( 0 , CO) ist hier also dreidimensional. 2 Man kann auch logo E R statt a verwenden und hat dann für den Parameter
3 $ = (b , py , log a) den ganzen R als (linearen) Parameterraum.
Es sei noch angemerkt, daß sich die folgenden Betrachtungen auch relativ einfach
auf den Fall inhomogener Varianzen erweitern lassen, sofern der Varianz-Quotient 2 2
T = a /a bekannt ist. Unter Verwendung der - dann bekannten - Gewichtsfaktoren X Y
lassen sich die Varianzen darstellen als
mit a als unbekanntem Parameter (Skalenfaktor). Das Testproblem für das Vari-
anz-Modell (2) kann dann im Rahmen des sogenannten Klassischen Linearen Modells
für Normalverteilungen mit gewichteten Varianzen als einfacher Spezialfall behandelt
werden. Wir wollen uns hier aber in diesem Kapitel auf das Modell (HV) mit ho-
mogene Varianzen beschränken, d.h. T = l und somit W = W = l voraussetzen. X Y
19. Vergleich zweier Erwartungswerte bei Normalverteilungen 28.10.02 19 - 4
19.2 Der zweiseitige t-Test als Likelihood-Quotienten Test
Wir betrachten zuerst das zweiseitige Testproblem (im Zwei-Stichproben-Modell) und
wollen dafür den Likelihood-Quotienten aus Kapitel 18 in der vorliegenden Situ- 2 ation bestimmen. Bezeichnet Y(- I p, o ) die Dichte von N ( , L L , ~ ~ ) , d.h.
(1) 2 2 1/2
'p(x1p,02) = [ 2 m .~xP{$(x-P) }I- für X E IR,
so läßt sich das Likelihood für die Beobachtung (x,y) darstellen als Produkt
deren Faktoren das Likelihood für X bzw. y sind:
2 Die ML-Schätzungen für pX, py und o ergeben sich dann zu
(4) f i x = " , f i y = Y , 82 L = '(SXX n +sYy) .
mit Z bzw. Y, als Mittelwerte von X bzw. y und den quadratischen Formen
Die ML-Schätzung 8; der Varianz ist nicht erwartungstreu, und wir haben sie mit
dem Index ,,Lu versehen, weil wir später auch noch eine erwartungstreue Schätzung
für o2 betrachten werden, die mit 82 bezeichnet wird.
Für die Maximierung des Likelihoods (6) unter der Nullhypothese Ho:pX=py ist
die Funktion
zu maximieren, wobei z = (x,y) ist. Und hieraus ergeben sich die ML-Schätzungen 2 für pX, py und o unter der Nullhypothese Ho : px = py ZU
mit 2 als Mittelwert von z = (x,y), wobei die ML-Schätzung 8iL der Varianz wieder
nicht erwartungstreu ist.
Für den Likelihood-Quotienten
19. Vergleich zweier Erwartungswerte bei Normalverteilungen 28.10.02 19-5
erhält man unter Verwendung von
(9) - 1 z = [nxx + nyy] ,
(10) Szz = sxx +syy + (- 2 1 1 1 X-y) (-+-)- nx n~
nach einigen Umformungen eine Darstellung der Form.
(11) - 2 log ~ ( x , y 1 H ~ ) = n log (I + m t2(x, Y)) .
Hierbei ist
der sogenannte Freiheitsgrad, und die Testfunktion t ist gegeben durch
X-y (13) t(x,y):= (Testfunktion) mit
.n(", Y)
1 1 (14) &;(X, Y) : = 8 2 ( x , ~ ) (G + ny )
" 2 (15) a ( x , y ) : = m L(Sxx+Syy) .
wobei
2 82(x,y) ist eine weitere Schätzung von a ist, die - im Gegensatz zur ML-Schätzung " 2 a - jedoch erwartungstreu ist (vgl. 2.2).
L
Wir bestimmen jetzt die Verteilung der zugehörigen Teststatistik
X- Y (16) T=t(X,Y) = - -
Afi(X, Y) mit
g x , Y) g x , Y)
(17) Afi(X, Y) = /?(X) - /?(Y) = X - Y .
Der Zähler von T ist normalverteilt
mit
2 Folglich ist 8; eine erwartungstreue Schätzung von an und wie folgt verteilt
19. Vergleich zweier Erwartungswerte bei Normalverteilungen 28.10.02 19 - 6
Damit hat die Teststatistik T eine nichtzentrale t-Verteilung
mit der Nichtzentralität
Insbesondere hat T unter der zweiseitigen Nullypothese Ho: A p = 0 eine (zentrale)
tm-Verteilung und hieraus ergibt sich dann der folgende
Zweiseitige t-Test:
Ablehnung von Ho: pX = pY zum Niveau cu U I T I 2 tmiaI2 .
Dies ist genau der Likelihood-Quotienten Test aus Kapitel 18, weil der Likelihood-
Quotient nach (11) eine streng fallende Funktion in bzw. I T I ist, und somit ist
(23) 1 2
I T I 2 t,,. a/2 U X(x,yIHo) 5 A n & : = n ( l + - t m m; a/2 )-n/ 2
Die Test-Schärfe hängt nur noch über die Nichtzentralität y vom Parameter 2 19 = ( , L L ~ , , L L ~ , D ) ab und ergibt sich unter Verwendung der Verteilungsfunktion
m, 7 von tm(y) ZU:
(24) P O ~ ~ ( ~ I Q ) : = P ~ { I T I > ~ ~ , ~ / ~ 1
= P{Itm(^i)12 tm,&/2 1
= - 'm, tm, a/2 ) + 'm, tm, a/2 1 .
19. Vergleich zweier Erwartungswerte bei Normalverteilungen 8.10.03 1 9 - 7
19.3 Der einseitige t-Test
Für das einseitige Testproblem im Zwei-Stichproben-Modell verwendet man ebenfalls
die obige Teststatistik T. Da groJ3e Werte von T für die einseitige Hypothese
H1 : b> py sprechen, ergibt sich der
Einseitige t-Test:
Ablehnung von Ho: px < pY zum Niveau a U T > t . m; a
Die Schärfe des einseitigen Tests
ist streng monoton wachsend in y.
19. Vergleich zweier Erwartungswerte bei Normalverteilungen 28.10.02 19 - 8
19.4 Konfidenzgrenzen für die Differenz der Erwartungswerte
Neben den behandelten Tests für die Differenz A p der Erwartungswerte sind (ins-
besondere bei einer Ablehnung der Nullhypothese) auch Konfidenzgrenzen für die
Differenz A p von Interesse. Ausgangspunkt ist die Modifikation der Teststatistik
die eine zentrale t-Verteilung besitzt
Hieraus ergeben sich die einseitige untere bzw. obere Konfidenzgrenze zur exakten
Sicherheit 1 - ci!
Der einseitige Test lehnt Ho: A p < 0 genau dann ab, wenn (Ap) > 0 gilt. Und das u - zweiseitige Konfidenzintervall für A p zur asymptotischen Sicherheit 1- ci! ist dann
gegeben durch die Randpunkte
20. Vergleich zweier Erwartungswerte bei beliebigen Verteilungen 4.4.03 20 - 1
20. Vergleich von zwei Erwartungswerten bei beliebigen Verteilungen
Wir betrachten wieder - wie im vorigen Kapitel - zwei Zufallsvariablen X und Y
deren Erwartungswerte px = E(X) und p y = E(Y) miteinander verglichen werden
sollen:
(1) H o : P x < P y ? H l : P x > P y (einseitiges Testpro blem),
(2) H o : P x = P y ? H1 : P x * P y (zweiseitiges Testproblem).
Im Gegensatz zum letzten Kapitel soll aber diesmal nicht vorausgesetzt werden , daß die Zufallsvariablen X und Y normalverteilt sind. Wir betrachten jetzt ein belie-
biges Verteilungsmodell für 2(X) und 2 (Y) , wobei wir nur vorausestzen, daß die
Varianzen o2 = Var(X) und 0: = Var(Y) endlich sind und auch nicht notwendig X
übereinstimmen müssen. Ausgangspunkt ist wieder das Zwei-Stichproben-Modell
aus dem letzten Kapitel.
20.1 Herleitung einer Teststatistik
Es ist wieder naheliegend, eine geeignete Standardisierung der Mittelwert-Differenz
(1) nfi = &?(X, Y) = X- Y
als Teststatistik zu verwenden. Nun ist
2 Die Varianzen o2 und oy lassen sich jeweils aus den beiden Teilstichproben X und X
y schätzen durch (vgl. Kapitel 2)
2 und hieraus ergibt sich folgende Schätzung für oa
20. Vergleich zweier Erwartungswerte bei beliebigen Verteilungen 2.8.06 20 - 2
Als Testfunktion t wollen wir daher die wie folgt standardisierte Differenz der Mit-
telwerte verwenden
- nii(x,Y) - X - y
(6) t = t (x ,y ) := - (Testfunktion). .,(X, Y) .,(X, Y)
Ein Vergleich mit der Testfunktion aus 19.2 für das Normalverteilungs-Modell mit
homogenen Varianzen zeigt, daß beide Testfunktionen zwar gleich aufgebaut sind,
aber unterschiedliche Schätzungen für die Varianz von X- Y verwenden. Die dort
verwendete Schätzung - die wir hier mit dem Index H (für Homogenität der Varian-
zen) versehen läßt sich auch schreiben als
mit
Ein Vergleich mit (5) zeigt, daß es sich bei dem Ausdruck in den Klammern [ ... ] je-
weils um einen unterschiedlich gewichteten Mittelwert der Schätzungen &;(,) und
&:(Y) handelt. Wenn sich beide Schätzungen &;(X) und &:(Y) nur wenig unter-
scheiden (und das sollte man unter der Annahme homogener Varianzen ja erwar-
ten) so wird auch der Unterschied zwischen <(,,Y) und t H ( x , y ) nur gering sein.
Darüber hinaus stimmen &;(x,y) und 2 im balancierten Fall nx = ny sogar
exakt überein, weil dann c = c = C* = C* =L ist. X Y X Y 2
20.2 Asymptotische Verteilung der Teststatistik
Die Verteilung der zugehörigen Teststatistik T = t(X,Y) hängt von den unbekann-
ten Verteilungen von X und Y ab. Selbst im Normalverteilungsmodell hängt die
Verteilung von T auch unter der zweiseitigen Nullhypothese ,LL = py noch vom Va- X
2 rianzquotienten o /02 ab, und läßt sich daher nur bei bekanntem Varianzquo- X Y
2 2 tienten bestimmen (was wir im Kapitel 19 ja auch für ox /oy = I getan haben). Wir
wollen daher hier eine asymptotische Verteilung der Teststatistik für n + CO herlei-
ten.
20. Vergleich zweier Erwartungswerte bei beliebigen Verteilungen 4.4.03 20 - 3
Hierzu betrachten wir eine Asymptotik mit wachsenden Teilstichprobenumfängen
n + CO und n + CO und konstanten Stichproben-Anteilen. Formal geben wir uns X Y
hierfür die Stichproben-Anteile als rationale Zahlen cx, cy E $ vor mit
und betrachten für n + CO diejenige Teilfolge, bei der die resultierenden Teilstich-
proben-Umfänge
ganzzahlig sind. Statt der Stichproben-Anteile cX, cy kann man auch den Quotienten
vorgeben und erhält für ein solches 0 < rXY E $ die Stichproben-Anteile
1 Man spricht von balancierten Umfängen, wenn rxy = 1 und somit c = c = - gilt. X Y 2
Für den oben beschrieben Grenzprozeß n + CO (bei dem wir wieder alle relvanten
Größen mit dem Index n indizieren) ergibt sich die asymptotische Normalvertei-
lung der Schätzung
2 (6) J;; [Abn - AP] - ~ ( 0 , wobei
. - (7) T 2 . - - 1 2 1 2 o = n a 2
Cx X Y Y An
bzw. in äquivalenter Formulierung
Die Konvergenz der Verteilungsfunktion von Un gegen die der Normalverteilung
N(0,l) ist hierbei sogar gleichmäflig und von der Ordnung I/& sofern die dritten ab- 3 soluten Momente E { I X-px I } und E { I Y- py l 3 ) von X und Y endlich sind. Ge-
20. Vergleich zweier Erwartungswerte bei beliebigen Verteilungen 4.4.03 20 - 4
nauer gilt nach einem Theorem von Berry und Essken (vgl. z.B. Gänssler-Stute
1977, Satz 4.2.10 und Korollar 4.2.15)
I P{I~, < x}-P{N(o,l) < X } l C (9) } < Jn für alle X E IR I P{I~, > x}-P{N(o,l) > X } 1 mit der positiven Konstanten
c[cxE{ I X - P ~ I ~ } + C ~ E { I Y - P ~ I ~ } ] (10) C =
3 > 0 .
T
und c = 0.7995.
3 Die Abschätzung (9) gilt zwar auch falls E { I X-px l 3 } oder E { I Y-py I } unend-
lich sind, ist aber dann wegen C = co nutzlos.
Aus den Konsistenzaussagen
an, P - 1 , On n
ergibt sich schließlich die asymptotische Normalität der Teststatistik
Unter der zweiseitigen Nullhypothese Ho : A p = 0 ist die Teststatistik dann asympto-
tisch Standard-Normalverteilt, d.h.:
(14) T N (0,l) für Ap=O bzw. p x = p y . n
P Und für A p t 0 erhält man wegen 8A - 0 die asymptotischen Verteilungen der
Teststatistik:
P (15) Tn - -co für A p < 0 bzw. p x < p y ,
P (16) Tn-+co für A p > O bzw. P x > P y .
20. Vergleich zweier Erwartungswerte bei beliebigen Verteilungen 4.4.03 20 - 5
20.3 Asymptotische Tests
Mit t = t(x,y) als beobachtetem Testwert erhält man nun folgende asymptotische
Tests :
Einseitiger asymptotischer GauJ3-Test:
Ablehnung von Ho: px 5 py zum asymptotischen Niveau a
U t > z U p1(t) := m(- t) 5 , a
Zweiseitiger asymptotischer GauJ3-Test:
Ablehnung von Ho: px = py zum Niveau asymptotischen a
U I tl > Z - U p2(t) := 2m(-ltl) 5 ., a/2
Hierbei ist Pl(t) bzw. P2(t) das ein- bzw. zweiseitige (asymptotische) Signifikanzni-
veau des beobachteten Testwerts t.
Die asymptotische Schärfe des einseitigen Test ist der Grenzwert der Schärfen
für px < p (1) ~ o w i ( p ~ ) p ~ ) := 72-00 lim P{T n - > z a } = für px = py
für px > p
und somit ist das asymptotische Fehlerrisiko 1. Art gleich a
Beim zweiseitigen Test ist die asymptotische Schärfe
(3) für px f py
P O W ~ ( ~ ~ ) py) := lim P{T > z } = 72-00 n - a für px = py
und das asymptotische Fehlerrisiko 1. Art ist gleich a
20.4 Schärfe-Approximation für den einseitigen Tests
Wir wollen jetzt - analog zu 17.4 - eine Approximation der Testschärfe herleiten.
Der Ausgangspunkt ist die Schärfe-Darstellung
(1) 2 2
P o w l ( ~ x , ~ y > ~ x , ~ y l a ) := P{T>za} -
= P { U + Z , V > ~ ~ - ~ } mit
20. Vergleich zweier Erwartungswerte bei beliebigen Verteilungen 4.4.03 20 - 6
(3) AP y = - 2 - 1 2 1 2 a +-ay "A - II, X ny On
Aus der asymptotischen Normalverteilung von U und
ergibt sich
(5) U n + z a n " N<OJ>
und aus (1) erhält man die Schärfe-Approximation
Die approximierte Schärfe APowl (y 1 a) ist streng wachsend in a, y und Ap, aber
streng fallend in aA. Die Genauigkeit der Approximation (6) (bzw. deren Konver-
genz-Geschwindigkeit) läßt sich hier nicht so einfach wie in 17.4 bestimmen, weil
die in der Schärfe-Darstellung (1) auftretende Zufallsvariable U + zaV sich nicht als
standardisierte Summe unabhängiger Zufallsvariablen darstellen läßt. Die hierbei
„störendeu Zufallsvariable zaV konvergiert allerdings nach (4) gegen 0 für n+ W.
Wenn die vierten zentralen Momente
(7) P4X = E I ( X - P ~ ) ~ } , Pqy = ~ i ( y - P ~ ) ~ }
1 endlich sind, so ist die Zufallsvariable zaV sogar von der Ordnung - weil es dann
ein d > 0 gibt mit Jn
Deshalb kann man davon ausgehen, daß approximativ gilt
wobei wir auf die Genauigkeit dieser Approximation nicht weiter eingehen. Die
rechte Seite P{ U > za- y } läßt sich aber nach 20.2 (9) durch APowl (y 1 a) wieder 1 von der Ordnung - approximieren. Jn
20. Vergleich zweier Erwartungswerte bei beliebigen Verteilungen 4.4.03 20 - 7
Da die Approximation (6) insbesondere auch im Normalverteilungs-Modell mit homo-
genen Varianzen gilt, läßt sich die exakte Schärfe in diesem Modell ebenfalls so ap-
proximieren, d.h.
(10) P{ tm(r) > t,,., J P{N(y,l) > L,} f .. X Y 2 u r 0 = 0
2
Da wir jedoch bereits aus 14.1 wissen, daß für y > 0 und a < die Abschätzung gilt
kann man auch konservativ den kleineren Wert als Schärfe-Approximation ver-
wenden
(11) POwl(p I a) E P{ tm(7 > t,,. , J (konservative Approximation)
was den zusätzlichen Vorteil hat, daß dieser im Normalverteilungs-Modell mit homo-
genen Varianzen sogar exakt mit der Schärfe übereinstimmt.
20.5 Versuchsplanung für den einseitigen Test
Die approximierte (und natürlich auch die exakte) Schärfe konvergiert bei festem a
für n i CO unter der einseitigen Alternative Hl: A p > 0 gegen 1, weil dann oA i 0,
und y i CO gilt. Dies kann man wieder ausnutzen, um die erforderlichen Stichpro-
benumfang n zu bestimmen, der bei vorgegebenem cx, cy = 1- cX, a, A p > 0, oX, oy
und 0 < ß < 1 eine approximative Schärfe von mindestens 1 - ß garantieren, d.h. für
den gilt
(1) APowl(yI a) > 1 - P bzw. 7-25 a - > z ß '
Unter Verwendung von
mit
lautet die Bedingung (1) äquivalent
Hieraus ergibt sich der erforderliche Mindestumfang zu
20. Vergleich zweier Erwartungswerte bei beliebigen Verteilungen 4.4.03 20 - 8
2
( 3 ) n(&, 7,P, a ) : = 2 1 2 1 2 mit T = - O + - D
C x X C y Y '
wobei die zugehörigen Teilstichproben-Umfänge
auf natürliche Zahlen aufzurunden sind.
Man kann noch weiter untersuchen, welche Stichproben-Anteile cx und c y = 1 - cx die
approximative Schärfe maximieren bzw. minimieren. Hierbei ergibt sich, daß 2 2
T = T ( C ) als Funktion in cx streng konvex ist mit der Minimalstelle X
Das günstigste Stichproben-Verhältnis entspricht also genau dem Verhältnis der
Standardabweichungen
(6) C* X : c y = 0,: D y ,
2 und das zugehörige Minimum von T ist
(7) 2 2
T (C;) = ( ~ x + ~ y )
Bei Wahl dieser optimalen Stichprobenanteile C; und c y ergibt sich der erforderli-
che Mindest-Umfang n* nach (3 ) zu
( z a + z a (OX + OY ( 8 ) P , X , Y : = [ I (optimales Design).
A P
2 Speziell sind bei gleichen Varianzen O: = oY auch gleiche Stichprobenanteile (balancier-
tes Design) C; = c y = f optimal.
1 Für das balancierte Design mit nx = n bzw. c = c =- (welches typischerweise in Y X Y 2
der Praxis verwendet wird) ergeben sich die erforderlichen Stichprobenumfänge aus
(4) zu
2
(9) n = n = n . - 2 2 ~ a + ~ ß X Y 2 (balanciertes Design). - -
20. Vergleich zweier Erwartungswerte bei beliebigen Verteilungen 4.4.03 20 - 9
20.5.1 Das Normal-Verteilsmodell mit gleichen Varianzen
Wir betrachten jetzt wieder den Spezialfall aus Kapitel 19, daß X und Y jeweils
normalverteilt sind mit gleichen Varianzen
2 2 2 (HV) g=g=o (homogene Varianxen) .
Für den einseitigen t-Test läßt sich dann der erforderliche Mindestumfang n unter
Verwendung der (exakten) Schärfe (vgl. 19.3) sogar exakt bestimmen. Aus der
Nichtzentralität
mit
und der Schärfe
ergibt sich dann die folgende Forderung an n
Da der Umfang n hier sowohl im Freiheitsgrad n-2 als auch in der Nichtzentralität
7, vorkommt, läßt sich das minimale n aus (3) nicht explizit angeben. Man be-
stimmt deshalb n schrittweise wie folgt.
Als Startwert verwenden wir die aufgerundeten Umfänge nx und ny des asymptoti-
schen Tests aus 20.5 und überprüfen, ob (3) für n = nx + ny erfüllt ist. Falls (3) nicht
gilt (was typischerweise der Fall ist), so wird n solange schrittweise erhöht bis die
Forderung (3) erfüllt ist. Das jeweils nächste n wird dabei wie folgt bestimmt: für
n + 1 werden die aufgerundeten Umfänge nx und ny ermittelt und dann wird der
neue Umfang auf n = nx + ny gesetzt. Erfahrungsgemäß sind beim balancierten De-
sign typischerweise nur 1 bis 2 Schritte erforderlich bis die Forderung (3) erfüllt ist.
Um sicherzustellen, daß dieses Verfahren tatsächlich den kleinsten Umfang n mit
(3) liefert, wäre noch zu überprüfen, ob die rechte Seite von (3) monoton fallend in
n ist (worauf wir hier verzichten).
20. Vergleich zweier Erwartungswerte bei beliebigen Verteilungen 4.4.03 20 - 10
20.6 Zweiseitiger Test: Schärfe und Versuchsplanung
Die Schärfe des zweiseitigen Tests ist gegeben durch
(1) ~ o w ~ ( P ~ > ~ ~ , g ; , g ; I 4 = P{ITI>z 4 2 1
= P{ T>.„,} +P{ Ti-za l , l
Beide Summanden lassen sich wie in 20.4 durch die jeweilige Schärfe eines einsei-
tigen Tests zum Niveau " approximieren 2
(2) P{T>za12J E APowl(yI:),
(3> P { T < - z 4 2 } E APowl(-yl:).
Hieraus ergibt sich die approximierte Schärfe des zweiseitigen Tests
Im Fall y > 0 überwiegt der erste Summand APowl (y 1:) deutlich den zweiten und
man kann vereinfachend auch nur den ersten Summanden verwenden, wodurch
man eine Abschätzung der approximierten Schärfe nach unten erhält. Entspre-
chend kann im Fall y < 0 vereinfachend nur der zweite Summand APowl (- y 1:) als Abschätzung nach unten verwendet werden.
Für eine Versuchsplanung beim zweiseitigen Test ist bei vorgegebenem ß für interes-
sierende px t py bzw. y t 0 wieder der erforderliche Umfang n gesucht, sodaß
Aus Symmetriegründen können wir hierbei y > 0 voraussetzen (sonst vertausche
man X mit Y). Wegen
(6) APow2 (7 I a) > APowl (7 15) ist es für (5) hinreichend, wenn man den erforderlichen Mindest-Umfang n aus 20.5
für den einseitigen Test zum halben Niveau : wählt.
20. Vergleich zweier Erwartungswerte bei beliebigen Verteilungen 4.4.03 20 - 11
20.7 Konfidenzgrenzen für die Differenz der Erwartungswerte
Neben den behandelten Tests für die Differenz A p der Erwartungswerte sind (ins-
besondere bei einer Ablehnung der Nullhypothese) auch Konfidenzgrenzen für die
Differenz A p von Interesse. Als einseitige untere bzw. obere Konfidenzgrenze zur
asymptotischen Sicherheit 1- ci! ergibt sich aus der asymptotischen Normalvertei-
lung der Teststatistik T
(1) (Ap) U = nfi-da = (X-Y)-$& bzw.
(ap) = nfi + d a = (X-Y) + d a 0
mit
(2) $ : = z . 8 a a A '
Der einseitige Test lehnt Ho: A p < 0 genau dann ab, wenn (Ap) > 0 gilt. Und das u -
zweiseitige Konfidenzintervall für A p zur asymptotischen Sicherheit 1- ci! ist dann
gegeben durch die Randpunkte
(3) nfi I $ a = (X-Y) &Jal2.
20.8 Anwendungen
20.8.1 Vergleich von zwei Meßverfahren
Es soll zum Niveau ci!=5% überprüft werden, ob zwei verschieden Methoden zur
Bestimmung des Bleigehalts [ in mg/l] im Apfelsaft zu unterschiedlichen Ergebnis-
sen führen (vgl. Kinder-Osius-Timm 1982, Beispiel 7.19). Die zweiseitigen Hypothesen
lauten
Nullhypothese Ho: px = py (kein Unterschied beider Methoden),
Hypothese H : p x t py (systematischer Unterschied beider Methoden).
Es kann davon ausgegangen werden, daß die Meßwerte annähernd normalverteilt
und die Standardabweichungen ox und oy beider Methoden annähernd gleich sind.
Bei jeweils n = 25 und ny = 20 unabhängigen Wiederholungs-Messungen an einer X
Apfelsaftprobe ergaben sich für die insgesamt n = 45 Meßwerte
fi = F = 0,520 X
8 = s = 0,04713 X X
20. Vergleich zweier Erwartungswerte bei beliebigen Verteilungen 4.4.03 20 - 12
Der t-Test mit n- 2 = 43 Freiheitsgraden lehnt die Nullhypothese nicht ab, weil
I t 1 = 1,891 < t43,a12 = 2,02 .
Da ein Fehler 2. Art vorliegen kann, ist Ho zunächst nur mit dem unbekannten Feh-
lerrisiko 2. Art ß „abgesichertn. Falls die unbekannten Standardabweichungen den
geschätzten entsprechen, d.h. ox =0,04713 und oY = 0,03987 so ergibt sich für einen
Unterschied 1 A p I = 1 i ~ y -py 1 = 0,025 (der dem Beobachteteten entspricht) aus der
approximierten Schärfe APowl( 1:) nach 20.4 (6) mit Y = 1 A p 1 / o, und o, =
0,043 das relativ hohe approximierte Fehlerrisiko 2.Art
20.8.2 Geburtsgewicht und Geschlecht (StatLab-Auswahl 1985)
Es soll zum Niveau ci! = 5% überprüft werden, ob es einen geschlechtspezifischen Un-
terschied beim Geburtsgewicht gibt. Ist X bzw. Y das Geburtsgewicht [ in Pounds11
der männlichen bzw. weiblichen Neugeborenen, so lauten die zweiseitigen Hypothe-
sen
Nullhypothese Ho: px = py (kein geschlechtspezifischer Unterschied),
Hypothese H : Px*Py (ges~hlechts~ezifischer Unterschied vorhanden).
Für die StatLab-Auswahl 1985 mit nx= ny = 50 ergibt sich
fi = F = 7,645 X
8 = s =0,988 X X
fi = ij = 7,130 Y
8 = s Y = 1,299. Y
Der t-Test mit m = 98 Freiheitsgraden lehnt die Nullhypothese ab, weil
1 t 1 = 2,227 > t g8,a l2 = 1,984 .
Damit ist die Hypothese H (geschlechtspezifischer Unterschied) mit dem Fehlerrisiko
5% abgesichert: das männliches Geburtsgewicht ist im Mittel größer als das weibli-
ches. Der Unterschied Ap der Geburtsgewichte wird geschätzt durch
Afi = fix- fiy = 0,514 mit Standardabweichung. 8, = 0,231 .
Und das 95%-Konfidenzintervall für den Unterschied A p ist
0,514 f 0,458 bzw. [ 0,06 ; 0,97 ]
20. Vergleich zweier Erwartungswerte bei beliebigen Verteilungen 4.4.03 20 - 13
20.8.3 Geburtsgröße und Geschlecht (StatLab-Auswahl1985)
Es soll zum Niveau a = 5% überprüft werden, ob es einen geschlechtspezifischen Un-
terschied bei der Geburtsgröße gibt. Ist X bzw. Y die Geburtsgröße [ in Zoll] der
männlichen bzw. weiblichen Neugeborenen, so lauten die zweiseitigen Hypothesen
Nullhypothese Ho: ,LL, = ,LL, (kein geschlechtspezifischer Unterschied),
Hypothese H : ,LLx*,LLy (ges~hlechts~ezifischer Unterschied vorhanden).
Für die StatLab-Auswahl 1985 mit nx= ny = 50 ergibt sich
Der t-Test mit n- 2 = 98 Freiheitsgraden lehnt die Nullhypothese nicht ab, weil
Da ein Fehler 2. Art vorliegen kann, ist Ho zunächst nur mit dem unbekannten Feh-
lerrisiko 2. Art ß „abgesichertn. Falls die unbekannten Standardabweichungen den
geschätzten entsprechen, d.h. 5 = 0,9509 und oY = 1,1693, so ergibt sich für einen
Unterschied 1 A p 1 = 1 ,LL -,LL I = 0,s nach 20.4 (6) mit y = 1 A,LL 1 / on und on = 0,213 X Y
relativ hohe approximierte Fehlerrisiko 2.Art
Versuchsplanung: Der erforderliche Mindestumfang nx= ny (im balancierten Design)
bei dem der zweiseitige Gauß-Test zum Niveau a =5% für einen Unterschied
1 A p 1 = 0,s ein Fehlerrisiko 2. Art von (höchstens) ß = 10 % bzw. eine Schärfe von
(mindestens) 90% hat, ergibt sich mit z - 1,282 und obigen ox=0,9509 und P -
oy = 1,169 nach 20.5 (9) zu: nx = ny = 96.
21. Vergleich von zwei Wahrscheinlichkeiten 27.7.02 21- 1
21. Vergleich von zwei Wahrscheinlichkeiten
Wir wollen jetzt die Wahrscheinlichkeiten px und py für zwei interessierende Ereig-
nisse Ax und Ay (typischerweise ein Ziel-Ereignis in zwei verschiedenen Populatio-
nen) miteinander verglichen werden, wobei das Testproblem wie folgt ein- oder
zweiseitig gestellt sein kann:
(1) H o : P x < P y , Hl: P, > P, (einseitiges Testpro blem),
(2) H o : p x = P Y , Hl: P, t P, (zweiseitiges Testproblem).
Unter Verwendung der Differenz
erhält man die äquivalenten Formulierungen
(4 H o : A p < O , H, : Ap > 0 (einseitiges Testproblem),
P) H o : A p = O , Hl : Ap t 0 (zweiseitiges Testproblem).
21.1 Zwei-Stichproben-Binomial-Verteilungsmodell
Es liegen zwei voneinander unabhängige Teilstichproben X = (Xl, ..., X ) und nx
Y = (Y1, .., Yny) vom Umfang nx und ny vor, wobei die Komponenten von X bzw.
Y jeweils aus unabhängigen Wiederholungen von X bzw. Y sind mit
Dies entspricht der allgemeinen Situation aus den Kapiteln 19 und 20 für ein spe-
zielles Verteilungsmodell - das Binomial-Verteilungsmodell - wobei wir die Erwar-
tungswerte px = E(X) und py = E(Y) hier aus traditionellen Gründen anders be-
zeichnen. Die Besonderheit des Binomial-Verteilungsmodells (etwa im Gegensatz
zum Normalverteilungsmodell) liegt darin, daß die Varianz der B(l,p)-Verteilung
bereits durch ihren Erwartungswert p bestimmt ist. Mit der Varianzfunktion der Bi-
nomialverteilung
21. Vergleich von zwei Wahrscheinlichkeiten 27.7.02 21- 2
ergeben sich die Varianzen von X und Y zu
Die beobachtete Realisierung von X bzw. Y wird wieder mit X bzw. y bezeichnet.
Es sei noch bemerkt, daß alle folgenden Betrachtungen von der Stichprobe (X, Y)
vom Umfang n = nx+ny nur noch über die Summen X+ = XI+ ... +X und nx
Y = Yl+ ... +Yn abhängen. Man könnte daher auch gleich (analog Kapitel 17) + Y von zwei voneinander unabhängigen eindimensionalen Teil-Stichproben X und Y + + mit folgenden Verteilungen ausgehen:
Die beobachteten Anzahlen für Erfolg und Mißerfolg beider Stichproben (Gruppen)
faßt man auch in einer sogenannten 2x2-Kontingenztafel wie folgt zusammen:
21.2 Herleitung einer Teststatistik
Ausgangspunkt sind die Schätzungen für px und py
Gruppe
1
2
Summe
und die sich daraus ergebende Schätzung der Differenz Ap
- -
(2) np = np (X, Y) : = $,(X) - $,(Y) = X - Y
Ereignis Ereignis
j a nein
-
Y+ n y - Y + + Y+ n - X -Y + +
mit Varianz
Summe
n X
n Y
n = n +ny X
21. Vergleich von zwei Wahrscheinlichkeiten 27.7.02 21- 3
2 1 2 (3) a 2 : = v ~ ~ ( A ~ ( x , Y ) ) = I g + - a (Var ianz v o n Aj ). nx n~ Y
Aus den Varianz-Schätzungen
ergibt sich folgende Schätzung von a 2
- (5) 82 - 1 - 2 1 - 2 -a +-a nx X ny Y
(geschätzte V a r i a n z v o n Aj ).
Wir wollen jetzt (wie im Kapitel 20) eine Standardisierung der Differenz Aj als
Teststatistik verwenden. Hierbei soll die Varianz a2 jedoch nicht durch 82, sondern
unter der zweiseitigen Nullhypothese H o : A p = 0 geschätzt werden. Bezeichnen wir
den Gesamt-Stichprobenumfang und die Stichproben-Anteile mit
(6) n : = n x + n y ( G e ~ a m t u n f a n ~ ) ,
(7) C : = 1 - n C :=
1 - n
X n X ' Y n~ (Stichproben-Anteile),
so ist der gewichtete Mittelwert beider Wahrscheinlichkeiten px und p y
Als Schätzung von p verwendet man das gewichtete Mittel der Schätzungen
Unter der zweiseitigen Nullhypothese H o : A p = 0 gilt px = p y = p, und die Varianz (3)
vereinfacht sich zu:
Eine Schätzung dieser Varianz ist gegeben durch
Als Testfunktion t wollen wir die unter H o : A p = 0 standardisierte Differenz Aj
verwenden
21. Vergleich von zwei Wahrscheinlichkeiten 27.7.02 21 - 4
(12) t (x ,y ) := Al; (xlY)
(Testwert). .,(X, Y)
21.3 Asymptotische Verteilung der Teststatistik
Da die exakte Verteilung der Teststatistik T = t(X, Y) unter der zweiseitigen Nullhy-
pothese Ho : px = py = p noch vom unbekannten Parameter p abhängt, wollen wir
hier die unter Ho von p unabhängige asymptotische Verteilung bestimmen. Hierzu
betrachten wir eine Asymptotik mit wachsenden Teilstichprobenumfangen nx+ CO
und ny+ CO und konstanten Stichproben-Anteilen. Formal geben wir uns hierfür die
Stichproben-Anteile als rationale Zahlen cX, cy E $ vor mit
und betrachten für n + CO diejenige Teilfolge, bei der die resultierenden Teilstich-
proben-Umfänge
ganzzahlig sind. Anstelle der Stichproben-Anteile cx, cy kann sich auch den Quotien-
ten
vorgeben und erhält für ein solches 0 < rXY E $ die Stichproben-Anteile
1 Man spricht von balancierten Umfängen, wenn rxy = 1 und somit c = c = - gilt. X Y 2
Für den oben beschrieben Grenzprozeß n + CO (bei dem wir wieder alle relvanten
Größen mit dem Index n indizieren) ergibt sich die asymptotische Normalvertei-
lung der Schätzung Aj zu
21. Vergleich von zwei Wahrscheinlichkeiten 27.7.02 21- 5
2 (5) J;; [APn - AP] i N(0,T2) wobei
. - (6) T ~ . - - 1 2 1 2 o = n a 2
Cx X Y Y n
bzw. in äquivalenter Formulierung
Die Konvergenz der Verteilungsfunktion von Un gegen die der Normalverteilung 1 N(0,l) ist hierbei sogar gleichmäJ32g und von der Ordnung -. Genauer gilt nach ei- Jn
nem Theorem von Berry und Essken (vgl. z.B. Gänssler-Stute 1977, Satz 4.2.10 und
Korollar 4.2.15 ff.)
(8) I p{un < x)-P{N(o,~) < X ) 1
für alle X E IR I p{un > x)-P{N(o,~) > X ) 1
mit der positiven Konstanten
-2 2 2 -2 2 2 c[cx a x ( l - 2 a x ) + c y a y ( l - 2 a y ) ]
(9) C ( ~ x , ~ Y ) = -1 2 -1 2 312 > 0 [cx ax + ay I
und c = 0.7995.
Aus den Konsistenzaussagen
(10) P
P n p :=
cxpx + C ~ p ~
ergibt sich schließlich die asymptotische Normalität der Teststatistik
2 2 Unter der zweiseitigen Nullhypothese Ho : Ap = 0 ist T = und die Teststatistik ist
dann asymptotisch Standard-Normalverteilt, d.h.:
21. Vergleich von zwei Wahrscheinlichkeiten 27.7.02 21- 6
(14) T L N ( 0 , l ) für A p = O bzw. p x = p y . n
P Und für A p r 0 erhält man wegen e O n i 0 die asymptotischen Verteilungen der
Teststatistik:
P (15) Tn - -W für A p < 0 bzw. px < p y , P (16) T n - + w für A p > 0 bzw. P x > P y .
21.4 Asymptotische Tests
Mit t = t ( x , ~ ) als beobachtetem Testwert erhält man nun die asymptotischen Tests.
Einseitiger asymptotischer GauJ3-Test:
Ablehnung von Ho : px < p y zum asymptotischen Niveau u
U t > z U G(-t) < , a
Zweiseitiger asymptotischer GauJ3-Test:
Ablehnung von Ho : px = p y zum asymptotischen Niveau u
U I tl > z - U 2G(- l t l ) < u .
Die asymptotische Schärfe des einseitigen Test ist (wie beim Gauß-Test in 17.1) der
Grenzwert der Schärfen
für px < p y
(I> ~ o w ~ ( ~ ~ ) p ~ ) := 72-00 lim P { T n - > z a } = für px = p für p x > p y
und somit ist das asymptotische Fehlerrisiko 1. Art gleich u
Beim zweiseitigen Test ist die asymptotische Schärfe
für px r p (3> ~ o w y ( ~ ~ ) p ~ ) := 72-00 lim P { T n - > z a } =
für px = p
und das asymptotische Fehlerrisiko 1. Art ist gleich u
21. Vergleich von zwei Wahrscheinlichkeiten 27.7.02 21- 7
21.5 Schärfe-Approximation für den einseitigen Tests
Wir wollen jetzt - analog zu 17.4 - eine Approximation der Testschärfe herleiten.
Der Ausgangspunkt ist die Schärfe-Darstellung
(1) POW~(P~,P,~Q) = P { T > - \} = P{u+~,v> - u ( P ~ , P ~ ) } mit
Aus der asymptotischen Normalverteilung von U und
ergibt sich
(5> Un+zaVn L N(0, l) .
Mit (1) erhält man die Schärfe-Approximation
Die Genauigkeit dieser Approximation (bzw. deren Konvergenz-Geschwindigkeit)
läßt sich hier nicht so einfach wie in 17.4 bestimmen, weil die in der Schärfe-Dar-
stellung (1) auftretende Zufallsvariable U + zaV sich nicht als standardisierte
Summe unabhängiger Zufallsvariablen darstellen läßt. Die hierbei „störendeu Zu-
fallsvariable %V konvergiert allerdings nach (4) gegen 0 für n i co und die Zufalls-
variable ist sogar von der Ordnung I weil gilt Jn
(8) 2 J n z v + a ~ ( 0 , d 2 ) für ein d > 0
Deshalb kann man davon ausgehen, daß approximativ gilt
wobei wir auf die Genauigkeit dieser Approximation nicht weiter eingehen. Die
rechte Seite P { U > - u ( ~ ~ , ~ ~ ) } läßt sich aber nach 21.3 (8) durch die approxima- 1 tive Schärfe APowl(px, py 1 u) wieder von der Ordnung - approximieren. Jn
21. Vergleich von zwei Wahrscheinlichkeiten 27.7.02 21- 8
21.6 Versuchsplanung für den einseitigen Test
Die approximierte (und natürlich auch die exakte) Schärfe konvergiert bei festem ci!
für n i co unter der einseitigen Alternative Hl: Ap > 0 gegen 1, weil dann o i 0, und
~ ( p ~ , ~ ~ ) + co gilt. Dies kann man wieder ausnutzen, um die erforderlichen Stich-
probenumfang n zu bestimmen, der bei vorgegebenem cX, cy = 1- C ci!, Ap > 0 und X'
0 < ß < 1 eine approximative Schärfe von mindestens I - ß garantieren, d.h. für den
gilt
Unter Verwendung von
mit
mit
lautet die Bedingung (1) äquivalent
Hieraus ergibt sich der erforderliche Mindestumfang zu
wobei die zugehörigen Teilstichproben-Umfänge
auf natürliche Zahlen aufzurunden sind.
Auf eine Optimierung bzgl. der Stichprobenanteile cx und cy (wie wir sie im Kapitel
20 durchgeführt haben) wollen wir hier nicht weiter eingehen. Da für kleine Unter- 2 schiede Ap die Varianzen o i und oY annähernd gleich sind, wird man (in Analogie
1 zu 20.4) auch balancierte (d.h gleiche) Stichprobenanteile cx = cy= bevorzugen.
1 Im balancierten Fall ist p =F= -(P + p ) der Mittelwert beider Wahrscheinlichkei- 2 x Y
2 ten und aus der Konkavität der Funktion o (p) folgt T < T ~ . Anstelle der sich aus (5)
21. Vergleich von zwei Wahrscheinlichkeiten 27.7.02 21- 9
ergebenden Mindestumfänge nx und ny werden meist die folgenden, einfacher
zu berechnenden und mindestens ebenso groj'en Teil-Stichprobenumfänge verwendet
21.7 Zweiseitiger Tests: Schärfe und Versuchplanung
Die Schärfe des zweiseitigen Tests ist gegeben durch
(1) P0w2(Px~Py I " ) = P{ ITI 2zaI2}
= P{ ~ 2 % ~ ~ ) +P{ ~ a - z ~ ~ ~ }
Beide Summanden lassen sich wie in 21.5 durch die jeweilige Schärfe eines einseiti-
gen Tests zum Niveau g approximieren 2
(2) P{T2z01/2} E A P O W ~ ( P ~ , P ~ I ~ ) ,
(3) P{ T 5- z 4 2 } APowl(py,pxl~) .
Hieraus ergibt sich die approximierte Schärfe des zweiseitigen Tests
Im Fall Ap > 0 überwiegt der erste Summand A P o w ~ ( ~ ~ , ~ ~ ~ ~ ) deutlich den zwei-
ten und man kann vereinfachend auch nur den ersten Summanden verwenden, wo-
durch man eine Abschätzung der approximierten Schärfe nach unten erhält. Ent-
sprechend kann im Fall Ap<O vereinfachend nur der zweite Summand
APowl(pY, px 1 5) als Absachätzung nach unten verwendet werden.
Für eine Versuchsplanung beim zweiseitigen Test ist bei vorgegebenem ß für interes-
sierende px r py wieder der erforderliche Umfang n gesucht, sodaß
21. Vergleich von zwei Wahrscheinlichkeiten 27.7.02 21 - 10
Aus Symmetriegründen können wir hierbei Ap > 0 voraussetzen (sonst vertausche
man X mit Y). Wegen
(6) A P O W ~ ( P ~ ' P ~ I ~ ) > A P O W ~ O ~ ~ , P ~ I ; )
ist es für (5) hinreichend, wenn man den erforderlichen Mindest-Umfang n aus 21.6
für den einseitigen Test zum halben Niveau wählt.
21.8 Konfidenzgrenzen für die Differenz der Wahrscheinlichkeiten
Der Ausgangspunkt für die Herleitung von Konfidenzgrenzen für die Differenz Ap
ist die asypmtotische Normalverteilung der standardisierten Schätzung
in der wir die unbekannte Standardabweichung on allerdings noch durch ihre
Schätzung 8n ersetzen müssen. Aus der Konsistenz der Schätzungen jx und jy für
n + CO und ny+ CO ergibt sich X
und hieraus folgt die Konsistenz der Schätzung 8n
(Konsistenz)
Folglich können wir in (1) die Standardabweichung o durch ihre Schätzung 8n er- n
setzen, d.h. es gilt
Hieraus erhält man eine einseitige untere bzw. obere Konfidenzgrenze für die Diffe-
renz Ap zur asymptotischen Sicherheit 1 - ci!
21. Vergleich von zwei Wahrscheinlichkeiten 27.7.02 21 - 11
(5) (Ap) U = ~ j - d a =@',-@',-da (einseitige untere Grenze)
(Ap) o = A$ + d a = jx -P, + da (einseitige obere Grenze) mit
(6) d : = z . 8 a a
(Bandbreite).
Und das zweiseitige Konfidenzintervall für Ap zur asymptotischen Sicherheit 1- ci!
ist dann gegeben durch die Randpunkte
21.9 Anwendungen
Wir gehen jetzt auf einige Anwendungsbeispiele ein, wobei wir auch die Beispiele
aus der Einleitung (0.4 und 0.5) behandeln.
21.9.1 Rauchen in der Schwangerschaft
Für das Studie aus 0.4 wollen wir zuerst untersuchen, ob das Rauchen der Mutter
einen Einfluß auf das Untergewicht des Kindes hat. Da man vermutet, daß das Rau-
chen (X-Gruppe) das Untergewichtsrisko p erhöht formulieren wir das Testproblem
einseitig, sodaß die abzusichernde Vermutung die Alternative darstellt
Ho : px < p, (Untergewichtsrisiko bei rauchenden Müttern nicht erhöht),
H : P x > P, (Untergewichtsrisiko bei rauchenden Müttern erhöht).
Wegen der hohen Stichprobenumfänge soll der Test zum Niveau ci! = 1% erfolgen.
Aus 0.5 Tab. 4 ergibt sich die zugehörige 2x2Tafel in Tab. 1.
Tab. 1: Untergewicht des Kindes und Rauchen der Mutter in einer amerikanischen Studie über Einzelgeburten der weißen Bevölkerung aus den Jahren 1960-67. aus: J. Yerushalmy (1971), Amer. J. Epidemiology 93 , p. 443ff, Table 1.
Mutter
raucht
j a nein
Total
Untergewicht des Kindes
j a nein
237 3 489
197 5 870
434 9 359
Lebendgeborene
3 726
6 067
9 793
rel. Häufigkeit
Untergewicht
I; X = 6,36 % P,= 3,25 %
I; = 4,43 %
21. Vergleich von zwei Wahrscheinlichkeiten 27.7.02 21 - 12
Die Nullhypothese wird abgelehnt, weil:
Testwert: t = 7,269 > - za = 2,326 bzw.
Signifikanzniveau: @(-t) < 0,0001 % 5 ci! = 1 % .
Damit ist die Alternative, daß das Rauchen der Mutter das Untergewichtsrisiko des
Kindes erhöht mit der Irrtumswahrscheinlichkeit ci! = 1 % bzw. mit der Sicherheit
von 1- ci! = 99 % abgesichert (weil bei Ablehnung der Nullhypothese nur ein Fehler 1.
Art auftreten kann).
Die Schätzung für den Unterschied A p = p x - p y der Untergewichtsrisiken ist
A j = jx - jy = 3,11% mit Standardabweichung 8 = 0,46% .
Die einseitige untere Konfidenzgrenze für A p zur Sicherheit 1 - ci! = 99% ist
Der Unterschied von Risiken px und p y wird oft auch durch das relative Risiko RR
= Px/Py beschrieben. Das geschätzte relative Risiko ist hier j x / j y 2, d.h. das Rau-
chen der Mutter verdoppelt das Untergewichtsrisiko gegenüber dem von nichtrau-
chenden Müttern.
Das Untergewicht bei einem Neugeborenen ein bekannter Risikofaktor für die Säu-
glingssterblichkeit. Wir wollen daher noch überprüfen , ob die Säuglingssterblich-
keit (innerhalb von 4 Wolchen nach der Geburt) der untergewichtige Säuglinge bei
den rauchenden Müttern erhöht ist gegenüber denen nichtrauchender Mütter (alter-
native Hypothese) oder nicht (Nullhypothese). Aus 0.5 Tab. 4 ergibt sich die zugehö-
rige 2x2Tafel in Tab. 2.
Tab. 2: Sterblichkeit untergewichtiger Neugeborener innerhalb von 4 Wochen nach der Geburt) und Rauchen der Mutter in einer amerikanischen Studie über Einzelgeburten der weißen Bevölkerung aus den Jahren 1960-67. aus: J. Yerushalmy (1971), Amer. J. Epidemiology 93 , p. 443ff, Table 1.
Mutter
raucht
j a nein
Total
gestorben gestorben
j a nein
27 210
43 154
70 364
Untergewichtige
insgesamt
237
197
434
Säuglings-
Sterberate
X = 11,39 % = 21.83 %
Y
= 16,13 %
21. Vergleich von zwei Wahrscheinlichkeiten 27.7.02 21 - 13
Überraschenderweise ist hier die Säuglingssterblichkeit j y = 21.83% der Unterge-
wichtigen bei nichtrauchenden Müttern fast doppelt so hoch, wie bei rauchenden
Müttern, und somit wird die einseitige Nullhypothese nicht abgelehnt (der Testwert
ist ja sogar < 0). Für das zweiseitige Testproblem
Ho : px = P, (kein Unterschied der Säuglingssterblichkeit),
H :Px* P, (unterschiedliche Sä~~lin~ssterblichkeiten) .
lehnt der zweiseitige Test zum Niveau ci! = 1% die Nullhypothese ab, weil
Testwert: t = - 2,943 < - - z = - 2,326 a
bzw.
Signifikanzniveau: @(t) < 0,325 % ci! = 1 % .
Der Unterschied beider Säuglingssterblichkeitsraten ist daher mit der Irrtumswahr-
scheinlichkeit ci! = 1 % bzw. mit der Sicherheit von 1 - ci! = 99 % abgesichert, und zwar
ist die Säuglingssterblichkeit der Untergewichtigen bei rauchenden Müttern geringer
als bei nichtrauchenden. Eine mögliche Erkärung hierfür ist, daß das Rauchen der
Mütter lediglich das Wachstum des Fötus verlangsamt, aber die daraus resultieren-
den Untergewichtigen nicht wegen ihres Untergewichts eine höhere Sterblichkeit ha-
ben. Bei nichtrauchenden Müttern dagegen kann Untergewicht des Kindes auf an-
dere Wachstumshemmnisse hinweisen, die auch das Sterberisiko erhöhen.
In jedem Fall zeigt die Analyse der Untergewichtigen, daß man nicht „automatisch"
einseitig testen sollte, sondern im Zweifelsfalle eher zweiseitig, auch wenn hierbei
ein Schärfeverlust gegenüber dem entsprechenden „richtigenu einseitigen Test hin-
zunehmen ist. Auf jeden Fall muß man die zu testenden Hypothesen vor der Date-
nerhebung (oder zumindestens vor der Auswertung) formulieren. Wenn man die
Hypothesen erst wählt, nachdem man die Daten schon (teilweise) analysiert hat, so
stimmt das resultierende Fehlerrisiko 1. Art nicht mehr mit der Vorgabe ci! überein.
21. Vergleich von zwei Wahrscheinlichkeiten 27.7.02 21 - 14
21.9.2 Vergleich von zwei Therapien
Beim Vergleich zweier Behandlungstherapien ergaben sich folgende Ergebnissse (vgl. Kinder-Osius-Timm 1982, Beispiel 7.8 )
Es wird ein zweiseitiger Test zum Niveau a = 5% durchgeführt mit den Hypothesen
Ho : pl = p2 (kein Unterschied: gleiche Erfolgsquoten beider Therapien),
Therapie
1 2
Total
H : pl t p2 (unterschiedliche Erfolgsquoten beider Therapien), .
Die Nullhypothese wird nicht abgelehnt, weil:
Testwert: I t I = + 0,89 < z & j 2 = L96 bzw.
Signifikanzniveau: 2@(- I t 1 ) = 37,5 % > a = 5% .
Erfolg kein Erfolg
7 5 25
9 6 24
171 49
Fazit: Unterschiedliche Erfolgsquoten können mit diesen Daten nicht nachgewiesen werden. Es kann ein Fehler 2. Art vorliegen, und deshalb ist die Nullhypothese durch den Test nicht quantifizierbar abgesichert. Das zweiseitige 95%-Konfidenzinter- vall für den Unterschied A p = pl - p 2 reicht allerdings von - 16,1% bis 6,1% und des- halb sind sowohl positive Werte für A p (z.B. A p = 5% bzw. p1 = p2 + 5%) als auch negative Werte für A p (z.B. A p = - 10% bzw. pl = p2- 10%) noch „kompatibelu mit den beobachteten Daten.
Analyse des Fehlerrisiko &.Art ß bzw. der approximierten Schärfe APowl (pl ,p2 I a) = 1-ß für den Fall, daß die wahren Erfolgsquoten mit ihren Schätzungen uberein stimmen, d.h. pl = 75 % und p2 = 80 %. Dann ergibt sich
A p = 5 % = 0,05 p = 77,7 % = I; a = 0,0563
0 a = 0,0566
ß 8 6 % (extrem hoch, vgl. Abb. 21.9.2.4.
Behandlungen
100
120
220
Versuchsplanung: Die Mindestumfänge nl = n2, bei denen der Test zum Niveau a = 5% für p = 75 % und p = 80 %. ein Fehlerrisiko 2. Art von (höchstens) ß = 20%
1 2 hat, ergeben sich aus z - 0,842 zu: n = n = 1094.
P - 1 2
Erfolgsquote
I; = 75,O % 1 I; = 80,O % 2
I; = 77,7 %
21. Vergleich von zwei Wahrscheinlichkeiten 27.7.02 21 - 15
Abb. 1.: Dichte der (approximativ) normalverteilten Teststatistik T mit Fehlerrisiken für den zweiseitigen Test im Beispiel: Vergleich von zwei Therapien
Dichte für p = p Dichte für p = 75% < p = 80 % 1 2 1 2
21.9.3 Säuglingssterblichkeit nach Geschlecht
Beim Vergleich der Säuglingssterblichkeit für beide Geschlechter ergaben sich für alle Neugeborenen eines Landes im Laufe eines Jahres folgende Anzahlen (vgl. Kinder-Osius-Timm 1982, Beispiel 7.9 )
Es wird ein einseitiger Test durchgeführt mit den Hypothesen
Ho : pl 5 p2 (männliche Sterblichkeit ist nicht höher als die weibliche) , H : pl > p2 (männliche Sterblichkeit ist höher als die weibliche), .
Geschlecht
männlich: 1
weiblich: 2
insgesamt
Wegen der extrem hohen Stichprobenumfänge wird das sehr geringe Niveau a = 0,01% gewählt. Die Nullhypothese wird abgelehnt, weil:
Testwert: t = 15,96 > - za=3,719 bzw.
im ersten Lebensjahr gestorben überlebt
7 699 313 781
5 533 299 360
13 232 613 141
Signifikanzniveau: @(-t) < 0,0001 % 5 a = 0,01 %
Fazit: Die Hypothese H, daß die männliche Säuglingssterblichkeit höher als die wei- bliche ist, ist mit der Irrtumswahrscheinlichkeit a = 0,01% bzw. mit der Sicherheit von 1 - a = 99,99 % abgesichert.
Lebendgeboren
321 480
304 893
626 373
beobachtete Sterberate
I; = 2,395 % 1
I; = 1,815 % 2
I; = 2,112 %
21. Vergleich von zwei Wahrscheinlichkeiten 27.7.02 21 - 16
Schätzung des Unterschieds A p = pl - p2 beider Sterberisiken:
AI; I ; I ; = 0,58 % 1 2 mit Standardabw.: 8 = 0,0362 % .
Zweiseitiges Konfidenzintervall für A p zur Sicherheit 1 - ci! = 99,99 %:
0,58 % f 0,14 % bzw. [ 0,44 % ; 0,72 % ] .
21.9.4 Gefährdung von Schwangerschaften nach Tschernobyl
Thieme und Lack (Der Frauenarzt 611987) haben Schwangerschaften in verschiede- nen Regionen betrachtet und Totgeburten sowie ausgewählte Mißbildungen als „Schadensfällen eingestuft. Die Belastung wurde durch die Bodenkontamination mit Cäsium-137 definiert. Im Vergleich der a m geringsten belasteten Region in Nie- dersachsen („nicht exponiertJ) mit der a m höchsten belasteten Region in Bayern („exponiertJ) ergab sich folgende Tabelle.
Es wird ein einseitiger Test zum Niveau ci! = 5% durchgeführt mit den Hypothesen
Exposition
Ja (I> Nein (2)
Gesamt
Ho : pl 5 p2 (Schadensrisiko bei Exposition nicht höher als ohne Exposition),
H : pl > p2 (Schadensrisiko bei Exposition höher als ohne Exposition).
Die Nullhypothese wird nicht abgelehnt, weil:
Schaden kein Schaden
15 1 247
15 1 272
3 0 2 519
Testwert: t = 0,054 < ~ = 1 , 6 4 5 ,
Signifikanzniveau: P = 47,8 % > ci! = 5% .
Umfang
1 262
1 287
2 549
Ein höheres Schadensrisiko unter Exposition (d.h. H gilt) ist mit diesen Daten nicht nachweisbar. Es kann aber ein Fehler 2. Art („trügerische Sicherheit? vorliegen, und daher ist die Nullhypothese durch den Test nicht quantifizierbar abgesichert. Das zweiseitige 90%-Konfidenzintervall für den Unterschied A p = p1 - p 2 reicht aller- dings von - 0,68% bis 0,73% und deshalb sind auch positive Werte für A p - z.B. A p = 0,5% bzw. pl = p2 + 0,5% - noch „kompatibelu mit den beobachteten Daten.
Analyse des Fehlerrisiko 2.Art ß und der Schärfe y = 1-ß für hypothetisches p = I; = 1,166 % (beobachtete Schadensquote ohne Exposition) und vorgegebene
2 2 Werte des relativen Risikos RR = der Exposition gegenüber keiner Exposition:
Schadensquote
I; 1 = 1,189 % I; = 1,166 %
2
I; = 1,177 %
21. Vergleich von zwei Wahrscheinlichkeiten 27.7.02 21 - 17
Ein akzeptables Fehlerrisiko von unter 10% ergibt sich also erst ab einem relativen Risiko von mindestens 2,5.
RR pl=RR.p 2
L5 1,749 % 2,o 2,332 % 2,5 2,915 % 3 ,o 3,498 %
Versuchsplanung: Erforderliche Mindestumfänge nl = n , damit der Test zum Niveau or = 5% ein Fehlerrisiko 2. Art von (höchstens) ß = 102 bzw. eine Schärfe von (min- destens) y = 90% hat für hypothetisches p2 = j2 = 1,166 % (beobachtete Schadens- quote ohne Exposition) und vorgegebene Werte des relativen Risikos RR:
Risiko ß Schärfe y =1- ß
66,2 % 33,8 % 27,5 % 72,5 % 6,9 % 93,l % 1,2 % 98,8 %
Abb. 1: Dichte der (approximativ) normalverteilten Teststatisik T mit Fehlerrisiken für den einseitigen Test im Beispiel: Gefährdung von Schwangerschaften
RR pl=RR.p 2
2,o 2,332 % L5 1,749 % 12 1,399 % L1 1,283 %
Dichte für p = p 1 2
Umfänge Gesamtumfang n = n
1 2 n = n +n2
1 2 164 4 332 7 239 14 478
39 895 79 916 151 394 302 778
Dichte für p = 1,748% > p = 1,166 % 1 2
Annahme I Ablehnung Annahme I Ablehnung
21. Vergleich von zwei Wahrscheinlichkeiten 27.7.02 21 - 18
21.9.5 Broccoli als Krebsvorsorge?
Für das Tierexperiment aus 0.5 wollen wir zunächst untersuchen, ob die Sulphora-
phane-Beigabe das Krebsrisiko reduziert (Alternative) oder nicht (Nullhypothese).
Hierzu legen wir die beiden Gruppen mit Sulphoraphane-Beigabe zusammen und
erhalten aus 0 Tab. 5 die zuhehörige 2x2-Tafel in Tab. 8.
Tab. 8: Tumore im Tierexperiment mit Ratten bei unterschiedlicher Behandlung mit Sulphoraphane (vgl. 0.5).
Sulphoraphane
Beigabe
nein (X)
ja (Y', Total
Mit diesen Daten sollen die einseitigen Hypothesen
Ho : px < py (Tumorrisiko durch Sulpharaphane nicht verringert)
H : px > py (Turnorri~iko durch Sulpharaphane verringert)
Tumor kein Tumor
17 8
24 5 4
4 1 62
zum Niveau ci! = 5% getestet werden. Die Nullhypothese wird abgelehnt, weil:
Testwert: t = 3,309 > - za = 1,645 bzw.
Signifikanzniveau: @(-t) < 0,0468 % < ci! = 5 % .
Damit ist die Alternative, daß Sulphoraphane das Tumorrisiok verringert mit der
Irrtumswahrscheinlichkeit ci! = 5 % bzw. mit der Sicherheit von 1 - ci! = 95 % abgesi-
chert (weil bei Ablehnung der Nullhypothese nur ein Fehler 1. Art auftreten kann).
Summe
25
78
103
Die Schätzung für den Unterschied Ap = px-py der Tumorriken ist
beobachtetes
Tumorrisiko
jx= 68,OO % jy= 30,77 %
= 39,81 %
A j = jx - jy = 37,23% mit Standardabweichung 8 = 10,69% .
Die einseitige untere Konfidenzgrenze für Ap zur Sicherheit 1 - ci! = 99% ist
Das geschätzte relative Risiko ist hier jy/jx 0,45 d.h. durch Sulphoraphane wird
das Tumorrisiko um mehr als die Häfte gesenkt.
21. Vergleich von zwei Wahrscheinlichkeiten 27.7.02 21 - 19
Wir wollen jetzt noch weiter untersuchen, ob die Dosierung von Sulphoraphane
einen Einfluß auf das Tumorrisiko hat. Hierzu betrachten wir die beiden Gruppen
mit geringer bzw. hoher Dosis von Sulphoraphane in Tab. 9.
Tab. 9: Tumore im Tierexperiment mit Ratten bei unterschiedlicher Dosis von Sulphoraphane (vgl. 0.5).
Sulphoraphane
Dosis
gering (4 hoch (Y')
Total
Mit diesen Daten sollen die einseitigen Hypothesen
Ho : px < p y (Tumorrisiko durch höhere Sulpharaphane nicht verringert)
H : px > p y (Turnorri~iko durch höhere Sulpharaphane verringert)
zum Niveau ci! = 5% getestet werden. Die Nullhypothese wird nicht abgelehnt, weil:
Testwert: t = 0,981 > - za = 1,645 bzw.
Signifikanzniveau: @(-t) < 16,32 % < ci! = 5 % .
Tumor kein Tumor
14 25
10 2 9
24 5 4
Bei dieser Testentscheiduzng kann ein Fehler 2. Art vorliegen. Wir wollen daher
das Fehlerrisiko 2. Art für den Fall bestimmen, daß das Tumorrisiko bei geringer
Dosis mit px = 36% (gerundet) dem beobachteten Risiko entspricht, und das rela-
tive Risiko P y / P X = 213 beträgt, d.h. die hohe Dosis reduziert das Tumorrisiko um
113 auf p y = 24%. Dann ergibt sich aus
A p = 0,12 p = 0,30
a = 0,1038 0
a = 0,1029
das extrem hohe Fehlerrisiko ß~ 69%, d.h. ein solcher (praktisch bereits sehr rele-
vanter) Unterschied läßt sich bei den Stichprobenumfängen nx= ny = 39 nur mit
der extrem geringen Schärfe von y = 1 - ß ~ 31% nachweisen. Um diesen Unter-
schied mit einer Schärfe von 90% bzw. mit einem Fehlerrisiko 2. Art von 10% zu
entdecken, wären im balancierten Design nach 21.6 (5) für jede der beiden Dosis-
gruppen n = ny = 248 Tiere, also insgesamt n = 496 Tiere erforderlich. X
Summe
3 9
3 9
78
beobachtetes
Tumorrisiko
I; X = 35,90 % I; = 25,64 %
Y
I; = 30,77 %
22. Anpassungstests bei Multinomialverteilungen 7.10.02 22- 1
22. Anpassungstests bei Multinomialverteilungen
Ein Test zur Überprüfung eines hypothetischen Modells (und damit einer entspre-
chenden Nullhypothese) wird allgemein als ein Anpassungstest für das Modell be-
zeichnet. Eine wichtige Klasse solcher Anpassungstest basiert darauf, daß man
beobachtete Anzahlen mit (unter dem Modell) erwarteten Anzahlen für Ereignisse
miteinander vergleicht. Dies läuft formal auf Tests bei Multinomialverteilungen hi-
naus, die jetzt untersucht werden sollen.
22.1 Multinomial-Verteilungsmodell
Die Stichprobe X = (Xl, ...,XK) ist ein K-dimensionaler Zufallsvektor mit einer Mul-
tinomial-Verteilung MK(n, p) vom Umfang n E W und dem K-dimensionalen Wahr-
scheinlichkeitsvektor p E ( O , l l K mit p = 1. Auf dem Träger der Verteilung + (1)
K T = { x E W ~ I x + = n } mit W o : = W ~ { O }
ist die Zähldichte f gegeben durch
für X = (xl, ..., xK) E T.
Der Erwartungsvektor und die KxK Covarianzmatrix lauten
(3) P(P) := Ep(X) = n P ,
(4> C(p) := Cov P (X) = n (Diag(p) - p bzw.
cov (Xk,X1) = - pk pl für k s 1 P
Cov P (Xk,Xk) = n ~ ~ ( 1 - p ~ ) ~
K wobei Diag(a) die KxK Diagonalmatrix mit der Diagonalen a E IR bezeichnet. Die
einzelnen Komponenten Xk sind jeweils binomialverteilt
aber X1, ..., XK sind wegen (4) nicht stochastisch unabhängig, und dies ist nicht wei-
ter überraschend, weil es sogar ein (linearen) funktionalen Zusammenhang der
Komponenten gibt
22. Anpassungstests bei Multinomialverteilungen 7.10.02 22- 2
(6) X + : = X1+ ...+ XK = n (P-fast sicher).
Weiter bezeichne X E T wieder die beobachtete Realisierung von X.
Da die Multinomialverteilung MK(n , p) die n-fache Faltung von MK(l , p) ist, ergibt
sich das obige Verteilungsmodell auch aus n unabhängigen Wiederholungen
X1, ...., X eines MK(l ,P)-verteilten Zufallsvektors, wobei X deren Summe ist: n
X = X, + .... + Xn.
22.2 Testen einer einfachen Nullhypot hese
Wir wollen zunächst überprüfen, ob der Wahrscheinlichkeitsvektor p mit einem
fest vorgegeben Wahrscheinlichkeitsvektor po E (0, 1lK übereinstimmt oder nicht.
Das zugehörige Testproblem lautet
(1) H : p = p 0 0
bzw. Ho : pk = pok für alle k ,
(2) H1: P*Po bzw. Hl : pk * pok für mindestens ein k .
Der Vektor der beobachteten relativen Häufigkeiten
(3) 1 1 p = (Pl, ..., &) = p(x) := + X = ( - X ...) - X ) n 1 ' n K
liegt für X > 0 (d.h. xk > 0 für alle k ) im zulässigen Parameterraum (0, llK, und ist
dann auch die Maximum-Likelihood Schätzung für p. Unter der Nullhypothese dagegen
ist
(4) = (Pol , ..., PoK) = P,
die ML-Schätzung für p, und die (unter HJ erwarteten Anzahlen sind gegeben durch
den Erwartungsvektor
Anwendung: Überprüfung eines a b s t r a k t e n Wür fe l s
Wir betrachten einen abstrakten Würfel mit K Kanten (beim normalen Würfel ist
K = 6), der die Zahlen k = 1, ..., K mit Wahrscheinlichkeiten pk produziert. Solche ab-
strakten Würfel lassen sich z.B. durch Zufallszahlengeneratoren im Computer si-
mulieren. Das Ergebnis von n unabhängigen Würfen läßt sich dann durch einen K-
22. Anpassungstests bei Multinomialverteilungen 7.10.02 22- 3
dimensionalen Zufallsvektor X = (Xl, ...,XK) mit MK(n,p)-Verteilung beschreiben,
wobei Xk die Anzahl für das Werfen der Zahl k ist. Um zu Überprüfen, ob der Wür-
fel alle Zahlen mit gleicher Wahrscheinlichkeit liefert, kann man die zugehörige
Nullhypothese testen
mit - 1 Ho: pk = pOk - pOk - K für alle k
22.3 Der Chiquadrat-Anpassungstest von Pearson
Zur Überprüfung der Nullhypothese ist naheliegend, die beobachteten mit den unter
der Nullhypothese erwarteten Anzahlen zu vergleichen, und die Nullhypothese ab-
zulehnen, wenn X zu stark von fio abweicht. Als „Abstandsmaßn kann man die auf 2 Pearson zurückgehende X -Statistik verwenden:
K (1) x2=x2(x,fi0):= C ( ~ ~ - f i ~ ~ ) ~ / f i ~ ~ (Pearson-Statistik)
k=l K
:= n . C (P, - P ~ ~ ) ~ / P ~ ~ k=l
= n . x2(p,p0) .
K Definiert man allgemein für Vektoren a, b E IR mit a > 0 und b > 0 den sogenann-
ten Pearson-Abstand
so ist x2 zwar keine Metrik (weil es nicht symmetrisch ist), aber es gilt
(4) 2 x2(c.a, c . b ) = c.X (a,b) für jedes c > 0
Da große Werte der Pearson-Statistik gegen die Nullhypothese sprechen, ergibt sich
der folgende x 2 - ~ e s t
(5> Ablehnung von Ho U x2(x,fio) > cX ,
wobei der kritische Wert cx das Niveau des Tests bestimmt. Da die Verteilung der
Teststatistik x2(x,fio(x)) unter der (einfachen) Nullhypothese hier vollständig be-
22. Anpassungstests bei Multinomialverteilungen 7.10.02 22-4
Sannt und diskret ist, kann man zu jedem vorgegebenen (nominellen) Niveau a ei-
nen kritischen Wert cY((a) bestimmen, so daß dieser Test höchstens das Niveau a
hat, also konservativ ist. Die Bestimmung dieser kritischen Werte für einen solchen
exakten Test ist allerdings nur für kleine Dimensionen K und nicht zu große Um-
fänge n praktikabel. Deshalb wird meist ein asymptotischer Test durchgeführt, der
auf der folgenden asymptotischen Verteilung der Teststatistik unter der Nullhypo-
these für n + CO basiert
Theorem 1 jAsymptotische X2-~erteilung des Pearson-Abstands unter Ho)
Unter H : p = po gilt: 0
x2 : = x~(x(~) , nPo) 2 Xm 2 mit m = K - 1 . n n+ 00
Einen Beweis (auf den wir hier verzichten) findet man z.B. in Cramer, 1946, Chap-
ter 30 oder Rao, 1973, Chapter 6b. Hieraus ergibt sich der folgende
2 Chiquadrat-Anpassungstest oder X -Test von Pearson
Ablehnung von H : p = p zum asymptotischen Niveau a 0 0
U 2 2
X >X,;,
U P:= I-G (x2) < a m
mit Gm als Verteilungs-
2 funktion von xm.
P wird auch als Signifikanzniveau der Beobachtung bezeichnet.
22.4 Die Schärfe des Chiquadrat-Anpassungstests
2 Ausgangspunkt für Bestimmung der asymptotischen Verteilung von X unter der Hy-
pothese H : p r po ist die Tatsache, daß die relativen Häufigkeiten p eine konsistente
Schätzung auf p sind, d.h.
Hieraus ergibt sich
1 2 2 - (n) P -Xn=X n (P ,pol _mi
und somit konvergiert die Pearson-Statistik unter H : p r po gegen unendlich
22. Anpassungstests bei Multinomialverteilungen 7.10.02 22- 5
Für die Schärfe folgt daraus
22.4.1 Benachbarte Alternativen
Um unter der Hypothese H: p t po eine nicht-degenerierte asymptotische Verteilung
der Pearson-Statistik X: zu erhalten betrachten wir sogenannte benachbarte (oder lo-
kale) Alternativen. Diese werden durch eine Folge von Wahrscheinlöichkeitsvektoren 1 spezifiziert, die mit der Ordnung - gegen po konvergiert, d.h. es gilt Jn
(BA) fi Po) _mi 00 (benachbarte/lokale Alternative).
Hierbei ist notwendigerweise die Summe der Komponenten von Am gleich Null
Gibt man sich umgekehrt ein d E IRK mit po + d E (0, llK vor, so läßt sich eine 00 00
konkrete banachbarte Alternative z.B. definieren durch
Unter benachbarten Alternativen ist die Pearson-Statistik asymptotisch nichtzentral
Chiquadrat-verteilt:
Theorem 2 jAsymptotische X2-~erteilung von x2 unter benachbarten Alternativen)
Unter (BA) gilt:
x2 : = x~(x(~) , nPo) F 2 X;(%) mit m = K - 1 n n+ 00
T " &k = A 00 . ~ i a ~ - ' ( p , ) . Am = C - P . k = l Ok
Einen Beweis (auf den wir hier versichten) - für eine allgemeinere Situation aber
mit den speziellen Alternativen der Form (2) - findet man z.B. in S.J. Mitra (1958),
22. Anpassungstests bei Multinomialverteilungen 7.10.02 22- 6
On the limiting power function of the frequency chi-square test, Ann. Math. Statistics
29, 1221-1233 (Theorem 3.1). Man beachte, daß das Theorem 2 im Spezialfall
= po und somit Am = 0 das Theorem 1 liefert.
Die Nichtzentralität 6 läßt sich als Grenzwert darstellen 00
n 2 (4 (3) 6 : = n X ( p ,po) - 6
72-00 00 unter (BA),
2 und hieraus ergibt sich die Verteilung von X approximativ zu (wobei der formale
Index „nU weggelassen ist)
K mit n = n . C ( P ~ - P ~ ~ ) ~ / P ~ ~ .
k= l
Da diese Approximation unter benachbarten Alternativen hergeleitet wurde, ist
ihre Genauigkeit umso besser, je weniger der wahre Wahrscheinlichkeitsvektor p
vom Referenzvektor po aus der Nullhypothese abweicht.
Unter Verwendung der Verteilungsfunktion @ der nichtzentralen Chiquadrat- m,S
Verteilung xk(6) ergibt sich aus (8) die Schärfeapproximation
und somit die Approximation des Fehlerisikos 2. Art
Für festes ci! und m ist die Funktion
nach Exkurs V1.2 (20) streng fallend in 6 2 0. Für ci! = 10% und ci! = 5% ist H für
verschiedene Freiheitsgrade m in Abb. 1 dargestellt.
22. Anpassungstests bei Multinomialverteilungen 7.10.02 22- 7
Abb. 1: Approximatives Fehlerrisiko 2. Art ß(6) rr Gm,, (X2 ) als Funktion der Nicht- m; a
zentralität S für ci! = 10% und ci! = 5% und verschiedene Freiheitsgrade.
22. Anpassungstests bei Multinomialverteilungen 7.10.02 22- 8
22.4.2 Versuchsplanung
Im Rahmen einer Versuchsplanung ist für vorgegebenes ß der erforderliche Minde-
sumfang n gesucht, so daß
(I> APow(6 n 1 a) > 1 -ß bzw. H(6,) 5 ß
für jedes p gilt, bei dem der „Abstandu x ~ ( ~ , ~ ~ ) von der Nullhypothese mindestens
so groß wie eine vorgegebene „relevanteu Abweichung d > 0 ist, d.h. für jedes p mit
(2) 2 6 = n . X (p,po) > n.d.
n
Wegen der Monotonie von H ergibt sich der erforderliche Mindestumfang n = n ß,d
aus
Für a = 10% und a = 5% kann der Wert rl(ß) näherungsweise auch aus Abb. 1 ab-
gelesen bzw. interpoliert werden.
22.4.3 Spezialfall: Binomial-Verteilungsmodell
Für den Spezialfall K = 2 ist die Stichprobe X = (X1, X2) wegen X = n - Xl bereits 2
eindeutig durch ihre erste Komponente Xl mit B(n,pl)-Verteilung bestimmt. We-
gen p = 1 -pl ist die Nullhypothese äquivalent zu H : p = p und folglich liegt 2 0 1 01
hier das zweiseitige Testproblem aus Kapitel 17 vor. Zwischen der dortigen Test-
statistik
mit 2 t(xl) = Jn 1 0 0 go := pol (l-pol)
und der Pearson-Statistik besteht der Zusammenhang
x2(X,p0) = t ( x ~ ~ .
Aus der asymptotischen N(0, 1)-Verteilung von t(Xl) unter Ho ergibt sich daher hier 2 2 die asymptotische xl-Verteilung von Xn in Übereinstimmung Theorem 1 für m = 1.
22. Anpassungstests bei Multinomialverteilungen 7.10.02 22- 9
22.5 Der Likelihood-Quotienten-Anpassungstest
Wir wollen jetzt noch den Likelihood-Quotienten-Test herleiten. Aus dem Log-Li-
kelihood
(1) I o g ~ ( p l x ) = ~ x ~ . I o g p ~ + n ! - C L L log(xk!) für X E T
1 und den ML-Schätzungen (vgl. 22.2) p= X sowie p = po (unter Ho) ergibt sich
der log-Likelihood-Quotient zu
PI log X(x) = log L(po I X) - log L(p I X) = C k xk. 1og(fiOk/xk) < 0 .
Als Teststatistik verwendet man die folgende (streng monoton fallende) Transfor-
mation von X(x)
2 K
(3) G = G2(x,fio) : = 2 C xk . log (xk/fiOk) k= l
K
= 2 n C %' log($k /~ok) k= l
= n . G 2 ( ~ , p 0 )
= - 2logX(x) (Likelihood-Quotienten-Statistik) .
Wir definieren für beliebige Vektoren a,b E IRn mit a > 0 und b > 0 den sogenann-
ten Likelihood-Quotienten-Abstand
K (4) G2(a,b) := C ['k' log(ak/bk) - ('k- bk)]
k= l
= 2 [aT. (log (a) - log (b)) - (a+ - b+)] > 0 ,
wobei der Logarithmus eines Vektors komponentenweise definiert ist. Dann hat G 2
auch die entsprechenden Eigenschaften des Pearson-Abstands x2
(6) 2 G2(c.a, c . b ) = c.G (a,b) für jedes c > 0 .
Da große Werte der Likelihood-Quotienten Statistik G2 gegen die Nullhypothese
sprechen, ergibt sich der folgende Likelihood-Quotienten Test
22. Anpassungstests bei Multinomialverteilungen 7.10.02 22 - 10
(7) Ablehnung von Ho U G2(x,fi0) > cc ,
wobei der kritische Wert cG das Niveau des Tests bestimmt. Man kann nun analog
zur Pearson-Statistik einen exakten (konservativen) Test zu jedem vorgegenen (no-
minellen) Niveau a durch Bestimmung eines kritischen Werts cG(a) angeben, was
aber wieder nur für kleine Dimensionen K und nicht zu große Umfänge n praktika-
bel ist. Deshalb wird meist wieder ein asymptotischer Test durchgeführt, der auf der
folgenden asymptotischen Verteilung der Teststatistik unter der Nullhypothese für
n + CO basiert:
Theorem 3 jAsymptotische X2-l/erteilung des LQ-Abstands unter Ho)
Unter H : p = po gilt: 0
G2 : = G ~ ( x ( ~ ) , npo) 2 Xm 2 mit m = K - 1 . n n+ 00
Dieses Resultat ist ein Spezialfall der bereits in Kapitel 18 erwähnten asymptoti-
schen Verteilung des Likelihood-Quotienten. Es läßt sich (vgl. 22.7) unter Verwen-
dung eines Zusammenhangs beider Abstandsfunktionen x2(-,-) und G2(-,-) direkt
aus dem Theorem 1 herleiten. - Aus dem Theorem 3 ergibt sich der
Likelihood-Quotienten-Anpassungstest
Ablehnung von H : p = p zum asymptotischen Niveau a 0 0
U 2 2
G >X,;,
U P:= I-G (c2) 5 a m
mit Gm als Verteilungs-
2 funktion von xm.
P wird auch als Signifikanzniveau der Beobachtung bezeichnet.
22. Anpassungstests bei Multinomialverteilungen 7.10.02 22 - 11
22.6 Die Schärfe des Likelihood-Quotienten-Anpassungstests
Analog zur Pearson-Statistik ergibt sich für die Likelihood-Qotienten-Statistik
1 2 2 - (n) P - G n = G n (P ,pol ,m
und somit konvergiert auch die Likelihood-Qotienten-Statistik unter H: p r po ge-
gen unendlich
Für die Schärfe des Likelihood-Qotienten-Tests folgt hieraus
Unter benachbarten Alternativen (vgl. hierzu 22.4) ist die Likelihood-Qotienten-Stati-
stik ebenfalls asymptotisch nichtzentral Chiquadrat-verteilt:
2 2 Theorem 4 (Asymptotische X -Verteilung von G unter benachbarten Alternativen)
Unter (BA) gilt:
G2 : = G ~ ( x ( ~ ) , npo) F 2 X;(%) mit m = K - 1 n n+ 00
T " &k = A 00 . ~ i a ~ - ' ( p , ) . Am = C - P . k=l Ok
Einen Beweis hierfür ergibt sich mit dem Theorem 2 aus dem Zusammenhang bei-
der Abstandsfunktionen x2(-,-) und G2(-,-) in 22.7.
Aus dem Theorem 4 ergeben sich jetzt für den Likelihood-Quotienten-Test diesel-
ben Schlußfolgerungen für die Testschärfe und die Versuchsplanung wie für den
Chiquadrat-Test in 22.4.
22. Anpassungstests bei Multinomialverteilungen 7.10.02 22 - 12
22.7 Allgemeines zum Pearson- und LQ-Test
Vergleicht man den Likelihood-Quotienten Abstand mit dem Pearson-Abstand, so
liefert eine Taylor-Entwicklung (bis zur 2. Ordnung) von G2(a, b) im Punkt (b, b)
wobei das Restglied von der Ordnung 1 1 a- b 1 1 ist, und somit für a + b gilt
(2) R(a,b) = o(ll -W2) bzw.
R(a,b) / l l a-bl12 F 0 für a + b.
Hieraus kann man die asymptotische Äqz~ivalenz beider Statistiken G: und X: unter
der Nullhypothese herleiten, d.h. es gilt
P (3) (G:-x : ) i>O unter H o : p = p o '
Die asymptotische Äquivalenz gilt auch noch unter benachbarten Alternativen
P (4) ( G : - x : ) i > o unter (BA) .
Insbesondere haben G: und X: also auch dieselbe asymptotische Verteilung unter
benachbarten Alternative und speziell auch unter der Nullhypothese Ho. Daher läßt
sich Theorem 3 bzw. 4 unter Verwendung von (3) bzw. (4) direkt aus Theorem 1
bzw. 2 folgern.
Für ein festes p r po sind beide Statistiken G: und X: im allgemeinen nicht mehr
asymptotisch äquivalent, weil
und somit
für
Wegen der Äquivalenz beider Statistiken unter der Nullhypothese (und benachbar-
ten Alternativen) ist es in der Praxis relativ belanglos, welchen der beiden Tests
man verwendet. Die Pearson-Statistik wird oft wegen ihrer besseren Interpretier-
barkeit als „Abstandn bevorzugt, während dessen die Likelihood-Quotient Statistik
theoretische Vorzüge genießt.
22. Anpassungstests bei Multinomialverteilungen 7.10.02 22 - 13
Da es sich in beiden Fällen um einen asymptotischen Test handelt, sollte der Um- 2 fang n hinreichend groß sein. Die a m häufigsten zitierte Faustregel für den X -Test
geht Cochran (1952) zurück und lautet:
Cochran's Regel: Alle erwarteten Anzahlen fiok sollen mindesten 5 betragen.
Simulationsstudien haben ergeben, daß diese Regel bei den üblichen Testniveaus
von ci! = 5% und ci! = 1% oft zu streng, also zu konservativ ist.
Es empfiehlt sich, immer beide Statistiken und x2 zu berechnen. Wenn die Sta- n n
tistiken in einer Stichprobe stark unterscheiden, so kann dies nur daran liegen, daß
die Nullhypothese nicht zutrifft oder der Umfang n zu gering ist, um die auf den
asymptotischen Resultaten basierenden Approximationen zu rechtfertigen. Im letz- 2 2 ten Fall ist typischerweise Xn größer als Gn, weil kleine Anzahlen fiok einen größe-
2 2 ren Summanden zur X -Statistik beitragen als zur G .
22.8 Testen eines parametrischen Modells
Wir wollen jetzt ein parametrisches Modell für den Wahrscheinlichkeitsvektor p
der MK(n, P)-Verteilung betrachten. Hierzu bezeichne
S den Raum aller zulässigen Wahrscheinlichkeitsvektoren, @ C IR sei ein offener Pa-
rameterraum und T : @+ P eine Parametrisierung des sogenannten Modellraums
D := T[ @I. An die Parametrisierung wollen wir noch die folgende Regularitätsbe-
dingung stellen:
(RB) T ist auf @ stetig-differenzierbar, und die KxS Matrix
d D@) = (ae,"k(Q) )
hat den (vollen) Rang S für jedes 8.
Die Rangbedingung garantiert, daß die Parametrisierung T „lokal eindeutig" ist.
Wegen DT (8) = 0 hat D T ( ~ ) höchstens den Rang K- 1, und somit folgt S< K- I. + Da der Fall S = K- 1 trivial ist (das Modell hat dann genau soviele unbekannte Pa-
rameter wie der Wahrscheinlichkeitsvektor p und somit ist P= D), wollen wir
noch voraussetzen
22. Anpassungstests bei Multinomialverteilungen 7.10.02 22 - 14
Die Gültigkeit dieses Modells soll überprüft werden und wird daher als Nullhypo-
these formuliert mit ihrer Negation als Alternative
(3) Ho : p = ?r(Q) für ein Q E O , bzw. H , : p ~ i i ,
(4) H 1 : p t ? r ( Q ) f Ü r a l l e Q ~ O , bzw. H,: p g i i .
Die Nullhypothese umfaßt übrigens als Spezialfall auch die einfache Nullhypothese
aus 22.2, wenn P= {pd ein nulldimensionales Modell ist mit dem Parameterraum 0 O = {O) = R (also S= 0) und der Parametrisierung ~ ( 0 ) = po.
Bezeichnet 4 = d(x) den Maximum-Likelihood Schätzer von Q unter dem Modell ii
(d.h. unter der Nullhypothese Ho), SO ergibt sich der zugehörige Schätzer von p un-
ter Ho zu
und die unter der Nullhypothese (geschätzten) erwarteten Anzahlen sind gegeben
durch:
Als Teststatistik verwendet man nun wieder die Pearson- bzw. Likelihood-Quotien-
ten-Statistik aus 22.3 bzw. 22.5:
K
(7) x2 = x2(x,fi0) := C (xk - fiOk)2/fiOk (Pearson-Statistik) k= l
K
:= n . C (4 - $ok)2/$ok k= l
= n . x2(p,p ,)
2 K
(8) G = G2(x,fio) : = 2 C xk . log (xk/fiOk) k= l
K
= 2 n C %'lOg($k/$ok) k= l
= n . G2(p, p0) (Likelihood-Quotienten-Statistik) .
22. Anpassungstests bei Multinomialverteilungen 7.10.02 22 - 15
2 2 Die Verteilung von X bzw. G unter Ho hängt jetzt typischerweise noch vom un-
bekannten Parameter 19, und dann ist ein exakter Test nicht mehr möglich.
Für n i CO läßt sich aus 22.7 (2) wieder die asymptotische Äquivalenz beider Test-
statistiken unter der Nullhypothese herleiten
(4 (4 P (7) G ~ ( X ( ~ ) , P ~ ) - x2(x , po ) F n+ 00 o unter Ho: P E 17.
Und die asymptotische Verteilung beider Teststatistiken unter der Nullhypothese
ist wieder eine Chiquadrat-Verteilung, allerdings mit einem um die Dimension des
Parameters reduzierten Freiheitsgrad:
Theorem 5 jAsymptotische X2-~erteilung von x2 und G2 unter HJ
Unter Ho : p E 17 gilt:
(4 (4 2 x2:=x2(x ,po ) - 2 n n+ 00 Xm
(4 (4 2 2 G ~ : = G ~ ( x , ) - mit m =K-1-S. n n+ 00
Einen Beweis (auf den wir hier verzichten) für x2 findet man z.B. in Cramer, 1946,
Chapter 30 oder Rao, 1973, Chapter 6b. Hieraus folgt mit (7) auch das Resultat für
G2. - Man beachte, daß m > 0 aus der Voraussetzung (2) folgt.
Aus dem Theorem 5 ergeben sich dann die folgenden beiden (asymptotisch äquiva-
lenten) Tests
2 Chiquadrat-Anpassungstest oder X -Test von Pearson
Ablehnung von Ho : p E ii zum asymptotischen Niveau a
U 2 2
X >X,,., mit m =K-1-S,
Likelihood-Quotienten-Anpassungstest
Ablehnung von Ho : p E ii zum asymptotischen Niveau a
U 2 2
G >X,,., mit m =K-1-5'.
Für die Anwendung dieser asymptotischen Tests sollte man wieder Cochran's Re-
gel (und den Rest des Abschnitts 22.5) beachten.
22. Anpassungstests bei Multinomialverteilungen 7.10.02 22 - 16
Abschließend sei noch bemerkt, daß die beiden Statistiken x2 und nur zwei Spe-
zialfälle der sogenannten Power-Divergenz-Statistiken sind, die alle unter der Nullhy-
pothese asymptotisch äquivalent und jeweils Xk-verteilt sind, vgl. Read and
Cressie (1988), Chapter 4.
Beispiel: Hardy-Weinberg Gleichgewicht
Für K= 3 betrachten wir einen eindimensionalen Parameter B E O = (0,l) mit der
Parametrisierung
2 s 2 ( B ) = 2 B (1 - B) , s,(B) = (1 - B) 2
sl(Q) = 8 ,
Die Maximum-Likelihood Schätzung ist hier gegeben durch
Ein konkretes Anwendungsbeispiel aus der Genetik, in dem die Nullhypothese dem
Hardy-Weinberg-Gleichgewicht entspricht ist, im Abschnitt 22.9.2 angegeben.
22.9 Anwendungen
22.9.1 Kreuzung von Monohybriden
Man vermutet, daß die Blütenfarbe der japanischen Wunderblume von einem Gen
mit den Allelen R, W und den dazugehörigen Phänotypen RR (rot), RW (rosa), WW
(weiß) gesteuert wird (vgl. Kinder-Osius-Timm, 1982, Beispiel 7.25). Zur Überprü-
fung des Erbganges wurden Monohybriden RW miteinander gekreuzt und es erga-
ben sich folgende Aufteilungen der N = 108 Nachkommen:
Nach den Mendelschen Gesetzen müssen die erwarteten Anzahlen für die Phänoty-
pen RR, RW, WW im Verhältnis 1 : 2 : 1 stehen. Dies läßt sich als Nullhypothese über
die Wahrscheinlichkeiten der einzelnen Phänotypen wie folgt formulieren:
Phänotyp
Anzahl
RR RW WW
1 2 3 -
30 47 31
insgesamt
108
22. Anpassungstests bei Multinomialverteilungen 7.10.02 22 - 17
Die Nullhypothese soll zum Niveau a = 10% geprüft werden. Es ergibt sich
Wegen m = 3-1 = 2 und X2 = 4.61 wird die Mendelsche Hypothese weder vom 2; a
Chiquadrat- noch vom Likelihood-Quotienten-Test abgelehnt. Da ein Fehler 2. Art
vorliegen kann, ist die Mendelsche Hypothese durch das Experiment nicht mit
quantifizierbarer Sicherheit bestätigt (sondern nur unwiderlegt). Wenn das Mendel-
sche Gesetz hier nicht gilt, und die drei Phänotypen z.B. gleichverteilt sind, d.h.
Phänotyp
RR (rot)
RW (rosa)
WW (weiß)
Summe
so ergibt sich aus
ein relativ geringes Fehlerrisiko 2. Art von
beobachtet erwartet
b e
3 0 27
47 5 4
3 1 27
108 108
ß(p I n a) rr @ ( ) rr 6.5% (vgl. 22.4 Abb. 1) m,6,
Will man dagegen eine Abweichung x2(p, po) von d = 1/18 mit einer Schärfe von
90% entdecken, so ergibt sich der erforderliche Mindestumfang n aus ß = 10% und
HP1(ß) rr 10.5 (vgl. 22.4 Abb. 1) zu n rr 189. ß,d
x 2 - ~ u m m a n d ~ ~ - ~ u m m a n d
(b - e12/ e 2 b . ln(b/e)
0,33 6,32
0,91 -13,05
0,59 8,57
2 X = 1,83 2 G = 1,84
22.9.2 Hardy-Weinberg Gleichgewicht
Beim Haptoglobin-Blutgruppensystem werden die drei Blutgruppen-Phänotypen
Hp 1-1, Hp 1-2 und Hp 2-2 durch die entsprechende Kombination zweier Allele HP1
und HP2 bestimmt (vgl. Kinder-Osius-Timm, 1982, Beispiel 7.26). Wir interessieren
uns dafür, ob in einer bestimmten Population das genetische Gleichgewicht vorliegt. 1 2 Bezeichnen pl und p2 die Frequenzen beider Allele Hp und Hp , und sind pll, p12,
22. Anpassungstests bei Multinomialverteilungen 7.10.02 22 - 18
P22 die Frequenzen der drei Phänotypen in der Population, so läßt sich das Gleich-
gewicht nach Hardy-Weinberg wie folgt als Nullhypothese formulieren:
2 - 2 Ho : Pll = Pl, P12 = 2plp2, P22 - P2 (genetisches Gleichgewicht).
Da p2 = 1-pl ist, hängen alle Gleichgewichts-Wahrscheinlichkeiten (Sollwerte) von
einem Parameter ab, der unbekannten Allelfrequenz pl = Q1.
Die Nullhypothese soll zum Niveau a =5% überprüft werden. Bei einer Stichprobe
vom Umfang N = 500 wurden folgende Anzahlen für die Phänotypen beobachtet:
Die Nullhypothese soll zum Niveau a = 5% überprüft werden. Als Schätzungen für
die unbekannte Allelfrequenz verwenden wir die relative Häufigkeit unter allen 2N
Allelen:
Phänotyp
Anzahl
Die geschätzten Wahrscheinlichkeiten im Gleichgewichtsfall Ho sind dann
$22 = I;", 0,3844 .
Hp 1-1 Hp 1-2 Hp 2-2
6 1 258 181
Die Testwerte erhält man aus folgender Tabelle:
insgesamt
500
Da ein Parameter geschätzt wurde ist m = 3 -1 -1 = 1. Das 5%-Quantil = 3.841
wird von beiden Testwerten überschritten, d.h. die Nullhypothese (Gleichgewicht)
wird sowohl vom Chiquadrat- als auch vom Likelihood-Quotienten-Test abgelehnt.
Es kann hier nur ein Fehler 1.Art vorliegen, der durch a = 5% kontrolliert wird.
Phänotyp
Hp 1-1
Hp 1-2
Hp 2-2
Summe
beobachtet erwartet
b e
6 1 72,2
258 235,6
181 192,2
500 500,O
x 2 - ~ u m m a n d G2-~ummand
(b - e12/ e 2 b . ln(b/e)
1,737 -20,565
2,130 40,865
0,653 -2 1,734
x2 = 4,520 G2 = 4,566
23. Chiquadrat-Anpassungstests für Verteilungen 27.7.02 23- 1
23. Chiquadrat-Anpassungstests für Verteilungen
Für eine Zufallsvariable X soll überpüft werden, ob ihre Verteilung P= 2 (X) von
einer vorgegeben Form ist. Im einfachen Fall wird die Verteilung durch die Nullhy-
pothese vollständig spezifiziert und das Testproblem lautet
mit Po als fest vorgegebener Verteilung. Im allgemeinen Fall dagegen liegt eine pa-
rametrisierte Verteilungsklasse P= {Pg I BE B) mit einem offenen Parameterraum
B C IRs vor. Dann beschreibt die Nullhypothese die Gültigkeit des Modells und die
alternative Hypothese ist ihre Negation
(2) H o : P c P bzw. Ho:P=Pg für ein BEB
(3) H 1 : P @ P bzw. H l :P tPg f ü r a l l e B ~ B
Obwohl wir hier (der Einfachheit halber) von einer eindimensionalen Zufallsvari-
ablen X ausgehen, sei angemerkt, daß alle Ausführungen dieses Kapitels (ohne Än-
derungen) auch für einen mehrdimensionalen Zufallsvektor X gelten.
Stichproben-Modell: Die Stichprobe X = (Xl, .., Xn) vom Umfang n besteht aus n
unabhängigen Wiederholungen von X. Die beobachtete Realisierung von X wird
mit X bezeichnet.
23.1 Reduktion auf eine Multinomial-Verteilung
Wir wollen das Testproblem auf die im letzten Kapitel behandelten Anpassungs-
tests für eine Multinomial-Verteilung zurückführen. Hierzu betrachten wir eine be-
liebige, aber im folgenden feste, Zerlegung des Trägers T von X in K> 2 disjunkte
meßbare Mengen Ab (die man auch als Klassen bezeichnet)
(I> T = A 1 U A 2 U ... U A K ,
deren Klassenwahrscheinlichkeiten nicht Null sind, d.h.
23. Chiquadrat-Anpassungstests für Verteilungen 27.7.02 23- 2
- P (P ) := P { X E A ~ } > 0 (2) Pk - k für alle 5.
Auf die Wahl solcher Zerlegungs-Klassen gehen wir erst später ein. Der Vektor K
p = ..., p K ) E ( 0 , l ) der Klassenwahrscheinlichkeiten ist dann ein Wahrschein-
lichkeitsvektor, d.h. es gilt p = 1. Unter Verwendung der Indikatorfunktion IA für t
eine Menge A läßt sich die beobachtete Anzahl für das Ereignis { X E Ab} in der
Stichprobe X schreiben als
(3> Zk := # { l < i < n 1 X i c A k } = I ( X . ) . i=l Ak
Diese gruppierte oder klassifizierte Stichprobe Z = (Zl, ..., ZK) der Anzahlen erfüllt dann
das Multinomial-Verteilungsmodell
Aus der einfachen Nullhypthese über die Verteilung P folgt eine einfache Nullhypo-
these über den Wahrscheinlichkeitsvektor p = p(P)
mit po : = p(Po), und für die alternativen Hypothesen gilt dementsprechend
W H;: P * P , + Hl: P* Po .
Man beachte, daß die Nullhypothese HO im allgemeinen nicht äquivalent zu Ho ist,
weil sie nur die Klassenwahrscheinlichkeiten pk, aber nicht die ganze Verteilung
spezifiziert.
Entsprechend gilt für die parametrische Nullhypothese
(7) Ho: P E P= { P g I B E B } + HO: ~ E D = { T ( B ) I B E B } ,
mit der Parametrisierung ?r(B) : = P ( P ~ ) des Wahrscheinlichkeitsvektors, d.h.
(8) ~ ~ ( 0 ) : = P ~ ( P ~ ) : = P ~ { X E A ~ } für alle 5.
Und für die alternativen Hypothesen gilt natürlich
(9) H ; : p @ D * H,: P @ P ,
23. Chiquadrat-Anpassungstests für Verteilungen 27.7.02 23- 3
wobei wieder in (7) bzw. (9) im allgemeinen keine Äquivalenz gilt. Im folgenden
werden wir nun die abgeschwächte Nullhypothesen HO aus (5) bzw. (7) mit den Me-
thoden des letzten Kapitels testen.
23.2 Testen der einfachen Nullhypothese
Wie im Kapitel 22 (jetzt mit der Stichprobe Z statt X) bezeichne
1 1 (I> C = p(z) := ' z = (-z n 1 ' ..) - n K z ) = P ( ~ z )
die Maximum-Likelihood Schätzung von p im Multinimial-Modell, wobei sich die
letzte Darstellung mit \ als empirischer Verteilung der beobachten Realisierung z
von Z ergibt, vgl. Kapitel 7. Unter der Nullhypothese dagegen ist
PI Po = Po d.h. j ~ k = P o { X ~ A k } füral lek
die ML-Schätzung für p, und die (unter Ho) erwarteten Anzahlen sind wieder gegeben
durch den Erwartungsvektor
(3) . - Po ' - d~o) = PO = (hol? "'? boK) '
Mit m = K- 1 ergeben sich aus Kapitel 22 daher die asymptotischen Tests
Chiquadrat-Anpassungstest von Pearson
Ablehnung von H*: p = p zum asymptotischen Niveau ci! 0 0
U x2(z,>uO) 2 X;;, 7
Likelihood-Quotienten-Anpassungstest
Ablehnung von H*: p = p zum asymptotischen Niveau ci! 0 0
U G ~ ( Z , P ~ ) > X;;,.
23. Chiquadrat-Anpassungstests für Verteilungen 27.7.02 23 - 4
23.3 Testen des parametrischen Modells
Hier muß zunächst der Parameter 8 unter der Nullhypothese geschätzt werden, wo-
für es (mindestens) zwei verschiedene Möglichkeiten gibt
den Maximum-Likelihood Schätzer d(x) für die Original-Stichprobe X unter
der Nullhypothese Ho : P E P,
den Maximum-Likelihood Schätzer d(z) im Multinomial-Modell für die klassi-
fizierte Stichprobe z unter der Nullhypothese HO: p E ii .
Die beiden Schätzer stimmen im allgemeinen nicht überein. Wir betrachten zuerst
den Schätzer 8 = d(z) aus dem Multinomial-Modell und erhalten damit den unter der
Nullhypothese HO: p E ii geschätzten Wahrscheinlichkeitsvektor
(1) = p(Ps) d.h. j o k = P , { X ~ A k } füralle k .
Mit den unter HO (geschätzten) erwarteten Anzahlen fio aus (15) läßt sich jetzt wie-
der der obige Pearson- oder Likelihood-Quotienten-Test mit dem reduzierten Frei-
heitsgrad m = K- 1 - S durchführen, sofern die Parametrisierung T die Regulari-
tätsbedingung (RB) aus 22.6 erfüllt.
Verwendet man dagegen den Maximum-Likelihood Schätzer d(x) aus der Original-
Stichprobe X und bestimmt po, fio aus (16), (15), so hat der Pearson- oder Likeli-
hood-Quotienten-Test unter gewissen Regularitätsbedingungen (analog denen aus
Kapitel 11) ebenfalls das asymptotische Niveau a. Man beachte, daß die resultie-
rende Likelihood-Quotienten-Statistik G2 mindestens so groß ist wie bei Verwen-
dung des Schätzer d ( ~ ) der gruppierten Stichprobe.
Allgemeiner kann man zur Bestimmung der Teststatistiken irgendeinen Schätzer
d*(x) verwenden, der zum ML-Schätzer $z) im Multinomialmodell asymptotisch 1 äquivalent ist von der Ordnung -, d.h. es gilt Jn
Die sich daraus ergebenden Teststatistiken x 2 * und G2* sind dann asymptotisch
äquivalent zu den mit d(z) berechneten Statistiken x2 und G2, d.h.
und folglich bleiben sowohl der Chiquadrat- als auch der Likelihood-Quotienten-
Test auch bei Verwendung des Schätzers d* asymptotisch gültig.
23. Chiquadrat-Anpassungstests für Verteilungen 27.7.02 23- 5
23.4 Wahl der Zerlegungs-Klassen
Der Wahl der Klassen Ak kommt eine entscheidende Bedeutung zu, weil sie die Ab-
schwächung HO der eigentlich interessierenden Nullhypothese Ho bestimmt. Zu-
nächst muß noch einmal deutlich betont werden, daß die Klassen in jedem Fall un-
abhängig von der Stichprobe X (also a m besten vor der Stichprobenerhebung) festzu-
legen sind. Wenn dies nicht garantiert ist, sind die oben diskutierten Tests nicht
anwendbar, d.h. sie halten das vorgegebene asymptotische Niveau ci! nicht notwendig
ein.
Für die Wahl der Klassen-Anzahl K gibt es zwei rivalisierende Empfehlungen. Ei-
nerseits ist ein großes K günstig, weil bei wachsendem K die interessierende Nullhy-
pothese Ho durch ihre Abschwächung HO immer besser approximiert wird. Ande-
rerseits werden (bei festem Umfang n) die erwarteten Anzahlen fiOk für wachsen-
des K immer geringer und somit die asymptotischen Tests unzuverlässiger. Will
man z.B. Cochrans Regel einhalten, so muß K< n/5 gelten.
Hat man sich auf die Anzahl K bereits festgelegt, so sind jetzt noch die Klassen Ag
selbst zu fixieren. Hierbei sollte man eine starke Streuung der resultierenden Klas-
senwahrscheinlichkeiten pk vermeiden, weil aus Simulationsstudien und theoreti-
schen Betrachtungen hervorgeht, daß bei gleichen Klassenwahrscheinlichkeiten (d.h. 1 pk =B) die asymptotische Verteilung eine besonders gute Approximation der exak-
ten Verteilung der Teststatistiken ist, und auch die (hier nicht untersuchte) Test-
schärfe maximal wird. Auf weitere Einzelheiten hierzu verzichten wir, und gehen
dafür noch auf die wichtigsten Verteilungstypen ein.
23. Chiquadrat-Anpassungstests für Verteilungen 27.7.02 23- 6
23.5 Stetige Verteilungen
Zuerst betrachten wir den Fall, daß die Zufallsvariable X eine Lebesgue-Dichte f
besitzt und bezeichnen die Verteilungsfunktion mit F. Weiter sei der Träger
T:= {f > 0) = (tl,t2) CR ein offenes Intervall. Die Klassen werden dann (bevor-
zugt) als Intervalle der Form Ak = (ak- ak] gewählt, wobei
(I> t 1 0 = a < a l < a 2 < . . . < a K - l < a K = t 2 '
und die Klassenwahrscheinlichkeiten ergeben sich dann zu
(2) P, = pk(F) = F(ak) - F(akp1) > 0 .
Bei dem Test der einfachen Nullhypothese Ho: P= Po (z.B. für die Überprüfung ei-
nes Zufallsgenerators für die Verteilung Po) bevorzugt man gleichwahrscheinliche
Klassen, d.h. pk =B für alle k, die sich unter Verwendung der Verteilungsfunktion
F. von P wie erreichen lassen 0
(3) 1 k ak :=F- (-)
0 K '
Und für den Test der paramatrisierten Nullhypothese Ho: PE P ergeben sich die
Klassenwahrscheinlichkeiten aus der Verteilungsfunktion F. von Po zu
Beispiel: Normal-Verteilung
2 Bei einem Test auf Normalverteilung ist Po = N(P, o ) mit 0 = (P, 0) und die Vertei-
lungsfunktion lautet
(5) F. (X) = @($(X - P)) ,
mit @ als Verteilungsfunktion von N(0,l).
23. Chiquadrat-Anpassungstests für Verteilungen 27.7.02 23- 7
23.6 Diskrete Verteilungen mit endlichem Träger
Es sei jetzt X eine Zufallsvariable mit endlichem Träger T = {al,a2, ..., aM). Dann
wird man die K : = M einelementigen Klassen Ak = {ak) mit den Elementar-Wahr-
scheinlichkeit als Klassenwahrscheinlichkeiten
bevorzugen, weil dann die abgeschwächte Nullhypothese HO sogar äquivalent zur ur-
sprünglichen Nullhypothese Ho ist. Wenn allerdings M in Relation zu n zu groß ist
(etwa deutlich größer als n/5), so wird man eine gröbere Klassifikation wählen (wo-
bei man sich an den Ausführungen für stetige Verteilungen orientieren kann), um
Cochrans Regel annähernd einzuhalten.
Beispiel: Diskrete Gleichverteilung
Beim Test einer diskreten Gleichverteilung auf dem Träger T = { l ,2, ..., M) (z.B. bei
einem homogenen Würfel mit M = 6) ist die Nullhypothese einfach, wobei Po die
Gleichverteilung auf T ist, d.h. Po{X = m) = 1/M für alle m E T. Und für die einele-
mentigen Klassen AL= {k) ergeben sich dann auch gleiche Klassenwahrscheinlich-
keiten.
23.7 Diskrete Verteilungen mit unendlichem Träger
Es sei jetzt X eine Zufallsvariable mit unendlichem Träger, wobei wir 0.B.d.A.
T = U, voraussetzen (wie z.B. bei der Poisson-Verteilung). Auch hier wird man
möglichst viele einelementige Klassen Ak = {k- 1) für k < K wählen, und nur in der
letzten Klasse AK = {m E U 1 m 2 K) die restlichen Elementarereignisse zusam-
menfassen. Die Klassenwahrscheinlichkeiten sind dann
p (P) = P{X=k-1) für k < K , k
Einführung in die Statistik 4.4.03 Literatur - 1
Literatur
Von der äußerst umfangreichen Literatur zur Statistik (und Wahrscheinlichkeits- theorie) sind hier nur diejenigen Werke aufgeführt, die unmittelbar für die Vorbe- reitung der Vorlesung verwendet wurden. Zeitschriftenartikel sind nicht hier, son- dern direkt im Text aufgeführt. Weitere ausführliche Literaturhinweise findet man in den angegebenen Büchern.
Billingsley, P. (1968). Convergence of probability measures. New York, Wiley.
Billingsley, P. (1979, 1986). Probability and measure (lSt, 2nd Ed.). J. Wiley & Sons, Inc., New York, Chichester, Brisbane, Toronto.
Cox, D.R. & Hinkley, D.V. (1974). Theoretical statistics. Chapman and Hall, London.
Cramer, Harald (1974). Mathematical methods of statistics. Princeton University Press.
Dudewicz, E.J. and Mishra, S.N. (1988). Modern Mathematical Statistics. J. Wiley & Sons, Inc., New York..
Feller, W. (1968, 1971). An Intreoduction to Probability Theory and Its Apllications, Vol. 1 (3rd Ed.), Vol. 2 (2nd Ed.). J. Wiley & Sons, Inc., New York..
Gänssler, P. und Stute, W. (1977). Wahrscheinlichkeitstheorie. Springer Verlag, Heidel- berg, New York.
Johnson, N.L. & Kotz, S. (1969). Distributions in statistics: Discrete distributions. Houghton Mifflin Company, Boston.
Johnson, N.1. & Kotz, S. (1970). Distributions in statistics: Continuous univarite distributions - 1. Houghton Mifflin Company, Boston.
Johnson, N.L. & Kotz, S. (1970). Distributions in statistics: Continuous univariate distributions - 2. Houghton Mifflin Company, Boston.
Kendall, M.G. & Stuart, A. (1969). The advanced theory of statistics, Volume 1: Distribution theory. Charles Griffin & Company Ltd., London.
Kendall, M.G. & Stuart, A. (1973). The advanced theory of statistics, Volume 2: Inference and relationship. Charles Griffin & Company Ltd., London.
Kinder, H.P., Osius, G., Timm, J. (1982). Statistik für Biologen und Mediziner. Vieweg & Sohn, Braunschweig, Wiesbaden.
Mood, A.M., Graybill, F.A. and Boes, D.C. (1974). Introduction to the Theory of Statistics (Third Edition). McGraw-Hill, Singapore.
Osius, G. (2002). Statistik in den Naturwissenschaften (Skript). Mathematik Arbeits- papiere Nr. 59, Universität Bremen. http://www.math.uni-bremen.de/"osius/download/.
Osius, G. (2003). Stochastik (Vorlesungsskript). Universität Bremen, FB 3, Institut für Statistik. http~/www.math.uni-bremen.de/"osius/download/lehre/Stochasti~.
Rao, C.R. (1973). Linear statistical inference and its applications. J. Wiley & Sons, New York, Chichester, Brisbane, Toronto.
Read, R.C. & Cressie, N.A.C. (1988). Goodness-of-fit statistics for discrete multivariate data. New York, Springer.
Aufgabe 1.1: Varianzschätzung bei der Binomial-Verteilung
X = (Xl, ..., Xn) sei eine Stichprobe von n unabhängigen B(1,p)-verteilten Zufallsva-
riablen. Die Varianz v(p) =p(l-p) von B(1,p) ist eine Funktion von p, und somit
ist V($) : = j (1-j) mit j = X ein naheliegender Schätzer für v(p). Ist dieser Schätzer
erwartungstreu undIoder konsistent? In welchem Zusammenhang steht V($) zur Vari-
anzschätzung 8 2 ( ~ ) aus 2.27
Aufgabe 1.2: Symmetrie und Schiefe
Eine reelle Zufallsvariable X (bzw. ihre Verteilung) heißt symmetrisch um y E IR, wenn 2(X- y) = 2 ( y - X) gilt.
(a) Man zeige für symmetrisches X zunächst, daß der Symmetriepunkt y mit dem Erwartungswert ,LL = E(X) übereinstimmt, sofern letzterer existiert.
(b) Für den Erwartungswert der kubischen Abweichung [X- ,L] 3
3 P3(X) : = E([X- PI 1 (3. zentrales Moment von X).
zeige man: X ist symmetrisch + P3(X) = 0
(C) P ~ (X) wird als Maß für die Schiefe (der Verteilung) von X verwendet. Zeige
(2) L+ +ßX) = ß3 .p3(X) für a, P E IR,
(ii) X und Y stochastisch unabhängig + ,LL~(X + Y) = ,LL~(X) + ,LL~(Y).
Zur Erinnerung (soll nicht mehr gezeigt werden, vgl. Stochastik-Skript 7.6):
Binomial-Verteilung: P3[B(n, P)] = (q - P) . (n P q)
Poisson-Verteilung: P3[P0is(P)] .)I= P
Normal-Verteilung: P 3 [ ~ ( P , 4 ] = 0
Gamma-Verteiluing: P3[~am(a ,ß) ] = 2 a ß 3
Aufgabe 1.3: Schätzung des 3. zentralen Moments bzw. der Schiefe
Für eine Stichprobe X = (X1, ..., Xn) mit unabhängigen Wiederholungen von X ist
ein naheliegender Schätzer für ,LL~(X) aus Aufgabe 1.2 (b). Berechne E{,k3(X)}, um
zu überprüfen ob ,k3(X) erwartungstreu ist.
Aufgabe 2.1: Verteilung von Q u a d r a t e n u n d Chiquadrat-Vertei lung
(a) Für eine Zufallsvariable U mit einer auf IR stetigen Dichte f zeigen man, daß
u2 die auf ( 0 , ~ ) konzentrierte Dichte g hat:
g(x) = (f(J") +f(- J " ) ) / 2 J " für X > o . 2 Hinweis: Differenziere die Verteilungsfunktion von U .
(b) Zeige daß Chiquadrat-Verteilungen spezielle Gamma-Verteilungen sind:
= Gam(:,2) Xn für jedes ~ E N .
(Damit hat man auch die Dichte von als Gamma-Dichte bestimmt!)
Hinweis: Induktion über n mit (a) und Anwendung der Faltungseigenschaft
der Gammaverteilung (kann vorausgesetzt werden: vgl. Exkurs G3 (1)).
Aufgabe 2.2: Zur Konvergenz nach Wahrscheinlichkiet
Eine Folge X = (Xn ..., Xn ,) von Zufallsvektoren mit Werten in IR' heißt nach n I P Wahrscheinlichkeit konvergent gegen a = (al, ..., aI) ER (Schreibweise: X - a),
n falls gilt:
(KW) Fürjedese>Ogilt : limP{IIX n - a I I > e ) = O bzw. n
limP{IIX -all< C ) = 1 , n n
oder in äquivalenter „topologischer" Formulierung
(KW)* Für jede Umgebung U von a gilt: lim P{ X gf U) = 0 bzw. n n
l imP{X E U ) = 1. n n
Man zeige:
K (a) Für eine meßbare und in a stetige Funktion f : IR1+ IR gilt:
P X -a n * f(Xn) L f ( a ) .
P (b) Xn i U X n 2 .-a. 2 für alle i = 1) ...) I.
P
Aufgabe 2.3: Klinische Studie zur Chemotherapie
Beim inoperablen Tumor der Gallenblase im fortgeschrittenem metastasierenden
Stadium ist eine Heilung nur in seltenen Ausnahmefällen möglich. Die anwendba-
ren Therapien zielen daher primär auf eine Verlängerung der verbleibenden Leben-
serwartung, die typischerweise nur noch einige Monate beträgt. Eine Remission (Rückbildung des Tumors um mindestens 50%, die über mindestens 4 Wochen an-
hält) wird als Erfolg einer Therapieanwendung angesehen. Für eine bisher nur im
Tierversuch erfolgreiche neue Chemotherapie soll die Remissionsrate p im Rahmen
einer klinischen Studie geschätzt werden. Die klinisch relevante Rernissionsrate, die
man zu übertreffen hofft, beträgt pl=30%. Demgegenüber wird eine Remissionsrate
von po = 10% oder weniger als uninteressant eingestuft wird. Da die neue Chemo-
therapie eine starke Belastung des Patienten darstellt und zusätzlich sehr kostenin-
tensiv ist, will man eine unnötige Anwendung der Therapie vermeiden. Deshalb
wird die Studie in zwei Stufen eingeteilt.
In Stufe 1 werden nl = 15 Patienten (unabhängig voneinander) behandelt. Falls hier-
bei keine einzige Remission auftritt, wird die Studie nicht fortgesetzt. Andernfalls
werden in der Stufe 2 weitere n2 = 16 Patienten behandelt und anschließend die Re-
missionrate aus allen n = 31 Anwendungen geschätzt.
(a) Mit welcher Wahrscheinlichkeit wird die Studie nach der 1. Stufe abgebrochen,
obwohl die Remissionsrate p > pl ist? Und mit welcher Wahrscheinlichkeit wird die
2. Stufe durchgeführt, obwohl die Remissionsrate p 5 po ist?
(b) Für den Fall, daß die Studie nach der Stufe 1 abgebrochen wird, berechne die
exakte und (normale) asymptotische Konfidenzgrenze für die Remissionsrate p zur
Sicherheit von 95%?
(C) Angenommen, in beiden Stufen werden je 5 Remissionen beobachtet. Dann ist
die beobachtete Remissionsrate j = 10/31 größer als pl. Wie groß ist dann die un-
tere 95%-Grenze für p (exakt und asymptotisch)?
Aufgabe 3.1: Exakte Konfidenzgrenzen im Poisson-Modell
X sei Pois(,~~)-verteilt mit ,LL> 0. Für eine Realisierung X E IN U{O} und fest vorgebe-
nes O < a < 1 sind die exakten einseitigen Konfidenzgrenzen fio(x) > 0 und fiu(x) -)> 0
für ,LL gegeben durch (vgl. Skript 5.1-2):
(1) F(x l fio, ,<X)) = für x-)>o , (2) fi U, a (0) =O , G( l f i , ,(X)) = für X > 0 ,
Man zeige, daß fi bzw. fi einseitige Konfidenzgrenzen für ,LL zur exakten Sicher- 0, a u , a
heit von mindestens 1- a sind, d.h. es gelten:
(3) P{P< fi0,a(4} -)> 1-a, p{fiu,a(4 < P } -)> 1-a.
Hinweis: Gehe analog dem Binomial-Modell vor und zeige erst, daß F(x~,LL) streng
monoton fallend in ,LL ist, weil gilt (Beweis?): a
-F(xl,LL) = - p(xI,LL) 0 . a,LL Daraus ergibt sich auch, daß fi bzw. fi durch (1) bzw. (2) eindeutig bestimmt
o , a u , a sind!
Aufgabe 3.2: Asymptotische Konf idenzgrenzen im Poisson-Modell
Man zeige, daß die die quadratische Funktion (vgl. Skript 5.5)
(6) 2 2 f(,LL) = ( ~ - 4 -Pa
2 = (,L - - D mit
zwei reelle Nullstellen hat
(9) a0,,(x) : = P, + G (asymptotische obere Grenze),
(10) P U,& ( X ) : = ~ ~ - \ / D (asymptotische untere Grenze).
Zusätzlich zeige man, daß ,L (X) die (einzige) Lösung ist von 0, a
ist, und ,L (X) ist für den Fall X > 0 die (einzige) Lösung von U, a
(5> @(F) = Q bzw. - -za . P-X -
IF Für X = 0 ist die asymptotische untere Grenze gleich 0
(12) ,L U, a (0) = 0
und stimmt mit der exakten unteren Grenze fi (0) = 0 überein. u , a
Aufgabe 3.3: Leukämie in der Umgebung des Kernkraftwerks Krümmel
Im Umkreis von 5 km um das Kerkraftwerk Krümmel sind im Jahr 1990 genau
X = 3 Leukämieerkrankungsfälle bei Kindern bis 14 Jahren aufgetreten (vgl. Skript
0.1). Ausgehend von den Annahme, daß die Anzahl X der Leukämieerkrankungen
Poisson-verteilt ist mit Erwartungswert p, bestimme man die untere exakte Konfi-
denzgrenze fiu für die erwarteten Leukamiefälle (pro Jahr) zur Sicherheit von 95%. 2 Die Berechnung kann z.B. unter Verwendung der entsprechenden X -Quantile (vgl.
Skript 5.4) aus den Tabellen erfolgen. Zum Vergleich bestimme man auch die
asymptotische untere Grenze nach 5.5.
Zur Beurteilung, wie wahrscheinlich der beobachtete Wert X = 3 unter Berücksichti-
gung des nach bundesdeutschem Durchschnitt zu erwartenden Wert von po = 0,06
ist, berechne man die Wahrscheinlichkeit P { X > 3 1 pol.
Aufgabe 4.1: Dichte der t-Verteilung 2 Ausgehend von den Dichten der N(0,l)-Verteilung und der X -Verteilung (vgl. Ex- n
kurs V1.1) berechne man die Dichte der t -Verteilung. n
Hinweis: Sind U und V stochastisch unabhängig mit den Dichten f U und fv, so hat
der Quotient X = U/V die Dichte (was hier nicht bewiesen werden soll)
für X E IR.
Aufgabe 4.2: t-Verteilung bei wachsendem Freiheitsgrad
Zeige, daß die Dichte cpn bzw. Verteilungsfunktion @,der tn-Verteilung für n i CO
punktweise gegen die Dichte cp bzw. Verteilungsfunktion @ der N(0,l)-Verteilung
konvergiert :
(4 1ip (P,(x) = ~ ( x ) für jedes X E IR.
(b) lim n @ n (X) = @(X) für jedes X E IR.
Hinweis: Für (a) kann - ohne Beweis - die folgende Variante der Stirlingschen For-
mel verwendet werden:
Aufgabe 4.3: Bestimmung des pH-Werts bei saurem Regen
Eine Messung X des pH-Werts (Skala: von O=sauer über 7=neutral bis 14=alka-
lisch) bei einer Wasserprobe ist eine Zufallsvariable, deren Erwartungswert ,LL der
wahre pH-Wert ist, und deren Standardabweichung a die Präzision der Meßme-
thode charakterisiert. Aus Erfahrung sei bekannt, daß X normalverteilt ist und bei
der verwendeten Meßmethode a = 0.5 ist.
(a) Bei n=40 Messungen ergab sich der Mittelwert f i =% = 3.7. Man bestimme für
das Normalverteilungsmodell (vgl. Skript Abschnitt 3.1) die zweiseitigen Konfidenz-
grenzen % f d für den pH-Wert ,LL zur Sicherheit von 95% und 99%, d.h. ci! = 5%
und ci! = 1%. 4 2
(b) Welcher Stichprobenumfang n ist notwendig, damit beim Konfindenzintervall
zur Sicherheit 99% die Bandbreite da12 5 0.1 ist.
(C) Ein extrem skeptischer Statistiker will sich weder auf die Normalverteilungsan-
nahme von X noch auf eine asymptotische Sicherheit einlassen und besteht auf den
(allgemein gültigen) Konfidenzintervallen, die sich aus der Chebychev-Ungleichung
ergeben (vgl. Skript Abschnitt 3.3). Wie lauten die entsprechenden Resultate aus (a) und (b) mit diesen Konfidenzgrenzen? Vergleiche die Resultate mit denen im Nor-
malverteilungsmodell und kommentiere die Unterschiede kurz.
Aufgabe 5.1: (Quasi-) Inversen einer Verteilungsfunktion
F : IR + [ O , 1 ] sei die Verteilungsfunktion einer reellen Zufallsvariablen X. Die
links- bzw. rechts-stetige (Quasi-) Inverse F- bzw. von F ist auf (0,l) definiert durch
(vgl. Exkurs Q Quantile von Verteilungen)
F-(P) := inf {ZER 1 <F(x)} (links-stetige Inverse),
F-(P) := SUP{XEIR I F(x) <P} (rechts-stetige Inverse).
Man beweise die folgenden Eigenschaften für alle 0 < p < 1 und XE IR
(4 F-(~(x)) a X , (b) P a F(F-(P)) , (C) F-(P) a X U P I F(x) , (4 X a E(P) U a P .
(4 F(F- (F(x)) = F(x) ,
(f) F- ist monoton wachsend:
P, a P, + F-(P~) a F-(P~).
Aufgabe 5.2: Zentrale Momente der Binomial-Verteilung
Für eine B(n,p)-verteilte Zufallsvariable X ist das r-te zentrale Moment ein Poly-
nom in p: n
r n k p r = ~{(x-np) '}= (k-np) ( k ) p ( l - ~ ) ~ - ~ , ~ € N u { O } . k=O
(a) Leite (durch Differenzieren) die folgende Rekursionsformel her
(b) Bestimme pk explizit für 0 < k 4.
Aufgabe 5.3: Sonntagsfrage vom Mai 2002
Bei der Sonntagsfrage (vgl. Skript 0.3) in einer Umfrage von Infratest dimap (Quelle: www.infratest-dimap.de) ergaben sich bei n = 1300 Befragungen die folgende Pro- zentzahlen für die Stimmanteile der Parteien (Stand: Mai 2002)
Bestimme die untere asymptotische Konfidenzgrenze zur Sicherheit 99% des Stim- manteils jeder Partei, sowie für die Koalition CDU/CSU 63 FDP. Schaffen die kleinen Parteien die 5%-Hürde bzw. die Koalition die absolute Mehrheit?
SPD
32%
Hinweis: Da n groß ist, kann die grobe Konfidenzgrenze verwendet werden.
CDU/CSU
41%
B '9OlGrüne
7%
FDP
11%
PDS
5%
Sonst.
4%
Aufgabe 6.1: Poisson-Verteilung
(a) Für X - P ~ i s ( ~ ) bestimme man die Moment-generierende Funktion Mx und die Kumulanten-generierende Funktion Kx .
(b) Zeige, daß Poisson-Verteilungen abgeschlossen gegen Faltungen sind:
X1 - Pois(&) , X2 - Pois(&) stochastisch unabhängig
+ (Xl + X2) - Pois(& + h).
Hinweis: Der Eindeutigkeitssatz für MGF kann (ohne Beweis) benutzt werden.
Aufgabe 6.2: Gamma-Verteilung
(a) Für X - Gam(qß) bestimme man die Moment-generierende Funktion M X die Kumulanten-generierende Funktion Kx und berechne hieraus die Kumulanten
K ~ ( X ) von X für jedes k~ W.
Hinweis: Betrachte erst den Spezialfall ß= 1.
(b) Zeige, daß Gamma-Verteilungen mit gleichem Skalenparameter ß abgeschlos-
sen gegen Faltungen sind:
X1 - Gam (?, ß) , X2 - Gam (% ,ß) stochastisch unabhängig
* (Xl +X2) -Gam([y+51 >P) .
Hinweis: Der Eindeutigkeitssatz für MGF kann (ohne Beweis) benutzt werden.
Aufgabe 6.3: Cauchy-Verteilungsmodell
Hat U eine tl-Verteilung, so heißt die Verteilung von X = a+ß U mit acIR, ß> 0
eine Cauchy-Verteilung C(@), d.h. es ist definiert:
C(a,ß) = a +ßtl .
Die Dichte f und Verteilungsfunktion F von C(@) sind:
-1 F(x I a,ß) = + T . arctan ((X- a)/ß) .
Die Cauchy-Verteilungen haben keinen Erwartungswert, weil E(x+) = E(XP) = W.
Man zeige:
(4 F ü r y c I R , S > O ist: .d(y+SX) = C(y+Sa ,Sß) .
(b) Die Faltung von Cauchy-Verteilungen ist wieder eine solche :
C(al,ßl) * C(a2,ß2) = C((al +a2) (ßl +ß2)).
(C) Sind XI, ..., X identische unabhängige Wiederholungen von X mit
2 ( X ) = C(a,ß), so hat der Mittelwert X dieselbe Verteilung:
qX) = C(a,ß).
Hinweis für (V: Beweise zunächst den Fall a = a = 0, ß = 1, ß =r und verwende 1 2 1 2
die (zu beweisende) Darstellung: 1 - -
( i+x2) .(r2+(a-x)2)
2 a X 2 2 a + r -1 2 2a -2ax a 2 - r 2 + 1 + +
x2 + 1 x2 + 1 r2+(a-x12 + ~ ~ + ( a - x ) ~
[a2 + (T+ 112] . [a2 + (T- g2] Der allgemeine Fall ergibt sich dann aus (a) mit r = ß2 /ßl .
Auftreten der Cauchy-Verteilung: Wenn W ein Zufalls-Winkel ist, der im Inter- 1 1 vall ( - - , + -) stetig-gleichverteilt ist, so ist sein Tangens Standard-Cauchy-verteilt: T T
Dies erlaubt eine Interpretation durch folgendes Zufalls-Experiment. Man betrachte in der (X, y)-Ebene eine Zufallsgerade durch den Nullpunkt (0,0), deren Winkel W mit der x-Achse stetig-gleichverteilt ist. Man stelle sich vor, die Gerade ist ein im Nullpunkt befestigte „Zeigeru, der zufällig gedreht wird und dann zum Stillstand kommt. Dann ist der Anstieg tan(W) dieser Zufallsgeraden C(0,l)-verteilt.
a-5ß a a+5ß a-ß a+ß
Dichte der Cauchy-Verteilung C(a,ß) Cauchy-Verteilung vs. Normal-Verteilung 0.4lß - 0.4lß -
Abb.: links: Dichte f(- la,ß) der Cauchy-Verteilung C(a,ß) rechts: Vergleich mit der Dichte der Normalverteilung N(a, 02), wobei o so gewählt ist, daß die Fläche unter beiden Dichten über dem Intervall (a-ß, a + ß) jeweils 50% sowie links und rechts davon je 25% beträgt (d.h. beide Verteilungen haben diesel- ben Quartile).
25% 50%
Cauchy
25%
Aufgabe 7.1: Kumulanten und zentrale Momente
Für eine reelle Zufallsvariable X mit Erwartungswert p = E(X), deren MGF in einer Umgebung von 0 endlich ist, zeige man den folgenden Darstellungen der Kumulan- ten K ~ ( X ) = @)(o) durch die zentralen Momente pk(X) = E([X-,L]~) von X (vgl. Exkurs CF 5.3):
(3) .,(X) = E(X) = P
(4) .,(X) = E([x-p12) = p2(x) = Var(X) = a 2
(5) .,(X) = E([x-PI~) = IL~(X)
(6) 4 .,(X) = E([x-,LL]~)-~~;(x) = p4- 3 0 .
Hinweis: Stelle die KGF Kx von X durch die MGF K y der zentrierten Variablen Y = X- p dar und beachte
pk(X) = E([x- pik) = E(yk) = M ~ ) ( o ) .
Aufgabe 7.2: Bedingung (F3) der Exponential-Familie
Man weise die Bedingung (F3)' für die Normal- und Gamma-Verteilungen nach, indem man zeigt:
(a) Für normal-verteiltes X und beliebige tl, t2, a E R gilt:
(b) Für Gamma-verteiltes X und beliebige tl, t2, a E R gilt:
Hinweis: Man kann sich allgemeiner überlegen, daß für eine stetig-verteilte Zufalls- variable X und eine meßbare reelle Funktion g stets gilt:
P ig(X) = 0) = 1 + g hat überabzählbar viele Nullstellen.
Aufgabe 7.3: ML-Schätzung bei Normalverteilung 2 Für eine Stichprobe X1, ..., Xn mit unabhängigen und identisch N(p,o )-verteilten
bestimme man die Maximum-Likelihood-Schätzung des Parameters
bei bekanntem a 2 (4 = P
(b) I9 = a 2 bei bekanntem p
(C) e = ( P , a 2 ) .
Hinweis: Die Klasse der Normalverteilungen aus (a)-(C) bilden jeweils eine ein- bzw. zweiparametrige Exponentialfamilie bzgl. des Parameters I9 bzw. e.
Aufgabe 8.1: Produzenten- und Konsumententest
X bezeichne den Gehalt eines spezifischen Schadstoffes in einem bestimmten Le-
bensmittel, z.B. den Bleigehalt [in 1 0 - ~ ~ / l ] einer Apfelsaftsorte. Aus langjährigen
Untersuchungen sei bekannt, daß X in guter Näherung ~ ( p , a ~ ) - v e r t e i l t ist, mit be-
kanntem a = 5. Zur Qualitätskontrolle führt der Produzent einen Test der Hypothe-
sen
Ho : p 5 po j)unbedenklich'? , Hl: p > po j'nicht unbedenklich'?
durch, wobei po = 20 die gesetzlich zulässige Höchstbelastung ist. Dieser Produzen-
tentest wird routinemäßig mit einer Stichprobe vom Umfang n = 5 zum Niveau
a = 5% durchgeführt und hat folgende Konsequenz: das Produkt wird genau dann
vom Produzenten ausgeliefert, wenn der Test Ho nicht ablehnt.
Eine Verbraucherorganisation führt dagegen einen Test der Hypothese
Ho : p > p1 j'deutlich belastet'?, Hl: p < p1 (nicht „deutlich belastet'?
mit gleichem a und n durch, wobei p1 = po + D = 25 als eine deutlich erhöhte Bela-
stung angesehen wird. Die Organisation fordert, daß das Produkt genau dann zum
Verkauf freigegeben wird, wenn ihr Verbrauchertest Ho ablehnt.
(a) Gib eine inhaltliche Beschreibung der möglichen Fehlentscheidungen für beide
Tests.
(b) In einer konkreten Stichprobe vom Umfang n = 5 war der Mittelwert = 22,5.
Zu welchem Ergebnis kommen der Produzenten- bzw. Konsumententest, wel-
che Fehlentscheidungen können hierbei aufgetreten sein, und wie groß ist das
Fehlerrisiko 2. Art ß(14) = 1 - Pow(pl) bzw. ß(po) = 1 - Pow(pl) beim jeweiligen
Test?
Aufgabe 8.2: Versuchsplanung b e i m Gauß-Test
Beim einseitigen Gauß-Test der Hypothesen Ho: p < po und Hl: p > pO zum Niveau a
ist das maximale Fehlerrisiko 2. Art bekanntlich ß = 1- a und daher bei vorgegebe-
nem a nicht weiter reduzierbar. In konkreten Anwendungen dagegen ist nur das
eingeschränkte maximale Fehlerrisiko
von Interesse, wobei A > 0 der kleinste praktisch noch relevante Unterschied ist (z.B.
A = 1 g, wenn p ein Gewicht ist).
(a) Man bestimme ß(A I n , a) und zeige, daß ß(A I n , a) J, 0 für n + co gilt.
(b) Für vorgegebenes a, A und ßo > 0 bestimme man den erforderlichen Mindest-
Stichprobenumfang no = no(a,A,ßo) bei dem das eingeschränkte Fehlerrisiko
höchstens gleich ßo ist, d.h. ß(A I no , a) < ßo gilt.
(C) Wir betrachten wieder den Produzententest aus Aufgabe 8.1, bei dem Xein 2 Schadstoffgehalt mit N(p,o )-Verteilung und po die gesetzlich zulässige
Höchstbelastung war. Bestimme konkret den erforderlichen Mindestumfang 1 1 n (a ,A,ß ) für a=5%,ßo=10% und A = - o bzw. A=-.
0 0 2 4
Aufgabe 8.3: Schärfevergleich b e i m ein- u n d zweiseitigen Gauß-Test 2 2 Für eine Normalverteilung N(p ,o ) mit bekanntem o betrachten wir das ein- bzw.
zweiseitige Testproblem für den Erwartungswert mit den Hypothesen:
einseitig: H o : ~ < ~ o ) H l : p > p 0 .
zweiseitig: H o : ~ = ~ o ) H l : p * p 0 .
Bezeichnet Powl(- 1 a) bzw. Pow2(- la) die Schärfe des ein- bzw. zweiseitigen
Gauss-Test dl bzw. d2 zum Niveau a, so zeige man (vgl. Abschnitt 14.3)
(5) P0w2 (P I U) < P0wl (P Ia) für alle p > pO .
Hinweis: Vergiß die expliziten Schärfe-Darstellungen in Kapitel 14 und wende das
Neyman-Pearson Lemma (incl. Zusatz) auf H': p = p und H;: p = p mit pl > p 0 0 1 0
an.
Aufgabe 9.1: Exponential-Verteilung m i t Shif t
Wir betrachten eine Zufallsvariable X mit geschifteter Exponentialverteilung
-W? = 7 + E x P o ( ~ ) , d.h. .d(X - y) = Expo (a) , wobei a > 0 und ~ E I R (vgl. auch Exkurs G 5.-6.). Die Verteilung .d(X) hat den von y abhängigen Träger ( y , ~ ) , und die Dichte ist gegeben durch:
für X E IR,
wobei IA die Indikatorfunktion der Menge A ist.
Für eine Stichprobe XI, ..., Xn von unabhängigen Wiederholungen von X bestimme man die Maximum-Likelihood-Schätzung (falls sie existiert) für a bzw. y für den Fall, daß der jeweils andere Parameter bekannt ist.
Aufgabe 9.2: Weibull-Verteilung
Die Weibull-Verteilung W(a, y ) mit Parametern a, y > 0 ist definiert als
(1) W(a, y ) : = U . Expo(9 'IY = Expo(ß) 'IY mit ß = a Y ,
d.h. eine Zufallsvariable X hat genau dann eine Weibullverteilung W(a, y), wenn die transformierte Zufallsvariable Y = ( ~ / a ) ? eine Exponential-Verteilung Expo(l) mit Erwartungswert 1 besitzt bzw. wenn .d(xY) = Expo(ß) gilt.
(a) Untersuche, ob die Weibull-Verteilung W(a, y ) eine zweiparametrige Exponen-
tialfamilie bzgl. 8 = (a, y ) bzw. eine einparametrige bzgl. I9 = a oder I9 = y ist,
wenn der jeweils andere Parameter als bekannt vorausgesetzt wird.
(b) Für eine Stichprobe X = (x~ , . X ) mit unabhängigen W(a, y)-verteilten
Komponenten X . stelle man die Likelihood-Gleichung D log L (4) = 0 für den 2
Parameter 4 = (&,Y) auf. Läßt sich der ML-Schätzer & bzw. angeben, wenn
der jeweils andere Parameter y bzw. a als bekannt vorausgesetzt wird?
Hinweis: Man kann statt mit a auch mit dem Parameter ß arbeiten.
Aufgabe 9.3: Die nichtzentrale Chiquadrat-Vertei lung
Zur Definition der nichtzentralen Chiquadrat-Verteilung (vgl. Exkurs V1) zeige man zuerst:
(a) Zu jedem n-dimensionalen Zufallsvektor U = (U1, ..., U,) mit unabhängigen, normalverteilten Komponenten
(2 1 J(ui) = N b , 2 1) für alle i = I, ..., n
gibt es einen n-dimensionalen Zufallsvektor V = (V1, ..., V,) mit unabhängi- gen, normalverteilten Komponenten
(ii ) qv1) = N ( l l ~ l l J) und
(iii) J ( V . ) = N(0, l ) für alle i = 2, ..., n 2
so daß gilt
(2. 1 411~11~) = 411~11~) .
Hinweis: Betrachte eine lineare Transformation C U von U mit einer geeigneten or- T thonorrnalen nxn-Matrix C, d.h. mit C = C-l.
Nach (ii-iv) hängt die Verteilung J(ll~11~) nur noch über 6 = 11,u112 vom Erwar- tungsvektor ,u ab und wird daher als X;(6)-~erteilung bezeichnet. Aus (iv) ergibt sich folgende Standard-Darstellung (vgl. Exkurs V1 (12))
x;(6) = q 1 1 V 1 1 2 ) = q V; + V; + ..... + V;)
bei der die Nichtzentralität 6 nur noch in der Verteilung des ersten Summanden V; auftritt. Nach diesen Vorbereitungen zeige man weiter:
(b) Für die Verteilungsfunktion @ bzw. @ von X; (6) bzw. N(0,l) gilt 1,s GI, 6(x) = @(J. - Js) - @(- J. - Js) für alle X E IR.
(d) Für n + co konvergiert die standardisierte Verteilung von xn(6) gegen die Standard-Normalverteilung:
(xn(6) - ( n + 6 ) ) / J- N ( o , ~ ) .
(e) Für die Verteilungsfunktion @ von X2 (6) gilt: n, 6 n
@ (X) ist streng wachsend in X 2 0 und streng fallend in 6 2 0. n, 6
Aufgabe 10.1: Astrologische Prognosen
Ein Astrologe behauptet, aus „astrologischen Daten" einer Person auf Charakter-Ei-
genschaften der Person schließen zu können. In der Fernsehreihe „Der Sternhim-
mel" (im August 1986) wurde von den folgenden beiden Experimenten berichtet, die
die Treffsicherheit solcher Prognosen untersucht haben.
Experiment 1: Ein Astrologe erhält von einer ihm unbekannten Person jeweils drei
Charakterbeschreibungen zur Auswahl - von denen nur eine richtig ist - und soll
auf der Basis astrologischer Daten die passende Beschreibung auswählen. Bei ins-
gesamt n = 116 Personen hat er in 40 Fällen die richtige Beschreibung ausgewählt.
Experiment 2: Ein Astrologe erstellt für eine Person eine astrologisch korrekte und
zwei weitere astrologisch inkorrekte Charakterbeschreibungen. Die Person wählt aus
den drei Beschreibungen die für sie zutreffendste aus (ohne vorher zu wissen, wel-
ches die astrologisch korrekte ist). Von insgesamt n = 83 Personen haben 28 die astro- logisch korrekte Beschreibung gewählt.
(a) Man überprüfe für jedes der beiden Experimente, ob die Treffer-wahrschein- lichkeit p für die jeweils richtige Bechreibung größer ist als bei einer zufälligen Aus- wahl, d.h. man teste die Hypothesen
Für welche Hypothese entscheidet sich der asymptotische Test zum Niveau a = 5 %? Welche Fehlentscheidung ist beim vorliegenden Testergebnis möglich?
(b) Bestimme für beide Experimente das Fehlerrisiko 2.Art ß des asymptotischen Tests jeweils für den Fall, daß die Treffer-Wahrscheinlichkeit p =+ ist und somit deutlich über der „Zufallsquote" von 4 liegt. Kommentiere das Testergebnis aus (a) jetzt erneut.
(C) Versuchsplanung: Wie groß muß der Stichprobenumfang n für jedes Experi- mente mindestens gewählt werden, damit beim Niveau a = 5% und einer Treffer- Wahrscheinlichkeit von p =+ das Fehlerrisiko AI-t (beim asymptotischen Test) auch höchstens ß = 5 % ist?
Aufgabe 10.2: Testen des Erwartungswertes einer Poisson-Verteilung
Für eine Pois(,~~)-verteilte Zufallsvariable X betrachten wir das einseitige Testpro- blem mit den Hypothesen Ho: ,LL < p0 und Hl: ,LL > pO, wobei wir X als eine Stichprobe vom Umfang n = 1 mit Realisierung X auffassen.
(a) Zeige, daß für festes nominelles Niveau 0 < ao < 1 der Test d mit
d(x)= 1 U Ppo{ X 2 X ) < uo
ein UMP-Test ist mit Niveau u < uo.
Hinweis: Gehe analog zum Binomialmodell vor und beachte, daß
G(x I ,L) := P { X 2 X ) nach 5.2 wachsend in ,LL ist (vgl. auch den Hinweis zu P
Aufgabe 3.1).
(b) Zeige, daß der Test d die Nullhypothese genau dann ablehnt, wenn p0 die
exakte untere Konfidenzgrenze fiu(x) = fiu(x I uo) zur Sicherheit 1- uo aus 5.2
(vgl. auch Aufgabe 3.1) nicht übersteigt, d.h. es gilt
Aufgabe 10.3: Leukämiefälle im Umkreis des KKW Krümmel
Der Kinderarzt M. Demuth berichtet (Preprint, Kassel 1991) von X = 5 Leukämie-Erkrankungsfällen unter allen Kindern (bis 14 Jahre) im 5-km Umkreis der Kerkraftwerks Krümmel im Zeitraum 1990/91 (vgl. auch Aufgabe 2.4). Er ver- gleicht dies mit der nach dem Bundesdurchschnitt zu erwartenden Anzahl (Erwar- tungswert) von nur p0 = 0.44 Fällen. Da die Anzahl X der Leukämieerkrankungen in guter Näherung als Poisson-verteilt angesehen werden kann, führe man den Test aus Aufgabe 9.2 zum nominellen Niveau uo = 1% durch.
Für welche Hypothese entscheidet sich der Test und welche Fehlentscheidung kann hierbei vorliegen. Um wieviel geringer ist hier das tatsächliche Niveau u des Tests gegenüber dem nominellen Niveau ao?
StatLab-Daten 4.4.2003 SL- 1
Die Daten wurden im Rahmen einer medizinischen Studie von Neugeborenen ("Kaiser Foundation Health Plan') in Oakland (Kalifornien) unter Leitung von J. Yerushalmy in den Jahren 1961-1972 erhoben. Für jedes Kind wurden zahlreiche Daten zu zwei Zeitpunkten registriert, bei der Geburt (1961-63) und 10 Jahre später (Kontrolle). Folgende ausgewählte Daten sind hier aufgeführt.
Kind (Zeitpunkt: Geburt)
B : Blutgruppe im ABO-Sytem, Rh : Rhesus-Faktor, Grö : Grösse (in Zoll), Gw : Gewicht (in Pounds), M : Monat der Geburt (l=Jan .,..., 12=Dez.), W : Wochentag der Geburt (l=Sonntag, ..., 7=Samstag), H : Uhrzeit der Geburt (in Stunden).
Kind (Zeitpunkt: Kontrolle)
Grö : Grösse (in Zoll), Gw : Gewicht (in Pounds).
Mutter (Zeitpunkt: Geburt)
B : Blutgruppe im ABO-Sytem, Rh : Rhesus-Faktor, Al : Alter (in vollendeten Lebensjahren), Gw : Gewicht (in Pounds), R a : Rauchen (in Zigaretten/Tag, A=aufgehört, N=nie geraucht).
Mutter (Zeitpunkt: Kontrolle)
Grö : Grösse (in Zoll), Gw : Gewicht (in Pounds).
Vater (Zeitpunkt: Geburt)
Al : Alter (in vollendeten Lebensjahren), R a : Rauchen (in Zigaretten/Tag, A=aufgehört, N=nie geraucht).
Vater (Zeitpunkt: Kontrolle)
Grö : Grösse (in Zoll), Gw : Gewicht (in Pounds).
Für Beispiel-Analysen werden jeweils verschiedene Teil-Datensätze, bestehend aus je 50 zufällig ausgewählten Mädchen und 50 Jungen verwendet, und zwar:
im Skript (Kurs): StatLab-Auswahl1985, in den Übungen: StatLab-Auswahl Ü[~ahr ]
Umrechnung: 1 Zoll = 2,54 cm ; 1 Pound = 0,45359237 kg.
Quelle: J.L. Hodges, D. Krech, R.S. Crutchfield (1975). StatLab: an empirical intro- duction to statistics. McGraw-Hill, New York.
StatLab-Daten 4.4.2003 SL- 2
StatLab-Auswahl1985: 50 Mädchen
Nr 1 2 3 4 5 6 7 8 9
10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 Nr
Kind (weiblich) Geburt
B Rh Grö Gw M W H 0 + 19,8 6,4 7 7 5 0 - 19,5 6,3 10 3 16 B + 19,5 7,l 2 1 5 B + 20,O 7,3 10 7 5 A - 19,O 7,l 10 4 1 A + 22,O 10,6 3 2 10 0 - 21,8 7,9 9 1 2 A - 20,O 6,4 5 7 13 0 + 21,5 9,6 4 5 19 A + 20,5 7,3 8 5 3
0 + 20,5 7,3 6 3 19 A + 20,O 7,l 6 2 16 0 + 20,O 6,3 5 3 14 A - 14,8 2,3 11 1 16 A + 20,5 7,3 6 7 14 0 + 19,5 6,4 4 5 7 B + 20,5 6,6 3 7 17
AB + 20,5 6,6 6 3 19 A + 20,5 7,7 7 6 16
AB + 19,5 6,9 4 3 1 0 + 20,O 8,8 6 1 10
AB - 20,O 7,6 9 5 16 A + 20,5 7,l 10 3 10 A + 20,5 6,4 4 2 18 0 + 18,5 5,6 10 5 14 0 + 20,5 7,3 6 2 2 0 + 21,O 7,4 7 3 15 0 + 20,O 7,O 9 6 20 0 + 21,O 7,l 8 3 13 A + 21,O 9,8 10 1 20 0 + 19,5 6,5 7 6 5 A - 21,O 6,8 7 3 23 0 + 22,5 9,3 12 3 8 A + 19,5 5,8 8 2 20 0 + 20,5 7,6 2 6 2 A + 19,5 5,6 1 6 13 0 + 20,5 7,3 1 4 18 0 + 19,O 5,3 3 1 9 A + 19,5 6,9 5 6 19 A + 21,O 6,9 9 1 3
0 + 19,5 6,l 8 4 6 A + 18,O 6,8 6 1 17 0 + 20,O 7,l 10 7 2 A + 20,5 8,7 7 6 23 B + 21,5 9,l 3 4 10 0 + 19,O 5,9 11 4 8 0 - 20,O 7,l 4 4 9 A + 21,O 8,2 8 2 8 0 - 20,O 7,4 3 6 3 A + 21,5 7,5 9 7 13 B Rh Grö Gw M W H
Kontrolle Grö Gw 51,6 78 56,3 68 49,8 63 54,3 68 50,4 56 56,3 77 55,8 70 48,9 59 48,7 57 54,7 80 57,O 82 51,6 66 52,4 66 50,4 54 51,l 61 51,l 59 55,3 81 53,8 74 49,l 46 51,4 60 56,2 73 52,9 75 53,9 68 52,2 84 50,3 58 55,l 73 55,3 73 57,2 92 51,l 64 52,8 64 54,2 78 57,9 114 53,4 106 55,9 77 52,6 68 51,3 61 53,3 59 51,7 56 51,7 74 53,8 60 56,4 74 54,4 72 54,l 73 47,4 62 57,5 108 51,9 72 52,4 81 51,5 68 52,9 57 60,O 100 Grö Gw
Mutter Geburt
B Rh Al Gw Ra A + 32 130 20 B + 25 98 N 0 + 32 122 20 A + 30 128 A A - 34 138 20 A + 43 132 N 0 - 19 115 A A + 17 130 20 0 + 29 128 N A + 25 145 2 A + 26 172 N A + 35 125 N A + 20 102 A A + 24 155 20 0 + 24 110 N 0 + 29 94 20 0 - 33 133 A
AB + 21 135 6 0 + 27 109 A
AB + 22 118 N A + 32 126 N B + 23 185 15 A + 19 135 N A + 18 102 4 B + 33 130 N 0 + 22 108 10 0 + 30 140 N 0 + 36 124 N B + 27 154 15 A - 22 145 N B + 40 162 N A - 27 134 20 B + 36 167 A A + 30 138 A 0 + 36 135 N B + 25 110 N 0 + 24 128 10 0 + 20 97 N A + 23 185 10 0 + 35 116 50
0 + 23 112 15 A + 39 145 20 0 + 22 155 N A + 34 144 A B + 36 119 5 0 + 24 120 20 0 - 22 160 15 0 + 25 120 10 0 + 28 202 N 0 + 28 130 1 B Rh Al Gw Ra
Kontrolle Grö Gw 61,6 153 65,6 98 60,6 163 66,6 117 66,O 175 65,6 141 63,3 150 62,8 159 63,l 148 67,O 200 68,7 159 60,5 135 64,O 120 67,9 152 58,7 112 62,8 104 66,O 145 63,5 145 60,2 120 63,l 159 66,7 126 68,6 247 65,6 151 62,3 120 63,8 141 62,l 120 63,6 164 62,3 146 66,8 181 66,O 140 63,3 160 64,6 154 67,l 215 66,7 159 64,3 144 64,4 125 67,O 122 59,6 138 65,l 184 65,8 107 64,O 119 64,7 159 64,O 168 65,O 144 62,5 146 65,2 139 65,9 174 66,5 122 67,5 175 65,5 137 Grö Gw
Geburt Al Ra 33 N 35 20 38 20 33 5 42 30 39 N 20 N 23 11 31 N 26 6 39 20 43 N 21 20 28 20 25 N 31 20 38 A 26 5 25 10 23 30 35 N 25 20 22 N 20 20 34 N 25 10 33 20 42 N 37 20 23 20 43 N 34 N 40 24 30 N 41 A 24 20 24 24 21 5 31 A 40 50 27 A 37 N 24 20 39 30 37 10 25 A 26 20 27 20 39 N 29 A Al Ra
Vater Kontrolle Grö Gw 66,O 181 70,l 166 68,O 185 73,5 208 67,8 141 72,O 185 69,O 180 65,O 130 69,O 162 69,O 175 74,O 180 62,3 109 70,5 150 71,8 176 68,O 172 72,O 195 72,O 210 70,5 177 68,O 130 68,O 185 70,O 160 68,O 161 69,O 160 72,O 150 68,O 180 71,5 177 67,O 185 65,O 150 70,O 175 68,O 170 64,O 150 71,O 189 67,O 135 65,O 170 68,5 160 72,3 147 68,l 178 64,9 169 71,O 190 70,O 170 69,O 155 71,O 160 70,O 180 68,5 185 72,O 175 74,O 175 71,O 220 70,6 202 72,O 155 72,6 193 Grö Gw
StatLab-Daten 4.4.2003 SL- 3
StatLab-Auswahl1985: 50 Jungen
Nr 1 2 3 4 5 6 7 8 9
10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 Nr
Kind (männlich) Geburt
B Rh Grö Gw M W H B + 20,O 6,5 7 1 3 A + 19,O 6,l 4 7 14 B + 19,5 6,4 6 4 3 A + 21,O 8,2 11 2 7 0 + 19,O 7,4 9 4 24 A + 19,8 6,4 12 7 1 0 - 21,O 10,3 5 6 14 0 + 21,O 7,9 7 1 18 0 + 20,8 7,4 8 5 10 0 + 21,O 8,l 9 4 11 A - 21,O 7,7 12 5 10 A + 18,O 5,6 5 2 4 A + 20,O 7,l 9 4 22 A + 22,5 8,2 9 2 18 0 + 23,O 9,9 6 2 12 0 + 20,5 7,O 10 1 20 B + 20,5 6,9 6 5 20 0 + 20,O 7,2 9 7 24 0 - 21,5 8,4 8 2 21 B + 21,O 7,2 8 7 21 A + 20,O 6,4 12 4 4 0 + 20,O 8,2 4 7 2 0 + 20,O 7,7 8 4 18 0 + 21,O 7,9 4 3 18
AB + 20,O 7,6 3 4 19 B - 20,5 7,9 9 2 8 B - 19,5 6,5 10 4 16 B + 22,O 8,8 10 2 10 0 + 21,O 9,l 11 6 19 A + 20,8 7,6 12 1 3
AB + 20,O 7,l 9 7 24 B - 21,O 8,8 10 7 13 A + 22,O 8,6 2 4 12 A + 21,O 7,6 6 4 8 B + 20,O 7,4 12 6 21 B + 21,O 7,9 12 1 13 A + 20,5 6,5 5 7 11 A + 20,5 7,8 11 4 6 0 + 19,O 5,8 8 2 3 B + 20,5 7,6 6 6 14
0 + 21,O 7,l 4 5 7 0 + 20,O 7,2 6 2 13 A + 20,5 7,9 8 3 22 A + 20,5 7,l 11 3 13 0 + 20,5 7,9 4 4 3 A + 22,O 8,7 10 3 18 A + 19,5 7,9 5 1 20 0 - 22,5 9,9 8 4 15 A + 20,5 7,9 1 6 4
AB - 20,O 7,9 9 2 5 B Rh Grö Gw M W H
Kontrolle Grö Gw 53,2 70 53,8 71 48,9 52 53,8 68 53,l 72 52,9 64 52,6 71 53,l 68 52,l 69 55,O 69 52,4 66 51,6 57 53,l 76 54,8 67 59,2 114 56,4 96 50,8 59 50,4 56 55,l 74 53,3 69 55,2 75 54,3 65 50,3 57 52,O 72 55,2 87 53,l 62 50,7 66 53,8 75 56,8 74 54,2 64 49,3 50 52,3 64 56,l 67 50,9 64 51,l 60 50,4 58 51,4 60 55,5 66 50,2 58 51,2 54 53,3 61 50,6 60 52,2 64 53,l 66 52,9 60 60,O 116 54,4 81 54,O 72 54,3 77 51,6 70 Grö Gw
Mutter Geburt
B Rh Al Gw Ra B + 24 120 N B + 22 107 3 0 + 28 97 N
AB + 22 124 10 A + 25 146 N A + 31 150 15 0 - 29 145 N 0 + 25 150 N A + 26 133 N A + 30 142 1 A + 17 140 N A + 24 114 N 0 + 36 140 A 0 + 21 126 N 0 + 28 132 N A + 21 120 N
AB + 18 108 2 0 + 26 130 N 0 - 19 95 N 0 + 34 128 20 A + 25 93 7 A + 24 92 N A + 27 125 N 0 + 28 165 5 B + 34 125 N 0 + 26 155 17 B - 28 130 N 0 + 28 210 N 0 - 24 125 A 0 - 22 133 N
AB + 29 113 N 0 - 26 127 N A + 20 120 N A + 21 134 N B + 25 112 A B + 39 134 N A + 26 115 N A + 19 135 A A - 25 108 20 B - 28 124 A
0 + 25 140 20 0 + 25 155 20 A + 23 120 N A + 29 122 20 0 + 22 165 20 0 + 30 162 N 0 + 31 127 N A - 30 140 N A - 25 144 N
AB + 32 128 N B Rh Al Gw Ra
Kontrolle Grö Gw 61,l 108 61,8 103 58,8 101 65,3 136 61,7 170 64,4 178 66,5 170 62,8 188 66,6 172 66,9 141 64,O 212 66,O 129 59,4 135 66,4 132 64,8 158 62,O 125 61,9 119 62,3 153 60,3 109 65,8 144 60,6 104 62,l 110 63,9 135 63,O 180 61,3 144 67,6 178 63,6 139 65,O 195 67,3 121 66,O 130 64,8 113 62,O 150 63,l 134 64,l 149 64,O 125 61,5 127 62,6 107 67,l 143 60,7 136 64,5 191 65,5 137 61,9 166 63,3 139 61,7 161 68,O 204 69,6 167 63,6 140 67,O 154 69,l 174 65,9 138 Grö Gw
Geburt Al Ra 30 30 23 20 30 N 22 N 32 6 38 20 29 N 26 12 26 10 34 1 21 A 25 N 34 20 24 20 34 10 29 N 19 A 30 10 24 20 38 A 32 3 28 30 34 N 38 N 38 20 32 N 29 N 39 20 26 20 28 35 36 A 27 20 24 10 25 4 28 10 49 N 28 A 23 N 28 20 30 25 27 N 33 15 26 N 30 20 25 15 31 N 33 20 30 N 25 15 60 N Al Ra
Vater Kontrolle Grö Gw 66,5 170 75,O 215 66,O 135 71,8 170 68,7 168 67,5 190 68,O 129 70,5 198 73,O 170 71,O 165 65,5 151 65,9 145 67,O 145 72,O 160 72,O 182 69,9 151 68,O 155 62,5 145 74,O 170 71,O 175 75,O 190 73,O 183 72,O 200 65,O 175 67,O 175 71,O 140 72,O 200 75,O 195 73,5 175 70,l 162 69,O 160 71,6 205 76,O 188 66,O 145 70,O 165 68,O 189 69,5 180 71,O 165 68,O 190 64,O 120 72,O 185 69,O 160 69,O 170 71,6 164 68,O 160 74,6 231 68,O 170 67,O 160 72,O 200 60,8 160 Grö Gw
G. Osius: Statistische Tabellen T - 1
Verteilungsfunktion @(X) der Normalverteilung - N(0,l) in Prozent für negative Argumente X < 0
Ablese-Beispiele: @(-I ,00) = 15,87% ,
G. Osius: Statistische Tabellen T - 2
Verteilungsfunktion @(X) der Normalverteilung - N(0,l) in Prozent für positive Argumente X > 0
Ablese-Beispiele: @(+1,00) = 84,13% ,
G. Osius: Statistische Tabellen T - 3
Quantile z der N(0 ,I)-Verteilung für a = 0,1% ,...., 10%. a
Beispiel: Für a = 5% ist z = 1,645 . 5% AL 0 2,
Quantile tFGa der t-Verteilung tFG für a = 0,1% ,..., 10%
Beispiel: Für FG = 10, a = 5% ist t„; = 1,812 . AL o ~ F G ,
G. Osius: Statistische Tabellen T - 4
Quantile tFGa der t-Verteilung tFG für a = 15% ,...., 45%
Beispiel: Für FG = 10, a = 25% ist t„; „% = 0,700 .
G. Osius: Statistische Tabellen T - 5
2 Quantile X&+ der Chiquadrat-Verteilung xFG für
FG = 1 ,..., 50 (Zeilen) und a = 0,1% ,..., 10% (Spalten)
2 Beispiel: Für FG = 10, a = 5% ist X„; ,% = 18,307 . o AL x ~ ~ , a 2
G. Osius: Statistische Tabellen T - 6
2 Quantile X&+ der Chiquadrat-Verteilung xFG für
FG = 1 ,..., 50 (Zeilen) und a = 20% ,..., 80% (Spalten) 2 Beispiel: Für FG = 10, a = 50% ist xl0; so% = 9,342 .
G. Osius: Statistische Tabellen
2 Quantile X&+ der Chiquadrat-Verteilung xFG für
FG = 1 ,..., 50 (Zeilen) und a = 90% ,..., 99,9% (Spalten)
2 Beispiel: Für FG = 10, a = 95% ist X„; „% = 3,940 .
G. O
sius
: Sta
tistis
che
Tabe
llen
T - 8
α-Q
uant
il FQ
(m,n
;α) d
er F
-Ver
teilu
ng m
it de
n Fr
eihe
itsgr
aden
m (Z
ähle
r), n
(Nen
ner)
F-V
erte
ilung
α =
10%
Beisp
iele
:FQ
(m=5
, n=1
4; α
=10%
) =
2,30
7 FQ
(m=1
4, n
=5; α
=10%
) =
3,24
7 1-α
n 1
2 3
4 5
6 7
8 9
10
11
12
13
14
15
30
60
120
240
1 39
,86
49,5
0 53
,59
55,8
3 57
,24
58,2
0 58
,91
59,4
4 59
,86
60,1
9 60
,47
60,7
1 60
,90
61,0
7 61
,22
62,2
6 62
,79
63,0
6 63
,19
2 8,
526
9,00
0 9,
162
9,24
3 9,
293
9,32
6 9,
349
9,36
7 9,
381
9,39
2 9,
401
9,40
8 9,
415
9,42
0 9,
425
9,45
8 9,
475
9,48
3 9,
487
3 5,
538
5,46
2 5,
391
5,34
3 5,
309
5,28
5 5,
266
5,25
2 5,
240
5,23
0 5,
222
5,21
6 5,
210
5,20
5 5,
200
5,16
8 5,
151
5,14
3 5,
138
4 4,
545
4,32
5 4,
191
4,10
7 4,
051
4,01
0 3,
979
3,95
5 3,
936
3,92
0 3,
907
3,89
6 3,
886
3,87
8 3,
870
3,81
7 3,
790
3,77
5 3,
768
5 4,
060
3,78
0 3,
619
3,52
0 3,
453
3,40
5 3,
368
3,33
9 3,
316
3,29
7 3,
282
3,26
8 3,
257
3,24
7 3,
238
3,17
4 3,
140
3,12
3 3,
114
6 3,
776
3,46
3 3,
289
3,18
1 3,
108
3,05
5 3,
014
2,98
3 2,
958
2,93
7 2,
920
2,90
5 2,
892
2,88
1 2,
871
2,80
0 2,
762
2,74
2 2,
732
7 3,
589
3,25
7 3,
074
2,96
1 2,
883
2,82
7 2,
785
2,75
2 2,
725
2,70
3 2,
684
2,66
8 2,
654
2,64
3 2,
632
2,55
5 2,
514
2,49
3 2,
482
8 3,
458
3,11
3 2,
924
2,80
6 2,
726
2,66
8 2,
624
2,58
9 2,
561
2,53
8 2,
519
2,50
2 2,
488
2,47
5 2,
464
2,38
3 2,
339
2,31
6 2,
304
9 3,
360
3,00
6 2,
813
2,69
3 2,
611
2,55
1 2,
505
2,46
9 2,
440
2,41
6 2,
396
2,37
9 2,
364
2,35
1 2,
340
2,25
5 2,
208
2,18
4 2,
172
10
3,28
5 2,
924
2,72
8 2,
605
2,52
2 2,
461
2,41
4 2,
377
2,34
7 2,
323
2,30
2 2,
284
2,26
9 2,
255
2,24
4 2,
155
2,10
7 2,
082
2,06
9 11
3,
225
2,86
0 2,
660
2,53
6 2,
451
2,38
9 2,
342
2,30
4 2,
274
2,24
8 2,
227
2,20
9 2,
193
2,17
9 2,
167
2,07
6 2,
026
2,00
0 1,
986
12
3,17
7 2,
807
2,60
6 2,
480
2,39
4 2,
331
2,28
3 2,
245
2,21
4 2,
188
2,16
6 2,
147
2,13
1 2,
117
2,10
5 2,
011
1,96
0 1,
932
1,91
8 13
3,
136
2,76
3 2,
560
2,43
4 2,
347
2,28
3 2,
234
2,19
5 2,
164
2,13
8 2,
116
2,09
7 2,
080
2,06
6 2,
053
1,95
8 1,
904
1,87
6 1,
861
14
3,10
2 2,
726
2,52
2 2,
395
2,30
7 2,
243
2,19
3 2,
154
2,12
2 2,
095
2,07
3 2,
054
2,03
7 2,
022
2,01
0 1,
912
1,85
7 1,
828
1,81
3 15
3,
073
2,69
5 2,
490
2,36
1 2,
273
2,20
8 2,
158
2,11
9 2,
086
2,05
9 2,
037
2,01
7 2,
000
1,98
5 1,
972
1,87
3 1,
817
1,78
7 1,
771
16
3,04
8 2,
668
2,46
2 2,
333
2,24
4 2,
178
2,12
8 2,
088
2,05
5 2,
028
2,00
5 1,
985
1,96
8 1,
953
1,94
0 1,
839
1,78
2 1,
751
1,73
5 17
3,
026
2,64
5 2,
437
2,30
8 2,
218
2,15
2 2,
102
2,06
1 2,
028
2,00
1 1,
978
1,95
8 1,
940
1,92
5 1,
912
1,80
9 1,
751
1,71
9 1,
703
18
3,00
7 2,
624
2,41
6 2,
286
2,19
6 2,
130
2,07
9 2,
038
2,00
5 1,
977
1,95
4 1,
933
1,91
6 1,
900
1,88
7 1,
783
1,72
3 1,
691
1,67
4 19
2,
990
2,60
6 2,
397
2,26
6 2,
176
2,10
9 2,
058
2,01
7 1,
984
1,95
6 1,
932
1,91
2 1,
894
1,87
8 1,
865
1,75
9 1,
699
1,66
6 1,
649
20
2,97
5 2,
589
2,38
0 2,
249
2,15
8 2,
091
2,04
0 1,
999
1,96
5 1,
937
1,91
3 1,
892
1,87
5 1,
859
1,84
5 1,
738
1,67
7 1,
643
1,62
6 21
2,
961
2,57
5 2,
365
2,23
3 2,
142
2,07
5 2,
023
1,98
2 1,
948
1,92
0 1,
896
1,87
5 1,
857
1,84
1 1,
827
1,71
9 1,
657
1,62
3 1,
605
22
2,94
9 2,
561
2,35
1 2,
219
2,12
8 2,
060
2,00
8 1,
967
1,93
3 1,
904
1,88
0 1,
859
1,84
1 1,
825
1,81
1 1,
702
1,63
9 1,
604
1,58
6 23
2,
937
2,54
9 2,
339
2,20
7 2,
115
2,04
7 1,
995
1,95
3 1,
919
1,89
0 1,
866
1,84
5 1,
827
1,81
1 1,
796
1,68
6 1,
622
1,58
7 1,
568
24
2,92
7 2,
538
2,32
7 2,
195
2,10
3 2,
035
1,98
3 1,
941
1,90
6 1,
877
1,85
3 1,
832
1,81
4 1,
797
1,78
3 1,
672
1,60
7 1,
571
1,55
2 25
2,
918
2,52
8 2,
317
2,18
4 2,
092
2,02
4 1,
971
1,92
9 1,
895
1,86
6 1,
841
1,82
0 1,
802
1,78
5 1,
771
1,65
9 1,
593
1,55
7 1,
538
26
2,90
9 2,
519
2,30
7 2,
174
2,08
2 2,
014
1,96
1 1,
919
1,88
4 1,
855
1,83
0 1,
809
1,79
0 1,
774
1,76
0 1,
647
1,58
1 1,
544
1,52
4 27
2,
901
2,51
1 2,
299
2,16
5 2,
073
2,00
5 1,
952
1,90
9 1,
874
1,84
5 1,
820
1,79
9 1,
780
1,76
4 1,
749
1,63
6 1,
569
1,53
1 1,
511
28
2,89
4 2,
503
2,29
1 2,
157
2,06
4 1,
996
1,94
3 1,
900
1,86
5 1,
836
1,81
1 1,
790
1,77
1 1,
754
1,74
0 1,
625
1,55
8 1,
520
1,50
0 29
2,
887
2,49
5 2,
283
2,14
9 2,
057
1,98
8 1,
935
1,89
2 1,
857
1,82
7 1,
802
1,78
1 1,
762
1,74
5 1,
731
1,61
6 1,
547
1,50
9 1,
489
30
2,88
1 2,
489
2,27
6 2,
142
2,04
9 1,
980
1,92
7 1,
884
1,84
9 1,
819
1,79
4 1,
773
1,75
4 1,
737
1,72
2 1,
606
1,53
8 1,
499
1,47
8 60
2,
791
2,39
3 2,
177
2,04
1 1,
946
1,87
5 1,
819
1,77
5 1,
738
1,70
7 1,
680
1,65
7 1,
637
1,61
9 1,
603
1,47
6 1,
395
1,34
8 1,
321
120
2,74
8 2,
347
2,13
0 1,
992
1,89
6 1,
824
1,76
7 1,
722
1,68
4 1,
652
1,62
5 1,
601
1,58
0 1,
562
1,54
5 1,
409
1,32
0 1,
265
1,23
2 24
0 2,
727
2,32
5 2,
107
1,96
8 1,
871
1,79
9 1,
742
1,69
6 1,
658
1,62
5 1,
598
1,57
3 1,
552
1,53
3 1,
516
1,37
6 1,
281
1,21
9 1,
180
m
05.0
4.03
G. O
sius
: Sta
tistis
che
Tabe
llen
T - 9
α-Q
uant
il FQ
(m,n
;α) d
er F
-Ver
teilu
ng m
it de
n Fr
eihe
itsgr
aden
m (Z
ähle
r), n
(Nen
ner)
F-V
erte
ilung
α =
5%
Beisp
iele
:FQ
(m=5
, n=1
4; α
=10%
) =
2,95
8 FQ
(m=1
4, n
=5; α
=10%
) =
4,63
6 1-α
n 1
2 3
4 5
6 7
8 9
10
11
12
13
14
15
30
60
120
240
1 16
1,4
199,
5 21
5,7
224,
6 23
0,2
234,
0 23
6,8
238,
9 24
0,5
241,
9 24
3,0
243,
9 24
4,7
245,
4 24
5,9
250,
1 25
2,2
253,
3 25
3,8
2 18
,51
19,0
0 19
,16
19,2
5 19
,30
19,3
3 19
,35
19,3
7 19
,38
19,4
0 19
,40
19,4
1 19
,42
19,4
2 19
,43
19,4
6 19
,48
19,4
9 19
,49
3 10
,13
9,55
2 9,
277
9,11
7 9,
013
8,94
1 8,
887
8,84
5 8,
812
8,78
5 8,
763
8,74
5 8,
729
8,71
5 8,
703
8,61
7 8,
572
8,54
9 8,
538
4 7,
709
6,94
4 6,
591
6,38
8 6,
256
6,16
3 6,
094
6,04
1 5,
999
5,96
4 5,
936
5,91
2 5,
891
5,87
3 5,
858
5,74
6 5,
688
5,65
8 5,
643
5 6,
608
5,78
6 5,
409
5,19
2 5,
050
4,95
0 4,
876
4,81
8 4,
772
4,73
5 4,
704
4,67
8 4,
655
4,63
6 4,
619
4,49
6 4,
431
4,39
8 4,
382
6 5,
987
5,14
3 4,
757
4,53
4 4,
387
4,28
4 4,
207
4,14
7 4,
099
4,06
0 4,
027
4,00
0 3,
976
3,95
6 3,
938
3,80
8 3,
740
3,70
5 3,
687
7 5,
591
4,73
7 4,
347
4,12
0 3,
972
3,86
6 3,
787
3,72
6 3,
677
3,63
7 3,
603
3,57
5 3,
550
3,52
9 3,
511
3,37
6 3,
304
3,26
7 3,
249
8 5,
318
4,45
9 4,
066
3,83
8 3,
688
3,58
1 3,
500
3,43
8 3,
388
3,34
7 3,
313
3,28
4 3,
259
3,23
7 3,
218
3,07
9 3,
005
2,96
7 2,
947
9 5,
117
4,25
6 3,
863
3,63
3 3,
482
3,37
4 3,
293
3,23
0 3,
179
3,13
7 3,
102
3,07
3 3,
048
3,02
5 3,
006
2,86
4 2,
787
2,74
8 2,
727
10
4,96
5 4,
103
3,70
8 3,
478
3,32
6 3,
217
3,13
5 3,
072
3,02
0 2,
978
2,94
3 2,
913
2,88
7 2,
865
2,84
5 2,
700
2,62
1 2,
580
2,55
9 11
4,
844
3,98
2 3,
587
3,35
7 3,
204
3,09
5 3,
012
2,94
8 2,
896
2,85
4 2,
818
2,78
8 2,
761
2,73
9 2,
719
2,57
0 2,
490
2,44
8 2,
426
12
4,74
7 3,
885
3,49
0 3,
259
3,10
6 2,
996
2,91
3 2,
849
2,79
6 2,
753
2,71
7 2,
687
2,66
0 2,
637
2,61
7 2,
466
2,38
4 2,
341
2,31
9 13
4,
667
3,80
6 3,
411
3,17
9 3,
025
2,91
5 2,
832
2,76
7 2,
714
2,67
1 2,
635
2,60
4 2,
577
2,55
4 2,
533
2,38
0 2,
297
2,25
2 2,
230
14
4,60
0 3,
739
3,34
4 3,
112
2,95
8 2,
848
2,76
4 2,
699
2,64
6 2,
602
2,56
5 2,
534
2,50
7 2,
484
2,46
3 2,
308
2,22
3 2,
178
2,15
5 15
4,
543
3,68
2 3,
287
3,05
6 2,
901
2,79
0 2,
707
2,64
1 2,
588
2,54
4 2,
507
2,47
5 2,
448
2,42
4 2,
403
2,24
7 2,
160
2,11
4 2,
090
16
4,49
4 3,
634
3,23
9 3,
007
2,85
2 2,
741
2,65
7 2,
591
2,53
8 2,
494
2,45
6 2,
425
2,39
7 2,
373
2,35
2 2,
194
2,10
6 2,
059
2,03
5 17
4,
451
3,59
2 3,
197
2,96
5 2,
810
2,69
9 2,
614
2,54
8 2,
494
2,45
0 2,
413
2,38
1 2,
353
2,32
9 2,
308
2,14
8 2,
058
2,01
1 1,
986
18
4,41
4 3,
555
3,16
0 2,
928
2,77
3 2,
661
2,57
7 2,
510
2,45
6 2,
412
2,37
4 2,
342
2,31
4 2,
290
2,26
9 2,
107
2,01
7 1,
968
1,94
3 19
4,
381
3,52
2 3,
127
2,89
5 2,
740
2,62
8 2,
544
2,47
7 2,
423
2,37
8 2,
340
2,30
8 2,
280
2,25
6 2,
234
2,07
1 1,
980
1,93
0 1,
905
20
4,35
1 3,
493
3,09
8 2,
866
2,71
1 2,
599
2,51
4 2,
447
2,39
3 2,
348
2,31
0 2,
278
2,25
0 2,
225
2,20
3 2,
039
1,94
6 1,
896
1,87
0 21
4,
325
3,46
7 3,
072
2,84
0 2,
685
2,57
3 2,
488
2,42
0 2,
366
2,32
1 2,
283
2,25
0 2,
222
2,19
7 2,
176
2,01
0 1,
916
1,86
6 1,
839
22
4,30
1 3,
443
3,04
9 2,
817
2,66
1 2,
549
2,46
4 2,
397
2,34
2 2,
297
2,25
9 2,
226
2,19
8 2,
173
2,15
1 1,
984
1,88
9 1,
838
1,81
1 23
4,
279
3,42
2 3,
028
2,79
6 2,
640
2,52
8 2,
442
2,37
5 2,
320
2,27
5 2,
236
2,20
4 2,
175
2,15
0 2,
128
1,96
1 1,
865
1,81
3 1,
785
24
4,26
0 3,
403
3,00
9 2,
776
2,62
1 2,
508
2,42
3 2,
355
2,30
0 2,
255
2,21
6 2,
183
2,15
5 2,
130
2,10
8 1,
939
1,84
2 1,
790
1,76
2 25
4,
242
3,38
5 2,
991
2,75
9 2,
603
2,49
0 2,
405
2,33
7 2,
282
2,23
6 2,
198
2,16
5 2,
136
2,11
1 2,
089
1,91
9 1,
822
1,76
8 1,
740
26
4,22
5 3,
369
2,97
5 2,
743
2,58
7 2,
474
2,38
8 2,
321
2,26
5 2,
220
2,18
1 2,
148
2,11
9 2,
094
2,07
2 1,
901
1,80
3 1,
749
1,72
0 27
4,
210
3,35
4 2,
960
2,72
8 2,
572
2,45
9 2,
373
2,30
5 2,
250
2,20
4 2,
166
2,13
2 2,
103
2,07
8 2,
056
1,88
4 1,
785
1,73
1 1,
702
28
4,19
6 3,
340
2,94
7 2,
714
2,55
8 2,
445
2,35
9 2,
291
2,23
6 2,
190
2,15
1 2,
118
2,08
9 2,
064
2,04
1 1,
869
1,76
9 1,
714
1,68
5 29
4,
183
3,32
8 2,
934
2,70
1 2,
545
2,43
2 2,
346
2,27
8 2,
223
2,17
7 2,
138
2,10
4 2,
075
2,05
0 2,
027
1,85
4 1,
754
1,69
8 1,
669
30
4,17
1 3,
316
2,92
2 2,
690
2,53
4 2,
421
2,33
4 2,
266
2,21
1 2,
165
2,12
6 2,
092
2,06
3 2,
037
2,01
5 1,
841
1,74
0 1,
683
1,65
4 60
4,
001
3,15
0 2,
758
2,52
5 2,
368
2,25
4 2,
167
2,09
7 2,
040
1,99
3 1,
952
1,91
7 1,
887
1,86
0 1,
836
1,64
9 1,
534
1,46
7 1,
430
120
3,92
0 3,
072
2,68
0 2,
447
2,29
0 2,
175
2,08
7 2,
016
1,95
9 1,
910
1,86
9 1,
834
1,80
3 1,
775
1,75
0 1,
554
1,42
9 1,
352
1,30
7 24
0 3,
881
3,03
3 2,
642
2,40
9 2,
252
2,13
6 2,
048
1,97
7 1,
919
1,87
0 1,
829
1,79
3 1,
761
1,73
3 1,
708
1,50
7 1,
375
1,29
0 1,
237
m
05.0
4.03
G. O
sius
: Sta
tistis
che
Tabe
llen
T - 1
0
α-Q
uant
il FQ
(m,n
;α) d
er F
-Ver
teilu
ng m
it de
n Fr
eihe
itsgr
aden
m (Z
ähle
r), n
(Nen
ner)
F-V
erte
ilung
α =
2,5
%Be
ispie
le:
FQ(m
=5, n
=14;
α=1
0%) =
3,
663
FQ(m
=14,
n=5
; α=1
0%) =
6,
456
1-α
n 1
2 3
4 5
6 7
8 9
10
11
12
13
14
15
30
60
120
240
1 64
7,8
799,
5 86
4,2
899,
6 92
1,8
937,
1 94
8,2
956,
6 96
3,3
968,
6 97
3,0
976,
7 97
9,8
982,
5 98
4,9
1001
,4
1009
,8
1014
,0
1016
,1
2 38
,51
39,0
0 39
,17
39,2
5 39
,30
39,3
3 39
,36
39,3
7 39
,39
39,4
0 39
,41
39,4
1 39
,42
39,4
3 39
,43
39,4
6 39
,48
39,4
9 39
,49
3 17
,44
16,0
4 15
,44
15,1
0 14
,88
14,7
3 14
,62
14,5
4 14
,47
14,4
2 14
,37
14,3
4 14
,30
14,2
8 14
,25
14,0
8 13
,99
13,9
5 13
,92
4 12
,22
10,6
5 9,
979
9,60
4 9,
364
9,19
7 9,
074
8,98
0 8,
905
8,84
4 8,
794
8,75
1 8,
715
8,68
4 8,
657
8,46
1 8,
360
8,30
9 8,
283
5 10
,01
8,43
4 7,
764
7,38
8 7,
146
6,97
8 6,
853
6,75
7 6,
681
6,61
9 6,
568
6,52
5 6,
488
6,45
6 6,
428
6,22
7 6,
123
6,06
9 6,
042
6 8,
813
7,26
0 6,
599
6,22
7 5,
988
5,82
0 5,
695
5,60
0 5,
523
5,46
1 5,
410
5,36
6 5,
329
5,29
7 5,
269
5,06
5 4,
959
4,90
4 4,
877
7 8,
073
6,54
2 5,
890
5,52
3 5,
285
5,11
9 4,
995
4,89
9 4,
823
4,76
1 4,
709
4,66
6 4,
628
4,59
6 4,
568
4,36
2 4,
254
4,19
9 4,
171
8 7,
571
6,05
9 5,
416
5,05
3 4,
817
4,65
2 4,
529
4,43
3 4,
357
4,29
5 4,
243
4,20
0 4,
162
4,13
0 4,
101
3,89
4 3,
784
3,72
8 3,
699
9 7,
209
5,71
5 5,
078
4,71
8 4,
484
4,32
0 4,
197
4,10
2 4,
026
3,96
4 3,
912
3,86
8 3,
831
3,79
8 3,
769
3,56
0 3,
449
3,39
2 3,
363
10
6,93
7 5,
456
4,82
6 4,
468
4,23
6 4,
072
3,95
0 3,
855
3,77
9 3,
717
3,66
5 3,
621
3,58
3 3,
550
3,52
2 3,
311
3,19
8 3,
140
3,11
0 11
6,
724
5,25
6 4,
630
4,27
5 4,
044
3,88
1 3,
759
3,66
4 3,
588
3,52
6 3,
474
3,43
0 3,
392
3,35
9 3,
330
3,11
8 3,
004
2,94
4 2,
914
12
6,55
4 5,
096
4,47
4 4,
121
3,89
1 3,
728
3,60
7 3,
512
3,43
6 3,
374
3,32
1 3,
277
3,23
9 3,
206
3,17
7 2,
963
2,84
8 2,
787
2,75
6 13
6,
414
4,96
5 4,
347
3,99
6 3,
767
3,60
4 3,
483
3,38
8 3,
312
3,25
0 3,
197
3,15
3 3,
115
3,08
2 3,
053
2,83
7 2,
720
2,65
9 2,
628
14
6,29
8 4,
857
4,24
2 3,
892
3,66
3 3,
501
3,38
0 3,
285
3,20
9 3,
147
3,09
5 3,
050
3,01
2 2,
979
2,94
9 2,
732
2,61
4 2,
552
2,52
0 15
6,
200
4,76
5 4,
153
3,80
4 3,
576
3,41
5 3,
293
3,19
9 3,
123
3,06
0 3,
008
2,96
3 2,
925
2,89
1 2,
862
2,64
4 2,
524
2,46
1 2,
429
16
6,11
5 4,
687
4,07
7 3,
729
3,50
2 3,
341
3,21
9 3,
125
3,04
9 2,
986
2,93
4 2,
889
2,85
1 2,
817
2,78
8 2,
568
2,44
7 2,
383
2,35
0 17
6,
042
4,61
9 4,
011
3,66
5 3,
438
3,27
7 3,
156
3,06
1 2,
985
2,92
2 2,
870
2,82
5 2,
786
2,75
3 2,
723
2,50
2 2,
380
2,31
5 2,
282
18
5,97
8 4,
560
3,95
4 3,
608
3,38
2 3,
221
3,10
0 3,
005
2,92
9 2,
866
2,81
4 2,
769
2,73
0 2,
696
2,66
7 2,
445
2,32
1 2,
256
2,22
2 19
5,
922
4,50
8 3,
903
3,55
9 3,
333
3,17
2 3,
051
2,95
6 2,
880
2,81
7 2,
765
2,72
0 2,
681
2,64
7 2,
617
2,39
4 2,
270
2,20
3 2,
169
20
5,87
1 4,
461
3,85
9 3,
515
3,28
9 3,
128
3,00
7 2,
913
2,83
7 2,
774
2,72
1 2,
676
2,63
7 2,
603
2,57
3 2,
349
2,22
3 2,
156
2,12
1 21
5,
827
4,42
0 3,
819
3,47
5 3,
250
3,09
0 2,
969
2,87
4 2,
798
2,73
5 2,
682
2,63
7 2,
598
2,56
4 2,
534
2,30
8 2,
182
2,11
4 2,
079
22
5,78
6 4,
383
3,78
3 3,
440
3,21
5 3,
055
2,93
4 2,
839
2,76
3 2,
700
2,64
7 2,
602
2,56
3 2,
528
2,49
8 2,
272
2,14
5 2,
076
2,04
0 23
5,
750
4,34
9 3,
750
3,40
8 3,
183
3,02
3 2,
902
2,80
8 2,
731
2,66
8 2,
615
2,57
0 2,
531
2,49
7 2,
466
2,23
9 2,
111
2,04
1 2,
005
24
5,71
7 4,
319
3,72
1 3,
379
3,15
5 2,
995
2,87
4 2,
779
2,70
3 2,
640
2,58
6 2,
541
2,50
2 2,
468
2,43
7 2,
209
2,08
0 2,
010
1,97
3 25
5,
686
4,29
1 3,
694
3,35
3 3,
129
2,96
9 2,
848
2,75
3 2,
677
2,61
3 2,
560
2,51
5 2,
476
2,44
1 2,
411
2,18
2 2,
052
1,98
1 1,
944
26
5,65
9 4,
265
3,67
0 3,
329
3,10
5 2,
945
2,82
4 2,
729
2,65
3 2,
590
2,53
6 2,
491
2,45
2 2,
417
2,38
7 2,
157
2,02
6 1,
954
1,91
7 27
5,
633
4,24
2 3,
647
3,30
7 3,
083
2,92
3 2,
802
2,70
7 2,
631
2,56
8 2,
514
2,46
9 2,
429
2,39
5 2,
364
2,13
3 2,
002
1,93
0 1,
892
28
5,61
0 4,
221
3,62
6 3,
286
3,06
3 2,
903
2,78
2 2,
687
2,61
1 2,
547
2,49
4 2,
448
2,40
9 2,
374
2,34
4 2,
112
1,98
0 1,
907
1,86
9 29
5,
588
4,20
1 3,
607
3,26
7 3,
044
2,88
4 2,
763
2,66
9 2,
592
2,52
9 2,
475
2,43
0 2,
390
2,35
5 2,
325
2,09
2 1,
959
1,88
6 1,
847
30
5,56
8 4,
182
3,58
9 3,
250
3,02
6 2,
867
2,74
6 2,
651
2,57
5 2,
511
2,45
8 2,
412
2,37
2 2,
338
2,30
7 2,
074
1,94
0 1,
866
1,82
7 60
5,
286
3,92
5 3,
343
3,00
8 2,
786
2,62
7 2,
507
2,41
2 2,
334
2,27
0 2,
216
2,16
9 2,
129
2,09
3 2,
061
1,81
5 1,
667
1,58
1 1,
534
120
5,15
2 3,
805
3,22
7 2,
894
2,67
4 2,
515
2,39
5 2,
299
2,22
2 2,
157
2,10
2 2,
055
2,01
4 1,
977
1,94
5 1,
690
1,53
0 1,
433
1,37
6 24
0 5,
088
3,74
6 3,
171
2,83
9 2,
620
2,46
1 2,
341
2,24
5 2,
167
2,10
2 2,
047
1,99
9 1,
958
1,92
1 1,
888
1,62
8 1,
460
1,35
4 1,
289
m
05.0
4.03
G. O
sius
: Sta
tistis
che
Tabe
llen
T - 1
1
α-Q
uant
il FQ
(m,n
;α) d
er F
-Ver
teilu
ng m
it de
n Fr
eihe
itsgr
aden
m (Z
ähle
r), n
(Nen
ner)
F-V
erte
ilung
α =
1%
Beisp
iele
:FQ
(m=5
, n=1
4; α
=10%
) =
4,69
5 FQ
(m=1
4, n
=5; α
=10%
) =
9,77
0 1-α
n 1
2 3
4 5
6 7
8 9
10
11
12
13
14
15
30
60
120
240
1 40
52,2
49
99,3
54
03,5
56
24,3
57
64,0
58
59,0
59
28,3
59
81,0
60
22,4
60
55,9
60
83,4
61
06,7
61
25,8
61
43,0
61
57,0
62
60,4
63
13,0
63
39,5
63
52,6
2
98,5
0 99
,00
99,1
6 99
,25
99,3
0 99
,33
99,3
6 99
,38
99,3
9 99
,40
99,4
1 99
,42
99,4
2 99
,43
99,4
3 99
,47
99,4
8 99
,49
99,5
0 3
34,1
2 30
,82
29,4
6 28
,71
28,2
4 27
,91
27,6
7 27
,49
27,3
4 27
,23
27,1
3 27
,05
26,9
8 26
,92
26,8
7 26
,50
26,3
2 26
,22
26,1
7 4
21,2
0 18
,00
16,6
9 15
,98
15,5
2 15
,21
14,9
8 14
,80
14,6
6 14
,55
14,4
5 14
,37
14,3
1 14
,25
14,2
0 13
,84
13,6
5 13
,56
13,5
1 5
16,2
6 13
,27
12,0
6 11
,39
10,9
7 10
,67
10,4
6 10
,29
10,1
6 10
,05
9,96
3 9,
888
9,82
5 9,
770
9,72
2 9,
379
9,20
2 9,
112
9,06
6 6
13,7
5 10
,92
9,78
0 9,
148
8,74
6 8,
466
8,26
0 8,
102
7,97
6 7,
874
7,79
0 7,
718
7,65
7 7,
605
7,55
9 7,
229
7,05
7 6,
969
6,92
5 7
12,2
5 9,
547
8,45
1 7,
847
7,46
0 7,
191
6,99
3 6,
840
6,71
9 6,
620
6,53
8 6,
469
6,41
0 6,
359
6,31
4 5,
992
5,82
4 5,
737
5,69
4 8
11,2
6 8,
649
7,59
1 7,
006
6,63
2 6,
371
6,17
8 6,
029
5,91
1 5,
814
5,73
4 5,
667
5,60
9 5,
559
5,51
5 5,
198
5,03
2 4,
946
4,90
3 9
10,5
6 8,
022
6,99
2 6,
422
6,05
7 5,
802
5,61
3 5,
467
5,35
1 5,
257
5,17
8 5,
111
5,05
5 5,
005
4,96
2 4,
649
4,48
3 4,
398
4,35
4 10
10
,04
7,55
9 6,
552
5,99
4 5,
636
5,38
6 5,
200
5,05
7 4,
942
4,84
9 4,
772
4,70
6 4,
650
4,60
1 4,
558
4,24
7 4,
082
3,99
6 3,
953
11
9,64
6 7,
206
6,21
7 5,
668
5,31
6 5,
069
4,88
6 4,
744
4,63
2 4,
539
4,46
2 4,
397
4,34
2 4,
293
4,25
1 3,
941
3,77
6 3,
690
3,64
7 12
9,
330
6,92
7 5,
953
5,41
2 5,
064
4,82
1 4,
640
4,49
9 4,
388
4,29
6 4,
220
4,15
5 4,
100
4,05
2 4,
010
3,70
1 3,
535
3,44
9 3,
405
13
9,07
4 6,
701
5,73
9 5,
205
4,86
2 4,
620
4,44
1 4,
302
4,19
1 4,
100
4,02
5 3,
960
3,90
5 3,
857
3,81
5 3,
507
3,34
1 3,
255
3,21
0 14
8,
862
6,51
5 5,
564
5,03
5 4,
695
4,45
6 4,
278
4,14
0 4,
030
3,93
9 3,
864
3,80
0 3,
745
3,69
8 3,
656
3,34
8 3,
181
3,09
4 3,
050
15
8,68
3 6,
359
5,41
7 4,
893
4,55
6 4,
318
4,14
2 4,
004
3,89
5 3,
805
3,73
0 3,
666
3,61
2 3,
564
3,52
2 3,
214
3,04
7 2,
959
2,91
4 16
8,
531
6,22
6 5,
292
4,77
3 4,
437
4,20
2 4,
026
3,89
0 3,
780
3,69
1 3,
616
3,55
3 3,
498
3,45
1 3,
409
3,10
1 2,
933
2,84
5 2,
799
17
8,40
0 6,
112
5,18
5 4,
669
4,33
6 4,
101
3,92
7 3,
791
3,68
2 3,
593
3,51
8 3,
455
3,40
1 3,
353
3,31
2 3,
003
2,83
5 2,
746
2,70
0 18
8,
285
6,01
3 5,
092
4,57
9 4,
248
4,01
5 3,
841
3,70
5 3,
597
3,50
8 3,
434
3,37
1 3,
316
3,26
9 3,
227
2,91
9 2,
749
2,66
0 2,
613
19
8,18
5 5,
926
5,01
0 4,
500
4,17
1 3,
939
3,76
5 3,
631
3,52
3 3,
434
3,36
0 3,
297
3,24
2 3,
195
3,15
3 2,
844
2,67
4 2,
584
2,53
7 20
8,
096
5,84
9 4,
938
4,43
1 4,
103
3,87
1 3,
699
3,56
4 3,
457
3,36
8 3,
294
3,23
1 3,
177
3,13
0 3,
088
2,77
8 2,
608
2,51
7 2,
470
21
8,01
7 5,
780
4,87
4 4,
369
4,04
2 3,
812
3,64
0 3,
506
3,39
8 3,
310
3,23
6 3,
173
3,11
9 3,
072
3,03
0 2,
720
2,54
8 2,
457
2,40
9 22
7,
945
5,71
9 4,
817
4,31
3 3,
988
3,75
8 3,
587
3,45
3 3,
346
3,25
8 3,
184
3,12
1 3,
067
3,01
9 2,
978
2,66
7 2,
495
2,40
3 2,
355
23
7,88
1 5,
664
4,76
5 4,
264
3,93
9 3,
710
3,53
9 3,
406
3,29
9 3,
211
3,13
7 3,
074
3,02
0 2,
973
2,93
1 2,
620
2,44
7 2,
354
2,30
6 24
7,
823
5,61
4 4,
718
4,21
8 3,
895
3,66
7 3,
496
3,36
3 3,
256
3,16
8 3,
094
3,03
2 2,
977
2,93
0 2,
889
2,57
7 2,
403
2,31
0 2,
261
25
7,77
0 5,
568
4,67
5 4,
177
3,85
5 3,
627
3,45
7 3,
324
3,21
7 3,
129
3,05
6 2,
993
2,93
9 2,
892
2,85
0 2,
538
2,36
4 2,
270
2,22
0 26
7,
721
5,52
6 4,
637
4,14
0 3,
818
3,59
1 3,
421
3,28
8 3,
182
3,09
4 3,
021
2,95
8 2,
904
2,85
7 2,
815
2,50
3 2,
327
2,23
3 2,
183
27
7,67
7 5,
488
4,60
1 4,
106
3,78
5 3,
558
3,38
8 3,
256
3,14
9 3,
062
2,98
8 2,
926
2,87
2 2,
824
2,78
3 2,
470
2,29
4 2,
198
2,14
8 28
7,
636
5,45
3 4,
568
4,07
4 3,
754
3,52
8 3,
358
3,22
6 3,
120
3,03
2 2,
959
2,89
6 2,
842
2,79
5 2,
753
2,44
0 2,
263
2,16
7 2,
117
29
7,59
8 5,
420
4,53
8 4,
045
3,72
5 3,
499
3,33
0 3,
198
3,09
2 3,
005
2,93
1 2,
868
2,81
4 2,
767
2,72
6 2,
412
2,23
4 2,
138
2,08
7 30
7,
562
5,39
0 4,
510
4,01
8 3,
699
3,47
3 3,
305
3,17
3 3,
067
2,97
9 2,
906
2,84
3 2,
789
2,74
2 2,
700
2,38
6 2,
208
2,11
1 2,
060
60
7,07
7 4,
977
4,12
6 3,
649
3,33
9 3,
119
2,95
3 2,
823
2,71
8 2,
632
2,55
9 2,
496
2,44
2 2,
394
2,35
2 2,
028
1,83
6 1,
726
1,66
6 12
0 6,
851
4,78
7 3,
949
3,48
0 3,
174
2,95
6 2,
792
2,66
3 2,
559
2,47
2 2,
399
2,33
6 2,
282
2,23
4 2,
191
1,86
0 1,
656
1,53
3 1,
462
240
6,74
2 4,
695
3,86
4 3,
398
3,09
4 2,
878
2,71
4 2,
586
2,48
2 2,
395
2,32
2 2,
260
2,20
5 2,
157
2,11
4 1,
778
1,56
5 1,
432
1,35
1
m
05.0
4.03
G. O
sius
: Sta
tistis
che
Tabe
llen
T - 1
2
α-Q
uant
il FQ
(m,n
;α) d
er F
-Ver
teilu
ng m
it de
n Fr
eihe
itsgr
aden
m (Z
ähle
r), n
(Nen
ner)
F-V
erte
ilung
α =
0,5
%Be
ispie
le:
FQ(m
=5, n
=14;
α=1
0%) =
5,
562
FQ(m
=14,
n=5
; α=1
0%) =
13
,21
1-α
n 1
2 3
4 5
6 7
8 9
10
11
12
13
14
15
30
60
120
240
1 16
212
1999
7 21
614
2250
1 23
056
2344
0 23
715
2392
4 24
091
2422
2 24
334
2442
7 24
505
2457
2 24
632
2504
1 25
254
2535
8 25
414
2 19
8,5
199,
0 19
9,2
199,
2 19
9,3
199,
3 19
9,4
199,
4 19
9,4
199,
4 19
9,4
199,
4 19
9,4
199,
4 19
9,4
199,
5 19
9,5
199,
5 19
9,5
3 55
,55
49,8
0 47
,47
46,2
0 45
,39
44,8
4 44
,43
44,1
3 43
,88
43,6
8 43
,52
43,3
9 43
,27
43,1
7 43
,08
42,4
7 42
,15
41,9
9 41
,91
4 31
,33
26,2
8 24
,26
23,1
5 22
,46
21,9
8 21
,62
21,3
5 21
,14
20,9
7 20
,82
20,7
0 20
,60
20,5
1 20
,44
19,8
9 19
,61
19,4
7 19
,40
5 22
,78
18,3
1 16
,53
15,5
6 14
,94
14,5
1 14
,20
13,9
6 13
,77
13,6
2 13
,49
13,3
8 13
,29
13,2
1 13
,15
12,6
6 12
,40
12,2
7 12
,21
6 18
,63
14,5
4 12
,92
12,0
3 11
,46
11,0
7 10
,79
10,5
7 10
,39
10,2
5 10
,13
10,0
3 9,
950
9,87
8 9,
814
9,35
8 9,
122
9,00
1 8,
941
7 16
,24
12,4
0 10
,88
10,0
5 9,
522
9,15
5 8,
885
8,67
8 8,
514
8,38
0 8,
270
8,17
6 8,
097
8,02
8 7,
968
7,53
4 7,
309
7,19
3 7,
135
8 14
,69
11,0
4 9,
597
8,80
5 8,
302
7,95
2 7,
694
7,49
6 7,
339
7,21
1 7,
105
7,01
5 6,
938
6,87
2 6,
814
6,39
6 6,
177
6,06
5 6,
008
9 13
,61
10,1
1 8,
717
7,95
6 7,
471
7,13
4 6,
885
6,69
3 6,
541
6,41
7 6,
314
6,22
7 6,
153
6,08
9 6,
032
5,62
5 5,
410
5,30
0 5,
244
10
12,8
3 9,
427
8,08
1 7,
343
6,87
2 6,
545
6,30
3 6,
116
5,96
8 5,
847
5,74
6 5,
661
5,58
9 5,
526
5,47
1 5,
071
4,85
9 4,
750
4,69
5 11
12
,23
8,91
2 7,
600
6,88
1 6,
422
6,10
2 5,
865
5,68
2 5,
537
5,41
8 5,
320
5,23
6 5,
165
5,10
3 5,
049
4,65
4 4,
445
4,33
7 4,
281
12
11,7
5 8,
510
7,22
6 6,
521
6,07
1 5,
757
5,52
4 5,
345
5,20
2 5,
085
4,98
8 4,
906
4,83
6 4,
775
4,72
1 4,
331
4,12
3 4,
015
3,96
0 13
11
,37
8,18
6 6,
926
6,23
3 5,
791
5,48
2 5,
253
5,07
6 4,
935
4,82
0 4,
724
4,64
3 4,
573
4,51
3 4,
460
4,07
3 3,
866
3,75
8 3,
703
14
11,0
6 7,
922
6,68
0 5,
998
5,56
2 5,
257
5,03
1 4,
857
4,71
7 4,
603
4,50
8 4,
428
4,35
9 4,
299
4,24
7 3,
862
3,65
5 3,
547
3,49
2 15
10
,80
7,70
1 6,
476
5,80
3 5,
372
5,07
1 4,
847
4,67
4 4,
536
4,42
4 4,
329
4,25
0 4,
181
4,12
2 4,
070
3,68
7 3,
480
3,37
2 3,
317
16
10,5
8 7,
514
6,30
3 5,
638
5,21
2 4,
913
4,69
2 4,
521
4,38
4 4,
272
4,17
9 4,
099
4,03
1 3,
972
3,92
0 3,
539
3,33
2 3,
224
3,16
8 17
10
,38
7,35
4 6,
156
5,49
7 5,
075
4,77
9 4,
559
4,38
9 4,
254
4,14
2 4,
050
3,97
1 3,
903
3,84
4 3,
793
3,41
2 3,
206
3,09
7 3,
041
18
10,2
2 7,
215
6,02
8 5,
375
4,95
6 4,
663
4,44
5 4,
276
4,14
1 4,
030
3,93
8 3,
860
3,79
3 3,
734
3,68
3 3,
303
3,09
6 2,
987
2,93
1 19
10
,07
7,09
3 5,
916
5,26
8 4,
853
4,56
1 4,
345
4,17
7 4,
043
3,93
3 3,
841
3,76
3 3,
696
3,63
8 3,
587
3,20
8 3,
000
2,89
1 2,
834
20
9,94
4 6,
987
5,81
8 5,
174
4,76
2 4,
472
4,25
7 4,
090
3,95
6 3,
847
3,75
6 3,
678
3,61
1 3,
553
3,50
2 3,
123
2,91
6 2,
806
2,74
9 21
9,
829
6,89
1 5,
730
5,09
1 4,
681
4,39
3 4,
179
4,01
3 3,
880
3,77
1 3,
680
3,60
2 3,
536
3,47
8 3,
427
3,04
9 2,
841
2,73
0 2,
673
22
9,72
7 6,
806
5,65
2 5,
017
4,60
9 4,
322
4,10
9 3,
944
3,81
2 3,
703
3,61
2 3,
535
3,46
9 3,
411
3,36
0 2,
982
2,77
4 2,
663
2,60
5 23
9,
635
6,73
0 5,
582
4,95
0 4,
544
4,25
9 4,
047
3,88
2 3,
750
3,64
2 3,
551
3,47
4 3,
408
3,35
1 3,
300
2,92
2 2,
713
2,60
2 2,
543
24
9,55
1 6,
661
5,51
9 4,
890
4,48
6 4,
202
3,99
1 3,
826
3,69
5 3,
587
3,49
7 3,
420
3,35
4 3,
296
3,24
6 2,
868
2,65
8 2,
546
2,48
8 25
9,
475
6,59
8 5,
462
4,83
5 4,
433
4,15
0 3,
939
3,77
6 3,
645
3,53
7 3,
447
3,37
0 3,
304
3,24
7 3,
196
2,81
9 2,
609
2,49
6 2,
437
26
9,40
6 6,
541
5,40
9 4,
785
4,38
4 4,
103
3,89
3 3,
730
3,59
9 3,
492
3,40
2 3,
325
3,25
9 3,
202
3,15
1 2,
774
2,56
3 2,
450
2,39
1 27
9,
342
6,48
9 5,
361
4,74
0 4,
340
4,05
9 3,
850
3,68
7 3,
557
3,45
0 3,
360
3,28
4 3,
218
3,16
1 3,
110
2,73
3 2,
522
2,40
8 2,
348
28
9,28
4 6,
440
5,31
7 4,
698
4,30
0 4,
020
3,81
1 3,
649
3,51
9 3,
412
3,32
2 3,
246
3,18
0 3,
123
3,07
3 2,
695
2,48
3 2,
369
2,30
9 29
9,
230
6,39
6 5,
276
4,65
9 4,
262
3,98
3 3,
775
3,61
3 3,
483
3,37
6 3,
287
3,21
1 3,
145
3,08
8 3,
038
2,66
0 2,
448
2,33
3 2,
273
30
9,18
0 6,
355
5,23
9 4,
623
4,22
8 3,
949
3,74
2 3,
580
3,45
1 3,
344
3,25
5 3,
179
3,11
3 3,
056
3,00
6 2,
628
2,41
5 2,
300
2,23
9 60
8,
495
5,79
5 4,
729
4,14
0 3,
760
3,49
2 3,
291
3,13
4 3,
008
2,90
4 2,
817
2,74
2 2,
677
2,62
0 2,
570
2,18
7 1,
962
1,83
4 1,
764
120
8,17
9 5,
539
4,49
7 3,
921
3,54
8 3,
285
3,08
7 2,
933
2,80
8 2,
705
2,61
8 2,
544
2,47
9 2,
423
2,37
3 1,
984
1,74
7 1,
606
1,52
4 24
0 8,
027
5,41
7 4,
387
3,81
6 3,
447
3,18
7 2,
991
2,83
7 2,
713
2,61
0 2,
524
2,45
0 2,
385
2,32
9 2,
278
1,88
6 1,
640
1,48
8 1,
396
m
05.0
4.03
Einführung in die Statistik 4.4.03 Index - 1
Index
Der Index enthält Begriffe aus dem methodischen Textteil (also nicht aus allen Beispielen und Anwendungen) und aus dem Anhang, aber nicht aus den Exkursen. Für jedes Stichwort sind nur die wichtigsten (nicht alle) Textstellen aufgeführt, an denen es erwähnt wird.
Ablehnungs-Bereich 14-2 - ML-Schätzung Äquivalenz, asymptotische 22-12 Borel-Menge Alternative 14-1 alternative Hypothese 14-1 Cauchy-Verteilung 1-2 9-12 Ü-9
Alternative- Cauchy-Verteilungsmodell Ü-8
- benachbart 22-5 Chebychev-Intervall 3-9
- lokale 22-5 Chebychev-Konfidenzintervall 3-9
Anpassungstest 22-1 23-1 Chiquadrat-Anpassungstest
asymptotisch effizient 12-7 22-4 22-15 23-1 23-3
asymptotische Chiquadrat-Verteilung 5-5 Ü-2 T-5
- Äquivalenz 22-12 - nichtzentrale Ü-14
- Existenz 11-3 Cochran 's Regel 22-13
- Irrtumswahrscheinlichkeit 3-8 Cramkr-Rao-Schranke 12-3
- Konfidenzgrenze 3-7 4-7 6-5 11-8 Cramkr-Rao-Ungleichung 12-3
- grob 4-11 - Poisson 5-6
- Normalverteilung 11-4 - obere Grenze
- Binomial 4-9 - Poisson 5-7 Ü-4
- Schärfe 16-9 - Sicherheit 3-8 - untere Grenze
- Binomial 4-18 - Poisson 5-29 Ü-4
asymptotischer - Gauß-Test 17-6 - Likelihood-Quotienten Test 18-4 - Test einer Wahrscheinlichkeit 17-14 asymptotisches Fehlerrisiko 16-9 asymtotische Existenz 10-10
balancierte Umfänge 20-3 balancierter Fall 21-8 balanciertes Design 20-8 benachbarte Alternativen 22-5 Bernoulli-Verteilung 4-1 Bias 12-2 Bildmaß 1-1 Binomial-Grenzwertsatz 4-7 Binomial-Verteilung 4-1 9-6 Ü-1 - zentrales Moment Ü-7 Binomial-Verteilungsmodell
1-2 1-8 9-3 15-6 21-1 22-8
Dichte 8-5 Dichte-Modell 14-1 Dichte-Quotient 15-2 Differenz von Erwartungswerten 19-8 diskret (verteilt) 1-1 diskrete Verteilung 8-4
E(-) Erwartungswert 1-1 effektives Testniveau 17-2 effizienter Schätzer 12-6 Effizienz 12-6 Ein-Stichproben-Modell 19-2 einfache Hypothese 14-1 empirische Verteilung 7-1 7-2 empirische Verteilungsfunktion 7-1 empirisches Moment 8-6 empirisches zentrales Moment 8-6 Entscheidungsfunktion 14-2 Ereignisse 1-1 Ergebnisraum 1-1 erwartungstreu 1-4 2-1 2-2 10-9 Erwartungswert 1-1 - Konfidednzgrenze 3-1 - Poisson-Verteilung Ü-16 - quadratische Form 2-3 - Test 16-1 - Schätzung 1-1 - Vergleich 19-1 20-1
Einführung in die Statistik 4.4.03 Index - 2
exakte obere Konfidenzgrenze - Binomial 4-1 - Poisson 5-1 exakte untere Konfidenzgrenze - Binomial 4-3 - Poisson 5-3 exakter Test - einseitig 17-3 17-8 - einer Wahrscheinlichkeit 17-3 17-10 exakter zweiseitiger Test 17-9 exaktes Konfidenzintervall- - Binomial 4-4 - Poisson 5-4 Existenz, asymptotische 11-2 11-3 Exponential-Familie
9-3 9-4 10-7 10-12 12-7 15-5 Ü-10 - ML-Schätzung 10-3 10-7 Exponential-Verteilung Ü-13 - mit Shift Ü-13
F-Verteilung 4-6 T-8 falsch-negativ 14-2 falsch-positiv 14-2 Fehlentscheidung 14-2 Fehler 1. Art 14-2 Fehler 2. Art 14-2 Fehlerrisiko 1. Art 14-3 Fehlerrisiko 2. Art 14-3 Fehlerrisiko - asymptotisches 16-9 - maximales 14-3 Fisher-Information 10-11 11-5 11-7 12-2 12-5
Gamma-Verteilung 9-11 10-11 13-2 Ü-2 Ü-8 Gamma-Verteilungsmodell 1-3 1-9 9-3 Gauß-Test Ü-12 - asymptotischer 17-6 - einseitig
- asymptotisch 20-5 21-6 - oberer 14-5 14-6 - unterer 14-8 - Wahrscheinlichkeit 17-7 17-8 17-9
- zweiseitig 14-9 - zweiseitig asymptotisch 20-5 21-6 geordnete Stichprobe 7-2 gleichmäßig schärfster Test 15-1 Gleichverteilung: diskrete 23-7 Glivenko-Cantelli, Theorem 7-3
Hypothese 14-1
iid 1-3 integrierbar 1-1 Intervall-Schätzer 3-1 Invarianz der ML-Schätzung 10-3 Inverse einer Verteilungsfunktion Ü-7 Irrtumswahrscheinlichkeit 3-1 - asymptotische 3-8
kanonischer Parameter 9-5 Konfidenzgrenze 11-9 - asymptotische 4-7 6-5 11-8 - Erwartungswert 3-1 3-7 - Erwartungswert-Differenz 19-8 20-10 - Normalverteilung 6-1 6-2 - Poisson-Modell Ü-4 - Poisson-Verteilung 5-1 5-11 Ü-4 - untere 16-4 - Varianz 6-6 - Wahrscheinlichkeits-Differenz. 21-10 - Wahrscheinlichkeit 4-1 17-4 17-7 Konfidenzintervall 3-1 3-9 6-6 11-8 11-9 - Normalverteilung 3-5 - zweiseitig 16-8 konservativ 4-3 5-2 konservativer Test 17-2 17-3 konservatives Konfidenzintervall 3-9 Konsistenz 11-2 11-6 - ML-Schätzer 11-4 - schwache 1-5 - starke 1-5 2-1 2-3 10-10 Konsumententest Ü-11 Konvergenz nach Wahrscheinlichkeit Ü-2 konvex 9-1 kritischer Bereich 14-2 Kumulante Ü-10 Kumulanten-Funktion 9-5
Likelihood 10-1 Likelihood-Funktion 10-1 Likelihood-Gleichung 10-3 Likelihood-Quotient 15-2 18-1 18-2 18-3 - asymptotische Verteilung 18-4 - monotoner 15-3
Hardy-Weinberg Gleichgewicht 22-16 homogene Varianzen 19-3
Einführung in die Statistik 4.4.03 Index - 3
Likelihood-Quotienten - Abstand 22-9 - Anpassungstest 22-10 22-15 23-3 - asymptotisch 18-4 - Statistik 22-9 22-14 - Test 15-3 18-1 18-2 19-4 - Transformierte 15-3 Likelihood-Variable 10-2 lineare Hypothese 18-4 Logit-Skala 9-7 Logit-Transformation 9-6 lokale Alternative 22-5 LQ = Likelihood-Quotient 18-1
maximales Fehlerrisiko 14-3 Maximum-Likelihood - Schätzer 11-1 - Schätzung 10-1 10-3 22-2 Mean Square Error 12-2 Median 8-1 - Schätzung 8-1 Mindestumfang 17-13 20-7 21-8 22-8 - t-Test 16-12 Mittelwert, standadisierter 1-7 Mittelwert, Verteilung 1-6 mittlerer quadratischer Fehler 12-2 ML = Maximum-Likelihood 10-1 - Schätzer 10-2 10-9 - Schätzfolge 11-4 - Schätzfunktion 10-2 - Schätzung 10-1 10-8
- Normalverteilung Ü-10 Moment 8-6 13-1 - Schätzung - zentrales Momenten-Schätzer 13-1 monotoner Likelihood-Quotient 15-3 MP Test 15-1 Multinomial-Verteilung 22-1 23-1 Multinomial-Verteilungsmodell 22-1
natürliches Niveau 17-2 Neyman-Pearson Lemma 15-2 Neyman-Pearson Test 15-2 18-3 nichtzentrale Chiquadrat-Verteilung Ü-14 Nichtzentralität 14-6 16-2 19-6 Niveau 14-3 - natürliches 17-2 - nominelles 17-2 17-3 nominelles Niveau 17-2 17-3
Normalverteilung 9-9 13-3 23-6 Ü-10 T-1 T-3
- Konfidenzgrenzen 3-3 Normal-Verteilungsmodell
1-2 1-9 6-1 9-2 15-6 19-3 Normalengleichung 10-8 Nullhypothese 14-1
obere Konfidenzgrenze - Erwartungswert 3-7 - Normalverteilung 3-5 6-3 Order-Statistik 7-2 orthonormale Transformation 6-2
P- Wert 17-3 Parameterraum 9-1 parametrisches (Vertei1ungs)Modell 9-1 Pearson-Abstand 22-3 Pearson-Statistik 22-3 22-14 Poisson-Grenzwertsatz 5-6 Poisson-Verteilung 5-1 9-8 Ü-8 Ü-16 - exakte Konfidenzgrenze Ü-4 - Konfidentintervall Ü-4 Poisson-Verteilungsmodell 1-2 1-8 9-3 15-6 - ML-Schätzung 10-6 Power 14-2 Power-Divergenz-Statistik 22-16 Produzententest Ü-11 Punkt-Schätzer 3-1
quadratische Form 2-3 Quantil - Binomialverteilung 17-3 - Chiquadrat-Verteilung 5-5 T-5 - F-Verteilung 4-6 T-8 - Normalverteilung T-3 - Schätzung 8-1 8-3 - Standard-Normalverteilung 3-4 - t-Verteilung 6-3 6-5 T-3 Quasi-Inverse, Verteilungsfunktion Ü-7
randomisierter Test 17-2 17-4 Realisierung 1-3 Regularitätsbedingung 11-1 1-4 12-1 relative Häufigkeit 1-8
Schärfe - asymptotische - einseitige - Gauß-Test - zweiseitige
Einführung in die Statistik 4.4.03 Index - 4
Schärfefunktion 14-2 schärfster Test 15-1 Schätzen 2-1 Schätzer 1-4 12-1 - effiezinter 12-6 Schätzgröße 1-4 Schiefe Ü-1 - Schätzung Ü-1 Score-Statistik 11-5 12-1 Score-Variable 11-4 12-4 Scores, asymptotische Normalität 11-6 Sicherheit 3-1 - asymptotische 3-8 Signifikanzniveau 17-3 statistischer Test 14-1 14-2 StatLab-Auswahl 20-12 20-13 SL-2 SL-3 StatLab-Daten SL-1 stetig (verteilt) 1-2 stetige Verteilung 8-5 Stichproben-Anteile 20-3 20-8 21-3 21-4 Stichproben-Median 8-2 Stichproben-Modell 1-3 Stirlingsche Formel Ü-6 Student's Test, einseitig 16-3 Symmetrie Ü-1 symmetrische Verteilung Ü-1
t-Test - asymptotische Eigenschaften 16-8 - einseitig 19-7
- oberer 16-2 16-3 16-6 - Schärfe-Approximation 16-10 - Versuchsplanung 16-11 - zweiseitig 16-7 19-4 19-6 t-Verteilung 6-3 Ü-6 T-3 Test 14-1 14-2 16-1 - exakter 17-3 - konservativ 17-2 - randomisiert 17-2 17-4
untere Konfidenzgrenze - Erwartungswert 3-7 - Normalverteilung 3-5 6-3 unverfälscht 1-4
Varianz 1-2 - quadratische Form 2-3 - Schätzung 2-1
- Normalverteilung 6-1 Varianzfunktion 21-1 Verfälschung 12-2 Versuchsplanung 17-11 17-13 22-8 Ü-12 - t-Test 16-11 - einseitiger Test 20-7 21-8 - zweiseitiger Test 20-9 21-9 Versuchsplanungs-Box 17-15 Verteilung 1-1 - empirische 7-2 - von Quadraten Ü-2 Verteilungsfunktion 7-1 8-4 8-5 - empirische 7-1 - Normalverteilung T-1 - Schätzung 7-1 Vertrauensgrenze 3-1 Verzerrung 12-2
Wahrscheinlichkeit - asymptotischer Test 17-14 - einseitig, Gauß-Test 17-7 17-8 - exakter Test 17-3 17-8 17-10 - Gauß-Test 17-7 17-8 17-9 - Testen 17-1 - Vergleich 21-1 - zweiseitig, Gauß-Test 17-9 - zweiseitiger Test 17-9 Wahrscheinlichkeitsmaß 1-1 Wahrscheinlichkeitsvektor 22-1 22-13 Weibull-Verteilung Ü-13 Wiederholungen 1-3 9-2 10-7
Test-Box 1 17-10 17-14 zentrales Moment 8-6 13-1 Ü-1 Ü-10 Testfunktion 14-4 - Binomialverteilung Ü-7 Testniveau, effektives 17-2 Zufallsvariable 1-1 Testproblem 14-1 Zufallszahl 17-5 Testschärfe, Approximation 17-11 zusammengesetzte Hypothese 14-1 Teststatistik 14-4 Zwei-Stichproben-Modell 19-2 Testwert 14-4 - Binomial 21-1 Träger 9-3 10-2
UMP Test 15-1 Umparametrisierung 9-4 10-3 18-3