Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... ·...

278
Material zur Veranstaltung Einführung in die Statistik von Gerhard Osius April 2003 (incl. Korrekturen vom August 2006) Institut für Statistik Fachbereich MathematikIInformatik Universität Bremen

Transcript of Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... ·...

Page 1: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

Material zur Veranstaltung

Einführung in die Statistik von

Gerhard Osius

April 2003 (incl. Korrekturen vom August 2006)

Institut für Statistik Fachbereich MathematikIInformatik

Universität Bremen

Page 2: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

Einführung in die Statistik 2.8.06 Vorwort - 1

Vorwort

Dieses Manuskript ist aus Materialien zu gleichnamigen Lehrveranstaltungen für Studierende der Mathematik im Laufe der letzten Jahre entstanden und liegt nun in einer relativ vollständigen Form vor. Lediglich die Beweise der nicht unmittelbar nachvollziehbaren Behauptungen sind hier bewußt fortgelassen (sie sollen demnächst in einem separaten Teil zusammengestellt werden) um die Darstellung der Metho- den nicht zu unterbrechen. Obwohl dieses Material primär als Ergänzung und spä- tere Referenz für die an der Vorlesung Teilnehmenden gedacht ist, eignet es sich auch bedingt zum Selbststudium, wofür es allerdings - unter anderem wegen der noch fehlenden Beweise - nicht primär konzipiert ist.

Die Veranstaltung sollte (aufbauend auf einem Kurs zur MaP- und Wahrscheinlich- keitstheorie) in die beiden Grundkonzepte der Statistik, das Schätzen und das Testen einführen, wobei für die Darstellung ein Mittelweg zwischen einer rein theoreti- sch orientierten und einer angewandten Statistik gewählt wurde. Das Ziel bestand darin, einige grundlegende statistische Methoden relativ ausführlich zu diskutieren und (im wesentlichen vollständig) mathematisch zu behandeln sowie auf einfache konkrete Situationen anzuwenden. Die hierfür noch erforderlichen Ergänzungen aus der Wahrscheinlichkeitstheorie (insbesondere einige wichtige Verteilungsklass- sen) sind im Anhang zusammengestellt und wurden nur teilweise im Kurs bewie- sen.

Im ersten Teil des Kurses werden zunächst Punkt- und Intervall-Schätzungen für den Erwartungswert und die Varianz von Verteilungen behandelt. Die Verteilung der Schätzer wird für einige wichtige Verteilungsklassen (Normal-, Binomial-, Pois- son- und Gamma-Verteilung) exakt bestimmt und zusätzlich wird die asymptotische Verteilung der Schätzer (für beliebige Verteilungen) angegeben. Dann werden Schät- zungen für die Verteilungsfunktion und Quantile (insbesondere den Median) vorge- stellt. Danach wird der Maximum-Likelihood Schätzer eingeführt und seine Konsi- stenz und asymptotische Normalität werden exemplarisch für einen eindimensio- nalen Parameter bei unabhängigen Wiederholungen zunächst in Exponential-Fa- milien und danach in allgemeinen Dichtefamilien nachgewiesen. Zum Vergleich verschiedener Schätzmethoden wird dann die Ungleichung von Cramer-Rao herge- leitet, und abschließend wird die Schätzung nach der Momenten-Methode kurz er- läutert.

Der zweite Teil beschäftigt sich mit der klassischen Testtheorie. Ausgehend vom Neyman-Pearson-Lemma werden (exakte) Tests von Hypothesen über den Erwar- tungswert zunächst für spezielle Verteilungsklassen (Normal-, Binomial-, Poisson- Verteilung) hergeleitet und dann zu asymptotischen Tests für beliebige Verteilun- gen ausgeweitet. Anschließend wird die allgemeine Klasse der Likelihood-Quotien- ten Tests eingeführt. Danach werden (asymptotische) Tests zum Vergleich zweier Erwartungswerte (für zwei Stichproben), und speziell von zwei Wahrscheinlichkei- ten, behandelt. Bei diesen Tests wird die ( g f . asymptotische) Verteilung der Test- statistik nicht nur unter der Nullhypothese sondern auch unter (ggf. benachbarten) Alternativen bestimmt, die Test-Schärfe (zumindest approximativ) angegeben und

Page 3: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

Einführung in die Statistik 2.8.06 Vorwort - 2

eine Bestimmung von Mindest-Stichprobenumfängen für eine Versuchsplanung durchgeführt. Zum Abschluß werden Anpassungstests für parametrische Modelle bei Multinomialverteilungen und (daraus abgeleitet) für beliebige Verteilungen vor- gestellt, wobei die entscheidenden asymptotischen Verteilungsaussagen nicht mehr bewiesen wurden.

Die Veranstaltung umfaßt vier Wochenstunden Vorlesung und zwei Wochenstun- den Übungen. Da sich der Stoffumfang ständig erweitert hat, wurden in den letzten Jahren nicht mehr alle Kapitel (vollständig) behandelt.

Mein besonderer Dank gilt Frau Heidi Eckl-Reichelt für das Schreiben der Rohfas- sung dieses Textes.

Die vorliegende Fassung ist eine redaktionell überarbeitete und geringfügig erwei- terte Fassung der Auflage zum Sommersemester 2002 (in dem ich die Veranstaltung zuletzt gehalten habe). Neu hinzugekommen ist ein Abschnitt (17.1.2) über rando- misierte Tests und zur besseren Übersicht sind wichtige Passagen jetzt mit einer Box eingerahmt. Außerdem wurde (zur Harmonisierung mit dem Stochastik-Skript) bei den Darstellungen der Konfidenzgrenzen in den Kapiteln 3 - 6 jeweils das Infi- mum bzw. Supremum durch das entsprechende Minimum bzw. Maximum ersetzt, und das Literaturverzeichnis wurde aktualisiert. - Gegenüber der letzten Fassung vom April 2003 sind lediglich die Formeln 10.2 (I), 16.4 (10) und 19.3 (1) verändert bzw. korrigiert und auf Seite 20-2 ist ein Druckfehler beseitigt.

Bremen, im August 2006 Gerhard Osius

PS Die aktuelle Fassung des Skriptes (und der Übungsaufgaben) findet man unter: http://www.math.uni-bremen.de/"osius/download/lehre/Statistik/.

Die Zugangsdaten und das Kennwort für das Skript können per e-Mai1 (s.u.) er- fragt werden. Für Hinweise auf Druckfehler oder andere Kommentare bin ich dankbar, am besten per e-mail: [email protected].

Page 4: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

Einführung in die Statistik 2.8.06 Inhalt - 1

Inhalt (Seiten pro Kapitel)

I. Schätzungen

0. Anwendungsbeispiele 0.1 Leukämiefälle im Umkreis des Kernkraftwerks Krümme1 0.2 Asbestmessungen in Schulgebäuden 0.3 Wahlumfragen 0.4 Rauchen in der Schwangerschaft 0.5 Broccoli als Krebsvorsorge?

1 Schätzen des Erwartungswertes

1.1 Eigenschaften des Schätzers 1.2 Spezielle Verteilungsmodelle

1.2.1 Das Binomial-Verteilungsmodell 1.2.2 Das Poisson-Verteilungsmodell 1.2.3 Das Normal-Verteilungsmodell 1.2.4 Das Gamma-Verteilungsmodell

2. Schätzen der Varianz 2.1 Schätzung der Varianz bei bekanntem Erwartungswert 2.2 Schätzung der Varianz bei unbekanntem Erwartungswert

3. Konfidenzgrenzen für den Erwartungswert 3.1 Exakte Konfidenzgrenzen für den Erwartungswert einer

Normal-Verteilung mit bekannter Varianz 3.2 Asymptotische Konfidenzgrenzen für den Erwartungswert einer

beliebigen Verteilung 3.3 Chebychev-Konfidenzintervalle für den Erwartungswert einer

beliebigen Verteilung mit bekannter Varianz

4 Konfidenzgrenzen für eine Wahrscheinlichkeit 4.1 Konstruktion der exakten oberen Konfidenzgrenze 4.2 Konstruktion der exakten unteren Konfidenzgrenze 4.3 Konstruktion des exakten zweiseitigen Konfidenzintervalls 4.4 Berechnung der exakten Grenzen 4.5 Asymptotische (approximative) Konfidenzgrenzen 4.6 Grobe asymptotische (approximative) Konfidenzgrenzen

5 Konfidenzgrenzen für den Erwartungswert einer Poisson-Verteilung 5.1 Konstruktion der exakten oberen Konfidenzgrenze 5.2 Konstruktion der exakten unteren Konfidenzgrenze 5.3 Konstruktion des exakten zweiseitigen Konfidenzintervalls 5.4 Berechnung der exakten Grenzen 5.5 Asymptotische (approximative) Konfidenzgrenzen 5.6 Anwendung: Asbestmessungen in Schulgebäuden 5.7 Konfidenzgrenzen bei unabhängigen Wiederholungen

Page 5: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

Einführung in die Statistik 2.8.06 Inhalt - 2

6. Konfidenzgrenzen im Normal-Verteilungsmodell 6.1 Verteilung der Varianzschätzung

(7) 6 - 1

6.2 Konfidenzgrenzen für den Erwartungswert bei geschätzter Varianz im Normalverteilungsmodell 6 - 2

6.3 Asymptotische Konfidenzgrenzen für den Erwartungswert bei

geschätzter Varianz in beliebigen Verteilungsmodellen 6 - 5 6.4 Konfidenzgrenzen für die Varianz 6 - 6

7. Schätzen einer Verteilungsfunktion 7.1 Die empirische Verteilung der Stichprobe 7.2 Eigenschaften der empirischen Verteilung 7.3 Anwendung: Verteilung des Lebensalters

8. Schätzen von Quantilen und Momenten 8.1 Schätzen des Medians 8.2 Schätzen eines Quantils 8.3 Schätzen von Momenten

9. Parametrische Modelle und Exponential-Familien 9.1 Parametrische Verteilungsmodelle 9.2 Parametrische Exponential-Familien 9.3 Binomial-Verteilung 9.4 Poisson-Verteilung 9.5 Normal-Verteilung 9.6 Gamma-Verteilung 9.7 Cauchy-Verteilung

10. Maximum-Likelihood Schätzung von Parametern (I2) 10.1 Likelihood und Schätzung 10 - 1 10.2 Maximum-Likelihood Schätzung in Exponential-Familien 10 - 3 10.3 Schätzung im Binomial-Verteilungsmodell 10 - 5 10.4 Schätzung im Poisson-Verteilungsmodell 10 - 6 10.5 Schätzung in einparametrigen Exponential-Familien bei unabhängigen

Wiederholungen 10 - 7

11. Asymptotische Eigenschaften des ML-Schätzers * (9> 11.1 Asymptotische Existenz und Konsistenz 2 11.2 Asymptotische Normalverteilung 4 11.3 Asymptotische Konfidenzgrenzen 8

12. Die Ungleichung von Cramer-Rao und effiziente Schätzer * (7> 12.1 Die Ungleichung von Cramer-Rao 2

12.1.1 Spezialfall: Identische Wiederholungen 4 12.2 Effiziente Schätzer 6

13 Momente-Schätzung * (3>

* Diese Kapitel werden irn Teil I1 nicht vorausgesetzt

Page 6: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

Einführung in die Statistik 2.8.06 Inhalt - 3

11. Tests

14. Testen von Hypothesen 14.1 Einseitiger (oberer) Gauß-Test

(12) 5

14.2 Einseitiger (unterer) Gauß-Test mit dualen Hypothesen 8 14.3 Zweiseitiger Gauß-Test 9 14.4 Anwendung 10

15. Likelihood-Quotienten-Tests 15.1 Schärfste Tests und Neymann-Pearson Lemma

(6) 1

15.2 Monotone Likelihood-Quotienten 3 15.3 Einparametrige Exponential-Familie 5

16. Testen eines Erwartungswertes (I2) 16.1 Einseitiger (oberer) t-Test von Student im Normal-Verteilungsmodell 2 16.2 Dualer einseitiger (unterer) t-Test von Student

im Normal-Verteilungsmodell 6 16.3 Zweiseitiger t-Test von Student im Normal-Verteilungsmodell 7 16.4 Asymptotische Eigenschaften des t-Tests

(bei beliebiger Verteilung) 8 16.5 Schärfe-Approximation des t-Tests bei beliebiger Verteilung 10 16.6 Versuchsplanung beim t-Tests 11

17. Testen einer Wahrscheinlichkeit 17.1 Einseitiger oberer Test einer Wahrscheinlichkeit

(20) 17 - 2

17.1.1 Exakter Test zum nominellen Niveau 17 - 3 17.1.2 Randomisierter Test 17 - 4 17.1.3 Asymptotischer Gauß-Test 17 - 6

17.2 Einseitiger unterer Test einer Wahrscheinlichkeit 17 - 8 17.3 Zweiseitiger Test einer Wahrscheinlichkeit 17 - 9 17.4 Approximation der Testschärfe und Versuchsplanung für den

asymptotischen Test 17 - 11 17.5 Anwendungen 17 - 16

17.5.1 Vererbung eines Merkmals 17 - 16 17.5.2 Wahlprognose 17 - 20

18. Likelihood-Quotienten Tests 18.1 Allgemeiner Likelihood-Quotienten Test

(4) 18 - 1

18.2 Invarianz des Likelihood-Quotienten bei Umparametrisierung 18 - 3 18.3 Asymptotische Verteilung des Likelihood-Quotienten 18 - 4

19. Vergleich von zwei Erwartungswerten bei Normalverteilungen mit gleichen Varianzen [SI 19.0 Testproblem und Stichproben-Modelle 19 - 1 19.1 Das Normal-Verteilungsmodell mit gleichen Varianzen 19 - 3 19.2 Der zweiseitige t-Test als Likelihood-Quotienten-Test 19 - 4 19.3 Der einseitige t-Test 19 - 7 19.4 Konfidenzgrenzen für die Differenz der Erwartungswerte 19 - 8

Page 7: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

Einführung in die Statistik 2.8.06 Inhalt - 4

20. Vergleich von zwei Erwartungswerten bei beliebigen Verteilungen 20.1 Herleitung einer Teststatistik 20.2 Asymptotische Verteilung der Teststatistik 20.3 Asymptotische Tests 20.4 Schärfe-Approximation für den einseitigen Tests 20.5 Versuchsplanung für den einseitigen Test

20.5.1 Das Normal-Verteilsmodell mit gleichen Varianzen 20.6 Zweiseitiger Test: Schärfe und Versuchsplanung 20.7 Konfidenzgrenzen für die Differenz der Erwartungswerte 20.8 Anwendungen

20.8.1 Vergleich von zwei Meßverfahren 20.8.2 Geburtsgewicht und Geschlecht (StatLab-Auswahl 1985) 20.8.3 Geburtsgröße und Geschlecht (StatLab-Auswahl 1985)

21 Vergleich von zwei Wahrscheinlichkeiten 21.1 Zwei-Stichproben-Binomial-Verteilungsmodell 21.2 Herleitung einer Teststatistik 21.3 Asymptotische Verteilung der Teststatistik 21.4 Asymptotische Tests 21.5 Schärfe-Approximation für den einseitigen Tests 21.6 Versuchsplanung für den einseitigen Test 21.7 Zweiseitiger Tests: Schärfe und Versuchplanung 21.8 Konfidenzgrenzen für die Differenz der Wahrscheinlichkeiten 21.9 Anwendungen

21.9.1 Rauchen in der Schwangerschaft 21.9.2 Vergleich von zwei Therapien 21.9.3 Säuglingssterblichkeit nach Geschlecht 21.9.4 Gefährdung von Schwangerschaften nach Tschernobyl 21.9.5 Broccoli als Krebsvorsorge?

22. Anpassungstests bei Multinomialverteilungen

22.1 Multinomial-Verteilungsmodell 22.2 Testen einer einfachen Nullhypothese 22.3 Der Chiquadrat-Anpassungstest von Pearson 22.4 Die Schärfe des Chiquadrat-Anpassungstests

22.4.1 Benachbarte Alternativen 22.4.2 Versuchsplanung 22.4.3 Spezialfall: Binomial-Verteilungsmodell

22.5 Der Likelihood-Quotienten-Anpassungstest 22.6 Die Schärfe des Likelihood-Quotienten-Anpassungstests 22.7 Allgemeines zum Pearson- und LQ-Test 22.8 Testen eines parametrischen Modells 22.9 Anwendungen

22.9.1 Kreuzung von Monohybriden 22.9.2 Hardy-Weinberg Gleichgewicht

Page 8: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

Einführung in die Statistik 2.8.06 Inhalt - 5

23. Chiquadrat-Anpassungstests für Verteilungen 23.1 Reduktion auf eine Multinomial-Verteilung 23.2 Testen der einfachen Nullhypothese 23.3 Testen des parametrischen Modells 23.4 Wahl der Zerlegungs-Klassen 23.5 Stetige Verteilungen 23.6 Diskrete Verteilungen mit endlichem Träger 23.7 Diskrete Verteilungen mit unendlichem Träger

Anhang

Literatur

Übungsaufgaben (2002)

StatLab-Daten

Statistische Tabellen Verteilungsfunktion der Normalverteilung N(0,l) Quantile der N(0, l ) und t-Verteilung Quantile der Chiquadrat-Verteilung Quantile der F-Verteilung

Index

Exkurse Aus dem separat erhältlichen Skript Exkurse wurden die folgenden Kapitel hier verwendet.

Spezielle Verteilungen

V Die zentralen und nichtzentralen Chiquadrat-, t- und F-Verteilungen G Die Gammaverteilung W Die Weibull-Verteilung M Die Multinomialverteilung

Ergänzungen zur Majl- und Wahrscheinlichkeitstheorie

PI Stetigkeit und Differenzierbarkeit von Parameter-Integralen Q Quantile von Verteilungen CF Charakteristische, Momente- und Kumulanten-erzeugende Funktionen KV Konvergenz nach Verteilung in euklidischen Räumen ZGS Der zentrale Grenzwertsatz für reelle Zufallsvariablen

Page 9: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

Anwendungsbeispiele 27.7.02 0 - 1

0. Anwendungsbeispiele

Zu Beginn wollen wir einige typische und relevante Anwendungssituationen für

statistische Analysen kennenlernen, die einerseits als Motivation der teilweise sehr

abstrakten Methoden dienen sollen andererseits später als Anwendungsbeispiele

wieder aufgegriffen werden.

0.1 Leukämiefälle im Umkreis des Kernkraftwerks Krümmel

Der Kinderarzt M. Demuth berichtet in dem Preprint Leukämiemorbidität bei Kin-

dern in der direkten Umgebung des Kernkraftwerks Krümel (Kassel 1991, Tabelle 1)

von Leukämie-Erkrankungsfällen bei Kindern von 0 bis 14 Jahren in der Umgebung

des Kerkraftwerks Krümmel und vergleicht die beobachteten Leukämiefälle mit den

(unter Berücksichtigung der Bevölkerungsdichte) nach bundesdeutschem Durschnitt

zu erwartenden Fällen:

Tabelle 1: Leukämieerkrankungsfälle bei Kindern von 0-14 Jahren in der Umgebung des Kernkraftwerks Krümel (nach Demuth 199q.

Region

Samtgemeinde Elbmarsch

5-km-Radius um das Kerkraftwerk Krümmel

Die statistische Analyse dieser Daten soll klären, ob die Abweichungen der be-

obachteten Leukämiefälle von den erwarteten Fällen noch durch den Zufall zu er-

klären sind, oder ob bereits eine statistisch signifikante Erhöhung der Leukämie-Inzi-

denz vorliegt (Die Frage nach einem möglichen kausalen Zusammenhang zum

Zeitraum

1990 1 9 9 0 - 1991 1980 - 1990 1980 - 1991

1990 1 9 9 0 - 1991 1980 - 1990 1980 - 1991

Kernkraftwerk kann Statistik nicht beantworten!). Hierbei geht man davon aus, daß

die beobachtete Anzahl von Fällen ( innerhalb einer Region und eines Zeitraums)

eine Zufallsvariable X mit Poisson-Verteilung ist (vgl. Abb. I), und vergleicht ihren

Erwartungswert ,LL = E(X) mit der nach Bundesdurchchschnitt erwarteten Fallzahl

po. Ein solcher Vergleich kann durch eine statistischen Test erfolgen, bei dem man

Leukämiefälle beobachtet erwartet

3 0.06 4 0.1 3 4 0.68 5 0.75

3 0.2 1 5 0.44 4 2.30 6 2.53

Page 10: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

Anwendungsbeispiele 27.7.02 0 - 2

sich aufgrund der beobachteten Realisierung X von X zwischen den folgenden bei-

den Hypothesen entscheidet

Nullhypothese: ,LL 5 po (keine Erhöhung gegenüber Bundesdurchschnitt),

Alternative: ,LL > po (Erhöhung gegenüber Bundesdurchschnitt).

Eine andere (äquivalente) Möglichkeit des Vergleich besteht darin, daß man aus der

Beobachtung X eine untere Konfidenzgrenze fiu(x) für den Erwartungswert ,LL be-

stimmt und sich im Fall fiu(x) 5 ,uo für keine Erhöhung (Nullhypothese) entscheidet.

0 2 4 6 8 1 0 Anzahl

-

-

-

-

-

-

Poisson-Verteilung p=2,53

Poisson-Verteilung p=0,44

I ' I ' I ' I ' I ' I '

0 2 4 6 8 1 0 Anzahl

Abb.. 1: Histogramme der Poisson-Verteilung für zwei Erwartungswerte aus Tabelle 1

Das Testproblem wird erst gegen Ende des Kurses (in allgemeiner Form) behandelt

und die Konfidenzgrenzen werden im Kapitel 2 erläutert.

Schließlich kann man auch direkt überprüfen, wie wahrscheinlich (bzw. unwahr-

scheinlich) die beobachtete oder eine noch höhere Anzahl ist, wenn man den den

Bundesdurchschnitt zugrunde legt. Hierzu berechnet man für die Beobachtung X die

Poisson-Wahrscheinlichkeit P{X 2 X) unter der Annahme ,LL = ,LL und wenn diese 0'

Wahrscheinlichkeit zu gering ist glaubt man nicht mehr an einen Zufall.

Page 11: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

Anwendungsbeispiele 27.7.02 0 - 3

0.2 Asbestmessungen in Schulgebäuden

Bei einer Asbestmessung soll festgestellt werden, wie hoch die Asbestfaserkonzen- 3 tration X [in Fasern pro m ] in dem untersuchten Innenraum ist, und ob der zuläs-

sige Grenzwert X. eingehalten wird oder nicht. Hierzu wird die Raumluft von ei-

nem Kompressor durch einen Filter angesaugt, in dem die Asbestfasern hängen

bleiben. Ein Teil des Filters wird dann mikroskopisch ausgewertet, um die Asbest-

fasern dort zu zählen. Die Anzahl X der Asbestfasern in dem zugehörigen (ausge-

werteten) Volumenanteil V [in m3] ist dann eine Zufallsvariable, die (in guter Nähe-

rung) eine Poisson-Verteilung hat. Ihr Erwartungswert ,LL = E(X) ist die im Volumen

V erwartete Anzahl von Fasern und die erwartete Asbestfaserkonzentration ergibt sich

zu X = ,LL/ V (vgl. Abb. 0.2). Ausgehend von einer beobachteten Anzahl X (als Reali-

sierung von X) hat die statistische Analyse folgende Ziele:

Schätzung der Asbestfaserkonzentration

Bestimmung einer oberen Konfidenzgrenze Xo(x) für die Asbestfaserkonzentra-

tion X,

Überprüfung, ob ein Grenzwert X. eingehalten wird oder nicht, d.h. Durchfüh-

rung eines statistischen Tests zur Entscheidung zwischen den Hypothesen

Nullhypothese: X < X, (Grenzwert wird eingehalten),

Alternative: X > X, (Grenzwert wird überschritten).

Die Original-Protokolle zweier Messungen in Schulräumen aus dem Jahr 1989 ist in

den Tabellen 2 und 3 auszugsweise wiedergegeben. Die Methoden zur Berechnung

der Vertrauens- bzw. Konfidenzgrenzen werden in Abschnitt 2.6 und die der „Bewer-

tung" zu Grunde liegenden Tests werden erst wesentlich später (in allgemeiner

Form) behandelt.

Page 12: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

Anwendungsbeispiele 27.7.02 0 - 4

M e ß b e d i n g u n g e n

MeRdauer 4 h 10 min Meßtemperatur 18.0 'C Luftdruck 1013 hPa rel. Luftfeuchtigkeit 67 X

mittlerer Ansaugdruck -180 hPa mittlerer Volumenstrom 14.58 l/min

Volumendurchsatz (16.0 'C. 1013 hPa) 3.65 m'3

effektive Filterflache 380 mm'2 ausgewerte Filtertlache 1 .64 mm-2 420 Bildfelder bei 2500facher Vergrößerung

M e ß e r g e b n i s s e

~nsgesamt gezählte Fasern 2

AsSestfaser-Anzahlkontontration 127 Fasern/mA3

obere Grenze Ues 95%-Yertrauensintervallg 460 Fasarn/m-3 (Poisson-Statistik)

B e w e r t u n g

Die gemessene Asbestfaser-Konzentration liegt U n t e r dem empfohlenen Grenzwert von 500 Fasern/ma3.

Mit 95%-iger Wahrscheinlichkeit wird nach der Poisson-Stat:stik der empfohiene obere Grenzwert von 1000 um 540 Fasern/ma3 [Erwartungswert) U n t e r s C h r i t t e n.

H e ß b e d i n g u n g e n

Meßdauer 4 h 4 !in Meßtemperatur 16.0 C Luftdruck 1013 hPa

mittlerer Ansaugdruck -85 hPa mittlerer Volumenstrom 17.07 l/min

Volumendurchsatz (16.0 'C, 1013 hPa) 4.16 rn-3

effektive F~lterflache 380 mm'2 ausgewerte Filterfläche 1.40 mm-2 360 Bildfelder bei 25OOfacher Vergrößerung

M e ß e r g e b n i s s e

insgesamt gezählte Fasern 8

Asbestfaser-Anzahlkonzentration 520 Fasern/me3

obere Grenze des 95%-Vertrauensinterval ls 1,024 Fasern/m'd (Poisson-Statistik)

B e w e r t u n g

Die gemessene A s b e s t f a s e r - K o n z e n t r a t i o n liegt U n t e r dem geforderten Grenzwert von 1000 Faserntm3, bezogen auf den Zustand vor der Sanierung.

Tabelle 2 (oben) und 3 (unten): Protokolle von Asbestmessungen in Schulgebäuden (1989) Die „effektive Filterfläche" entspricht einem Kreis mit 11mm Radius (50 Pf. bzw 20 Cent Münze), von der jeweils nur rund O,4% „ausgewertet" werden.

Page 13: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

Anwendungsbeispiele

Poisson-Verteilung p=7,88

Poisson-Verteilung p= 15,33

0 5 10 15 20 25 30 0 5 10 15 20 25 30 Anzahl Anzahl

Abb. 2: Poisson-Verteilung der Anzahl von Asbestfasern im Volumen V. Die erwartete Anzahl p = 7.88 (links) bzw. p = 15.33 (rechts) entspricht den

3 „Grenzwerten" von 500 bm. 1000 Fasern/m für das untersuchte Valomen V der Messung aus Tabelle 2 oben bzw. unten.

0.3 Wahlumfragen

Bei einer Wahlumfrage von Infratest

dimap (Quelle: www.infratest-dimap.de)

im Februar 2002 ergaben sich bei

n = 1300 Befragungen die nebenstehen-

den Prozentzahlen für die Stimman-

teile der Parteien (in Klammern: Än-

derung gegenüber dem Vormonat).

Eine einzelne Partei (oder Koalition)

ist dabei primär interessiert an mö-

glichst zuverlässigen Informationen

über ihren unbekannten Stimmanteil p

in der Gesamtbevölkerung. Die Anzahl

X der Befürworter dieser Partei unter

den n Befragten ist eine Zufallsvari-

able mit Binomialverteilung B(n

Sonntagsfrage I Wekhe Prrld iiürdm Sb wärlai. ~ f f n

Untersuchungsanlage

Grundaesamtheit: Wahlberechtiate Bevdlkewna in Deutschland " ab 18 ~ahren"

"

Stichprobe: ReprBsentative ZufallsauswahVRandomstichprobe Erhebungsverfahren: ComputergestOtzte Telefoninte~iews (CATI) Fallzahl: 1.300 Befraate (900 West. 400 Ost) Erhebungszeitraum: 21.1 26. ~ebruar 2002 ' F.hlertderanz:: 1,2' bis 2.7" Prozentpunkte

bei einem Anteilswert von 5% " bei einem Anteilswert von 50%

DurchfOhrendes Instilut: Infratest dimap

Page 14: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

Anwendungsbeispiele 27.7.02 0 - 6

Für eine „kleinen Partei (z.B. Die Grünen) mit p = 8 % und eine „großen Partei (z.B.

CDU) mit p = 40 % sind die Elementar-Wahrscheinlichkeiten für die möglichen Er-

gebnisse bei einer kleinen Umfrage mit nur n = 100 (z.B. eine telefonische Blitz-Um-

frage) in Abb. 3 graphisch dargestellt.

0 5 10 15 20 25 30 35 40 45 50 55 60 Anzahl in der Stichprobe

0 5 10 15 20 25 30 35 40 45 50 55 60 Anzahl in der Stichprobe

Abb. 3: Dichten der B(~,P)-Verteilung für n = 100 und p = 8% bzw. p = 40% als Histogramm (oben) und mit Normalapproximation (unten). Die markierten Flächen entsprechen den Wahrscheinlichkeiten P(X< - 5) bei p = 5% und P(X> 50) bei p = 40%.

Page 15: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

Anwendungsbeispiele 27.7.02 0 - 7

Die Ziele einer solchen Umfrage sind:

Schätzung des Stimmanteil p,

Bestimmung einer unteren Konfidenzgrenze ju für den Stimmanteil p,

Überprüfung, ob ein Mindestanteil (ein „Wahlziely po erreicht wird, z.B. po = 5%

bzw. po = 50% im Hinblick auf die 5%-Hürde bzw. eine absolute Mehrheit. Der

zugehörige statistische Tests soll sich für eine der beiden Hypothesen entschei-

den

Nullhypothese: P < P o (Stimmanteil unter po),

Alternative: P > p 0 (Stimmanteil mindestens po ).

Die Methoden hierzu werden im Laufe des Kurses erarbeitet.

0.4 Rauchen in der Schwangerschaft

In einer Studie über den Einfluß des Rauchens der Mutter während der Schwanger-

schaft auf die Gesundheit des Säuglings sollen unter anderem folgende Nullhypo-

thesen überprüft werden:

(1) Der Anteil der untergewichtigen Neugeborenen (d.h. Geburtsgewicht 5 2500g)

ist bei rauchenden und nichtrauchenden Müttern gleich groß.

(2) Für untergewichtige Neugeborene ist die Rate der Säuglingssterblichkeit bei

rauchenden und nichtrauchenden Müttern gleich groß.

Die beobachteten Anzahlen einer konkreten Studie sind in Tab. 4 wiedergegeben, und

die zugehörigen Tests werden in Kapitel 19 behandelt.

Tab. 4: Anzahlen einer amerikanischen Studie über Einzelgeburten der weißen Bevölkerung aus den Jahren 1960-67. aus: J. Yerushalmy (1971), Amer. J. Epidemiology 93 , p. 443ff, Table 1.

Mutter raucht

j a nein

Summe

Lebendgeborene

3 726 6 067

9 793

Untergewichtige insgesamt

237 197

434

Untergewichtige nach 4 Wochen gestorben

27 43

70

Page 16: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

0.5 Broccoli als Krebsvorsorge?

Anwendungsbeispiele

Das Nachrichtenmagazin Newsweek berichtete im April 1994 über Tierexperimente

mit Ratten zur Krebsforschung, die von Dr. P. Talalay auf folgende Weise durchge-

führt wurden. Bei drei Gruppen von Ratten wurde jedem Tier die krebserzeugende

Substanz DMBA injiziert und beobachtet, ob sich ein Tumor entwickelt. Der zwei-

ten bzw. dritten Gruppe wurde hierbei zusätzlich der im Broccoli (und anderen Ge-

müsearten) enthaltene Wirkstoff mit der englischen Bezeichnung Sulphoraphane in

niedriger bzw. hoher Dosis injeziert. Die Ergebnisse sind in Tab. 5 wiedergegeben.

N E W S W E E K APRIL 2 5 , 1994

Snuff~ng Out Cancer Before It Begins Within hours after being eaten, sulforaphane, one of broccoli's cancer-fighting phytochemicals, enters the blood stream. It circulates and triggers one of the bodv's defense svstems.

The road to cancer can begin When suiforaphane reaches The enzymes burst into action, with a carcinogenic molecule the ceU, it activates a group of attaching the carcinogen to -from food, drink, air or proteins called phase 2 a molecule that whisks it out of smoke-invadiny a cell. enzymes. the ceii. headed for oblivion. DUGRAM: BLUMRICH-NEWSWEEK

"The results are quite dramatic," says Dr. Paul Talalay of Johns Hopkins Medical Institutions. "Far fewer animds [given sul- foraphane] developed tumors." Two years ago Talalay added sulforaphane to human cells growing in a lab dish and showed that it boosted synthesis of anticancer enzymes. Now, in the current Proceedings of the

National Academy of Sciences, his team reports that the broccoli compound pro- tects h ing animals against cancer. Of 25 rats injected with a carcinogen known as DMBA, 68 percent got marnmary tumors. Of 39 animals that were also injected with low or high doses of sulforaphane, only 35 percent and 26 percent, respectively, did.

Tab. 5: Ergebnisse der drei unterschiedlich behandelten Gruppen von Ratten

Gruppe

1 2 3

Zur Beurteilung der Ergebnisse sollen folgende Hypothesen überprüft werden:

Hat die Sulphoraphane-Beigabe einen Einfluß auf das Krebsrisiko?

Falls die Sulphoraphane-Beigabe einen Einfluß auf das Krebsrisiko hat,

spielt dann die Dosierung eine Rolle?

Sulphoraphane

nein geringe Dosis

hohe Dosis

Tumor kein Tumor

17 8 14 25 10 2 9

Summe

25 3 9 3 9

Page 17: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

Schätzen des Erwartungswertes 26.7.02 1-1

1. Schätzen des Erwartungswertes

Für die mathematische Behandlung einer konkreten statistischen Fragestellung

(wie die Anwendungen im Kapitel 0) geht man typischerweise von einer oder meh-

reren Zufallsvariablen aus. Eine reelle Zufallsvariable X ist eine meßbare Abbildung

X:R+IR von einem Wahrscheinlichkeitsraum ( R , d , P) nach IR. Der Wahr-

scheinlichkeitsraum ist ein Modell für den zugrundeliegenden stochastischen Vor-

gang, z.B. die Befragung eines zufällig ausgewählten Wahlberechtigten einer Wah-

lumfrage aus 0.3. Der Ergebnisraum R enthält alle Ergebnisse W, die a-Algebra d

enthält die relevanten Ereignisse A C R und das Wahrscheinlichkeitsmafl

P: d+ [O, 11 spezifiziert die Wahrscheinlichkeiten P(A) aller Ereignisse A. Die Zu-

fallsvariable X reduziert das Ergebnis W E R auf eine jeweils interessierende reelle

Zahl X(w), z.B. ein Indikator ob die Antwort ,$'PDu lautet (d.h X = 1) oder nicht

(X = 0). Von primärem Interesse ist dann nur noch die Verteilung 2(X) = Px von X,

d.h. das Bildmafl von P unter X, definiert durch

für alle reellen Borel-Mengen B E B. Untersuchungen über die Verteilung von X redu-

zieren sich daher zu Analysen über Wahrscheinlichkeitsmaße auf (IR, B), wobei der

zugrunde liegende Wahrscheinlichkeitsraum ( R , d , P) nur noch eine untergeord-

nete Rolle spielt (und in Zukunft auch immer seltener selten erwähnt wird). Die

Verteilung des Indikators X für die SPD bei einer einzelnen Befragung aus 0.3 ist

z.B. eine Bernoulli- oder Binomial-Verteilung B(l,p) mit p als (unbekanntem) Stim-

manteil der SPD in der Gesamtbevölkerung.

Ein wichtiger (wenn nicht sogar der wichtigste) Parameter der Verteilung von X ist

der Erwartungswert ,LL = E(X) E IR, gegeben durch

PI E(X) = j'X dP (Mafl-theoretische Definition)

wobei IX I P-integrierbar sein muß, d.h. das IntegralJ IX I dP ist endlich.

Für diskret verteiltes (kurz: diskretes) X, d.h. mit höchstens abzählbarem Träger (Bild)

T = X[R] , ist der Erwartungswert gegeben durch

(für diskretes X).

wobei für abzählbaren Träger T die Reihe sogar absolut konvergent sein muß.

Page 18: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

Schätzen des Erwartungswertes 26.7.02 1 - 2

Und für eine stetig verteilte (kurz: stetige) Zufallsvariable, d.h. mit einer Wahrschein-

lichkeitsdichte f : IR + [0, CO) ist der Erwartungswert gegeben durch

(für stetiges X),

wobei das Integral absolut konvergent sein muß.

Weiter wollen wir generell voraussetzen, daß die Zufallsvariable X eine endliche 2 Varianz a = Var(X) < CO hat, wobei

Wenn wir hier (und später) den Erwartungswert, die Varianz oder einen anderen

Parameter von X verwenden, so sei dabei immer stillschweigend voraus, daß der

betreffende Parameter „existiertu und endlich ist, d.h. daß die in der Definition ver-

wendeten Integrale existieren und endlich sind. Es gibt Verteilungen für die der Er-

wartungswert nicht existiert, z.B. die Cauchy-Verteilung.

Bei konkreten Anwendungen kann die Verteilung von X durch ein plausibles Modell

eingeschränkt werden auf eine spezielle Verteilungsklasse. So hat z.B. die Indikator-

variable X für die SPD bei einer Wahlumfrage stets eine Binomial-Verteilung

B(l,p). Allgemein gilt für jede Indikatorvariable X E {O,1} das

Binomial-Verteilungsmodell: 2 ( X ) = B(1, mit ,LL = =(X) = p.

Für die Anzahl X der Leukämiefälle in 0.1 bzw. der Asbestfaser in 0.2 ist das

Poisson-Verteilungsmodell : 2 ( X ) = P o ~ s ( ~ ) mit ,LL = E(X)

eine hinreichend genaues Modell, obwohl streng genommen extrem hohe Werte

aus dem Träger No = U U {O} der Poissonverteilung in der Realität nicht auftreten

können (sie haben aber auch eine verschwindend kleine Wahrscheinlichkeit im

Poisson-Modell).

Für eine stetige Zufallsvariable X verwendet man oft das

Normal-Verteilungsmodell : 2 ( X ) = N(,LL, a2) 2 mit ,LL = E(X) , a = Var(X).

Und für eine positive stetige Zufallsvariable X > 0 kann man z.B. das

Page 19: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

Schätzen des Erwartungswertes 26.7.02 1 - 3

2 Gamma-Verteilungsmodell: 2 ( X ) = Gam(a,ß) mit p = aß, a = aß 2

verwenden.

Man beachte, daß in den ersten beiden (diskreten) Verteilungsmodellen die Vertei-

lung bereits durch ihren Erwartunswert p vollständig bestimmt ist, während in die

letzten beiden (stetigen) Verteilungsmodelle die Verteilung erst durch Erwartungs- 2 wert p und Varianz a eindeutig bestimmt ist. Wir wollen bei den folgenden allge-

meinen Betrachtungen zunächst kein konkretes Verteilungsmodell vorausssetzen.

In der Praxis ist der Erwartungswert einer interessierenden Zufallsvariablen X ty-

pischerweise unbekannt und muß aus beobachteten Daten geschätzt werden. Aus-

gangspunkt hierfür ist ein Stichproben-Modell, das hier aus n stochastisch unabhängi-

gen und identisch wie X verteilten Zufallsvariablen Xi (auf R) für i = 1, ..., n besteht.

Man bezeichnet XI, ..., Xn auch als unabhängige Wiederholungen von X und schreibt

hierfür kurz (iid steht für independent identically distributed)

(6) 1 X n 22d 7? X .

Die Stichprobe stellt einen n-dimensionalen Zufalls-Vektor dar

wobei wir den Stichprobenumfang als oberen Index „(n)" nur dann mitschreiben,

wenn dies zur Klarstellung erforderlich ist.

Die beobachteten Daten sind Realisierungen xi = Xi(w) E IR der Zufallsvariablen X ., 2

wobei WER das eingetretene Ergebnis ist. Der beobachtete Vektor

ist dann die zugehörige Realisierung von X. Ebenso wie man zwischen einer Funk-

tion f und einem konkreten Funktionswert f(x) unterscheidet, so wollen wir auch

streng zwischen dem Zufallsvektor X und seiner beobachteten Realisierung

X = X(w) unterscheiden.

Als Schätzung des Erwartungswerts p verwendet man den Mittelwert (arithmeti-

sches Mittel) der Beobachtungen

n (9)

1 /?(X) = X = - ): X . n . z (Schätzung, Schätzwert für p).

2 = 1

Page 20: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

Schätzen des Erwartungswertes 26.7.02 1 - 4

Die Abhängigkeit der Schätzung von den „zufälligenn Daten wird beschrieben durch

den Schätzer (die)

n (10)

1 /?(X) = X = - C X. n . 2

(Schätzer, Schätzgröfle für ,LL)

2 = 1

,L(X) ist eine Zufallsvariable auf (R,&P) mit Werten in IR, und der Schätzwert

,L(x) = ,L(X(w)) ist die zugehörige Realisierung des Schätzers.

1.1 Eigenschaften des Schätzers

Finite Eigenschaften:

(1) Der Schätzer ist erwartungstreu (unverfälscht) : E(fi(X)) = P .

(2) Die Varianz des Schätzers ist umgekehrt proportional zu n :

var(,L(x)) = 02.

Offenbar ist ein erwartungstreuer Schätzer für ,LL umso besser, desto kleiner seine

Varianz ist. Verwendet man aus „Faulheitu z.B. nur die erste Komponente

,Ll(X) : = X1 oder das Mittel ,Lln(X) : = i (Xl +Xn) von erstem und letzten Wert, so

sind diese beiden Schätzer zwar erwartungstreu für ,LL, aber ihre Varianzen

sind für n > 2 größer als die von ,L(X). Die Erwartungstreue ist zwar eine wün-

schenswerte Eigenschaft eines Schätzers, aber sie sagt nichts über die Varianz des

Schätzers aus.

Page 21: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

Schätzen des Erwartungswertes 26.7.02 1 - 5

Asymptotische Eigenschaften:

Betrachtet man für n i c c die Folge ,L(n) := ,L(x(~)) der Schätzer, so ergeben sich

aus den Gesetzen der groj'en Zahlen und dem Zentralen Grenzwertsatz folgende

asymptotische Eigenschaften (vgl. zu (3) auch Abb. 1 und zu (5) Abb. 2):

(3) Der Schätzer ,L(n) konvergiert nach Wahrscheinlichkeit gegen p :

,L(") L p, (schwache Konsistenz), n+ 00

d.h. für alle E> O gilt : lim P{ I ,L(n) - p I < E } = 1. n

(4) Der Schätzer ,L(n) konvergiert sogar P-fast sicher gegen p:

-(n) P f s P P, (starke Konsistenz),

d.h. P{ WEO I l i m , ~ ( ~ ) ( w ) = p } = I . n

2 (5) Für endliches a konvergiert der standardisierte Schätzer nach Verteilung

gegen die Standard-Normal-Verteilung N(0,l):

Y+) := Jn [,L(") - A N(0,1), d.h . 0 n+ 00

für alle a ER gilt: l i r n ~ { * ) < a } = @ ( U ) n

mit @ als Verteilungsfunktion von N(0,l) .

Für großen Stichprobenumfang n gilt daher für jedes a ER :

d.h. ,L (X) ist approximativ normalverteilt :

Page 22: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

Schätzen des Erwartungswertes 26.7.02 1 - 6

Abb. 1: Verteilung des Mittelwerts ,L (X) = X bei wachsendem Stichprobenumfang n

X ist diskret gleichverteilt (Würfel) X ist Gamma-verteilt

0 1 2 3 p 4 5 6 Mittelwert

0 1 2 3 p 4 5 6 Mittelwert

0 1 2 3 p 4 5 6 Mittelwert

0 1 2 3 p 4 5 6 Mittelwert

0 1 2 3 p 4 5 6 Mittelwert

0 1 2 3 p 4 5 6 Mittelwert

0 1 2 3 p 4 5 6 0 1 2 3 p 4 5 6 Mittelwert Mittelwert

Page 23: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

Schätzen des Erwartungswertes 26.7.02

Abb. 2: Standardisierter Mittelwert Y = fi (X- ,L)/D und N(0, 1)-Verteilung (dünn) X ist diskret gleichverteilt (Würfel) X ist Gamma-verteilt

-3 -2 -1 0 1 2 3 -3 -2 -1 0 1 2 3 standardisierter Mittelwert standardisierter Mittelwert

-2 -1 0 1 2 standardisierter Mittelwert

-2 -1 0 1 2 standardisierter Mittelwert

-3 -2 -1 0 1 2 3 standardisierter Mittelwert

-3 -2 -1 0 1 2 3 standardisierter Mittelwert

0.4 0.4

0.0 0.0 -3 -2 -1 0 1 2 3 -3 -2 -1 0 1 2 3

standardisierter Mittelwert standardisierter Mittelwert

Page 24: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

Schätzen des Erwartungswertes 26.7.02 1 - 8

1.2 Spezielle Verteilungsmodelle

Wenn man voraussetzt, daß die Verteilung J ( X ) aus einer speziellen Klasse

stammt, die gegen Faltungen abgeschlossen ist, so gehört auch die Verteilung der

Summe X = Xl + ...+ Xn zu dieser Klasse und die Verteilung des Schätzers + f i (X) = I x läßt explizit angeben. Wir geben hierfür einige Beispiele.

n +

1.2.1 Das Binomial-Verteilungsmodell

Das Binomial-Verteilungsmodell liegt vor, wenn X diskret ist mit

Wegen ,LL = E(X) = p entspricht die Schätzung von ,LL hier der Schätzung der Wahr-

scheinlichkeit p und wir bezeichnen die Schätzfunktion f i dann auch suggestiv mit

$ : =P Bei Anwendungen ist p typischerweise die Wahrscheinlichkeit eines interes-

sierenden Ziel-Ereignisses und die Schätzung $(X) =La: ist genau die relative Häu- n +

figkeit mit der das Ziel-Ereignis bei den n Wiederholungen eingetreten ist.

Die Verteilung des Schätzers $ ( X ) ='X+ ergibt sich aus

(2) -W+) = +,P) bzw. J($(x)) = ;. B(n,P) .

k Die zweite Formulierung bedeutet, daß $ ( X ) den Träger { ; I k = 0, ..., n ) besitzt

mit der Zähldichte:

1.2.2 Das Poisson-Verteilungsmodell

Das Poisson-Verteilungsmodell ist bei diskretem X gegeben durch

(1) J (x) = Po~s(,LL),

und dann folgt

(2) B X + ) = Pois(np) bzw. J( f i ( X ) ) = ;. Pois(np) .

1 k Die Verteilung von f i ( X ) =-X hat also den Träger { ; I k E WO ) und die Zähl- n +

dichte:

Page 25: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

Schätzen des Erwartungswertes 26.7.02 1 - 9

1.2.3 Das Normal-Verteilungsmodell

Für stetiges X ist das Normal-Verteilungsmodell gegeben durch

(1) 4x1 = N ( P , ~ ~ ) ,

und dann gilt

PI .d(X+) = ~ ( n ~ , n o % ) bzw.

1.2.4 Das Gamma-Verteilungsmodell

Das Gamma-Verteilungsmodell liegt bei stetigem X > 0 vor, wenn

( I> . d ( X ) = Gam(a ,ß ) mit 2

0 = a ß 2 P = Q P ,

und dann gilt

PI . d ( X + ) = G a m ( n a , ß ) bzw.

Page 26: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

2. Schätzen der Varianz 26.7.02 2 - 1

2. Schätzen der Varianz

Nachdem wir für eine interessierende Zufallsvariable X zunächst ihren Erwar-

tungswert p = E(X) geschätzt haben, wollen wir jetzt die Varianz a2 = Var(X) 2 2 schätzen, wobei wir die Existenz von p E IR und a E IR mit a > 0 vorraussetzen.

Für einige der folgenden Betrachtungen benötigen wir zusätzlich noch die Endlich-

keit des vierten zentralen Moments von X, d.h.

was wir deshalb generell voraussetzen wollen.

Ausgangspunkt der statistischen Betrachtungen ist wie im Kapitel 1 eine Stich-

probe X = (X1, ... , Xn) mit n unabhängigen Wiederholungen von X, sowie eine kon-

krete Realisierung X = (X , X ) von X. Aus methodischen Gründen betrachten 1' ... n

wir zuerst den (in der Praxis eher seltenen) Fall, daß der Erwartungswert p bekannt

ist. Danach wird der Fall behandelt, wo p unbekannt ist und auch geschätzt wird.

2.1 Schätzung der Varianz bei bekanntem Erwartungswert

Für das Quadrat Y = [X - p] der zentrierten Variablen [X - p] gilt

Damit ist die Schätzung der Varianz a" von X auf die Schätzung des Erwartungs-

werts von Y zurückgeführt. Die Zufallsvariablen Yi = (Xi- sind für i = 1, ..., n

unabhängigeWiederholungen von Y und ihr Mittelwert Y ist nach 1.1 ein Schätzer

für a2:

mit den bekannten Eigenschaften (vgl. 1.1)

(3) E($(x)) = a 2 (er~artun~streu)

(4) - 2 1 1

Var(a (X)) Var(Y.) =- (p -a4) P 2 n 4

(5) - 2 P f s 2 0 := g(x(n)) L, 0 .

~n n+ 00 (starke Konsistenz)

(6) Jn 2 - D 2 ] -

n+ 00 N(O , (p4 - a4)) (asymptotische Normalität).

Page 27: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

2. Schätzen der Varianz 26.7.02 2 - 2

2.2 Schätzung der Varianz bei unbekanntem Erwartungswert

Bei unbekanntem Erwartungswert ,LL kann der Schätzer 82 (X) aus 2.1 nicht berech- P

net werden. Man verwendet daher einen anologen Schätzer, indem man den Erwar-

tungswert ,LL durch seinen Schätzer f i = X ersetzt und dafür durch n- 1 statt n teilt

(damit der Schätzer erwartungstreu wird):

Hierbei ist SXX eine quadratische Form in X

n n n

(2) - 2 SXX:=C(Xi-X) = C X ~ - ' ( C X . ) ~ 2 n 2 = x T ~ x ,

i= l i= l i= l wobei die nxn Matrix A = (a. .) gegeben ist durch:

2 1

(3) 1 a . . = 6. (6 ist das Kronecker-Symbol).

2 1 2 1 n

Zur Berechnung des Schätzers kann man die Beziehung

(4) - 2 E(Xi-X) = E(x.-a12-n(X-a) 2 für a E IR

2 i

verwenden, wobei es für die Rechengenauigkeit günstig ist, wenn a nahe a m Mittel-

wert X liegt. Speziell für a = 0 ergibt sich wieder (2).

Der Nenner (n- 1) in (1) garantiert, daß der Schätzer erwartungstreu ist:

Die Varianz des Schätzers

(6) 2 1 n-3 4

v a r ( 8 (X)) = ( , L L ~ - ~ D )

ergibt sich aus dem nachfolgenden Theorem.

Page 28: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

2. Schätzen der Varianz 26.7.02 2 - 3

Theorem: Erwartungswert und Varianz quadratischer Formen

U = (Ul, ..., Un) sei ein Vektor unabhängiger identisch verteilter Zufallsvariablen

Ul, ..., Un mit Erwartungswert E ( U . ) = 0 und exisitierenden Momenten 2

Für eine symmetrische n x n Matrix A = ( a . .) hat die quadratische Form 2 1

den Erwartungswert und die Varianz

Der Schätzer ist auch konsistent und asymptotisch normalverteilt

P f s 2 82 n : = ~ - ~ ( x ( ~ ) ) -L, D n+ 00

(starke Konsistenz)

(8) 2 ~ n [ 8 i - D 2 ] -

n+ 00 N(O , ( p 4 - 04)) (a~ym~to t i s che Normalität).

Page 29: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

3. Konfidenzgrenzen für den Erwartungswert 3.4.03 3 - 1

3. Konfidenzgrenzen für den Erwartungswert

Ausgehend von einer Stichprobe X = (Xl, ..., X,) mit n unabhängigen Wiederholun-

gen der Zufallsvariablen X mit Erwartungswert ,LL = E(X) haben wir in Kapitel 1

einen sogenannten Punkt-Schätzer für ,L, d.h. einen zufälligen reellen Punkt b(X) =F konstruiert. Wir wollen jetzt zusätzlich einen Intervall-Schätzer angeben, d.h. ein zu-

fälliges reelles (offenes) Intervall I(X) = (fi (X) , fi (X)), wobei fiu(X) eine untere und U 0

fio(X) eine obere Konfidenzgrenze (oder Vertrauen~~renze) für den Erwartungswert ,LL

genannt wird. Hierbei soll die untere Grenze fiu(X) mit einer hoher Sicherheit unter-

halb des Erwartungswertes ,LL liegen, d.h. die Wahrscheinlichkeit

(1) P{ fiu(x) < P 1 (Sicherheit der unteren Grenze)

soll möglichst groß sein bzw. die komplementäre Wahrscheinlichkeit

PI P{ P 5 fiu(x) 1 (Irrtumswahrscheinlichkeit der unteren Grenze)

soll möglichst klein sein. Bei der Interpretation der Sicherheit der unteren Grenze

ist zu beachten, daß es sich hier um eine Wahrscheinlichkeit handelt, die sich darauf

bezieht, daß man die Schätzung der Grenze prinzipiell als wiederholbar ansieht.

Schätzt man aus sehr vielen voneinander unabhängigen Stichproben (jeweils vom

Umfang n) die untere Konfidenzgrenze, so entpricht der Anteil aller Schätzungen, bei

die unteren Grenze unterhalb von ,LL liegt, ungefähr der Sicherheit (Hä~fi~keitsinter-

pretation der Sicherheit).

Analog soll die obere Grenze fiu(X) mit einer hoher Sicherheit oberhalb von ,LL liegen,

d.h. die Wahrscheinlichkeit

(3> Pi P < fio(x) 1 (Sicherheit der oberen Grenze)

soll möglichst groß bzw. die komplementäre Wahrscheinlichkeit

(4) P{ fi0(x) 5 P 1 (Irrtumswahrscheinlichkeit der oberen Grenze)

soll möglichst klein sein.

Das durch beide Grenzen gegebene offene Konfidenzintervall (fi (X) , fi (X)) verfehlt U 0

den Erwartungswert ,LL mit der Wahrscheinlichkeit

Page 30: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

3. Konfidenzgrenzen für den Erwartungswert 3.4.03 3 - 2

d.h. die Irrtumswahrscheinlichkeit des Intervalls (fiU(x) , fi0(x)) ist die Summe der

Irrtumswahrscheinlichkeiten für die untere und die obere Grenze.

Bei der Konstruktion solcher Konfidenzgrenzen muß man dem Zusammenhang

von Sicherheit einerseits und Informationsgehalt andererseits Rechnung tragen. Je

gröper die untere Grenze fiu(X) ist, desto höher ist auch ihr Informationsgehalt über

p (weil sie p nach unten abschätzt), aber desto geringer ist auch ihre Sicherheit. Zum

Beispiel hat im Extremfall die untere Grenze fiu(X) =- co zwar die maximale Si-

cherheit von 1, aber sie enthält keinerlei Informations über p.

Für die Konstruktion der unteren Grenze gibt man sich daher eine maximale Irr-

tumswahrscheinlichkeit a bzw. eine minimale Sicherheit 1- a vor, und sucht dann

eine möglichst informative (d.h. poße) zugehörige untere Grenze fi (X), die diese U,&

Sicherheit approximativ oder sogar exakt einhält. Als Standard wird typischerweise

der Wert a = 5% verwendet, aber - je nach Anwendungssitiation - kann und sollte

man auch kleinere Werte (z.B. a = 1%) oder gelegentlich auch größere Werte (z.B.

a = 10%) zulassen. Für die theoretischen Ausführungen kann prinzipiell jeder Wert

0 < a < 1 verwendet werden, wobei lediglich gelten sollte

(6) 1 O < a < ? bzw. O<ci!<l-a<1,

damit - entsprechend der Intuition - die Sicherheit 1- a auch echt größer ist als die

Irrtumswahrscheinlichkeit a. Wir wollen die zusätzliche Bedingung (6) im folgenden

generell voraussetzen, obwohl einige Resultate auch für beliebiges 0 < a < 1 gelten.

Analog sucht man bei der Konstruktion der oberen Grenze für vorgegebenes a eine

möglichst informative (d.h. kleine) zugehörige obere Grenze fi (X), die diese Si- 0, &

cherheit approximativ oder sogar exakt einhält.

Hat man die untere und obere Grenze bereits konstruiert, so ergibt sich die Irr-

tumswahrscheinlichkeit des Intervalls ( fi (X) , fi (X) ) nach (5) - approximativ U, 0,

oder exakt - zu 2a . Konstruiert man die Grenzen unter Verwendung von 5 statt a,

so hat das zugehörige Intervall

die Irrtumswahrscheinlichkeit a und somit die Sicherheit 1- a.

Eine untere Grenze ist in der Praxis z.B. dann wichtig, wenn X eine Lebensdauer

(etwa eines technischen Produktes) ist, und man die zu erwartende Lebensdauer

Page 31: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

3. Konfidenzgrenzen für den Erwartungswert 3.4.03 3 - 3

zuverlässig nach unten abschätzen will. Ist X dagegen eine Schadstoffbelastung

(z.B. in einem Nahrungsmittel), so wird man primär an einer oberen Grenze der er-

warteten Belastung interessiert sein. Wenn X ein Wirkstoff (z.B. eines Medika-

ments) ist, so interessiert man sich typischerweise sowohl für eine untere als auch

für eine obere Grenze, um den zu erwartenden Wirkstoffgehalt nach beiden Seiten

einzugrenzen und somit eine Unter- oder Überdosierung zu erkennen.

3.1 Exakte Konfidenzgrenzen für den Erwartungswert einer Normal-Verteilung mit bekannter Varianz

Aus didaktischen Gründen behandeln wir zunächst den Fall, daß die Zufallsvari-

able X (und ihre unabhängigen Wiederholungen XI, ..., Xn) normalverteilt ist, d.h.

Zusätzlich betrachten wir den (in der Praxis eher untypischen) Fall, daß die Vari- 2 anz a bekannt ist. Der Fall mit unbekannter Varianz und normalverteiltem X wird in

3.3 und der allgemeine Fall mit beliebiger Verteilung von X wird in 3.2 behandelt.

Wir beginnen mit der Konstruktion einer unteren Konfidenzgrenze für den Erwar-

tungswert ,LL und setzen diese zunächst von der Form an

wobei sich die Abweichung d vom Mittelwert X wie folgt aus der vorgegebenen Irr-

tumswahrscheinlichkeit ci! ergeben wird. Ausgangspunkt hierfür ist die Normalver-

teilung des Mittelwerts X

d.h. der standardisierte Mittelwert

mit

(Standardabweichung von X).

hat eine Standard-Normalverteilung

Page 32: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

3. Konfidenzgrenzen für den Erwartungswert 3.4.03 3 - 4

Mit der Verteilungsfunktion !P von N(0,l) ergibt sich hieraus die Irrtumswahr-

scheinlichkeit der unteren Grenze (2) zu

Abb. 1

Dichte von X und Konstruktion der

Bandbreite da für gegebenes Niveau a

Die Grenze f i - dargestellt als Klammer [ U , a

liegt genau dann oberhalb von p, wenn der

Mittelwert im oberen a-Bereich liegt

Die Irrtumswahrscheinlichkeit (7) nimmt genau dann den vorgegeben Wert a an,

wenn die Bandbreite wie folgt gewählt wird

wobei za das sogenannte obere a-Quantil der Standardnormalverteilung ist (vgl. An-

hang T, Seite M), d.h.

(9) z a = @-'(I- a) bzw.

P{N(O, 1) > za} = a

0 2,

N(0, 1)-Dichte mit a-Quantil

Page 33: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

3. Konfidenzgrenzen für den Erwartungswert 3.4.03 3 - 5

Mit dieser Bandbreite erhält man die untere Konfidenzgrenze für ,LL

-

(10) f i ( X ) = f i (X)-da = X - d a (untere Grenze) U , a

mit der Sicherheit

(11) P { f i U , a (X)<,LL} = 1 - Q

Und analog ergibt sich als obere Konfidenzgrenze für ,LL

-

(12) f i ( X ) = /?(X) + d a = X + d a (obere Grenze) 0, a

mit der Sicherheit

(13) p { ~ < f i ~ , ~ ( x ) } = 1-"

Aus der unteren und oberen Grenze zum halben Niveau ergibt sich dann das um

den Punkt-Schätzer fi(X) = X symmetrische zweiseitige Konfidenzintervall für ,LL zur

Sicherheit 1 - a

(14) I a ( X ) = (X- da12 , X + daI2 ) mit

(15) 1

doli2 = ' 4 2 . .

Für das in der Praxis routinemäßig verwendete Niveau a = 5% bzw. die Sicherheit

1 - a = 95% ergeben sich:

d.h. in diesem Fall ist die Bandbreite d rund die zweifache Standardabweichung al2

des Schätzers X . Für andere gängige Werte von a läßt sich das Quantil za aus Ta-

bellen (vgl. Anhang T, Seite 3-4) ablesen oder (mit geeigneten Programmen) be-

rechnen.

Wir wollen noch eine andere Interpretation der Konfidenzgrenzen angeben und

betrachten hierzu für eine Realisierung X = (xl, ..., X ) von X die Verteilungsfunk- n

tion des Mittelwerts X an der Stelle des beobachten Mittelwerts Z

Page 34: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

3. Konfidenzgrenzen für den Erwartungswert 3.4.03 3 - 6

Da G eine streng wachsende Funktion ist, ist F(X I p) streng fallend in p. Die obere

Grenze f i ( X ) läßt sich daher auch charakterisieren durch 0, &

(18) F ( x I fi0,&(x)) = " bzw.

Damit ist obere Grenze f i ( X ) das Maximium aller möglichen Werte p, die mit der 0, &

Beobachtung X in dem Sinn noch ,,verträglichu sind, daß die Wahrscheinlichkeit

F(% I p) für X oder kleinerer Werte noch mindestens ci! ist (vgl. Abb. 2).

Für eine analoge Interpretation der unterer Konfidenzgrenze betrachten wir die

„obereu Verteilungsfunktion des Mittelwerts X an der Stelle der Beobachtung X

Da G(% I p) streng wachsend in p ist, läßt sich die untere Grenze f i ( X ) charakteri- U , &

sieren durch

(21) G[% I f i , ,(X)) = a bzw.

Also ist untere Grenze f i ( X ) das Minimum aller möglichen Werte p, die mit der Be- U , &

obachtung X in dem Sinn noch ,,verträglichu sind, daß die Wahrscheinlichkeit

G(X I p) für X oder gröflerer Werte noch mindestens ci! ist (vgl. Abb. 2)

- -

Pu, & X X Po, &

Abb 2: Normalverteilungsdichte des Mittelwerts X für verschiedene Werte von p zur Interpretation der unteren bzw. oberen Grenze nach (18) (19) bzw. (21) (22). D' ie mar- kierte Fläche entspricht der Wahrscheinlichkeit G(X I p) bzw. F(X I p).

Page 35: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

3. Konfidenzgrenzen für den Erwartungswert 3.4.03 3 - 7

3.2 Asymptotische Konfidenzgrenzen für den Erwartungswert einer beliebigen Verteilung

Wir betrachten jetzt wieder den allgemeinen Fall mit beliebiger Verteilung von X.

Hierbei gehen wir davon aus, daß die Varianz o2 = Var(X) <CO unbekannt ist und

deshalb geschätzt wird durch (vgl. 2.2)

wobei natürlich n > 1 vorausgesetzt ist. Die zugehörige Schätzung der Standardab-

weichung 0(X) des Mittelwerts ist dann

-

(2) .(X) = 2 &(X) (geschätzte Standardabweichung von X). Jn

Ersetzt man in 3.1 einfach die Standardabweichung durch ihre Schätzung so er-

hält man die (geschätzte) Bandbreite

sowie die zugehörigen Grenzen

-

(4) fi (X) = fi(x)-J, = X-Ja (untere Grenze) U , a

-

(5) fi (X) = /?(X) + Ja = x+Ja (obere Grenze) 0, a

Diese Grenzen halten die vorgegebene Sicherheit 1- ci! zwar nicht exakt, aber - wie

wir im folgenden zeigen werden - zumindest approximativ ein, wobei die Approxi-

mation für wachsenden Stichprobenumfang n beliebig genau wird. Der Grund hier-

für ist einerseits, daß der standardisierte Mittelwert

approximativ standard-normalverteilt ist

(7> d ( U ) N N(0,l).

Genauer gilt nach 1.1 (5) - wobei wir den Umfang n als Index „(n)" mitführen

[SI V'") i n+ 00 N(0,l).

Page 36: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

3. Konfidenzgrenzen für den Erwartungswert 3.4.03 3 - 8

Andererseits kann die geschätze Standardabweichung als Approximation der unbe-

kannten Standardabweichung verwendet werden

weil die Schätzung nach 2.2 (sogar stark) konsistent ist

Zusammen mit (8) ergibt sich unter Verwendung des Theorems von Slutzky (vgl.

Exkurs KV 5) die Verteilungskonvergenz

Für die Sicherheit der unteren Grenze

ergibt sich daher

und für die obere Grenze erhält man analog

Man interpretiert (13) bzw. (14) dahingehend, daß die untere bzw. obere Grenze die

asymptotische Sicherheit 1- a oder die asymptotische Irrtumswahrscheinlichkeit a hat.

Für die praktische Anwendung bedeutet dies, daß die Grenzen (4) und (5) die appro-

ximative Sicherheit

besitzen, wobei die Approximation für wachsendes n beliebig genau wird.

Bei den obigen Ausführungen haben wir von der speziellen Gestalt (1) der Varianz-

schätzung keinen Gebrauch gemacht, sondern nur ihre Konsistenz (10) ausgenutzt.

Folglich gelten alle Resultate dieses Abschnitts auch für jede konsistente Schätzung

8 2 ( ~ ) der Varianz, weil diese ebenfalls (10) erfüllt.

Page 37: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

3. Konfidenzgrenzen für den Erwartungswert 3.4.03 3 - 9

Beispiel: Haltbarkeitsdauer eines Medikaments

Die Haltbarkeitsdauer X (in Tagen) eines spezifischen Medikamentes kann als Zu-

fallsvariable mit einer - ohne zusätzliche Untersuchungen - zunächst nicht bekann-

ten Verteilung betrachtet werden. Eine Verbraucherorganisation will eine untere

95%-Grenze fiU für die erwartete Haltbarkeitsdauer p = E(X) ermitteln. Bei n = 25

unabhängigen Messungen ergab sich der Mittelwert F = 107,5 mit einer Streuung

von &(F) = 12,7 - d. h. die Schätzung auf o war &(X) = 63,5. Aus dem 5%-Quantil

z = 1,645 ergibt sich die Bandbreite d5% = 20,9 und somit eine untere Grenze von 5%

", 5% = 86,6 Tagen. Man beachte, daß die Sicherheit dieser Grenze nur approximativ

95% beträgt.

3.3 Chebychev-Konfidenzintervalle für den Erwartungswert einer beliebigen Verteilung mit bekannter Varianz

Wenn im allgemeinen Fall mit beliebiger Verteilung von X zusätzlich die Varianz

o2 = Var(X) < co bekannt ist, so läßt sich unter Verwendung der Chebychev-Unglei-

chung ein Konfidenzintervall der Form

(X- Ca , X + C a )

1 2 konstruieren. Wegen E(X) = p und ~ a r ( X ) =; o ergibt sich mit der Chebychev-

Ungleichung

-112 1 Für c = a . -o gilt: a Jn

Da die Sicherheit P{ I X- p 1 < c } dieses Chebychev-Intervalls in der Regel deutlich a

gröJ3er ist als der angestrebte Wert 1 - a, spricht man auch von einem konservativem

Konfidenzintervall. Für das Standardniveau a = 0.05 ist ap1I2 = 4.47 und die Band-

breite ca ist z.B. mehr als doppelt so groß, als die Bandbreite d im Normalvertei- 4 2

lungsmodell. Das Chebychev-Konfidenzintervall ist mehr von theoretischem als

von praktischem Interesse, weil es stark konservativ ist und darüberhinaus in An-

wendungen typischerweise auch die Varianz unbekannt ist.

Page 38: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

4. Konfidenzgrenzen für eine Wahrscheinlichkeit 4.4.03 4 - 1

4 Konfidenzgrenzen für eine Wahrscheinlichkeit

Es sollen jetzt Konfidenzgrenzen für eine Wahrscheinlichkeit p, also für den Erwar-

tungswert einer Bernoulli-Verteilung B(1, p) konstruiert werden. Wir beginnen mit

den sogenannten exakten Grenzen, deren Sicherheit exakt eingehalten werden und in 1 dem Sinne konservativ sind, daß die vorgegebene Irrtumswahrscheinlichkeit 0 < u <?

(bedingt durch die Unstetigkeit der Verteilungsfunktion der Bionomial-Verteilung)

nicht voll ausgeschöpft wird. Im Anschluß werden dann die auf der Normalapproxi-

mation der Bionomialverteilung basierenden asymptotischen (oder approximativen)

Grenzen behandelt.

Den Ausgangspunkt bildet eine Stichprobe mit n unabhängigen B(1,p)-verteilten

Zufallsvariablen XI, ... X mit 0 < p < 1. Da alle folgenden Betrachtungen nur von n

der Summe X . = Xl + ... +X mit B(n,p)-Verteilung abhängen, gehen wir vereinfa- +' n chend gleich von der B(n,p)-verteilten Zufallsvariable X aus, wobei wir den Index + „+" fortlassen, d.h. wir setzen X : =X+.

Die Wahrscheinlichkeit einer Realisierung X E (0, ... n} von X bezeichen wir mit

(Zähldichte von X)

Die Schätzung von p zur Beobachtung X ist (nach 1.2.1) die relative Häufigkeit

4.1 Konstruktion der exakten oberen Konfidenzgrenze

Für eine Realisierung X E (0, ... n} von X und wollen wir zuerst eine oberen Konfi-

denzgrenze $ (X) für p zur Sicherheit 1- u konstruieren. In Analogie zu 3.1 (19) 0, a

soll die obere Grenze das Maximum aller möglichen Werte p sein, unter denen die

Beobachtung X oder kleinere Werte noch mindestens die Wahrscheinlichkeit u besit-

zen. Hierzu betrachten wir die Verteilungsfunktion von X an der Stelle X

als Funktion in p. Aus der Ableitung

Page 39: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

4. Konfidenzgrenzen für eine Wahrscheinlichkeit 4.4.03 4 - 2

ergibt sich die Monotonie-Eigenschaft

(3) F ( x 1 p ) ist streng fallend in p für X < n,

Als Grenzwerte für p+ 0 bzw. p+ 1 erhält man

weil

F(xl0) := lim F(x1p) = 1 . P-0

F(xl1) := lim F(x lp) = 0 P-1

für x < n

(7) 1 falls X = n

b ( x l n , l ) := lim b(x ln ,p ) = P-1 0 falls X < n

Für x < n definiert damit F(x lp ) als Funktion in p eine streng fallende, biektive

Funktion F(x I - ): [ 0,1] - [ 0,1]. Und im Fall X = n ist F(x 1 p) konstant

Für eine Realisierung X soll die obere Grenze j ( X ) maximal unter allen Werten p o,a

gewählt werden, bei denen die Wahrscheinlichkeit ~ ( x l p ) für die Beobachtung X

und kleinere Werte noch mindestens a ist (vgl. Abb. 1). Deshalb definieren wir

d.h. j ( X ) > 0 ist eindeutig bestimmt durch o,a

(10) p { X i ~ l j ~ , , ( ~ ) } = F ( x l j ( X ) ) = a 0, a

für X < n,

j (n) = 1 0, a

für X = n..

Die Irrtumswahrscheinlichkeit dieser oberen oberen Konfidenzgrenze ist allerdings nur

höchstens so groß wie die Vorgabe a

Page 40: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

4. Konfidenzgrenzen für eine Wahrscheinlichkeit 4.4.03 4 - 3

(11) ~ { $ ~ , , ( x ) a p } = F ( L ~ ( Q ) I P ) < a wobei

L (a) = Max{ l=-1 , ..., nIF( l1p )<a} F

und somit ist die Sicherheit der oberen Konfidenzgrenze $ mindestens 1- a . Des- 0, &

halb bezeichnet man diese Konfidenzgrenze auch als konservativ im Bezug auf ihre

Sicherheit. Der Grund hierfür ist, daß die Binomial-Verteilung B(n, p) eine diskrete

Verteilung ist, deren Verteilungsfunktion F(x 1 p) in X = 0, ..., n unstetig ist und die

folglich nicht notwendig den vorgegeben Wert a - an der Stelle LF(a) - annimmt.

Abb. 1: Dichte der Verteilung von X (untere Skala) bzw. $ ( X ) (obere Skala) für ver- schiedene Werte von p und n = 100 zur Interpretation der exakten oberen und unte- ren Grenze für eine Beobachtung X. rechts: p = $ ( X ) und p = $ ( X ) aus 4.1 (9) bzw. (10) mit Wahrscheinlichkeit F(X 1 p)

0, als markierter Fläche. links: p = $ ( X ) und p = $ ( X ) aus 4.2 (3) bzw. (4) mit Wahrscheinlichkeit G(X 1 p)

U , & als markierter Fläche.

4.2 Konstruktion der exakten unteren Konfidenzgrenze

Für die Konstruktion einer unteren Konfidenzgrenze jU betrachten wir analog die

„oberen Verteilungsfunktion an der Stelle X als Funktion in p

mit den Eigenschaften

Page 41: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

4. Konfidenzgrenzen für eine Wahrscheinlichkeit 4.4.03 4 - 4

(2) G ( x 1 p ) ist streng wachsend in p für X > 0 ,

Die untere Grenze 1; ( X ) soll nun minimal unter allen Werten p gewählt werden, U , a

bei denen die Wahrscheinlichkeit ~ ( x l p ) für die Beobachtung X und gröflere Werte

noch mindestens a ist (vgl. Abb. 1). Also definieren wir

(3) jU,,(x) := Min { 0 < p < l 1 ~ ( x l p ) > a }

= M i n { ~ < p < l l p { x > x l p } > a } (exakteuntereGrenze),

d.h. 1; ( X ) < 1 ist eindeutig bestimmt durch u,a

(4) p { x > ~ l @ ' ~ , , ( ~ ) } = G(x lp U , a ( X ) ) = a bzw.

P { X < X ~ ~ ; ~ , , ( X ) } = F(X-111; U , & ( X ) ) = I-a für X > O ,

1; (0) = 0 U , a für x=O .

Die Irrtumswahrscheinlichkeit dieser unteren Konfidenzgrenze ist höchstens so groß

wie die Vorgabe a

(5) P{ P < P ~ , ~ ( x ) 1 = G ( L ~ ( Q ) I P ) 5 a wobei

LG(a) = Min { 1 = 0, ..., n + 1 1 G(1 Ip) 5 a }

und somit ist die Sicherheit der unteren Konfidenzgrenze 1; mindestens 1- a, d.h. u,a

die untere Grenze ist ebenfalls konservativ.

4.3 Konstruktion des exakten zweiseitigen Konfidenzintervalls

Wegen 0 < a < ist die untere Grenze stets kleiner als die obere, d.h. es gilt

(1) &,,(X) < & , a ( ~ ) für O a x a n .

Bestimmt man nun die untere und obere Grenze jeweils zur halben Irrtumswahr-

scheinlichkeit (an Stelle von a), so ergibt sich das zweiseitige Konfidenz-Intervall

PI I,(x] = ( @'U,+(X) 7 jo, 42(x) (exaktes zweiseitiges Intervall)

Page 42: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

4. Konfidenzgrenzen für eine Wahrscheinlichkeit 4.4.03 4 - 5

mit der (exakten) Sicherheit von mindestens 1- a, d.h. es gilt

4.4 Berechnung der exakten Grenzen

Leider läßt sich die exakte obere Grenze nur im Fall X = 0 und die untere Grenze

nur für X = n explizit angeben

11. j (n) = a . U, a

Für X < n läßt sich die obere Grenze nicht als explizite Funktion in X und a darstel-

len, sondern kann nur iterativ bestimmt oder aus Tabellen abgelesen werden. Die

obere Grenze j (X) ist die (eindeutige) Nullstelle der Funktion 0, a

und kann z.B. mit dem Newton-Verfahren oder einer („ableitungsfreien~ Intervall- X schachtelung ermittelt werden. Als Startwert bietet sich die Schätzung $(X) =, an -

sofern sie im offenen Intervall (0,l) liegt - oder man kann die asymptotische obere

Grenze aus 4.5 verwenden. Und die Änderung Ap =-H(p) / ~ ' ( p ) im Iterations-

schritt p - p + Ap ergibt sich aus der Ableitung

für X < n.

Die untere Grenze j (X) kann prinzipiell analog bestimmt werden, läßt sich aber u , a

für X > 0 wegen des Zusammenhangs ~ ( x l p ) = 1- F(x-1 lp) sogar formal auf die

Bestimmung einer oberen Grenze zurückführen:

(3) jU, &(X) = j0, I&- 1) für X > O .

Eine weitere Möglichkeit zur Bestimmung der unteren Grenze aus der oberen (oder

umgekehrt) beruht auf dem Zusammenhang

(4) WP) = F(n-xlq) mit q = ~ - p

der sich daraus ergibt, daß die Zufallsvariable Y = n - X eine B(n , q)-Verteilung hat.

Die untere Grenze für p ergibt sich dann als komplementäre Wahrscheinlichkeit

zur oberen Grenze für q, d.h.

Page 43: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

4. Konfidenzgrenzen für eine Wahrscheinlichkeit 4.4.03 4 - 6

(5) &,,(X) = 1 - U,, ,(Y) mit y = n-X

Man kann diese Konfidenzgrenzen auch aus Quantil-Tabellen für die F-Verteilung

entnehmen (vgl. Exkurs V 3.1). Zwischen der Verteilungsfunktion mkl der

Fkl-Verteilung und der B(n,p)-Verteilung besteht folgender (exakter) Zusammen-

hang (der hier nicht hergeleitet wird)

W P { B ( ~ , ~ ) ~ X } = P { F ~ ~ > U } bzw. F ( ~ I p ) = l - @ ~ ~ ( u ) mit

k = 2(x+1) , 1 = 2 ( n - X ) , u=-.P 1 k I - p

Unter Verwendung des oberen a-Quantils Fkl;, der Fkl-Verteilung (vgl. Anhang T,

Seite 8-12) erhält man folgende Darstellung der Konfidenzgrenzen

(7) 1

&,,(X) = 1- (exakte untere Grenze) für 0 < X mit

k a = -.F k = 2(n-x+l) , 1 = 2 x . 1 k l ; a '

(8) a

&,,(X) = 1- (exakte obere Grenze) für X < n mit

k a = -.F k = 2 ( X + I), 1 = 2 ( n - X ) , 1 k l ; a '

Beispiel: Erfolg einer Therapie

In der Tagespresse wird berichtet, daß bei der Anwendung einer neuen Therapie in

nur j= 12% ein Versagen beobachtet wurde, wobei die Anzahl n = 25 der Anwen-

dungen und die beobachte Zahl X = n j = 3 des Versagens nicht genannt wird. Die

exakte obere 95%-K~nfidenz~renze der Versagenswahrscheinlichkeit p ergibt sich

aus (7) mit k = 8, 1 = 44, F - 2,157 und a = 0,3922 zu (vgl. auch 4.5 Abb. 3) k1;5% -

j = 28,2 % für n = 25, j= 12%. 0

Man beachte, daß diese oberen Grenzen - bedingt durch den kleinen Stichproben-

umfang n = 25 - mehr als doppelt so groß sind, wie die beobachtete Rate j= 12%.

Wenn bei dem vierfachen Umfang n = 100 auch wieder in j= 12% Fällen ein Versa-

gen beobachtet wird, d.h. X = n j = 12, so ergibt sich k = 26, 1 = 176, Fk1;5% = 1,669 und

a = 0,2303 die erheblich geringere obere Grenze

j = 18,7 % für n = 100, j= 12%. 0

Page 44: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

4. Konfidenzgrenzen für eine Wahrscheinlichkeit 4.4.03 4 - 7

4.5 Asyrnptotische (approximative) Konfidenzgrenzen

Unter Verwendung der Normalapproximation für die Binomialverteilung B(n, p)

wollen wir jetzt sogenannte asymptotische Konfidenzgrenzen für p konstruieren,

deren Sicherheit nur approximativ gleich 1- a ist, wobei die Appproximation für

wachsendes n beliebig genau wird. Ausgangspunkt ist der Binomial-Grenzwertsatz

wobei

die Standardabweichung der B(1,p)-Verteilung als Funktion von p darstellt.

Für eine Realisierung X E (0, ... n} von X bezeichnen wir die Schätzung (relative

Häufigkeit) jetzt abkürzend mit

Unter Verwendung der Verteilungsfunktion @ von N(0,l) ergeben sich die (mit

wachsendem n besser werdenden) Approximationen der Funktionen F und G

Zur Konstruktion der asymptotischen oberen Grenze im Fall X < n wollen wir statt

der Gleichung F(x I n, p) = a jetzt die approximierte Gleichung lösen (vgl. Abb. 2)

(6) bzw. @(P - F) -

- za mit 4 ~ )

(7) 1 z = m- (1 - a) = - @-'(Cl)

a (oberes a-Quantil von N(0,l)).

Und analog wird im Fall X > 0 die untere asymptotische Grenze als Lösung der ap-

proximierten Gleichungverwendet (vgl. Abb. 2)

(8) bzw. @(P - F) - -

4 ~ ) - za

Page 45: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

4. Konfidenzgrenzen für eine Wahrscheinlichkeit 4.4.03 4 - 8

Abb. 2: Normalapproximation der Dichte von X (untere Skala) bzw. der Dichte von $ ( X ) (obere Skala) für n = 100 und verschiedene Werte von p zur Interpretation der asymptotischen oberen Grenze P ( X ) (rechts) und der unteren Grenze P ( X ) (links)

0, a U , a für eine Beobachtung X. Die markierte Fläche entspricht der nach (4) bzw. (5) ap- proximierten Wahrscheinlichkeit F(x 1 p ) (rechts) bzw. G(x l p ) (links).

Zur Lösung der Gleichungen (6) bzw. (8) betrachten wir die quadratische Funktion

2 = .[(P-P,) - D ] mit

Wir werden jetzt zeigen, daß die Nullstellen der Funktion f die gesuchten asympto-

tischen Grenzen sind. Zunächst definieren wir die Grenzen als die Nullstellen von f

Page 46: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

4. Konfidenzgrenzen für eine Wahrscheinlichkeit 4.4.03 4 - 9

(13) PO,,(x) : = Pm + C (asymptotische obere Grenze),

(14) Pu, &(X) := Pm -G (asymptotische untere Grenze).

und zeigen, daß die Grenzen die gewünschten Eigenschaften haben. Beide Grenzen

liegen im Intervall [0,1] und schachteln die beobachtete relative Häufigkeit F ein

Im Fall X = 0 bzw. X = n ist (wie bei den exakten Grenzen) die asymptotische untere

Grenze gleich 0 bzw. die obere Grenze gleich 1, und es gelten

(16) 0 = 13 U, a (0) < 13 0, a (0) < 1 ,

(17) o < P u , a (n) < P0,&(n) = I .

Und im Fall 0 < X < n gilt in (15) an keiner Stelle die Gleichheit

(18) O < P U,& (X) < F < Po,a(x) < i falls O < x < n .

Im Fall X < n ist die obere Grenze P (X) die einzige Lösung der approximierte 0, a

Gleichung (6) im Intervall (0,l). Und im Fall X > 0 ist die untere Grenze (X) die U, a

einzige Lösung der approximierte Gleichung (8) im Intervall (0,l).

Nachdem wir die asymptotischen Grenzen jetzt definiert haben, wollen wir zeigen,

daß sie approximativ die angestrebte Sicherheit 1- a haben. Aus den fundamenta-

len Äquivalenzen

(19) P,,(x) < P U X - np < z a .o(p) Jn , P < Po,a(~) U np - X < z a . D ( ~ ) Jn .

ergibt sich die Sicherheit dieser Grenzen zu

wobei die Approximationen für wachsenden Umfang n in Gleichheiten übergehen:

(21) 72-00 lim P ip<P 0, a (X)) = 1-Q, 72-00 lim P{P U,& ( X ) < p ) = 1-Q.

Man beachte, daß für ein konkretes n die Sicherheit des asymptotischen Grenze auch

geringer als 1- Q sein kann, während die exakte Grenze eine Sicherheit von minde-

Page 47: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

4. Konfidenzgrenzen für eine Wahrscheinlichkeit 4.4.03 4 - 10

stens 1- ci! garantiert. Dies ist der Grund dafür, daß die asymptotischen Grenzen

typischerweise (aber nicht notwendigerweise) enger als die entsprechenden exakten

Grenzen sind, und somit das asymptotische Intervall (von unterer bis oberer

Grenze) im Intervall der exakten Grenzen enthalten ist (vgl. Abb. 3).

relative Häufigkeit in Prozent 100 95 90 85 80 75 70 65 60 55 50

65 0 35

0 5 10 15 20 25 30 35 40 45 50 relative Häufigkeit in Prozent

relative Häufigkeit in Prozent 100 95 90 85 80 75 70 65 60 55 50

0 5 10 15 20 25 30 35 40 45 50 relative Häufigkeit in Prozent

Abb. 3: Exakte und asymptotische untere und obere Grenzen für p zur (einseitigen) Sicherheit von 95% als Funktion der beoabachteten relativen Häufigkeit 2 = x / n für n = 25 und n = 100. Für 25 50% gilt die untere und linke Skala, und für - X 2 50% gilt die obere und rechte Skala. Das Intervall zwischen unterer und oberer Grenze hat eine Sicherheit von 90%.

links: exakte Grenzen mit Ablesebeispielen für 2 = 12% und 2 = 56%. rechts: Vergleich der exakten (Punkte) mit den asymptotischen (Linie) Grenzen. Die

exakten Grenzen sind typischerweise weiter von der relativen Häufigkeit entfernt als die asymptotischen. Der Unterschied wird bei wachsenden n geringer.

Page 48: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

4. Konfidenzgrenzen für eine Wahrscheinlichkeit 4.4.03 4 - 11

Beispiel: Erfolg einer Therapie (Fortsetzung aus 4.4)

Für n = 25 und j= 12% ergeben sich die Hilfsgrößen aus (10) - (12) zu

und die asymptotische obere 95%-Konfidenzgrenze 13 für das Therapieversagen ist 0

deutlich geringer als die zugehörige exakte (und konservative) obere Grenze jo (vgl.

auch Abb. 4)

13 = 26,5 % , j = 28,2 % für n = 25, j= 12%. 0 0

Bei dem vierfachen Umfang n = 100 - auch wieder mit j= 12% - ergibt sich aus

die von der exakten Grenze nur gering abweichende asymptotische obere 95%-Konfi-

denzgrenze

13 = 18,3 % , j = 18,7 % für n = 100, j= 12%. 0 0

4.6 Grobe asyrnptotische (approximative) Konfidenzgrenzen

Wir wollen jetzt noch auf eine weitere Art asymptotische Konfidenzgrenzen für p

konstruieren. Wie zu Beginn des Kapitels erläutert können wir die B(n ,P)-verteilte

Zufallsvariable X auch als eine Summe unabhängiger B(1,p)-verteilter Zufallsvari-

ablen XI, ... Xn auffassen, und wir verwenden hier wieder die Bezeichnung X (statt + X). Für die Stichprobe X = (X1, ..., Xn) können wir jetzt wie im Abschnitt 3.2

asymptotischen Konfidenzgrenzen für den Erwartungswert ,LL = p von B(1, p) herlei-

ten (wobei wir statt ,LL jetzt p schreiben). Der Schätzer für p ist der Mittelwert

Da die Varianz von B(1,p) eine Funktion von p ist

ist es naheliegend die Varianz wie folgt zu schätzen

Page 49: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

4. Konfidenzgrenzen für eine Wahrscheinlichkeit 4.4.03 4 - 12

Diese Schätzung auf a2(p) ist konsistent, weil $(X) eine konsistente Schätzung auf p

ist. Die Schätzung ist nicht erwartungstreu, aber zumindest asymptotisch erwartung-

streu, weil sie sich von der erwartungstreuen Schätzung

nur um den Faktor (n - 1) - 1 unterscheidet n- 00

(5) &(X)) = 'C i ( x ~ - X ) ~ = 8 2 ( ~ ) .

Wie bereits in 3.2 bemerkt, gilt die dort hergeleitete Verteilungskonvergenz für je- 2 den konsistenten Schätzer von a (P), also insbesondere auch für den Schätzer

a2($(x)), d.h.

Hieraus erhält man dann (wie in 3.2) die groben asymptotischen Grenzen für p

(7) (X) := $(X) -da (X) : = $(X) + damit U , a 0, a

deren Sicherheit für n + CO gegen 1 - ci! konvergiert:

(9) 72-00 lim P{; U , a ( X ) < p ) = 1-ci! = 72-00 lim P ip<; 0, a (X)) .

Wir haben die groben Grenzen hier nur aus Gründen der Vollständigkeit erwähnt.

Sie haben gegenüber den sogenannten normalen asymptotischen Grenzen aus 4.5

mehrere Nachteile, die daraus resultieren, daß sie über die Schätzung der Varianz

a2(p) eine zusätzliche Unsicherheit mit sich bringen. Typischerweise weicht die Si-

cherheit der groben Grenzen stärker von 1- ci! ab als die der normalen Grenzen.

Außerdem können die groben Grenzen auch außerhalb des Intervalls [ O , 11 liegen

(vgl. Abb. 4), und ergeben im Fall $ = XE {O,1) wegen da = 0 keine sinnvollen Werte.

Lediglich bei sehr großem Umfang n und nicht zu extremen Werten von $ (d.h.

nicht zu dicht bei 0 oder 1) sind die groben Grenzen akzeptabel. Da sie sich dann

aber auch nur geringfügig von den normalen Grenzen unterscheiden, ist es sicherer,

stets die normalen Grenzen zu verwenden, deren Bestimmung auch nur unwesent-

lich aufwendiger ist.

Page 50: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

4. Konfidenzgrenzen für eine Wahrscheinlichkeit 4.4.03 4 - 13

relative Häufigkeit in Prozent 100 95 90 85 80 75 70 65 60 55 50

relative Häufigkeit in Prozent

relative Häufigkeit in Prozent 100 95 90 85 80 75 70 65 60 55 50

relative Häufigkeit in Prozent

Abb. 4: Grobe und asymptotische untere und obere Grenzen für p zur (einseitigen) Si- cherheit von 95% als Funktion der beoabachteten relativen Häufigkeit T = x/n für n = 25 und n = 100. Für T < 50% gilt die untere und linke Skala, und für T > 50% gilt die obere und rechte Skala. links: Die grobe untere (bzw. obere) Grenze ist für kleines (bzw. goßes) T sogar negativ (bzw. größer als 100%). rechts: Die Abweichung der groben (dünn) von den normalen (fett) Grenzen wird kleiner, je dichter P bei 50% liegt, und verringert sich bei wachsendem n.

Beispiel: Wahlumfrage

Wir betrachten eine Wahlumfrage (vgl. 0.3) und wollen Konfidenzgrenzen für den

Stimmanteil p einer interessierenden Partei bestimmen. Obwohl typischerweise nur

eine untere Konfidenzgrenze von Interesse ist, wollen wir jetzt ein zweiseitiges Kon-

fidenzintervall zur Sicherheit 1 - ci! = 95% angeben, um die Präzision der Umfrage

zu charakteriseren. Bei der konkreten Umfrage aus 0.3 war n = 1300 relativ groß

und deshalb kann man das grobe Konfidenzintervall aus (7) und (8) verwenden

- - ( Pu, a / 2 , Pu, a / 2 ) = ( P - da/2 , + da12) mit d = z .L JjqCj

4 2 J n

Aus z = 1,96 ergeben sich in Abhängigkeit von der Schätzung P folgende Band- 4 2

breiten bzw. Fehlertoleranzen (vgl. Grafik in 0.3 zur „Sonntagsfrage'?:

P = 50%: d = 2,72% bzw. = 5%: da/, = 1,18% . 4 2

Page 51: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

Konfidenzgrenzen für den Erwartungswert einer Poisson-Verteilung 4.4.03 5 - 1

5 Konfidenzgrenzen für den Erwartungswert einer Poisson-Verteilung

Es sollen jetzt Konfidenzgrenzen für den Erwartungswert einer Poisson-Verteilung

konstruiert werden. Hierbei gehen wir völlig analog zur Konstruktion der Grenzen

für eine Wahrscheinlichkeit vor. Wir beginnen mit den sogenannten exakten Gren-

zen, deren Sicherheit exakt eingehalten werden und in dem Sinne konservativ sind,

daß die vorgegebene Irrtumswahrscheinlichkeit 0 < a < 1 (bedingt durch die Unste-

tigkeit der Verteilungsfunktion für die Poisson-Verteilung) nicht voll ausgeschöpft

wird. Im Anschluß werden dann die auf der Normalapproximation der Poissonver-

teilung basierenden asymptotischen (oder approximativen) Grenzen behandelt..

Zur formalen Vereinfachung betrachten wir zunächst nur eine Pois(,~~)-verteilte Zu-

fallsvariable X mit ,LL> 0 und behandeln den Fall mit unabhängigen Wiederholungen

von X erst a m Ende dieses Kapitels.

Für eine Realisierung X E No = U U {O) von X bezeichnen wir die zugehörige Wahr-

scheinlichkeit mit

5.1 Konstruktion der exakten oberen Konfidenzgrenze

Für eine Realisierung X E No von X und wollen wir zuerst eine oberen Konfidenz-

grenze f i (X) für ,LL zur Sicherheit 1- a konstruieren. Analog zu 4.1 soll die obere o,a

Grenze das Maximum aller möglichen Werte ,LL sein, unter denen die Beobachtung X

oder kleinere Werte noch mindestens die Wahrscheinlichkeit a besitzen. Hierzu be-

trachten wir die Verteilungsfunktion von X X

(1) F(x~,LL) := ~ { X S X I I L L ) = E ~ ( 2 1 ~ ) i = O

mit der Monotonie-Eigenschaft

(2) F(x 1 ,L) ist streng fallend in ,LL ,

die sich sofort durch Differenzieren nach ,LL ergibt, weil

(3) a - F(x~,LL) U) - P ( X I , L L ) 0 für X > 0, ,LL>O a,LL

Als Grenzwert für ,LL + 0 ergibt sich

Page 52: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

Konfidenzgrenzen für den Erwartungswert einer Poisson-Verteilung 4.4.03 5 - 2

F(xl0) := lim F(x~,LL) = 1 P-0

weil

(5) 1 falls X = 0

p(xl0) := lim p(xllu> = P-0 0 falls X > 0

Und für ,LL + W erhält man

p ( x 1 ~ ) := lim p(x1p) = 0 , F(X~W) := lim F(x~,LL) = 0 . P-00 P-00

Damit definiert F(X~,LL) als Funktion in ,LL eine streng fallende, biektive Funktion

F(x 1 -): ( 0 , ~ ) - (0,l).

Für eine Realisierung X soll die obere Grenze fi (X) maximal unter allen Werten ,LL 0, a

gewählt werden, bei denen die Wahrscheinlichkeit F(X~ ,L) für die Beobachtung X

und kleinere Werte noch mindestens a ist (vgl. Abb. 1). Deshalb definieren wir

(7) fio,,(3") := Max{,LL>0 IF(xl,LL)>a}

= M ~ x { , L L > o 1 P { X < x l P } > a } (exakte obere Grenze),

d.h. fi (X) > 0 ist eindeutig bestimmt durch die Gleichung 0, a

(8) p { X < ~ l f i ~ , ~ ( x ) } = ~ ( x l f i ( x ) ) = a 0, a für 220.

Die Irrtumswahrscheinlichkeit dieser oberen oberen Konfidenzgrenze ist allerdings nur

höchstens so groß wie die Vorgabe a

(9) f i 0 , = F ( L ~ ( ~ ) I P ) a a wobei

LF(a) = Max{lEN0 I F ( l lp )<a} .

Folglich ist die Sicherheit der oberen Konfidenzgrenze fi mindestens 1- a und die 0, a

Konfidenzgrenze ist deshalb konservativ im Bezug auf ihre Sicherheit. Der Grund

hierfür ist, daß die Poisson-Verteilung Pois(p,) eine diskrete Verteilung ist, deren Ver-

teilungsfunktion F(x 1 ,L) in X E No unstetig ist und die folglich nicht notwendig den

vorgegeben Wert a - an der Stelle LF(a) - annimmt.

Page 53: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

Konfidenzgrenzen für den Erwartungswert einer Poisson-Verteilung 4.4.03 5 - 3

Abb 1: Dichte der Pois(p)-Verteilung von X für verschiedene Werte von p zur Inter- pretation der exakten oberen und unteren Grenze für eine Beobachtung X.

rechts: p = X und p = fi (X) aus 5.1 (7) (8) mit Wahrscheinlichkeit F(X 1 p ) als 0, a

markierter Fläche. links: p = x und p = f i (X) aus 5.2 (3) (4) mit Wahrscheinlichkeit ~ ( x l p ) als

U, a markierter Fläche.

5.2 Konstruktion der exakten unteren Konfidenzgrenze

Für die Konstruktion einer unteren Konfidenzgrenze fiU betrachten wir analog die

„oberen Verteilungsfunktion 00

(1) G(xlp) : = P { X > x I p } = C p ( i l p ) = I - F(X-II ,L), 2=x

für die gilt:

(2) G(x I ,L) ist streng wachsend in p für X > 0 ,

Für X > 0 ergibt sich aus den Eigenschaften von F, daß G(x1-): ( 0 , ~ ) - (0,l)

eine streng wachsende, biektive Funktion

Die untere Grenze fi (X) soll nun minimal unter allen Werten p gewählt werden, U, a

bei denen die Wahrscheinlichkeit ~ ( x l p ) für die Beobachtung X und gröflere Werte

noch mindestens ci! ist (vgl. Abb. 1). Also definieren wir

(3) fiU,,(x) := Min{p>o 1 G ( x l p ) > a )

= { p > 0 I P{x > X 1 p} > CL) (exakte untere Grenze),

Page 54: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

Konfidenzgrenzen für den Erwartungswert einer Poisson-Verteilung 4.4.03 5 - 4

d.h. f i ( X ) < 1 ist eindeutig bestimmt durch u,a

(4) p {x>~l f iu ,a (~ ) } = G(+ U , a ( X ) ) = a bzw.

P { X < X I P ~ , , ( X ) } = ~ ( x - l l f i U , a ( X ) ) = I-a für X > O ,

f i (0) =o U , a für x=O .

Die Irrtumswahrscheinlichkeit dieser unteren Konfidenzgrenze ist höchstens so groß

wie die Vorgabe a

(5) P{ P 5 fiu,a(x) 1 = G ( L ~ ( Q ) I P ) 5 wobei

LG(a) = M i n { l ~ N ~ I G ( l l p ) a a } ,

und somit ist die Sicherheit der unteren Konfidenzgrenze f i mindestens 1- a, d.h. U , a

die untere Grenze ist ebenfalls konservativ.

5.3 Konstruktion des exakten zweiseitigen Konfidenzintervalls

Wegen 0 < a < ist die untere Grenze stets kleiner als die obere, d.h. es gilt

für X > 0 .

Bestimmt man nun die untere und obere Grenze jeweils zur halben Irrtumswahr-

scheinlichkeit (an Stelle von a), so ergibt sich das zweiseitige Konfidenz-Intervall

PI I a x = ( fiu, a/2(x) 7 fio, or/2(x) (exaktes zweiseitiges Intervall)

mit der (exakten) Sicherheit von mindestens 1- a, d.h. es gilt

(3) ~ { f i ~ , ~ ~ ( X ) < P < f i ~ , ~ ~ ( X ) }

Page 55: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

Konfidenzgrenzen für den Erwartungswert einer Poisson-Verteilung 4.4.03 5 - 5

5.4 Berechnung der exakten Grenzen

Leider läßt sich die obere Grenze nur im Fall X = 0 explizit angeben:

Für X > 0 läßt sich die obere Grenze nicht als explizite Funktion in X und a darstel-

len, sondern kann nur iterativ bestimmt oder aus Tabellen abgelesen werden. Die

obere Grenze ist die (eindeutige) Nullstelle der Funktion

und kann z.B. mit dem Newton-Verfahren oder einer („ableitungsfreien~ Intervall-

schachtelung ermittelt werden. Als Startwert bietet sich die Schätzung p(x) = X an

oder man kann die asymptotische obere Grenze aus 5.5 verwenden. Und die Ände-

rung A,LL = - H(,LL) /H'(,LL) im Iterationsschritt ,LL H ,LL + A,LL erhält man aus der

Ableitung

Die untere Grenze f i (X) kann prinzipiell ebenso bestimmt werden, läßt sich aber u , a

im nicht-trivialen Fall X > 0 wegen des Zusammenhangs G(x 1 ,L) = 1 - F(x- 1 I ,L) auf

die Bestimmung einer oberen Grenze zurückführen:

(4) fiu, = fio, l -a(~ - 1) für X > O .

Man kann diese Grenzen - im nicht-trivialen Fall X > 0 - auch aus Chiquadrat-Quan-

til-Tabellen bestimmen. Bezeichnet Gm die Verteilungsfunktion der Xi-~erteilung,

so besteht folgender (exakter) Zusammenhang (der hier nicht bewiesen wird)

(5) P { P O ~ S ( , L L ) L ) ~ X } = P { ~ ~ > ~ , L L } m- bzw. F(X~,LL) = 1-G,(~,LL) mit

2 Unter Verwendung des oberen a-Quantils X m; a der Xi-~ertei lung (vgl. Anhang T,

Seite 5-7) erhält man folgende Darstellung der Konfidenzgrenzen

(6) 1 2 fio, = 5 Xmia (exakte obere Grenze) für X 2 0, m = 2 (X + I),

(7) 1 2 fiu,a(x) )= 5 x ~ ; ~ - ~ (exakte untere Grenze) für X > 0, m = 2 X .

Page 56: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

Konfidenzgrenzen für den Erwartungswert einer Poisson-Verteilung 4.4.03 5 - 6

5.5 Asyrnptotische (approximative) Konfidenzgrenzen

Unter Verwendung der Normalapproximation für die Poisson-Verteilung POZS(~)

wollen wir jetzt sogenannte asymptotische Konfidenzgrenzen für ,LL konstruieren, de-

ren Sicherheit nur approximativ gleich 1-a ist, wobei die Appproximation für

wachsendes ,LL beliebig genau wird. Ausgangspunkt ist der

Pois(P) - ,LL Poisson-Grenzwertsatz: N(0,l) für ,L+ W.

lF Unter Verwendung der Verteilungsfunktion @ von N(0,l) ergeben sich die (mit

wachsendem ,LL besser werdenden) Approximationen der Funktionen F und G

Zur Konstruktion der asymptotischen oberen Grenze wollen wir statt der Gleichung

F(xl ,L) = a jetzt die approximierte Gleichung lösen (vgl. Abb. 2)

(3) @(F) = a bzw. - Za mit P-X -

&

(4) 1 z = m- (1 - a) = - @-'(Cl)

a (oberes a-Quantil von N(0,l)).

Und analog wird - allerdings nur für X > 0 - die untere Grenze als Lösung der Glei-

chung G(x I ,L) = a approximiert durch die Lösung der Gleichung (vgl. Abb. 2)

(5) @(Y) = C)L bzw. P-X - -

& - za

Zur Lösung der Gleichungen (3) bzw. (5) betrachten wir die quadratische Funktion

(6) 2 2

f(P) = (P-X) -Pa

2 = (,L - - D mit

Page 57: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

Konfidenzgrenzen für den Erwartungswert einer Poisson-Verteilung 4.4.03 5 - 7

Abb 2: Normalapproximation der Dichte von X für verschiedene Werte von p zur Interpretation der asymptotischen oberen Grenze ,Li ( X ) (rechts) und der unteren

0, a Grenze ,Li ( X ) (links) für eine Beobachtung X. Die markierte Fläche entspricht der

U a nach (1) bzw. (1) approximierten Wahrscheinlichkeit F(x 1 (rechts) bzw. G(x 1 (links).

Wir werden jetzt zeigen, daß die Nullstellen der Funktion f die gesuchten asympto-

tischen Grenzen sind. Zunächst definieren wir die Grenzen als die Nullstellen von f

(9) P,,(x) : = P , + J D (asymptotische obere Grenze),

(10) P U , & ( X ) : = ~ , - \ / D (asymptotische untere Grenze).

und zeigen, daß die Grenzen die gewünschten Eigenschaften haben. Beide Grenzen

sind nicht-negativ und liegen jeweils unter- bzw. oberhalb der Beobachtung X :

(11) 0 5 P U , a ( X ) 5 X < P 0, a (X> für X 2 0 .

Für X = 0 ist die asymptotische untere Grenze gleich 0

(12) P U , a (0) = 0

und stimmt folglich mit der exakten unteren Grenze überein. Und im Fall X > 0 gilt

in (11) an keiner Stelle die Gleichheit

(13) 0 < P (3 < X < P,,(x) für X > 0 . U , a

Die obere Grenze ,Li ( X ) ist die einzige Lösung p > 0 der approximierte Gleichung o,a

(3). Und im Fall X > 0 ist die untere Grenze ,Li ( X ) die einzige Lösung p > 0 der ap- u,a

proximierte Gleichung (5).

Page 58: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

Konfidenzgrenzen für den Erwartungswert einer Poisson-Verteilung 4.4.03 5 - 8

Nachdem wir die asymptotischen Grenzen jetzt definiert haben, wollen wir zeigen,

daß sie approximativ die angestrebte Sicherheit 1- ci! haben. Aus den fundamentalen

Äquivalenzen

ergibt sich die Sicherheit dieser Grenzen zu

wobei die Approximationen für wachsendes ,LL in Gleichheiten übergehen:

(16) iim P{,LL<,~ (X)} = 1-Q, iim P{P (X)<,LL} = I-Q P-00 0, a P-00 U , a

Zum Vergleich der asymptotischen mit den exakten Grenzen betrachten wir die

relativen Abweichungen der asymptotischen von den exakten Grenzen

die in Abb. 3 für X = 1, ..., 100 und ci! = 1%, 5% dargestellt sind. Man erkennt einer-

seits, daß die Abweichungen typischerweise mit wachsender Beobachtung X gerin-

ger werden und andererseits, daß die Abweichungen der unteren Grenze deutlich

größer als die der oberen Grenze sind. Der gemeinsame Grund hierfür ist, daß die

Approximationen (1) und (2) für wachsendes ,LL besser werden.

Typischerweise ist die exakte obere Grenze gröJ3er als die asymptotische (und die

exakte untere kleiner als die asymptotische), weil die Irrtumswahrscheinlichkeit ci!

der exakten Grenze stets 5 ci! ist, während die asymptotische Grenze nur gegen ci!

konvergiert (und dabei auch >ci! sein kann).

Page 59: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

Konfidenzgrenzen für den Erwartungswert einer Poisson-Verteilung 4.4.03 5 - 9

0 10 20 30 40 50 60 70 80 90 100 0 10 20 30 40 50 60 70 80 90 100 beobachtete Anzahl beobachtete Anzahl

10 - Abweichung: exakt - asymptotisch 20 - Abweichung: exakt - asymptotisch

Abb 3: Die relativen Abweichungen A (X) (links) und A (X) (rechts) (in Prozent) o,a u,a

als Funktion der Beobachtung X für ci! = 5% und ci! = 1%. Man beachte, die unterschiedliche Skalierung.

9 -

+

G 8- N - g 7- C - .-

5.6 Anwendung: Asbestmessungen in Schulgebäuden

obere einseitige Grenze untere einseitige Grenze

a = 1%, 5% a = 1%, 5%

Wir betrachten die im Abschnitt 0.2 beschriebene Asbestmessung in Schulgebäu-

den, und gehen dabei davon aus, daß die Anzahl X der Asbestfasern in einem Stich-

probenvolumen V (in hinreichender Näherung) Pois(,~~)-verteilt.

m -

0 ~ ~ ~ ~ I ~ ~ ~ ~ l ~ ~ ~ ~ l ~ ~ ~ ~ I ~ ~ ~ ~ I ~ ~ ~ ~ I ~ ~ ~ ~ I ~ ~ ~ ~ I ~ ~ ~ ~ l ~ ~ ~ ~ l 0 ~ ~ ~ ~ I ~ ~ ~ ~ l ~ ~ ~ ~ l ~ ~ ~ ~ I ~ ~ ~ ~ I ~ ~ ~ ~ I ~ ~ ~ ~ I ~ ~ ~ ~ I ~ ~ ~ ~ l ~ ~ ~ ~ l

1. Raum: Bei der Messung im ersten Raum wurden X = 2 Asbestfasern in dem aus-

gewerteten Stichprobenvolumen

gezählt. Die exakten (einseitigen) 95%-Grenzen - d.h. ci! = 5% - für die erwartete As-

bestfaser-Konzentration ,LL pro Volumen V ergeben sich aus 5.4 (6) (7) mit den 2 Quantilen x4; 95% = 0,711 und Xi;5% = 12,592 zu

fiU,,%(2) = 0,355 fiO,„(2) = 6,296 .

Und die zugehörigen asymptotischen Grenzen aus 5.5 (7)-(10) erhält aus

,LL = 3,553 und G= 2,691 zu m

Page 60: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

Konfidenzgrenzen für den Erwartungswert einer Poisson-Verteilung 4.4.03 5 - 10

Und die entsprechenden Grenzen für die erwartete Konzentration X = ,LL/V pro m 3

ergeben sich hieraus (gerundet) zu

Man beachte, daß das Intervall von unterer bis oberer Grenze - das ja eine Sicher-

heit von 90% hat - mehr als eine Größenordnung umfaßt und somit noch relativ

ungenau ist. Dies liegt - wie auch das folgende Meßergebnis im 2. Raum zeigt - an

der geringen Zahl X = 2 der gezählten Fasern.

Beim Vergleich mit 0.2 Tabelle 2 ist zu beachten, daß dort die (gerundete) obere

Grenze des zweiseitigen 95%-Intervalls angegeben ist, also die mit ci! = 2,5% analog 3 (2) = 459/m bzw. AO, 2.5%

3 berechnete obere Grenze Xo, 2.5% (2) = 463/m .

2. Raum: Bei der Messung im zweiten Raum wurden X = 8 Asbestfasern in dem

ausgewerteten Stichprobenvolumen

gezählt. Und als (einseitige) 95%-Grenzen - d.h. ci! = 5% - für die erwartete Asbestfa- 3 ser-Konzentration ,LL hro Volumen V) bzw. X ( ~ r o m ) erhält man (gerundet)

Im Gegensatz zum 1. Raum ist hier die obere Grenze nur rund viermal so groß wie

die untere Grenze, weil insgesamt mehr Fasern (X = 8) gezählt wurden. Hätte man

beim 1. Raum das vierfache Volumen 4 V (statt V) ausgewertet und darin auch die

vierfache Anzahl von Fasern (also X= 8) gefunden, so ergäben sich wieder obige auf

X = 8 basierende Grenzen und entsprechend engere Grenzen für X = ,LL 1 4 V.

Beim Vergleich mit 0.2 Tabelle 3 ist zu beachten, daß dort die (gerundete) obere

Grenze des zweiseitigen 95%-Intervalls angegeben ist, also die mit ci! = 2,5% analog

berechnete obere Grenze Xo, 2.5% 3 (8) = 1029lm bzw. Xo,2.5% (2) = 1030lm 3 .

Page 61: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

Konfidenzgrenzen für den Erwartungswert einer Poisson-Verteilung 4.4.03 5 - 11

5.7 Konfidenzgrenzen bei unabhängigen Wiederholungen

Sind (statt einer) jetzt n unabhängige Pois(p)-verteilte Zufallsvariablen XI, ..., Xn ge-

geben, so wird obige Konstruktion für die Summe X := Xl + ... + X durchgeführt, + n wobei

(1) X+ - ~ o i s ( ~ ( " ) ) mit ,LL(n) = n P.

Aus den (exakten) Konfidenzgrenzen für ergeben sich nach Division durch n 1 (4 die zugehörigen (exakten) Grenzen für ,LL =, ,LL

deren Irrtumswahrscheinlichkeit höchstens ol ist

Und die approximativen Grenzen für ,LL ergeben sich ananog aus denen für zu

Für wachsenden Stichprobenumfang n + CO konvergiert die Irrtumswahrscheinlich-

keit der approximativen Grenzen jeweils gegen ol:

wobei

Iim P{,LL<P (x(~))} = o l , n-00 U,, +

die Summe der ersten n Zufallsvariablen bezeichnet.

Page 62: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

6. Konfidenzgrenzen im Normalverteilungsmodell 3.4.03 6 - 1

Konfidenzgrenzen im Normal-Verteilungsmodell

Wir betrachten jetzt wieder das Normalverteilungsmodell für die interessierende

Zufallsvariable X, d.h. wir setzen 2 (X) = ~ ( p , a ~ ) mit a2 > 0 voraus. Ausgangs-

punkt ist wieder eine Stichprobe X = (Xl, ..., Xn) mit n unabhängigen Wiederholun-

gen der Zufallsvariablen X. Nachdem wir bereits in 3.1 exakte Konfidenzgrenzen für 2 p bei bekannter Varianz a angegeben haben wollen wir jetzt auch exakte Grenzen

2 bei unbekanntem a konstruieren. Hierzu bestimmen wir zuerst die exakte Verteilung

der Varianzschätzungen aus Kapitel 2 (aus der sich dann auch exakte Konfidenz-

grenzen für die Varianz a2 ergeben). Als nächstes berechnen wir im Normalvertei-

lungsmodell die exakte Sicherheit der asymptotischen Grenzen für p aus 3.2, die dort

für eine beliebige Verteilung von X hergeleitet wurden. Da diese asymptotischen

Grenzen bei normalverteilten X die geforderte Sicherheit nicht exakt einhalten, leiten

wir entsprechende exakte Grenzen her. Diese exakten Konfidenzgrenzen für p hal-

ten auch bei beliebiger Verteilung von X die Sicherheit noch asymptotisch ein. Sie

entsprechen aber nicht genau den bisherigen asymptotischen Grenzen aus 3.2, son-

dern sind geringfügig weiter vom Mittelwert entfernt, wobei der Unterschied für

wachsenden Umfang n verschwindet.

6.1 Verteilung der Varianzschätzung

Die Verteilung des Schätzers &;(X) aus 2.1 für bekanntes p ergibt sich aus:

(1) ~ { ' c ( x ~ - ~ ) ~ } = a 2 i ~{:.&;(X)}=X: ~ Z W .

a2 2 J{&;(x)} = n . X n .

Zur Bestimmung der Verteilung des Schätzers & 2 ( ~ ) aus 2.2 für geschätztes p benö-

tigen wir ein Resultat über die Invarianz von unabhängigen N(0,l)-Verteilungen

unter orthonormalen Transformationen.

Page 63: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

6. Konfidenzgrenzen im Normalverteilungsmodell 3.4.03 6 - 2

Theorem (Orthonormale Transformation von Normalverteilungen)

Z = (Z1, ..., ZJ sei ein kktor unabhängiger identisch verteilter Zufallsvariablen 3 mit Standard-Normalverteilung 2 ( Z . ) = N(0,l). Ferner sei C eine orthonormale

2 T nxn Matrix) dd.. es ist C = C-l. Dann gilt für den transformierten Zufallsvektor

Y = C Z mit den Komponenten Y1, ..., Yn:

(a) Y1, ..., Yn sind unabhängig und identisch N(0,l)-verteilt) d.h. 2 ( Y ) = 2 ( Z ) .

2 (a, IIYII = cy;= cz2= 1 1 ~ 1 1 ~ . 2 i

Die gemeinsame Verteilung beider Schätzer fi = X und 82 =LSXX für den Erwar- n-1

2 tungswert ,LL und die Varianz a ergibt sich dann aus:

(2) fi(X) = X und 8 2 ( ~ ) = L C (X.-X)~ sind stochastisch unabhängig. n-1 i 2

(3) 4x1 = N(P, $) , - 2 2 (4) . ~ { - $ ? ( x ~ - x ) } = x ~ - ~ , bzw. ~ { 8 ~ } = * . n-1 Xn-1.

6.2 Konfidenzgrenzen für den Erwartungswert bei geschätzter Varianz im Normalverteilungsmodell

Da wir in 3.2 bereits Konfidenzgrenzen des Erwartungswerts mit der asymptoti-

sehen Sicherheit 1- ci! bei beliebiger Verteilung von X hergeleitet haben, wollen wir

jetzt die exakte Sicherheit dieser Grenzen für normalverteiltes X bestimmen. Hierbei

wird sich herausstellen, daß die exakte Sicherheit dieser Grenzen für festen Umfang

n stets kleiner als die angestrebte Sicherheit 1- ci! ist, obwohl sie für n + CO (sogar

monoton aufsteigend) gegen 1- ci! konvergiert. Als Konsequenz daraus werden wir

dann eine (mit wachsendem n geringer werdende) „Korrekturu der asymptotischen

Grenzen aus 3.2 einführen, die bei normalverteiltem X stets die exakte Sicherheit

1 - ci! haben.

Zur Berechnung der exakten Irrtumswahrscheinlichkeiten der asymptotischen

Grenzen benötigt man die exakte Verteilung der geschätzten Standardisierung des

Mittelwerts X

Page 64: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

6. Konfidenzgrenzen im Normalverteilungsmodell 3.4.03 6 - 3

Die Verteilung von T(X) ist eine (zentrale) t-Verteilung (vgl. Exkurs V 2.1)

&(X-P) mit m = n-1

m

Bezeichnet Gm die Verteilungsfunktion der tm-Verteilung, so ergibt sich die Sicher-

heit sowohl der oberen als aus der unteren asymptotischen Grenze aus 3.2 zu

(4) P{X-Z a &(X) < P ) = G m (Z a ) = P { ~ < X+za&(@).

Man kann zeigen (worauf wir hier verzichten, vgl. aber die Tabellen T 2), daß diese

exakte Sicherheit stets kleiner als die anvisierte Sicherheit 1- a ist, weil

(5) 1 (z ) < 1 - a für jedes n und 0 < a <

n a

Unter Verwendung des oberen a-Quantils t der tn-Verteilung, definiert durch n, a

(6) t n ,a :=mpl(l-a) n bzw.

P{t > t ) = a n - n ,a

0 tn;a t-Dichte mit a-Quantil

ergeben sich mit der Bandbreite

jetzt Konfidenzgrenzen zur exakten Sicherheit 1- a

-

(8) fi U , a (X) = fi(x)-Jn;& = X - J n; a (untere Grenze)

(9) fi (X) = fi(X) + J,;, = X + Jn;& (obere Grenze) 0, a

d.h. für diese Grenzen gilt

Page 65: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

6. Konfidenzgrenzen im Normalverteilungsmodell 3.4.03 6 - 4

(10) P { f i U , a ( X ) < ,L} = 1 - Q = P { p < f i 0, a ( X ) }

Die Grenzen (8) und (9) sind stets weiter vom Mittelwert X entfernt als die asymp-

totischen Grenzen aus 3.2, denn (5) ist äquivalent zu

(11) za < t 1 n; a für jedes n und 0 < a < .

Grob gesprochen sind die gegenüber 3.2 hier etwas weiteren Grenzen der Preis da-

für, daß man die unbekannte Varianz o2 geschätzt hat. Allerdings wird der Unter-

schied der Bandbreite $ zu $& für wachsendes n geringer, weil die t-Quantile t n; a '?C'!

für m+ co gegen z konvergieren (vgl. Exkurs V 2.1 und Tabellen T 2) a

(12) t n,a - Z n+oo a'

Wie in 2.1 wollen wir noch eine andere Interpretation der Konfidenzgrenzen ange-

ben und betrachten hierzu für eine Realisierung X = (xl, ..., xn) von X die Vertei-

lungsfunktion der geschätzten Standardisierung T ( X ) des Mittelwerts X an der

Stelle des beobachten Wertes T(x )

Da @ eine streng wachsende Funktion ist, läßt sich die obere Grenze f i ( X ) da- m 0, a her auch charakterisieren durch

(14) F ( ~ ( x ) I fi0,,(x)) = a bzw.

(15) fio,,(x> = Max { P E I R I F (T(X) Ip) > a ) .

Damit ist obere Grenze f i ( X ) das Maximium aller möglichen Werte P, die mit der 0, a

Beobachtung T (x ) in dem Sinn noch ,,verträglichu sind, daß die Wahrscheinlichkeit

F(T(X) 1 P ) für T(x ) oder kleinerer Werte noch mindestens a ist.

Für eine analoge Interpretation der unterer Konfidenzgrenze betrachten wir die

„obereu Verteilungsfunktion von T ( X ) an der Stelle der Beobachtung T(x )

und erhalten die Charakterisierung der unteren Grenze f i ( X ) U , a

(17) G(T(x) I f i u , a ( ~ ) ) = a bzw

Page 66: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

6. Konfidenzgrenzen im Normalverteilungsmodell 3.4.03 6 - 5

Damit ist untere Grenze f i (X) das Minimum aller möglichen Werte p,, die mit der U , a

Beobachtung T(x) in dem Sinn noch ,,verträglichu sind, daß die Wahrscheinlichkeit

F(T(X) I ,L) für T(x) oder gröflerer Werte noch mindestens U ist.

6.3 Asymptotische Konfidenzgrenzen für den Erwartungswert bei geschätzter Varianz in beliebigen Verteilungsmodellen

Im beliebigen Verteilungsmodell - d.h. X ist nicht notwendig normalverteilt - haben

die für das Normalverteilungsmodell in 6.2 konstruierten Konfidenzgrenzen für den

Erwartungswert zumindest noch die asymptotische Sicherheit 1-U, d.h. es gelten:

Der Beweis basiert auf der Konvergenz der t-Quantile gegen die Normalvertei-

lungs-Quantile (vgl. Exkurs Q2 oder V2.1):

(4) l i m t n n;a =Z a

Bei praktischen Anwendungen stellt sich nun die Frage, ob man die Konfidenzgren-

Zen aus 3.2 mit der approximativen Sicherheit oder die etwas „weiterenu Grenzen

aus 6.2 verwenden soll, die bei normalverteiltem X die Sicherheit exakt einhalten.

Ein pragmatisches Vorgehen ist, bei stetig verteiltem X vorsichtshalber die weiteren

Grenzen aus 6.2 zu benutzen (die ja bei der Normalverteilung die Sicherheit exakt

einhalten), und bei diskretem X die Grenzen aus 3.2 zu bestimmen, wobei der Unter-

schied beider Methoden bei wachsendem n verschwindet. Für konkrete Verteilungs-

modelle (z.B. Binomial- oder Poisson-Verteilung) sollte man immer die hierfür spe-

ziell konstruierten (exakten oder asymptotischen) Grenzen (vgl. Kapitel 4 bzw. 5)

verwenden.

Page 67: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

6. Konfidenzgrenzen im Normalverteilungsmodell 3.4.03 6 - 6

Bleigehalt im Apfelsaft: Zur Bestimmung des Bleigehalts X [in mg/l] einer Apfel-

saftsorte werden von einer Verbraucherorganisation n = 25 zufällig ausgewählte

Flaschen analysiert. Dabei ergab sich ein Mittelwert von F = 0,520 als Schätzung

des erwarteten Bleigehalts ,LL = E(X), und 8 = 0,471 als Schätzung der Standardab-

weichung von X. Als obere Konfidenzgrenze für ,LL zur Sicherheit von 99% ergibt

sich mit t2,, = 2,492

dl%, 25 = 0,235 fio, 1% = 0,755 .

6.4 Konfidenzgrenzen für die Varianz

Aus der Kenntnis der Verteilung der Varianzschätzung können wir jetzt Konfidenz-

grenzen für die Varianz o2 herleiten, wobei wir uns auf den realistischen Fall be-

schränken, daß auch der Erwartungswert ,LL unbekannt ist und geschätzt wird. Be- 2 zeichnet X 2 das obere a-Quantil der xm-Verteilung, so ergibt sich eine einseitige

m; a untere bzw. obere Konfidenzgrenze 82 bzw 82 für die Varianz o2 zur Sicherheit

U , a o,a 1-a wie folgt:

- 2 - 2 m . 0 m . 0 - (1) 82 - - , 8 2 - -

2 2 mit m = n - 1 ,

U , a 0,a Xm; a Xm; 1-a

d.h. es gelten

Ein zweiseitiges Konfidenzintervall zur Sicherheit 1 - a ergibt sich wieder aus obigen

Grenzen mit statt a, d.h. es gilt

Page 68: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

6. Konfidenzgrenzen im Normalverteilungsmodell 3.4.03 6 - 7

Bleigehalt im Apfelsaft (Fortsetzung): Aus der Stichprobe (vgl. 6.3) vom Umfang

n = 25 mit 8 = 0,471 [mg/l] soll ein zweiseitiges 95%-Konfidenzintervall für die Va-

rianz a2 bzw. Standardabweichung a des Bleigehalts X [in mg/l] einer Apfelsaft- 2 sorte konstruiert werden. Aus 5 = 2,5% und den Quantilen x ~ ~ , a12 = 39,364 und

2 2 1 -42

= 12,401 ergeben sich die Grenzen für a bzw. a

bzw.

Page 69: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

7. Schätzen einer Verteilungsfunktion 4.4.03 7- 1

7. Schätzen einer Verteilungsfunktion

Nachdem wir für eine interessierende Zufallsvariable X bisher ihren Erwartungs-

wert ,LL = E(X) und ihre Varianz o2 = Var(X) geschätzt haben, wollen wir jetzt die

gesamte Verteilung 2(X) schätzen. Die Verteilung von X ist eindeutig bestimmt

durch die Verteilungsfunktion F: IR+ [ O , 11 von X, definiert durch

(1) F ( a ) = P { X < a } für ~ E I R (Verteilungsfunktion von X ).

Somit ist die Verteilungsfunktion F zu schätzen, d.h. die Wahrscheinlichkeiten

P { X < a} sind für jedes ~ E I R zu schätzen. Für die folgenden Betrachtungen wer-

den weder der Erwartungswert noch die Varianz von X benötigt und wir wollen

deshalb deren Existenz in diesem Kapitel nicht voraussetzen.

Ausgangspunkt der statistischen Betrachtungen ist wieder eine Stichprobe

X = (Xl, ... , X n ) mit n unabhängigen Wiederholungen von X, sowie eine konkrete

Realisierung X = (X , X ) von X. 1' ... n

7.1 Die empirische Verteilung der Stichprobe

Die empirische Verteilung der Stichprobe X = (xl, .., xn) E IRn ist definiert als diskretes

Wahrscheinlichkeitsmaß P auf der Menge Z := { xi 1 1 < i < n} aller (verschiedenen)

Komponenten von X mit der Zähldichte

n 1 1 (1) ~ ( z ) = P ( z I x ) : = # { l < i < n l x ~ = z } = - C I n . { z } (X.) 2 f Ü r z ~ Z ,

2=1

wobei IA die Indikatorfunktion für das Ereignis A. bezeichnet. Folglich ist ~ ( z ) die

relative Häufigkeit des Wertes z in der Stichprobe (xl, ..., X,). Allgemeiner ist für

jede Borel-Menge B E IB

die relative Häufigkeit des Ereignisses B in der Stichprobe. Die Verteilungsfunktion

F = F (- 1 X) von P heißt die empirische Verteilungsfunktion der Stichprobe X und ist für

a E IR gegeben durch:

Page 70: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

7. Schätzen einer Verteilungsfunktion 4.4.03 7- 2

Die Stichprobe X soll jetzt nach Werten ihrer Komponenten aufsteigend geordnet

werden. Hierfür betrachten wir eine (nicht notwendig eindeutig bestimmte) Permu-

tation 4 auf der Indexmenge (1, ..., n) mit der Eigenschaft

(4) X < X < . . . < X 1) - 2 ) - - (4 wobei (i) = $(i) .

Die empirische Verteilungsfunktion hängt dann nur noch über die geordnete Stich-

probe (x(~) , x ( ~ ) , ..., x ( ~ ) ) von X ab:

(5> ~ ( a ) = ~ ( a l x ) = I n ~ a x { l < i < n l X G) < U ) - für a E IR.

Mit dem Zufallsvektor X = (Xl, ..., Xn) anstelle der Realisierung X = (xl, ..., X ) er- n

hält man die i-te Order-Statistik X von X mit (i)

(6) X < X < . . . < X 1) - 2 ) - - (4 sowie den empirischen Prozefl F(- '(-X) = F als eine Zufallsfunktion auf IR.

7.2 Eigenschaften der empirischen Verteilung

Für jede Borel-Menge B E B ist die Zufallsvariable ~ B I X ) eine erwartungstreue

Schätzung auf die Wahrscheinlichkeit P{XE B), d.h.

Diese Schätzung ist (stark) konsistent und asymptotisch normalverteilt, d.h. für

n + w und P(~)(B) = P(B >(B ~ ( ~ 1 ) gelten:

(2) P f s P(~)(B) - P{XE B) (starke Konsistenz),

falls

Page 71: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

7. Schätzen einer Verteilungsfunktion 4.4.03

Insbesondere ist für jedes Argument ~ E I R ist die Zufallsvariable $'(alX) =

j>((-w,a] I x ) eine erwartungstreue Schätzung auf die Wahrscheinlichkeit F(a) =

P{X<a), d.h.

Und diese Schätzung ist (stark) konsistent und asymptotisch normalverteilt, d.h.

für n + w und (U) = P(a I gelten:

(5) P f s F ("1 (U) - F(a) (starke Konsistenz),

falls

Die starke Konsistenz gilt sogar gleichmäJ32g in a E IR, d.h. es gilt das :

Theorem von Glivenko-Cantelli:

Für n + w gilt: P f s sup 1 ~ ( ~ ) ( a ) - F(a) I - 0 . agIR

Beweis: vgl. z.B. Gänssler-Stute (1977), Seite 145.

Am Rande sei bemerkt, daß sich die asymptotische Normalität in einem geeigneten

Funktionenraum auch für den gesamten stochastischen Prozeß formulieren

läßt in folgender Form (vgl. z.B. Billingsley (1968), Seite 141 ff.)

wobei Wo(F) eine Transformation der Brownschen Brücke Wo ist.

Page 72: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

7. Schätzen einer Verteilungsfunktion 4.4.03 7 - 4

7.3 Anwendung: Verteilung des Lebensalters

Lebensalter der 1974 gestorbenen 367 251 Frauen empirische Dichte (Histogramm)

0 10 20 30 40 50 60 70 80 90 100 Lebensalter [Jahre]

Lebensalter der 1974 gestorbenen 360 243 Männer empirische Dichte (Histogramm)

Lebensalter der 1974 gestorbenen 367 251 Frauen empirische Verteilungsfunktion

90

0 10 20 30 40 50 60 70 80 90 100 Lebensalter [Jahre]

Lebensalter der 1974 gestorbenen 360 243 Männer empirische Verteilungsfunktion

90

0 10 20 30 40 50 60 70 80 90 100 0 10 20 30 40 50 60 70 80 90 100 Lebensalter [Jahre] Lebensalter [Jahre]

Abb. 1: Verteilung des Lebensalters aller 1974 in der Bundesrepublik Deutschland gestorbenen Frauen (oben) und Männer (unten) links: empirische Dichte (Histogramm), rechts : empirische Verteilungsfunktion.

Page 73: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

7. Schätzen einer Verteilungsfunktion 4.4.03

Die Verteilung des Lebensalters X eines Verstorbenen ist z.B. für Lebensversicherer

von großem Interesse. Die Verteilung von X hängt von mehreren Faktoren ab (z.B.

Geschlecht , Nationalität bzw. ethnische Herkunft) und unterliegt auch zeitlichen

Einflüssen (z.B. Kriege und Naturkatastrophen). Folglich ist die Schätzung einer Le-

bensalterverteilung nur für spezifizierte Teilpopulationen sinnvoll.

Im Statistischen Jahrbuch der Bundesrepublik Deutschland ist das Lebensalter (Genau-

igkeit: Jahr) der in einem Kalenderjahr Gestorbenen für das männliche und wei-

bliche Geschlecht getrennt angegeben. Abb. 1 zeigt die Zähldichte P (empirische

Dichte) in Histogramm-Darstellung (Wahrscheinlichkeiten werden durch Flächen

dargestellt) und die empirische Verteilungsfunkrion F jeweils für die 1974 Gestorbe-

nen getrennt nach Geschlecht.

Page 74: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

8. Schätzen von Quantilen und Momenten 5.4.03 8 - 1

8. Schätzen von Quantilen und Momenten

Nachdem wir im letzten Kapitel die Verteilungsfunktion F einer Zufallsvariablen X

geschätzt haben, sind wir nun in der Lage beliebige Parameter T(F) E IR der Vertei-

lungsfunktion - und somit der Verteilung von X - zu schätzen. Wir wollen jetzt ei-

nige solcher Parameter T(F) näher untersuchen, und zwar einerseits den Median so-

wie beliebige Quantile von X bzw. F (vgl. Exkurs Q Quantile von Verteilungen) und

andererseits beliebige Momente von X (darunter den schon betrachteten Erwar-

tungswert und die Varianz), deren Existenz vor Gebrauch jeweils vorausgesetzt

wird.

Ausgangspunkt der statistischen Betrachtungen ist wieder eine Stichprobe

X = (Xl, ... ,Xn) mit n unabhängigen Wiederholungen von X, sowie eine konkrete

Realisierung X = (X , xn) von X. Da sich die Verteilungsfunktion F einer Zufalls- 1' ...

variablen durch die empirische Verteilungsfunktion F schätzen läßt, ist es nahelie-

gend, einen unbekannten Parameter T(F) durch den zugehörigen Wert 7 = T($) für

die empirische Verteilungsfunktion zu schätzen. Aufgrund der guten Eigenschaften

der Schätzung F (vgl. Kapitel 7) wird die Schätzung 7 zumindest dann gute Eigen-

schaften haben, wenn T(F) „hinreichend glatt" von F abhängt (was hier nicht weiter

präzisiert werden soll)..

8.1 Schätzen des Medians

Der Median f von X ist definiert als ein 50%-Quantil von X bzw. F (vgl. Exkurs Q

Quantile von Verteilungen), d.h. es gilt

(I) p{x<f}a+ap{xaf} bzw. F((-) a + 5 F(f) .

(Median f von X bzw. F)

Wir setzen hier voraus, daß der Median f von X eindeutig bestimmt ist, d.h. es gibt

genau ein f mit (1).

Als Schätzung des Medians f aus der Stichprobe X soll jetzt der Median (genauer:

ein Median) der empirischen Verteilungsfunktion F = 4- 1 X) definiert werden.

Page 75: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

8. Schätzen von Quantilen und Momenten 5.4.03 8 - 2

Für ungeraden Stichprobenumfang n hat F genau einen Median, den Stichproben-

Median [(X), gegeben durch

^ - 1 1 (2) [(X) = F (- 1 X) = F (- 1 X) = X

2 - 2 (4 Stichpro ben-Median für

ungerades n = 2 I% - 1

wobei F bzw. F die links- bzw. rechts-stetige Inverse von F ist (vgl. Exkurs Q 2),

und X die i-te Order-Statistik von X ist. (i)

Für geraden Stichprobenumfang n gibt es keinen eindeutig bestimmten Median von

F, und der Stichproben-Median [=[(X) wird definiert als Mittelwert des kleinsten

und größten Medians von F

(3) [ = i ( ~ ( k ) + ~ ( k + ~ ) ) Stichproben-Median für gerades n = 2 5

mit ~ ( ~ 1 = F - (i I X) , - 1

- F- 1 X)

Für wachsenden Stichprobenumfang n+cc ist der Stichproben-Median

[(n):= [(x(~)) eine konsistente Schätzung des Medians E, d.h. es gilt

(4> [ P, n+ 00 f ur .. n+cc (Konsistenz).

Beispiele:

Der Median E von N(,LL,D~) stimmt mit dem Erwartungswert ,LL überein. Fol-

glich kann man ,LL sowohl durch den Mittelwert als auch durch den Median [ der Stichprobe schätzen.

Der Median E der tl-Verteilung ist 0, und allgemeiner ist der Median E der

Cauchy-Verteilung C(a ,ß) = a + Ptl der Lageparamter E = a. Folglich kann

a durch den Median [ der Stichprobe geschätzt werden (man beachte, daß hier

kein Erwartungswert existiert!).

Page 76: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

8. Schätzen von Quantilen und Momenten 26.11.03 8 - 3

8.2 Schätzen eines Quantils

Anstelle des Medians wollen wir jetzt für ein beliebiges 0 < p < 1 das p-Quantil von

X bzw. F schätzen (vgl. Exkurs Q Quantile von Verteilungen), wobei wir wieder die

Eindeutigkeit des p-Quantils voraussetzen, d.h. es gelte P

(1) Ep = F ( P ) = (P-Quantil von F).

Als Schätzung von aus der Stichprobe X soll ein p-Quantil der empirischen Ver- PA

teilungsfunktion F = F(- 1 X) gewählt werden, welches aber im allgemeinen nicht ein-

deutig bestimmt ist, weil

PI mit k = M i n { i ~ N I p < ; } ,

(3> C ( p I x ) mit m = ~ i n { i ~ N I p < ; } > k ,

wobei X die i-te Order-Statistik von X = (X ..., xn) ist. Als Schätzung von E wollen (4 1' P wir jetzt irgendein p-Quantil [ von F zulassen, d.h. für [ soll nur gelten

P P

(4) F - ( P I x ) < $ ( x ) < F - ( P I x ) (Schätzung des p-Quantils)

Für wachsenden Stichprobenumfang n i CO ist das Stichproben-p-Quantil [(n) = P

[ eine konsistente Schätzung des p-Quantils E , d.h. P P

(Konsistenz).

Wenn die Verteilung von X eine stetige Dichte f besitzt so ist die Quantilschätzung

sogar asymptotisch normalverteilt, sofern f(f ) > 0 ist. Genauer gilt das Resultat P

(was hier nicht bewiesen wird, vgl. z.B. Dudewicz und Mishra 1988, Theorem 7.4.21):

Theorem (Asymptotische Normalbuerteilung der Quantilschätzung):

Wenn X eine stetige Dichte f = F' besitzt und f(f ) > 0 ist, so gilt P

(6) &([F)- E,) -i N(O,I) mit 2 P . [ ~ - P I

D (E,) = 4 E P n+ 00 f(EPI2

Page 77: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

8. Schätzen von Quantilen und Momenten 5.4.03 8 - 4

Abb. 1: Dichten und Verteilungsfunktion (mit Median) diskreter Verteilungen (Sprungstellen sind durch einen Punkt besonders gekennzeichnet)

Dichte von B(n,p) für n=5, p=0,4

Dichte der Einpunktverteilung Dirac(a) Verteilungsfunktion der Einpunktverteilung Dirac(a) 1,o-

0,5 -

1,o-

0,5

a a

Page 78: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

8. Schätzen von Quantilen und Momenten 5.4.03 8 - 5

Abb. 2: Dichten und Verteilungsfunktion (mit Median) stetiger Verteilungen

Dichte der stetigen Gleichverteilung SG(a,b)

Dichte der Exponentialverteilung mit Erwartungswert Exponential-Verteilungsfunktion mit Erwartungswert 1,o-

0,5

T I I I I

Page 79: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

8. Schätzen von Quantilen und Momenten 5.4.03 8 - 6

8.3 Schätzen von Momenten

Für SE IN ist das k-te Moment von F bzw. X definiert durch

(1) P;(F) = P;(X) = E(xk) (k-tes Moment von X).

Es wird aus einer Stichprobe X = (xl, ..., xn) geschätzt durch

(empirisches k-tes Moment)

Der zugehörige Schätzer p ; (~ ( - I X)) = I C X ~ ist erwartungstreu und (stark) konsi- n 2

stent. Insbesondere ergibt sich für k = 1 als Schätzung des Erwartungswerts

(3) P = E(Xi) = P;(F)

der bereits in Kapitel 1 betrachtete Mittelwert der Stichprobe.

(4) fi=p;(F(- I X)) = X .

Das k-te zentrale Moment von F bzw. Xi ist

k (5) pk(F) = pk(X) = E{ (X - P) 1 (k-tes zentrales Moment von X).

wobei speziell

Als Schätzung von pk(F) wird das zugehörige zentrale Moment der empirischen

Verteilungsfunktion verwendet

(empirisches k-tes zentrales Moment).

Mit der binomischen Formel lassen sich (bei vorgegebenem Erwartungswert p) die

zentralen Momente pk durch die nicht-zentralen Momenten p; darstellen und um-

gekehrt:

Page 80: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

8. Schätzen von Quantilen und Momenten 5.4.03 8 - 7

Mit (6) ergeben sich z.B. das 2. und 3. zentrale Moment nach (8) zu

Speziell ergibt sich mit den Schätzungen f i = F und F anstelle von ,LL und F der ent-

sprechende Zusammenhang der empirischen Momente

Insbesondere ist der Schätzer P~($'(- I X)) = C(X.- X)k des k-ten zentralen Mo- n ,

ments nach (12) eine stetige Funktion aller (nicht-zentralen) Momenten-Schätzer

,LL' (fl- 1 X)) für j = O , ..., k (inclusive des Mittelwerts X). Aus der Konsistenz der k-j (nicht-zentralen) Momente-Schätzer ergibt sich daher auch die Konsistenz der zen-

tralen Momente-Schätzer.

Allerdings ist der Schätzer P~(F(- I X)) im allgemeinen nicht erwartungstreu, denn

z.B. für 5 = 2 ist das zweite zentrale Moment die Varianz

- 2 Und deren Schätzung ,LL~($'(- I X)) = C(Xi-X) unterscheidet sich von der er- 2

wartungstreuen Varianzschätzung 82 aus 2.2 (1) um den Faktor n/(n-1) und ist da-

her nicht erwartungstreu.

Page 81: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

Parametrische Modelle und Exponential-Familien 26.7.02 9 - 1

9. Parametrische Modelle und Exponential-Familien

Unser Ausgungspunkt ist jetzt eine Stichprobe in Form eines beliebigen n-

dimensionalen Zufallsvektors X = (X1, ..., X,) : ( O , d , P ) + (IRn, BR), dessen Kom-

ponenten X . - im Gegensatz zu den bisherigen Betrachtungen - im allgemeinen we- 2

der stochastisch unabhängig noch identisch verteilt sein sollen.

9.1 Parametrische Verteilungsmodelle

Das Wahrscheinlichkeitsmaß P soll jetzt durch ein Modell so eingeschränkt wer-

den, daß es in einer vorgegeben Klasse P von Wahrscheinlichkeitsmaßen auf (0, d ) liegen soll. Die Klasse P soll hierbei durch einen S-dimensionalen Parameter

S B = (Q1, ..., Qs) E IRs mit Werten in einem Parameterraum B C IR parametrisiert sein

S Wir wollen weiter voraussetzen, daß der Parameterraum B C R sowohl offen als

auch konvex ist (d.h mit je zwei Punkten Bl und B2 aus B liegt auch ihre Verbin-

dungsstrecke {t Bl + (1- t) B2 I 0 < t < 1) noch ganz in B). Im Spezialfall S = 1 bedeu-

tet dies, daß B C IR stets ein offenes Intervall ist.

Obwohl der Parameter B in den meisten Anwendungen durch P, eindeutig be-

stimmt sein wird, wollen wir dies nicht explizit fordern, d.h. es ist auch P, =P,, für

B s B ' zugelassen.

Die Gültigkeit des parametrischen Modells P bedeutet dann

(2) PE P bzw. P=P, f ü r e i n B ~ B .

Die Verteilung L ( X ) = PX-l wird durch das parametrische Modell ebenfalls einge-

schränkt auf Verteilungen der Form L,(X) = P,x-', d.h. es gilt

Da man sich in der Statistik primär für die Verteilung von X (und weniger für den

zugrunde liegenden Wahrscheinlichkeitsraum ( O , d , P ) interessiert) wird ein para-

metrisches Modell meist durch die zugehörige Verteilungsklasse {L,(X) I BEB}

- anstelle der Klasse P - spezifiziert.

Page 82: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

Parametrische Modelle und Exponential-Familien 26.7.02 9 - 2

Ein parametrisches Verteilungsmodell wird meist durch eine parametrisierte Fami-

lie von Dichten fe = f(- 18) : IRn + IR spezifiziert. Für jedes B E 0 ist hierbei fe eine

Dichte der Verteilung Le(X) bzgl. eines von B unabhängigen a-endlichen Maßes u

auf (IRn,IBn), und es gilt

(4) P o { X E B ) = Sfgdv für jedes BEB^ und B E 0. B

Die wichtigsten Spezialfälle sind der stetige Fall (d.h. X ist stetig verteilt), bei dem

U = An das Lebesguemafl ist, und der diskrete Fall (d.h. X ist diskret verteilt), bei dem

u das abzählende Mafl ist. Man beachte, daß die Verteilung Le(X) stets auf den Trä-

ger { fe > 0) C IRn konzentriert ist.

Schreibweise: Alle von der Verteilung Le(X) abhängigen Größen, wie z.B. der Er-

wartungswert einer Funktion g :IRn+ IR von X werden in der Regel (aber nicht

immer) auch mit dem Parameter B indiziert, also z.B.

Spezialfall: Identische Wiederholungen

Ein besonders einfache Situation liegt vor, wenn die Komponenten Xi der Stich-

probe X unabhängige Wiederholungen einer Zufallsvariablen X sind. Dann ist die

Verteilung von X das n-fache Produktmaß der Verteilung von X

Die folgenden - bisher schon betrachteten - parametrischen Verteilungsmodelle für

X liefern daher auch ein entsprechendes parametrisches Modell für L(X)

Normal-Verteilungsmodell : L ( X ) E { N ( , L L , ~ ~ ) I ,LL , a E IR, a > 0) 2 Falls ,LL und a unbekannt sind, so ist B = (,L, a ) der unbekannte Parameter mit

0 = IRx ( 0 , ~ ) . 2 2 Wird a bzw. ,LL als bekannt vorausgesetzt, so ist 8 = p bzw. 8 = a .

Page 83: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

Parametrische Modelle und Exponential-Familien 26.7.02 9 - 3

Gamma-Verteilungsmodell: 2 ( X ) E {Gam (a,ß) I a ,PE IR, a, ß> 0)

Falls a und ß unbekannt sind, so ist 8 = (a,ß) der unbekannte Parameter mit

B = ( 0 , ~ ) X ( 0 , ~ ) . Falls a oder ß als bekannt vorausgesetzt werden, so ist I9 der

jeweils andere noch unbekannte Parameter. Für a = l beispielsweise ist

Gam(a,ß) = E x p o ( ~ ) eine Exponentialverteilung mit Erwartungswert ,LL = ß.

Binomial-Verteilungsmodell: 2 ( X ) E { B(1 ,P) I 0 < p < 1) Hier ist I9 = p der unbekannte Parameter und B = (0, l ) .

Poisson-Verteilungsmodell : 2 (X) E { P o ~ s ( ~ ) I ,LL > 0)

Hier ist I9 = ,LL der unbekannte Parameter und B = ( 0 , ~ )

Wenn - wie in den vier obigen Verteilungensmodellen - die Verteilung von X durch

eine parametrisierte Dichte fX(- 18) :IR +IR (bzgl. des Lebesgue- bzw. des abzäh-

lenden Maßes) spezifiziert ist, so ergibt sich die zugehörige Dichte von X (bzgl. des

entsprechenden n-fachen Produktmaßes) zu

(7) f9(x) = n f ~ x ~ ~ e ) für alle X = ( X 1' ..., X n ) E IRn i= l

9.2 Parametrische Exponential-Familien

Die wichtigen Verteilunsklassen für stetige Verteilungen (Normal- und Gammaver-

teilung) und für diskrete Verteilungen (Binomial- und Poisson-Verteilung) haben wir

bisher nur einzeln untersucht. Wir wollen jetzt einen Rahmen schaffen, in dem sich

diese (und andere) Verteilungsklassen gemeinsam behandeln lassen.

Hierzu gehen wir davon aus, daß die Verteilung Jg (X) einen von B E B unabhängi-

gen Träger Tr E I B ~ hat, d.h.

(I> P9{Xc Tr) = 1 für jedes 8 E B,

und daß für jedes B E B die U-Dichte fg von Jg (X) auf dem Träger Tr folgende Ex-

ponentialdarstellung besitzt

(2) f 9 ( ~ ) = S(X I 8) = ~ X P { a(e) Tb(x) + (6) + d (X) 1 S

= '"P { C aJe) bs(x) + C (6) + d (X) 1 für X E Tr. s =l

Page 84: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

Parametrische Modelle und Exponential-Familien 26.7.02 9 - 4

S Hierbei sind a = (al, ..., a ) : B i R und C : B i R vorgebene Funktionen des Pa- s S rameters, und b = (bl, ..., bs) : T r i R und d : T r i R sind meßbare Funktionen

auf dem Träger. Eine Dichte-Familie dieser Form (2) heißt eine n-dimensionale S-pa-

rametrige Exponential-Familie. Man beachte, daß die Funktionen a, b, c und d durch

(2) nicht eindeutig bestimmt sind. Entscheidend ist bei der Exponentialfamilie die

additive Zerlegung der log-Dichte

T bei dem der gemeinsame Einfluß von 8 und X über das Produkt a(8) b(x) „ge-

trennt" wird.

Die Eigenschaft, eine Exponentialfamilie zu sein, ist offenbar nicht von der speziel-

len Parametrisierung abhängig, denn bei einer Umparametrisierung X = g(8) bzw.

B = g-'(X) mittels einer bijektive Abbildung g : B 1 1 1 des Parameterraums B in ei- S nen Parameterraum AC R , sind nur die Parameterfunktionen a und c zu ersetzen

durch a o g-l und c o g-':

Eine weitere Eigenschaft der Exponentialfamilie ist die Invarianz gegenüber einer

umkehrbaren meßbaren Transformation G: T r i Tr' E Bn, für die auch die Um-

kehrfunktion G-' meßbar ist. Der transformierte Zufallsvektor X ' := G(X) hat

dann die Dichte fgo G-' bzgl. des Bildmaßes UG-' von u unter G, und diese Dich-

ten bilden wieder eine Exponentialfamilie mit den Funktionen b o G-' und d o G-'

anstelle von b und d.

Der Einfachheit halber wollen wir von Anfang an folgende Forderungen an die Pa-

rameterfunktionen a und c stellen

(FI) Die Funktionen a und c sind zweimal stetig differenzierbar.

(F2) Das Bild 9 := a [B] C IRS von a ist offen und konvex, und die-

Umkehrfunktion a p 1 : 9 i B existiert und ist stetig.

Page 85: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

Parametrische Modelle und Exponential-Familien 26.7.02 9 - 5

Die Funktion a liefert daher eine Umparametrisierung

(6) $ = a ( e ) E 9 ~ Z W . e = ap'($) E O,

und 4 wird auch als der kanonische Parameter bezeichnet. UnterVerwendung des ka-

nonischen Parameters läßt sich die Dichte (2) in der Form schreiben

(7) f$(x) =f (x I4) = e x ~ { 4 ~ b ( x ) - h ( 4 ) + d ( x ) } mit X E Tr,

wobei die Funktion h : 9. IR definiert ist durch

(8) h(4) : = - c(a- '(4)) für 4 E 9.

Hierbei ist h(4) bzw. c(8) ist nur eine Normierungskonstante, die sich daraus ergibt,

daß das Integral der Dichte über dem Träger stets 1 sein muß.

Die Funktion h wird auch als Kumulanten-Funktion bezeichnet, weil sie (bis auf ad-

ditive Konstanten) der Kumulanten-erzeugenden Funktion Ky des S-dimensionalen

Zufallsvektor Y = b(X) entspricht:

Der Erwartungswert und die SxS-Covarianzmatrix von Y ergeben sich daher aus

den Ableitungen von h im Punkt 4

(10) E (Y) = ~ h ( $ ) ~ = V h ( $ ) ii

für 4 E 9, bzw.

a E (Y = h(4)

ii s für s = 1, ..., S ,

(11) Cov (Y)=D2h($) ii

für 4 E 9, bzw.

cov (Yr,Ys) = ii

für r , s = l , ..., S .

Wir wollen noch eine weitere Forderung an die Funktion h stellen

(F3) D2 h(4) ist positiv-definit für jedes 4 E 9.

Diese Bedingung läßt sich wegen (9) auch äquivalent als eine Forderung an den S-

dimensionalen Zufallsvektor Y formulieren:

Page 86: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

Parametrische Modelle und Exponential-Familien 26.7.02 9 - 6

(F3)' Für jedes t E IRs mit t t 0 und jedes 4 E P ist die Verteilung 2 (tTy) T ii

der Linearkombination t Y = tlYl + ... + tsYs keine Einpunkt- ,7.

I Verteilung, d.h. es gilt Var ( t " ~ ) > 0 . ii I Insbesondere sind die Komponenten von Y (P -fast sicher) linear unabhängig. ii

9.3 Binomial-Verteilung

Für festes n E IN sei X eine Zufallsvariable mit Binomialverteilung B(n,p). Dann

hat X den von p unabhängigen Träger Tr = { O , l , ..., n) und die Zähldichte von X

lautet

(1) fP(4 = ( Z ) P"(~-P)~-" für X E Tr.

Unter Verwendung der bijektiven Logit-Transformation logit : (0,l) + IR (vgl. Abb. 1)

mit

(2) P iogit(p) = log (-) = log(p) - log(1- P) für ~ < p < l ,

1-P

(3) e Y - -

1 logit-l(y) = - für y E IR ,

1 + eY i + e c Y

ergibt sich die Darstellung der log-Dichte

(4) log fp(x) = logit(p) . X + n log (1 - p) + log ( Z ) = a(p) X + ~ ( p ) + d(x) für X E Tr

Für festes n bildet daher die Klasse { B(n I 0 < p < 1) der Binomialverteilungen

eine (eindimensionale) einparametrige Exponentialfamilie mit dem Parameter

19 = p E 0 = (0,1), wobei die Funktion b die Identität ist. Der kanonische Parameter

ist $ = a(p) = logit(p) mit !P = IR als Parameterraum, und die log-Dichte läßt sich

daher auch schreiben als

für X E Tr,

mit der Kumulanten-Funktion

Page 87: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

Parametrische Modelle und Exponential-Familien 26.7.02 9 - 7

(6) h($)=nlog( l+eG) für $ E IR

Die Kumulanten-erzeugende Funktion KX der Zufallsvariablen X (die hier mit

Y = b(X) übereinstimmt) lautet nach 9.2 (9) daher

(7) KX(t) = h(t + $1 - h(d) für t E IR.

Die Kumulanten von X ergeben sich daher als Ableitungen von h im Punkt $

und insbesondere ist

(9) EG(X) = r¿,(X) = hl($) = n p

Var (X) = K ~ ( X ) = hl1($) = n p ( l - ~ ) G

mit p = logitP1($) .

Man beachte, daß die Forderungen (FI), (F2) und (F3) hier erfüllt sind.

Y Logit-Skala

Abb. 1: Die Logit-Funktion und Konstruktion einer Logit-Skala (rechte Horizontale) durch „orthogonale Reflektion" der unteren Achse an der Funktion

Page 88: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

Parametrische Modelle und Exponential-Familien 26.7.02 9 - 8

9.4 Poisson-Verteilung

X sei eine Zufallsvariable mit Poissonverteilung Pois(p). Dann hat X den von p

unabhängigen Träger Tr = No = U u{O) und die Zähldichte von X lautet

(1) 1 X -F

f,(~) = ,P für X E Tr,

d.h. die log-Dichte besitzt die Darstellung

(2) log fp(x) = log(p) . X - p - log (X!)

= a(p) . X + ~ ( p ) + +(X) für X E Tr

Folglich bildet die Klasse {Pois(p) I p > 0) der Poissonverteilungen eine (eindimen-

sionale) einparametrige Exponentialfamilie mit dem Parameter 19 = p E E = (0, CO),

wobei die Funktion b die Identität ist. Der kanonische Parameter ist der log-Erwar-

tungswert + = a(p) = log(p) mit !P = IR als Parameterraum, und die log-Dichte läßt

sich daher auch schreiben als

(3> 1% f&) -)= + X - h(+) )+ d(x) für X E Tr,

mit der Exponentialfunktion als Kumulanten-Funktion, d.h. h = exp. Die Kumulan-

ten-erzeugende Funktion KX der Zufallsvariablen X (die hier mit Y = b(X) überein-

stimmt) lautet nach 9.2 (9) daher

(4) KX(t) = exp(t + + ) - ~xP(+) für t E IR.

Die Kumulanten von X sind die Ableitungen von h = exp im Punkt +, und stimmen

somit alle überein

und insbesondere ist

(6) p = exp(+) = E i1, (X) = Var+(X) .

Man beachte, daß die Forderungen (FI), (F2) und (F3) hier erfüllt sind.

Page 89: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

Parametrische Modelle und Exponential-Familien 26.7.02 9 - 9

9.5 Normal-Verteilung

X sei eine Zufallsvariable mit Normalverteilung ~ ( p , a ~ ) . Dann hat X den von p

und a2 unabhängigen Träger Tr = IR und die Lebesgue-Dichte von X lautet

d.h. die log-Dichte besitzt die Darstellung

2 2 Folglich bildet die Klasse {N(p,a ) 1 p E IR, a > 0) der Normalverteilungen eine

(eindimensionale) zweiparametrige Exponentialfamilie mit dem Parameter 2 2 8 = ( p , a ) E E = IRx (O,a?) , wobei bl(x) = X und b2(x) = X ist. Der kanonische Pa-

rameter 1/> = $2) ist gegeben durch

2 P 2 1 (3) d l = a l ( p , ~ ) = - 7 $2 = a2(p,g ) = - - bzw.

02 202

$1 p = - - 2 1 D = - -

W 2 ' W 2

mit dem Parameterraum !P = IR X (-W, 0). Die Bedingungen (FI), (F2) und (F3)'

sind wieder erfüllt. Wir untersuchen jetzt noch die Fälle, bei denen einer der beiden 2 Parameterkomponenten a oder p als bekannt vorausgesetzt sind.

Fall 1: Die Varianz a" ist bekannt.

Dann ist der Parameter 8 = p E E = IR eindimensional und wegen

(4) l o g f ( x I ~ ) = -2 2 -2 1 2 -2 p . x a - ( 0 +log(211a2)) - ? . X 0

2

2 bildet die Klasse {N(p,a ) I PER) der Normalverteilungen bei fester Varianz a 2

eine (eindimensionale) einparametrige Exponentialfamilie mit dem Parameter -2 p E IR, wobei b(x) = x a ist. Der kanonische Parameter ist hier $ = a(p) = p wieder

Page 90: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

Parametrische Modelle und Exponential-Familien 26.7.02 9 - 10

der Erwartungswert. Die Wahl der Funktionen a und b ist nicht zwingend, man -2 kann z.B. auch a(p) = p a und b(x) = X wählen, was wir hier aber nicht tun wollen.

Die Kumulantenfunktion h : IR + IR ist dann wegen Si = p gegeben durch

(5) 2 h(p) = - ~ ( p ) = + (p2ap2 + log (2110 ) ) .

2 Mit 9.2 (9) erhält man die Kumulanten-erzeugende Funktion von Y = b(X) = C X

(6) 2 Ky(t) = ( + t 2 + t p ) a - ,

2 und hieraus ergibt sich die Kumulanten-erzeugende Funktion von X = a Y zu

(7) 2 1 2 2 KX(t) = Ky(a t) = 5 t a + t p .

Fall 2: Der Erwartungswert p ist bekannt.

2 Dann ist der Parameter 19 = a E O = ( 0 , ~ ) eindimensional und wegen

(8) log f(xla2) = 1 -2 . -- 2 2 2 (1-4 - I l o g 2 (2110 )

= a(a2) b(x) + c(a2)

2 bildet die Klasse { ~ ( p , a ~ ) I a > 0) der Normalverteilungen bei festem Erwar-

tungswert p eine (eindimensionale) einparametrige Exponentialfamilie mit dem Pa- 2 rameter a > 0, wobei b(x) = (X- p) ist. Der kanonische Parameter ist hier

Page 91: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

Parametrische Modelle und Exponential-Familien 26.7.02 9 - 11

9.6 Gamma-Verteilung

X sei eine Zufallsvariable mit Gammaverteilung Gam(a,ß). Dann hat X den von a

und ß unabhängigen Träger Tr = ( 0 , ~ ) und die Lebesgue-Dichte von X lautet

(1) f(xI.,ß) = ß - " x " - ' e ~ ~ ( - " I ß ) Ir(a) für x > 0 .

d.h. die log-Dichte besitzt die Darstellung

Folglich bildet die Klasse {Gam(a,ß) I a,ß> 0 ) der Gammaverteilungen eine (ein-

dimensionale) zweiparametrige Exponentialfamilie mit dem Parameter

B = (a , ß) E O = (o,w)~, wobei bl(x) = log(x) und b2(x) = X ist. Der kanonische Para-

meter $ = ($', $2) ist gegeben durch

1 (3) = al(a,ß) = ? $2 = a2(a,ß) = - - ß

bzw.

1 a = $, , ß = - -

$2

mit dem Parameterraum !P = (0, W) X (-W, 0). Die Bedingungen (FI), (F2) und

(F3)' sind wieder erfüllt. Wir untersuchen jetzt noch die Fälle, bei denen einer der

beiden Parameterkomponenten ß oder a als bekannt vorausgesetzt sind.

Fall 1: Der Skalenparameter ß ist bekannt.

Dann ist der Parameter 19 = a E O = (0, W) eindimensional und wegen

(4) logf(xIa) = a .10g(x) - (a log(ß) + log r(a)) - (P- ' X + log(x))

- - a . b(x) + ~ ( 4 + 4x1

bildet die Klasse {Gam(a,ß) I a> 0) der Gammaverteilungen bei festem Skalen-

parameter ß eine (eindimensionale) einparametrige Exponentialfamilie mit dem

Formparameter a > 0, wobei a die Identität und b(x) = log(x) ist. Der kanonische

Parameter ist daher $=a, und die Kumulantenfunktion h lautet

Page 92: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

Parametrische Modelle und Exponential-Familien 26.7.02 9 - 12

Die Kumulanten-erzeugende Funktion Ky der Zufallsvariablen Y = log(X) lautet

nach 9.2 (9)

(6) Ky(t) = h( t+a) - h(a) für t >-a,

und die Kumulanten von Y ergeben sich als Ableitungen von h im Punkt a

(7) K r (Y) = hlr)(a) für ~ E N .

Insbesondere ist

(8) EJY) = K,(Y) = hl(a) = log(ß) + (log q ( a ) ,

Vara(Y) = K ~ ( Y ) = hl'(a) = (logT)"(a) .

Fall 2: Der Formparameter a ist bekannt.

Dann ist der Parameter 19 = ß E O = (0 ,W) eindimensional und wegen

bildet die Klasse {Gam(a,ß) I ß> 0) der Gammaverteilungen bei festem Formpa-

rameter a eine (eindimensionale) einparametrige Exponentialfamilie mit dem Ska-

lenparameter ß > 0, wobei die Funktion b die Identität ist.

9.7 Cauchy-Verteilung

X sei eine Zufallsvariable mit Cauchy-Verteilung C(a,ß) . Dann hat X den von a

und ß unabhängigen Träger Tr = IR und die Lebesgue-Dichte von X lautet

d.h. die log-Dichte besitzt die Darstellung

(2) log f (X I a,ß) = - log (P 2+ (X- a12) + log (P . <I) .

Folglich bildet die Klasse C(a,ß) der Cauchy-Verteilungen keine zweiparametrige

Exponentialfamilie mit dem Parameter (a,ß) E IRx ( 0 , ~ ) . Auch wenn einer der

beiden Parameter ß bzw. a festgehalten wird, so liegt keine eindimensionale Expo-

nentialfamilie bzgl. des anderen Parameter a~ IR bzw. ß > 0 vor.

Page 93: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

10. Maximum-Likelihood Schätzung 26.7.02 10- 1

10. Maximum-Likelihood Schätzung von Parametern

Für die bisher geschätzten Verteilungsparameter ( E r ~ a r t u n ~ s w e r t , Varianz, Quan-

tile) haben wir - unter Berücksichtigung der inhaltlichen Bedeutung dieser Parame-

ter - intuitiv plausible Schätzer angeben können und deren Eigenschaften dann un-

tersucht. Wir wollen jetzt eine universelle Methode zum Schätzen von Parametern

näher betrachten: die Maximum-Likelihood-Schätzung.

Unser Ausgangspunkt ist - wie im letzten Kapitel 9 - eine Stichprobe in Form eines

beliebigen n-dimensionalen Zufallsvektors X = (X1, ..., X,) : ( O , d , P ) + (IRn,lBn),

dessen Komponenten Xi im allgemeinen weder stochastisch unabhängig noch iden-

tisch verteilt sein sollen. Weiter sei ein parametrisches Verteilungsmodell für 2 ( X )

durch eine parametrisierte Familie von Dichten fg = f(- 18) : IRn + IR spezifiziert,

d.h. für jedes B E B ist fB eine Dichte der Verteilung J B ( X ) bzgl. eines von B unab- S hängigen a-endlichen Maßes U auf (IRn,lBn). Der Parameterraum O C IR sei wieder

offen und konvex.

10.1 Likelihood und Schätzung

Für eine Realisierung X E IRn von X kann man die Dichte fg(x) = f(x 18) an der

Stelle X als Funktion des Parameters B betrachten und erhält so die Likelihood-

Funktion L = L (- 1 X): O + IR für X, definiert durch

Als Maximum-Likelihood Schätzung (kurz: ML-Schätzung) für die Realisierung X be-

zeichnet man jede Maximalstelle der Likelihoodfunktion, d.h. jedes 4 E O mit

Dies ist äquivalent dazu, daß 4 eine Maximalstelle der log-Likelihoodfunktion log L

ist, d.h.

(3) log L (4 1 X ) = Max log L (B 1 X ) . B € @

Page 94: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

10. Maximum-Likelihood Schätzung 26.7.02 10- 2

Man beachte, daß logL (BI X ) nur dann endlich ist, wenn fg(x) > 0 gilt, d.h. wenn X

im Träger Trg von fg liegt, wobei

(4) Srg := { X 1 fg(x) > 0 ) (Träger von fg ).

Obwohl weder die Existenz noch die Eindeutigkeit der ML-Schätzung im allgemeinen

gesichert ist, kann man die eindeutige Existenz der ML-Schätzung in vielen wichti-

gen Situationen nachweisen. Wenn es mindestens eine ML-Schätzung für X gibt, so

bezeichnet d(x) stets eine solche ML-Schätzung. Dadurch ist implizit eine ML-

Schätzfunktion 4-1 auf einer Teilmange des IRn definiert, die jeder Realisierung X

eine ML-Schätzung zuordnet, falls mindestens eine solche existiert.

Ersetzt man die Realisierung X durch den Zufallsvektor X, so ergibt sich die Zu-

fallsvariable L(B I X ) = fg(X), die man als Likelihood-Variable bezeichnet. Und falls

die ML-Schätzfunktion 4 meßbar ist (was unter geeigneten Bedingungen stets der

Fall ist), so ist 4 (X) ein S-dimensionaler Zufallsvektor, den man als ML-Schätzer be-

zeichnet.

Bes t immung der ML-Schätzer d u r c h Differentiation

Wenn die Likelihood-Funktion log L = log L (- I X ) auf dem offenen Parameterraum

O cIRS endlich und %mal stetig differenzierbar (bzgl. B) ist, so lassen sich die Maxi-

malstellen 4 von logL und somit die ML-Schätzungen für die Realisierung X durch

Differentiation bestimmen. Die erste Ableitung D log L(B) von log L im Punkt B ist

der S-dimensionale Zeilenvektor, d.h. die I x S Matrix

und die zweite Ableitung log L(B) von log L im Punkt B ist die S x S Matrix

Da O offen ist, ist jede Maximalstelle BE O von logL auch ein lokales Maximum und

somit notwendigerweise ein kritischer Punkt von log L, d.h. eine Lösung der S-dimen-

sionalen (im allgemeinen nicht-linearen) Likelihood-Gleichung

Page 95: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

10. Maximum-Likelihood Schätzung 13.11.03 10- 3

Damit ist die Bestimmung einer ML-Schätzung zunächst auf die Lösung der Likeli-

hood-Gleichung zurückgeführt, deren Lösungen sich im allgemeinen nur iterativ

(z.B. mit dem Newton-Verfahren) bestimmen lassen.

Ein hinreichendes Kriterium dafür, daß eine Lösung B E O der Likelihood-Gleichung

auch ein lolcales Maximum ist, lautet

(7) D2 log ~ ( 8 ) ist negativ-definit, d.h. - D2 log ~ ( 8 ) ist positiv-definit.

Falls D210gL(B) sogar negativ-definit für alle B E O ist, so ist die log-Likelihood-

funktion logL auf O streng konkav. In diesem Fall besitzt die Likelihood-Gleichung

höchstens eine Lösung, und 8 ist genau dann eine ML-Schätzung, wenn sie die Likeli-

hood-Gleichung löst.

Invar ianz der ML-Schätzung bei Umparamet r i s i e rung

Wir betrachten eine Umparametrisierung, d.h. eine bijektive Abbildung g:O+A S des Parameterraums O in einen Parameterraum AC IR . Den mit g umtransfor-

mierten Parameter B bezeichnen wir mit X = g(B), d.h. es ist B = g-l(X). Verwendet

man nun den Parameter X E A anstelle von B E 0, und betrachtet die Likelihood-

funktion ¿(X) = L ( ~ - ~ ( X ) ) = L(B) als eine Funktion in X, so gilt die folgende

Invarianz der ML-Schätzung bei Umparametrisierung: 1 E A ist genau -1 ^ .

dann eine ML-Schätzung von X , d.h. eine Maximalstelle von ¿, wenn 8 = g (X) ezne

ML-Schätzung von B = g-l(X), d.h eine Maximalstelle von L, ist.

10.2 Maximum-Likelihood Schätzung in Exponential-Familien

Wir betrachten jetzt wieder die Exponential-Familie aus 9.2, bei der für jedes B E O

die log-Dichte auf dem - von B unabhängigen - Träger Tr gegeben ist durch

(1) T

logfg(x) = logf(x 18) = b(x) a(B) + c(B) + d(x) für X E Tr.

Das log-Likelihood als Funktion des kanonischen Parameters 4 = a(8) lautet

Page 96: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

10. Maximum-Likelihood Schätzung 26.7.02 10 - 4

und die ersten beiden Ableitungen nach $ ergeben sich zu

(3> DlogL($Ix) = b(xlT-Dh($) ,

Wegen der Forderung (F3) ist die log-Likelihood Funktion logL(- I X) streng konkav

auf dem kanonischen Parameterraum P. Folglich gibt es zur Realisierung X höch-

stens eine ML-Schätzung, und ?i< = ?i<(x) E P ist genau dann eine solche, wenn sie die

Likelihood-Gleichung löst, d.h. wenn gilt

(5) D ~ O ~ L ( ? ~ < ( X ) ~ X ) = b ( ~ ) ~ - ~ h ( ? i < ( ~ ) ) = o bzw.

Ed(x)(b(X)) = b(x) .

Die ML-Schätzfunktion ?i<(-) ist hierdurch auf einer Teilmenge des Trägers Tr irn-

plizit definiert.

Die ML-Schätzung 8 für den ursprünglichen Parameter 8 ergibt sich sofort aus

(6) 8 = apl(?i<) bzw. ?i< = a(8) ,

d.h. 8 = $X) E B ist implizit definiert durch

(7) b(x) T - D h (a(8(x)) ) = o bzw. E ~ ( ~ ) ( ~ ( x ) ) = b(x) .

Für die praktische Bestimmung des ML-Schätzer ist es unerheblich, ob man 8 di-

rekt als Lösung von (7) berechnet, oder erst ?i< als Lösung von (5) und anschließend

8 durch (6) bestimmt. Der theoretische Vorzug des kanonischen Parameters $

gegenüber dem ursprünglichen Parameter 8 liegt vor allem darin, daß das log-Like-

lihood logL($ I X) bzgl. $ streng konkav ist, was die Eindeutigkeit des ML-Schätzers

und seine Charakterisierung als Lösung der Likelihood-Gleichung zur Folge hat. Man

beachte, daß das log-Likelihood logL(8 I X) als Funktion in 8 im allgemeinen nicht

mehr streng konkav ist.

Page 97: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

10. Maximum-Likelihood Schätzung 26.7.02 10- 5

10.3 Schätzung im Binomial-Verteilungsmodell

Im Binomial-Verteilungsmodell sind alle Komponenten X1, ..., X stochastisch

unabhängig und identisch binomialverteilt wie X

(1) B X i ) = B(l, P) für i = I, ..., n.

Die Dichte von X an der Stelle einer Realisierung X = (xl, ..., xn) E Tr = {0, 1In ist n

(2) f (X) = n px"(i - = pX+(l-p) mit X = C X.. n-X+

P i= l + i 2

und die log-Dichte als Funktion des kanonischen Parameters $ = logit(p) ist

Hieraus ergibt sich das log-Likelihood

(4) [($I = 1% L($ I X) = $ X + - n h($)

mit der Funktion (vgl. 9.3 für n = 1)

(5) h($) = log (1 + eG) für $ E IR

Aus der Ableitung

ergibt sich die ML-Schätzung 4 = &X) als Lösung von

(7) hl(d) = $ X +' Nach 9.3 (9) - mit n = 1 - ist hl($) = p und somit ergibt sich die zugehörige ML-

Schätzung von p gerade die beobachtete relative Häufigkeit

(8) 1 I; =$(X) = - X n +'

Man beachte, daß die Dichte (2) nur von der Realierung X der binomialverteilten + Summe X = C Xi abhängt. Geht man statt vom Vektor X gleich von der Summe

+ i X+ aus mit

(9) ax+) = ~ ( n , P),

so unterscheidet sich die Dichte (2) von der Dichte der B(n,p)-Verteilung nur um

den Faktor ( n ). Da dieser Faktor nicht vom Parameter p abhängt, stimmt die

ML-Schätzung von p für Realisierung X von X mit obiger ML-Schätzung (8) von + +

Page 98: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

10. Maximum-Likelihood Schätzung 26.7.02 10- 6

p überein. Folglich ist es für die ML-Schätzung von p unerheblich, ob man vom Vek-

tor X mit unabhängigen und identisch verteilten Komponenten ausgeht oder gleich

die binomialverteilte Summme X betrachtet. + Ausgehend von .d(X ) = B(n,p) ergibt sich auch direkt aus der Charakterisierung + der ML-Schätzung 10.2 (7) in Exponentialfamilien im hier vorliegenden Spezialfall

(mit b als Identität) in Übereinstimmung mit (8):

>Cx+ 1 = bzw. n $ ( X + ) = X+ +

10.4 Schätzung im Poisson-Verteilungsmodell

Im Poisson-Verteilungsmodell sind alle Komponenten X I , ..., Xn stochastisch unab-

hängig und identisch Poisson wie X

(1) .d(X.) 2 = Pois(p) für i = 1, ..., n.

Die Dichte- bzw. Likelihood-Funktion von X an der Stelle einer Realisierung

X = ( X ..., xn) E Tr =W: ist 1'

(2) f&x) = L(P I X ) n

x . - F - p,x+e-nF/, xi! = n p Z e / x i ! - mit X = C X.. i=l 2

+ i 2

Die Dichte hängt nur über die Summe X von der Realisierung X ab. Betrachten + wir nun direkt die Poisson-verteilte Summe

(3) B X + ) = Po~s(,LL+) mit ,LL+=n,LL,

so unterscheidet sich die Dichte- bzw. Likelihood-Funktion von X an der Stelle X + + (4) f,(x+) = L(P+ I X+) = P+ eCF+ / X+!

= L ( , L L ~ X ) .nx+.(x+!)-l. ,x.! 2

i von (2) nur um eine von ,LL unabhängige Konstante. Folglich ergibt sich folgender

Zusammenhang zwischen der ML-Schätzung fi(x) für die Realisierung X von X und

der ML-Schätzung f i ( X ) für die Realisierung X von X . + + + +' (5) n fi(x) = fi+(x+) bzw. fik) Y i fi+(x+

Page 99: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

10. Maximum-Likelihood Schätzung 26.7.02 10- 7

Ausgehend von X ergibt sich aus der Charakterisierung der ML-Schätzung 10.2 + (7) in Exponentialfamilien im hier vorliegenden Spezialfall (mit b als Identität)

(6) Eb+(x +) = bzw. f i + (X + ) = X +' Als ML-Schätzung des Erwartungswertes ,LL = E(X) ergibt sich somit der Mittelwert

der Stichprobe X

10.5 Schätzung in einparametrigen Exponential-Familien bei unabhängigen Wiederholungen

Wir wollen jetzt die obigen Betrachtungen aus dem Binomial- und Poisson-Vertei-

lungsmodell auf beliebige einparametrige Exponentialfamilien verallgemeinern.

Hierbei gehen wir davon aus, daß die Komponenten Xi des n-dimensionalen Zu-

fallsvektors X = (Xl, ..., Xn) unabhängige Wiederholungen einer eindimensionalen Zu-

fallsvariablen X sind. Weiter setzen wir voraus, daß die Verteilung von X aus einer

Exponential-Familie mit eindimensionalen Parameter B E O C IR stammt, wobei O

ein offenes Intervall ist. Auf dem Träger Tr E IB von X hat die Dichte f, von X daher

die Form

(1) f,(x) = exp{a(Q).b(x) + +c(Q) + d ( 4 ) für X E Tr.

Dann hat X den Träger ( T T ) ~ E IBn und die Dichte gg von X lautet

(2) g, (X) = exp { a(Q) . b+(x) + n +c (B) + d+ (X) 1 für X E ( ~ r ) ~ ,

wobei die Funktionen b und d auf ( ~ r ) ~ definiert sind durch + + (3) b+(xl, ..., xn) := C 2 b(xJ , d+(xl, ..., xn) := C 2 d(xJ .

Folglich bildet die Dichtefamilie {g, 1 B E O ) für X eine n-dimensionale einparame-

trige Exponentialfamile. Man beachte, daß beide Dichte-Familien (1) und (2) densel-

ben kanonischen Parameter Si = a(8) haben.

Unter Verwendung des kanonischen Parameters Si = a(8) E !P C IR hat die log-Dichte

log f von X auf dem Träger Tr E IB von X die Form i1,

(4) logfG(x) )= $.b(x)-h(d) + d(x) für X E Tr.

Page 100: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

10. Maximum-Likelihood Schätzung 26.7.02 10- 8

mit der Kumulanten-Funktion h($) = -c(apl($)). Die Kumulanten-erzeugende

Funktion K y der Zufallvariablen Y = b(X) ist

und die Kumulanten von Y ergeben sich als Ableitungen von h im Punkt $

(6) K ~ ( Y ) = h(r) ($1 für ~ E N ,

Insbesondere ist

(7) = hl($) , Var i1, (Y) = h"($) .

Die geforderte Voraussetzung (F3) reduziert sich für eine einparametrige Exponen-

tialfamilie zu

hl'($)>O für alle $ E !F.

Folglich ist die Ableitung h': !F+ IR eine streng monoton wachsende Funktion auf

dem offenen Intervall !F, und ihr Bild A := hl[*] C IR ist wieder eine offenes Inter-

vall. Die auf ihr Bild eingeschränkte Funktion h': *+ A ist bijektiv und definiert

eine weitere Umparametrisierung

[SI A = hl($) = h1(a(19)) E A bzw. 19 = (h' o U)-'(X) E O.

Bestimmung der ML-Schätzung

Das log-Likelihood (als Zufallsvariable) lautet nun

(9) log L ($ I X ) = $ . C b(X .) - n h($) + C d(X .) 2 2

mit den Ableitungen

(10) D log L ($ I X ) = C b(X.) - n hl($) , 2

(11) log L($ I X ) = - nhl'($) .

Nach (F3)1 ist log L($ I X ) streng konkav bzgl. $, und falls es eine Maximalstelle

4 E ly gibt, SO ist diese eindeutig bestimmt als Lösung der Normalengleichung

(NG) DlogL($IX) = 0 i1,

(Normalengleichung für $).

Die Umparametrisierung X = h'(4) ist dann die eindeutige Lösung von

Page 101: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

10. Maximum-Likelihood Schätzung 26.7.02 10- 9

(NG)A n ( Y - X ) = 0 (N~rmalengleichun~ für X),

wobei Y = (Y1, ..., Y,) der Zufallsvektor mit den unabhängigen Wiederholungen

Y. := b(X.) von Y ist mit Y als sein Mittelwert. Die Lösung der Normalengleichung 2 2

(NG)A lautet

und ist genau die ML-Schätzung für X, wenn sie im zulässigen Parameterbereich A

liegt, d.h. wenn Y E A gilt. Wenn dies der Fall ist, dann ergibt sich der zugehörige

ML-Schätzer 4 bzw. 8 für bzw. 8 aus

(13) X = h1(4) = h1(a(8)) bzw.

4 = (hl)yl(X) , 8 = (hloa)-l(X)

Der Vorteil der Umparametrisierung (8) liegt darin, daß der neue Parameter gerade

der Erwartungswert E(Y) = X von Y = b(X) ist, und sein ML-Schätzer X = Y explizit

angegeben werden kann.

Eigenschaften des ML-Schätzers

Aus den Eigenschaften des Mittelwerts als Schätzung eines Erwartungswerts (vgl.

Kapitel 1) wollen wir jetzt analoge Eigenschaften der Schätzer 8 und 4 herleiten.

Die beiden wichtigsten finiten Eigenschaften von X

(14) E ~ ( X ) = X (er~artun~streu)

(15) varA(X) = VarA(Y) (Varianz-Reduktion)

lassen sich jedoch nicht im allgemeinen nicht auf 8 oder 4 übertragen, da 8 und 4 im allgemeinen nicht-lineare Funktionen von sind.

Bei der Formulierung der asymptotischen Eigenschaften für n+cc verwenden wir

wieder den Stichprobenumfang n als zusätzlichen Index. Der Mittelwert V(,) ist

eine (stark) konsistente Schätzung für X, d.h. es gilt

Page 102: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

10. Maximum-Likelihood Schätzung 26.7.02 10 - 10

(16) PA{ lim ~ ( ~ 1 = X } = 1 bzw. n

Y ("1 - X PA-fast sicher n+ 00

(starke Konsistenz).

Da A offen ist, ergibt sich hieraus

pA{ E A für fast alle n E W } = 1

und somit die starke asymtotische Existenz des ML-Schätzers

(17) PA { L(- I hat eine Maximalstelle (n) für fast alle n E W } = 1.

(starke asymptotische Existenz).

Man beachte, daß die Existenz des ML-Schätzers nicht von der gewählten Parame-

trisierung abhängt, d.h. (17) ist äquivalent zu

(17) ' Po { L(- I ) hat eine Maximalstelle B ( ~ ) für fast alle n E W } = 1.

Damit E A zumindest formal immer definiert ist, auch wenn der ML-Schätzer

nicht existiert (weil A) soll jetzt A ( ~ ) : T T ~ + A eine beliebige Zufallsvariable

sein, sodaß A(~)(x) der ML-Schätzer zur Realisierung X ist, falls ein solcher existiert.

Damit ist eine stark konsistente Schätzfolge für X

(I8) X(") n+ 00 X PA-fast sicher (starke Konsistenz für X),

-1 ^(n) und die zugehörige Folge B ( ~ ) = (h'oa) (X ) ist stark konsistent für I9

(19) 8 n+ 00 Po-fast sicher (starke Konsistenz für 8).

Eine weitere zentrale asymptotische Eigenschaft der ML-Schätzfolge ist ihre

asymptotische Normalverteilung:

2 2 (20) J ~ ( x ( ~ ) - x ) - N ( o , ~ ~ ) mit o =VarA(Y). n+ 00

Da die Rückparametrisierung I9 = (h' o a)-l(X) eine dzfferenzierbare Transformation

ist, ergibt sich die asymptotische Normalverteilung der ML-Schätzfolge B ( ~ ) aus (20)

mit der stochastischen Taylorformel (Delta-Methode, vgl. Exkurs KV 14 ) zu

Page 103: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

10. Maximum-Likelihood Schätzung 26.7.02 10 - 11

mit der sogenannten Fisher-Information der Einzelbeobachtung X bzgl. B

(22) I(B) : = Vare{De log f(X I B) } (Fisher-Information von X),

wobei Dg die Ableitung nach B bezeichnet. Es ergibt sich hier

Beispiel: Gamma-Verteilung

Die Gammaverteilung Gam(a,ß) mit festem Skalenparamter ß ist bzgl. des Form-

parameters B = a eine einparametrige Exponentialfamilie. Die transformierte Zu-

fallsvariable Y = b(X) = log X hat hier den Erwartungswert

(4 A = E a (Y) = hl(a) = log(ß) + T1(a)/T(a) .

Der ML-Schätzer oi ist zwar durch h'(&) = A eindeutig bestimmt, aber seine kon-

krete Berechnung aus A =Y erfordert ein Iterationsverfahren, da sich die Inverse

von h' nicht explizit angeben läßt.

Da a hier die Identität ist, ergibt sich die Fisher-Information zu

(ii) I(a) = hl'(a) = (log T)"(a) .

Page 104: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

10. Maximum-Likelihood Schätzung 26.7.02 10 - 12

Charakteristika einiger Verteilungen aus der eindimensionalen

Exponential-Familie mit Parameter 8

Je @I N(Q, a2) Pois(I9 ) B(1,Q) Gam(ci! , 8) a2 bekannt ci! bekannt

Träger Tr IR No { O J > ( 0 ,m)

8 € @ 8EIR Q E ( o , ~ ) 8 ~ ( 0 , 1 ) I ~ E ( 0 , ~ )

$ = a(I9) E G? QEIR log(I9) E IR 1 logit(8)EIR - - E ( - m , ~ ) I9

19 = apl($) $ ~xP($) (1 + ~xP(- $1)- -- 1 $

A = E e ( Y ) ~ A a219 E IR WO,^) 8 ~ ( 0 , 1 ) CXQE ( 0 , ~ )

hl'($) = Vare (Y) 0 -2 I9 Q(1-I9)

a'(e> 1 8-I (I9 (1 - I9))-l Q - ~

I(Q 1 -2 0 8-I (I9 (1 - I9))-l ci! Q - ~

Page 105: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

11. Asymptotische Eigenschaften des ML-Schätzers 27.7.02 11- 1

11. Asymptotische Eigenschaften des ML-Schätzers

Im letzten Abschnitt haben wir die folgenden drei zentralen asymptotischen Eigen-

schaften des Maximum-Likelihood Schätzers

asymptotische Existenz

Konsistenz

asymptotische Normalverteilung

für unabhängige Widerholungen einer Zufallsvariablen X hergeleitet, falls die Ver-

teilung von X aus einer einparametrigen Exponential-Familie stammt. Wir wollen

diese Resultate jetzt auf beliebige parametrische Dichte-Modelle (mit gewissen Zu-

satzbedingungen) verallgemeinern. Da es uns dabei mehr um die prinzipiellen Ideen

und weniger um größtmögliche Allgemeinheit geht, beschränken wir uns hier auf

einen eindimensionalen Parameter (obwohl sich die Herleitungen relativ leicht ins

Mehrdimensionale übertragen lassen) und bevorzugen übersichtliche Zusatzvoraus-

setzungen anstelle komplizierterer Minimalvoraussetzungen.

Ausgangspunkt ist eine n-dimensionale Stichprobe X = x ( ~ ) = (Xl, ..., Xn), deren

Komponenten Xi unabhängige Wiederholungen einer eindimensionalen Zufallsvari-

ablen X sind. Für die Verteilung von X setzen wir das parametrische Dichte-Modell

mit dem eindimensionalen Parameter Q E O voraus. Da O ein offenes Intervall ist,

wollen wir hier der Einfachheit halber O = IR voraussetzen, was sich durch eine

Umparametrisierung stets erreichen läßt.

Die Verteilung .dg(X) hat dann eine U-Dichte fg(x) = f(x 1 Q), von der wir zunächst nur

fordern wollen (später kommen noch weitere Regularitätsbedingungen hinzu)

(RO) Für festes X ist die Funktion f(x I -) auf O stetig.

Außerdem wollen wir voraussetzen, daß der Parameter 8 die Verteilung eindeutig

bestimmt, d.h. wir fordern

(RI) Für alle Q1, B2 E B gilt: 2 (X) = 2 (X) 8, = 8, 91 92

bzw: f - f U-fast sicher + Q1 = 8 91 - 92 2

Page 106: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

11. Asymptotische Eigenschaften des ML-Schätzers 27.7.02 11- 2

Im folgenden wollen wir die Bezeichnung B für den wahren Parameterwert reservie-

ren, der durch 2(X) = .d,(X) definiert ist. Als Variablen für Elemente des Parama-

terraums O und verwenden daher BI, B2, ... oder B', B" ,... etc.

Die Dichte g, der Stichprobe X = (Xl, ..., Xn) ist dann

und das Likelihood- bzw. log-Likelihood (als Zufallsvariable) lautet: n n

(2) L ( Q ~ 1 X) = n f(x. 2 1 B I ) bzw. I O ~ L ( B ' I X) = z l o g ~ ( x ~ I B ' ) , i=l i= l

11.1 Asymptotische Existenz und Konsistenz

Die folgende Herleitung der asymptotischen Existenz und Konsistenz des ML-

Schätzers geht auf Wald (1949) zurück. Sie beruht im wesentlichen darauf, daß für

jedes B' das skalierte log-Likelihood log L(B1 I X) als Mittelwert von unabhängi- n

gen, identisch verteilten Zufallsvariablen log f(Xi I B') nach dem Gesetz der großen

Zahlen P,-fast sicher gegen den Erwartungswert E*{ log f(X I B') } konvergiert, und

dieser genau für B' = B maximal wird, d.h. es gilt

(1) Eg{logf(XIQ1)} < Eg{logf(XIQ)} für alle B' s B .

Die genaue Herleitung der Konsistenz erfordert noch die folgenden beiden Zusatz-

bedingungen (KI) und (K2) an die Dichte. Bezeichnet

die offene Kugel um B' vom Radius r > 0, so lautet die erste Bedingung

(KI) lim E, { sup log f(X I -) } = E,{ log f(X I B') } für alle B' E O. r + 0 B(Q1,r)

Hierdurch wird eigentlich nur gefordert, daß die Erwartungswerte auf der linken

Seite in (KI) für alle r Sro existieren, d.h.

(Kl)' Es gibt ein ro > O mit: E,{ISUP l o g f ( ~ ~ - ) l } < W . B(Q1,r)

Page 107: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

11. Asymptotische Eigenschaften des ML-Schätzers 27.7.02 11- 3

Mit der Stetigkeit der Funktion log f(x I -) im Punkt 8' (bei festem X) ergibt sich

und mit (Kl)' folgt hieraus (KI).

Die zweite Bedingung richtet sich an das Verhalten der Dichte f(x IB ' ) , wenn sich 19'

dem Rand des Parameterraums O nähert, d.h. hier für 18'1 + CO:

(K2) lim E~ { sup log f ( ~ I B') } = - CO . R+ oo 19' I > R

Diese Bedingung ist z.B. dann erfüllt, wenn für jedes X gilt

(K2)* f(xIB')+0 bzw. logf(xIB')+-CO für ~ B ' ~ + c o ,

und die Erwartungswerte in (K2) existieren.

Mit diesen Voraussetzungen läßt sich für jedes r > 0 die fundamentale asymptoti-

sche Aussage herleiten (wobei wir wieder n als Index einführen):

(3) Pg { SUP L(B1 I < L(B I für fast alle n E U } = 1 . 19'-6'1 >r

Hieraus ergibt sich zuerst die starke asymptotische Existenz des ML-Schätzers

(SAE) Pg { L(- I hat eine Maximalstelle für fast alle n E U } = 1.

Diese asymptotische Existenzaussage garantiert allerdings für festes n nicht, daß die

Likelihoodfunktion L(- 1 X ) für jede Realisierung X eine Maximalstelle 4 besitzt

(von der Eindeutigkeit derselben ganz zu schweigen). Damit aber 4 E O zumindest

formal immer definiert ist (auch wenn das Likelihood keine Maximalstelle besitzt),

betrachten wir im folgenden eine beliebige Folge B ( ~ ) : ~r~ + ß meßbarer Funktio-

nen, die jeweils einen ML-Schätzer B(~)(x) für die Realisierung X liefern, wenn ein

solcher existiert, aber einen beliebigen Wert B(~)(x) aus O annehmen können, wenn

kein ML-Schätzer für X existiert. Formal stellen wir also folgende Bedingung an die

Schätzfolge:

Page 108: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

11. Asymptotische Eigenschaften des ML-Schätzers 27.7.02 11 - 4

(ML-S) Besitzt L(- I x ( ~ ) ) eine Maximalstelle, so gilt:

:= B(~)(x(~)) E B ist eine Maximalstelle von L(- I ~ ( ~ 1 ) .

Eine solche Folge wollen wir eine ML-Schätzfolge nennen. Aus (SAE) folgt

(4> P, { L( I ist eine Maximalstelle für fast alle n E W } = 1.

und mit (3) ergibt sich die starke Konsistenz jeder ML-Schätzfolge des Parameters:

(SKonP) lim = 19 P,-fast sicher. 72-00

11.2 Asymptotische Normalverteilung

Zur Herleitung des asymptotischen Normalverteilung des ML-Schätzers werden

noch zusätzliche Regularitätsbedingungen an die Dichtefamilie f, gestellt. Zunächst

wollen wir die Stetigkeits-Bedingung (RO) verschärfen zu

(R2) Für festes X ist f(x I -) auf B dreimal stetig-dgferenzierbar.

Weiter soll die dritte Ableitung der log-Dichte in einer geeigneten Umgebung von 19

nicht zu stark variieren, genauer fordern wir:

(R3) Esgib te inro>Omit : E,{ sup I D ~ I O ~ ~ ( X ~ Q ~ ) I } < W . 1Q1-6'l Sr,,

Man beachte, das Supremum in (R3) nach (R2) stets eine Zufallsvariable ist mit

Werten in ( 0 , ~ ) . Die entscheidende Forderung in (R3) ist daher, daß ihr Erwar-

tungswert endlich ist.

Die nächsten beiden Regularitätbedingungen lassen sich mit der sogenannten

Score-Variablen für X

wie folgt formulieren

Page 109: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

11. Asymptotische Eigenschaften des ML-Schätzers 27.7.02 11- 5

(R4) Eg{U(Q)}=O bzw.

E,{D,10gf(XlQ)l = 0 ,

(R5) E ~ { ~ ~ ( Q ) } = E ~ { - D ~ ~ ( Q ) J ~ Z W .

E ~ { ( D , ~ ~ ~ ~ ( x I Q ) ) ~ } = E,{- D ; ~ o ~ s ( x I Q ) } .

Beide Bedingungen (R4) und (R5) zusammen sind äquivalent zur Vertauschbarkeit

von Dgferentiation bzgl. 8 mit Integration bzgl. X

(2) D, [ S ~ ( X I Q ) v(dx)] = P, h(x1Q) 4dx)

für die beiden Funktionen h(x 1 8) = f(x 1 8) und h(x 1 8) = U(8 I X) . f(x 1 8).

Die Varianz der Score-Variablen

heißt auch die Fisher-Information von X. Als letzte Regularitätsbedingung fordern

wir nun, daß diese Varianz weder 0 noch CO ist

Dies garantiert auch, daß U(8) = D, log f(X I 8 ) keine Einpunktverteilung hat, und

somit nicht-trivial verteilt ist.

Die Summe der Score-Variablen U. (8) = U(8 I X .) für alle i wird als Score-Statistik 2 2

der Stichprobe X bezeichnet und entspricht der Ableitung des log-Likelihood

Wenn ein ML-Schätzer 8 existiert, so ist er eine Lösung der Likelihood-Gleichung,

d.h. eine Nullstelle der Score-Statistik: U (8) = 0 . Die asymptotische Normalvertei- + lung des ML-Schätzers beruht im wesentlichen darauf, daß die Score-Statistik (nach

dem zentralen Grenzwertsatz) asymptotisch normalverteilt ist (wobei wir wieder n

als Index einführen):

Page 110: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

11. Asymptotische Eigenschaften des ML-Schätzers 27.7.02 11- 6

(ANS) U (n) (B) I N(0, I(B)) (asymptotische Normalität der Scores). + n+ 00

Der Schlüssel zur Bestimmung der asymptotischen Verteilung von B liegt nun in

der folgenden Taylor-Entwicklung der Score-Statistik im Punkt B des wahren Para-

meters (wobei wir den Index n wieder unterdrücken)

(5) U+@) = u+(B) + D e + U ( B ) @ - B ) + + ( B - B ) . H ( B ) . ( B - B )

mit der „gemittelten zweiten Ableitung zwischen B und 4'' 1

(6) H(B) = j' D ; U + ( B + ~ ( B - B ) ) d t . 0

Wir untersuchen jetzt das asymptotische Verhalten der Terme in (5). Aus der

(schwachen) Konsistenz der Parameter-Schätzung

(KonP) 4 (4 ,g n+ 00 (Konsistenz der Parameter-Schätzung),

die natürlich aus der starken Konsistenz (SKonP) folgt, ergibt sich mit (R3)

Für die Ableitung der Score-Statistik erhält man mit dem schwachen Gesetz der

großen Zahlen

Und aus der starken asymptotischen Existenz (SAE) folgt insbesondere

Schreibt man nun die Taylor-Entwicklung (5) in der Form

so erhält man mit (7), (8) und (9) aus der asymptotischen Normalität der Scores die

des ML-Schätzers

(ANP) & B ) I N(o,I-~(B)) n+ 00

(asymptotische Normalität der Parameter-Schätzung).

Bei der Herleitung der asymptotischen Normalität des ML-Schätzers haben wir von

den Eigenschaften der ML-Schätzfolge nur die (schwache) Konsistenz (KonP)

Page 111: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

11. Asymptotische Eigenschaften des ML-Schätzers 27.7.02 11- 7

und (9) benutzt, d.h. das Resultat (ANP) gilt sogar ganz allgemein für jede konsi-

stente Schätzfolge die nur eine approximative Lösung der Likelihood Gleichung

ist, d.h. die Eigenschaft (9) besitzt.

Unter Verwendung der Fisher-Information der Stichprobe X

(11) In(Q) : = Varg{Dg log L(8 I ) } (Fisher-Information von X)

(4 } = E ~ { ( D ~ L ( B I X ( ~ ) ) ) ~ } = E ~ { - D ~ L ( B I X .

= n . I(8)

läßt sich (ANP) auch äquivalent formulieren als

(ANP)' ( ~ ( ~ ) - 8 ) / a , ( Q ) N(0,l) mit

(12) a2(8) n = 1-l(8) n = n . 1-l(8) (asymtotische Varianz von B).

Die Information I(-) ist wegen (R3) in 8 stetig, und daher ergibt sich aus der

(schwachen) Konsistenz (KonP) auch die (schwache) Konsistenz der geschätzten

Information ~ ( d ) , d.h. es gilt

(13) I(B (n)) P, I(8) n+ 00

(Konsistenz der geschätzten Information).

2 ^ (4 Folglich ist auch a n, (8 ) eine konsistente Schätzung der asymptotischen Varianz

und hieraus erhält man eine weitere Variante der asymptotischen Normalität des

Schätzers

Dies wird in der Praxis dahingehend interpretiert, daß der Schätzer approximativ

normalverteilt ist mit der asymptotischen Erwartungswert 8 und der geschätzten 2 ^ asymptotischen Varianz an(Q)

(I5) L@) ~ ( 8 , 2 ( 4 ) ) (approximative Normalität des Schätzers).

Page 112: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

11. Asymptotische Eigenschaften des ML-Schätzers 27.7.02 11- 8

11.3 Asymptotische Konfidenzgrenzen

Aus der asymptotischen Normalität (ANP)^ lassen sich Konfidenzgrenzen für den

Parameter B zur asymptotischen Sicherheit 1- a herleiten. Eine einseitige untere

bzw. obere Konfidenzgrenze für B ist gegeben durch

(1) [ ( a ) : = s - $ a (untere Grenze) bzw.

[ ( C ) := s + $ a (obere Grenze) mit

a a ^ (4 (2) $ : = z .on(B ) .

Und das zugehörige zweiseitige Konfidenzintervall für B ist:

(3) ( su (&) , so ( ; ) )=(s -$ a/2 , s - d a / 2 ) .

Die obigen Konfidenzbereiche haben die asymptotische Sicherheit 1- a , d.h.

(4) lim Po{ q) ( U ) < B } = I-a , n

(5) l imPo{B<B(n ) (a ) } n o = I - a .

(6) l i m ~ ~ { q ) ( 5 ) < < ~ < ~ ( ~ ) ( 5 ) } = l - a . n o

Manchmal ist man an einer speziellen Funktion X = h(8) des Parameters interes-

siert, wobei h : O+ IR eine stetig-differenzierbare Funktion sein soll, die aber nicht

notwendig eine Umparametrisierung ist, d.h h braucht nicht injektiv zu sein. Dann

ist X = h(4) der naheliegende Schätzer für X = h(B) und wird auch als der ML-Schät-

Zer von X bezeichnet. Aus der asmptotischen Normalität (ANP) von 4 folgt dann

(mit der &Methode) auch die asmptotischen Normalität von A = h(4) :

oder in der äquivalenten Version

(8) ( A ("1 - A B ) / D ~ , ~ ( B ) L N(O, 1) mit

(9) 2 ( B ) = h / ( ~ ) 2 . 2 ( B ) = h 1 ( q 2 . I - ~ ( B )

n n (a~~rntotische Varianz von A)

X,n

Die Varianz ) o2 ( B ) kann konsistent geschätzt werden durch o2 ( B ( ~ ) ) , und man X,n X,n

erhält dann

Page 113: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

11. Asymptotische Eigenschaften des ML-Schätzers 27.7.02 11- 9

Analog (1) und (2) ergeben sich hieraus einseitige untere bzw. obere Konfidenzgren-

zen für X zur Sicherheit 1 - ci!

(11> Xu(ci!) := X - $ a (untere Grenze) bzw.

X ( ) := X + d a (obere Grenze) mit

J := a

z (8) a X,n

Und das zugehörige zweiseitige Konfidenzintervall für X ist:

(12) (Xu(;), Xo(;)) = ( X-J a/2 , X-J a/2 ) .

Page 114: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

12. Die Ungleichung von Cramer-Rao und effiziente Schätzer 4.4.03 12- 1

12. Die Ungleichung von Cramer-Rao und effiziente Schätzer

In diesem Kapitel wollen wir Schätzer für eine interessierende Funktion X := h(8)

des Parameters untersuchen, wobei h : 0+ AcIR eine beliebige (aber im folgen-

den feste) zweimal stetig-differenzierbare Funktion sein soll, z.B. die Identität (für

die X wieder der ursprüngliche Parameter I9 ist).

Unser Ausgungspunkt ist wieder eine Stichprobe in Form eines beliebigen n-

dimensionalen Zufallsvektors X = (X1, ..., X,) : ( O , d , P ) + (IRn, lBn), dessen Kom-

ponenten Xi im allgemeinen weder stochastisch unabhängig noch identisch verteilt

sein sollen. Weiter sei ein parametrisches Verteilungsmodell für 2(X) durch eine

parametrisierte Familie von Dichten gg = g(- 1 19) : IRn + IR bzgl. eines von I9 unab-

hängigen a-endlichen Maßes U auf (IRn, lBn) spezifiziert, wobei I9 E 0 ein eindimen- n

sionaler Parameter und 0 C IR ein offenes Intervall ist. Zusätzlich wollen wir einige

Regularitätsbedingungen (die wir in Analogie zu Kapitel 11 numerieren) für die

Dichte-Familie fordern. Hinsichtlich der Differenzierbarkeit der Dichte nach dem

Parameter setzten wir voraus

(R2); Für festes X ist g(x I -) auf 0 zweimal stetig-differenzierbar.

Das Likelihood der Stichprobe X ist die Zufallsvariable

und die Ableitung des log-Likelihood ist die Score-Statistik der Stichprobe X

an die wir zunächst die folgenden beiden Bedingungen stellen

(R4)* Eg{U(191X)}=0 bzw.

E g { D g l ~ g g ( X I Q ) I = 0 für alle I9 E 0,

(R5)* E ~ { U ~ ( Q I X ) } = E ~ { - D ~ ~ ( ~ I X ) } ~ Z W .

E ~ { ( D ~ ~ O ~ ~ ( X ~ Q ) ) ~ } = E ~ { - D ~ ~ O ~ ~ ( X I Q ) } f Ü r a l l e I 9 ~ 0 ,

Page 115: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

12. Die Ungleichung von Cramer-Rao und effiziente Schätzer 4.4.03 12- 2

Beide Bedingungen (R4)* und (R5)* zusammen sind äquivalent zur Vertauschbar-

keit von Differentiation bzgl. 8 mit Integration bzgl. X

für die beiden Funktionen v(x 1 8) = g(x 1 8) und v(x 1 8) = U(8 I X ) .g(x 1 8).

Die Varianz der Score-Statistik wird als Fisher-Information der Stichprobe X be-

zeichnet (und wird hier mit dem Stichprobenumfang n indiziert)

(4) In(Q) : = Var, {U(8 I X)} (Fisher-Information der Stichprobe X)

= E,{U~(QIX)} = E,{-D,U(QIX)}

= ~ , { ( ~ , l o g s ( ~ l ~ ) ) ~ } = E,{- D ; ~ ~ ~ ~ ( x I Q ) } E [ O , ~ ,

und wir fordern, daß diese Varianz weder Null noch Unendlich ist

(R6) * 0 < 1 n ( 8 ) < 0 0 für alle 8 E O.

12.1 Die Ungleichung von Cramer-Rao

Wir betrachten nun einen beliebigen Schätzer T = t(X) für X, wobei t :IRn+IR

eine meßbare Funktion ist, die jeder Realisierung X E IRn den zugehörigen Schät-

zwert t(x) zuordnet. Sinnvollerweise sollte t(x) im Parameterraum A liegen, was

wir aber nicht generell voraussetzen wollen. Die bisher übliche Notation X für einen

Schätzer wird hier bewußt durch T ersetzt, um Verwechselungen mit dem ML-Schät-

Zer zu vermeiden. Setzen wir voraus, daß der Erwartungswert E{T} existiert, so ist

der Bias (Verzerrung, Verfälschung) des Schätzers T definiert als Abweichung des Er-

wartungswerts E{T} des Schätzers vom zu schätzenden Parameter X = h(8), d.h. als

(1) b(8) = Bias,(T) : = E,{ T} - h(8) (Bias von T).

Der Schätzer T ist also genau dann erwartungstreu für X = h(Q), wenn Bias,(T) = 0

ist. Ein Maß für die Qualität des Schätzers T für X = h(8) ist sein mittlerer quadrati-

scher Fehler (engl.: Mean Square Error) vom zu schätzenden Parameter X = h(8)

Page 116: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

12. Die Ungleichung von Cramer-Rao und effiziente Schätzer 4.4.03 12- 3

(2) MSE~(T) : = (T - h(8)12 (Mean Square Error von T)

= Varo {T) + ~ i a s i ( ~ )

= Varo{T) + b2(8)

Man beachte, daß bei erwartungstreuem T der MSE(T) gerade die Varianz von T ist.

Je kleiner der MSE(T) ist, desto besser schätzt T den Parameter X = h(8). Allerdings

kann der MSE(T) nicht beliebig klein werden, zumindest dann nicht, wenn T regu-

lär ist, d.h. folgende Regularitätsbedingung erfüllt

(R7) Dg(Eg{T)) = Eg{T.DglogL(QIX)} bzw.

De(Ee{T)) = EoIT . u(QI X)} für alle 8 E 0,

Die Bedingung (R7) garantiert wieder eine Vertauschung von Differentiation bzgl.

8 mit Integration bzgl. X, d.h. sie ist äquivalent zu

Bei einem regulären Schätzer T für X = h(8) - d.h. unter (R7) - gilt die folgende Un-

gleichung von Cramir-Rao

(3) MSEo(T) > ( h'(8) + b'(8) )2 . IP1(8) n (Cramir-Rao- Ungleichung).

Die rechte Seite der Cramer-Rao-Ungleichung wird als Cramir-Rao-Schranke für

MSE(T) bezeichnet. Der MSE(T) nimmt seine (untere) Cramer-Rao-Schranke ge-

nau dann an, wenn gilt

Po-fast sicher, wobei

(5) q(8) = Covo (T, U(8 I X) . IP1(8). n

Wenn T erwartungstreu für h(8) ist, d.h. der Bias b(8) = 0 ist, so vereinfacht sich die

Ungleichung von Cramer-Rao zu

(3)' Varo(T) > h'(812 . IP1(8) n falls E. {T) = h(8) .

Ist zusätzlich h sogar die Identität, d.h. T ist ein erwartungstreuer Schätzer für den

Parameter 8, so lautet die Ungleichung von Cramer-Rao

Page 117: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

12. Die Ungleichung von Cramer-Rao und effiziente Schätzer 4.4.03 1 2 - 4

(3) " Var,(T) > I-~(Q) n falls E,{T) = B = h(B) .

12.1.1 Spezialfall: Identische Wiederholungen

Wir betrachten jetzt den Fall, daß die Komponenten X . von X = (X1, ..., Xn) unab- 2

hängige Wiederholungen einer eindimensionalen Zufallsvariablen X sind. Die Vertei-

lung von X sei - wie im Kapitel 9 - durch eine parametrisierte Familie f,(-) = f(- I B)

von Dichten bzgl. eines Maßes U auf (IR, IB) modelliert, wobei B E O und O C IR ein

offenes Intervall ist.

Die Dichte g, = g(- 1s) der Stichprobe X = (Xl, ..., Xn) ist dann

und das Likelihood- bzw. log-Likelihood (als Zufallsvariable) lautet:

(7) L(QI X) = n X L I Q ) bzw. logL(B1x) = z l o g f(xi1B). i= l i= l

Die Differenzierbarkeitsbedingung (R2); ist erfüllt, wenn wir - als geringfügige Ab-

schwächung von (R2) aus 11.2 - fordern

(R2)2 Für festes X ist f(x I -) auf O zweimal stetig-differenzierbar.

Unter Verwendung der Score-Variablen für X (d.h. einer Stichprobe vom Umfang

n = 1)

läßt sich die Score-Variable der Stichprobe X darstellen

mit den Score-Variablen für die Einzelbeobachtungen Xi

Die Bedingungen (R4)* und (R5)* ergeben sich jetzt aus den folgenden beiden Be-

dingungen (aus 11.2)

Page 118: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

12. Die Ungleichung von Cramer-Rao und effiziente Schätzer 4.4.03 12- 5

(R4) Eg{U(Q) l=O bzw.

E e { D g l ~ g f ( X I Q ) I = 0 für alle 8 E 0,

(R5) E ~ { ~ ~ ( Q ) } = E ~ I - D ~ ~ ( Q ) J ~ Z W .

E ~ { ( D , ~ O ~ ~ ( X I Q ) ) ~ } = E,{- D ; ~ o ~ ~ ( x I Q ) } für alle 8 E 0.

Wie schon in 11.2 bemerkt, sind beide Bedingungen (R4) und (R5) zusammen äqui-

valent zur Vertauschbarkeit von Differentiation bzgl. 8 mit Integration bzgl. X

(10) D, [ S ~ ( X I Q ) v(dx)] = P, h(x1Q) 4dx)

für die beiden Funktionen h(x 1 8) = f(x 1 8) und h(x 1 8) = U(8 I X) . f(x 1 8).

Und aus der Fisher-Information von X, d.h. der Varianz der Score-Variablen U(8)

(11> 1(8) := Var,{ U(8))

= E , { u ~ ( Q ) ~ = E,{-D,U(Q)l

= E , { ( D , ' " ~ ~ ( x I Q ) ) ~ } = E,{- ~ ; l o g f ( x l ~ ) j E [ O , 4 .

ergibt sich die Fischer-Information der Stichprobe X zu

(I2) In(8) = n . I(8) .

Folglich ist die Bedingung (R6)* äquivalent zur Bedingung (vgl. 11.2)

(R6) 0 < I(8) < 00 für alle 8 E 0.

Page 119: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

12. Die Ungleichung von Cramer-Rao und effiziente Schätzer 4.4.03 12- 6

12.2 Effiziente Schätzer

Wir betrachten jetzt wieder den allgemeinen Fall mit nicht notwendig unabhängigen

und identisch verteilten Komponenten der Stichprobe X = (Xl, ..., X,).

Der Quotient beider Seiten der Ungleichung von Cramer-Rao

wird als Effizienz des Schätzers T für den Parameter X = h(8) bezeichnet. Und der

Schätzer T heißt effizient für den Parameter X = h(8), wenn

(2) Effe(T) = 1 für alle 8 E 0 ,

d.h. wenn 12.1 (4) für alle 8 gilt. Ein effizienter Schätzer ist in dem Sinn optimal,

daß es keinen anderen Schätzer mit geringerem MSE gibt.

Wir wollen jetzt untersuchen, unter welchen Bedingungen es einen effizienten

Schätzer für X = h(8) gibt, und wie man ihn bestimmen kann. Zunächst gilt

(3) T effizient für h(8) U

Ee{T) = h(8) und COV:(U, T) = Varg (U) . Varg (T) für alle 8 E 0.

Ein effizienter Schätzer T für h(8) ist insbesondere stets erwartungstreu, d.h.

Biass(T) = 0 für alle 8. Weiter hat ein effizienter Schätzer T genau dann ein Ein-

punktverteilung (im Punkt h(8)) wenn die Ableitung h1(8) verschwindet:

Um diesen trivialen Fall auszuschließen, wollen wir ab jetzt fordern

(R8) h 1 ( 8 ) s 0 für alle 8 E 0.

Damit ist h : 0+ (1 streng monoton (wachsend oder fallend) und somit eine

Umparametrisierung. Außerdem sollen noch gelten:

(R9) I(8) ist stetig in jedem Punkt 8 E 0

(R9) kann hier (wie im Kapitel 11) auch aus einer zu (R3) analogen Bedingung

hergeleitet werden. Weiter wollen wir noch fordern, daß der Träger von X

Page 120: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

12. Die Ungleichung von Cramer-Rao und effiziente Schätzer 4.4.03 12- 7

(5) Tr, := {g, > 0}

nicht vom Parameter 8 abhängt, d.h.

(RIO) Tr = Tr 6'

für alle 8 .

Mit diesen Voraussetzungen ergibt sich aus der Existenz eines effizienten Schätzers

T eine Exponentialdarstellung der Dichte von X:

(6) Wenn T = t(X) effizient für h(8) ist, so gibt es Funktionen &, C und 2, sodaß un-fast sicher gilt:

g,(x) = exp{ &(B) d(x) + C(8) + 2(x) } für X E Tr .

Folglich können effiziente Schätzer höchstens dann auftreten wenn X eine Dichte

aus der Exponential-Familie (vgl. 9.2) folgender Form besitzt

(7) g,(x) = ..P{ a(Q) .b(x) + c(Q) + d(x) 1 für X E Tr ,

wobei der Parameter hier eindimensional ist, und die Funktion b mit t auf dem

Träger Tr übereinstimmt. Und für jede Dichtefamilie (7) ist der Schätzer B = b(X)

des Erwartungswerts

auch stets eine effiziente Schätzung für h(8). Nach Kapitel 9 ist (mit den dortigen

Voraussetzungen) dann b(x) auch der ML-Schätzer von h(8) zur Realisierung X, so-

fern dieser existiert, d.h. b(x) E Bild h = h[@] gilt.

Kurz und bündig kann man sagen, daß ein effizienter Schätzer nur in Exponential-

familien (und auch nur für spezielle Funktionen h der Form (8) des Parameters)

auftritt und dort mit dem ML-Schätzer übereinstimmt. Insbesondere ist damit der

Mittelwert (vgl. Kapitel 1 und 9) im Binomial-, Poisson und Normalverteilungsmo-

dell eine effiziente Schätzung des Erwartungswerts.

Allgemeiner kann man die asymptotische Normalität des ML-Schätzers h(4) aus 11.3

(7) auch dahingehend interpretieren, daß der ML-Schätzer h(4) stets asymptotisch

effizient für h(8) ist.

Page 121: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

13. Momenten-Schätzung 26.7.02 13- 1

13. Momente-Schätzung

Obwohl das Maximum-Likelihood-Prinzip im allgemeinen die „bestenu Schätzungen

liefert, gibt es manchmal auch gute Gründe, andere Schätzungen zu verwenden, z.B.

wenn die ML-Schätzung nur mit erhöhtem Rechenaufwand zu bestimmen ist oder

wenn man die Dichte (und damit das Likelihood) der Stichprobe nicht explizit an-

geben (bzw. modellieren) kann. Als Alternative zur Maximum-Likelihood Schätzung

wollen wir jetzt die Momenten-Methode kennenlernen. Hierbei gehen wir wieder

von einer n-dimensionalen Stichprobe X = (X1, ..., Xn) aus, und betrachten aber nur

den Fall, daß die Komponenten Xi unabhängige Wiederholungen einer eindimensiona-

len Zufallsvariablen X sind. Für die Verteilung von X setzen wir ein parametrisches

Modell der folgender Form voraus

S wobei O C IR ein S-dimensionaler Parameterraum ist.

Momenten-Schätzer

Für k~ IN ist das k-te Moment von X

und das k-te zentrale Moment von X

- P (X) = ~ ~ ( ( x - 4 ~ ) (3) ~k - k mit p, = p,' 1 0 = E (X)

eine Funktion des Parameters 8. Wir gehen jetzt davon aus, daß die ersten S Mo-

mente p,' ...,& existieren, und sich der Parameter als stetige Funktion h dieser Mo- l'

mente darstellen läßt:

Bei gegebenem p, = p,; sind die zentralen Momente (p,2, nach 8.3 (8) und (9)

eine umkehrbar eindeutige und stetige Funktion der nicht-zentralen Momente

(p,;, ..., 4) und folglich läßt sich der Parameter auch als stetige Funktion h* des Er-

wartungswerts p, und der zentralen Momente darstellen:

Page 122: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

13. Momenten-Schätzung 26.7.02 13- 2

Aus den Schätzungen der Momente (vgl. Abschnitt 8.3)

k (6) fi ;=fi;(X)='Cx. n i 2 '

- k - fi (X) = 'C(X,-X) (7) f i - k

2

erhält man dann den Momente-Schätzer 8 von 0 als entsprechende Funktion der ge-

schätzten Momente

- (8) 8 = h(fii, ..., fik) = h*(fi, fi2, ..., &) mit f i = p 1 = X .

- I Dieser Momente-Schätzer 8 ist (ebenso wie die Schätzungen fi;, fik) stark konsistent

(weil h und h* stetig sind), aber im allgemeinen nicht erwartungstreu. Außerdem ist

die Momente-Schätzung (wie die Maximum-Likelihood Schätzung) invariant ge-

genüber einer Umparametrisierung.

Der Momenten-Schätzer läßt sich leicht explizit berechnen, im Gegensatz zum Ma-

ximum-Likelihood Schätzer, der nur implizit definiert ist und meist nur durch ein

Iterationsverfahren bestimmbar ist, wobei der Momenten-Schätzer dann als Start-

wert verwendbar ist.

Gamma-Verteilung

Für 2 (X) = Gam(a,ß) ist

(2) p = E ( X ) = a ß , 2 o = Var(X) = p = aß2.

2

Für den Parameter 0 = (a,ß) ergibt sich die Funktion h* aus

(ii) 2 2 2 a = 0 = h*(p,o ) = p / O , 1 1

2 ß = 0, = h,*(p,o ) = 0 2 / p .

Und aus den Schätzungen fi und 82 der Momente ergibt der Momenten-Schätzer

8 = (6,ß) wie folgt:

(iii) * 2 * 2 &=p / D , ß = 82/fi.

Man beachte, daß der Maximum-Likelihood Schätzer hier nur iterativ bestimmt

werden kann.

Page 123: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

13. Momenten-Schätzung 26.7.02 13- 3

Normal-Verteilung

2 Für L ( X ) = N ( ~ , D ~ ) ist p = E(X), D = Var(X) = p und für den Parameter 2 '

19 = (p,02) ist Funktion h* daher die Identität. Der Momenten-Schätzer 4 ergibt sich

daher direkt aus den Schätzungen f i und 82 für die Momente, die hier übrigens auch

die Maximum-Likelihood Schätzungen sind.

Page 124: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

14. Testen von Hypothesen 26.7.02 14 - 1

14. Testen von Hypothesen

Vorbemerkung: Zum besseren Verständnis kann man den Abschnitt 14.1, in dem ein kon-

kretes Testproblem behandelt wird, parallel zu den folgenden Ausführungen lesen.

Ziel eines statistischen Tests: Es soll eine Entscheidung zwischen zwei Hypothe-

sen über die Verteilung von Zufallsvariablen getroffen werden aufgrund von be-

obachteten Realisierungen dieser Zufallsvariablen.

Parametrisches Dichte-Modell: Ausgangspunkt ist (wie in Kapitel 9) ein n-

dimensionaler Zufallsvektor X = (X1, ... , Xn) und ein parametrisches Verteilungs-

modell 2 ( X ) E { d0(X) I BE O } mit einem S-dimensionalen Parameter S S 8 = (Q1, ..., Bs) E IR , dessen Werte in einem Parameterraum O C IR liegen, der hier be-

liebig sein kann (also nicht - wie in den vorangegangenen Kapiteln - eine offene und

konvexe Menge sein muß).

Hypothesen: Eine Hypothese H über den Parameter wird mit der zugehörigen

Menge aller Parameter 8 identifiziert, auf die die Hypothese H zutrifft. Formal ist

eine Hypothese H eine Teilmenge des Parameterraumes O, wobei O E H bedeutet, daß

die Hypothese H auf den Wert 8 zutrifft. Eine Hypothese H heißt einfach, wenn sie

auf genau einen Parameterwert zutrifft, also von der Form H= (8') ist, und somit

die Verteilung 2 ( X ) durch H bereits vollständig bestimmt ist. Eine nicht-einfache Hy-

pothese wird auch als zusammengesetzte Hypothese bezeichnet. Beispiele für zusam-

mengesetzte Hypothesen sind (wenn S 2 2)

H: s1=o bzw. H = { B E @ 1 s1=o} H: sl=s 2 bzw. H = { B E @ 1 sl=s2} H: s l g 2 ~ Z W . H = { O E @ I slas2}

Testproblem und Entscheidungsfunktion: Ein Testproblem besteht aus zwei

disjunkten Hypothesen, einer Nullhypothese Ho und einer alternativen Hypothese (kurz:

Hypothese oder Alternative) Hl. Wir fordern hier nicht, daß stets eine der beiden Hy-

pothesen zutreffen muß, d.h. O = Ho U Hl, obwohl dies in den meisten Fällen sinn-

voll ist, und sich durch Einschränkung des Parameterraumes auf Ho U Hl auch stets

erreichen ließe.

Page 125: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

14. Testen von Hypothesen 26.7.02 14- 2

Eine Entscheidungsfunktion (engl: decision function) für dieses Testproblem ist eine

meßbare Funktion d:IRn+{O,l}, die jeder Realisierung X von X eine als Zahl

kodierte Entscheidung d(x) zuordnet mit folgender Bedeutung:

(1) d(x) = 1 U Ho wird abgelehnt zugunsten von Hl aufgrund von X

Die Entscheidungsfunktion d ist also die Indikatorfunktion des kritischen oder Ab-

lehnungs-Bereichs A = { d = l} für Ho, und damit auch durch den Ablehnungsbereich

A eindeutig bestimmt.

Ein Testproblem (Ho ,H1) zusammen mit einer Entscheidungsfunktion d wird auch

als ein statistischer Test bezeichnet. Die Testentscheidung D =d(X) ist dann eine

Indikator-(Zufalls-)Variable für die Ablehnung der Nullhypothese:

(2) D = 1 U Ho wird abgelehnt (zugunsten von H1 aufgrund von X)

Fehlentscheidungen: Bei einem Test sind prinzipiell zwei Arten von Fehlent-

scheidungen möglich (vgl. nachfolgende Tabelle):

Fehler 1. Art (falsch-positive Entscheidung): Ablehnung der Nullhypothese Ho, obwohl sie zutrifft.

Fehler 2. Art (falsch-negative Entscheidung): Annahme der Nullhypothese Ho, obwohl sie nicht zutrifft.

Schärfe und Fehlerrisiken: Die Schärfe (engl.: power) eines Tests d ist die Wahr-

scheinlichkeit für die Ablehnung der Nullhypothese

Testentscheidung

Nullhypothese wird nicht abgelehnt:

D = O

Nullhypothese wird abgelehnt

D = 1

(3) pow(e) = powd(e) := pe{ D = I

= Ee{d(X)} (Schärfe, Power von d),

und die zugehörige Funktion Pow : O + [ 0,1] heißt die Schärfefunktion.

In Wirklichkeit gilt

Nullhypothese

richtige Entscheidung

falsch-positive Entscheidung:

Fehler 1. Art (a)

alternative Hypothese

falsch-negative Entscheidung:

Fehler 2. Art (P)

richtige Entscheidung

Page 126: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

14. Testen von Hypothesen 26.7.02 14 - 3

Das Fehlerrisiko 1. Art a(8) ist die Wahrscheinlichkeit für einen Fehler 1. Art und

somit durch die Schärfe gegeben, wenn Ho zutrifft

(4) ,(B) = u,(B) : = powd(e) falls B E Ho (d.h. Ho trifft zu).

Das maximale Fehlerrisiko 1. Art

wird auch als das Niveau des Tests d bezeichnet.

Das Fehlerrisiko 2. Art ß(8) ist die Wahrscheinlichkeit für einen Fehler 2. Art und

durch die komplementäre Schärfe gegeben, wenn Hl zutrifft

(6) ß(e) = ßd(e) : = 1 - P O W ~ ( B ) falls B E H1 (d.h. Hl trifft zu).

Das maximale Fehlerrisiko 2. Art ist

(7) ß = ßd := sup {ß(B) I BEH~} = 1- inf {Powd(B) I BEH~}

Es ist wünschenswert, unter allen Tests d einen solchen auszuwählen, bei dem beide

maximalen Fehlerrisiken ad und ßd möglichst gering sind. Leider läßt sich dies im

allgemeinen nicht erreichen, weil eine Verringerung von a meist eine Vergößerung d von ßd nach sich zieht und umgekehrt. In vielen Fällen (wie z.B. beim Gauß-Test

in 14.1) sind beide maximalen Risiken sogar zueinander komplementär, d.h. es gilt

ad +Pd = 1. Man hat sich daher darauf geeinigt, bei der Gewichtung der Fehler

Prioritäten zu setzen, und dem Fehler 1. Art in dem Sinn eine größere Bedeutung

beizumessen, daß man das Fehlerrisiko 1. Art durch Vorgabe des Testniveaus ad

kontrolliert. Als Standard-Testniveau wird (für die meisten Tests) der Wert a = 5%

vorgegeben, und unter besonderen Umständen wählt man auch kleinere Werte, wie

z.B. 1% oder 0.1%, aber nur selten einen größeren Wert, wie z.B. 10%. Da die Fehler

1. und 2. Art sich vertauschen, wenn man beide Hypothesen miteinander ver-

tauscht, hat die Priorität des Fehlerrisikos 1. Art bei praktischen Anwendungen di-

rekte Konsequenzen auf die Wahl beider Hypothesen, weil nur die Fehlerrisiken 1.

Art über das Testniveau direkt kontrolliert werden.

Page 127: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

14. Testen von Hypothesen 26.7.02 14 - 4

Teststatistik: Die meisten Tests werden unter Verwendung einer Testfunktion

t : IRn+ IR konstruiert, die jeder Realisierung X einen Testwert t(x) zuordnet, wo-

bei groj3e Testwerte als Evidenz gegen die Nullhypothese angesehen werden. Nach

Festlegung eines kritischen Wertes to E IR wird der kritische Bereich für die Ent-

scheidungsfunktion d wie folgt definiert,

bzw.

d.h. die Nullhypothese wird genau dann abgelehnt, wenn der Testwert seinen kriti-

schen Wert übersteigt. Der kritische Wert ist meist eine eindeutige Funktion des

Testniveuas ci! und läßt sich dann für vorgegebenes Testniveau bestimmen. Der zu-

fällige Testwert T = t(X) wird auch als Teststatistik bezeichnet. Das wesentliche

Merkmal eines solchen Tests ist die Dimensionsreduktion von der n-dimensionalen

Stichprobe X zur eindimensionalen Teststatistik T. Die Testentscheidung D hängt

nur noch über die Teststatistik T von der Stichprobe ab:

Page 128: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

14. Testen von Hypothesen 26.7.02 14 - 5

14.1 Einseitiger (oberer) Gauß-Test

Für einen n-dimensionaler Zufallsvektor X = (Xl, ... , Xn) betrachten wir das Nor-

mal-Verteilungsmodell mit unabhängigen Wiederholungen, d.h. alle Komponenten

X . sind unabhängige Wiederholungen einer N(p , 02)-verteilten Zufallsvariablen X. 2

2 2 Hierbei gehen wir davon aus, daß die Varianz o = oo bekannt ist, und betrachten

daher nur den Erwartungswert als unbekannten Parameter 19 = p E E = @. Für ei-

nen fest vorgebenen „Referenzwertn po interessieren wir uns für das einseitige Test-

problem mit den Hypothesen

(I> Nullhypothese Ho+ bzw. H o = ( b m , ~ ~ ] ,

(2) Hypothese H1:p > bzw. Hl = (p0,+m) .

Drei typische Anwendungssituationen hierfür sind

X ist das Ergebnis einer medizinischen Messung (z.B. Blutdruck) deren Variabili- tät unterschiedliche Ursachen haben kann: Ungenauigkeit der Messung, individu- elle Unterschiede, Zeitpunkt der Messung etc. Dann ist p der durchschnittliche Wert in dem betrachteten Kollektiv, und po ist z.B. ein bedenklich hoher Wert.

X ist der Wirkstoffgehalt eines mit zufälligen Fehlern produzierten Medika- ments. Dann ist p der wahre Wirkstoffgehalt und po z.B. der auf der Packungs- beilage angegebene Wirkstoffgehalt.

X ist die Haltbarkeitsdauer eines Nahrungsmittels (oder eines technischen Pro- duktes) und p die durchschnittliche (erwartete) Haltbarkeit. Der zu testende Wert po ist z.B. eine Mindesthaltbarkeitsdauer (oder „GarantiezeitLi.

Da der Mittelwert X eine erwartungstreue Schätzung von p mit Varianz ist,

liegt es nahe, die standardisierte Abweichung des Mittelwerts von Referenzwert po

als Teststatistik zu verwenden

Da große Werte von T gegen die Nullhypothese sprechen, wollen wir die Hullhypo-

these ablehnen, wenn die beobachtete Realisierung X in einem kritischen Bereich

der Form

Page 129: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

14. Testen von Hypothesen 26.7.02 14 - 6

liegt, wobei wir den kritischen Wert tl zunächst noch beliebig lassen. Der kritische

Bereich Al läßt sich äquivalent durch seine Indikatorfunktion dl : IRn + { 0 , I} be-

schreiben, wobei

Formal ist die Entscheidung zwischen beiden Hypothesen Ho und Hl aufgrund der

Realisierung X gegeben durch

d(x) = 1 U Ho wird abgelehnt zugunsten von Hl aufgrund von X

Aus der Verteilung der Teststatistik

(4) -ff"(T) = N(~(P) , 1) mit

(5) Y(P):= Jn ( P - P ~ )

(Nichtzentralitä~ , 0

0

ergibt sich die Schärfe des Tests dl zu

Die Nichtzenträlität und somit auch die Schärfe Powl(p) sind streng monoton

wachsend in p, und hieraus ergeben sich die maximalen Fehlerrisiken

Für vorgegebenes Testniveau a ergibt sich daher der kritische Wert tl als oberes

a-Quantil z der N(0, 1)-Verteilung: a

Der sich hieraus ergebende einseitige GauJ3-Test zum

Niveau a lautet o zff N(0, 1)-Dichte mit a-Quantil

Einseitiger (oberer) GauJ3-Test:

Ablehnung von Ho : p < po zum Niveau a U t(x) > z a

U p(t(x)) : = @(- t(x)) < a

Page 130: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

14. Testen von Hypothesen 26.7.02 14 - 7

Die Wahrscheinlichkeit P(t(x)) wird auch als Signifikanz oder P-Wert des beobachteten

Testwerts t(x) bezeichnet. Die zugehörige Entscheidungsfunktion des Tests ist

und die Schärfe des Tests ist gegeben durch

Es besteht ein enger Zusammenhang zwischen diesem Test und der unteren Konfi-

denzgrenze fi (X) = F- d für ,LL zur Sicherheit 1- ci! aus 3.1: der Test lehnt die U,& a

Nullhypothese genau dann ab, wenn po 5 fiu,&(x) ist, d.h. wenn die Nullhypothese

keinen Parameterwert des einseitigen Konfidenzintervalls ( fi (X) , CO) enthält, d.h. u,a

Schränkt man die Nullhypothese ein auf die einfache Nullhypothese H0:p = p0, so

ergibt sich wieder obiger Gauß-Test, weil das maximale Fehlerrisko ci! dort genau für

,LL = ,LL angenommen wird. 0

Page 131: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

14. Testen von Hypothesen 26.7.02 14 - 8

14.2 Einseitiger (unterer) Gauß-Test mit dualen Hypothesen

Im Normalverteilungsmodell aus 14.1 betrachten wir jetzt das zu 14.1 (1)-(2) duale

Testproblem mit den Hypothesen

(1) Nullhypothese > P , bzw. Ho = [,LLo,+m),

(2) Hypothese H;: P < Po bzw. H' = ( - ~ , , L L ~ ) . 1

Dieses Testproblem kann man analog zu (Ho,Hl) behandeln oder direkt durch 2 Übergang von X auf X' :=-X mit N(,LL',D )-Verteilung und ,L': = -,L auf das Test-

problem mit (Ho ,Hl) zurückführen. Als Test ergibt sich dann der

Einseitige (unter) GauJ3-Test:

Ablehnung von Ho: ,LL > po zum Niveau a U - t ( x ) > z a U p(t(x)) : = @ ( t ( ~ ) ) a

mit der Teststatistik T aus 14.1 (3) und der zugehörigen Testfunktion d;

(3) d;(x)=l U t ( x ) < - z a U - t ( x ) > z a .

Die Schärfe dieses Tests ist

mit der Nichtzentralität ~ ( , L L ) aus 14.1 (5).

Unter Verwendung der oberen Konfidenzgrenze f i ( X ) = + da für ,LL zur Sicher- o,a

heit 1- a aus 3.1 läßt sich die Testentscheidung äquivalent wie folgt formulieren.

Der Test lehnt die Nullhypothese genau dann ab, wenn f i ( X ) <p0 ist, d.h. wenn o,a

die Nullhypothese keinen Parameterwert des einseitigen Konfidenzintervalls

(km, fi0,, ( X ) ) enthält, d.h.

Page 132: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

14. Testen von Hypothesen 26.7.02 14 - 9

14.3 Zweiseitiger Gauß-Test

Im Normal-Verteilungsmodell aus 14.1 betrachten wir jetzt das zweiseitige Testpro-

blem mit den Hypothesen

(1) Nullhypothese H o : ~ = ~ o bzw. Ho = {PO},

(2) Hypothese H1:p bzw. Hl = R - b 0 } .

Da jetzt sowohl hohe positive als auch hohe negative Werte der Teststatistik T aus

14.1 gegen die Nullhypothese sprechen, verwenden wir den Absolutbetrag I T I als

neue Teststatistik und betrachten den zweiseitigen Test d2 mit

(3) d2(x) = 1 * I t(x) 1 > Q2 .

wobei z das obere 42-Quantil von N(0,l) ist. Die Schärfe des Tests ist &/2

mit der Nichtzentralität y(p) aus 14.1 (5) und den Schärfen der beiden einseitigen

Gauß-Tests aus 14.1 (7) und 14.2 (4). Folglich hat der Test d2 das Niveau

Pow2(pJ = a und heißt auch der

Zweiseitige Gauj3-Test:

Ablehnung von H : p = p zum Niveau a U 0 0 I t(x) I 2 z&12 U p(t(x)) := 2@(-lt(x)l) < a .

Der zweiseitige Test zum Niveau a lehnt also H : p = p genau dann ab, wenn einer 0 0

der beiden einseitigen die Nullhypothese zum halben Niveau 5 ablehnen.

Wie sich noch zeigen wird (in 14.3) ist die Schärfe des zweiseitigen Tests unter H1: p

t po ist stets kleiner (und somit das Fehlerrisiko ß(p) stets gröj3er) als bei dem ent-

sprechenden einseitigen Test zum gleichen Niveau a, d.h

für alle p > pO .

für alle p < pO .

Page 133: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

14. Testen von Hypothesen 26.7.02 14 - 10

Es besteht wieder ein Zusammenhang zwischen dem zweiseitigen Test und dem

zweiseitigen Konfidenzintervall I(a) für ,LL zur Sicherheit 1- ci! aus 2.1 (7) : der Test

lehnt die Nullhypothese genau dann ab, wenn po nicht im Konfidenzintervall liegt:

14.4 Anwendung

Qualitätskontrolle einer Tablettenproduktion

(Kinder-Osius-Timm, Beispiel 7.17)

Bei einer schmerzstillenden Tablette ist der Gehalt X [ in mg] des Wirkstoffs Ace-

tylsalicylsäure (produktionsbedingt) eine normalverteilte Zufallsvariable mit Er-

wartungswert ,LL und einer bekannten Streuung a = 20 mg. Vor der Auslieferung ei-

ner Tagesproduktion wird im Rahmen einer Qualitätskontrolle zum Niveau ci! = 1 % überprüft, ob der Sollwert von po = 300 mg eingehalten wird, d.h. es werden die Hy-

pothesen getestet

Nullhypothese Ho: ,LL = p0 (Sollwert eingehalten: Ware einwandfrei ), Hypothese H : ,LL t p0 (Sollwert nicht eingehalten: Ware nicht einwandfrei).

Die Tagesproduktion wird nur dann ausgeliefert, wenn die Nullhypothese nicht ab-

gelehnt wird. Der Fehler 1.Art besteht darin, daß die Tagesproduktion nicht ausgelie-

fert wird, obwohl sie einwandfrei ist (Produzenten-Risiko). Und der Fehler 2. Art liegt

vor, wenn die Tagesproduktion ausgeliefert wird, obwohl sie nicht einwandfrei ist

(Konsumenten-Risiko).

Bei n = 20 zufällig ausgewählten Tabletten war f i =F = 310,75 mg und wegen

t = 2,404 < z = 2,576 bzw. P= 2 @(-2,404) = 1,62 % > ci! = 1 % 4 2

lehnt der Gaufl-Test Ho nicht ab. Da ein Fehler 2. Art vorliegen kann, ist Ho zunächst

nur mit dem unbekannten Fehlerrisiko 2. Art ß „abgesichertn.

Page 134: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

14. Testen von Hypothesen 26.7.02 14 - 11

Abb. 1: Dichte der N(0 , 1)-verteilten Teststatistik T unter ,LL = po mit Fehlerrisiko .o und Signifikanzniveau P = P($ des beobachteten Testwerts t = t(x).

Annahme I Ablehnung Annahme I Ablehnung

Annahme

einseitig u n t e r e r Tes t

I

zweisei t iger Tes t

-4 -Za/2 0 Za/2 4 -4 -Itl 0 Itl 4

Page 135: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

14. Testen von Hypothesen 26.7.02 14 - 12

Abb. 3: Die zweiseitige Schärfe Pow2 als Funktion von y = y ( ~ ) für a = 5% links: im Vergleich mit beiden einseitigen Schärfen (dünn) zum Niveau a rechts: als Summe der beiden einseitigen Schärfen (dünn) zum Niveau $

Abb. 2: Die einseitigen Schärfen Powl, POW; als Funktion von y = y ( ~ ) für a = 5%

-4 -3 -2 -1 0 1 2 3 4 Nichtzentralität

100

90 -

80 -

70 -

"P 60- C .- a, - 50 - :m C $ 40-

30 -

20 -

10 - a 0

-4 -3 -2 -1 0 1 2 3 4 Nichtzentralität

100 100 100

- 90 90 90

- 80 80 80

- 70 70 70

- 60 "P 60 C

60 .-

- 50 a, - 50 :m 50 C

- 40 $ 40 40

- 30 30 30

- 20 20 20

- 10 10 10 a a a

8 8 8 8 1 , 8 8 8 1 , 8 8 8 141 8 8 8 8 1 , 8 8 8 1 , 8 8 8 1 , 8 8 8 0 0 0 -4 -3 -2 -1 0 1 2 3 4 -4 -3 -2 -1 0 1 2 3 4

Nichtzentralität Nichtzentralität

Page 136: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

15. Likelihood-Quotienten-Tests 4.4.03 15- 1

15. Likelihood-Quotienten-Tests

Nachdem wir für Normalverteilungen den Gauß-Test kennengelernt haben, wollen

wir jetzt schärfste Test definieren und das fundamentale Lemma von Neymann und

Pearson beweisen. Die daraus resultierenden Likelihood-Quotienten-Tests werden für

einparametrige Exponentialfamilien näher betrachtet.

15.1 Schärfste Tests und Neymann-Pearson Lemma

Definition: schärfster Test

Ein Test d für ein Testproblem mit einfachen Hypothesen Ho ={Bo} und

Hl = {Bl} heißt ein schärfster (engl.: MP = most powerful) Test zum Niveau u,

wenn d das Niveau ci! hat, d.h.

(1) Powd(eo) = a ~ Z W . ad(e0) = U ,

und jeder andere Test d* mit Niveau < u keine gröflere Schärfe auf H1 bzw. kein

kleineres Fehlerrisiko 2. Art besitzt , d.h.

(L] POwd*(eo) < C)L * pOwd*(el) < pOwd(el) ~ Z W .

ad*(eO) a " + pd*(el> r ßd(el) .

Definition: gleichmäJig schärfster Test

Ein Test d für ein Testproblem mit beliebigen Hypothesen Ho und Hl heißt ein

gleichmäJ32g schärfster (engl.: UMP = uniformly most powerful) Test zum Niveau

or, wenn es einen Parameterwert B. E Ho aus der Nullhypothese gibt mit

(3) a = P o w ( B ) = s u p { P o w d ( B ) ~ B ~ H o } d o bzw.

" = "d(eo) = su~{"d(e) I B E H O } > und für jeden Parameterwert Bl E Hl aus der Alternative der Test d ein bester

Test zum Niveau a für die einfachen Hypothesen HO = {Bo} und H;= {Bl} ist,

d.h. für jeden anderen Test d* gilt

(4) powd*(eo) a " * powd*(el) a p ~ w , < e ~ > bzw.

ad*(eO) 5 " + ßd*(el> 2 ßd(el) für alle el E H~ .

Page 137: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

15. Likelihood-Quotienten-Tests 4.4.03 15- 2

Wir setzen jetzt wieder ein parametrisches Dichte-Modell für die Stichprobe

X = (Xl, ..., Xn) voraus, d.h. die Verteilung .do(X) besitzt für jedes B E B eine Dichte

fo = f(- 18) : IRn + IR bzgl. eines von 8 unabhängigen o-endlichen Maßes U auf

IR^, P).

Definition und Lemma von Ne yman-Pearson

Für das Testproblem mit den einfachen Hypothesen Ho = {Bo} und H1 = {e1} und ein festes X. > 0 ist der Neyman-Pearson Test d definiert durch

(5) 4x1 = 1 * f(x I oll > X. .f(x I Bol für alle X E IR^.

Dann ist d ist ein schärfster Test zum Niveau

(6) a : = P o w d (8 o ) .

Zusatz:

Sind Trk := {f(- I Bk) > 0) die Träger von .d(X) unter der Hypothese Hk für

k E {0, I), so liegt X unter beiden Hypothesen Po-fast sicher in Tr : = Tro U Trl.

Im nicht-trivialen Fall X o > 0 ist der Neyman-Pearson Test d der einzige

schärfste Test zum Niveau a, d.h. für jeden anderen Test d* gilt:

(7) powd*(e0) = powd(e0) und powd*(e1) = powd(e1) + ( d*(x) = d(x) für alle X E Tr ) U-fast-überall.

Man beachte, daß der Fall X. = 0 trivial ist, weil dann wegen d = 1 die Nullhypo-

these (unabhängig von der Realisierung X) stets abgelehnt wird, und somit

Powd = 1 sowie a = 1 ist. Wir setzen daher im folgenden X. > 0 voraus.

Definition: Der Dichte- oder Likelihood-Quotient ist auf Tr definiert durch

(8) X(X) = X ( X ~ B ~ , B ~ ) : = f(x I 0,) -

- I X)

E[O,oo] fÜrxETr , f(x I 0,) I X)

und wird auf dem Komplement C T ~ gleich Null gesetzt:

(9) X ( X I ~ ~ , ~ ~ ) : = O für X Sf Tr .

Page 138: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

15. Likelihood-Quotienten-Tests 4.4.03 15- 3

Der Neymann-Pearson-Test d läßt sich nun äquivalent formulieren als

(5) ' d(x)= i U X(x I B. ,Bl) 2 X. für alle X E IRn,

und wird auch als ein Likelihood-Quotienten-Test bezeichnet, weil er den Likelihood-

Quotienten A = X(X 1 B. , 0,) als Teststatistik verwendet. Das Testniveau a hängt

vom vorgegebenen kritischen Wert X. ab, denn (6) ist äquivalent zu

und somit ist X. ein oberes a-Quantil der Verteilung von A unter Ho. Wenn die Ver-

teilung von A unter Ho eine stetige Verteilung ist, so läßt sich zu jedem vorgegebenem

Niveau a stets ein a-Quantil X. mit (6)' finden. Wenn die Verteilung von A unter

Ho dagegen eine diskrete Verteilung ist, so läßt sich nur für spezielle vorgegebenem Ni-

veaus a ein a-Quantil X. mit (6)' finden.

15.2 Monotone Likelihood-Quotienten

Wir betrachten jetzt Hypothesen über eindimensionale Parameter, d.h. es ist jetzt

S= 1 und O C IR sei ein offenes Intervall. Weiter wollen wir (wie schon an verschie-

denen Stellen zuvor) voraussetzen, daß der Träger Srg = {fg > 0) unabhängig vom

Parameter B ist, d.h. es gilt

(RIO) Tr = Tr 9 für alle B.

Dann ist der Likelihood-Qotient

(1) X(x) = X(x 1 Bo,Bl) := f(x I Q , ) -

- L(Ql I X)

E ( 0 , ~ ) für X E Tr f(x I Q , ) I X)

auf dem Träger Tr für alle Bo, B1 definiert und endlich.

Eine meßbare Funktion t :Tr+IR heißt eine monotone Likelihood-Quotienten

Transformierte (kurz: monotoner Likelihood-Quotient), wenn es zu jedem B. < B1 eine

streng monoton wachsende (und somit auch meßbare) Funktion W(- I B. ,B1) gibt, so-

daß gilt

PI x ( x I B o , B l ) = w(t(x) I B o , B l ) für alle X E Tr.

Man beachte, daß die Funktion t nur von der Stichprobe X, also nicht vom Parame-

ter abhängt. Entscheidend ist dabei, daß der Likelihood-Quotient (2) nur noch über

t(x) von der Stichprobe X abhängt und streng monoton wachsend bzgl. t(x) ist.

Page 139: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

15. Likelihood-Quotienten-Tests 4.4.03 15 - 4

Wir betrachten nun das einseitige Testproblem mit der einfachen

(3> Nullhypothese H o : B = B o bzw. Ho = iB0} mit festem Sollwert (Referenzwert) B. E O und der zusammengesetzten einseitigen

(4) Hypothese H, : B > B, bzw. H l = { B ~ O I B > B o } .

Es sei jetzt t(-) eine monotone Likelihood-Quotienten Transformierte, und wir be-

trachten den auf der Teststatistik T = t(X) basierenden Test d mit kritischem Wert

to, definiert durch

Dieser Test ist für jedes B1 > B 0 äquivalent zum Likelihood-Quotienten Test - vgl.

13.1 (5)' - der einfachen Hypothesen Ho = {BO} und H; = {Bl}, weil

t ( x ) > t o * ~ ( x I ~ o , ~ l ) = w ( t ( x ) I ~ o , ~ l ) > w ( t o I ~ o , ~ l ) = : ~ o .

Damit ist d ein gleichmäflig schärfster (d.h UMP) Test für das Testproblem (Ho,Hl)

zum Niveau

(6) a = P O W ~ ( B ~ ) = P { T> to} . 00

Der kritische Wert to ist also ein oberes a-Quantil der Verteilung 2 (T) der Test- 00

statistik T unter Ho. Wie bereits oben erwähnt, läßt sich für vorgegebenes Niveau a

ein solches Quantil to bei stetiger Verteilung 2 (T) stets bestimmen, bei diskre- 00

ter Verteilung dagegen im allgemeinen nicht.

Erweitern wir die einfache Nullhypothese zu

(7) % : B < B o ~ Z W . % = { B E B I B < B ~ }

so ist der Test d unter der Bedingung

(8) sup { powd(B) I B 5 Bo} = powd(Qo)

auch noch ein gleichmäßig schärfster (d.h. UMP) Test für (%,Hl). Die Bedingung

(8) ist z.B. dann erfüllt, wenn die Schärfe Powd auf f$ monoton wächst.

Page 140: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

15. Likelihood-Quotienten-Tests 4.4.03 1 5 - 5

15.3 Einparametrige Exponential-Familie

Wir betrachten jetzt wieder die Exponential-Dichte-Familien aus 7.2 mit eindimen-

sionalem Parameter, d.h. die Dichte von . d Q ( X ) bzw. das Likelihood hat die Form

(1) L ( 8 I x ) = f ( x 1 8 ) = e x p { a ( Q ) . b ( x ) + c ( Q ) + d ( x ) } für X E T r .

Der log-Likelihood-Quotient für B. < Q1 ist dann

(2) log x(x 1 8 0 , 81) = [a(Ql - a(QO)I . b ( x ) + [C@1 - c(Qo)l für X E T r .

Wenn die Funktion a auf O streng monoton wachsend ist, so ist die Funktion b eine

monotone Likelihood-Quotienten Transformierte bzgl. der Funktion

(3) w ( z I 80 , Q1) = exp([a (Q1 ) - a(Qo)l . z + c(Q1 ) - c(Qo) ) .

Mit t = b erhält man in diesem Fall einen gleichmäßig schärfsten Test für das ein-

seitige Testproblem mit den Hypothesen

Nullhypothese H o : 8 = 8 , bzw. Ho = { B o l

Hypothese H , : 8 > 8 , bzw. H l = { 8 ~ O 1 8 > 8 0 } .

Unter Verwendung des natürlichen Parameters = a ( 8 ) und der Monotonie von a

lassen sich die Hypothesen hier mit S10 = a(Bo) auch äquivalent formulieren als

(4) H o : Sl=Slo , H1: S l > d o .

Spezialfall: Identische Wiederholungen

Für die folgenden speziellen Verteilungsmodelle gehen wir jetzt zusätzlich davon

aus, daß die Komponenten von X = ( X 1 , ..., X J unabhängige Wiederholungen einer

Zufallsvariablen X sind, deren Verteilung aus einer konkreten eindimensionalen

Exponential-Familie stammt.

Page 141: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

15. Likelihood-Quotienten-Tests 4.4.03 15- 6

Normal-Verteilung mit bekannter Varianz

2 2 -2 Es sei 2(X) = N(p,a ) mit Q = p und bekanntem a . Mit a(p) = p a und

b(x) = X = n F gilt die Exponential-Darstellung (1). Ein Vergleich mit der Test- + funktion t des einseitigen Gauß-Tests aus 12.1 zeigt, daß t(x) streng wachsend in F

und somit auch in b(x) ist. Folglich ist mit b(-) auch t(-) eine monotone Likelihood-

Quotienten Transformierte, und somit ist der einseitige Gauß-Test zunächst ein

gleichmäßig schärfster (UMP) Test der einfachen Nullhypothese s = { p O } gegen

Hl = { p E IR I p > pol . Da seine Schärfe streng wachsend in p ist, ist der Gauß-Test

auch noch ein UMP Test bei zusammengsetzter Nullhypothese Ho = { p E IR I p 5 p0}

und Alternative Hl.

Der einseitige Gauß-Test mit den dualen Hypothesen ist natürlich auch ein UMP

Test. Aber der zweiseitige Gauß-Test mit der einfachen Nullhypothese Ho = {po}

und zusammengesetzter Alternative H1 = { p E IR I p t p } ist kein UMP Test, weil 0

für p > po bzw. p < p0 der entsprechende einseitige Gauß-Test (als UMP-Test) eine

höhere Schärfe hat. Man vergleiche hierzu auch 12.3 (5) bzw. (6), die sich jetzt aus

dem Neymann-Pearson-Lemma folgern lassen.

Binomial-Verteilung

Es sei 2(x> = B(1,p) mit I9 = p. Dann ist a(p) = logit(p) die (streng wachsende) Logit-

Transformation und b(x) = X Der zugehörige UMP Test für das einseitige Test- +' problem basiert also auf der Teststatistik b(X) = X , die eine B(n,p)-Verteilung + hat, und wird später im Kapitel 17 ausführlich behandelt.

Poisson-Verteilungsmodell:

Es sei 2(x> = Pois(p) mit I9 =,L Dann ist a(p) = log(p) die (streng wachsende) Lo-

garithmus-Funktion und b ( ~ ) = X Der zugehörige UMP Test für das einseitige +' Testproblem basiert also auf der Teststatistik b(X) = X , die eine Pois(np)-Vertei- + lung hat, und läßt sich analog zum Binomial-Verteilungsmodell in Kapitel 17 her-

Page 142: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

16. Testen eines Erwartunswertes 26.7.02 1 6 - 1

16. Testen eines Erwartungswertes

Für eine Zufallsvariable X soll ihr Erwartungswert p = E(X) mit einem festen Refe-

renzwert po verglichen werden, wobei das Testproblem wie folgt ein- oder zweisei-

tig gestellt sein kann:

H o : i L < P o , Hl: P > Po (einseitiges Testpro blem),

Ho:iL>iLo, H1+ < PO (duales einseitiges Testproblem),

H o : " = " o , Hl: P * Po (zweiseitiges Testproblem).

In der Praxis hängt es von der interessierenden Fragestellung ab, welches dieser

drei Testprobleme relevant ist, und wir geben hierfür jeweils typische Beispiele.

Ist X ein Schadstoffgehalt (z.B. in einem Nahrungsmittel oder in der Luft) und po

der zulässige gesetzliche Grenzwert, so ist der Konsument am einseitigen Test-

problem interessiert

Ho: P < Po (Grenzwert wird nicht überschritten),

Hl : P > Po (Grenzwert wird überschritten).

Ist X die Lebensdauer eines technischen Produkts und po die vom Hersteller ga-

rantierte Mindestlebensdauer, so ist für die Qualitätskontrolle das (duale) einsei-

tige Testproblem von Interesse:

Ho: P 2 Po (Mindestlebensdauer wird erreicht),

Hl : P < Po (Mindestlebensdauer wird nicht erreicht).

Ist X der Wirkstoffgehalt eines Medikaments und po der Sollgehalt laut Pa-

ckungsbeilage, so interessiert man sich für das zweiseitige Testproblem

Ho: P = Po (korrekte Dosierung),

Hl : P * Po (falsche Dosierung: Über- oder Unterd~sierun~).

Ausgangspunkt für die Tests ist wieder eine Stichprobe X = (Xl, ..., Xn) vom Umfang

n, deren Komponenten unabhängige Wiederholungen von X sind. Die beobachtete Re-

alisierung von X wird mit x bezeichnet.

Page 143: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

16. Testen eines Erwartunswertes 26.7.02 16- 2

16.1 Einseitiger (oberer) t-Test von Student im Normal-Verteilungsmodell

Wir wollen die Testprobleme zuerst für normalverteiltes X betrachten, d.h. wir set-

zen voraus, daß X eine ~ ( ~ , a ~ ) - ~ e r t e i l u n ~ besitzt. Im Gegensatz zum Gauß-Test 2 (vgl. 12.1-3), bei dem die Varianz a als bekannt vorausgesetzt wird, gehen wir hier

2 davon aus, daß die Varianz a unbekannt ist, d.h. der unbekannte Parameter ist 2 jetzt I9 = (,L, a ) oder I9 = (,L, a) mit ,LL E IR und a > 0 und somit zweidimensional.

Zuerst betrachten wir das einseitige Testproblem mit den Hypothesen

(1) Ho:,LL<p0 bzw. Ho = {(P,O) I , L L < , L L ~ , O O ) ,

Hl+ > p0 bzw. Hl = { ( I L , ~ ) I I L > P ~ , D>( ) ) .

Der einseitige Gauß-Test aus 14.1 mit der der Teststatistik

ist zwar ein UMP Test für dieses Testproblem (vgl. 15.2), aber er läßt sich nur an- 2 wenden, wenn die Varianz a bekannt ist, was hier nicht der Fall ist. Es liegt aber

nahe, den Gauß-Test dahingehend zu modifizieren, daß man statt der Varianz a2

ihre Schätzung (vgl. Kapitel 3) verwendet:

(3) - 2 1 a (X) =-C (xi-X) 2

n -1 , Dies führt zu folgender Testfunktion t und Teststatistik T

Die Teststatistik besitzt besitzt eine (einfach) nichtzentrale t-Verteilung

(5) J', ,(T) = mit

(6) m : = n - 1 (Freiheitsgrad),

(7) y=y(,LL):= Jn (,LL-,LL0) (Nichtzentralitä~ ,

0

Page 144: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

16. Testen eines Erwartunswertes 26.7.02 1 6 - 3

Hieraus ergibt sich (analog zum Gauß-Test) der folgende Test zum Niveau a :

Einseitiger t-Test (von Student):

Ablehnung von Ho: p < po zum Niveau a U T > t m;a '

wobei t das obere a-Quantil der (zentralen) t-Verteilung bezeichnet. Die zugehö- m; a

rige Entscheidungsfunktion lautet

Da die Verteilung von T nur noch über die Nichtzentralitä y von p und o abhängt,

ist dies auch für die Testschärfe der Fall:

mit @ als Verteilungsfunktion der nichtzentralen tm(y)-Verteilung. Aus den Ei- m, 7

genschaften von @ ergibt sich m, 7

(10) Powl (y 1 a) ist streng wachsend in y

Da y seinerseits streng wachsend in p ist, ist die Schärfe Powl auch streng wach-

send in p. Unter Verwendung des Parameters y statt p lassen sich die Hypothesen

äqivalent formulieren durch

(11) H 0 : y < 0 bzw. Ho = {(y,o) 1 7 5 0 , o>o) ,

H l : y > O bzw. Hl = {(y,o) Ir>(), o>o}.

Das maximale Fehlerrisiko 1. Art unter Ho

(12) SUP { powl(7) I 7 0 1 = powl(0)

tritt genau für y = 0 bzw. p = pO ein. Folglich hat der einseitige t-Test auch dann

noch das Niveau a, wenn man die Nullhypothese einschränkt auf H:: p = po bzw.

H:: y = O .

Der Test läßt sich auch äquivalent formulieren durch:

Page 145: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

16. Testen eines Erwartunswertes 26.7.02 1 6 - 4

Die Wahrscheinlichkeit P{ t > t(x) ) wird auch als Signifikanzniveau des beobach- m -

teten Testwerts t(x) oder kurz als p-Wert (engl.: p-level), vgl. auch Abb. 1. Der p-Wert

ist die unter der Nullhypothese maximale Wahrscheinlichkeit dafür, daß die Teststati-

stik T mindestens so groß ist wie der beobachtete Testwert t(x)

(14) ~ { t m- > t(x)) = max P{T >t (x) ) . 7 5 0

In diesem Sinn ist der p-Wert ein Maß dafür betrachtet, wie „glaubwürdigu die Be-

bachtung X unter der Nullhypothese ist.

Wie beim Gauß-Test, so besteht auch hier wieder ein enger Zusammenhang zwi-

schen dem einseitigen t-Test und der unteren Konfidenzgrenze X- da für ,LL zur Si-

cherheit 1- u aus Abschnitt 4.3: der Test lehnt die Nullhypothese genau dann ab,

wenn ,LL die einseitige untere Konfidenzgrenze f i = X-$ für ,LL unterschreitet, 0 U,& a

d.h.

Der einseitige t-Test ist für u <+ kein UMP Test, denn für jedes feste o > 0 hat der

zugehörige Gauss-Test (als Likelihood-Quotienten Test) eine echt größere Schärfe,

d.h.

Da die Varianzschätzung 82 jedoch konsistent ist (vgl. Kapitel 3), konvergiert der

Quotient beider Teststatistiken für n+ CO gegen 1

Wegen

(18) lim n t n-l;a = Z a

konvergieren auch die kritischen Werte des t-Tests gegen den kritischen Wert des

Gauß-Tests und somit ist der einseitige t-Test im Sinn von (11) und (12) „asympto-

tisch äquivalent" zum einseitigen Gauss-Test und damit auch (in einem nicht näher

präzisierten Sinn) zumindest „asymptotisch UMP".

Page 146: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

16. Testen eines Erwartunswertes 26.7.02 1 6 - 5

Abb. 1: Dichte der t -verteilten Teststatistik T mit Fehlerrisiko U: (rechts) und m

Signifikanzniveau P für den beobachteten Testwert t = t(x) (links)

Annahme I Ablehnung Annahme I Ablehng von H von H

0

1 -a \ I einseitig oberer Tes t 1 L I

Ablehnung I Annahme Ablehnung I Annahme

einseitig u n t e r e r Tes t

zweisei t iger Tes t

Abb. 1: Dichte der t -verteilten Teststatistik T mit Fehlerrisiko U: (rechts) und m Signifikanzniveau P für den beobachteten Testwert t = t(x) (links)

Page 147: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

16. Testen eines Erwartunswertes 26.7.02 1 6 - 6

16.2 Dualer einseitiger (unterer) t-Test von Student im Normal-Verteilungsmodell

Im Normal-Verteilungsmodell betrachten wir jetzt das zu 16.1 (1) duale Testpro-

blem mit den Hypothesen

Dieses Testproblem kann man analog zu (Ho,Hl) behandeln oder direkt durch 2 Übergang von X auf X' :=-X mit N(,LL',D )-Verteilung und ,L': = -,L auf das Test-

problem für (Ho,Hl) zurückführen. Als Test ergibt sich dann

Einseitiger t-Test:

Ablehnung von HO: ,LL > po zum Niveau a U - T > t m;a '

mit der Teststatistik T aus 16.1 (4) und der zugehörigen Testfunktion d;

(2) d ; (x )= i U t ( x ) < - t m; a U - t ( x ) > t m; a .

Die Schärfe dieses Tests ist

Der Test läßt sich auch äquivalent formulieren durch

wobei das Signifikanzniveau des beobachteten Testwerts (p-Wert) - vgl. auch Abb. 16.1

- die unter der Nullhypothese maximale Wahrscheinlichkeit dafür, daß die Teststatistik

T höchstens so groß ist wie der beobachtete Testwert t(x)

~ { t < t(x)} = max P{T <t(x)} . m-

7 2 0

Weiter lehnt dieser Test die Nullhypopthese genau dann ab, wenn po die einseitige

obere Konfidenzgrenze f i = X + $ für ,LL überschreitet, d.h. o,a a

Page 148: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

16. Testen eines Erwartunswertes 26.7.02 1 6 - 7

Auch der einseitige untere t-Test ist für a <+ kein UMP Test, denn für jedes feste

a > 0 hat der zugehörige Gauss-Test (als Likelihood-Quotienten Test) eine echt grö-

ßere Schärfe, d.h.

16.3 Zweiseitiger t-Test von Student im Normal-Verteilungsmodell

Im Normal-Verteilungsmodell betrachten wir jetzt das zweiseitige Testproblem mit

den Hypothesen

(1) Ho:,LL=,LLo bzw. Ho: y = 0,

H1+ bzw. H l : y r 0 .

Da jetzt sowohl hohe positive als auch hohe negative Werte von T aus gegen die

Nullhypothese sprechen, verwenden wir den Absolutbetrag I T I als neue Teststati-

stik und betrachten den Test d2 mit

(2) d2(x) = 1 * I t(x) I 2 tm;&/2 .

wobei tm,.a/2 das obere 42-Quantil der (zentralen) tm-Verteilung ist. Hieraus ergibt sich der

Zweiseitiger t-Test:

Ablehnung von H : ,LL = ,LL zum Niveau a U ( T ( > tm;@. 0 0

Der zweiseitige Test zum Niveau a lehnt also Ho: ,LL = po wieder genau dann ab,

wenn einer der beiden einseitigen Tests die Nullhypothese zum halben Niveau a/2

ablehnen. Die Schärfe des zweiseitigen Tests ergibt sich daher als Summe der

Schärfen beider einseitigen Tests zum halben Niveau:

Der Test läßt sich auch äquivalent formulieren durch:

(4) d2(x) = 1 U 2 ~ { t m - > I t ( x ) l ) < a .

Page 149: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

16. Testen eines Erwartunswertes 26.7.02 1 6 - 8

wobei das Signifikanzniveau des beobachteten Testwerts (p-Wert) - vgl. auch Abb. 1 -

die Wahrscheinlichkeit unter der Nullhypothese dafür ist, daß der Absolutbetragm der

Teststatistik T mindestens so groß ist wie der beobachtete Absolutbetrag des Test-

wert t(x)

(5) P { l m l > t ( x ) } = 2P{ t m - > It(x)l}.

Es besteht auch wieder ein Zusammenhang zwischen dem zweiseitigen Test und

dem zweiseitigen Konfidenzintervall für ,LL zur Sicherheit 1- ci! aus Abschnitt 4.3: der

Test lehnt die Nullhypothese genau dann ab, wenn po nicht im zweiseitigen Konfi-

denzintervall (bu, a12 , P., 4 2 ) liegt:

(6) I TI 2 tm;aI2 * PO 6 ( fiu, a/i > PO, "12 1 .

16.4 Asymptotische Eigenschaften des t-Tests (bei beliebiger Verteilung)

In den meisten konkreten Anwendungen ist die Verteilungsklasse der Zufallsvari-

ablen X nicht bekannt, und man wird daher für einen Test nicht unbedingt voraus-

setzen wollen, daß X normalverteilt ist. Wir betrachten daher jetzt wieder ein beliebi-

ges Verteilungsmodell für l ( X ) , wobei wir nur vorausstzen, daß die Varianz

o2 = Var(X) endlich ist.

Die Verteilung der (auch in dieser allgemeineren Situation noch) intuitiv nahelie-

genden Teststatistik T aus 16.1 (4) hängt dann von der unbekannten Verteilung von

X ab und kann daher nicht explizit bestimmt werden. Dennoch kann man zumin-

dest für n i CO die asymptotische Verteilung der Teststatistik fi) wie folgt bestim-

men (wobei wir die Abhängigkeit von n wieder durch den Index „nn kennzeichnen):

(1) fi) A N (o,I) für ,LL=,LL o '

(2) fi) Pi - oo für ,LL<,LL~,

(3) fi) 5 + oo für ,LL>,LL~.

Die Schärfe des einseitigen (oberen) t-Tests

(4) POW?(,LL) = P { T ( ~ ) > ~ - n-l;a j

Page 150: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

16. Testen eines Erwartunswertes 4.8.05 1 6 - 9

konvergiert daher gegen die asymptotische Schärfe

für ,LL < p0 (5) P O W ~ ( , L L ) : = ~ ~ ~ P O W ~ " ) ( , L L ) = für ,LL=,LL

für ,LL > p0

Folglich ist das asymptotische Fehlerrisiko 1. Art ebenfalls gleich a

(6) 00 00 a := max Pow (,LL) = Q 1 1

P I P ,

Betrachtet man den Test der einfachen Nullhypothese H* : ,LL = po gegen H1: ,LL > po, 0

so konvergiert das Niveau des einseitigen t-Test nach (5) gegen a

(7) 1 : = P O W ~ ( , L L ~ ) I a f u r n + o o . ..

Dieses Resultat gilt auch dann noch für die erweiterte Nullhypothese HO: ,LL 5 ,LL, wenn das maximale Fehlerrisko 1. Art a m Rand d.h. für p = p auftritt:

0

Jn) 1 : = max ~ o w l ( ~ ~ ) = ~ o w l ( ~ ~ ) . P I P ,

Analog konvergiert auch die Schärfe des dualen einseitigen (unteren) t-Tests

gegen die asymptotische Schärfe

für ,LL > p0 (9) pow; = ; i pow; "(.) = 1 H für ,LL=,LL

0 - für ,LL < p0 I

und somit hat auch der duale einseitige (untere) t-Test das asymptotische Niveau a.

Und die Schärfe des zweiseitigen t-Tests

konvergiert ebenfalls gegen die asymptotische Schärfe

für ,LL=,LL

(11) Powy(,LL):= liiPowF)(,LL) = für p s p

0

Damit hat auch der zweiseitige t-Test das asymptotische Niveau a, und das Niveau

des zweiseitigen t-Tests konvergiert auch gegen a

Page 151: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

16. Testen eines Erwartunswertes 26.7.02 16- 10

Insgesamt haben wir somit gezeigt, daß die ein- und zweiseitigen t-Test das vorge-

genen Niveau a zumindest asymptotisch einhalten. Für die Praxis bedeutet dies, daß

man den t-Test bei nicht zu kleinem Stichprobenumfang n anwenden kann und

zwar unabhängig davon, welche Verteilung X besitzt, wobei allerdings das ange-

strebte Testniveau a im allgemeinen nur approximativ eingehalten wird.

16.5 Schärfe-Approximation des t-Tests bei beliebiger Verteilung

Wir wollen jetzt bei beliebiger Verteilung von X zunächst eine Approximation der

Testschärfe angeben. Ausgangspunkt der Schärfe-Approximation für den einseitigen

(oberen) Tests ist die Darstellung

(1) P O W ~ ( ~ ~ ~ ) = P { T > ~ - n-l;a ) = P { u + v > ~ - T ) a mit

Aus der asymptotischen Verteilung von U und V

ergibt sich

und aus (1) erhält man die Schärfe-Approximation

Da diese Approximation insbesondere auch für normalverteiltes X gilt, läßt sich die

exakte Schärfe im Normalverteilungsmodell ebenfalls so approximieren, d.h.

Page 152: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

16. Testen eines Erwartunswertes 26.7.02 16- 11

(9) P{t,(~)>t,,.,} =P{N(y, l )>z ,} für großes m.

Da wir jedoch bereits aus 16.1 wissen, daß für y > 0 und a < die Abschätzung gilt

P{tm(r) > t,,.,} < P{N(y,l) >z,},

kann man auch den kleineren Wert als Schärfe-Approximation verwenden

was den zusätzlichen Vorteil hat, daß dieser im Normalverteilungsmodell sogar

exakt mit der Schärfe übereinstimmt.

Für die Schärfe des dualen einseitigen (unteren) Test erhält man analog

und zusammen mit (7) die Schärfe-Approximation

Aus den Schärfe-Approximationen beider einseitigen Tests ergibt sich dann die

Schärfe-Approximation für den zweiseitigen Test

16.6 Versuchsplanung beim t-Tests

Die approximierte (und natürlich auch die exakte) Schärfe beim einseitigen (obe-

ren) Test konvergiert bei festem a für n + ~ unter der einseitigen Alternative

Hl : p > p gegen 1, weil dann y + W gilt. Dies kann man ausnutzen, um den erfor- 0

derlichen Stichprobenumfang n zu bestimmen, der bei vorgegebenem a, ß E (O, l ) ,

D > 0 und p > p O eine approximative Schärfe von mindestens 1-ß garantiert, d.h.

für den gilt

(1) APowl(p l a) : = P { ~ ( y , 1) > L,} = @(Y - z,) > 1 - ß bzw.

Page 153: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

16. Testen eines Erwartunswertes 26.7.02 16- 12

Hieraus ergibt sich der erforderliche Mindestumfang zu

2

(2) n ( * ~ , a,ß, Q) : = mit *P = 1 1 - P O I ,

der natürlich wieder auf eine ganze Zahl n aufzurunden ist. Man beachte, daß der

Mindestumfang nur über den Quotienten A P / a vom abzusichernden Unterschied

A,LL und der Standardabweichnung a abhängt.

Um sicherzustellen, daß auch bei normalverteiltem X die exakte Schärfe mindestens

1 - ß ist, kann man die Bedingung

(3) P{ t,(r 2 inPi,. 1 2 1 - ß ,

überprüfen, und gegebenfalls n schrittweise um 1 solange erhöhen, bis (5) gilt.

Für den einseitigen unteren Test ergibt sich der erforderliche Mindestumfang, der

für vorgebenenes u, ß E (0, I), a > 0 und ,LL < p0 eine approximative Schärfe minde-

stens 1-ß erreicht, ebenfalls aus (2). Und um sicherzustellen, daß auch bei normal-

verteiltem X die exakte Schärfe mindestens 1-ß ist, erhöht man n gegebenfalls so-

lange, bis gilt

Für den zweiseitigen Test nutzt man zur Bestimmung des erforderlichen Minde-

stumfang, der für vorgebenenes a, ß E (0, I), a > 0 und ,LL s ,LL eine approximative 0

Schärfe von mindestens 1-ß erreicht, aus, daß die (approximierte) Schärfe des

zweiseitigen Tests die Summe der beiden einseitigen Tests zum halben Niveau ; ist:

Konkret bestimmt man n(&, a,ß,") aus (2) - und erhöht das resultierende n gege- 2

benfalls damit (3) bzw. (4) mit 5 statt u gelten. Für den so ermittelten Umfang n ist

die (approximierte) Schärfe dann mindestens 1-ß, weil dies bereits für einen der

beiden Summanden in (5) gilt.

Page 154: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

17. Testen einer Wahrscheinlichkeit 4.4.03 17- 1

17. Testen einer Wahrscheinlichkeit

Für ein interessierendes Ziel-Ereignis A (oft als „Erfolg" bezeichnet) soll jetzt die

Eintrittswahrscheinlichkeit p = P(A) mit einer vorgegebenen Wahrscheinlichkeit po

verglichen werden, wobei das Testproblem wie folgt ein- oder zweiseitig gestellt

sein kann:

H ~ : P S P ~ , Hl: P > P o (einseitig oberes Testproblem),

H ~ : P > Po , H;:P< Po (einseitig unteres Testproblem),

H o : p = P 0 , Hl: P *Po (zweiseitiges Testproblem).

Ausgangspunkt ist eine Stichprobe X = (X1, ..., X,) bestehend aus n unabhängigen

Wiederholungen einer B(1,p)-verteilten Zufallsvariablen. Die Summe

X = X + ...+ X ist dann B(n,p)-verteilt, und wir wissen bereits + 1 n

Das Likelihood der Stichprobe hängt nur noch über die Summe X von X ab + (vgl. 10.3)

Der UMP-Test für die einfache Nullhypothese HO : p = po gegen Hl : p > po basi-

sert auf der Summe X als Teststatistik (vgl. 15.3). + Statt der Stichprobe X können wir deshalb gleich von der Summe X ausgehen und + diese vereinfachend mit X = X bezeichnen. + Formal gehen wir im folgenden daher von einer eindimensionalen B(n,p)-verteilten

Stichprobe X aus, wobei 0 < p < 1 gelten soll. Die beobachtete Realisierung von X

wird mit X E (0, ..., n} bezeichnet.

Page 155: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

17. Testen einer Wahrscheinlichkeit 4.4.03 17- 2

17.1 Einseitiger oberer Test einer Wahrscheinlichkeit

Zuerst betrachten wir das einseitige Testproblem mit den Hypothesen

wobei 0 <po < 1 gelten soll. Die identische Abbildung ist hier eine monotone Likeli-

hood-Quotienten Transformierte (vgl. 15.3 und 10.3), und somit ist der Likelihood-

Quotienten Test dl von der Form

wobei ohne Beschränkung der Allgemeinheit 5 E (0, ..., n} sei (der Index o steht für 0

oben). Die Schärfe

ist nach 4.2 (2) wachsend in p, und bis auf den trivialen Fall ko= 0 sogar streng

wachsend. Folglich ist der Likelihood-Quotienten Test dl auch für die nicht-einfache

Nullhypothese Ho : p < po ein UMP-Test, und das effektive Testniveau ergibt sich zu

Da X eine diskrete Verteilung besitzt, ist die rechte Seite von (4) eine fallende Trep-

penfunktion, die nur endlich viele Funktionswerte annimmt. Folglich gibt es nicht zu

jedem vorgegebenen Niveau a ein ko, so daß der resultierende Test dieses effektive

Niveau hat. Hier bieten sich drei mögliche Auswege an:

Beschränkung auf natürliche Niveaus a, d.h. solche von der Form (4),

Verwendung eines randomisierten Tests,

Verwendung eines konservativen Tests zum nominellen Niveau a.

Bei einem randomisierten Test hängt die Test-Entscheidung nicht nur von der Stich-

probe X ab, sondern noch von einer weiteren „externenu Zufallszahl Z, die von X

unabhängig ist. Obwohl randomisierte Tests theoretische Vorzüge besitzen, haben

sie sich in der Praxis aus folgenden Gründen nicht durchgesetzt. Einerseits ist nicht

einsichtig, warum eine Entscheidung über die Verteilung von X von einer externen

Zufallszahl Z abhängen soll. Und andererseits ist eine solche Entscheidung nicht re-

produzierbar, weil bei gleicher Realisierung X von X unterschiedliche Realisierungen

Page 156: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

17. Testen einer Wahrscheinlichkeit 4.4.03 17- 3

von Z und somit auch unterschiedliche Entscheidungen möglich sind. Wir haben

deshalb bisher auf randomisierte Tests verzichtet und werden den hier angemesse-

nen randomisierten Test in 17.1.2 nur kurz zur Illustration vorstellen.

Ein Test zum nominellen Niveau a ist ein Test dessen effektives Niveau a höch- eff

stens gleich dem nominellen Niveau a ist. Ein solcher Test ist in dem Sinn konserva-

tiv, daß sein maximales Fehlerrisiko 1. Art a die vorgegebene nominelle Irrtums- eff

wahrscheinlichkeit a im allgemeinen nicht voll ausschöpft und im Einzelfall sogar

erheblich kleiner sein kann. Bei einem konservativen Test ist daher typischerweise

das Fehlerrisiko 2. Art höher bzw. die Schärfe geringer als bei einem Test zum

exakten Niveau a.

17.1.1 Exakter Test zum nominellen Niveau

In der vorliegenden Situation ergibt sich ein Test zum nominellen Niveau a, wenn

man den (oberen) kritischen Wert 5 wie folgt wählt: 0

Man beachte, daß ko auch den Wert n + l annehmen kann, und zwar für

" = P{B(n ) = n ) = P{B(n,p0) > n ) . < P, 0

Der Wert ko- 1 ist übrigens ein (1- a)-Quantil von B(n,p0), weil

(2) P{B(n,po)< ko-1) < 1- a < P{B(n,po)<k o -1).

Mit dem Wert 5 aus (1) ergibt dann der 0

Exakte einseitige obere Test einer Wahrscheinlichkeit:

Ablehnung von Ho: p < po zum nominellen Niveau a

U X > k (4 0

U P{B(n,po) > X ) < a ,

wobei die letzte Formulierung den Vorteil hat, daß man den kritischen Wert 5 (a) 0

nicht bestimmen muß, sondern statt dessen die als Signifikanzniveau oder P-Wert der

Beobachtung X bezeichnete Wahrscheinlichkeit P{B(n,po) > X ) berechnet und mit

dem nominellen Niveau a vergleicht. Das Signifikanzniveau ist die unter der ungün-

Page 157: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

17. Testen einer Wahrscheinlichkeit 4.4.03 17- 4

stigsten Auslegung der Nullhypothese (d.h. für p =PO) berechnete Wahrscheinlich-

keit dafür, daß die Stichprobe X den beobachteten Wert X oder gröflere Werte (die unter

der Nullhypothese noch unwahrscheinlicher als X sind) annimmt. Man kann sie

kurz als Maß für die Glaubwürdigkeit der Nullhypothese im Lichte der Beobach-

tung X auffassen, und der Test lehnt die Nullhypothese genau dann ab, wenn diese

Glaubwürdigkeit zu gering ist.

Der exakte einseitige Test läßt sich auch unter Verwendung der exakten unteren

Konfidenzgrenze j (X) aus 4.2 entscheiden, weil gilt: U , &

Man beachte, daß dieser Test ein UMP Test zum effektiven Niveau Q aus 17.1 (4), eff

aber im nicht zum nominellen Niveau Q ist, ausgenommen natürlich wenn Q ein na-

türliches Niveau der Form 17.1 (4) ist.

17.1.2 Randomisierter Test

Wenn das effektive Niveau Q < Q ist, so kann man einen randomisierten Test ver- eff

wenden, dessen maximales Fehlerrisiko 1. Art genau das vorgegebene Niveau Q er-

reicht. Die Entscheidung des randomisierten Tests unterscheidet sich von der des

exakten Tests nur im Fall X = ko- 1 mit ko aus 17.2.1 (1). Und in diesem Fall lehnt

man die Nullhypothese ab mit der Wahrscheinlichkeit

Q - P { B ( n , ~ ~ ) 2 5,) Q - Q (1)

- Y = - eff

P{B(n,po) = ko-l) P{B(n,po) = 5,- 1) E [O ,1 ) .

Zur Durchführung des randomisierten Tests verwendet man eine von X unabhän-

gige Zufallsvariable Z mit B(1, Y)-Verteilung und generiert (mit einem geeigneten

Zufallsgenerator, vgl. unten) eine Realisierung z von Z. Die Entscheidungsfunktion

d des randomisierten Test ordnet dann jeder Realisierung (x,z) des Paares (X,Z) r

eine als Zahl kodierte Entscheidung d (x,z) zu mit folgender Bedeutung r

(2) d r (x,z) = 1 U Ho wird abgelehnt zugunsten von Hl aufgrund von (x,z).

Der oben beschriebene randomisierte Test ist dann gegeben durch:

Page 158: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

17. Testen einer Wahrscheinlichkeit 4.4.03 17- 5

falls X 2 ko

(3) falls X = ko-1 } bzw. falls x < k o - 1

dT(x,z) = 1 U x > k o oder ( x = k o - l u n d z = l ) .

Man beachte, daß die „externeu Realisierung z nur im „Grenzfallu X = k - 1 ver- 0

wendet wird. Die Schärfe dieses Tests

Pow I r (p) : = P{ dr(X, Z) = 1 1 p } = P{ B(n, p) 2 ko } + a - aeff

ist nach 4.2 (2) wachsend in p. Folglich tritt das maximale Fehlerrisiko 1. Art für

p = p auf und entspricht dem vorgegebenen Niveau a : 0

(5) POW I r o 1 k ) o = Q .

Durch das Zurückgreifen auf eine „externeu Zufallsvariable Z erreicht der randomi-

sierte Test also das angestrebte Niveau a. Für einen Praktiker ist dies - wie bereits

bemerkt - unbefriedigend, weil die externe Zufallsvariable Z nichts mit der unter-

suchten Zufallsvariable X zu tun hat, und die Entscheidung dr(x,z) bei gleicher Re-

alisierung x nicht reproduzierbar ist, weil sie noch von der Realisierung z abhängt.

Dafür hat der randomisierte Test für a < a eine größere Schärfe als der exakte eff

Test aus 17.1.2 zum nominellen Niveau a, weil

Pow = P O W ~ ( ~ ) + a - a I r eff

Dies ist kein Widerspruch zum Neymann-Pearson-Lemma, weil der exakte Test ein

UMP-Test zum effektiven Niveau a aber nicht zum nominellen Niveau a ist. ef?

Man kann die Zufallsvariable Z aus einer von X unabhängigen Zufallszahl U mit

stetiger Gleichverteilung SG(0,l) auf dem Einheitsintervall (0,l) gewinnen, indem

man Z als Indikatorvariable für das Ereignis { U 5 y } wählt:

(7) 1 falls

0 falls U > y

Unter Verwendung einer Realisierung U von U - die man z.B. unter Verwendung ei-

nes (Pseudo-)Zufallsgenerators auf einem Rechner erzeugen kann - läßt sich der

randomisierte Test dann äquivalent formulieren durch:

(8) dr(x,u) = 1 U x > k o oder ( x = k o - l u n d u 5 y ) .

Man beachte, daß sich für a = a bzw. y = 0 wieder der exakte Test ergibt. eff

Page 159: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

17. Testen einer Wahrscheinlichkeit 4.4.03 17- 6

17.1.3 Asymptotischer Gauß-Test

Da die Stichprobe X für großes n approximativ normalverteilt ist, kann man auch ei-

nen entsprechenden Gauß-Test anwenden. Ausgehend von der Schätzung P = l X

für p und der Testgröße

(1) t(x) : = J;I (P - P,)

mit 2 0 0 := PO (l-p0)

0 0

ist der entsprechende (asymptotische) Test d i definiert durch

Die Schärfe dieses einseitigen Tests ist (wobei wir wieder mit dem Stichprobenum-

fang n indizieren)

(3) > z mit

(4) fi) = t(n)(x(n)).

Da der Test von der Form 17.1 (2) ist mit kritischen Wert ko = kö(a) , hat er nach

17.1 (4) das Niveau

(5) 1 = P{ B(n,po) > kö(a)} = P{ T ( ~ ) > Z, 1 = P O W ~ ( ~ J

Aus der asymptotischen Verteilung der Teststatistik fi)

(6) f i ) i N(0,l) für p = P n+ 00 0 '

P (7) fi) - - a? n+ 00

für p <po ,

(8) fi) + a? für p >po . n+ 00

ergibt sich seine asymptotische Schärfe als Grenzwert der exakten Schärfen (3) zu

für p < po (9) ~ o w i ( ~ ) := k% P O W ~ ( ~ > = für p = P o

für p > po

Folglich ist das asymptotische Fehlerrisiko 1. Art ebenfalls gleich a

(10) 00 00

Q := max Pow = a , 1 P I P o 1

Page 160: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

17. Testen einer Wahrscheinlichkeit 4.4.03

und die Niveaus u p konvergieren gegen das asymptotische Niveau u

(11) Jn) 1 = P O W ~ ) @ ~ ) - n+ 00 u f u r n + o o . ..

Der Test d i hat daher das asymptotische Niveau u und heißt auch der

Asymptotische einseitige obere GauJ3-Test einer Wahrscheinlichkeit:

Ablehnung von Ho: p < po zum asymptotischen Niveau u U t(x) > za.

Der asymptotische Test hat nur approximativ das Niveau u und sollte nur bei nicht

zu kleinem n und nicht zu extremen Werten von po angewandt werden. Nach einer 2 Faustregel sollte die Approximation für n o0 > 5 zufriedenstellend sein.

Der asymptotische Test läßt sich wieder äquivalent beschreiben sowohl unter Ver-

wendung des asymptotischen Signifikanzniveaus (P-Werts) der Beobachtung

als auch der asymptotischen unteren Konfidenzgrenze j7 (X) für p ( ~ ~ 1 . 4.5): u , a

Page 161: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

17. Testen einer Wahrscheinlichkeit 4.4.03 17- 8

17.2 Einseitiger unterer Test einer Wahrscheinlichkeit

Wir betrachten jetzt das duale einseitige Testproblem mit den Hypothesen

Dieses Testproblem kann man analog zu (Ho,Hl) behandeln oder direkt durch

Übergang von X auf XI := n- X mit B(n,pl)-Verteilung und p1 : = 1-p auf das Test-

problem mit (Ho ,Hl) zurückführen. Mit dem unteren kritischen Wert

ergibt sich dann der

Exakte einseitige untere Test einer Wahrscheinlichkeit:

Ablehnung von Ho: p > po zum nominellen Niveau a U

x a k U (01) U

P { B ( ~ , P ~ ) a X ) a a U

@',,,(X) a PO .

Die Schärfe dieses Tests ist

(3) POW;(P) = POW;(P l ku(a)) : = P{ ~ ( n , P) a ku(a) 1 Und als asymptotischer Test ergibt sich der

Asymptotische einseitige untere Gauj3-Test einer Wahrscheinlichkeit:

Ablehnung von Ho: p > po zum asymptotischen Niveau a U

- t(x) > z a U

@(t(x)) < a U

- p0,,(x) 5 Po .

Page 162: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

17. Testen einer Wahrscheinlichkeit 4.4.03 17- 9

17.3 Zweiseitiger Test einer Wahrscheinlichkeit

Schließlich betrachten wir das zweiseitige Testproblem mit den Hypothesen

Der exakte zweiseitige Test zum nominellen Niveau ci! lehnt die Nullhypothese wie-

der genau dann ab, wenn einer der beiden exakten einseitigen Tests die Nullhypo-

these zum halben nominellen Niveau 5 ablehnt:

Exakter zweiseitiger Test einer Wahrscheinlichkeit:

Ablehnung von H : p = p zum nominellen Niveau ci! 0 0 U

X > "(;) oder X < \(;) U

P{B(n,po) > X ) < ; oder P { B ( n , p o ) < x ) < ;

< I; ( X > Po - u,a/2 oder @',,„(X) PO .

Die Schärfe des zweiseitigen Tests ergibt sich wieder als Summe der Schärfen bei-

der einseitigen Tests zum halben Niveau:

Und als asymptotischer zweiseitiger Test ergibt sich analog der

Asymptotische zweiseitige Gauj3-Test einer Wahrscheinlichkeit:

Ablehnung von H : p = p zum asymptotischen Niveau ci! 0 0

U I t(x) 1 za12

U 2 G(- t ( ~ ) ) ci!

U p0 6 ( Pu, a / 2 ( ~ ) j ' o , a / 2 ( ~ ) .

Page 163: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

17. Testen einer Wahrscheinlichkeit 4.4.03 17- 10

Test-Box: exakter Test über die Wahrscheinlichkeit p einer B(n , P)-verteilten Zufallsvariablen X.

einseitig oben

Ho: P < P O VS.

H: P > P o

einseitig unten

Ho: p > p 0 VS.

H: P < P o

zweiseitig

Ho: P = P , VS.

H: P * P o

Testniveau (Fehlerrisiko 1. Art): a (nominell) Stichprobenumfang: n Beobachtete Anzahl der Eintritte: X

beobachtete Eintrittsquote: 1 p = - X

n

Testwert: X

exakte Konfidenzgrenzen für p: $ , , ( X ) < Po,,(X) B(n, -Verteilung:

ko(a) = min { 0 < k < n I P{ B(n, > k ) < a } oberes a-Quantil

ku(a) = max { 0 < k < n I P{ B(n, < k } < a } unteres a-Quantil

Test-Entscheidung: Ablehnung von Ho (Annahme von H), falls gilt

einseitig oben

X > ko(a)

P{B(n,po) > X ) < a

< P (4 P O - u,a

einseitig unten

X < k u (01)

P{B(n,pJ < X ) < a

Poia(x) 5 PO

zweiseitig

X > ko(:) oder X < ku(5)

P{B(n,pJ > X ) < 5 oder

P{B(n,pJ < X ) < 5 po 6 ( Pu,al2(x) Po,a/,(x) 1.

Schärfe (Power), effektives Niveau a und Fehlerrisiko 2. Art Pb) e f f

einseitig oben

P0wl(p I 4 =

P{ B(n, P) 2 k 0 ( 4 1 a eff = Powl(~o I P(,) = 1 - Powl(p la )

einseitig unten

POW; I a ) =

P{ B(n, P) < k U ( 4 1 a eff = Pow; 1 a )

ß(p) = 1 - Pow;(p I

zweiseitig

pow2(p I =

P0w1(p I;) + POW;(P I;) eff = P o w ~ ( P ~ Ia)

P(P) = 1 - POW,(P I

Page 164: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

17. Testen einer Wahrscheinlichkeit 4.4.03 17- 11

17.4 Approximation der Testschärfe und Versuchsplanung für den asymptotischen Test

Wir wollen jetzt für den asymptotischen Test eine einfache Approximation der

Schärfe herleiten. Im Rahmen einer Versuchsplanung kann dann für einen interes-

sierende Abweichung von der Nullhypothese der erforderlich Mindest- Stichprobe-

numfang bestimmt werden, bei dem die (approximierte) Schärfe einen vorgebenen

Wert erreicht.

Der Ausgangspunkt ist die approximative Normalverteilung der Standardisierung

X- n p (1) U =

- - Jn ( X 4 -P))

mit 413) Jn 4 ~ )

(2) ~ 2 ( ~ ) = ~ ( l - ~ ) .

Die Konvergenz der Verteilungsfunktion von Un gegen die der Normalverteilung

N(0,l) ist hierbei sogar gleichmäflig und von der Ordnung 1/h. Genauer gilt nach

einem Satz von Berry und Esseen (vgl. z.B. Gänssler-Stute 1977, Satz 4.2.10 und Ko-

rollar 4.2.15 ff.)

(3) I p{un < x)-P{N(o,~) < X ) 1

für alle X E IR I p{un > x)-P{N(o,~) > X ) 1

mit der von p abhängigen positiven Konstanten

c.(p2+(l-p)2) c.(l-202(p)) (4) C(P) =

- - > 0 , c = 0.7995. 4 ~ ) 4 ~ )

1 Die Funktion C(p) ist streng fallend in ~ ( p ) und nimmt ihr Minimum für ~ ( p ) =?, 1 also für p = - an. Und für a(p) + 0 (d.h. p + 0 bzw. p + 1) gilt C(p) + W. 2

Wir betrachten zuerst die Schärfe des einseitigen (oberen) Tests, die sich unter

Verwendung der standardisierten Variablen U wie folgt schreiben läßt:

Powl(p) = P{ U > - U +(P) } mit Jn(p-po) - ~ o r ~ ~

u+(P) = 4 ~ ) Da U approximativ N(0, 1)-verteilt ist, ergibt sich als approximierte Schärfe

Page 165: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

17. Testen einer Wahrscheinlichkeit 4.4.03 17- 12

1 Mit (3) ergibt sich, daß die Schärfe-Approximation von der Ordnung - ist: Jn

Man beachte, daß bei wachsendem Umfang n i CO zwar die Schärfe Powl(p) und

ihre Approximation APowl(p) im Fall p < p o gegen 1 konvergieren - weil dann

"+(P)+ CO gilt., aber gleichzeitig auch die Güte der Approximation nach (7)

steigt.

Für die Schärfe des dualen einseitigen (unteren) ergibt sich analog (oder durch An-

wendung des einseitig unteren Tests auf Y = n - X) zu

(8) Pow;(p) = P{ U a U-(p) } mit J n ( P 0 - P) - 2, 00

"-(P) = 4 ~ ) Und die zugehörige Schärfe-Approximation

1 ist wieder von der Ordnung - Jn

Da die Schärfe des zweiseitigen Tests die Summme der Schärfen beider einseitigen

Tests zum halben Niveau ist

(11) Pow2(p 1 Cl) = p0w1(p 1;) + pow;(P 1;) ,

ergibt sich als approximierte Schärfe

Im Fall p > po überwiegt der erste Summand A P O W ~ ( ~ 1 ;) deutlich den zweiten und

man kann vereinfachend auch nur den ersten Summanden verwenden, wodurch

Page 166: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

17. Testen einer Wahrscheinlichkeit 4.4.03

man eine Abschätzung der approximierten Schärfe nach unten erhält. Entspre-

chend kann im Fall p <po vereinfachend nur der zweite Summand APOW;(~ 1:) verwendet werden.

Nachdem wir die Schärfe-Approximationen für die asymptotischen Tests hergelei-

tet haben wollen wir jetzt auf die Versuchplanung eingehen, wobei wir mit dem ein-

seitigen (oberen) Test beginnen. Hierbei fixiert man einen „praktisch relevanten"

Wert pl > po und fragt nach dem erforderlichen Stichprobenumfang n, bei dem das

(approximierte) Fehlerrisiko 2. Art höchstens einen vorgegebenen Wert ß erreicht

bzw. die Schärfe A P O W ~ ( ~ J mindestens den Wert 1 - ß erreicht. Wegen

ergibt sich der erforderliche Mindestumfang zu

der dann auf eine natürliche Zahl aufzurunden ist.

Fragt man beim dualen einseitigen (unteren) Test nach dem Mindestumfang, der für

ein pl < po eine approximierte Schärfe APOW;(~~) von mindestens 1 - ß garantiert,

so ergibt sich analog wieder der Umfang n(pl, ß, a) aus (14).

Fragt man schließlich beim zweiseitigen Test nach dem Mindestumfang, der für ein

relevantes pl t p o eine approximierte Schärfe A P O W ~ ( ~ J von mindestens 1-ß ga-

rantiert, so kann man in näherungsweise den Umfang n(pl,ß g) mit dem halben ' 2

Niveau : verwenden. Dieser Umfang garantiert wegen (12) zwar A P O W ~ ( ~ ~ ) > 1- ß,

aber es ist nicht notwendig der kleinste Umfang mit dieser Eigenschaft.

Page 167: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

17. Tes ten einer Wahrscheinlichkeit 4.4.03 17 - 14

Test-Box: asymptotischer Test über die Wahrscheinlichkeit p einer B(n , P)-verteilten Zufallsvariablen X.

einseitig oben

Ho: P < P 0 VS.

H : P > P o

einseitig unten

Ho: P > P 0 VS.

H : P < P o

zweiseitig

Ho: P = P , VS.

H : P * P o

Testniveau (Fehlerrisiko 1. Art): a (asymptotisch) Stichprobenumfang: n Beobachtete Anzahl der Eintritte: X

beobachtete Eintrittsquote: 1 p=-X n

Testwert: t = & ( P - P,) 2

m i t o0 = p0 (1 - p O ) 0 0

2 Faustregel für Anwendbarkeit des Tes ts : n o0 > 5.

asymptotische Konfidenzgrenzen für p: Pu(X I U ) < Po(X l a ) N(0, 1)-Verteilung: za = a-Quantil

@ = Verteilungsfunktion (vgl. TabelleIRechner)

Test-Entscheidung: Ablehnung von Ho (Annahme von H), falls gilt

einseitig oben

t > z a

P : = @(-t) 5 a

< P (44 P o - U

einseitig unten

t s - z a

P : = @ ( t ) sa Po(. 1.1 s P ,

zweiseitig

ItI >zai2

P : = 2@(- I t I ) 5 a

P , 6 (PU(x l ;> P0<xI;) 1. Approximation der Schärfe Pow(p) und des Fehlerrisikos 2. Art ß(p)

.2(~) = P (1 - P )

einseitig oben

Jn (P - P,) - zago U =

4 ~ ) Schärfe: Pow(p) N @(U) , Fehlerrisiko: ß(p) N @(- U )

einseitig unten

Jn (P , - P) - zag0 U =

4 ~ )

zweiseitig

J n I P - P o l -za,200 U =

4 ~ )

Page 168: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

17. Testen einer Wahrscheinlichkeit 4.4.03 17 - 15

Versuchsplanungs-Box: Für Tests über die Wahrscheinlichkeit p einer B(n , P)-Verteilung

einseitig oben

Ho: P 5 Po H1 : P = P1 > Po.

einseitig unten

Ho: p > p 0 H1 : P = P1 < Po

zweiseitig

Ho: P =P,

Hl : P = P1 * Po

Vorgaben Fehlerrisiko 1. Art: Q

Fehlerrisiko 2. Art für p = pl: ß bzw. Schärfe für p = P .

1' P O W ( ~ ~ ) = 1 - P einseitig oben

CZ = Z a

Erforderlicher z ao + ~p al n E [ l 2 mit

00 = JPo(i_Po) Mindes tumfang P1 - Po 01 = Jp;(i_p;)

einseitig unten

Z = Z a

zweiseitig

= Z a / 2

Page 169: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

17. Testen einer Wahrscheinlichkeit 4.4.03 17- 16

17.5 Anwendungen

17.5.1 Vererbung eines Merkmals

In der Genetik wird versucht, den Erbgang eines phänotypischen Merkmals durch

ein möglichst einfaches Modell zu erklären und dieses dann durch Kreuzungsversu-

che zu überprüfen. Im einfachen Modell eines dominanten Erbgangs wird die Merk-

malausprägung durch ein Gen mit zwei Allelen A (dominant) und a (rezessiv) gesteu-

ert, wobei das Merkmal auftritt, wenn mindestens ein dominantes Allel A vorhanden

ist. Ist dagegen noch ein weiteres Gen mit den Allelen B und b a m Erbgang betei-

ligt, so tritt das Merkmal z.B. bei komplementärer Polygenie nur dann auf, wenn beide

dominanten Allele A und B vorhanden sind.

Bei einer dihybriden Kreuzung AABB X aabb hat die erste Tochtergeneration (Fl)

stets den Genotyp AaBb, weil von jedem der beiden gekreuzten Genotypen pro Gen

jeweils eines der beiden vorhandenen Allele zufällig weitervererbt wird. Das Merk-

mal tritt daher in der Fl-Generation sowohl beim einfachen als auch beim Polyge-

nie-Modell stets auf. Bei einer weiteren Kreuzung Aa B b X AaBb der Fl-Generation

untereinander dagegen ergeben sich die folgenden 16 verschiedenen Genotypen der

zweiten Tochtergeneration (F2), die alle mit gleicher Wahrscheinlichkeit auftreten:

Betrachten wir nun das Ereignis „das Merkmal tritt in der F2-Generation nicht auf',

so tritt dieses Ereignis beim einfachen Vererbungsmodell mit dominantem Erbgang

AA Aa aA aa

nur in den 4 der Genotypen der aa-Zeile auf, während es beim Vererbungsmodell

der komplementären Polygenie zusätzlich noch in der bb-Spalte, also bei insgesamt 7

Genotypen auftritt. Bezeichnet p die Wahrscheinlichkeit für das Fehlen des Merk-

BB Bb bB b b

AABB AABb AAbB AAbb AaBB AaBb AabB Aabb aABB aABb aAbB aAb b aaBB aaBb aabB aabb

mals in der F2-Generation, so führen die konkurrierenden genetischen Vererbungs-

modelle zu folgenden Hypothesen

P=Po mit p o = 114 (einfaches Modell),

P=Pl mit pl = 7/16 (Polygenie-Modell),

Page 170: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

17. Testen einer Wahrscheinlichkeit 4.4.03

Will man nun diese Hypothesen testen, so gibt es prinzipiell zwei verschieden Mö-

glichkeiten für die Wahl der Hypothesen, und zwar

oder dual

H:: =p0

Wegen po <pl kann man statt (1) bzw. (2) auch die zugehörigen erweiterten zusam-

mengesetzten Hypothesen testen

(3) Ho: P < P 0 ' H1: P>P0 7

(4) H;: P > P l ' H:: p <P,.

Die Wahl zwischen beiden Testproblemen hängt von der konkreten Bedeutung des-

Fehlerrisikos 1. Art ab, weil nur dieses durch das Testniveau begrenzt wird. Zur Er-

läuterung hierfür gehen wir davon aus, daß das einfache Modell die „Lehrbuchmei-

nung" und das Polygenie-Modell eine „neue Theorie" darstellt. Wenn sich der Test

für die „neue Theorie" entscheidet, so wird der Experimentator die neue Theorie

verkünden. Aber wenn der Test sich für die „LehrbuchmeinungU entscheidet, so

wird er nichts unternehmen. Für das Testproblem (1) ist der Fehler 1. Art das Ver-

künden einer „neuen Theorie", obwohl die Lehrbuchmeinung richtig ist („wissen-

schaftliche BlamageL?. Der Fehler 1. Art beim Testproblem (2) - der übrigens der

Fehler 2. Art beim Testproblem (1) ist - dagegen besteht darin, die neue Theorie

nicht zu verkünden, obwohl sie zutrifft („Verhinderung neuer Erkenntnis'?. Wenn

der Experimentator primär das Risiko für eine „wissenschaftliche Blamage" durch

das Testniveau kontrollieren will, so wird er daher das Testproblem (1) bzw. seine

erweiterung (3) wählen, und davon wollen wir im folgenden auch ausgehen.

Die Anzahl X der Erfolge (Merkmal fehlt) unter allen n Nachkommen der

Fz-Generation ist dann B(n,p)-verteilt und für n = 40 unter beiden Vererbungsmo-

dellen in Abb. 17.4.1 (zusammen mit ihren Approximationen durch Normalvertei-

lungen) dargestellt. und in Tab. 1-2 tabelliert..

Page 171: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

17. Testen einer Wahrscheinlichkeit 4.4.03 17- 18

1 Nu1 lhypothese: einfaches Model 1 p=1/4

Hypothese: Polygenie-Modell p=7/16

„Neue Theorie"

Abb. 1: B(n,pi)-Verteilung von X mit Normalapproximation für n = 40, i E {O, 1).

Für den exakten Test von (1) bzw. (3) zum nominellen Niveau uo = 5% ergibt sich

aus Tab. 1 der obere kritische Wert k (uJ = 16 und das tatsächliche Testniveau ist 0

mit u = P{X > 16 1 pO} = 2,62% erheblich niedriger als das nominelle Niveau von

5%. Beim Gauj3-Test zum asymptotischen Niveau u = 5% ergibt sich mit za = 1,645

der kritische Wert kö(u)=14.5 und das Testniveau ist mit a(n)=

P{X > 15 1 po} = 5,44% relativ dicht a m asymptotischen Niveau.

Unter p =pl ist die Scharfe des exakten Tests mit P{X> 16 I p l } = 73,65% laut Tab.

2 geringer als die Scharfe P{X > 15 1 pl} = 83,03% des asymptotischen Tests, und so-

mit ist das zugehörige Fehlerrisiko 2. Art P{X < 16 1 pl} = 26,35% des exakten Tests

höher als das Risiko P{ X < 15 1 pl} = 16.97% beim asymptotischen Test.

Page 172: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

17. Testen einer Wahrscheinlichkeit 4.4.03 17- 19

Page 173: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

17. Testen einer Wahrscheinlichkeit 4.4.03 17- 20

Der erforderliche Mindestumfang n, bei dem für p =pl das asymptotische Fehlerri-

siko ß(pJ < 10 % ist, ergibt sich aus z = 1,282 zu n = 51,69, d.h. aufgerundet 10%

n = 52. Der exakte Test hat für n = 52 den oberen kritische Wert ko(ao) = 25 mit dem

effektiven Niveau a = P{ X > 25 1 po} = 4,30% und daszugehörige exakte Fehlerrisiko

2. Art P{X < 25 1 pl} = 1468% liegt noch über 10%.

Damit auch das exakte Fehlerrisiko P< 10% ist, kann man den Umfang n=52

schrittweise erhöhen und das exakte ß(pl) bestimmen. Da hierbei das effektive Ni-

veau a teilweise stark vom nominellen Niveau ao = 5% abweicht, erhält man erst

für n = 56 das Fehlerrisikoß(pJ = 8,80% bei einem effektiven Niveau a = 4,86%.

17.5.2 Wahlprognose

Eine „kleinen Partei mit Stimmanteil p will ihre Zustimmung zu vorzeitigen Neu-

wahlen von einer Meinungsumfrage (mit Umfang n) abhängig machen, die heraus-

finden soll, ob sie an der 5%-Klausel scheitern würde oder nicht. Die zugehörigen

Hypothesen lauten

H ~ : p < p 0 = 5 % (Scheitern an 5%-Hürde),

H : p > p = 5 % (Einzug ins Parlament). 0

Fehler 1 .Art: Neuwahlen, obwohl 5%-Hürde nicht erreicht wird (Katastrophe).

Daher wird extrem kleines a gewählt: a = 0,5 % .

Fehler 2.Art: Keine Neuwahlen, obwohl Einzug ins Parlament gesichert wäre

(günstiger Wahltermin nicht genutzt).

Frage 1: Wie groß ist das Fehlerrisiko ß = ß(p) für p = 7% und n = 1000 ?

Es ist: U (P) = 0,28 + ß(p) = @(-0,28) N 39 % .

Da das Risiko ß(p) noch ziemlich hoch ist, stellt sich die nächste Frage.

Frage 2: Wie hoch muß der Umfang n (mindestens) sein, damit für p = 7% das

Fehlerrisiko ß(p) (höchstens) 10 % ist ?

Es ist: ß = 10% zp = 1,282

n = 1973 N 2000 .

Page 174: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

18. Likelihood-Quotienten Tests 26.7.02 18- 1

18. Likelihood-Quotienten Tests

Wir wollen jetzt in einem parametrischen Dichte-Modell mit S-dimensionalem Pa- s rameter B E B C R einen Test angeben für das allgemeine Testproblem mit den

Hypothesen

(1) H o : B ~ B o , H l : B ~ B 1 , mit B = B O ~ B l .

Hierbei ist B0 bzw. B1 eine Teilmenge des Parameterraumes B, die nach unserer

bisherigen Konvention mit der zugehörigen Hypothese identifiziert wird, d.h.

Ho = B. bzw. Hl =B1. Aus Gründen der Übersicht ist es jedoch hier manchmal

zweckmäßiger, die Hypothese und zugehörige Parametermenge verschieden zu be-

zeichnen, wie dies in (1) geschehen ist.

Die beobachtete Stichprobe besteht wieder (wie in Kapitel 9) aus einem n-

dimensionalen Zufallsvektor X = (Xl, ... , Xn), dessen Verteilung .dg(X) für jedes

B E B eine Dichte fg = f(- 1 B) : Rn + R bzgl. eines von B unabhängigen 0-endlichen

Maßes U auf (Rn,Bn) besitzt. An den Parameterraum B werden zunächst keine

weiteren Forderungen gestellt (er wird also nicht als offen und konvex vorausgesetzt).

Wir wollen allerdings wieder voraussetzen, daß der Träger Trg : = {f(- I B) > 0 ) der

Verteilung von X nicht vom Parameter abhängt, d.h. es gilt

(RIO) Tr = Tr 6' für alle B .

18.1 Allgemeiner Likelihood-Quotienten Test

Für eine Nullhypothese Ho ist der Likelihood-Quotient (kurz: LQ) einer beobachteten

Realisierung X E Tr definiert als das Supremum der Likelihood-Funktion L(- I X)

unter der Nullhypothese bezogen auf das globale Supremum, d.h. als

(1) sup {L(BI X) I B E Go)

= ' ( x I H ~ ) :=

{L(eIx) I BEB) für X E Tr

(Likelihood-Quotient von Ho).

Zur Vermeidung unnötiger Fallunterscheidungen wollen wir hier uns gleich auf den

anwendungsrelevanten Fall beschränken, daß die Likelihood-Funktion L(- I X) für

Page 175: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

18. Likelihood-Quotienten Tests 26.7.02 18- 2

jedes X E Tr beschränkt ist. Dann ist der Likekelihood-Quotient X(x) E ( O , l ] stets de-

finiert. Unter Verwendung einer ML-Schätzung d(x) für 8, d.h.

(2) L(~(x) I X) = SUP { ~ ( e I X) I e E B}

und einer ML-Schätzung d,(x) E 0, für 0 unter der Nullhypothese, d.h.

(3) L(~,(x) I X) = sup { ~ ( e I X) I B E B,}

läßt sich der Likelihood-Quotient auch schreiben als

(4) X(x)=X(xIH,):= für X E Tr.

Wenn der Likelihood-Quotient Werte deutlich kleiner als 1 annimmt, so spricht

dies gegen die Nullhypothese. Dies führt zum Likelihood-Quotienten Test d, der für ein

fest vorgegebenes X, < 1 definiert ist durch

(5) Likelihood-Quotienten Test: d(x) = 1 U X(x) 5 X,.

Die Schärfe und das Niveau dieses Tests ergeben sich zu

(6) powd(e) = powd(e 1 X,) : = P ~ { X(X) 5 X, 1 ,

(7) ad= sup {Pow~(BIX,)~BEB,}.

Wenn X eine stetige Verteilung hat, so kann man zu vorgegebenem Testniveau a ei-

nen kritischen Wert X, finden, sodaß ad = a ist. Bei diskret verteiltem X dagegen

kann man zu a im allgemeinen nur ein X, finden mit ad 5 a, d.h. der Test d hat a

nur als nominelles Niveau.

Statt (1) wird auch der folgende Likelihood-Quotient von (H,) H1) verwendet

SUP {L(OI X) I B,} (8) X ( x ~ H ~ ~ H 1 ) : = S U P ~ L ( e I x ) ~ ~ E ~ l ~ E ( 0 , ~ ) für X E Tr

(Likelihood-Quotient von H,, Hl).

Wegen

(9> X(xIHJ = min{l,X(xIHo,H1)}

gilt für X, < 1

Page 176: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

18. Likelihood-Quotienten Tests 26.7.02 18- 3

und folglich läßt sich der Likelihood-Quotienten Test auch äquivalent mit

X(x I Ho, H,) anstelle von X(x I Ho) formulieren. Der reziproke Wert

ist der Likelihood-Quotient für die „vertauschtenn Hypothesen, und der Test d läßt

sich äquivalent formulieren als

Der im Kapitel 15 eingeführte Likelihood Quotient für einfache Hypothesen ist in

der jetzigen Terminologie genau der reziproke Wert von X(x I Ho, H,), und der zuge-

hörige Neyman-Pearson Test aus 15 (5)' ist daher ein Likelihood-Quotienten Test

von der obigen Form (5). Da der allgemeine Likelihood-Quotienten Test d eine di-

rekte Verallgemeinerung (von einfachen auf zusammengesetzte Hypothesen) des

Neyman-Pearson Tests ist, wird man vermuten, daß sich die guten Eigenschaften

des Neymann-Pearson Tests in geeigneter Form (z.B. asymptotisch) auf den allge-

meinen Likelihood-Quotienten Test übertragen. Ohne diesem Problem hier genauer

nachzugehen, wollen wir zumindest zwei wichtige Eigenschaften des Likelihood-

Quotienten ansprechen: seine Invarianz bei Umparametrisierung und seine asymp-

totische Verteilung.

18.2 Invarianz des Likelihood-Quotienten bei Umparametrisierung

S Wir betrachten jetzt eine bijektive Umparametrisierung g : @+ P C IR mit dem

„neuenn Parameter $ =g(B) E P. Die Hypothesen lassen sich dann äquivalent for-

mulieren als

(I> Ho: $ ~ * ~ : = g [ @ , ] , H,:$€P, :=g[@,] mit 8 = P o U 8 1

Bezeichnet ¿ ( $ I X) : = ~ ( ~ ~ ' ( 4 ) 1 X) = L(B 1 X) die Likelihood-Funktion bzgl. des

neuen Parameters $, so läßt sich der Likelihood-Quotient auch darstellen als

für X E Tr.

Page 177: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

18. Likelihood-Quotienten Tests 26.7.02 18 - 4

Folglich ist der Likelihood-Quotient (ebenso wie die Maximum-Likelihood Schät-

zung) invariant gegenüber dieser Umparametrisierung, und diese Invarianz gilt

dann natürlich auch für den Likelihood-Quotienten Test.

S Viele wichtige Testprobleme lassen derart umparametrisieren, daß !P = IR gilt, und

!Po C IRs sogar ein linearer Teilraum ist. Man spricht dann von einem Testproblem

mit linearen Hypothesen, wobei eine Hypothese als linear bezeichnet wird, wenn sie

einem linearen Teilraum des zugrundeliegenden Parameterraums entspricht.

18.3 Asymptotische Verteilung des Likelihood-Quotienten

Wir betrachten jetzt wieder das Stichproben-Modell bei dem die Komponenten von

X = (X,, ..., xn) unabhängige Wiederholungen einer Zufallsvariablen X sind, deren

Verteilung von B abhängt. Weiter gehen wir davon aus, daß es sich um lineare Hypo- S thesen handelt, d.h. und @ sind lineare Teilräume des IR , wobei man ohne Be-

schränkung der Allgemeinheit (ggf. durch lineare Umparametrisierung) S = Dim @ S und somit @ = IR wählen kann. Unter geeeigneten Regularitätsbedingungen (die hier

nicht explizit formuliert werden) läßt sich dann zeigen, daß der transformierte Li-

kelihood-Quotient t(X) : = - 2 log X(X) unter der Nullhypothese für n + CO eine

asymptotische Chiquadrat-Verteilung besitzt

(1) 2 t(x(" ) = - 2 log x(x(~)) - 2

Xm für B E mit n+ 00

(2) m = D i m @ - D i m @ 0

Der Freiheitsgrad m ist hierbei gerade der Dimensionsunterschied des gesamten Pa-

rameterraums @ zu dem durch die Nullhypothese eingeschränkten linearen Unter- 2 raums Go. Bezeichnet X2 das obere a-Quantil der xm-Verteilung, so ergibt sich

m; a der

Asymptotische Likelihood-Quotienten Test: 2 (3) Ablehnung von Ho zum asymptotischen Niveau a U t(X) > X,;, .

Page 178: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

19. Vergleich zweier Erwartungswerte bei Normalverteilungen 2.8.06 1 9 - 1

19. Vergleich von zwei Erwartungswerten bei Normalverteilungen mit gleichen Varianzen

Nachdem wir bisher Tests für den Erwartungswert einer Zufallsvariablen X behan-

delt haben, betrachten wir jetzt zwei Zufallsvariablen X und Y mit Erwartungswer- 2 2 ten pX = E(X) und pY = E(Y) und Varianzen oX= Var(X) und oy = Var(Y). Typi-

sche Anwendungsbeispiele hierfür sind

die Meßergebnisse X und Y aus zwei verschiedenen Meßverfahren,

das Geburtsgewicht X bzw. Y der männlichen bzw. weiblichen Neugeborenen,

der Blutdruck X bzw. Y von Patienten unter zwei verschiedenen Medikamenten,

die Schadstoffbelastungen X und Y in zwei verschiedenen Regionen.

Von Interesse sind Vergleiche der beiden Erwartungswerte ,LL und ,LL also insbeson- X Y

dere Tests und Konfidenzgrenzen für den Unterschied ,LL - Wir werden in die- X Y'

Sem Kapitel die zugehörigen Tests (und Konfidenzbereiche) zuerst für normalver- 2 teiltes X und Y mit gleichen Varianzen o2 = o entwickeln, weil man in dieser Situ-

X Y

ation der Likelihood-Quotienten-Test zu einem exakten (im Gegensatz zu asymptoti-

sehen) Tests führt. Der Fall mit beliebiger Verteilung von X und Y und nicht not-

wendig gleichen Varianzen wird im Kapitel 20 behandelt.

19.0 Testproblem und Stichproben-Modelle

Wir wollen jetzt für zwei Zufallsvariablen X und Y ihre Erwartungswerte

= E(X) und p y = E(Y) miteinander vergleichen, wobei das Testproblem ein-

oder zweiseitig gestellt sein kann:

(1) H o : P x 5 P y ? H l : P x > P y (einseitiges Testpro blem),

(2) H o : P x = P y ? H1 : P x * P y (zweiseitiges Testproblem).

Unter Verwendung der Differenz A,LL : = ,LL - ,LL beider Erwartungswerte lassen sich X Y

die Hypothesen äquivalent formulieren als

(1) H o : A p < O , : aP > 0 (einseitiges Testproblem),

P) H 0 :aP=O, : aP t 0 (zweiseitiges Testproblem).

Page 179: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

19. Vergleich zweier Erwartungswerte bei Normalverteilungen 28.10.02 19- 2

Man beachte, daß die zweiseitige Nullhypothese eine lineare Hypothese ist. Für die

Form der Datenerhebung betrachten wir zwei verschiedene Stichproben-Modelle.

Zwei-Stichproben-Modell: Es liegen zwei voneinander unabhängige Teilstich-

proben X = (Xl, ..., X ) und Y = (Y1„ Y ) vom Umfang n und ny vor, wobei die n x n~ X

Komponenten von X bzw. Y jeweils unabhängige Wiederholungen von X bzw. Y

sind. Die Gesamtstichprobe Z = (X, Y) vom Umfang n = nx+ny läßt sich dann

auch schreiben als Z = (Zl, ..., Zn), wobei

Die beobachtete Realisierung von Z = (X, Y) wird mit z = (X, y) bezeichnet.

Ein-Stichproben-Modell: Eine prinzipiell andere Art der Datenerhebung besteht

darin, daß beide Zufallsvariablen X und Y jeweils am gleichen Untersuchunbgsob-

jekt beobachtet werden. Dies ist z.B. bei der Bestimmung eines Schadstoffgehalts

der Fall, wenn beide Meßergebnisse X und Y mit unterschiedlichen Meßmethoden

aber a m gleichen Nahrungsmittel durchgeführt werden. Eine solche verbundene

Stichprobe besteht dann aus n unabhängigen Wiederholungen (X., Y .) des Paares 2 2

(X,Y), wobei die einzelnen Komponenten Xi und Yi im typischerweise nicht vonei-

nander unabhängig sind (z.B. weil sie a m gleichen Objekt beobachtet werden). Da

die Differenz D = X - Y den Erwartungswert E(D) = A,LL hat, können die obigen

Testprobleme auch als Tests für den Erwartungswert von D aufgefaßt und mit den

Methoden des Kapitels 16 (mit p0 = 0 als Referenzwert ) behandelt werden. Im fol-

genden wird daher nur noch das Zwei-Stichproben-Modell behandelt.

Page 180: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

19. Vergleich zweier Erwartungswerte bei Normalverteilungen 28.10.02 19 - 3

19.1 Das Normal-Verteilungsmodell mit gleichen Varianzen

Wir wollen die Testprobleme hier nur für normalverteiltes X und Y betrachten, d.h.

wir setzen - für den Rest des Kapitels - das Normal-Verteilungsmodell voraus:

Der Einfachheit halber wollen wir zusätzlich davon ausgehen, daß die beiden Vari-

anzen gleich (aber unbekannt) sind, d.h. es gilt

2 2 2 (HV) a = a = a X Y (homogene Varianzen) .

2 2 Der Modellparameter 19 = (iLy , py , a ) E O = R X ( 0 , CO) ist hier also dreidimensional. 2 Man kann auch logo E R statt a verwenden und hat dann für den Parameter

3 $ = (b , py , log a) den ganzen R als (linearen) Parameterraum.

Es sei noch angemerkt, daß sich die folgenden Betrachtungen auch relativ einfach

auf den Fall inhomogener Varianzen erweitern lassen, sofern der Varianz-Quotient 2 2

T = a /a bekannt ist. Unter Verwendung der - dann bekannten - Gewichtsfaktoren X Y

lassen sich die Varianzen darstellen als

mit a als unbekanntem Parameter (Skalenfaktor). Das Testproblem für das Vari-

anz-Modell (2) kann dann im Rahmen des sogenannten Klassischen Linearen Modells

für Normalverteilungen mit gewichteten Varianzen als einfacher Spezialfall behandelt

werden. Wir wollen uns hier aber in diesem Kapitel auf das Modell (HV) mit ho-

mogene Varianzen beschränken, d.h. T = l und somit W = W = l voraussetzen. X Y

Page 181: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

19. Vergleich zweier Erwartungswerte bei Normalverteilungen 28.10.02 19 - 4

19.2 Der zweiseitige t-Test als Likelihood-Quotienten Test

Wir betrachten zuerst das zweiseitige Testproblem (im Zwei-Stichproben-Modell) und

wollen dafür den Likelihood-Quotienten aus Kapitel 18 in der vorliegenden Situ- 2 ation bestimmen. Bezeichnet Y(- I p, o ) die Dichte von N ( , L L , ~ ~ ) , d.h.

(1) 2 2 1/2

'p(x1p,02) = [ 2 m .~xP{$(x-P) }I- für X E IR,

so läßt sich das Likelihood für die Beobachtung (x,y) darstellen als Produkt

deren Faktoren das Likelihood für X bzw. y sind:

2 Die ML-Schätzungen für pX, py und o ergeben sich dann zu

(4) f i x = " , f i y = Y , 82 L = '(SXX n +sYy) .

mit Z bzw. Y, als Mittelwerte von X bzw. y und den quadratischen Formen

Die ML-Schätzung 8; der Varianz ist nicht erwartungstreu, und wir haben sie mit

dem Index ,,Lu versehen, weil wir später auch noch eine erwartungstreue Schätzung

für o2 betrachten werden, die mit 82 bezeichnet wird.

Für die Maximierung des Likelihoods (6) unter der Nullhypothese Ho:pX=py ist

die Funktion

zu maximieren, wobei z = (x,y) ist. Und hieraus ergeben sich die ML-Schätzungen 2 für pX, py und o unter der Nullhypothese Ho : px = py ZU

mit 2 als Mittelwert von z = (x,y), wobei die ML-Schätzung 8iL der Varianz wieder

nicht erwartungstreu ist.

Für den Likelihood-Quotienten

Page 182: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

19. Vergleich zweier Erwartungswerte bei Normalverteilungen 28.10.02 19-5

erhält man unter Verwendung von

(9) - 1 z = [nxx + nyy] ,

(10) Szz = sxx +syy + (- 2 1 1 1 X-y) (-+-)- nx n~

nach einigen Umformungen eine Darstellung der Form.

(11) - 2 log ~ ( x , y 1 H ~ ) = n log (I + m t2(x, Y)) .

Hierbei ist

der sogenannte Freiheitsgrad, und die Testfunktion t ist gegeben durch

X-y (13) t(x,y):= (Testfunktion) mit

.n(", Y)

1 1 (14) &;(X, Y) : = 8 2 ( x , ~ ) (G + ny )

" 2 (15) a ( x , y ) : = m L(Sxx+Syy) .

wobei

2 82(x,y) ist eine weitere Schätzung von a ist, die - im Gegensatz zur ML-Schätzung " 2 a - jedoch erwartungstreu ist (vgl. 2.2).

L

Wir bestimmen jetzt die Verteilung der zugehörigen Teststatistik

X- Y (16) T=t(X,Y) = - -

Afi(X, Y) mit

g x , Y) g x , Y)

(17) Afi(X, Y) = /?(X) - /?(Y) = X - Y .

Der Zähler von T ist normalverteilt

mit

2 Folglich ist 8; eine erwartungstreue Schätzung von an und wie folgt verteilt

Page 183: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

19. Vergleich zweier Erwartungswerte bei Normalverteilungen 28.10.02 19 - 6

Damit hat die Teststatistik T eine nichtzentrale t-Verteilung

mit der Nichtzentralität

Insbesondere hat T unter der zweiseitigen Nullypothese Ho: A p = 0 eine (zentrale)

tm-Verteilung und hieraus ergibt sich dann der folgende

Zweiseitige t-Test:

Ablehnung von Ho: pX = pY zum Niveau cu U I T I 2 tmiaI2 .

Dies ist genau der Likelihood-Quotienten Test aus Kapitel 18, weil der Likelihood-

Quotient nach (11) eine streng fallende Funktion in bzw. I T I ist, und somit ist

(23) 1 2

I T I 2 t,,. a/2 U X(x,yIHo) 5 A n & : = n ( l + - t m m; a/2 )-n/ 2

Die Test-Schärfe hängt nur noch über die Nichtzentralität y vom Parameter 2 19 = ( , L L ~ , , L L ~ , D ) ab und ergibt sich unter Verwendung der Verteilungsfunktion

m, 7 von tm(y) ZU:

(24) P O ~ ~ ( ~ I Q ) : = P ~ { I T I > ~ ~ , ~ / ~ 1

= P{Itm(^i)12 tm,&/2 1

= - 'm, tm, a/2 ) + 'm, tm, a/2 1 .

Page 184: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

19. Vergleich zweier Erwartungswerte bei Normalverteilungen 8.10.03 1 9 - 7

19.3 Der einseitige t-Test

Für das einseitige Testproblem im Zwei-Stichproben-Modell verwendet man ebenfalls

die obige Teststatistik T. Da groJ3e Werte von T für die einseitige Hypothese

H1 : b> py sprechen, ergibt sich der

Einseitige t-Test:

Ablehnung von Ho: px < pY zum Niveau a U T > t . m; a

Die Schärfe des einseitigen Tests

ist streng monoton wachsend in y.

Page 185: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

19. Vergleich zweier Erwartungswerte bei Normalverteilungen 28.10.02 19 - 8

19.4 Konfidenzgrenzen für die Differenz der Erwartungswerte

Neben den behandelten Tests für die Differenz A p der Erwartungswerte sind (ins-

besondere bei einer Ablehnung der Nullhypothese) auch Konfidenzgrenzen für die

Differenz A p von Interesse. Ausgangspunkt ist die Modifikation der Teststatistik

die eine zentrale t-Verteilung besitzt

Hieraus ergeben sich die einseitige untere bzw. obere Konfidenzgrenze zur exakten

Sicherheit 1 - ci!

Der einseitige Test lehnt Ho: A p < 0 genau dann ab, wenn (Ap) > 0 gilt. Und das u - zweiseitige Konfidenzintervall für A p zur asymptotischen Sicherheit 1- ci! ist dann

gegeben durch die Randpunkte

Page 186: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

20. Vergleich zweier Erwartungswerte bei beliebigen Verteilungen 4.4.03 20 - 1

20. Vergleich von zwei Erwartungswerten bei beliebigen Verteilungen

Wir betrachten wieder - wie im vorigen Kapitel - zwei Zufallsvariablen X und Y

deren Erwartungswerte px = E(X) und p y = E(Y) miteinander verglichen werden

sollen:

(1) H o : P x < P y ? H l : P x > P y (einseitiges Testpro blem),

(2) H o : P x = P y ? H1 : P x * P y (zweiseitiges Testproblem).

Im Gegensatz zum letzten Kapitel soll aber diesmal nicht vorausgesetzt werden , daß die Zufallsvariablen X und Y normalverteilt sind. Wir betrachten jetzt ein belie-

biges Verteilungsmodell für 2(X) und 2 (Y) , wobei wir nur vorausestzen, daß die

Varianzen o2 = Var(X) und 0: = Var(Y) endlich sind und auch nicht notwendig X

übereinstimmen müssen. Ausgangspunkt ist wieder das Zwei-Stichproben-Modell

aus dem letzten Kapitel.

20.1 Herleitung einer Teststatistik

Es ist wieder naheliegend, eine geeignete Standardisierung der Mittelwert-Differenz

(1) nfi = &?(X, Y) = X- Y

als Teststatistik zu verwenden. Nun ist

2 Die Varianzen o2 und oy lassen sich jeweils aus den beiden Teilstichproben X und X

y schätzen durch (vgl. Kapitel 2)

2 und hieraus ergibt sich folgende Schätzung für oa

Page 187: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

20. Vergleich zweier Erwartungswerte bei beliebigen Verteilungen 2.8.06 20 - 2

Als Testfunktion t wollen wir daher die wie folgt standardisierte Differenz der Mit-

telwerte verwenden

- nii(x,Y) - X - y

(6) t = t (x ,y ) := - (Testfunktion). .,(X, Y) .,(X, Y)

Ein Vergleich mit der Testfunktion aus 19.2 für das Normalverteilungs-Modell mit

homogenen Varianzen zeigt, daß beide Testfunktionen zwar gleich aufgebaut sind,

aber unterschiedliche Schätzungen für die Varianz von X- Y verwenden. Die dort

verwendete Schätzung - die wir hier mit dem Index H (für Homogenität der Varian-

zen) versehen läßt sich auch schreiben als

mit

Ein Vergleich mit (5) zeigt, daß es sich bei dem Ausdruck in den Klammern [ ... ] je-

weils um einen unterschiedlich gewichteten Mittelwert der Schätzungen &;(,) und

&:(Y) handelt. Wenn sich beide Schätzungen &;(X) und &:(Y) nur wenig unter-

scheiden (und das sollte man unter der Annahme homogener Varianzen ja erwar-

ten) so wird auch der Unterschied zwischen <(,,Y) und t H ( x , y ) nur gering sein.

Darüber hinaus stimmen &;(x,y) und 2 im balancierten Fall nx = ny sogar

exakt überein, weil dann c = c = C* = C* =L ist. X Y X Y 2

20.2 Asymptotische Verteilung der Teststatistik

Die Verteilung der zugehörigen Teststatistik T = t(X,Y) hängt von den unbekann-

ten Verteilungen von X und Y ab. Selbst im Normalverteilungsmodell hängt die

Verteilung von T auch unter der zweiseitigen Nullhypothese ,LL = py noch vom Va- X

2 rianzquotienten o /02 ab, und läßt sich daher nur bei bekanntem Varianzquo- X Y

2 2 tienten bestimmen (was wir im Kapitel 19 ja auch für ox /oy = I getan haben). Wir

wollen daher hier eine asymptotische Verteilung der Teststatistik für n + CO herlei-

ten.

Page 188: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

20. Vergleich zweier Erwartungswerte bei beliebigen Verteilungen 4.4.03 20 - 3

Hierzu betrachten wir eine Asymptotik mit wachsenden Teilstichprobenumfängen

n + CO und n + CO und konstanten Stichproben-Anteilen. Formal geben wir uns X Y

hierfür die Stichproben-Anteile als rationale Zahlen cx, cy E $ vor mit

und betrachten für n + CO diejenige Teilfolge, bei der die resultierenden Teilstich-

proben-Umfänge

ganzzahlig sind. Statt der Stichproben-Anteile cX, cy kann man auch den Quotienten

vorgeben und erhält für ein solches 0 < rXY E $ die Stichproben-Anteile

1 Man spricht von balancierten Umfängen, wenn rxy = 1 und somit c = c = - gilt. X Y 2

Für den oben beschrieben Grenzprozeß n + CO (bei dem wir wieder alle relvanten

Größen mit dem Index n indizieren) ergibt sich die asymptotische Normalvertei-

lung der Schätzung

2 (6) J;; [Abn - AP] - ~ ( 0 , wobei

. - (7) T 2 . - - 1 2 1 2 o = n a 2

Cx X Y Y An

bzw. in äquivalenter Formulierung

Die Konvergenz der Verteilungsfunktion von Un gegen die der Normalverteilung

N(0,l) ist hierbei sogar gleichmäflig und von der Ordnung I/& sofern die dritten ab- 3 soluten Momente E { I X-px I } und E { I Y- py l 3 ) von X und Y endlich sind. Ge-

Page 189: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

20. Vergleich zweier Erwartungswerte bei beliebigen Verteilungen 4.4.03 20 - 4

nauer gilt nach einem Theorem von Berry und Essken (vgl. z.B. Gänssler-Stute

1977, Satz 4.2.10 und Korollar 4.2.15)

I P{I~, < x}-P{N(o,l) < X } l C (9) } < Jn für alle X E IR I P{I~, > x}-P{N(o,l) > X } 1 mit der positiven Konstanten

c[cxE{ I X - P ~ I ~ } + C ~ E { I Y - P ~ I ~ } ] (10) C =

3 > 0 .

T

und c = 0.7995.

3 Die Abschätzung (9) gilt zwar auch falls E { I X-px l 3 } oder E { I Y-py I } unend-

lich sind, ist aber dann wegen C = co nutzlos.

Aus den Konsistenzaussagen

an, P - 1 , On n

ergibt sich schließlich die asymptotische Normalität der Teststatistik

Unter der zweiseitigen Nullhypothese Ho : A p = 0 ist die Teststatistik dann asympto-

tisch Standard-Normalverteilt, d.h.:

(14) T N (0,l) für Ap=O bzw. p x = p y . n

P Und für A p t 0 erhält man wegen 8A - 0 die asymptotischen Verteilungen der

Teststatistik:

P (15) Tn - -co für A p < 0 bzw. p x < p y ,

P (16) Tn-+co für A p > O bzw. P x > P y .

Page 190: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

20. Vergleich zweier Erwartungswerte bei beliebigen Verteilungen 4.4.03 20 - 5

20.3 Asymptotische Tests

Mit t = t(x,y) als beobachtetem Testwert erhält man nun folgende asymptotische

Tests :

Einseitiger asymptotischer GauJ3-Test:

Ablehnung von Ho: px 5 py zum asymptotischen Niveau a

U t > z U p1(t) := m(- t) 5 , a

Zweiseitiger asymptotischer GauJ3-Test:

Ablehnung von Ho: px = py zum Niveau asymptotischen a

U I tl > Z - U p2(t) := 2m(-ltl) 5 ., a/2

Hierbei ist Pl(t) bzw. P2(t) das ein- bzw. zweiseitige (asymptotische) Signifikanzni-

veau des beobachteten Testwerts t.

Die asymptotische Schärfe des einseitigen Test ist der Grenzwert der Schärfen

für px < p (1) ~ o w i ( p ~ ) p ~ ) := 72-00 lim P{T n - > z a } = für px = py

für px > p

und somit ist das asymptotische Fehlerrisiko 1. Art gleich a

Beim zweiseitigen Test ist die asymptotische Schärfe

(3) für px f py

P O W ~ ( ~ ~ ) py) := lim P{T > z } = 72-00 n - a für px = py

und das asymptotische Fehlerrisiko 1. Art ist gleich a

20.4 Schärfe-Approximation für den einseitigen Tests

Wir wollen jetzt - analog zu 17.4 - eine Approximation der Testschärfe herleiten.

Der Ausgangspunkt ist die Schärfe-Darstellung

(1) 2 2

P o w l ( ~ x , ~ y > ~ x , ~ y l a ) := P{T>za} -

= P { U + Z , V > ~ ~ - ~ } mit

Page 191: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

20. Vergleich zweier Erwartungswerte bei beliebigen Verteilungen 4.4.03 20 - 6

(3) AP y = - 2 - 1 2 1 2 a +-ay "A - II, X ny On

Aus der asymptotischen Normalverteilung von U und

ergibt sich

(5) U n + z a n " N<OJ>

und aus (1) erhält man die Schärfe-Approximation

Die approximierte Schärfe APowl (y 1 a) ist streng wachsend in a, y und Ap, aber

streng fallend in aA. Die Genauigkeit der Approximation (6) (bzw. deren Konver-

genz-Geschwindigkeit) läßt sich hier nicht so einfach wie in 17.4 bestimmen, weil

die in der Schärfe-Darstellung (1) auftretende Zufallsvariable U + zaV sich nicht als

standardisierte Summe unabhängiger Zufallsvariablen darstellen läßt. Die hierbei

„störendeu Zufallsvariable zaV konvergiert allerdings nach (4) gegen 0 für n+ W.

Wenn die vierten zentralen Momente

(7) P4X = E I ( X - P ~ ) ~ } , Pqy = ~ i ( y - P ~ ) ~ }

1 endlich sind, so ist die Zufallsvariable zaV sogar von der Ordnung - weil es dann

ein d > 0 gibt mit Jn

Deshalb kann man davon ausgehen, daß approximativ gilt

wobei wir auf die Genauigkeit dieser Approximation nicht weiter eingehen. Die

rechte Seite P{ U > za- y } läßt sich aber nach 20.2 (9) durch APowl (y 1 a) wieder 1 von der Ordnung - approximieren. Jn

Page 192: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

20. Vergleich zweier Erwartungswerte bei beliebigen Verteilungen 4.4.03 20 - 7

Da die Approximation (6) insbesondere auch im Normalverteilungs-Modell mit homo-

genen Varianzen gilt, läßt sich die exakte Schärfe in diesem Modell ebenfalls so ap-

proximieren, d.h.

(10) P{ tm(r) > t,,., J P{N(y,l) > L,} f .. X Y 2 u r 0 = 0

2

Da wir jedoch bereits aus 14.1 wissen, daß für y > 0 und a < die Abschätzung gilt

kann man auch konservativ den kleineren Wert als Schärfe-Approximation ver-

wenden

(11) POwl(p I a) E P{ tm(7 > t,,. , J (konservative Approximation)

was den zusätzlichen Vorteil hat, daß dieser im Normalverteilungs-Modell mit homo-

genen Varianzen sogar exakt mit der Schärfe übereinstimmt.

20.5 Versuchsplanung für den einseitigen Test

Die approximierte (und natürlich auch die exakte) Schärfe konvergiert bei festem a

für n i CO unter der einseitigen Alternative Hl: A p > 0 gegen 1, weil dann oA i 0,

und y i CO gilt. Dies kann man wieder ausnutzen, um die erforderlichen Stichpro-

benumfang n zu bestimmen, der bei vorgegebenem cx, cy = 1- cX, a, A p > 0, oX, oy

und 0 < ß < 1 eine approximative Schärfe von mindestens 1 - ß garantieren, d.h. für

den gilt

(1) APowl(yI a) > 1 - P bzw. 7-25 a - > z ß '

Unter Verwendung von

mit

lautet die Bedingung (1) äquivalent

Hieraus ergibt sich der erforderliche Mindestumfang zu

Page 193: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

20. Vergleich zweier Erwartungswerte bei beliebigen Verteilungen 4.4.03 20 - 8

2

( 3 ) n(&, 7,P, a ) : = 2 1 2 1 2 mit T = - O + - D

C x X C y Y '

wobei die zugehörigen Teilstichproben-Umfänge

auf natürliche Zahlen aufzurunden sind.

Man kann noch weiter untersuchen, welche Stichproben-Anteile cx und c y = 1 - cx die

approximative Schärfe maximieren bzw. minimieren. Hierbei ergibt sich, daß 2 2

T = T ( C ) als Funktion in cx streng konvex ist mit der Minimalstelle X

Das günstigste Stichproben-Verhältnis entspricht also genau dem Verhältnis der

Standardabweichungen

(6) C* X : c y = 0,: D y ,

2 und das zugehörige Minimum von T ist

(7) 2 2

T (C;) = ( ~ x + ~ y )

Bei Wahl dieser optimalen Stichprobenanteile C; und c y ergibt sich der erforderli-

che Mindest-Umfang n* nach (3 ) zu

( z a + z a (OX + OY ( 8 ) P , X , Y : = [ I (optimales Design).

A P

2 Speziell sind bei gleichen Varianzen O: = oY auch gleiche Stichprobenanteile (balancier-

tes Design) C; = c y = f optimal.

1 Für das balancierte Design mit nx = n bzw. c = c =- (welches typischerweise in Y X Y 2

der Praxis verwendet wird) ergeben sich die erforderlichen Stichprobenumfänge aus

(4) zu

2

(9) n = n = n . - 2 2 ~ a + ~ ß X Y 2 (balanciertes Design). - -

Page 194: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

20. Vergleich zweier Erwartungswerte bei beliebigen Verteilungen 4.4.03 20 - 9

20.5.1 Das Normal-Verteilsmodell mit gleichen Varianzen

Wir betrachten jetzt wieder den Spezialfall aus Kapitel 19, daß X und Y jeweils

normalverteilt sind mit gleichen Varianzen

2 2 2 (HV) g=g=o (homogene Varianxen) .

Für den einseitigen t-Test läßt sich dann der erforderliche Mindestumfang n unter

Verwendung der (exakten) Schärfe (vgl. 19.3) sogar exakt bestimmen. Aus der

Nichtzentralität

mit

und der Schärfe

ergibt sich dann die folgende Forderung an n

Da der Umfang n hier sowohl im Freiheitsgrad n-2 als auch in der Nichtzentralität

7, vorkommt, läßt sich das minimale n aus (3) nicht explizit angeben. Man be-

stimmt deshalb n schrittweise wie folgt.

Als Startwert verwenden wir die aufgerundeten Umfänge nx und ny des asymptoti-

schen Tests aus 20.5 und überprüfen, ob (3) für n = nx + ny erfüllt ist. Falls (3) nicht

gilt (was typischerweise der Fall ist), so wird n solange schrittweise erhöht bis die

Forderung (3) erfüllt ist. Das jeweils nächste n wird dabei wie folgt bestimmt: für

n + 1 werden die aufgerundeten Umfänge nx und ny ermittelt und dann wird der

neue Umfang auf n = nx + ny gesetzt. Erfahrungsgemäß sind beim balancierten De-

sign typischerweise nur 1 bis 2 Schritte erforderlich bis die Forderung (3) erfüllt ist.

Um sicherzustellen, daß dieses Verfahren tatsächlich den kleinsten Umfang n mit

(3) liefert, wäre noch zu überprüfen, ob die rechte Seite von (3) monoton fallend in

n ist (worauf wir hier verzichten).

Page 195: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

20. Vergleich zweier Erwartungswerte bei beliebigen Verteilungen 4.4.03 20 - 10

20.6 Zweiseitiger Test: Schärfe und Versuchsplanung

Die Schärfe des zweiseitigen Tests ist gegeben durch

(1) ~ o w ~ ( P ~ > ~ ~ , g ; , g ; I 4 = P{ITI>z 4 2 1

= P{ T>.„,} +P{ Ti-za l , l

Beide Summanden lassen sich wie in 20.4 durch die jeweilige Schärfe eines einsei-

tigen Tests zum Niveau " approximieren 2

(2) P{T>za12J E APowl(yI:),

(3> P { T < - z 4 2 } E APowl(-yl:).

Hieraus ergibt sich die approximierte Schärfe des zweiseitigen Tests

Im Fall y > 0 überwiegt der erste Summand APowl (y 1:) deutlich den zweiten und

man kann vereinfachend auch nur den ersten Summanden verwenden, wodurch

man eine Abschätzung der approximierten Schärfe nach unten erhält. Entspre-

chend kann im Fall y < 0 vereinfachend nur der zweite Summand APowl (- y 1:) als Abschätzung nach unten verwendet werden.

Für eine Versuchsplanung beim zweiseitigen Test ist bei vorgegebenem ß für interes-

sierende px t py bzw. y t 0 wieder der erforderliche Umfang n gesucht, sodaß

Aus Symmetriegründen können wir hierbei y > 0 voraussetzen (sonst vertausche

man X mit Y). Wegen

(6) APow2 (7 I a) > APowl (7 15) ist es für (5) hinreichend, wenn man den erforderlichen Mindest-Umfang n aus 20.5

für den einseitigen Test zum halben Niveau : wählt.

Page 196: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

20. Vergleich zweier Erwartungswerte bei beliebigen Verteilungen 4.4.03 20 - 11

20.7 Konfidenzgrenzen für die Differenz der Erwartungswerte

Neben den behandelten Tests für die Differenz A p der Erwartungswerte sind (ins-

besondere bei einer Ablehnung der Nullhypothese) auch Konfidenzgrenzen für die

Differenz A p von Interesse. Als einseitige untere bzw. obere Konfidenzgrenze zur

asymptotischen Sicherheit 1- ci! ergibt sich aus der asymptotischen Normalvertei-

lung der Teststatistik T

(1) (Ap) U = nfi-da = (X-Y)-$& bzw.

(ap) = nfi + d a = (X-Y) + d a 0

mit

(2) $ : = z . 8 a a A '

Der einseitige Test lehnt Ho: A p < 0 genau dann ab, wenn (Ap) > 0 gilt. Und das u -

zweiseitige Konfidenzintervall für A p zur asymptotischen Sicherheit 1- ci! ist dann

gegeben durch die Randpunkte

(3) nfi I $ a = (X-Y) &Jal2.

20.8 Anwendungen

20.8.1 Vergleich von zwei Meßverfahren

Es soll zum Niveau ci!=5% überprüft werden, ob zwei verschieden Methoden zur

Bestimmung des Bleigehalts [ in mg/l] im Apfelsaft zu unterschiedlichen Ergebnis-

sen führen (vgl. Kinder-Osius-Timm 1982, Beispiel 7.19). Die zweiseitigen Hypothesen

lauten

Nullhypothese Ho: px = py (kein Unterschied beider Methoden),

Hypothese H : p x t py (systematischer Unterschied beider Methoden).

Es kann davon ausgegangen werden, daß die Meßwerte annähernd normalverteilt

und die Standardabweichungen ox und oy beider Methoden annähernd gleich sind.

Bei jeweils n = 25 und ny = 20 unabhängigen Wiederholungs-Messungen an einer X

Apfelsaftprobe ergaben sich für die insgesamt n = 45 Meßwerte

fi = F = 0,520 X

8 = s = 0,04713 X X

Page 197: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

20. Vergleich zweier Erwartungswerte bei beliebigen Verteilungen 4.4.03 20 - 12

Der t-Test mit n- 2 = 43 Freiheitsgraden lehnt die Nullhypothese nicht ab, weil

I t 1 = 1,891 < t43,a12 = 2,02 .

Da ein Fehler 2. Art vorliegen kann, ist Ho zunächst nur mit dem unbekannten Feh-

lerrisiko 2. Art ß „abgesichertn. Falls die unbekannten Standardabweichungen den

geschätzten entsprechen, d.h. ox =0,04713 und oY = 0,03987 so ergibt sich für einen

Unterschied 1 A p I = 1 i ~ y -py 1 = 0,025 (der dem Beobachteteten entspricht) aus der

approximierten Schärfe APowl( 1:) nach 20.4 (6) mit Y = 1 A p 1 / o, und o, =

0,043 das relativ hohe approximierte Fehlerrisiko 2.Art

20.8.2 Geburtsgewicht und Geschlecht (StatLab-Auswahl 1985)

Es soll zum Niveau ci! = 5% überprüft werden, ob es einen geschlechtspezifischen Un-

terschied beim Geburtsgewicht gibt. Ist X bzw. Y das Geburtsgewicht [ in Pounds11

der männlichen bzw. weiblichen Neugeborenen, so lauten die zweiseitigen Hypothe-

sen

Nullhypothese Ho: px = py (kein geschlechtspezifischer Unterschied),

Hypothese H : Px*Py (ges~hlechts~ezifischer Unterschied vorhanden).

Für die StatLab-Auswahl 1985 mit nx= ny = 50 ergibt sich

fi = F = 7,645 X

8 = s =0,988 X X

fi = ij = 7,130 Y

8 = s Y = 1,299. Y

Der t-Test mit m = 98 Freiheitsgraden lehnt die Nullhypothese ab, weil

1 t 1 = 2,227 > t g8,a l2 = 1,984 .

Damit ist die Hypothese H (geschlechtspezifischer Unterschied) mit dem Fehlerrisiko

5% abgesichert: das männliches Geburtsgewicht ist im Mittel größer als das weibli-

ches. Der Unterschied Ap der Geburtsgewichte wird geschätzt durch

Afi = fix- fiy = 0,514 mit Standardabweichung. 8, = 0,231 .

Und das 95%-Konfidenzintervall für den Unterschied A p ist

0,514 f 0,458 bzw. [ 0,06 ; 0,97 ]

Page 198: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

20. Vergleich zweier Erwartungswerte bei beliebigen Verteilungen 4.4.03 20 - 13

20.8.3 Geburtsgröße und Geschlecht (StatLab-Auswahl1985)

Es soll zum Niveau a = 5% überprüft werden, ob es einen geschlechtspezifischen Un-

terschied bei der Geburtsgröße gibt. Ist X bzw. Y die Geburtsgröße [ in Zoll] der

männlichen bzw. weiblichen Neugeborenen, so lauten die zweiseitigen Hypothesen

Nullhypothese Ho: ,LL, = ,LL, (kein geschlechtspezifischer Unterschied),

Hypothese H : ,LLx*,LLy (ges~hlechts~ezifischer Unterschied vorhanden).

Für die StatLab-Auswahl 1985 mit nx= ny = 50 ergibt sich

Der t-Test mit n- 2 = 98 Freiheitsgraden lehnt die Nullhypothese nicht ab, weil

Da ein Fehler 2. Art vorliegen kann, ist Ho zunächst nur mit dem unbekannten Feh-

lerrisiko 2. Art ß „abgesichertn. Falls die unbekannten Standardabweichungen den

geschätzten entsprechen, d.h. 5 = 0,9509 und oY = 1,1693, so ergibt sich für einen

Unterschied 1 A p 1 = 1 ,LL -,LL I = 0,s nach 20.4 (6) mit y = 1 A,LL 1 / on und on = 0,213 X Y

relativ hohe approximierte Fehlerrisiko 2.Art

Versuchsplanung: Der erforderliche Mindestumfang nx= ny (im balancierten Design)

bei dem der zweiseitige Gauß-Test zum Niveau a =5% für einen Unterschied

1 A p 1 = 0,s ein Fehlerrisiko 2. Art von (höchstens) ß = 10 % bzw. eine Schärfe von

(mindestens) 90% hat, ergibt sich mit z - 1,282 und obigen ox=0,9509 und P -

oy = 1,169 nach 20.5 (9) zu: nx = ny = 96.

Page 199: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

21. Vergleich von zwei Wahrscheinlichkeiten 27.7.02 21- 1

21. Vergleich von zwei Wahrscheinlichkeiten

Wir wollen jetzt die Wahrscheinlichkeiten px und py für zwei interessierende Ereig-

nisse Ax und Ay (typischerweise ein Ziel-Ereignis in zwei verschiedenen Populatio-

nen) miteinander verglichen werden, wobei das Testproblem wie folgt ein- oder

zweiseitig gestellt sein kann:

(1) H o : P x < P y , Hl: P, > P, (einseitiges Testpro blem),

(2) H o : p x = P Y , Hl: P, t P, (zweiseitiges Testproblem).

Unter Verwendung der Differenz

erhält man die äquivalenten Formulierungen

(4 H o : A p < O , H, : Ap > 0 (einseitiges Testproblem),

P) H o : A p = O , Hl : Ap t 0 (zweiseitiges Testproblem).

21.1 Zwei-Stichproben-Binomial-Verteilungsmodell

Es liegen zwei voneinander unabhängige Teilstichproben X = (Xl, ..., X ) und nx

Y = (Y1, .., Yny) vom Umfang nx und ny vor, wobei die Komponenten von X bzw.

Y jeweils aus unabhängigen Wiederholungen von X bzw. Y sind mit

Dies entspricht der allgemeinen Situation aus den Kapiteln 19 und 20 für ein spe-

zielles Verteilungsmodell - das Binomial-Verteilungsmodell - wobei wir die Erwar-

tungswerte px = E(X) und py = E(Y) hier aus traditionellen Gründen anders be-

zeichnen. Die Besonderheit des Binomial-Verteilungsmodells (etwa im Gegensatz

zum Normalverteilungsmodell) liegt darin, daß die Varianz der B(l,p)-Verteilung

bereits durch ihren Erwartungswert p bestimmt ist. Mit der Varianzfunktion der Bi-

nomialverteilung

Page 200: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

21. Vergleich von zwei Wahrscheinlichkeiten 27.7.02 21- 2

ergeben sich die Varianzen von X und Y zu

Die beobachtete Realisierung von X bzw. Y wird wieder mit X bzw. y bezeichnet.

Es sei noch bemerkt, daß alle folgenden Betrachtungen von der Stichprobe (X, Y)

vom Umfang n = nx+ny nur noch über die Summen X+ = XI+ ... +X und nx

Y = Yl+ ... +Yn abhängen. Man könnte daher auch gleich (analog Kapitel 17) + Y von zwei voneinander unabhängigen eindimensionalen Teil-Stichproben X und Y + + mit folgenden Verteilungen ausgehen:

Die beobachteten Anzahlen für Erfolg und Mißerfolg beider Stichproben (Gruppen)

faßt man auch in einer sogenannten 2x2-Kontingenztafel wie folgt zusammen:

21.2 Herleitung einer Teststatistik

Ausgangspunkt sind die Schätzungen für px und py

Gruppe

1

2

Summe

und die sich daraus ergebende Schätzung der Differenz Ap

- -

(2) np = np (X, Y) : = $,(X) - $,(Y) = X - Y

Ereignis Ereignis

j a nein

-

Y+ n y - Y + + Y+ n - X -Y + +

mit Varianz

Summe

n X

n Y

n = n +ny X

Page 201: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

21. Vergleich von zwei Wahrscheinlichkeiten 27.7.02 21- 3

2 1 2 (3) a 2 : = v ~ ~ ( A ~ ( x , Y ) ) = I g + - a (Var ianz v o n Aj ). nx n~ Y

Aus den Varianz-Schätzungen

ergibt sich folgende Schätzung von a 2

- (5) 82 - 1 - 2 1 - 2 -a +-a nx X ny Y

(geschätzte V a r i a n z v o n Aj ).

Wir wollen jetzt (wie im Kapitel 20) eine Standardisierung der Differenz Aj als

Teststatistik verwenden. Hierbei soll die Varianz a2 jedoch nicht durch 82, sondern

unter der zweiseitigen Nullhypothese H o : A p = 0 geschätzt werden. Bezeichnen wir

den Gesamt-Stichprobenumfang und die Stichproben-Anteile mit

(6) n : = n x + n y ( G e ~ a m t u n f a n ~ ) ,

(7) C : = 1 - n C :=

1 - n

X n X ' Y n~ (Stichproben-Anteile),

so ist der gewichtete Mittelwert beider Wahrscheinlichkeiten px und p y

Als Schätzung von p verwendet man das gewichtete Mittel der Schätzungen

Unter der zweiseitigen Nullhypothese H o : A p = 0 gilt px = p y = p, und die Varianz (3)

vereinfacht sich zu:

Eine Schätzung dieser Varianz ist gegeben durch

Als Testfunktion t wollen wir die unter H o : A p = 0 standardisierte Differenz Aj

verwenden

Page 202: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

21. Vergleich von zwei Wahrscheinlichkeiten 27.7.02 21 - 4

(12) t (x ,y ) := Al; (xlY)

(Testwert). .,(X, Y)

21.3 Asymptotische Verteilung der Teststatistik

Da die exakte Verteilung der Teststatistik T = t(X, Y) unter der zweiseitigen Nullhy-

pothese Ho : px = py = p noch vom unbekannten Parameter p abhängt, wollen wir

hier die unter Ho von p unabhängige asymptotische Verteilung bestimmen. Hierzu

betrachten wir eine Asymptotik mit wachsenden Teilstichprobenumfangen nx+ CO

und ny+ CO und konstanten Stichproben-Anteilen. Formal geben wir uns hierfür die

Stichproben-Anteile als rationale Zahlen cX, cy E $ vor mit

und betrachten für n + CO diejenige Teilfolge, bei der die resultierenden Teilstich-

proben-Umfänge

ganzzahlig sind. Anstelle der Stichproben-Anteile cx, cy kann sich auch den Quotien-

ten

vorgeben und erhält für ein solches 0 < rXY E $ die Stichproben-Anteile

1 Man spricht von balancierten Umfängen, wenn rxy = 1 und somit c = c = - gilt. X Y 2

Für den oben beschrieben Grenzprozeß n + CO (bei dem wir wieder alle relvanten

Größen mit dem Index n indizieren) ergibt sich die asymptotische Normalvertei-

lung der Schätzung Aj zu

Page 203: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

21. Vergleich von zwei Wahrscheinlichkeiten 27.7.02 21- 5

2 (5) J;; [APn - AP] i N(0,T2) wobei

. - (6) T ~ . - - 1 2 1 2 o = n a 2

Cx X Y Y n

bzw. in äquivalenter Formulierung

Die Konvergenz der Verteilungsfunktion von Un gegen die der Normalverteilung 1 N(0,l) ist hierbei sogar gleichmäJ32g und von der Ordnung -. Genauer gilt nach ei- Jn

nem Theorem von Berry und Essken (vgl. z.B. Gänssler-Stute 1977, Satz 4.2.10 und

Korollar 4.2.15 ff.)

(8) I p{un < x)-P{N(o,~) < X ) 1

für alle X E IR I p{un > x)-P{N(o,~) > X ) 1

mit der positiven Konstanten

-2 2 2 -2 2 2 c[cx a x ( l - 2 a x ) + c y a y ( l - 2 a y ) ]

(9) C ( ~ x , ~ Y ) = -1 2 -1 2 312 > 0 [cx ax + ay I

und c = 0.7995.

Aus den Konsistenzaussagen

(10) P

P n p :=

cxpx + C ~ p ~

ergibt sich schließlich die asymptotische Normalität der Teststatistik

2 2 Unter der zweiseitigen Nullhypothese Ho : Ap = 0 ist T = und die Teststatistik ist

dann asymptotisch Standard-Normalverteilt, d.h.:

Page 204: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

21. Vergleich von zwei Wahrscheinlichkeiten 27.7.02 21- 6

(14) T L N ( 0 , l ) für A p = O bzw. p x = p y . n

P Und für A p r 0 erhält man wegen e O n i 0 die asymptotischen Verteilungen der

Teststatistik:

P (15) Tn - -W für A p < 0 bzw. px < p y , P (16) T n - + w für A p > 0 bzw. P x > P y .

21.4 Asymptotische Tests

Mit t = t ( x , ~ ) als beobachtetem Testwert erhält man nun die asymptotischen Tests.

Einseitiger asymptotischer GauJ3-Test:

Ablehnung von Ho : px < p y zum asymptotischen Niveau u

U t > z U G(-t) < , a

Zweiseitiger asymptotischer GauJ3-Test:

Ablehnung von Ho : px = p y zum asymptotischen Niveau u

U I tl > z - U 2G(- l t l ) < u .

Die asymptotische Schärfe des einseitigen Test ist (wie beim Gauß-Test in 17.1) der

Grenzwert der Schärfen

für px < p y

(I> ~ o w ~ ( ~ ~ ) p ~ ) := 72-00 lim P { T n - > z a } = für px = p für p x > p y

und somit ist das asymptotische Fehlerrisiko 1. Art gleich u

Beim zweiseitigen Test ist die asymptotische Schärfe

für px r p (3> ~ o w y ( ~ ~ ) p ~ ) := 72-00 lim P { T n - > z a } =

für px = p

und das asymptotische Fehlerrisiko 1. Art ist gleich u

Page 205: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

21. Vergleich von zwei Wahrscheinlichkeiten 27.7.02 21- 7

21.5 Schärfe-Approximation für den einseitigen Tests

Wir wollen jetzt - analog zu 17.4 - eine Approximation der Testschärfe herleiten.

Der Ausgangspunkt ist die Schärfe-Darstellung

(1) POW~(P~,P,~Q) = P { T > - \} = P{u+~,v> - u ( P ~ , P ~ ) } mit

Aus der asymptotischen Normalverteilung von U und

ergibt sich

(5> Un+zaVn L N(0, l) .

Mit (1) erhält man die Schärfe-Approximation

Die Genauigkeit dieser Approximation (bzw. deren Konvergenz-Geschwindigkeit)

läßt sich hier nicht so einfach wie in 17.4 bestimmen, weil die in der Schärfe-Dar-

stellung (1) auftretende Zufallsvariable U + zaV sich nicht als standardisierte

Summe unabhängiger Zufallsvariablen darstellen läßt. Die hierbei „störendeu Zu-

fallsvariable %V konvergiert allerdings nach (4) gegen 0 für n i co und die Zufalls-

variable ist sogar von der Ordnung I weil gilt Jn

(8) 2 J n z v + a ~ ( 0 , d 2 ) für ein d > 0

Deshalb kann man davon ausgehen, daß approximativ gilt

wobei wir auf die Genauigkeit dieser Approximation nicht weiter eingehen. Die

rechte Seite P { U > - u ( ~ ~ , ~ ~ ) } läßt sich aber nach 21.3 (8) durch die approxima- 1 tive Schärfe APowl(px, py 1 u) wieder von der Ordnung - approximieren. Jn

Page 206: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

21. Vergleich von zwei Wahrscheinlichkeiten 27.7.02 21- 8

21.6 Versuchsplanung für den einseitigen Test

Die approximierte (und natürlich auch die exakte) Schärfe konvergiert bei festem ci!

für n i co unter der einseitigen Alternative Hl: Ap > 0 gegen 1, weil dann o i 0, und

~ ( p ~ , ~ ~ ) + co gilt. Dies kann man wieder ausnutzen, um die erforderlichen Stich-

probenumfang n zu bestimmen, der bei vorgegebenem cX, cy = 1- C ci!, Ap > 0 und X'

0 < ß < 1 eine approximative Schärfe von mindestens I - ß garantieren, d.h. für den

gilt

Unter Verwendung von

mit

mit

lautet die Bedingung (1) äquivalent

Hieraus ergibt sich der erforderliche Mindestumfang zu

wobei die zugehörigen Teilstichproben-Umfänge

auf natürliche Zahlen aufzurunden sind.

Auf eine Optimierung bzgl. der Stichprobenanteile cx und cy (wie wir sie im Kapitel

20 durchgeführt haben) wollen wir hier nicht weiter eingehen. Da für kleine Unter- 2 schiede Ap die Varianzen o i und oY annähernd gleich sind, wird man (in Analogie

1 zu 20.4) auch balancierte (d.h gleiche) Stichprobenanteile cx = cy= bevorzugen.

1 Im balancierten Fall ist p =F= -(P + p ) der Mittelwert beider Wahrscheinlichkei- 2 x Y

2 ten und aus der Konkavität der Funktion o (p) folgt T < T ~ . Anstelle der sich aus (5)

Page 207: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

21. Vergleich von zwei Wahrscheinlichkeiten 27.7.02 21- 9

ergebenden Mindestumfänge nx und ny werden meist die folgenden, einfacher

zu berechnenden und mindestens ebenso groj'en Teil-Stichprobenumfänge verwendet

21.7 Zweiseitiger Tests: Schärfe und Versuchplanung

Die Schärfe des zweiseitigen Tests ist gegeben durch

(1) P0w2(Px~Py I " ) = P{ ITI 2zaI2}

= P{ ~ 2 % ~ ~ ) +P{ ~ a - z ~ ~ ~ }

Beide Summanden lassen sich wie in 21.5 durch die jeweilige Schärfe eines einseiti-

gen Tests zum Niveau g approximieren 2

(2) P{T2z01/2} E A P O W ~ ( P ~ , P ~ I ~ ) ,

(3) P{ T 5- z 4 2 } APowl(py,pxl~) .

Hieraus ergibt sich die approximierte Schärfe des zweiseitigen Tests

Im Fall Ap > 0 überwiegt der erste Summand A P o w ~ ( ~ ~ , ~ ~ ~ ~ ) deutlich den zwei-

ten und man kann vereinfachend auch nur den ersten Summanden verwenden, wo-

durch man eine Abschätzung der approximierten Schärfe nach unten erhält. Ent-

sprechend kann im Fall Ap<O vereinfachend nur der zweite Summand

APowl(pY, px 1 5) als Absachätzung nach unten verwendet werden.

Für eine Versuchsplanung beim zweiseitigen Test ist bei vorgegebenem ß für interes-

sierende px r py wieder der erforderliche Umfang n gesucht, sodaß

Page 208: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

21. Vergleich von zwei Wahrscheinlichkeiten 27.7.02 21 - 10

Aus Symmetriegründen können wir hierbei Ap > 0 voraussetzen (sonst vertausche

man X mit Y). Wegen

(6) A P O W ~ ( P ~ ' P ~ I ~ ) > A P O W ~ O ~ ~ , P ~ I ; )

ist es für (5) hinreichend, wenn man den erforderlichen Mindest-Umfang n aus 21.6

für den einseitigen Test zum halben Niveau wählt.

21.8 Konfidenzgrenzen für die Differenz der Wahrscheinlichkeiten

Der Ausgangspunkt für die Herleitung von Konfidenzgrenzen für die Differenz Ap

ist die asypmtotische Normalverteilung der standardisierten Schätzung

in der wir die unbekannte Standardabweichung on allerdings noch durch ihre

Schätzung 8n ersetzen müssen. Aus der Konsistenz der Schätzungen jx und jy für

n + CO und ny+ CO ergibt sich X

und hieraus folgt die Konsistenz der Schätzung 8n

(Konsistenz)

Folglich können wir in (1) die Standardabweichung o durch ihre Schätzung 8n er- n

setzen, d.h. es gilt

Hieraus erhält man eine einseitige untere bzw. obere Konfidenzgrenze für die Diffe-

renz Ap zur asymptotischen Sicherheit 1 - ci!

Page 209: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

21. Vergleich von zwei Wahrscheinlichkeiten 27.7.02 21 - 11

(5) (Ap) U = ~ j - d a =@',-@',-da (einseitige untere Grenze)

(Ap) o = A$ + d a = jx -P, + da (einseitige obere Grenze) mit

(6) d : = z . 8 a a

(Bandbreite).

Und das zweiseitige Konfidenzintervall für Ap zur asymptotischen Sicherheit 1- ci!

ist dann gegeben durch die Randpunkte

21.9 Anwendungen

Wir gehen jetzt auf einige Anwendungsbeispiele ein, wobei wir auch die Beispiele

aus der Einleitung (0.4 und 0.5) behandeln.

21.9.1 Rauchen in der Schwangerschaft

Für das Studie aus 0.4 wollen wir zuerst untersuchen, ob das Rauchen der Mutter

einen Einfluß auf das Untergewicht des Kindes hat. Da man vermutet, daß das Rau-

chen (X-Gruppe) das Untergewichtsrisko p erhöht formulieren wir das Testproblem

einseitig, sodaß die abzusichernde Vermutung die Alternative darstellt

Ho : px < p, (Untergewichtsrisiko bei rauchenden Müttern nicht erhöht),

H : P x > P, (Untergewichtsrisiko bei rauchenden Müttern erhöht).

Wegen der hohen Stichprobenumfänge soll der Test zum Niveau ci! = 1% erfolgen.

Aus 0.5 Tab. 4 ergibt sich die zugehörige 2x2Tafel in Tab. 1.

Tab. 1: Untergewicht des Kindes und Rauchen der Mutter in einer amerikanischen Studie über Einzelgeburten der weißen Bevölkerung aus den Jahren 1960-67. aus: J. Yerushalmy (1971), Amer. J. Epidemiology 93 , p. 443ff, Table 1.

Mutter

raucht

j a nein

Total

Untergewicht des Kindes

j a nein

237 3 489

197 5 870

434 9 359

Lebendgeborene

3 726

6 067

9 793

rel. Häufigkeit

Untergewicht

I; X = 6,36 % P,= 3,25 %

I; = 4,43 %

Page 210: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

21. Vergleich von zwei Wahrscheinlichkeiten 27.7.02 21 - 12

Die Nullhypothese wird abgelehnt, weil:

Testwert: t = 7,269 > - za = 2,326 bzw.

Signifikanzniveau: @(-t) < 0,0001 % 5 ci! = 1 % .

Damit ist die Alternative, daß das Rauchen der Mutter das Untergewichtsrisiko des

Kindes erhöht mit der Irrtumswahrscheinlichkeit ci! = 1 % bzw. mit der Sicherheit

von 1- ci! = 99 % abgesichert (weil bei Ablehnung der Nullhypothese nur ein Fehler 1.

Art auftreten kann).

Die Schätzung für den Unterschied A p = p x - p y der Untergewichtsrisiken ist

A j = jx - jy = 3,11% mit Standardabweichung 8 = 0,46% .

Die einseitige untere Konfidenzgrenze für A p zur Sicherheit 1 - ci! = 99% ist

Der Unterschied von Risiken px und p y wird oft auch durch das relative Risiko RR

= Px/Py beschrieben. Das geschätzte relative Risiko ist hier j x / j y 2, d.h. das Rau-

chen der Mutter verdoppelt das Untergewichtsrisiko gegenüber dem von nichtrau-

chenden Müttern.

Das Untergewicht bei einem Neugeborenen ein bekannter Risikofaktor für die Säu-

glingssterblichkeit. Wir wollen daher noch überprüfen , ob die Säuglingssterblich-

keit (innerhalb von 4 Wolchen nach der Geburt) der untergewichtige Säuglinge bei

den rauchenden Müttern erhöht ist gegenüber denen nichtrauchender Mütter (alter-

native Hypothese) oder nicht (Nullhypothese). Aus 0.5 Tab. 4 ergibt sich die zugehö-

rige 2x2Tafel in Tab. 2.

Tab. 2: Sterblichkeit untergewichtiger Neugeborener innerhalb von 4 Wochen nach der Geburt) und Rauchen der Mutter in einer amerikanischen Studie über Einzelgeburten der weißen Bevölkerung aus den Jahren 1960-67. aus: J. Yerushalmy (1971), Amer. J. Epidemiology 93 , p. 443ff, Table 1.

Mutter

raucht

j a nein

Total

gestorben gestorben

j a nein

27 210

43 154

70 364

Untergewichtige

insgesamt

237

197

434

Säuglings-

Sterberate

X = 11,39 % = 21.83 %

Y

= 16,13 %

Page 211: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

21. Vergleich von zwei Wahrscheinlichkeiten 27.7.02 21 - 13

Überraschenderweise ist hier die Säuglingssterblichkeit j y = 21.83% der Unterge-

wichtigen bei nichtrauchenden Müttern fast doppelt so hoch, wie bei rauchenden

Müttern, und somit wird die einseitige Nullhypothese nicht abgelehnt (der Testwert

ist ja sogar < 0). Für das zweiseitige Testproblem

Ho : px = P, (kein Unterschied der Säuglingssterblichkeit),

H :Px* P, (unterschiedliche Sä~~lin~ssterblichkeiten) .

lehnt der zweiseitige Test zum Niveau ci! = 1% die Nullhypothese ab, weil

Testwert: t = - 2,943 < - - z = - 2,326 a

bzw.

Signifikanzniveau: @(t) < 0,325 % ci! = 1 % .

Der Unterschied beider Säuglingssterblichkeitsraten ist daher mit der Irrtumswahr-

scheinlichkeit ci! = 1 % bzw. mit der Sicherheit von 1 - ci! = 99 % abgesichert, und zwar

ist die Säuglingssterblichkeit der Untergewichtigen bei rauchenden Müttern geringer

als bei nichtrauchenden. Eine mögliche Erkärung hierfür ist, daß das Rauchen der

Mütter lediglich das Wachstum des Fötus verlangsamt, aber die daraus resultieren-

den Untergewichtigen nicht wegen ihres Untergewichts eine höhere Sterblichkeit ha-

ben. Bei nichtrauchenden Müttern dagegen kann Untergewicht des Kindes auf an-

dere Wachstumshemmnisse hinweisen, die auch das Sterberisiko erhöhen.

In jedem Fall zeigt die Analyse der Untergewichtigen, daß man nicht „automatisch"

einseitig testen sollte, sondern im Zweifelsfalle eher zweiseitig, auch wenn hierbei

ein Schärfeverlust gegenüber dem entsprechenden „richtigenu einseitigen Test hin-

zunehmen ist. Auf jeden Fall muß man die zu testenden Hypothesen vor der Date-

nerhebung (oder zumindestens vor der Auswertung) formulieren. Wenn man die

Hypothesen erst wählt, nachdem man die Daten schon (teilweise) analysiert hat, so

stimmt das resultierende Fehlerrisiko 1. Art nicht mehr mit der Vorgabe ci! überein.

Page 212: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

21. Vergleich von zwei Wahrscheinlichkeiten 27.7.02 21 - 14

21.9.2 Vergleich von zwei Therapien

Beim Vergleich zweier Behandlungstherapien ergaben sich folgende Ergebnissse (vgl. Kinder-Osius-Timm 1982, Beispiel 7.8 )

Es wird ein zweiseitiger Test zum Niveau a = 5% durchgeführt mit den Hypothesen

Ho : pl = p2 (kein Unterschied: gleiche Erfolgsquoten beider Therapien),

Therapie

1 2

Total

H : pl t p2 (unterschiedliche Erfolgsquoten beider Therapien), .

Die Nullhypothese wird nicht abgelehnt, weil:

Testwert: I t I = + 0,89 < z & j 2 = L96 bzw.

Signifikanzniveau: 2@(- I t 1 ) = 37,5 % > a = 5% .

Erfolg kein Erfolg

7 5 25

9 6 24

171 49

Fazit: Unterschiedliche Erfolgsquoten können mit diesen Daten nicht nachgewiesen werden. Es kann ein Fehler 2. Art vorliegen, und deshalb ist die Nullhypothese durch den Test nicht quantifizierbar abgesichert. Das zweiseitige 95%-Konfidenzinter- vall für den Unterschied A p = pl - p 2 reicht allerdings von - 16,1% bis 6,1% und des- halb sind sowohl positive Werte für A p (z.B. A p = 5% bzw. p1 = p2 + 5%) als auch negative Werte für A p (z.B. A p = - 10% bzw. pl = p2- 10%) noch „kompatibelu mit den beobachteten Daten.

Analyse des Fehlerrisiko &.Art ß bzw. der approximierten Schärfe APowl (pl ,p2 I a) = 1-ß für den Fall, daß die wahren Erfolgsquoten mit ihren Schätzungen uberein stimmen, d.h. pl = 75 % und p2 = 80 %. Dann ergibt sich

A p = 5 % = 0,05 p = 77,7 % = I; a = 0,0563

0 a = 0,0566

ß 8 6 % (extrem hoch, vgl. Abb. 21.9.2.4.

Behandlungen

100

120

220

Versuchsplanung: Die Mindestumfänge nl = n2, bei denen der Test zum Niveau a = 5% für p = 75 % und p = 80 %. ein Fehlerrisiko 2. Art von (höchstens) ß = 20%

1 2 hat, ergeben sich aus z - 0,842 zu: n = n = 1094.

P - 1 2

Erfolgsquote

I; = 75,O % 1 I; = 80,O % 2

I; = 77,7 %

Page 213: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

21. Vergleich von zwei Wahrscheinlichkeiten 27.7.02 21 - 15

Abb. 1.: Dichte der (approximativ) normalverteilten Teststatistik T mit Fehlerrisiken für den zweiseitigen Test im Beispiel: Vergleich von zwei Therapien

Dichte für p = p Dichte für p = 75% < p = 80 % 1 2 1 2

21.9.3 Säuglingssterblichkeit nach Geschlecht

Beim Vergleich der Säuglingssterblichkeit für beide Geschlechter ergaben sich für alle Neugeborenen eines Landes im Laufe eines Jahres folgende Anzahlen (vgl. Kinder-Osius-Timm 1982, Beispiel 7.9 )

Es wird ein einseitiger Test durchgeführt mit den Hypothesen

Ho : pl 5 p2 (männliche Sterblichkeit ist nicht höher als die weibliche) , H : pl > p2 (männliche Sterblichkeit ist höher als die weibliche), .

Geschlecht

männlich: 1

weiblich: 2

insgesamt

Wegen der extrem hohen Stichprobenumfänge wird das sehr geringe Niveau a = 0,01% gewählt. Die Nullhypothese wird abgelehnt, weil:

Testwert: t = 15,96 > - za=3,719 bzw.

im ersten Lebensjahr gestorben überlebt

7 699 313 781

5 533 299 360

13 232 613 141

Signifikanzniveau: @(-t) < 0,0001 % 5 a = 0,01 %

Fazit: Die Hypothese H, daß die männliche Säuglingssterblichkeit höher als die wei- bliche ist, ist mit der Irrtumswahrscheinlichkeit a = 0,01% bzw. mit der Sicherheit von 1 - a = 99,99 % abgesichert.

Lebendgeboren

321 480

304 893

626 373

beobachtete Sterberate

I; = 2,395 % 1

I; = 1,815 % 2

I; = 2,112 %

Page 214: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

21. Vergleich von zwei Wahrscheinlichkeiten 27.7.02 21 - 16

Schätzung des Unterschieds A p = pl - p2 beider Sterberisiken:

AI; I ; I ; = 0,58 % 1 2 mit Standardabw.: 8 = 0,0362 % .

Zweiseitiges Konfidenzintervall für A p zur Sicherheit 1 - ci! = 99,99 %:

0,58 % f 0,14 % bzw. [ 0,44 % ; 0,72 % ] .

21.9.4 Gefährdung von Schwangerschaften nach Tschernobyl

Thieme und Lack (Der Frauenarzt 611987) haben Schwangerschaften in verschiede- nen Regionen betrachtet und Totgeburten sowie ausgewählte Mißbildungen als „Schadensfällen eingestuft. Die Belastung wurde durch die Bodenkontamination mit Cäsium-137 definiert. Im Vergleich der a m geringsten belasteten Region in Nie- dersachsen („nicht exponiertJ) mit der a m höchsten belasteten Region in Bayern („exponiertJ) ergab sich folgende Tabelle.

Es wird ein einseitiger Test zum Niveau ci! = 5% durchgeführt mit den Hypothesen

Exposition

Ja (I> Nein (2)

Gesamt

Ho : pl 5 p2 (Schadensrisiko bei Exposition nicht höher als ohne Exposition),

H : pl > p2 (Schadensrisiko bei Exposition höher als ohne Exposition).

Die Nullhypothese wird nicht abgelehnt, weil:

Schaden kein Schaden

15 1 247

15 1 272

3 0 2 519

Testwert: t = 0,054 < ~ = 1 , 6 4 5 ,

Signifikanzniveau: P = 47,8 % > ci! = 5% .

Umfang

1 262

1 287

2 549

Ein höheres Schadensrisiko unter Exposition (d.h. H gilt) ist mit diesen Daten nicht nachweisbar. Es kann aber ein Fehler 2. Art („trügerische Sicherheit? vorliegen, und daher ist die Nullhypothese durch den Test nicht quantifizierbar abgesichert. Das zweiseitige 90%-Konfidenzintervall für den Unterschied A p = p1 - p 2 reicht aller- dings von - 0,68% bis 0,73% und deshalb sind auch positive Werte für A p - z.B. A p = 0,5% bzw. pl = p2 + 0,5% - noch „kompatibelu mit den beobachteten Daten.

Analyse des Fehlerrisiko 2.Art ß und der Schärfe y = 1-ß für hypothetisches p = I; = 1,166 % (beobachtete Schadensquote ohne Exposition) und vorgegebene

2 2 Werte des relativen Risikos RR = der Exposition gegenüber keiner Exposition:

Schadensquote

I; 1 = 1,189 % I; = 1,166 %

2

I; = 1,177 %

Page 215: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

21. Vergleich von zwei Wahrscheinlichkeiten 27.7.02 21 - 17

Ein akzeptables Fehlerrisiko von unter 10% ergibt sich also erst ab einem relativen Risiko von mindestens 2,5.

RR pl=RR.p 2

L5 1,749 % 2,o 2,332 % 2,5 2,915 % 3 ,o 3,498 %

Versuchsplanung: Erforderliche Mindestumfänge nl = n , damit der Test zum Niveau or = 5% ein Fehlerrisiko 2. Art von (höchstens) ß = 102 bzw. eine Schärfe von (min- destens) y = 90% hat für hypothetisches p2 = j2 = 1,166 % (beobachtete Schadens- quote ohne Exposition) und vorgegebene Werte des relativen Risikos RR:

Risiko ß Schärfe y =1- ß

66,2 % 33,8 % 27,5 % 72,5 % 6,9 % 93,l % 1,2 % 98,8 %

Abb. 1: Dichte der (approximativ) normalverteilten Teststatisik T mit Fehlerrisiken für den einseitigen Test im Beispiel: Gefährdung von Schwangerschaften

RR pl=RR.p 2

2,o 2,332 % L5 1,749 % 12 1,399 % L1 1,283 %

Dichte für p = p 1 2

Umfänge Gesamtumfang n = n

1 2 n = n +n2

1 2 164 4 332 7 239 14 478

39 895 79 916 151 394 302 778

Dichte für p = 1,748% > p = 1,166 % 1 2

Annahme I Ablehnung Annahme I Ablehnung

Page 216: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

21. Vergleich von zwei Wahrscheinlichkeiten 27.7.02 21 - 18

21.9.5 Broccoli als Krebsvorsorge?

Für das Tierexperiment aus 0.5 wollen wir zunächst untersuchen, ob die Sulphora-

phane-Beigabe das Krebsrisiko reduziert (Alternative) oder nicht (Nullhypothese).

Hierzu legen wir die beiden Gruppen mit Sulphoraphane-Beigabe zusammen und

erhalten aus 0 Tab. 5 die zuhehörige 2x2-Tafel in Tab. 8.

Tab. 8: Tumore im Tierexperiment mit Ratten bei unterschiedlicher Behandlung mit Sulphoraphane (vgl. 0.5).

Sulphoraphane

Beigabe

nein (X)

ja (Y', Total

Mit diesen Daten sollen die einseitigen Hypothesen

Ho : px < py (Tumorrisiko durch Sulpharaphane nicht verringert)

H : px > py (Turnorri~iko durch Sulpharaphane verringert)

Tumor kein Tumor

17 8

24 5 4

4 1 62

zum Niveau ci! = 5% getestet werden. Die Nullhypothese wird abgelehnt, weil:

Testwert: t = 3,309 > - za = 1,645 bzw.

Signifikanzniveau: @(-t) < 0,0468 % < ci! = 5 % .

Damit ist die Alternative, daß Sulphoraphane das Tumorrisiok verringert mit der

Irrtumswahrscheinlichkeit ci! = 5 % bzw. mit der Sicherheit von 1 - ci! = 95 % abgesi-

chert (weil bei Ablehnung der Nullhypothese nur ein Fehler 1. Art auftreten kann).

Summe

25

78

103

Die Schätzung für den Unterschied Ap = px-py der Tumorriken ist

beobachtetes

Tumorrisiko

jx= 68,OO % jy= 30,77 %

= 39,81 %

A j = jx - jy = 37,23% mit Standardabweichung 8 = 10,69% .

Die einseitige untere Konfidenzgrenze für Ap zur Sicherheit 1 - ci! = 99% ist

Das geschätzte relative Risiko ist hier jy/jx 0,45 d.h. durch Sulphoraphane wird

das Tumorrisiko um mehr als die Häfte gesenkt.

Page 217: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

21. Vergleich von zwei Wahrscheinlichkeiten 27.7.02 21 - 19

Wir wollen jetzt noch weiter untersuchen, ob die Dosierung von Sulphoraphane

einen Einfluß auf das Tumorrisiko hat. Hierzu betrachten wir die beiden Gruppen

mit geringer bzw. hoher Dosis von Sulphoraphane in Tab. 9.

Tab. 9: Tumore im Tierexperiment mit Ratten bei unterschiedlicher Dosis von Sulphoraphane (vgl. 0.5).

Sulphoraphane

Dosis

gering (4 hoch (Y')

Total

Mit diesen Daten sollen die einseitigen Hypothesen

Ho : px < p y (Tumorrisiko durch höhere Sulpharaphane nicht verringert)

H : px > p y (Turnorri~iko durch höhere Sulpharaphane verringert)

zum Niveau ci! = 5% getestet werden. Die Nullhypothese wird nicht abgelehnt, weil:

Testwert: t = 0,981 > - za = 1,645 bzw.

Signifikanzniveau: @(-t) < 16,32 % < ci! = 5 % .

Tumor kein Tumor

14 25

10 2 9

24 5 4

Bei dieser Testentscheiduzng kann ein Fehler 2. Art vorliegen. Wir wollen daher

das Fehlerrisiko 2. Art für den Fall bestimmen, daß das Tumorrisiko bei geringer

Dosis mit px = 36% (gerundet) dem beobachteten Risiko entspricht, und das rela-

tive Risiko P y / P X = 213 beträgt, d.h. die hohe Dosis reduziert das Tumorrisiko um

113 auf p y = 24%. Dann ergibt sich aus

A p = 0,12 p = 0,30

a = 0,1038 0

a = 0,1029

das extrem hohe Fehlerrisiko ß~ 69%, d.h. ein solcher (praktisch bereits sehr rele-

vanter) Unterschied läßt sich bei den Stichprobenumfängen nx= ny = 39 nur mit

der extrem geringen Schärfe von y = 1 - ß ~ 31% nachweisen. Um diesen Unter-

schied mit einer Schärfe von 90% bzw. mit einem Fehlerrisiko 2. Art von 10% zu

entdecken, wären im balancierten Design nach 21.6 (5) für jede der beiden Dosis-

gruppen n = ny = 248 Tiere, also insgesamt n = 496 Tiere erforderlich. X

Summe

3 9

3 9

78

beobachtetes

Tumorrisiko

I; X = 35,90 % I; = 25,64 %

Y

I; = 30,77 %

Page 218: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

22. Anpassungstests bei Multinomialverteilungen 7.10.02 22- 1

22. Anpassungstests bei Multinomialverteilungen

Ein Test zur Überprüfung eines hypothetischen Modells (und damit einer entspre-

chenden Nullhypothese) wird allgemein als ein Anpassungstest für das Modell be-

zeichnet. Eine wichtige Klasse solcher Anpassungstest basiert darauf, daß man

beobachtete Anzahlen mit (unter dem Modell) erwarteten Anzahlen für Ereignisse

miteinander vergleicht. Dies läuft formal auf Tests bei Multinomialverteilungen hi-

naus, die jetzt untersucht werden sollen.

22.1 Multinomial-Verteilungsmodell

Die Stichprobe X = (Xl, ...,XK) ist ein K-dimensionaler Zufallsvektor mit einer Mul-

tinomial-Verteilung MK(n, p) vom Umfang n E W und dem K-dimensionalen Wahr-

scheinlichkeitsvektor p E ( O , l l K mit p = 1. Auf dem Träger der Verteilung + (1)

K T = { x E W ~ I x + = n } mit W o : = W ~ { O }

ist die Zähldichte f gegeben durch

für X = (xl, ..., xK) E T.

Der Erwartungsvektor und die KxK Covarianzmatrix lauten

(3) P(P) := Ep(X) = n P ,

(4> C(p) := Cov P (X) = n (Diag(p) - p bzw.

cov (Xk,X1) = - pk pl für k s 1 P

Cov P (Xk,Xk) = n ~ ~ ( 1 - p ~ ) ~

K wobei Diag(a) die KxK Diagonalmatrix mit der Diagonalen a E IR bezeichnet. Die

einzelnen Komponenten Xk sind jeweils binomialverteilt

aber X1, ..., XK sind wegen (4) nicht stochastisch unabhängig, und dies ist nicht wei-

ter überraschend, weil es sogar ein (linearen) funktionalen Zusammenhang der

Komponenten gibt

Page 219: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

22. Anpassungstests bei Multinomialverteilungen 7.10.02 22- 2

(6) X + : = X1+ ...+ XK = n (P-fast sicher).

Weiter bezeichne X E T wieder die beobachtete Realisierung von X.

Da die Multinomialverteilung MK(n , p) die n-fache Faltung von MK(l , p) ist, ergibt

sich das obige Verteilungsmodell auch aus n unabhängigen Wiederholungen

X1, ...., X eines MK(l ,P)-verteilten Zufallsvektors, wobei X deren Summe ist: n

X = X, + .... + Xn.

22.2 Testen einer einfachen Nullhypot hese

Wir wollen zunächst überprüfen, ob der Wahrscheinlichkeitsvektor p mit einem

fest vorgegeben Wahrscheinlichkeitsvektor po E (0, 1lK übereinstimmt oder nicht.

Das zugehörige Testproblem lautet

(1) H : p = p 0 0

bzw. Ho : pk = pok für alle k ,

(2) H1: P*Po bzw. Hl : pk * pok für mindestens ein k .

Der Vektor der beobachteten relativen Häufigkeiten

(3) 1 1 p = (Pl, ..., &) = p(x) := + X = ( - X ...) - X ) n 1 ' n K

liegt für X > 0 (d.h. xk > 0 für alle k ) im zulässigen Parameterraum (0, llK, und ist

dann auch die Maximum-Likelihood Schätzung für p. Unter der Nullhypothese dagegen

ist

(4) = (Pol , ..., PoK) = P,

die ML-Schätzung für p, und die (unter HJ erwarteten Anzahlen sind gegeben durch

den Erwartungsvektor

Anwendung: Überprüfung eines a b s t r a k t e n Wür fe l s

Wir betrachten einen abstrakten Würfel mit K Kanten (beim normalen Würfel ist

K = 6), der die Zahlen k = 1, ..., K mit Wahrscheinlichkeiten pk produziert. Solche ab-

strakten Würfel lassen sich z.B. durch Zufallszahlengeneratoren im Computer si-

mulieren. Das Ergebnis von n unabhängigen Würfen läßt sich dann durch einen K-

Page 220: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

22. Anpassungstests bei Multinomialverteilungen 7.10.02 22- 3

dimensionalen Zufallsvektor X = (Xl, ...,XK) mit MK(n,p)-Verteilung beschreiben,

wobei Xk die Anzahl für das Werfen der Zahl k ist. Um zu Überprüfen, ob der Wür-

fel alle Zahlen mit gleicher Wahrscheinlichkeit liefert, kann man die zugehörige

Nullhypothese testen

mit - 1 Ho: pk = pOk - pOk - K für alle k

22.3 Der Chiquadrat-Anpassungstest von Pearson

Zur Überprüfung der Nullhypothese ist naheliegend, die beobachteten mit den unter

der Nullhypothese erwarteten Anzahlen zu vergleichen, und die Nullhypothese ab-

zulehnen, wenn X zu stark von fio abweicht. Als „Abstandsmaßn kann man die auf 2 Pearson zurückgehende X -Statistik verwenden:

K (1) x2=x2(x,fi0):= C ( ~ ~ - f i ~ ~ ) ~ / f i ~ ~ (Pearson-Statistik)

k=l K

:= n . C (P, - P ~ ~ ) ~ / P ~ ~ k=l

= n . x2(p,p0) .

K Definiert man allgemein für Vektoren a, b E IR mit a > 0 und b > 0 den sogenann-

ten Pearson-Abstand

so ist x2 zwar keine Metrik (weil es nicht symmetrisch ist), aber es gilt

(4) 2 x2(c.a, c . b ) = c.X (a,b) für jedes c > 0

Da große Werte der Pearson-Statistik gegen die Nullhypothese sprechen, ergibt sich

der folgende x 2 - ~ e s t

(5> Ablehnung von Ho U x2(x,fio) > cX ,

wobei der kritische Wert cx das Niveau des Tests bestimmt. Da die Verteilung der

Teststatistik x2(x,fio(x)) unter der (einfachen) Nullhypothese hier vollständig be-

Page 221: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

22. Anpassungstests bei Multinomialverteilungen 7.10.02 22-4

Sannt und diskret ist, kann man zu jedem vorgegebenen (nominellen) Niveau a ei-

nen kritischen Wert cY((a) bestimmen, so daß dieser Test höchstens das Niveau a

hat, also konservativ ist. Die Bestimmung dieser kritischen Werte für einen solchen

exakten Test ist allerdings nur für kleine Dimensionen K und nicht zu große Um-

fänge n praktikabel. Deshalb wird meist ein asymptotischer Test durchgeführt, der

auf der folgenden asymptotischen Verteilung der Teststatistik unter der Nullhypo-

these für n + CO basiert

Theorem 1 jAsymptotische X2-~erteilung des Pearson-Abstands unter Ho)

Unter H : p = po gilt: 0

x2 : = x~(x(~) , nPo) 2 Xm 2 mit m = K - 1 . n n+ 00

Einen Beweis (auf den wir hier verzichten) findet man z.B. in Cramer, 1946, Chap-

ter 30 oder Rao, 1973, Chapter 6b. Hieraus ergibt sich der folgende

2 Chiquadrat-Anpassungstest oder X -Test von Pearson

Ablehnung von H : p = p zum asymptotischen Niveau a 0 0

U 2 2

X >X,;,

U P:= I-G (x2) < a m

mit Gm als Verteilungs-

2 funktion von xm.

P wird auch als Signifikanzniveau der Beobachtung bezeichnet.

22.4 Die Schärfe des Chiquadrat-Anpassungstests

2 Ausgangspunkt für Bestimmung der asymptotischen Verteilung von X unter der Hy-

pothese H : p r po ist die Tatsache, daß die relativen Häufigkeiten p eine konsistente

Schätzung auf p sind, d.h.

Hieraus ergibt sich

1 2 2 - (n) P -Xn=X n (P ,pol _mi

und somit konvergiert die Pearson-Statistik unter H : p r po gegen unendlich

Page 222: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

22. Anpassungstests bei Multinomialverteilungen 7.10.02 22- 5

Für die Schärfe folgt daraus

22.4.1 Benachbarte Alternativen

Um unter der Hypothese H: p t po eine nicht-degenerierte asymptotische Verteilung

der Pearson-Statistik X: zu erhalten betrachten wir sogenannte benachbarte (oder lo-

kale) Alternativen. Diese werden durch eine Folge von Wahrscheinlöichkeitsvektoren 1 spezifiziert, die mit der Ordnung - gegen po konvergiert, d.h. es gilt Jn

(BA) fi Po) _mi 00 (benachbarte/lokale Alternative).

Hierbei ist notwendigerweise die Summe der Komponenten von Am gleich Null

Gibt man sich umgekehrt ein d E IRK mit po + d E (0, llK vor, so läßt sich eine 00 00

konkrete banachbarte Alternative z.B. definieren durch

Unter benachbarten Alternativen ist die Pearson-Statistik asymptotisch nichtzentral

Chiquadrat-verteilt:

Theorem 2 jAsymptotische X2-~erteilung von x2 unter benachbarten Alternativen)

Unter (BA) gilt:

x2 : = x~(x(~) , nPo) F 2 X;(%) mit m = K - 1 n n+ 00

T " &k = A 00 . ~ i a ~ - ' ( p , ) . Am = C - P . k = l Ok

Einen Beweis (auf den wir hier versichten) - für eine allgemeinere Situation aber

mit den speziellen Alternativen der Form (2) - findet man z.B. in S.J. Mitra (1958),

Page 223: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

22. Anpassungstests bei Multinomialverteilungen 7.10.02 22- 6

On the limiting power function of the frequency chi-square test, Ann. Math. Statistics

29, 1221-1233 (Theorem 3.1). Man beachte, daß das Theorem 2 im Spezialfall

= po und somit Am = 0 das Theorem 1 liefert.

Die Nichtzentralität 6 läßt sich als Grenzwert darstellen 00

n 2 (4 (3) 6 : = n X ( p ,po) - 6

72-00 00 unter (BA),

2 und hieraus ergibt sich die Verteilung von X approximativ zu (wobei der formale

Index „nU weggelassen ist)

K mit n = n . C ( P ~ - P ~ ~ ) ~ / P ~ ~ .

k= l

Da diese Approximation unter benachbarten Alternativen hergeleitet wurde, ist

ihre Genauigkeit umso besser, je weniger der wahre Wahrscheinlichkeitsvektor p

vom Referenzvektor po aus der Nullhypothese abweicht.

Unter Verwendung der Verteilungsfunktion @ der nichtzentralen Chiquadrat- m,S

Verteilung xk(6) ergibt sich aus (8) die Schärfeapproximation

und somit die Approximation des Fehlerisikos 2. Art

Für festes ci! und m ist die Funktion

nach Exkurs V1.2 (20) streng fallend in 6 2 0. Für ci! = 10% und ci! = 5% ist H für

verschiedene Freiheitsgrade m in Abb. 1 dargestellt.

Page 224: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

22. Anpassungstests bei Multinomialverteilungen 7.10.02 22- 7

Abb. 1: Approximatives Fehlerrisiko 2. Art ß(6) rr Gm,, (X2 ) als Funktion der Nicht- m; a

zentralität S für ci! = 10% und ci! = 5% und verschiedene Freiheitsgrade.

Page 225: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

22. Anpassungstests bei Multinomialverteilungen 7.10.02 22- 8

22.4.2 Versuchsplanung

Im Rahmen einer Versuchsplanung ist für vorgegebenes ß der erforderliche Minde-

sumfang n gesucht, so daß

(I> APow(6 n 1 a) > 1 -ß bzw. H(6,) 5 ß

für jedes p gilt, bei dem der „Abstandu x ~ ( ~ , ~ ~ ) von der Nullhypothese mindestens

so groß wie eine vorgegebene „relevanteu Abweichung d > 0 ist, d.h. für jedes p mit

(2) 2 6 = n . X (p,po) > n.d.

n

Wegen der Monotonie von H ergibt sich der erforderliche Mindestumfang n = n ß,d

aus

Für a = 10% und a = 5% kann der Wert rl(ß) näherungsweise auch aus Abb. 1 ab-

gelesen bzw. interpoliert werden.

22.4.3 Spezialfall: Binomial-Verteilungsmodell

Für den Spezialfall K = 2 ist die Stichprobe X = (X1, X2) wegen X = n - Xl bereits 2

eindeutig durch ihre erste Komponente Xl mit B(n,pl)-Verteilung bestimmt. We-

gen p = 1 -pl ist die Nullhypothese äquivalent zu H : p = p und folglich liegt 2 0 1 01

hier das zweiseitige Testproblem aus Kapitel 17 vor. Zwischen der dortigen Test-

statistik

mit 2 t(xl) = Jn 1 0 0 go := pol (l-pol)

und der Pearson-Statistik besteht der Zusammenhang

x2(X,p0) = t ( x ~ ~ .

Aus der asymptotischen N(0, 1)-Verteilung von t(Xl) unter Ho ergibt sich daher hier 2 2 die asymptotische xl-Verteilung von Xn in Übereinstimmung Theorem 1 für m = 1.

Page 226: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

22. Anpassungstests bei Multinomialverteilungen 7.10.02 22- 9

22.5 Der Likelihood-Quotienten-Anpassungstest

Wir wollen jetzt noch den Likelihood-Quotienten-Test herleiten. Aus dem Log-Li-

kelihood

(1) I o g ~ ( p l x ) = ~ x ~ . I o g p ~ + n ! - C L L log(xk!) für X E T

1 und den ML-Schätzungen (vgl. 22.2) p= X sowie p = po (unter Ho) ergibt sich

der log-Likelihood-Quotient zu

PI log X(x) = log L(po I X) - log L(p I X) = C k xk. 1og(fiOk/xk) < 0 .

Als Teststatistik verwendet man die folgende (streng monoton fallende) Transfor-

mation von X(x)

2 K

(3) G = G2(x,fio) : = 2 C xk . log (xk/fiOk) k= l

K

= 2 n C %' log($k /~ok) k= l

= n . G 2 ( ~ , p 0 )

= - 2logX(x) (Likelihood-Quotienten-Statistik) .

Wir definieren für beliebige Vektoren a,b E IRn mit a > 0 und b > 0 den sogenann-

ten Likelihood-Quotienten-Abstand

K (4) G2(a,b) := C ['k' log(ak/bk) - ('k- bk)]

k= l

= 2 [aT. (log (a) - log (b)) - (a+ - b+)] > 0 ,

wobei der Logarithmus eines Vektors komponentenweise definiert ist. Dann hat G 2

auch die entsprechenden Eigenschaften des Pearson-Abstands x2

(6) 2 G2(c.a, c . b ) = c.G (a,b) für jedes c > 0 .

Da große Werte der Likelihood-Quotienten Statistik G2 gegen die Nullhypothese

sprechen, ergibt sich der folgende Likelihood-Quotienten Test

Page 227: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

22. Anpassungstests bei Multinomialverteilungen 7.10.02 22 - 10

(7) Ablehnung von Ho U G2(x,fi0) > cc ,

wobei der kritische Wert cG das Niveau des Tests bestimmt. Man kann nun analog

zur Pearson-Statistik einen exakten (konservativen) Test zu jedem vorgegenen (no-

minellen) Niveau a durch Bestimmung eines kritischen Werts cG(a) angeben, was

aber wieder nur für kleine Dimensionen K und nicht zu große Umfänge n praktika-

bel ist. Deshalb wird meist wieder ein asymptotischer Test durchgeführt, der auf der

folgenden asymptotischen Verteilung der Teststatistik unter der Nullhypothese für

n + CO basiert:

Theorem 3 jAsymptotische X2-l/erteilung des LQ-Abstands unter Ho)

Unter H : p = po gilt: 0

G2 : = G ~ ( x ( ~ ) , npo) 2 Xm 2 mit m = K - 1 . n n+ 00

Dieses Resultat ist ein Spezialfall der bereits in Kapitel 18 erwähnten asymptoti-

schen Verteilung des Likelihood-Quotienten. Es läßt sich (vgl. 22.7) unter Verwen-

dung eines Zusammenhangs beider Abstandsfunktionen x2(-,-) und G2(-,-) direkt

aus dem Theorem 1 herleiten. - Aus dem Theorem 3 ergibt sich der

Likelihood-Quotienten-Anpassungstest

Ablehnung von H : p = p zum asymptotischen Niveau a 0 0

U 2 2

G >X,;,

U P:= I-G (c2) 5 a m

mit Gm als Verteilungs-

2 funktion von xm.

P wird auch als Signifikanzniveau der Beobachtung bezeichnet.

Page 228: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

22. Anpassungstests bei Multinomialverteilungen 7.10.02 22 - 11

22.6 Die Schärfe des Likelihood-Quotienten-Anpassungstests

Analog zur Pearson-Statistik ergibt sich für die Likelihood-Qotienten-Statistik

1 2 2 - (n) P - G n = G n (P ,pol ,m

und somit konvergiert auch die Likelihood-Qotienten-Statistik unter H: p r po ge-

gen unendlich

Für die Schärfe des Likelihood-Qotienten-Tests folgt hieraus

Unter benachbarten Alternativen (vgl. hierzu 22.4) ist die Likelihood-Qotienten-Stati-

stik ebenfalls asymptotisch nichtzentral Chiquadrat-verteilt:

2 2 Theorem 4 (Asymptotische X -Verteilung von G unter benachbarten Alternativen)

Unter (BA) gilt:

G2 : = G ~ ( x ( ~ ) , npo) F 2 X;(%) mit m = K - 1 n n+ 00

T " &k = A 00 . ~ i a ~ - ' ( p , ) . Am = C - P . k=l Ok

Einen Beweis hierfür ergibt sich mit dem Theorem 2 aus dem Zusammenhang bei-

der Abstandsfunktionen x2(-,-) und G2(-,-) in 22.7.

Aus dem Theorem 4 ergeben sich jetzt für den Likelihood-Quotienten-Test diesel-

ben Schlußfolgerungen für die Testschärfe und die Versuchsplanung wie für den

Chiquadrat-Test in 22.4.

Page 229: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

22. Anpassungstests bei Multinomialverteilungen 7.10.02 22 - 12

22.7 Allgemeines zum Pearson- und LQ-Test

Vergleicht man den Likelihood-Quotienten Abstand mit dem Pearson-Abstand, so

liefert eine Taylor-Entwicklung (bis zur 2. Ordnung) von G2(a, b) im Punkt (b, b)

wobei das Restglied von der Ordnung 1 1 a- b 1 1 ist, und somit für a + b gilt

(2) R(a,b) = o(ll -W2) bzw.

R(a,b) / l l a-bl12 F 0 für a + b.

Hieraus kann man die asymptotische Äqz~ivalenz beider Statistiken G: und X: unter

der Nullhypothese herleiten, d.h. es gilt

P (3) (G:-x : ) i>O unter H o : p = p o '

Die asymptotische Äquivalenz gilt auch noch unter benachbarten Alternativen

P (4) ( G : - x : ) i > o unter (BA) .

Insbesondere haben G: und X: also auch dieselbe asymptotische Verteilung unter

benachbarten Alternative und speziell auch unter der Nullhypothese Ho. Daher läßt

sich Theorem 3 bzw. 4 unter Verwendung von (3) bzw. (4) direkt aus Theorem 1

bzw. 2 folgern.

Für ein festes p r po sind beide Statistiken G: und X: im allgemeinen nicht mehr

asymptotisch äquivalent, weil

und somit

für

Wegen der Äquivalenz beider Statistiken unter der Nullhypothese (und benachbar-

ten Alternativen) ist es in der Praxis relativ belanglos, welchen der beiden Tests

man verwendet. Die Pearson-Statistik wird oft wegen ihrer besseren Interpretier-

barkeit als „Abstandn bevorzugt, während dessen die Likelihood-Quotient Statistik

theoretische Vorzüge genießt.

Page 230: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

22. Anpassungstests bei Multinomialverteilungen 7.10.02 22 - 13

Da es sich in beiden Fällen um einen asymptotischen Test handelt, sollte der Um- 2 fang n hinreichend groß sein. Die a m häufigsten zitierte Faustregel für den X -Test

geht Cochran (1952) zurück und lautet:

Cochran's Regel: Alle erwarteten Anzahlen fiok sollen mindesten 5 betragen.

Simulationsstudien haben ergeben, daß diese Regel bei den üblichen Testniveaus

von ci! = 5% und ci! = 1% oft zu streng, also zu konservativ ist.

Es empfiehlt sich, immer beide Statistiken und x2 zu berechnen. Wenn die Sta- n n

tistiken in einer Stichprobe stark unterscheiden, so kann dies nur daran liegen, daß

die Nullhypothese nicht zutrifft oder der Umfang n zu gering ist, um die auf den

asymptotischen Resultaten basierenden Approximationen zu rechtfertigen. Im letz- 2 2 ten Fall ist typischerweise Xn größer als Gn, weil kleine Anzahlen fiok einen größe-

2 2 ren Summanden zur X -Statistik beitragen als zur G .

22.8 Testen eines parametrischen Modells

Wir wollen jetzt ein parametrisches Modell für den Wahrscheinlichkeitsvektor p

der MK(n, P)-Verteilung betrachten. Hierzu bezeichne

S den Raum aller zulässigen Wahrscheinlichkeitsvektoren, @ C IR sei ein offener Pa-

rameterraum und T : @+ P eine Parametrisierung des sogenannten Modellraums

D := T[ @I. An die Parametrisierung wollen wir noch die folgende Regularitätsbe-

dingung stellen:

(RB) T ist auf @ stetig-differenzierbar, und die KxS Matrix

d D@) = (ae,"k(Q) )

hat den (vollen) Rang S für jedes 8.

Die Rangbedingung garantiert, daß die Parametrisierung T „lokal eindeutig" ist.

Wegen DT (8) = 0 hat D T ( ~ ) höchstens den Rang K- 1, und somit folgt S< K- I. + Da der Fall S = K- 1 trivial ist (das Modell hat dann genau soviele unbekannte Pa-

rameter wie der Wahrscheinlichkeitsvektor p und somit ist P= D), wollen wir

noch voraussetzen

Page 231: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

22. Anpassungstests bei Multinomialverteilungen 7.10.02 22 - 14

Die Gültigkeit dieses Modells soll überprüft werden und wird daher als Nullhypo-

these formuliert mit ihrer Negation als Alternative

(3) Ho : p = ?r(Q) für ein Q E O , bzw. H , : p ~ i i ,

(4) H 1 : p t ? r ( Q ) f Ü r a l l e Q ~ O , bzw. H,: p g i i .

Die Nullhypothese umfaßt übrigens als Spezialfall auch die einfache Nullhypothese

aus 22.2, wenn P= {pd ein nulldimensionales Modell ist mit dem Parameterraum 0 O = {O) = R (also S= 0) und der Parametrisierung ~ ( 0 ) = po.

Bezeichnet 4 = d(x) den Maximum-Likelihood Schätzer von Q unter dem Modell ii

(d.h. unter der Nullhypothese Ho), SO ergibt sich der zugehörige Schätzer von p un-

ter Ho zu

und die unter der Nullhypothese (geschätzten) erwarteten Anzahlen sind gegeben

durch:

Als Teststatistik verwendet man nun wieder die Pearson- bzw. Likelihood-Quotien-

ten-Statistik aus 22.3 bzw. 22.5:

K

(7) x2 = x2(x,fi0) := C (xk - fiOk)2/fiOk (Pearson-Statistik) k= l

K

:= n . C (4 - $ok)2/$ok k= l

= n . x2(p,p ,)

2 K

(8) G = G2(x,fio) : = 2 C xk . log (xk/fiOk) k= l

K

= 2 n C %'lOg($k/$ok) k= l

= n . G2(p, p0) (Likelihood-Quotienten-Statistik) .

Page 232: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

22. Anpassungstests bei Multinomialverteilungen 7.10.02 22 - 15

2 2 Die Verteilung von X bzw. G unter Ho hängt jetzt typischerweise noch vom un-

bekannten Parameter 19, und dann ist ein exakter Test nicht mehr möglich.

Für n i CO läßt sich aus 22.7 (2) wieder die asymptotische Äquivalenz beider Test-

statistiken unter der Nullhypothese herleiten

(4 (4 P (7) G ~ ( X ( ~ ) , P ~ ) - x2(x , po ) F n+ 00 o unter Ho: P E 17.

Und die asymptotische Verteilung beider Teststatistiken unter der Nullhypothese

ist wieder eine Chiquadrat-Verteilung, allerdings mit einem um die Dimension des

Parameters reduzierten Freiheitsgrad:

Theorem 5 jAsymptotische X2-~erteilung von x2 und G2 unter HJ

Unter Ho : p E 17 gilt:

(4 (4 2 x2:=x2(x ,po ) - 2 n n+ 00 Xm

(4 (4 2 2 G ~ : = G ~ ( x , ) - mit m =K-1-S. n n+ 00

Einen Beweis (auf den wir hier verzichten) für x2 findet man z.B. in Cramer, 1946,

Chapter 30 oder Rao, 1973, Chapter 6b. Hieraus folgt mit (7) auch das Resultat für

G2. - Man beachte, daß m > 0 aus der Voraussetzung (2) folgt.

Aus dem Theorem 5 ergeben sich dann die folgenden beiden (asymptotisch äquiva-

lenten) Tests

2 Chiquadrat-Anpassungstest oder X -Test von Pearson

Ablehnung von Ho : p E ii zum asymptotischen Niveau a

U 2 2

X >X,,., mit m =K-1-S,

Likelihood-Quotienten-Anpassungstest

Ablehnung von Ho : p E ii zum asymptotischen Niveau a

U 2 2

G >X,,., mit m =K-1-5'.

Für die Anwendung dieser asymptotischen Tests sollte man wieder Cochran's Re-

gel (und den Rest des Abschnitts 22.5) beachten.

Page 233: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

22. Anpassungstests bei Multinomialverteilungen 7.10.02 22 - 16

Abschließend sei noch bemerkt, daß die beiden Statistiken x2 und nur zwei Spe-

zialfälle der sogenannten Power-Divergenz-Statistiken sind, die alle unter der Nullhy-

pothese asymptotisch äquivalent und jeweils Xk-verteilt sind, vgl. Read and

Cressie (1988), Chapter 4.

Beispiel: Hardy-Weinberg Gleichgewicht

Für K= 3 betrachten wir einen eindimensionalen Parameter B E O = (0,l) mit der

Parametrisierung

2 s 2 ( B ) = 2 B (1 - B) , s,(B) = (1 - B) 2

sl(Q) = 8 ,

Die Maximum-Likelihood Schätzung ist hier gegeben durch

Ein konkretes Anwendungsbeispiel aus der Genetik, in dem die Nullhypothese dem

Hardy-Weinberg-Gleichgewicht entspricht ist, im Abschnitt 22.9.2 angegeben.

22.9 Anwendungen

22.9.1 Kreuzung von Monohybriden

Man vermutet, daß die Blütenfarbe der japanischen Wunderblume von einem Gen

mit den Allelen R, W und den dazugehörigen Phänotypen RR (rot), RW (rosa), WW

(weiß) gesteuert wird (vgl. Kinder-Osius-Timm, 1982, Beispiel 7.25). Zur Überprü-

fung des Erbganges wurden Monohybriden RW miteinander gekreuzt und es erga-

ben sich folgende Aufteilungen der N = 108 Nachkommen:

Nach den Mendelschen Gesetzen müssen die erwarteten Anzahlen für die Phänoty-

pen RR, RW, WW im Verhältnis 1 : 2 : 1 stehen. Dies läßt sich als Nullhypothese über

die Wahrscheinlichkeiten der einzelnen Phänotypen wie folgt formulieren:

Phänotyp

Anzahl

RR RW WW

1 2 3 -

30 47 31

insgesamt

108

Page 234: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

22. Anpassungstests bei Multinomialverteilungen 7.10.02 22 - 17

Die Nullhypothese soll zum Niveau a = 10% geprüft werden. Es ergibt sich

Wegen m = 3-1 = 2 und X2 = 4.61 wird die Mendelsche Hypothese weder vom 2; a

Chiquadrat- noch vom Likelihood-Quotienten-Test abgelehnt. Da ein Fehler 2. Art

vorliegen kann, ist die Mendelsche Hypothese durch das Experiment nicht mit

quantifizierbarer Sicherheit bestätigt (sondern nur unwiderlegt). Wenn das Mendel-

sche Gesetz hier nicht gilt, und die drei Phänotypen z.B. gleichverteilt sind, d.h.

Phänotyp

RR (rot)

RW (rosa)

WW (weiß)

Summe

so ergibt sich aus

ein relativ geringes Fehlerrisiko 2. Art von

beobachtet erwartet

b e

3 0 27

47 5 4

3 1 27

108 108

ß(p I n a) rr @ ( ) rr 6.5% (vgl. 22.4 Abb. 1) m,6,

Will man dagegen eine Abweichung x2(p, po) von d = 1/18 mit einer Schärfe von

90% entdecken, so ergibt sich der erforderliche Mindestumfang n aus ß = 10% und

HP1(ß) rr 10.5 (vgl. 22.4 Abb. 1) zu n rr 189. ß,d

x 2 - ~ u m m a n d ~ ~ - ~ u m m a n d

(b - e12/ e 2 b . ln(b/e)

0,33 6,32

0,91 -13,05

0,59 8,57

2 X = 1,83 2 G = 1,84

22.9.2 Hardy-Weinberg Gleichgewicht

Beim Haptoglobin-Blutgruppensystem werden die drei Blutgruppen-Phänotypen

Hp 1-1, Hp 1-2 und Hp 2-2 durch die entsprechende Kombination zweier Allele HP1

und HP2 bestimmt (vgl. Kinder-Osius-Timm, 1982, Beispiel 7.26). Wir interessieren

uns dafür, ob in einer bestimmten Population das genetische Gleichgewicht vorliegt. 1 2 Bezeichnen pl und p2 die Frequenzen beider Allele Hp und Hp , und sind pll, p12,

Page 235: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

22. Anpassungstests bei Multinomialverteilungen 7.10.02 22 - 18

P22 die Frequenzen der drei Phänotypen in der Population, so läßt sich das Gleich-

gewicht nach Hardy-Weinberg wie folgt als Nullhypothese formulieren:

2 - 2 Ho : Pll = Pl, P12 = 2plp2, P22 - P2 (genetisches Gleichgewicht).

Da p2 = 1-pl ist, hängen alle Gleichgewichts-Wahrscheinlichkeiten (Sollwerte) von

einem Parameter ab, der unbekannten Allelfrequenz pl = Q1.

Die Nullhypothese soll zum Niveau a =5% überprüft werden. Bei einer Stichprobe

vom Umfang N = 500 wurden folgende Anzahlen für die Phänotypen beobachtet:

Die Nullhypothese soll zum Niveau a = 5% überprüft werden. Als Schätzungen für

die unbekannte Allelfrequenz verwenden wir die relative Häufigkeit unter allen 2N

Allelen:

Phänotyp

Anzahl

Die geschätzten Wahrscheinlichkeiten im Gleichgewichtsfall Ho sind dann

$22 = I;", 0,3844 .

Hp 1-1 Hp 1-2 Hp 2-2

6 1 258 181

Die Testwerte erhält man aus folgender Tabelle:

insgesamt

500

Da ein Parameter geschätzt wurde ist m = 3 -1 -1 = 1. Das 5%-Quantil = 3.841

wird von beiden Testwerten überschritten, d.h. die Nullhypothese (Gleichgewicht)

wird sowohl vom Chiquadrat- als auch vom Likelihood-Quotienten-Test abgelehnt.

Es kann hier nur ein Fehler 1.Art vorliegen, der durch a = 5% kontrolliert wird.

Phänotyp

Hp 1-1

Hp 1-2

Hp 2-2

Summe

beobachtet erwartet

b e

6 1 72,2

258 235,6

181 192,2

500 500,O

x 2 - ~ u m m a n d G2-~ummand

(b - e12/ e 2 b . ln(b/e)

1,737 -20,565

2,130 40,865

0,653 -2 1,734

x2 = 4,520 G2 = 4,566

Page 236: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

23. Chiquadrat-Anpassungstests für Verteilungen 27.7.02 23- 1

23. Chiquadrat-Anpassungstests für Verteilungen

Für eine Zufallsvariable X soll überpüft werden, ob ihre Verteilung P= 2 (X) von

einer vorgegeben Form ist. Im einfachen Fall wird die Verteilung durch die Nullhy-

pothese vollständig spezifiziert und das Testproblem lautet

mit Po als fest vorgegebener Verteilung. Im allgemeinen Fall dagegen liegt eine pa-

rametrisierte Verteilungsklasse P= {Pg I BE B) mit einem offenen Parameterraum

B C IRs vor. Dann beschreibt die Nullhypothese die Gültigkeit des Modells und die

alternative Hypothese ist ihre Negation

(2) H o : P c P bzw. Ho:P=Pg für ein BEB

(3) H 1 : P @ P bzw. H l :P tPg f ü r a l l e B ~ B

Obwohl wir hier (der Einfachheit halber) von einer eindimensionalen Zufallsvari-

ablen X ausgehen, sei angemerkt, daß alle Ausführungen dieses Kapitels (ohne Än-

derungen) auch für einen mehrdimensionalen Zufallsvektor X gelten.

Stichproben-Modell: Die Stichprobe X = (Xl, .., Xn) vom Umfang n besteht aus n

unabhängigen Wiederholungen von X. Die beobachtete Realisierung von X wird

mit X bezeichnet.

23.1 Reduktion auf eine Multinomial-Verteilung

Wir wollen das Testproblem auf die im letzten Kapitel behandelten Anpassungs-

tests für eine Multinomial-Verteilung zurückführen. Hierzu betrachten wir eine be-

liebige, aber im folgenden feste, Zerlegung des Trägers T von X in K> 2 disjunkte

meßbare Mengen Ab (die man auch als Klassen bezeichnet)

(I> T = A 1 U A 2 U ... U A K ,

deren Klassenwahrscheinlichkeiten nicht Null sind, d.h.

Page 237: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

23. Chiquadrat-Anpassungstests für Verteilungen 27.7.02 23- 2

- P (P ) := P { X E A ~ } > 0 (2) Pk - k für alle 5.

Auf die Wahl solcher Zerlegungs-Klassen gehen wir erst später ein. Der Vektor K

p = ..., p K ) E ( 0 , l ) der Klassenwahrscheinlichkeiten ist dann ein Wahrschein-

lichkeitsvektor, d.h. es gilt p = 1. Unter Verwendung der Indikatorfunktion IA für t

eine Menge A läßt sich die beobachtete Anzahl für das Ereignis { X E Ab} in der

Stichprobe X schreiben als

(3> Zk := # { l < i < n 1 X i c A k } = I ( X . ) . i=l Ak

Diese gruppierte oder klassifizierte Stichprobe Z = (Zl, ..., ZK) der Anzahlen erfüllt dann

das Multinomial-Verteilungsmodell

Aus der einfachen Nullhypthese über die Verteilung P folgt eine einfache Nullhypo-

these über den Wahrscheinlichkeitsvektor p = p(P)

mit po : = p(Po), und für die alternativen Hypothesen gilt dementsprechend

W H;: P * P , + Hl: P* Po .

Man beachte, daß die Nullhypothese HO im allgemeinen nicht äquivalent zu Ho ist,

weil sie nur die Klassenwahrscheinlichkeiten pk, aber nicht die ganze Verteilung

spezifiziert.

Entsprechend gilt für die parametrische Nullhypothese

(7) Ho: P E P= { P g I B E B } + HO: ~ E D = { T ( B ) I B E B } ,

mit der Parametrisierung ?r(B) : = P ( P ~ ) des Wahrscheinlichkeitsvektors, d.h.

(8) ~ ~ ( 0 ) : = P ~ ( P ~ ) : = P ~ { X E A ~ } für alle 5.

Und für die alternativen Hypothesen gilt natürlich

(9) H ; : p @ D * H,: P @ P ,

Page 238: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

23. Chiquadrat-Anpassungstests für Verteilungen 27.7.02 23- 3

wobei wieder in (7) bzw. (9) im allgemeinen keine Äquivalenz gilt. Im folgenden

werden wir nun die abgeschwächte Nullhypothesen HO aus (5) bzw. (7) mit den Me-

thoden des letzten Kapitels testen.

23.2 Testen der einfachen Nullhypothese

Wie im Kapitel 22 (jetzt mit der Stichprobe Z statt X) bezeichne

1 1 (I> C = p(z) := ' z = (-z n 1 ' ..) - n K z ) = P ( ~ z )

die Maximum-Likelihood Schätzung von p im Multinimial-Modell, wobei sich die

letzte Darstellung mit \ als empirischer Verteilung der beobachten Realisierung z

von Z ergibt, vgl. Kapitel 7. Unter der Nullhypothese dagegen ist

PI Po = Po d.h. j ~ k = P o { X ~ A k } füral lek

die ML-Schätzung für p, und die (unter Ho) erwarteten Anzahlen sind wieder gegeben

durch den Erwartungsvektor

(3) . - Po ' - d~o) = PO = (hol? "'? boK) '

Mit m = K- 1 ergeben sich aus Kapitel 22 daher die asymptotischen Tests

Chiquadrat-Anpassungstest von Pearson

Ablehnung von H*: p = p zum asymptotischen Niveau ci! 0 0

U x2(z,>uO) 2 X;;, 7

Likelihood-Quotienten-Anpassungstest

Ablehnung von H*: p = p zum asymptotischen Niveau ci! 0 0

U G ~ ( Z , P ~ ) > X;;,.

Page 239: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

23. Chiquadrat-Anpassungstests für Verteilungen 27.7.02 23 - 4

23.3 Testen des parametrischen Modells

Hier muß zunächst der Parameter 8 unter der Nullhypothese geschätzt werden, wo-

für es (mindestens) zwei verschiedene Möglichkeiten gibt

den Maximum-Likelihood Schätzer d(x) für die Original-Stichprobe X unter

der Nullhypothese Ho : P E P,

den Maximum-Likelihood Schätzer d(z) im Multinomial-Modell für die klassi-

fizierte Stichprobe z unter der Nullhypothese HO: p E ii .

Die beiden Schätzer stimmen im allgemeinen nicht überein. Wir betrachten zuerst

den Schätzer 8 = d(z) aus dem Multinomial-Modell und erhalten damit den unter der

Nullhypothese HO: p E ii geschätzten Wahrscheinlichkeitsvektor

(1) = p(Ps) d.h. j o k = P , { X ~ A k } füralle k .

Mit den unter HO (geschätzten) erwarteten Anzahlen fio aus (15) läßt sich jetzt wie-

der der obige Pearson- oder Likelihood-Quotienten-Test mit dem reduzierten Frei-

heitsgrad m = K- 1 - S durchführen, sofern die Parametrisierung T die Regulari-

tätsbedingung (RB) aus 22.6 erfüllt.

Verwendet man dagegen den Maximum-Likelihood Schätzer d(x) aus der Original-

Stichprobe X und bestimmt po, fio aus (16), (15), so hat der Pearson- oder Likeli-

hood-Quotienten-Test unter gewissen Regularitätsbedingungen (analog denen aus

Kapitel 11) ebenfalls das asymptotische Niveau a. Man beachte, daß die resultie-

rende Likelihood-Quotienten-Statistik G2 mindestens so groß ist wie bei Verwen-

dung des Schätzer d ( ~ ) der gruppierten Stichprobe.

Allgemeiner kann man zur Bestimmung der Teststatistiken irgendeinen Schätzer

d*(x) verwenden, der zum ML-Schätzer $z) im Multinomialmodell asymptotisch 1 äquivalent ist von der Ordnung -, d.h. es gilt Jn

Die sich daraus ergebenden Teststatistiken x 2 * und G2* sind dann asymptotisch

äquivalent zu den mit d(z) berechneten Statistiken x2 und G2, d.h.

und folglich bleiben sowohl der Chiquadrat- als auch der Likelihood-Quotienten-

Test auch bei Verwendung des Schätzers d* asymptotisch gültig.

Page 240: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

23. Chiquadrat-Anpassungstests für Verteilungen 27.7.02 23- 5

23.4 Wahl der Zerlegungs-Klassen

Der Wahl der Klassen Ak kommt eine entscheidende Bedeutung zu, weil sie die Ab-

schwächung HO der eigentlich interessierenden Nullhypothese Ho bestimmt. Zu-

nächst muß noch einmal deutlich betont werden, daß die Klassen in jedem Fall un-

abhängig von der Stichprobe X (also a m besten vor der Stichprobenerhebung) festzu-

legen sind. Wenn dies nicht garantiert ist, sind die oben diskutierten Tests nicht

anwendbar, d.h. sie halten das vorgegebene asymptotische Niveau ci! nicht notwendig

ein.

Für die Wahl der Klassen-Anzahl K gibt es zwei rivalisierende Empfehlungen. Ei-

nerseits ist ein großes K günstig, weil bei wachsendem K die interessierende Nullhy-

pothese Ho durch ihre Abschwächung HO immer besser approximiert wird. Ande-

rerseits werden (bei festem Umfang n) die erwarteten Anzahlen fiOk für wachsen-

des K immer geringer und somit die asymptotischen Tests unzuverlässiger. Will

man z.B. Cochrans Regel einhalten, so muß K< n/5 gelten.

Hat man sich auf die Anzahl K bereits festgelegt, so sind jetzt noch die Klassen Ag

selbst zu fixieren. Hierbei sollte man eine starke Streuung der resultierenden Klas-

senwahrscheinlichkeiten pk vermeiden, weil aus Simulationsstudien und theoreti-

schen Betrachtungen hervorgeht, daß bei gleichen Klassenwahrscheinlichkeiten (d.h. 1 pk =B) die asymptotische Verteilung eine besonders gute Approximation der exak-

ten Verteilung der Teststatistiken ist, und auch die (hier nicht untersuchte) Test-

schärfe maximal wird. Auf weitere Einzelheiten hierzu verzichten wir, und gehen

dafür noch auf die wichtigsten Verteilungstypen ein.

Page 241: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

23. Chiquadrat-Anpassungstests für Verteilungen 27.7.02 23- 6

23.5 Stetige Verteilungen

Zuerst betrachten wir den Fall, daß die Zufallsvariable X eine Lebesgue-Dichte f

besitzt und bezeichnen die Verteilungsfunktion mit F. Weiter sei der Träger

T:= {f > 0) = (tl,t2) CR ein offenes Intervall. Die Klassen werden dann (bevor-

zugt) als Intervalle der Form Ak = (ak- ak] gewählt, wobei

(I> t 1 0 = a < a l < a 2 < . . . < a K - l < a K = t 2 '

und die Klassenwahrscheinlichkeiten ergeben sich dann zu

(2) P, = pk(F) = F(ak) - F(akp1) > 0 .

Bei dem Test der einfachen Nullhypothese Ho: P= Po (z.B. für die Überprüfung ei-

nes Zufallsgenerators für die Verteilung Po) bevorzugt man gleichwahrscheinliche

Klassen, d.h. pk =B für alle k, die sich unter Verwendung der Verteilungsfunktion

F. von P wie erreichen lassen 0

(3) 1 k ak :=F- (-)

0 K '

Und für den Test der paramatrisierten Nullhypothese Ho: PE P ergeben sich die

Klassenwahrscheinlichkeiten aus der Verteilungsfunktion F. von Po zu

Beispiel: Normal-Verteilung

2 Bei einem Test auf Normalverteilung ist Po = N(P, o ) mit 0 = (P, 0) und die Vertei-

lungsfunktion lautet

(5) F. (X) = @($(X - P)) ,

mit @ als Verteilungsfunktion von N(0,l).

Page 242: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

23. Chiquadrat-Anpassungstests für Verteilungen 27.7.02 23- 7

23.6 Diskrete Verteilungen mit endlichem Träger

Es sei jetzt X eine Zufallsvariable mit endlichem Träger T = {al,a2, ..., aM). Dann

wird man die K : = M einelementigen Klassen Ak = {ak) mit den Elementar-Wahr-

scheinlichkeit als Klassenwahrscheinlichkeiten

bevorzugen, weil dann die abgeschwächte Nullhypothese HO sogar äquivalent zur ur-

sprünglichen Nullhypothese Ho ist. Wenn allerdings M in Relation zu n zu groß ist

(etwa deutlich größer als n/5), so wird man eine gröbere Klassifikation wählen (wo-

bei man sich an den Ausführungen für stetige Verteilungen orientieren kann), um

Cochrans Regel annähernd einzuhalten.

Beispiel: Diskrete Gleichverteilung

Beim Test einer diskreten Gleichverteilung auf dem Träger T = { l ,2, ..., M) (z.B. bei

einem homogenen Würfel mit M = 6) ist die Nullhypothese einfach, wobei Po die

Gleichverteilung auf T ist, d.h. Po{X = m) = 1/M für alle m E T. Und für die einele-

mentigen Klassen AL= {k) ergeben sich dann auch gleiche Klassenwahrscheinlich-

keiten.

23.7 Diskrete Verteilungen mit unendlichem Träger

Es sei jetzt X eine Zufallsvariable mit unendlichem Träger, wobei wir 0.B.d.A.

T = U, voraussetzen (wie z.B. bei der Poisson-Verteilung). Auch hier wird man

möglichst viele einelementige Klassen Ak = {k- 1) für k < K wählen, und nur in der

letzten Klasse AK = {m E U 1 m 2 K) die restlichen Elementarereignisse zusam-

menfassen. Die Klassenwahrscheinlichkeiten sind dann

p (P) = P{X=k-1) für k < K , k

Page 243: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

Einführung in die Statistik 4.4.03 Literatur - 1

Literatur

Von der äußerst umfangreichen Literatur zur Statistik (und Wahrscheinlichkeits- theorie) sind hier nur diejenigen Werke aufgeführt, die unmittelbar für die Vorbe- reitung der Vorlesung verwendet wurden. Zeitschriftenartikel sind nicht hier, son- dern direkt im Text aufgeführt. Weitere ausführliche Literaturhinweise findet man in den angegebenen Büchern.

Billingsley, P. (1968). Convergence of probability measures. New York, Wiley.

Billingsley, P. (1979, 1986). Probability and measure (lSt, 2nd Ed.). J. Wiley & Sons, Inc., New York, Chichester, Brisbane, Toronto.

Cox, D.R. & Hinkley, D.V. (1974). Theoretical statistics. Chapman and Hall, London.

Cramer, Harald (1974). Mathematical methods of statistics. Princeton University Press.

Dudewicz, E.J. and Mishra, S.N. (1988). Modern Mathematical Statistics. J. Wiley & Sons, Inc., New York..

Feller, W. (1968, 1971). An Intreoduction to Probability Theory and Its Apllications, Vol. 1 (3rd Ed.), Vol. 2 (2nd Ed.). J. Wiley & Sons, Inc., New York..

Gänssler, P. und Stute, W. (1977). Wahrscheinlichkeitstheorie. Springer Verlag, Heidel- berg, New York.

Johnson, N.L. & Kotz, S. (1969). Distributions in statistics: Discrete distributions. Houghton Mifflin Company, Boston.

Johnson, N.1. & Kotz, S. (1970). Distributions in statistics: Continuous univarite distributions - 1. Houghton Mifflin Company, Boston.

Johnson, N.L. & Kotz, S. (1970). Distributions in statistics: Continuous univariate distributions - 2. Houghton Mifflin Company, Boston.

Kendall, M.G. & Stuart, A. (1969). The advanced theory of statistics, Volume 1: Distribution theory. Charles Griffin & Company Ltd., London.

Kendall, M.G. & Stuart, A. (1973). The advanced theory of statistics, Volume 2: Inference and relationship. Charles Griffin & Company Ltd., London.

Kinder, H.P., Osius, G., Timm, J. (1982). Statistik für Biologen und Mediziner. Vieweg & Sohn, Braunschweig, Wiesbaden.

Mood, A.M., Graybill, F.A. and Boes, D.C. (1974). Introduction to the Theory of Statistics (Third Edition). McGraw-Hill, Singapore.

Osius, G. (2002). Statistik in den Naturwissenschaften (Skript). Mathematik Arbeits- papiere Nr. 59, Universität Bremen. http://www.math.uni-bremen.de/"osius/download/.

Osius, G. (2003). Stochastik (Vorlesungsskript). Universität Bremen, FB 3, Institut für Statistik. http~/www.math.uni-bremen.de/"osius/download/lehre/Stochasti~.

Rao, C.R. (1973). Linear statistical inference and its applications. J. Wiley & Sons, New York, Chichester, Brisbane, Toronto.

Read, R.C. & Cressie, N.A.C. (1988). Goodness-of-fit statistics for discrete multivariate data. New York, Springer.

Page 244: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

Aufgabe 1.1: Varianzschätzung bei der Binomial-Verteilung

X = (Xl, ..., Xn) sei eine Stichprobe von n unabhängigen B(1,p)-verteilten Zufallsva-

riablen. Die Varianz v(p) =p(l-p) von B(1,p) ist eine Funktion von p, und somit

ist V($) : = j (1-j) mit j = X ein naheliegender Schätzer für v(p). Ist dieser Schätzer

erwartungstreu undIoder konsistent? In welchem Zusammenhang steht V($) zur Vari-

anzschätzung 8 2 ( ~ ) aus 2.27

Aufgabe 1.2: Symmetrie und Schiefe

Eine reelle Zufallsvariable X (bzw. ihre Verteilung) heißt symmetrisch um y E IR, wenn 2(X- y) = 2 ( y - X) gilt.

(a) Man zeige für symmetrisches X zunächst, daß der Symmetriepunkt y mit dem Erwartungswert ,LL = E(X) übereinstimmt, sofern letzterer existiert.

(b) Für den Erwartungswert der kubischen Abweichung [X- ,L] 3

3 P3(X) : = E([X- PI 1 (3. zentrales Moment von X).

zeige man: X ist symmetrisch + P3(X) = 0

(C) P ~ (X) wird als Maß für die Schiefe (der Verteilung) von X verwendet. Zeige

(2) L+ +ßX) = ß3 .p3(X) für a, P E IR,

(ii) X und Y stochastisch unabhängig + ,LL~(X + Y) = ,LL~(X) + ,LL~(Y).

Zur Erinnerung (soll nicht mehr gezeigt werden, vgl. Stochastik-Skript 7.6):

Binomial-Verteilung: P3[B(n, P)] = (q - P) . (n P q)

Poisson-Verteilung: P3[P0is(P)] .)I= P

Normal-Verteilung: P 3 [ ~ ( P , 4 ] = 0

Gamma-Verteiluing: P3[~am(a ,ß) ] = 2 a ß 3

Aufgabe 1.3: Schätzung des 3. zentralen Moments bzw. der Schiefe

Für eine Stichprobe X = (X1, ..., Xn) mit unabhängigen Wiederholungen von X ist

ein naheliegender Schätzer für ,LL~(X) aus Aufgabe 1.2 (b). Berechne E{,k3(X)}, um

zu überprüfen ob ,k3(X) erwartungstreu ist.

Page 245: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

Aufgabe 2.1: Verteilung von Q u a d r a t e n u n d Chiquadrat-Vertei lung

(a) Für eine Zufallsvariable U mit einer auf IR stetigen Dichte f zeigen man, daß

u2 die auf ( 0 , ~ ) konzentrierte Dichte g hat:

g(x) = (f(J") +f(- J " ) ) / 2 J " für X > o . 2 Hinweis: Differenziere die Verteilungsfunktion von U .

(b) Zeige daß Chiquadrat-Verteilungen spezielle Gamma-Verteilungen sind:

= Gam(:,2) Xn für jedes ~ E N .

(Damit hat man auch die Dichte von als Gamma-Dichte bestimmt!)

Hinweis: Induktion über n mit (a) und Anwendung der Faltungseigenschaft

der Gammaverteilung (kann vorausgesetzt werden: vgl. Exkurs G3 (1)).

Aufgabe 2.2: Zur Konvergenz nach Wahrscheinlichkiet

Eine Folge X = (Xn ..., Xn ,) von Zufallsvektoren mit Werten in IR' heißt nach n I P Wahrscheinlichkeit konvergent gegen a = (al, ..., aI) ER (Schreibweise: X - a),

n falls gilt:

(KW) Fürjedese>Ogilt : limP{IIX n - a I I > e ) = O bzw. n

limP{IIX -all< C ) = 1 , n n

oder in äquivalenter „topologischer" Formulierung

(KW)* Für jede Umgebung U von a gilt: lim P{ X gf U) = 0 bzw. n n

l imP{X E U ) = 1. n n

Man zeige:

K (a) Für eine meßbare und in a stetige Funktion f : IR1+ IR gilt:

P X -a n * f(Xn) L f ( a ) .

P (b) Xn i U X n 2 .-a. 2 für alle i = 1) ...) I.

P

Page 246: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

Aufgabe 2.3: Klinische Studie zur Chemotherapie

Beim inoperablen Tumor der Gallenblase im fortgeschrittenem metastasierenden

Stadium ist eine Heilung nur in seltenen Ausnahmefällen möglich. Die anwendba-

ren Therapien zielen daher primär auf eine Verlängerung der verbleibenden Leben-

serwartung, die typischerweise nur noch einige Monate beträgt. Eine Remission (Rückbildung des Tumors um mindestens 50%, die über mindestens 4 Wochen an-

hält) wird als Erfolg einer Therapieanwendung angesehen. Für eine bisher nur im

Tierversuch erfolgreiche neue Chemotherapie soll die Remissionsrate p im Rahmen

einer klinischen Studie geschätzt werden. Die klinisch relevante Rernissionsrate, die

man zu übertreffen hofft, beträgt pl=30%. Demgegenüber wird eine Remissionsrate

von po = 10% oder weniger als uninteressant eingestuft wird. Da die neue Chemo-

therapie eine starke Belastung des Patienten darstellt und zusätzlich sehr kostenin-

tensiv ist, will man eine unnötige Anwendung der Therapie vermeiden. Deshalb

wird die Studie in zwei Stufen eingeteilt.

In Stufe 1 werden nl = 15 Patienten (unabhängig voneinander) behandelt. Falls hier-

bei keine einzige Remission auftritt, wird die Studie nicht fortgesetzt. Andernfalls

werden in der Stufe 2 weitere n2 = 16 Patienten behandelt und anschließend die Re-

missionrate aus allen n = 31 Anwendungen geschätzt.

(a) Mit welcher Wahrscheinlichkeit wird die Studie nach der 1. Stufe abgebrochen,

obwohl die Remissionsrate p > pl ist? Und mit welcher Wahrscheinlichkeit wird die

2. Stufe durchgeführt, obwohl die Remissionsrate p 5 po ist?

(b) Für den Fall, daß die Studie nach der Stufe 1 abgebrochen wird, berechne die

exakte und (normale) asymptotische Konfidenzgrenze für die Remissionsrate p zur

Sicherheit von 95%?

(C) Angenommen, in beiden Stufen werden je 5 Remissionen beobachtet. Dann ist

die beobachtete Remissionsrate j = 10/31 größer als pl. Wie groß ist dann die un-

tere 95%-Grenze für p (exakt und asymptotisch)?

Page 247: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

Aufgabe 3.1: Exakte Konfidenzgrenzen im Poisson-Modell

X sei Pois(,~~)-verteilt mit ,LL> 0. Für eine Realisierung X E IN U{O} und fest vorgebe-

nes O < a < 1 sind die exakten einseitigen Konfidenzgrenzen fio(x) > 0 und fiu(x) -)> 0

für ,LL gegeben durch (vgl. Skript 5.1-2):

(1) F(x l fio, ,<X)) = für x-)>o , (2) fi U, a (0) =O , G( l f i , ,(X)) = für X > 0 ,

Man zeige, daß fi bzw. fi einseitige Konfidenzgrenzen für ,LL zur exakten Sicher- 0, a u , a

heit von mindestens 1- a sind, d.h. es gelten:

(3) P{P< fi0,a(4} -)> 1-a, p{fiu,a(4 < P } -)> 1-a.

Hinweis: Gehe analog dem Binomial-Modell vor und zeige erst, daß F(x~,LL) streng

monoton fallend in ,LL ist, weil gilt (Beweis?): a

-F(xl,LL) = - p(xI,LL) 0 . a,LL Daraus ergibt sich auch, daß fi bzw. fi durch (1) bzw. (2) eindeutig bestimmt

o , a u , a sind!

Aufgabe 3.2: Asymptotische Konf idenzgrenzen im Poisson-Modell

Man zeige, daß die die quadratische Funktion (vgl. Skript 5.5)

(6) 2 2 f(,LL) = ( ~ - 4 -Pa

2 = (,L - - D mit

zwei reelle Nullstellen hat

(9) a0,,(x) : = P, + G (asymptotische obere Grenze),

(10) P U,& ( X ) : = ~ ~ - \ / D (asymptotische untere Grenze).

Zusätzlich zeige man, daß ,L (X) die (einzige) Lösung ist von 0, a

Page 248: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

ist, und ,L (X) ist für den Fall X > 0 die (einzige) Lösung von U, a

(5> @(F) = Q bzw. - -za . P-X -

IF Für X = 0 ist die asymptotische untere Grenze gleich 0

(12) ,L U, a (0) = 0

und stimmt mit der exakten unteren Grenze fi (0) = 0 überein. u , a

Aufgabe 3.3: Leukämie in der Umgebung des Kernkraftwerks Krümmel

Im Umkreis von 5 km um das Kerkraftwerk Krümmel sind im Jahr 1990 genau

X = 3 Leukämieerkrankungsfälle bei Kindern bis 14 Jahren aufgetreten (vgl. Skript

0.1). Ausgehend von den Annahme, daß die Anzahl X der Leukämieerkrankungen

Poisson-verteilt ist mit Erwartungswert p, bestimme man die untere exakte Konfi-

denzgrenze fiu für die erwarteten Leukamiefälle (pro Jahr) zur Sicherheit von 95%. 2 Die Berechnung kann z.B. unter Verwendung der entsprechenden X -Quantile (vgl.

Skript 5.4) aus den Tabellen erfolgen. Zum Vergleich bestimme man auch die

asymptotische untere Grenze nach 5.5.

Zur Beurteilung, wie wahrscheinlich der beobachtete Wert X = 3 unter Berücksichti-

gung des nach bundesdeutschem Durchschnitt zu erwartenden Wert von po = 0,06

ist, berechne man die Wahrscheinlichkeit P { X > 3 1 pol.

Page 249: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

Aufgabe 4.1: Dichte der t-Verteilung 2 Ausgehend von den Dichten der N(0,l)-Verteilung und der X -Verteilung (vgl. Ex- n

kurs V1.1) berechne man die Dichte der t -Verteilung. n

Hinweis: Sind U und V stochastisch unabhängig mit den Dichten f U und fv, so hat

der Quotient X = U/V die Dichte (was hier nicht bewiesen werden soll)

für X E IR.

Aufgabe 4.2: t-Verteilung bei wachsendem Freiheitsgrad

Zeige, daß die Dichte cpn bzw. Verteilungsfunktion @,der tn-Verteilung für n i CO

punktweise gegen die Dichte cp bzw. Verteilungsfunktion @ der N(0,l)-Verteilung

konvergiert :

(4 1ip (P,(x) = ~ ( x ) für jedes X E IR.

(b) lim n @ n (X) = @(X) für jedes X E IR.

Hinweis: Für (a) kann - ohne Beweis - die folgende Variante der Stirlingschen For-

mel verwendet werden:

Aufgabe 4.3: Bestimmung des pH-Werts bei saurem Regen

Eine Messung X des pH-Werts (Skala: von O=sauer über 7=neutral bis 14=alka-

lisch) bei einer Wasserprobe ist eine Zufallsvariable, deren Erwartungswert ,LL der

wahre pH-Wert ist, und deren Standardabweichung a die Präzision der Meßme-

thode charakterisiert. Aus Erfahrung sei bekannt, daß X normalverteilt ist und bei

der verwendeten Meßmethode a = 0.5 ist.

(a) Bei n=40 Messungen ergab sich der Mittelwert f i =% = 3.7. Man bestimme für

das Normalverteilungsmodell (vgl. Skript Abschnitt 3.1) die zweiseitigen Konfidenz-

grenzen % f d für den pH-Wert ,LL zur Sicherheit von 95% und 99%, d.h. ci! = 5%

und ci! = 1%. 4 2

(b) Welcher Stichprobenumfang n ist notwendig, damit beim Konfindenzintervall

zur Sicherheit 99% die Bandbreite da12 5 0.1 ist.

(C) Ein extrem skeptischer Statistiker will sich weder auf die Normalverteilungsan-

nahme von X noch auf eine asymptotische Sicherheit einlassen und besteht auf den

(allgemein gültigen) Konfidenzintervallen, die sich aus der Chebychev-Ungleichung

ergeben (vgl. Skript Abschnitt 3.3). Wie lauten die entsprechenden Resultate aus (a) und (b) mit diesen Konfidenzgrenzen? Vergleiche die Resultate mit denen im Nor-

malverteilungsmodell und kommentiere die Unterschiede kurz.

Page 250: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

Aufgabe 5.1: (Quasi-) Inversen einer Verteilungsfunktion

F : IR + [ O , 1 ] sei die Verteilungsfunktion einer reellen Zufallsvariablen X. Die

links- bzw. rechts-stetige (Quasi-) Inverse F- bzw. von F ist auf (0,l) definiert durch

(vgl. Exkurs Q Quantile von Verteilungen)

F-(P) := inf {ZER 1 <F(x)} (links-stetige Inverse),

F-(P) := SUP{XEIR I F(x) <P} (rechts-stetige Inverse).

Man beweise die folgenden Eigenschaften für alle 0 < p < 1 und XE IR

(4 F-(~(x)) a X , (b) P a F(F-(P)) , (C) F-(P) a X U P I F(x) , (4 X a E(P) U a P .

(4 F(F- (F(x)) = F(x) ,

(f) F- ist monoton wachsend:

P, a P, + F-(P~) a F-(P~).

Aufgabe 5.2: Zentrale Momente der Binomial-Verteilung

Für eine B(n,p)-verteilte Zufallsvariable X ist das r-te zentrale Moment ein Poly-

nom in p: n

r n k p r = ~{(x-np) '}= (k-np) ( k ) p ( l - ~ ) ~ - ~ , ~ € N u { O } . k=O

(a) Leite (durch Differenzieren) die folgende Rekursionsformel her

(b) Bestimme pk explizit für 0 < k 4.

Aufgabe 5.3: Sonntagsfrage vom Mai 2002

Bei der Sonntagsfrage (vgl. Skript 0.3) in einer Umfrage von Infratest dimap (Quelle: www.infratest-dimap.de) ergaben sich bei n = 1300 Befragungen die folgende Pro- zentzahlen für die Stimmanteile der Parteien (Stand: Mai 2002)

Bestimme die untere asymptotische Konfidenzgrenze zur Sicherheit 99% des Stim- manteils jeder Partei, sowie für die Koalition CDU/CSU 63 FDP. Schaffen die kleinen Parteien die 5%-Hürde bzw. die Koalition die absolute Mehrheit?

SPD

32%

Hinweis: Da n groß ist, kann die grobe Konfidenzgrenze verwendet werden.

CDU/CSU

41%

B '9OlGrüne

7%

FDP

11%

PDS

5%

Sonst.

4%

Page 251: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

Aufgabe 6.1: Poisson-Verteilung

(a) Für X - P ~ i s ( ~ ) bestimme man die Moment-generierende Funktion Mx und die Kumulanten-generierende Funktion Kx .

(b) Zeige, daß Poisson-Verteilungen abgeschlossen gegen Faltungen sind:

X1 - Pois(&) , X2 - Pois(&) stochastisch unabhängig

+ (Xl + X2) - Pois(& + h).

Hinweis: Der Eindeutigkeitssatz für MGF kann (ohne Beweis) benutzt werden.

Aufgabe 6.2: Gamma-Verteilung

(a) Für X - Gam(qß) bestimme man die Moment-generierende Funktion M X die Kumulanten-generierende Funktion Kx und berechne hieraus die Kumulanten

K ~ ( X ) von X für jedes k~ W.

Hinweis: Betrachte erst den Spezialfall ß= 1.

(b) Zeige, daß Gamma-Verteilungen mit gleichem Skalenparameter ß abgeschlos-

sen gegen Faltungen sind:

X1 - Gam (?, ß) , X2 - Gam (% ,ß) stochastisch unabhängig

* (Xl +X2) -Gam([y+51 >P) .

Hinweis: Der Eindeutigkeitssatz für MGF kann (ohne Beweis) benutzt werden.

Aufgabe 6.3: Cauchy-Verteilungsmodell

Hat U eine tl-Verteilung, so heißt die Verteilung von X = a+ß U mit acIR, ß> 0

eine Cauchy-Verteilung C(@), d.h. es ist definiert:

C(a,ß) = a +ßtl .

Die Dichte f und Verteilungsfunktion F von C(@) sind:

-1 F(x I a,ß) = + T . arctan ((X- a)/ß) .

Die Cauchy-Verteilungen haben keinen Erwartungswert, weil E(x+) = E(XP) = W.

Man zeige:

(4 F ü r y c I R , S > O ist: .d(y+SX) = C(y+Sa ,Sß) .

(b) Die Faltung von Cauchy-Verteilungen ist wieder eine solche :

C(al,ßl) * C(a2,ß2) = C((al +a2) (ßl +ß2)).

Page 252: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

(C) Sind XI, ..., X identische unabhängige Wiederholungen von X mit

2 ( X ) = C(a,ß), so hat der Mittelwert X dieselbe Verteilung:

qX) = C(a,ß).

Hinweis für (V: Beweise zunächst den Fall a = a = 0, ß = 1, ß =r und verwende 1 2 1 2

die (zu beweisende) Darstellung: 1 - -

( i+x2) .(r2+(a-x)2)

2 a X 2 2 a + r -1 2 2a -2ax a 2 - r 2 + 1 + +

x2 + 1 x2 + 1 r2+(a-x12 + ~ ~ + ( a - x ) ~

[a2 + (T+ 112] . [a2 + (T- g2] Der allgemeine Fall ergibt sich dann aus (a) mit r = ß2 /ßl .

Auftreten der Cauchy-Verteilung: Wenn W ein Zufalls-Winkel ist, der im Inter- 1 1 vall ( - - , + -) stetig-gleichverteilt ist, so ist sein Tangens Standard-Cauchy-verteilt: T T

Dies erlaubt eine Interpretation durch folgendes Zufalls-Experiment. Man betrachte in der (X, y)-Ebene eine Zufallsgerade durch den Nullpunkt (0,0), deren Winkel W mit der x-Achse stetig-gleichverteilt ist. Man stelle sich vor, die Gerade ist ein im Nullpunkt befestigte „Zeigeru, der zufällig gedreht wird und dann zum Stillstand kommt. Dann ist der Anstieg tan(W) dieser Zufallsgeraden C(0,l)-verteilt.

a-5ß a a+5ß a-ß a+ß

Dichte der Cauchy-Verteilung C(a,ß) Cauchy-Verteilung vs. Normal-Verteilung 0.4lß - 0.4lß -

Abb.: links: Dichte f(- la,ß) der Cauchy-Verteilung C(a,ß) rechts: Vergleich mit der Dichte der Normalverteilung N(a, 02), wobei o so gewählt ist, daß die Fläche unter beiden Dichten über dem Intervall (a-ß, a + ß) jeweils 50% sowie links und rechts davon je 25% beträgt (d.h. beide Verteilungen haben diesel- ben Quartile).

25% 50%

Cauchy

25%

Page 253: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

Aufgabe 7.1: Kumulanten und zentrale Momente

Für eine reelle Zufallsvariable X mit Erwartungswert p = E(X), deren MGF in einer Umgebung von 0 endlich ist, zeige man den folgenden Darstellungen der Kumulan- ten K ~ ( X ) = @)(o) durch die zentralen Momente pk(X) = E([X-,L]~) von X (vgl. Exkurs CF 5.3):

(3) .,(X) = E(X) = P

(4) .,(X) = E([x-p12) = p2(x) = Var(X) = a 2

(5) .,(X) = E([x-PI~) = IL~(X)

(6) 4 .,(X) = E([x-,LL]~)-~~;(x) = p4- 3 0 .

Hinweis: Stelle die KGF Kx von X durch die MGF K y der zentrierten Variablen Y = X- p dar und beachte

pk(X) = E([x- pik) = E(yk) = M ~ ) ( o ) .

Aufgabe 7.2: Bedingung (F3) der Exponential-Familie

Man weise die Bedingung (F3)' für die Normal- und Gamma-Verteilungen nach, indem man zeigt:

(a) Für normal-verteiltes X und beliebige tl, t2, a E R gilt:

(b) Für Gamma-verteiltes X und beliebige tl, t2, a E R gilt:

Hinweis: Man kann sich allgemeiner überlegen, daß für eine stetig-verteilte Zufalls- variable X und eine meßbare reelle Funktion g stets gilt:

P ig(X) = 0) = 1 + g hat überabzählbar viele Nullstellen.

Aufgabe 7.3: ML-Schätzung bei Normalverteilung 2 Für eine Stichprobe X1, ..., Xn mit unabhängigen und identisch N(p,o )-verteilten

bestimme man die Maximum-Likelihood-Schätzung des Parameters

bei bekanntem a 2 (4 = P

(b) I9 = a 2 bei bekanntem p

(C) e = ( P , a 2 ) .

Hinweis: Die Klasse der Normalverteilungen aus (a)-(C) bilden jeweils eine ein- bzw. zweiparametrige Exponentialfamilie bzgl. des Parameters I9 bzw. e.

Page 254: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

Aufgabe 8.1: Produzenten- und Konsumententest

X bezeichne den Gehalt eines spezifischen Schadstoffes in einem bestimmten Le-

bensmittel, z.B. den Bleigehalt [in 1 0 - ~ ~ / l ] einer Apfelsaftsorte. Aus langjährigen

Untersuchungen sei bekannt, daß X in guter Näherung ~ ( p , a ~ ) - v e r t e i l t ist, mit be-

kanntem a = 5. Zur Qualitätskontrolle führt der Produzent einen Test der Hypothe-

sen

Ho : p 5 po j)unbedenklich'? , Hl: p > po j'nicht unbedenklich'?

durch, wobei po = 20 die gesetzlich zulässige Höchstbelastung ist. Dieser Produzen-

tentest wird routinemäßig mit einer Stichprobe vom Umfang n = 5 zum Niveau

a = 5% durchgeführt und hat folgende Konsequenz: das Produkt wird genau dann

vom Produzenten ausgeliefert, wenn der Test Ho nicht ablehnt.

Eine Verbraucherorganisation führt dagegen einen Test der Hypothese

Ho : p > p1 j'deutlich belastet'?, Hl: p < p1 (nicht „deutlich belastet'?

mit gleichem a und n durch, wobei p1 = po + D = 25 als eine deutlich erhöhte Bela-

stung angesehen wird. Die Organisation fordert, daß das Produkt genau dann zum

Verkauf freigegeben wird, wenn ihr Verbrauchertest Ho ablehnt.

(a) Gib eine inhaltliche Beschreibung der möglichen Fehlentscheidungen für beide

Tests.

(b) In einer konkreten Stichprobe vom Umfang n = 5 war der Mittelwert = 22,5.

Zu welchem Ergebnis kommen der Produzenten- bzw. Konsumententest, wel-

che Fehlentscheidungen können hierbei aufgetreten sein, und wie groß ist das

Fehlerrisiko 2. Art ß(14) = 1 - Pow(pl) bzw. ß(po) = 1 - Pow(pl) beim jeweiligen

Test?

Page 255: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

Aufgabe 8.2: Versuchsplanung b e i m Gauß-Test

Beim einseitigen Gauß-Test der Hypothesen Ho: p < po und Hl: p > pO zum Niveau a

ist das maximale Fehlerrisiko 2. Art bekanntlich ß = 1- a und daher bei vorgegebe-

nem a nicht weiter reduzierbar. In konkreten Anwendungen dagegen ist nur das

eingeschränkte maximale Fehlerrisiko

von Interesse, wobei A > 0 der kleinste praktisch noch relevante Unterschied ist (z.B.

A = 1 g, wenn p ein Gewicht ist).

(a) Man bestimme ß(A I n , a) und zeige, daß ß(A I n , a) J, 0 für n + co gilt.

(b) Für vorgegebenes a, A und ßo > 0 bestimme man den erforderlichen Mindest-

Stichprobenumfang no = no(a,A,ßo) bei dem das eingeschränkte Fehlerrisiko

höchstens gleich ßo ist, d.h. ß(A I no , a) < ßo gilt.

(C) Wir betrachten wieder den Produzententest aus Aufgabe 8.1, bei dem Xein 2 Schadstoffgehalt mit N(p,o )-Verteilung und po die gesetzlich zulässige

Höchstbelastung war. Bestimme konkret den erforderlichen Mindestumfang 1 1 n (a ,A,ß ) für a=5%,ßo=10% und A = - o bzw. A=-.

0 0 2 4

Aufgabe 8.3: Schärfevergleich b e i m ein- u n d zweiseitigen Gauß-Test 2 2 Für eine Normalverteilung N(p ,o ) mit bekanntem o betrachten wir das ein- bzw.

zweiseitige Testproblem für den Erwartungswert mit den Hypothesen:

einseitig: H o : ~ < ~ o ) H l : p > p 0 .

zweiseitig: H o : ~ = ~ o ) H l : p * p 0 .

Bezeichnet Powl(- 1 a) bzw. Pow2(- la) die Schärfe des ein- bzw. zweiseitigen

Gauss-Test dl bzw. d2 zum Niveau a, so zeige man (vgl. Abschnitt 14.3)

(5) P0w2 (P I U) < P0wl (P Ia) für alle p > pO .

Hinweis: Vergiß die expliziten Schärfe-Darstellungen in Kapitel 14 und wende das

Neyman-Pearson Lemma (incl. Zusatz) auf H': p = p und H;: p = p mit pl > p 0 0 1 0

an.

Page 256: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

Aufgabe 9.1: Exponential-Verteilung m i t Shif t

Wir betrachten eine Zufallsvariable X mit geschifteter Exponentialverteilung

-W? = 7 + E x P o ( ~ ) , d.h. .d(X - y) = Expo (a) , wobei a > 0 und ~ E I R (vgl. auch Exkurs G 5.-6.). Die Verteilung .d(X) hat den von y abhängigen Träger ( y , ~ ) , und die Dichte ist gegeben durch:

für X E IR,

wobei IA die Indikatorfunktion der Menge A ist.

Für eine Stichprobe XI, ..., Xn von unabhängigen Wiederholungen von X bestimme man die Maximum-Likelihood-Schätzung (falls sie existiert) für a bzw. y für den Fall, daß der jeweils andere Parameter bekannt ist.

Aufgabe 9.2: Weibull-Verteilung

Die Weibull-Verteilung W(a, y ) mit Parametern a, y > 0 ist definiert als

(1) W(a, y ) : = U . Expo(9 'IY = Expo(ß) 'IY mit ß = a Y ,

d.h. eine Zufallsvariable X hat genau dann eine Weibullverteilung W(a, y), wenn die transformierte Zufallsvariable Y = ( ~ / a ) ? eine Exponential-Verteilung Expo(l) mit Erwartungswert 1 besitzt bzw. wenn .d(xY) = Expo(ß) gilt.

(a) Untersuche, ob die Weibull-Verteilung W(a, y ) eine zweiparametrige Exponen-

tialfamilie bzgl. 8 = (a, y ) bzw. eine einparametrige bzgl. I9 = a oder I9 = y ist,

wenn der jeweils andere Parameter als bekannt vorausgesetzt wird.

(b) Für eine Stichprobe X = (x~ , . X ) mit unabhängigen W(a, y)-verteilten

Komponenten X . stelle man die Likelihood-Gleichung D log L (4) = 0 für den 2

Parameter 4 = (&,Y) auf. Läßt sich der ML-Schätzer & bzw. angeben, wenn

der jeweils andere Parameter y bzw. a als bekannt vorausgesetzt wird?

Hinweis: Man kann statt mit a auch mit dem Parameter ß arbeiten.

Page 257: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

Aufgabe 9.3: Die nichtzentrale Chiquadrat-Vertei lung

Zur Definition der nichtzentralen Chiquadrat-Verteilung (vgl. Exkurs V1) zeige man zuerst:

(a) Zu jedem n-dimensionalen Zufallsvektor U = (U1, ..., U,) mit unabhängigen, normalverteilten Komponenten

(2 1 J(ui) = N b , 2 1) für alle i = I, ..., n

gibt es einen n-dimensionalen Zufallsvektor V = (V1, ..., V,) mit unabhängi- gen, normalverteilten Komponenten

(ii ) qv1) = N ( l l ~ l l J) und

(iii) J ( V . ) = N(0, l ) für alle i = 2, ..., n 2

so daß gilt

(2. 1 411~11~) = 411~11~) .

Hinweis: Betrachte eine lineare Transformation C U von U mit einer geeigneten or- T thonorrnalen nxn-Matrix C, d.h. mit C = C-l.

Nach (ii-iv) hängt die Verteilung J(ll~11~) nur noch über 6 = 11,u112 vom Erwar- tungsvektor ,u ab und wird daher als X;(6)-~erteilung bezeichnet. Aus (iv) ergibt sich folgende Standard-Darstellung (vgl. Exkurs V1 (12))

x;(6) = q 1 1 V 1 1 2 ) = q V; + V; + ..... + V;)

bei der die Nichtzentralität 6 nur noch in der Verteilung des ersten Summanden V; auftritt. Nach diesen Vorbereitungen zeige man weiter:

(b) Für die Verteilungsfunktion @ bzw. @ von X; (6) bzw. N(0,l) gilt 1,s GI, 6(x) = @(J. - Js) - @(- J. - Js) für alle X E IR.

(d) Für n + co konvergiert die standardisierte Verteilung von xn(6) gegen die Standard-Normalverteilung:

(xn(6) - ( n + 6 ) ) / J- N ( o , ~ ) .

(e) Für die Verteilungsfunktion @ von X2 (6) gilt: n, 6 n

@ (X) ist streng wachsend in X 2 0 und streng fallend in 6 2 0. n, 6

Page 258: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

Aufgabe 10.1: Astrologische Prognosen

Ein Astrologe behauptet, aus „astrologischen Daten" einer Person auf Charakter-Ei-

genschaften der Person schließen zu können. In der Fernsehreihe „Der Sternhim-

mel" (im August 1986) wurde von den folgenden beiden Experimenten berichtet, die

die Treffsicherheit solcher Prognosen untersucht haben.

Experiment 1: Ein Astrologe erhält von einer ihm unbekannten Person jeweils drei

Charakterbeschreibungen zur Auswahl - von denen nur eine richtig ist - und soll

auf der Basis astrologischer Daten die passende Beschreibung auswählen. Bei ins-

gesamt n = 116 Personen hat er in 40 Fällen die richtige Beschreibung ausgewählt.

Experiment 2: Ein Astrologe erstellt für eine Person eine astrologisch korrekte und

zwei weitere astrologisch inkorrekte Charakterbeschreibungen. Die Person wählt aus

den drei Beschreibungen die für sie zutreffendste aus (ohne vorher zu wissen, wel-

ches die astrologisch korrekte ist). Von insgesamt n = 83 Personen haben 28 die astro- logisch korrekte Beschreibung gewählt.

(a) Man überprüfe für jedes der beiden Experimente, ob die Treffer-wahrschein- lichkeit p für die jeweils richtige Bechreibung größer ist als bei einer zufälligen Aus- wahl, d.h. man teste die Hypothesen

Für welche Hypothese entscheidet sich der asymptotische Test zum Niveau a = 5 %? Welche Fehlentscheidung ist beim vorliegenden Testergebnis möglich?

(b) Bestimme für beide Experimente das Fehlerrisiko 2.Art ß des asymptotischen Tests jeweils für den Fall, daß die Treffer-Wahrscheinlichkeit p =+ ist und somit deutlich über der „Zufallsquote" von 4 liegt. Kommentiere das Testergebnis aus (a) jetzt erneut.

(C) Versuchsplanung: Wie groß muß der Stichprobenumfang n für jedes Experi- mente mindestens gewählt werden, damit beim Niveau a = 5% und einer Treffer- Wahrscheinlichkeit von p =+ das Fehlerrisiko AI-t (beim asymptotischen Test) auch höchstens ß = 5 % ist?

Page 259: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

Aufgabe 10.2: Testen des Erwartungswertes einer Poisson-Verteilung

Für eine Pois(,~~)-verteilte Zufallsvariable X betrachten wir das einseitige Testpro- blem mit den Hypothesen Ho: ,LL < p0 und Hl: ,LL > pO, wobei wir X als eine Stichprobe vom Umfang n = 1 mit Realisierung X auffassen.

(a) Zeige, daß für festes nominelles Niveau 0 < ao < 1 der Test d mit

d(x)= 1 U Ppo{ X 2 X ) < uo

ein UMP-Test ist mit Niveau u < uo.

Hinweis: Gehe analog zum Binomialmodell vor und beachte, daß

G(x I ,L) := P { X 2 X ) nach 5.2 wachsend in ,LL ist (vgl. auch den Hinweis zu P

Aufgabe 3.1).

(b) Zeige, daß der Test d die Nullhypothese genau dann ablehnt, wenn p0 die

exakte untere Konfidenzgrenze fiu(x) = fiu(x I uo) zur Sicherheit 1- uo aus 5.2

(vgl. auch Aufgabe 3.1) nicht übersteigt, d.h. es gilt

Aufgabe 10.3: Leukämiefälle im Umkreis des KKW Krümmel

Der Kinderarzt M. Demuth berichtet (Preprint, Kassel 1991) von X = 5 Leukämie-Erkrankungsfällen unter allen Kindern (bis 14 Jahre) im 5-km Umkreis der Kerkraftwerks Krümmel im Zeitraum 1990/91 (vgl. auch Aufgabe 2.4). Er ver- gleicht dies mit der nach dem Bundesdurchschnitt zu erwartenden Anzahl (Erwar- tungswert) von nur p0 = 0.44 Fällen. Da die Anzahl X der Leukämieerkrankungen in guter Näherung als Poisson-verteilt angesehen werden kann, führe man den Test aus Aufgabe 9.2 zum nominellen Niveau uo = 1% durch.

Für welche Hypothese entscheidet sich der Test und welche Fehlentscheidung kann hierbei vorliegen. Um wieviel geringer ist hier das tatsächliche Niveau u des Tests gegenüber dem nominellen Niveau ao?

Page 260: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

StatLab-Daten 4.4.2003 SL- 1

Die Daten wurden im Rahmen einer medizinischen Studie von Neugeborenen ("Kaiser Foundation Health Plan') in Oakland (Kalifornien) unter Leitung von J. Yerushalmy in den Jahren 1961-1972 erhoben. Für jedes Kind wurden zahlreiche Daten zu zwei Zeitpunkten registriert, bei der Geburt (1961-63) und 10 Jahre später (Kontrolle). Folgende ausgewählte Daten sind hier aufgeführt.

Kind (Zeitpunkt: Geburt)

B : Blutgruppe im ABO-Sytem, Rh : Rhesus-Faktor, Grö : Grösse (in Zoll), Gw : Gewicht (in Pounds), M : Monat der Geburt (l=Jan .,..., 12=Dez.), W : Wochentag der Geburt (l=Sonntag, ..., 7=Samstag), H : Uhrzeit der Geburt (in Stunden).

Kind (Zeitpunkt: Kontrolle)

Grö : Grösse (in Zoll), Gw : Gewicht (in Pounds).

Mutter (Zeitpunkt: Geburt)

B : Blutgruppe im ABO-Sytem, Rh : Rhesus-Faktor, Al : Alter (in vollendeten Lebensjahren), Gw : Gewicht (in Pounds), R a : Rauchen (in Zigaretten/Tag, A=aufgehört, N=nie geraucht).

Mutter (Zeitpunkt: Kontrolle)

Grö : Grösse (in Zoll), Gw : Gewicht (in Pounds).

Vater (Zeitpunkt: Geburt)

Al : Alter (in vollendeten Lebensjahren), R a : Rauchen (in Zigaretten/Tag, A=aufgehört, N=nie geraucht).

Vater (Zeitpunkt: Kontrolle)

Grö : Grösse (in Zoll), Gw : Gewicht (in Pounds).

Für Beispiel-Analysen werden jeweils verschiedene Teil-Datensätze, bestehend aus je 50 zufällig ausgewählten Mädchen und 50 Jungen verwendet, und zwar:

im Skript (Kurs): StatLab-Auswahl1985, in den Übungen: StatLab-Auswahl Ü[~ahr ]

Umrechnung: 1 Zoll = 2,54 cm ; 1 Pound = 0,45359237 kg.

Quelle: J.L. Hodges, D. Krech, R.S. Crutchfield (1975). StatLab: an empirical intro- duction to statistics. McGraw-Hill, New York.

Page 261: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

StatLab-Daten 4.4.2003 SL- 2

StatLab-Auswahl1985: 50 Mädchen

Nr 1 2 3 4 5 6 7 8 9

10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 Nr

Kind (weiblich) Geburt

B Rh Grö Gw M W H 0 + 19,8 6,4 7 7 5 0 - 19,5 6,3 10 3 16 B + 19,5 7,l 2 1 5 B + 20,O 7,3 10 7 5 A - 19,O 7,l 10 4 1 A + 22,O 10,6 3 2 10 0 - 21,8 7,9 9 1 2 A - 20,O 6,4 5 7 13 0 + 21,5 9,6 4 5 19 A + 20,5 7,3 8 5 3

0 + 20,5 7,3 6 3 19 A + 20,O 7,l 6 2 16 0 + 20,O 6,3 5 3 14 A - 14,8 2,3 11 1 16 A + 20,5 7,3 6 7 14 0 + 19,5 6,4 4 5 7 B + 20,5 6,6 3 7 17

AB + 20,5 6,6 6 3 19 A + 20,5 7,7 7 6 16

AB + 19,5 6,9 4 3 1 0 + 20,O 8,8 6 1 10

AB - 20,O 7,6 9 5 16 A + 20,5 7,l 10 3 10 A + 20,5 6,4 4 2 18 0 + 18,5 5,6 10 5 14 0 + 20,5 7,3 6 2 2 0 + 21,O 7,4 7 3 15 0 + 20,O 7,O 9 6 20 0 + 21,O 7,l 8 3 13 A + 21,O 9,8 10 1 20 0 + 19,5 6,5 7 6 5 A - 21,O 6,8 7 3 23 0 + 22,5 9,3 12 3 8 A + 19,5 5,8 8 2 20 0 + 20,5 7,6 2 6 2 A + 19,5 5,6 1 6 13 0 + 20,5 7,3 1 4 18 0 + 19,O 5,3 3 1 9 A + 19,5 6,9 5 6 19 A + 21,O 6,9 9 1 3

0 + 19,5 6,l 8 4 6 A + 18,O 6,8 6 1 17 0 + 20,O 7,l 10 7 2 A + 20,5 8,7 7 6 23 B + 21,5 9,l 3 4 10 0 + 19,O 5,9 11 4 8 0 - 20,O 7,l 4 4 9 A + 21,O 8,2 8 2 8 0 - 20,O 7,4 3 6 3 A + 21,5 7,5 9 7 13 B Rh Grö Gw M W H

Kontrolle Grö Gw 51,6 78 56,3 68 49,8 63 54,3 68 50,4 56 56,3 77 55,8 70 48,9 59 48,7 57 54,7 80 57,O 82 51,6 66 52,4 66 50,4 54 51,l 61 51,l 59 55,3 81 53,8 74 49,l 46 51,4 60 56,2 73 52,9 75 53,9 68 52,2 84 50,3 58 55,l 73 55,3 73 57,2 92 51,l 64 52,8 64 54,2 78 57,9 114 53,4 106 55,9 77 52,6 68 51,3 61 53,3 59 51,7 56 51,7 74 53,8 60 56,4 74 54,4 72 54,l 73 47,4 62 57,5 108 51,9 72 52,4 81 51,5 68 52,9 57 60,O 100 Grö Gw

Mutter Geburt

B Rh Al Gw Ra A + 32 130 20 B + 25 98 N 0 + 32 122 20 A + 30 128 A A - 34 138 20 A + 43 132 N 0 - 19 115 A A + 17 130 20 0 + 29 128 N A + 25 145 2 A + 26 172 N A + 35 125 N A + 20 102 A A + 24 155 20 0 + 24 110 N 0 + 29 94 20 0 - 33 133 A

AB + 21 135 6 0 + 27 109 A

AB + 22 118 N A + 32 126 N B + 23 185 15 A + 19 135 N A + 18 102 4 B + 33 130 N 0 + 22 108 10 0 + 30 140 N 0 + 36 124 N B + 27 154 15 A - 22 145 N B + 40 162 N A - 27 134 20 B + 36 167 A A + 30 138 A 0 + 36 135 N B + 25 110 N 0 + 24 128 10 0 + 20 97 N A + 23 185 10 0 + 35 116 50

0 + 23 112 15 A + 39 145 20 0 + 22 155 N A + 34 144 A B + 36 119 5 0 + 24 120 20 0 - 22 160 15 0 + 25 120 10 0 + 28 202 N 0 + 28 130 1 B Rh Al Gw Ra

Kontrolle Grö Gw 61,6 153 65,6 98 60,6 163 66,6 117 66,O 175 65,6 141 63,3 150 62,8 159 63,l 148 67,O 200 68,7 159 60,5 135 64,O 120 67,9 152 58,7 112 62,8 104 66,O 145 63,5 145 60,2 120 63,l 159 66,7 126 68,6 247 65,6 151 62,3 120 63,8 141 62,l 120 63,6 164 62,3 146 66,8 181 66,O 140 63,3 160 64,6 154 67,l 215 66,7 159 64,3 144 64,4 125 67,O 122 59,6 138 65,l 184 65,8 107 64,O 119 64,7 159 64,O 168 65,O 144 62,5 146 65,2 139 65,9 174 66,5 122 67,5 175 65,5 137 Grö Gw

Geburt Al Ra 33 N 35 20 38 20 33 5 42 30 39 N 20 N 23 11 31 N 26 6 39 20 43 N 21 20 28 20 25 N 31 20 38 A 26 5 25 10 23 30 35 N 25 20 22 N 20 20 34 N 25 10 33 20 42 N 37 20 23 20 43 N 34 N 40 24 30 N 41 A 24 20 24 24 21 5 31 A 40 50 27 A 37 N 24 20 39 30 37 10 25 A 26 20 27 20 39 N 29 A Al Ra

Vater Kontrolle Grö Gw 66,O 181 70,l 166 68,O 185 73,5 208 67,8 141 72,O 185 69,O 180 65,O 130 69,O 162 69,O 175 74,O 180 62,3 109 70,5 150 71,8 176 68,O 172 72,O 195 72,O 210 70,5 177 68,O 130 68,O 185 70,O 160 68,O 161 69,O 160 72,O 150 68,O 180 71,5 177 67,O 185 65,O 150 70,O 175 68,O 170 64,O 150 71,O 189 67,O 135 65,O 170 68,5 160 72,3 147 68,l 178 64,9 169 71,O 190 70,O 170 69,O 155 71,O 160 70,O 180 68,5 185 72,O 175 74,O 175 71,O 220 70,6 202 72,O 155 72,6 193 Grö Gw

Page 262: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

StatLab-Daten 4.4.2003 SL- 3

StatLab-Auswahl1985: 50 Jungen

Nr 1 2 3 4 5 6 7 8 9

10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 Nr

Kind (männlich) Geburt

B Rh Grö Gw M W H B + 20,O 6,5 7 1 3 A + 19,O 6,l 4 7 14 B + 19,5 6,4 6 4 3 A + 21,O 8,2 11 2 7 0 + 19,O 7,4 9 4 24 A + 19,8 6,4 12 7 1 0 - 21,O 10,3 5 6 14 0 + 21,O 7,9 7 1 18 0 + 20,8 7,4 8 5 10 0 + 21,O 8,l 9 4 11 A - 21,O 7,7 12 5 10 A + 18,O 5,6 5 2 4 A + 20,O 7,l 9 4 22 A + 22,5 8,2 9 2 18 0 + 23,O 9,9 6 2 12 0 + 20,5 7,O 10 1 20 B + 20,5 6,9 6 5 20 0 + 20,O 7,2 9 7 24 0 - 21,5 8,4 8 2 21 B + 21,O 7,2 8 7 21 A + 20,O 6,4 12 4 4 0 + 20,O 8,2 4 7 2 0 + 20,O 7,7 8 4 18 0 + 21,O 7,9 4 3 18

AB + 20,O 7,6 3 4 19 B - 20,5 7,9 9 2 8 B - 19,5 6,5 10 4 16 B + 22,O 8,8 10 2 10 0 + 21,O 9,l 11 6 19 A + 20,8 7,6 12 1 3

AB + 20,O 7,l 9 7 24 B - 21,O 8,8 10 7 13 A + 22,O 8,6 2 4 12 A + 21,O 7,6 6 4 8 B + 20,O 7,4 12 6 21 B + 21,O 7,9 12 1 13 A + 20,5 6,5 5 7 11 A + 20,5 7,8 11 4 6 0 + 19,O 5,8 8 2 3 B + 20,5 7,6 6 6 14

0 + 21,O 7,l 4 5 7 0 + 20,O 7,2 6 2 13 A + 20,5 7,9 8 3 22 A + 20,5 7,l 11 3 13 0 + 20,5 7,9 4 4 3 A + 22,O 8,7 10 3 18 A + 19,5 7,9 5 1 20 0 - 22,5 9,9 8 4 15 A + 20,5 7,9 1 6 4

AB - 20,O 7,9 9 2 5 B Rh Grö Gw M W H

Kontrolle Grö Gw 53,2 70 53,8 71 48,9 52 53,8 68 53,l 72 52,9 64 52,6 71 53,l 68 52,l 69 55,O 69 52,4 66 51,6 57 53,l 76 54,8 67 59,2 114 56,4 96 50,8 59 50,4 56 55,l 74 53,3 69 55,2 75 54,3 65 50,3 57 52,O 72 55,2 87 53,l 62 50,7 66 53,8 75 56,8 74 54,2 64 49,3 50 52,3 64 56,l 67 50,9 64 51,l 60 50,4 58 51,4 60 55,5 66 50,2 58 51,2 54 53,3 61 50,6 60 52,2 64 53,l 66 52,9 60 60,O 116 54,4 81 54,O 72 54,3 77 51,6 70 Grö Gw

Mutter Geburt

B Rh Al Gw Ra B + 24 120 N B + 22 107 3 0 + 28 97 N

AB + 22 124 10 A + 25 146 N A + 31 150 15 0 - 29 145 N 0 + 25 150 N A + 26 133 N A + 30 142 1 A + 17 140 N A + 24 114 N 0 + 36 140 A 0 + 21 126 N 0 + 28 132 N A + 21 120 N

AB + 18 108 2 0 + 26 130 N 0 - 19 95 N 0 + 34 128 20 A + 25 93 7 A + 24 92 N A + 27 125 N 0 + 28 165 5 B + 34 125 N 0 + 26 155 17 B - 28 130 N 0 + 28 210 N 0 - 24 125 A 0 - 22 133 N

AB + 29 113 N 0 - 26 127 N A + 20 120 N A + 21 134 N B + 25 112 A B + 39 134 N A + 26 115 N A + 19 135 A A - 25 108 20 B - 28 124 A

0 + 25 140 20 0 + 25 155 20 A + 23 120 N A + 29 122 20 0 + 22 165 20 0 + 30 162 N 0 + 31 127 N A - 30 140 N A - 25 144 N

AB + 32 128 N B Rh Al Gw Ra

Kontrolle Grö Gw 61,l 108 61,8 103 58,8 101 65,3 136 61,7 170 64,4 178 66,5 170 62,8 188 66,6 172 66,9 141 64,O 212 66,O 129 59,4 135 66,4 132 64,8 158 62,O 125 61,9 119 62,3 153 60,3 109 65,8 144 60,6 104 62,l 110 63,9 135 63,O 180 61,3 144 67,6 178 63,6 139 65,O 195 67,3 121 66,O 130 64,8 113 62,O 150 63,l 134 64,l 149 64,O 125 61,5 127 62,6 107 67,l 143 60,7 136 64,5 191 65,5 137 61,9 166 63,3 139 61,7 161 68,O 204 69,6 167 63,6 140 67,O 154 69,l 174 65,9 138 Grö Gw

Geburt Al Ra 30 30 23 20 30 N 22 N 32 6 38 20 29 N 26 12 26 10 34 1 21 A 25 N 34 20 24 20 34 10 29 N 19 A 30 10 24 20 38 A 32 3 28 30 34 N 38 N 38 20 32 N 29 N 39 20 26 20 28 35 36 A 27 20 24 10 25 4 28 10 49 N 28 A 23 N 28 20 30 25 27 N 33 15 26 N 30 20 25 15 31 N 33 20 30 N 25 15 60 N Al Ra

Vater Kontrolle Grö Gw 66,5 170 75,O 215 66,O 135 71,8 170 68,7 168 67,5 190 68,O 129 70,5 198 73,O 170 71,O 165 65,5 151 65,9 145 67,O 145 72,O 160 72,O 182 69,9 151 68,O 155 62,5 145 74,O 170 71,O 175 75,O 190 73,O 183 72,O 200 65,O 175 67,O 175 71,O 140 72,O 200 75,O 195 73,5 175 70,l 162 69,O 160 71,6 205 76,O 188 66,O 145 70,O 165 68,O 189 69,5 180 71,O 165 68,O 190 64,O 120 72,O 185 69,O 160 69,O 170 71,6 164 68,O 160 74,6 231 68,O 170 67,O 160 72,O 200 60,8 160 Grö Gw

Page 263: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

G. Osius: Statistische Tabellen T - 1

Verteilungsfunktion @(X) der Normalverteilung - N(0,l) in Prozent für negative Argumente X < 0

Ablese-Beispiele: @(-I ,00) = 15,87% ,

Page 264: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

G. Osius: Statistische Tabellen T - 2

Verteilungsfunktion @(X) der Normalverteilung - N(0,l) in Prozent für positive Argumente X > 0

Ablese-Beispiele: @(+1,00) = 84,13% ,

Page 265: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

G. Osius: Statistische Tabellen T - 3

Quantile z der N(0 ,I)-Verteilung für a = 0,1% ,...., 10%. a

Beispiel: Für a = 5% ist z = 1,645 . 5% AL 0 2,

Quantile tFGa der t-Verteilung tFG für a = 0,1% ,..., 10%

Beispiel: Für FG = 10, a = 5% ist t„; = 1,812 . AL o ~ F G ,

Page 266: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

G. Osius: Statistische Tabellen T - 4

Quantile tFGa der t-Verteilung tFG für a = 15% ,...., 45%

Beispiel: Für FG = 10, a = 25% ist t„; „% = 0,700 .

Page 267: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

G. Osius: Statistische Tabellen T - 5

2 Quantile X&+ der Chiquadrat-Verteilung xFG für

FG = 1 ,..., 50 (Zeilen) und a = 0,1% ,..., 10% (Spalten)

2 Beispiel: Für FG = 10, a = 5% ist X„; ,% = 18,307 . o AL x ~ ~ , a 2

Page 268: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

G. Osius: Statistische Tabellen T - 6

2 Quantile X&+ der Chiquadrat-Verteilung xFG für

FG = 1 ,..., 50 (Zeilen) und a = 20% ,..., 80% (Spalten) 2 Beispiel: Für FG = 10, a = 50% ist xl0; so% = 9,342 .

Page 269: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

G. Osius: Statistische Tabellen

2 Quantile X&+ der Chiquadrat-Verteilung xFG für

FG = 1 ,..., 50 (Zeilen) und a = 90% ,..., 99,9% (Spalten)

2 Beispiel: Für FG = 10, a = 95% ist X„; „% = 3,940 .

Page 270: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

G. O

sius

: Sta

tistis

che

Tabe

llen

T - 8

α-Q

uant

il FQ

(m,n

;α) d

er F

-Ver

teilu

ng m

it de

n Fr

eihe

itsgr

aden

m (Z

ähle

r), n

(Nen

ner)

F-V

erte

ilung

α =

10%

Beisp

iele

:FQ

(m=5

, n=1

4; α

=10%

) =

2,30

7 FQ

(m=1

4, n

=5; α

=10%

) =

3,24

7 1-α

n 1

2 3

4 5

6 7

8 9

10

11

12

13

14

15

30

60

120

240

1 39

,86

49,5

0 53

,59

55,8

3 57

,24

58,2

0 58

,91

59,4

4 59

,86

60,1

9 60

,47

60,7

1 60

,90

61,0

7 61

,22

62,2

6 62

,79

63,0

6 63

,19

2 8,

526

9,00

0 9,

162

9,24

3 9,

293

9,32

6 9,

349

9,36

7 9,

381

9,39

2 9,

401

9,40

8 9,

415

9,42

0 9,

425

9,45

8 9,

475

9,48

3 9,

487

3 5,

538

5,46

2 5,

391

5,34

3 5,

309

5,28

5 5,

266

5,25

2 5,

240

5,23

0 5,

222

5,21

6 5,

210

5,20

5 5,

200

5,16

8 5,

151

5,14

3 5,

138

4 4,

545

4,32

5 4,

191

4,10

7 4,

051

4,01

0 3,

979

3,95

5 3,

936

3,92

0 3,

907

3,89

6 3,

886

3,87

8 3,

870

3,81

7 3,

790

3,77

5 3,

768

5 4,

060

3,78

0 3,

619

3,52

0 3,

453

3,40

5 3,

368

3,33

9 3,

316

3,29

7 3,

282

3,26

8 3,

257

3,24

7 3,

238

3,17

4 3,

140

3,12

3 3,

114

6 3,

776

3,46

3 3,

289

3,18

1 3,

108

3,05

5 3,

014

2,98

3 2,

958

2,93

7 2,

920

2,90

5 2,

892

2,88

1 2,

871

2,80

0 2,

762

2,74

2 2,

732

7 3,

589

3,25

7 3,

074

2,96

1 2,

883

2,82

7 2,

785

2,75

2 2,

725

2,70

3 2,

684

2,66

8 2,

654

2,64

3 2,

632

2,55

5 2,

514

2,49

3 2,

482

8 3,

458

3,11

3 2,

924

2,80

6 2,

726

2,66

8 2,

624

2,58

9 2,

561

2,53

8 2,

519

2,50

2 2,

488

2,47

5 2,

464

2,38

3 2,

339

2,31

6 2,

304

9 3,

360

3,00

6 2,

813

2,69

3 2,

611

2,55

1 2,

505

2,46

9 2,

440

2,41

6 2,

396

2,37

9 2,

364

2,35

1 2,

340

2,25

5 2,

208

2,18

4 2,

172

10

3,28

5 2,

924

2,72

8 2,

605

2,52

2 2,

461

2,41

4 2,

377

2,34

7 2,

323

2,30

2 2,

284

2,26

9 2,

255

2,24

4 2,

155

2,10

7 2,

082

2,06

9 11

3,

225

2,86

0 2,

660

2,53

6 2,

451

2,38

9 2,

342

2,30

4 2,

274

2,24

8 2,

227

2,20

9 2,

193

2,17

9 2,

167

2,07

6 2,

026

2,00

0 1,

986

12

3,17

7 2,

807

2,60

6 2,

480

2,39

4 2,

331

2,28

3 2,

245

2,21

4 2,

188

2,16

6 2,

147

2,13

1 2,

117

2,10

5 2,

011

1,96

0 1,

932

1,91

8 13

3,

136

2,76

3 2,

560

2,43

4 2,

347

2,28

3 2,

234

2,19

5 2,

164

2,13

8 2,

116

2,09

7 2,

080

2,06

6 2,

053

1,95

8 1,

904

1,87

6 1,

861

14

3,10

2 2,

726

2,52

2 2,

395

2,30

7 2,

243

2,19

3 2,

154

2,12

2 2,

095

2,07

3 2,

054

2,03

7 2,

022

2,01

0 1,

912

1,85

7 1,

828

1,81

3 15

3,

073

2,69

5 2,

490

2,36

1 2,

273

2,20

8 2,

158

2,11

9 2,

086

2,05

9 2,

037

2,01

7 2,

000

1,98

5 1,

972

1,87

3 1,

817

1,78

7 1,

771

16

3,04

8 2,

668

2,46

2 2,

333

2,24

4 2,

178

2,12

8 2,

088

2,05

5 2,

028

2,00

5 1,

985

1,96

8 1,

953

1,94

0 1,

839

1,78

2 1,

751

1,73

5 17

3,

026

2,64

5 2,

437

2,30

8 2,

218

2,15

2 2,

102

2,06

1 2,

028

2,00

1 1,

978

1,95

8 1,

940

1,92

5 1,

912

1,80

9 1,

751

1,71

9 1,

703

18

3,00

7 2,

624

2,41

6 2,

286

2,19

6 2,

130

2,07

9 2,

038

2,00

5 1,

977

1,95

4 1,

933

1,91

6 1,

900

1,88

7 1,

783

1,72

3 1,

691

1,67

4 19

2,

990

2,60

6 2,

397

2,26

6 2,

176

2,10

9 2,

058

2,01

7 1,

984

1,95

6 1,

932

1,91

2 1,

894

1,87

8 1,

865

1,75

9 1,

699

1,66

6 1,

649

20

2,97

5 2,

589

2,38

0 2,

249

2,15

8 2,

091

2,04

0 1,

999

1,96

5 1,

937

1,91

3 1,

892

1,87

5 1,

859

1,84

5 1,

738

1,67

7 1,

643

1,62

6 21

2,

961

2,57

5 2,

365

2,23

3 2,

142

2,07

5 2,

023

1,98

2 1,

948

1,92

0 1,

896

1,87

5 1,

857

1,84

1 1,

827

1,71

9 1,

657

1,62

3 1,

605

22

2,94

9 2,

561

2,35

1 2,

219

2,12

8 2,

060

2,00

8 1,

967

1,93

3 1,

904

1,88

0 1,

859

1,84

1 1,

825

1,81

1 1,

702

1,63

9 1,

604

1,58

6 23

2,

937

2,54

9 2,

339

2,20

7 2,

115

2,04

7 1,

995

1,95

3 1,

919

1,89

0 1,

866

1,84

5 1,

827

1,81

1 1,

796

1,68

6 1,

622

1,58

7 1,

568

24

2,92

7 2,

538

2,32

7 2,

195

2,10

3 2,

035

1,98

3 1,

941

1,90

6 1,

877

1,85

3 1,

832

1,81

4 1,

797

1,78

3 1,

672

1,60

7 1,

571

1,55

2 25

2,

918

2,52

8 2,

317

2,18

4 2,

092

2,02

4 1,

971

1,92

9 1,

895

1,86

6 1,

841

1,82

0 1,

802

1,78

5 1,

771

1,65

9 1,

593

1,55

7 1,

538

26

2,90

9 2,

519

2,30

7 2,

174

2,08

2 2,

014

1,96

1 1,

919

1,88

4 1,

855

1,83

0 1,

809

1,79

0 1,

774

1,76

0 1,

647

1,58

1 1,

544

1,52

4 27

2,

901

2,51

1 2,

299

2,16

5 2,

073

2,00

5 1,

952

1,90

9 1,

874

1,84

5 1,

820

1,79

9 1,

780

1,76

4 1,

749

1,63

6 1,

569

1,53

1 1,

511

28

2,89

4 2,

503

2,29

1 2,

157

2,06

4 1,

996

1,94

3 1,

900

1,86

5 1,

836

1,81

1 1,

790

1,77

1 1,

754

1,74

0 1,

625

1,55

8 1,

520

1,50

0 29

2,

887

2,49

5 2,

283

2,14

9 2,

057

1,98

8 1,

935

1,89

2 1,

857

1,82

7 1,

802

1,78

1 1,

762

1,74

5 1,

731

1,61

6 1,

547

1,50

9 1,

489

30

2,88

1 2,

489

2,27

6 2,

142

2,04

9 1,

980

1,92

7 1,

884

1,84

9 1,

819

1,79

4 1,

773

1,75

4 1,

737

1,72

2 1,

606

1,53

8 1,

499

1,47

8 60

2,

791

2,39

3 2,

177

2,04

1 1,

946

1,87

5 1,

819

1,77

5 1,

738

1,70

7 1,

680

1,65

7 1,

637

1,61

9 1,

603

1,47

6 1,

395

1,34

8 1,

321

120

2,74

8 2,

347

2,13

0 1,

992

1,89

6 1,

824

1,76

7 1,

722

1,68

4 1,

652

1,62

5 1,

601

1,58

0 1,

562

1,54

5 1,

409

1,32

0 1,

265

1,23

2 24

0 2,

727

2,32

5 2,

107

1,96

8 1,

871

1,79

9 1,

742

1,69

6 1,

658

1,62

5 1,

598

1,57

3 1,

552

1,53

3 1,

516

1,37

6 1,

281

1,21

9 1,

180

m

05.0

4.03

Page 271: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

G. O

sius

: Sta

tistis

che

Tabe

llen

T - 9

α-Q

uant

il FQ

(m,n

;α) d

er F

-Ver

teilu

ng m

it de

n Fr

eihe

itsgr

aden

m (Z

ähle

r), n

(Nen

ner)

F-V

erte

ilung

α =

5%

Beisp

iele

:FQ

(m=5

, n=1

4; α

=10%

) =

2,95

8 FQ

(m=1

4, n

=5; α

=10%

) =

4,63

6 1-α

n 1

2 3

4 5

6 7

8 9

10

11

12

13

14

15

30

60

120

240

1 16

1,4

199,

5 21

5,7

224,

6 23

0,2

234,

0 23

6,8

238,

9 24

0,5

241,

9 24

3,0

243,

9 24

4,7

245,

4 24

5,9

250,

1 25

2,2

253,

3 25

3,8

2 18

,51

19,0

0 19

,16

19,2

5 19

,30

19,3

3 19

,35

19,3

7 19

,38

19,4

0 19

,40

19,4

1 19

,42

19,4

2 19

,43

19,4

6 19

,48

19,4

9 19

,49

3 10

,13

9,55

2 9,

277

9,11

7 9,

013

8,94

1 8,

887

8,84

5 8,

812

8,78

5 8,

763

8,74

5 8,

729

8,71

5 8,

703

8,61

7 8,

572

8,54

9 8,

538

4 7,

709

6,94

4 6,

591

6,38

8 6,

256

6,16

3 6,

094

6,04

1 5,

999

5,96

4 5,

936

5,91

2 5,

891

5,87

3 5,

858

5,74

6 5,

688

5,65

8 5,

643

5 6,

608

5,78

6 5,

409

5,19

2 5,

050

4,95

0 4,

876

4,81

8 4,

772

4,73

5 4,

704

4,67

8 4,

655

4,63

6 4,

619

4,49

6 4,

431

4,39

8 4,

382

6 5,

987

5,14

3 4,

757

4,53

4 4,

387

4,28

4 4,

207

4,14

7 4,

099

4,06

0 4,

027

4,00

0 3,

976

3,95

6 3,

938

3,80

8 3,

740

3,70

5 3,

687

7 5,

591

4,73

7 4,

347

4,12

0 3,

972

3,86

6 3,

787

3,72

6 3,

677

3,63

7 3,

603

3,57

5 3,

550

3,52

9 3,

511

3,37

6 3,

304

3,26

7 3,

249

8 5,

318

4,45

9 4,

066

3,83

8 3,

688

3,58

1 3,

500

3,43

8 3,

388

3,34

7 3,

313

3,28

4 3,

259

3,23

7 3,

218

3,07

9 3,

005

2,96

7 2,

947

9 5,

117

4,25

6 3,

863

3,63

3 3,

482

3,37

4 3,

293

3,23

0 3,

179

3,13

7 3,

102

3,07

3 3,

048

3,02

5 3,

006

2,86

4 2,

787

2,74

8 2,

727

10

4,96

5 4,

103

3,70

8 3,

478

3,32

6 3,

217

3,13

5 3,

072

3,02

0 2,

978

2,94

3 2,

913

2,88

7 2,

865

2,84

5 2,

700

2,62

1 2,

580

2,55

9 11

4,

844

3,98

2 3,

587

3,35

7 3,

204

3,09

5 3,

012

2,94

8 2,

896

2,85

4 2,

818

2,78

8 2,

761

2,73

9 2,

719

2,57

0 2,

490

2,44

8 2,

426

12

4,74

7 3,

885

3,49

0 3,

259

3,10

6 2,

996

2,91

3 2,

849

2,79

6 2,

753

2,71

7 2,

687

2,66

0 2,

637

2,61

7 2,

466

2,38

4 2,

341

2,31

9 13

4,

667

3,80

6 3,

411

3,17

9 3,

025

2,91

5 2,

832

2,76

7 2,

714

2,67

1 2,

635

2,60

4 2,

577

2,55

4 2,

533

2,38

0 2,

297

2,25

2 2,

230

14

4,60

0 3,

739

3,34

4 3,

112

2,95

8 2,

848

2,76

4 2,

699

2,64

6 2,

602

2,56

5 2,

534

2,50

7 2,

484

2,46

3 2,

308

2,22

3 2,

178

2,15

5 15

4,

543

3,68

2 3,

287

3,05

6 2,

901

2,79

0 2,

707

2,64

1 2,

588

2,54

4 2,

507

2,47

5 2,

448

2,42

4 2,

403

2,24

7 2,

160

2,11

4 2,

090

16

4,49

4 3,

634

3,23

9 3,

007

2,85

2 2,

741

2,65

7 2,

591

2,53

8 2,

494

2,45

6 2,

425

2,39

7 2,

373

2,35

2 2,

194

2,10

6 2,

059

2,03

5 17

4,

451

3,59

2 3,

197

2,96

5 2,

810

2,69

9 2,

614

2,54

8 2,

494

2,45

0 2,

413

2,38

1 2,

353

2,32

9 2,

308

2,14

8 2,

058

2,01

1 1,

986

18

4,41

4 3,

555

3,16

0 2,

928

2,77

3 2,

661

2,57

7 2,

510

2,45

6 2,

412

2,37

4 2,

342

2,31

4 2,

290

2,26

9 2,

107

2,01

7 1,

968

1,94

3 19

4,

381

3,52

2 3,

127

2,89

5 2,

740

2,62

8 2,

544

2,47

7 2,

423

2,37

8 2,

340

2,30

8 2,

280

2,25

6 2,

234

2,07

1 1,

980

1,93

0 1,

905

20

4,35

1 3,

493

3,09

8 2,

866

2,71

1 2,

599

2,51

4 2,

447

2,39

3 2,

348

2,31

0 2,

278

2,25

0 2,

225

2,20

3 2,

039

1,94

6 1,

896

1,87

0 21

4,

325

3,46

7 3,

072

2,84

0 2,

685

2,57

3 2,

488

2,42

0 2,

366

2,32

1 2,

283

2,25

0 2,

222

2,19

7 2,

176

2,01

0 1,

916

1,86

6 1,

839

22

4,30

1 3,

443

3,04

9 2,

817

2,66

1 2,

549

2,46

4 2,

397

2,34

2 2,

297

2,25

9 2,

226

2,19

8 2,

173

2,15

1 1,

984

1,88

9 1,

838

1,81

1 23

4,

279

3,42

2 3,

028

2,79

6 2,

640

2,52

8 2,

442

2,37

5 2,

320

2,27

5 2,

236

2,20

4 2,

175

2,15

0 2,

128

1,96

1 1,

865

1,81

3 1,

785

24

4,26

0 3,

403

3,00

9 2,

776

2,62

1 2,

508

2,42

3 2,

355

2,30

0 2,

255

2,21

6 2,

183

2,15

5 2,

130

2,10

8 1,

939

1,84

2 1,

790

1,76

2 25

4,

242

3,38

5 2,

991

2,75

9 2,

603

2,49

0 2,

405

2,33

7 2,

282

2,23

6 2,

198

2,16

5 2,

136

2,11

1 2,

089

1,91

9 1,

822

1,76

8 1,

740

26

4,22

5 3,

369

2,97

5 2,

743

2,58

7 2,

474

2,38

8 2,

321

2,26

5 2,

220

2,18

1 2,

148

2,11

9 2,

094

2,07

2 1,

901

1,80

3 1,

749

1,72

0 27

4,

210

3,35

4 2,

960

2,72

8 2,

572

2,45

9 2,

373

2,30

5 2,

250

2,20

4 2,

166

2,13

2 2,

103

2,07

8 2,

056

1,88

4 1,

785

1,73

1 1,

702

28

4,19

6 3,

340

2,94

7 2,

714

2,55

8 2,

445

2,35

9 2,

291

2,23

6 2,

190

2,15

1 2,

118

2,08

9 2,

064

2,04

1 1,

869

1,76

9 1,

714

1,68

5 29

4,

183

3,32

8 2,

934

2,70

1 2,

545

2,43

2 2,

346

2,27

8 2,

223

2,17

7 2,

138

2,10

4 2,

075

2,05

0 2,

027

1,85

4 1,

754

1,69

8 1,

669

30

4,17

1 3,

316

2,92

2 2,

690

2,53

4 2,

421

2,33

4 2,

266

2,21

1 2,

165

2,12

6 2,

092

2,06

3 2,

037

2,01

5 1,

841

1,74

0 1,

683

1,65

4 60

4,

001

3,15

0 2,

758

2,52

5 2,

368

2,25

4 2,

167

2,09

7 2,

040

1,99

3 1,

952

1,91

7 1,

887

1,86

0 1,

836

1,64

9 1,

534

1,46

7 1,

430

120

3,92

0 3,

072

2,68

0 2,

447

2,29

0 2,

175

2,08

7 2,

016

1,95

9 1,

910

1,86

9 1,

834

1,80

3 1,

775

1,75

0 1,

554

1,42

9 1,

352

1,30

7 24

0 3,

881

3,03

3 2,

642

2,40

9 2,

252

2,13

6 2,

048

1,97

7 1,

919

1,87

0 1,

829

1,79

3 1,

761

1,73

3 1,

708

1,50

7 1,

375

1,29

0 1,

237

m

05.0

4.03

Page 272: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

G. O

sius

: Sta

tistis

che

Tabe

llen

T - 1

0

α-Q

uant

il FQ

(m,n

;α) d

er F

-Ver

teilu

ng m

it de

n Fr

eihe

itsgr

aden

m (Z

ähle

r), n

(Nen

ner)

F-V

erte

ilung

α =

2,5

%Be

ispie

le:

FQ(m

=5, n

=14;

α=1

0%) =

3,

663

FQ(m

=14,

n=5

; α=1

0%) =

6,

456

1-α

n 1

2 3

4 5

6 7

8 9

10

11

12

13

14

15

30

60

120

240

1 64

7,8

799,

5 86

4,2

899,

6 92

1,8

937,

1 94

8,2

956,

6 96

3,3

968,

6 97

3,0

976,

7 97

9,8

982,

5 98

4,9

1001

,4

1009

,8

1014

,0

1016

,1

2 38

,51

39,0

0 39

,17

39,2

5 39

,30

39,3

3 39

,36

39,3

7 39

,39

39,4

0 39

,41

39,4

1 39

,42

39,4

3 39

,43

39,4

6 39

,48

39,4

9 39

,49

3 17

,44

16,0

4 15

,44

15,1

0 14

,88

14,7

3 14

,62

14,5

4 14

,47

14,4

2 14

,37

14,3

4 14

,30

14,2

8 14

,25

14,0

8 13

,99

13,9

5 13

,92

4 12

,22

10,6

5 9,

979

9,60

4 9,

364

9,19

7 9,

074

8,98

0 8,

905

8,84

4 8,

794

8,75

1 8,

715

8,68

4 8,

657

8,46

1 8,

360

8,30

9 8,

283

5 10

,01

8,43

4 7,

764

7,38

8 7,

146

6,97

8 6,

853

6,75

7 6,

681

6,61

9 6,

568

6,52

5 6,

488

6,45

6 6,

428

6,22

7 6,

123

6,06

9 6,

042

6 8,

813

7,26

0 6,

599

6,22

7 5,

988

5,82

0 5,

695

5,60

0 5,

523

5,46

1 5,

410

5,36

6 5,

329

5,29

7 5,

269

5,06

5 4,

959

4,90

4 4,

877

7 8,

073

6,54

2 5,

890

5,52

3 5,

285

5,11

9 4,

995

4,89

9 4,

823

4,76

1 4,

709

4,66

6 4,

628

4,59

6 4,

568

4,36

2 4,

254

4,19

9 4,

171

8 7,

571

6,05

9 5,

416

5,05

3 4,

817

4,65

2 4,

529

4,43

3 4,

357

4,29

5 4,

243

4,20

0 4,

162

4,13

0 4,

101

3,89

4 3,

784

3,72

8 3,

699

9 7,

209

5,71

5 5,

078

4,71

8 4,

484

4,32

0 4,

197

4,10

2 4,

026

3,96

4 3,

912

3,86

8 3,

831

3,79

8 3,

769

3,56

0 3,

449

3,39

2 3,

363

10

6,93

7 5,

456

4,82

6 4,

468

4,23

6 4,

072

3,95

0 3,

855

3,77

9 3,

717

3,66

5 3,

621

3,58

3 3,

550

3,52

2 3,

311

3,19

8 3,

140

3,11

0 11

6,

724

5,25

6 4,

630

4,27

5 4,

044

3,88

1 3,

759

3,66

4 3,

588

3,52

6 3,

474

3,43

0 3,

392

3,35

9 3,

330

3,11

8 3,

004

2,94

4 2,

914

12

6,55

4 5,

096

4,47

4 4,

121

3,89

1 3,

728

3,60

7 3,

512

3,43

6 3,

374

3,32

1 3,

277

3,23

9 3,

206

3,17

7 2,

963

2,84

8 2,

787

2,75

6 13

6,

414

4,96

5 4,

347

3,99

6 3,

767

3,60

4 3,

483

3,38

8 3,

312

3,25

0 3,

197

3,15

3 3,

115

3,08

2 3,

053

2,83

7 2,

720

2,65

9 2,

628

14

6,29

8 4,

857

4,24

2 3,

892

3,66

3 3,

501

3,38

0 3,

285

3,20

9 3,

147

3,09

5 3,

050

3,01

2 2,

979

2,94

9 2,

732

2,61

4 2,

552

2,52

0 15

6,

200

4,76

5 4,

153

3,80

4 3,

576

3,41

5 3,

293

3,19

9 3,

123

3,06

0 3,

008

2,96

3 2,

925

2,89

1 2,

862

2,64

4 2,

524

2,46

1 2,

429

16

6,11

5 4,

687

4,07

7 3,

729

3,50

2 3,

341

3,21

9 3,

125

3,04

9 2,

986

2,93

4 2,

889

2,85

1 2,

817

2,78

8 2,

568

2,44

7 2,

383

2,35

0 17

6,

042

4,61

9 4,

011

3,66

5 3,

438

3,27

7 3,

156

3,06

1 2,

985

2,92

2 2,

870

2,82

5 2,

786

2,75

3 2,

723

2,50

2 2,

380

2,31

5 2,

282

18

5,97

8 4,

560

3,95

4 3,

608

3,38

2 3,

221

3,10

0 3,

005

2,92

9 2,

866

2,81

4 2,

769

2,73

0 2,

696

2,66

7 2,

445

2,32

1 2,

256

2,22

2 19

5,

922

4,50

8 3,

903

3,55

9 3,

333

3,17

2 3,

051

2,95

6 2,

880

2,81

7 2,

765

2,72

0 2,

681

2,64

7 2,

617

2,39

4 2,

270

2,20

3 2,

169

20

5,87

1 4,

461

3,85

9 3,

515

3,28

9 3,

128

3,00

7 2,

913

2,83

7 2,

774

2,72

1 2,

676

2,63

7 2,

603

2,57

3 2,

349

2,22

3 2,

156

2,12

1 21

5,

827

4,42

0 3,

819

3,47

5 3,

250

3,09

0 2,

969

2,87

4 2,

798

2,73

5 2,

682

2,63

7 2,

598

2,56

4 2,

534

2,30

8 2,

182

2,11

4 2,

079

22

5,78

6 4,

383

3,78

3 3,

440

3,21

5 3,

055

2,93

4 2,

839

2,76

3 2,

700

2,64

7 2,

602

2,56

3 2,

528

2,49

8 2,

272

2,14

5 2,

076

2,04

0 23

5,

750

4,34

9 3,

750

3,40

8 3,

183

3,02

3 2,

902

2,80

8 2,

731

2,66

8 2,

615

2,57

0 2,

531

2,49

7 2,

466

2,23

9 2,

111

2,04

1 2,

005

24

5,71

7 4,

319

3,72

1 3,

379

3,15

5 2,

995

2,87

4 2,

779

2,70

3 2,

640

2,58

6 2,

541

2,50

2 2,

468

2,43

7 2,

209

2,08

0 2,

010

1,97

3 25

5,

686

4,29

1 3,

694

3,35

3 3,

129

2,96

9 2,

848

2,75

3 2,

677

2,61

3 2,

560

2,51

5 2,

476

2,44

1 2,

411

2,18

2 2,

052

1,98

1 1,

944

26

5,65

9 4,

265

3,67

0 3,

329

3,10

5 2,

945

2,82

4 2,

729

2,65

3 2,

590

2,53

6 2,

491

2,45

2 2,

417

2,38

7 2,

157

2,02

6 1,

954

1,91

7 27

5,

633

4,24

2 3,

647

3,30

7 3,

083

2,92

3 2,

802

2,70

7 2,

631

2,56

8 2,

514

2,46

9 2,

429

2,39

5 2,

364

2,13

3 2,

002

1,93

0 1,

892

28

5,61

0 4,

221

3,62

6 3,

286

3,06

3 2,

903

2,78

2 2,

687

2,61

1 2,

547

2,49

4 2,

448

2,40

9 2,

374

2,34

4 2,

112

1,98

0 1,

907

1,86

9 29

5,

588

4,20

1 3,

607

3,26

7 3,

044

2,88

4 2,

763

2,66

9 2,

592

2,52

9 2,

475

2,43

0 2,

390

2,35

5 2,

325

2,09

2 1,

959

1,88

6 1,

847

30

5,56

8 4,

182

3,58

9 3,

250

3,02

6 2,

867

2,74

6 2,

651

2,57

5 2,

511

2,45

8 2,

412

2,37

2 2,

338

2,30

7 2,

074

1,94

0 1,

866

1,82

7 60

5,

286

3,92

5 3,

343

3,00

8 2,

786

2,62

7 2,

507

2,41

2 2,

334

2,27

0 2,

216

2,16

9 2,

129

2,09

3 2,

061

1,81

5 1,

667

1,58

1 1,

534

120

5,15

2 3,

805

3,22

7 2,

894

2,67

4 2,

515

2,39

5 2,

299

2,22

2 2,

157

2,10

2 2,

055

2,01

4 1,

977

1,94

5 1,

690

1,53

0 1,

433

1,37

6 24

0 5,

088

3,74

6 3,

171

2,83

9 2,

620

2,46

1 2,

341

2,24

5 2,

167

2,10

2 2,

047

1,99

9 1,

958

1,92

1 1,

888

1,62

8 1,

460

1,35

4 1,

289

m

05.0

4.03

Page 273: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

G. O

sius

: Sta

tistis

che

Tabe

llen

T - 1

1

α-Q

uant

il FQ

(m,n

;α) d

er F

-Ver

teilu

ng m

it de

n Fr

eihe

itsgr

aden

m (Z

ähle

r), n

(Nen

ner)

F-V

erte

ilung

α =

1%

Beisp

iele

:FQ

(m=5

, n=1

4; α

=10%

) =

4,69

5 FQ

(m=1

4, n

=5; α

=10%

) =

9,77

0 1-α

n 1

2 3

4 5

6 7

8 9

10

11

12

13

14

15

30

60

120

240

1 40

52,2

49

99,3

54

03,5

56

24,3

57

64,0

58

59,0

59

28,3

59

81,0

60

22,4

60

55,9

60

83,4

61

06,7

61

25,8

61

43,0

61

57,0

62

60,4

63

13,0

63

39,5

63

52,6

2

98,5

0 99

,00

99,1

6 99

,25

99,3

0 99

,33

99,3

6 99

,38

99,3

9 99

,40

99,4

1 99

,42

99,4

2 99

,43

99,4

3 99

,47

99,4

8 99

,49

99,5

0 3

34,1

2 30

,82

29,4

6 28

,71

28,2

4 27

,91

27,6

7 27

,49

27,3

4 27

,23

27,1

3 27

,05

26,9

8 26

,92

26,8

7 26

,50

26,3

2 26

,22

26,1

7 4

21,2

0 18

,00

16,6

9 15

,98

15,5

2 15

,21

14,9

8 14

,80

14,6

6 14

,55

14,4

5 14

,37

14,3

1 14

,25

14,2

0 13

,84

13,6

5 13

,56

13,5

1 5

16,2

6 13

,27

12,0

6 11

,39

10,9

7 10

,67

10,4

6 10

,29

10,1

6 10

,05

9,96

3 9,

888

9,82

5 9,

770

9,72

2 9,

379

9,20

2 9,

112

9,06

6 6

13,7

5 10

,92

9,78

0 9,

148

8,74

6 8,

466

8,26

0 8,

102

7,97

6 7,

874

7,79

0 7,

718

7,65

7 7,

605

7,55

9 7,

229

7,05

7 6,

969

6,92

5 7

12,2

5 9,

547

8,45

1 7,

847

7,46

0 7,

191

6,99

3 6,

840

6,71

9 6,

620

6,53

8 6,

469

6,41

0 6,

359

6,31

4 5,

992

5,82

4 5,

737

5,69

4 8

11,2

6 8,

649

7,59

1 7,

006

6,63

2 6,

371

6,17

8 6,

029

5,91

1 5,

814

5,73

4 5,

667

5,60

9 5,

559

5,51

5 5,

198

5,03

2 4,

946

4,90

3 9

10,5

6 8,

022

6,99

2 6,

422

6,05

7 5,

802

5,61

3 5,

467

5,35

1 5,

257

5,17

8 5,

111

5,05

5 5,

005

4,96

2 4,

649

4,48

3 4,

398

4,35

4 10

10

,04

7,55

9 6,

552

5,99

4 5,

636

5,38

6 5,

200

5,05

7 4,

942

4,84

9 4,

772

4,70

6 4,

650

4,60

1 4,

558

4,24

7 4,

082

3,99

6 3,

953

11

9,64

6 7,

206

6,21

7 5,

668

5,31

6 5,

069

4,88

6 4,

744

4,63

2 4,

539

4,46

2 4,

397

4,34

2 4,

293

4,25

1 3,

941

3,77

6 3,

690

3,64

7 12

9,

330

6,92

7 5,

953

5,41

2 5,

064

4,82

1 4,

640

4,49

9 4,

388

4,29

6 4,

220

4,15

5 4,

100

4,05

2 4,

010

3,70

1 3,

535

3,44

9 3,

405

13

9,07

4 6,

701

5,73

9 5,

205

4,86

2 4,

620

4,44

1 4,

302

4,19

1 4,

100

4,02

5 3,

960

3,90

5 3,

857

3,81

5 3,

507

3,34

1 3,

255

3,21

0 14

8,

862

6,51

5 5,

564

5,03

5 4,

695

4,45

6 4,

278

4,14

0 4,

030

3,93

9 3,

864

3,80

0 3,

745

3,69

8 3,

656

3,34

8 3,

181

3,09

4 3,

050

15

8,68

3 6,

359

5,41

7 4,

893

4,55

6 4,

318

4,14

2 4,

004

3,89

5 3,

805

3,73

0 3,

666

3,61

2 3,

564

3,52

2 3,

214

3,04

7 2,

959

2,91

4 16

8,

531

6,22

6 5,

292

4,77

3 4,

437

4,20

2 4,

026

3,89

0 3,

780

3,69

1 3,

616

3,55

3 3,

498

3,45

1 3,

409

3,10

1 2,

933

2,84

5 2,

799

17

8,40

0 6,

112

5,18

5 4,

669

4,33

6 4,

101

3,92

7 3,

791

3,68

2 3,

593

3,51

8 3,

455

3,40

1 3,

353

3,31

2 3,

003

2,83

5 2,

746

2,70

0 18

8,

285

6,01

3 5,

092

4,57

9 4,

248

4,01

5 3,

841

3,70

5 3,

597

3,50

8 3,

434

3,37

1 3,

316

3,26

9 3,

227

2,91

9 2,

749

2,66

0 2,

613

19

8,18

5 5,

926

5,01

0 4,

500

4,17

1 3,

939

3,76

5 3,

631

3,52

3 3,

434

3,36

0 3,

297

3,24

2 3,

195

3,15

3 2,

844

2,67

4 2,

584

2,53

7 20

8,

096

5,84

9 4,

938

4,43

1 4,

103

3,87

1 3,

699

3,56

4 3,

457

3,36

8 3,

294

3,23

1 3,

177

3,13

0 3,

088

2,77

8 2,

608

2,51

7 2,

470

21

8,01

7 5,

780

4,87

4 4,

369

4,04

2 3,

812

3,64

0 3,

506

3,39

8 3,

310

3,23

6 3,

173

3,11

9 3,

072

3,03

0 2,

720

2,54

8 2,

457

2,40

9 22

7,

945

5,71

9 4,

817

4,31

3 3,

988

3,75

8 3,

587

3,45

3 3,

346

3,25

8 3,

184

3,12

1 3,

067

3,01

9 2,

978

2,66

7 2,

495

2,40

3 2,

355

23

7,88

1 5,

664

4,76

5 4,

264

3,93

9 3,

710

3,53

9 3,

406

3,29

9 3,

211

3,13

7 3,

074

3,02

0 2,

973

2,93

1 2,

620

2,44

7 2,

354

2,30

6 24

7,

823

5,61

4 4,

718

4,21

8 3,

895

3,66

7 3,

496

3,36

3 3,

256

3,16

8 3,

094

3,03

2 2,

977

2,93

0 2,

889

2,57

7 2,

403

2,31

0 2,

261

25

7,77

0 5,

568

4,67

5 4,

177

3,85

5 3,

627

3,45

7 3,

324

3,21

7 3,

129

3,05

6 2,

993

2,93

9 2,

892

2,85

0 2,

538

2,36

4 2,

270

2,22

0 26

7,

721

5,52

6 4,

637

4,14

0 3,

818

3,59

1 3,

421

3,28

8 3,

182

3,09

4 3,

021

2,95

8 2,

904

2,85

7 2,

815

2,50

3 2,

327

2,23

3 2,

183

27

7,67

7 5,

488

4,60

1 4,

106

3,78

5 3,

558

3,38

8 3,

256

3,14

9 3,

062

2,98

8 2,

926

2,87

2 2,

824

2,78

3 2,

470

2,29

4 2,

198

2,14

8 28

7,

636

5,45

3 4,

568

4,07

4 3,

754

3,52

8 3,

358

3,22

6 3,

120

3,03

2 2,

959

2,89

6 2,

842

2,79

5 2,

753

2,44

0 2,

263

2,16

7 2,

117

29

7,59

8 5,

420

4,53

8 4,

045

3,72

5 3,

499

3,33

0 3,

198

3,09

2 3,

005

2,93

1 2,

868

2,81

4 2,

767

2,72

6 2,

412

2,23

4 2,

138

2,08

7 30

7,

562

5,39

0 4,

510

4,01

8 3,

699

3,47

3 3,

305

3,17

3 3,

067

2,97

9 2,

906

2,84

3 2,

789

2,74

2 2,

700

2,38

6 2,

208

2,11

1 2,

060

60

7,07

7 4,

977

4,12

6 3,

649

3,33

9 3,

119

2,95

3 2,

823

2,71

8 2,

632

2,55

9 2,

496

2,44

2 2,

394

2,35

2 2,

028

1,83

6 1,

726

1,66

6 12

0 6,

851

4,78

7 3,

949

3,48

0 3,

174

2,95

6 2,

792

2,66

3 2,

559

2,47

2 2,

399

2,33

6 2,

282

2,23

4 2,

191

1,86

0 1,

656

1,53

3 1,

462

240

6,74

2 4,

695

3,86

4 3,

398

3,09

4 2,

878

2,71

4 2,

586

2,48

2 2,

395

2,32

2 2,

260

2,20

5 2,

157

2,11

4 1,

778

1,56

5 1,

432

1,35

1

m

05.0

4.03

Page 274: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

G. O

sius

: Sta

tistis

che

Tabe

llen

T - 1

2

α-Q

uant

il FQ

(m,n

;α) d

er F

-Ver

teilu

ng m

it de

n Fr

eihe

itsgr

aden

m (Z

ähle

r), n

(Nen

ner)

F-V

erte

ilung

α =

0,5

%Be

ispie

le:

FQ(m

=5, n

=14;

α=1

0%) =

5,

562

FQ(m

=14,

n=5

; α=1

0%) =

13

,21

1-α

n 1

2 3

4 5

6 7

8 9

10

11

12

13

14

15

30

60

120

240

1 16

212

1999

7 21

614

2250

1 23

056

2344

0 23

715

2392

4 24

091

2422

2 24

334

2442

7 24

505

2457

2 24

632

2504

1 25

254

2535

8 25

414

2 19

8,5

199,

0 19

9,2

199,

2 19

9,3

199,

3 19

9,4

199,

4 19

9,4

199,

4 19

9,4

199,

4 19

9,4

199,

4 19

9,4

199,

5 19

9,5

199,

5 19

9,5

3 55

,55

49,8

0 47

,47

46,2

0 45

,39

44,8

4 44

,43

44,1

3 43

,88

43,6

8 43

,52

43,3

9 43

,27

43,1

7 43

,08

42,4

7 42

,15

41,9

9 41

,91

4 31

,33

26,2

8 24

,26

23,1

5 22

,46

21,9

8 21

,62

21,3

5 21

,14

20,9

7 20

,82

20,7

0 20

,60

20,5

1 20

,44

19,8

9 19

,61

19,4

7 19

,40

5 22

,78

18,3

1 16

,53

15,5

6 14

,94

14,5

1 14

,20

13,9

6 13

,77

13,6

2 13

,49

13,3

8 13

,29

13,2

1 13

,15

12,6

6 12

,40

12,2

7 12

,21

6 18

,63

14,5

4 12

,92

12,0

3 11

,46

11,0

7 10

,79

10,5

7 10

,39

10,2

5 10

,13

10,0

3 9,

950

9,87

8 9,

814

9,35

8 9,

122

9,00

1 8,

941

7 16

,24

12,4

0 10

,88

10,0

5 9,

522

9,15

5 8,

885

8,67

8 8,

514

8,38

0 8,

270

8,17

6 8,

097

8,02

8 7,

968

7,53

4 7,

309

7,19

3 7,

135

8 14

,69

11,0

4 9,

597

8,80

5 8,

302

7,95

2 7,

694

7,49

6 7,

339

7,21

1 7,

105

7,01

5 6,

938

6,87

2 6,

814

6,39

6 6,

177

6,06

5 6,

008

9 13

,61

10,1

1 8,

717

7,95

6 7,

471

7,13

4 6,

885

6,69

3 6,

541

6,41

7 6,

314

6,22

7 6,

153

6,08

9 6,

032

5,62

5 5,

410

5,30

0 5,

244

10

12,8

3 9,

427

8,08

1 7,

343

6,87

2 6,

545

6,30

3 6,

116

5,96

8 5,

847

5,74

6 5,

661

5,58

9 5,

526

5,47

1 5,

071

4,85

9 4,

750

4,69

5 11

12

,23

8,91

2 7,

600

6,88

1 6,

422

6,10

2 5,

865

5,68

2 5,

537

5,41

8 5,

320

5,23

6 5,

165

5,10

3 5,

049

4,65

4 4,

445

4,33

7 4,

281

12

11,7

5 8,

510

7,22

6 6,

521

6,07

1 5,

757

5,52

4 5,

345

5,20

2 5,

085

4,98

8 4,

906

4,83

6 4,

775

4,72

1 4,

331

4,12

3 4,

015

3,96

0 13

11

,37

8,18

6 6,

926

6,23

3 5,

791

5,48

2 5,

253

5,07

6 4,

935

4,82

0 4,

724

4,64

3 4,

573

4,51

3 4,

460

4,07

3 3,

866

3,75

8 3,

703

14

11,0

6 7,

922

6,68

0 5,

998

5,56

2 5,

257

5,03

1 4,

857

4,71

7 4,

603

4,50

8 4,

428

4,35

9 4,

299

4,24

7 3,

862

3,65

5 3,

547

3,49

2 15

10

,80

7,70

1 6,

476

5,80

3 5,

372

5,07

1 4,

847

4,67

4 4,

536

4,42

4 4,

329

4,25

0 4,

181

4,12

2 4,

070

3,68

7 3,

480

3,37

2 3,

317

16

10,5

8 7,

514

6,30

3 5,

638

5,21

2 4,

913

4,69

2 4,

521

4,38

4 4,

272

4,17

9 4,

099

4,03

1 3,

972

3,92

0 3,

539

3,33

2 3,

224

3,16

8 17

10

,38

7,35

4 6,

156

5,49

7 5,

075

4,77

9 4,

559

4,38

9 4,

254

4,14

2 4,

050

3,97

1 3,

903

3,84

4 3,

793

3,41

2 3,

206

3,09

7 3,

041

18

10,2

2 7,

215

6,02

8 5,

375

4,95

6 4,

663

4,44

5 4,

276

4,14

1 4,

030

3,93

8 3,

860

3,79

3 3,

734

3,68

3 3,

303

3,09

6 2,

987

2,93

1 19

10

,07

7,09

3 5,

916

5,26

8 4,

853

4,56

1 4,

345

4,17

7 4,

043

3,93

3 3,

841

3,76

3 3,

696

3,63

8 3,

587

3,20

8 3,

000

2,89

1 2,

834

20

9,94

4 6,

987

5,81

8 5,

174

4,76

2 4,

472

4,25

7 4,

090

3,95

6 3,

847

3,75

6 3,

678

3,61

1 3,

553

3,50

2 3,

123

2,91

6 2,

806

2,74

9 21

9,

829

6,89

1 5,

730

5,09

1 4,

681

4,39

3 4,

179

4,01

3 3,

880

3,77

1 3,

680

3,60

2 3,

536

3,47

8 3,

427

3,04

9 2,

841

2,73

0 2,

673

22

9,72

7 6,

806

5,65

2 5,

017

4,60

9 4,

322

4,10

9 3,

944

3,81

2 3,

703

3,61

2 3,

535

3,46

9 3,

411

3,36

0 2,

982

2,77

4 2,

663

2,60

5 23

9,

635

6,73

0 5,

582

4,95

0 4,

544

4,25

9 4,

047

3,88

2 3,

750

3,64

2 3,

551

3,47

4 3,

408

3,35

1 3,

300

2,92

2 2,

713

2,60

2 2,

543

24

9,55

1 6,

661

5,51

9 4,

890

4,48

6 4,

202

3,99

1 3,

826

3,69

5 3,

587

3,49

7 3,

420

3,35

4 3,

296

3,24

6 2,

868

2,65

8 2,

546

2,48

8 25

9,

475

6,59

8 5,

462

4,83

5 4,

433

4,15

0 3,

939

3,77

6 3,

645

3,53

7 3,

447

3,37

0 3,

304

3,24

7 3,

196

2,81

9 2,

609

2,49

6 2,

437

26

9,40

6 6,

541

5,40

9 4,

785

4,38

4 4,

103

3,89

3 3,

730

3,59

9 3,

492

3,40

2 3,

325

3,25

9 3,

202

3,15

1 2,

774

2,56

3 2,

450

2,39

1 27

9,

342

6,48

9 5,

361

4,74

0 4,

340

4,05

9 3,

850

3,68

7 3,

557

3,45

0 3,

360

3,28

4 3,

218

3,16

1 3,

110

2,73

3 2,

522

2,40

8 2,

348

28

9,28

4 6,

440

5,31

7 4,

698

4,30

0 4,

020

3,81

1 3,

649

3,51

9 3,

412

3,32

2 3,

246

3,18

0 3,

123

3,07

3 2,

695

2,48

3 2,

369

2,30

9 29

9,

230

6,39

6 5,

276

4,65

9 4,

262

3,98

3 3,

775

3,61

3 3,

483

3,37

6 3,

287

3,21

1 3,

145

3,08

8 3,

038

2,66

0 2,

448

2,33

3 2,

273

30

9,18

0 6,

355

5,23

9 4,

623

4,22

8 3,

949

3,74

2 3,

580

3,45

1 3,

344

3,25

5 3,

179

3,11

3 3,

056

3,00

6 2,

628

2,41

5 2,

300

2,23

9 60

8,

495

5,79

5 4,

729

4,14

0 3,

760

3,49

2 3,

291

3,13

4 3,

008

2,90

4 2,

817

2,74

2 2,

677

2,62

0 2,

570

2,18

7 1,

962

1,83

4 1,

764

120

8,17

9 5,

539

4,49

7 3,

921

3,54

8 3,

285

3,08

7 2,

933

2,80

8 2,

705

2,61

8 2,

544

2,47

9 2,

423

2,37

3 1,

984

1,74

7 1,

606

1,52

4 24

0 8,

027

5,41

7 4,

387

3,81

6 3,

447

3,18

7 2,

991

2,83

7 2,

713

2,61

0 2,

524

2,45

0 2,

385

2,32

9 2,

278

1,88

6 1,

640

1,48

8 1,

396

m

05.0

4.03

Page 275: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

Einführung in die Statistik 4.4.03 Index - 1

Index

Der Index enthält Begriffe aus dem methodischen Textteil (also nicht aus allen Beispielen und Anwendungen) und aus dem Anhang, aber nicht aus den Exkursen. Für jedes Stichwort sind nur die wichtigsten (nicht alle) Textstellen aufgeführt, an denen es erwähnt wird.

Ablehnungs-Bereich 14-2 - ML-Schätzung Äquivalenz, asymptotische 22-12 Borel-Menge Alternative 14-1 alternative Hypothese 14-1 Cauchy-Verteilung 1-2 9-12 Ü-9

Alternative- Cauchy-Verteilungsmodell Ü-8

- benachbart 22-5 Chebychev-Intervall 3-9

- lokale 22-5 Chebychev-Konfidenzintervall 3-9

Anpassungstest 22-1 23-1 Chiquadrat-Anpassungstest

asymptotisch effizient 12-7 22-4 22-15 23-1 23-3

asymptotische Chiquadrat-Verteilung 5-5 Ü-2 T-5

- Äquivalenz 22-12 - nichtzentrale Ü-14

- Existenz 11-3 Cochran 's Regel 22-13

- Irrtumswahrscheinlichkeit 3-8 Cramkr-Rao-Schranke 12-3

- Konfidenzgrenze 3-7 4-7 6-5 11-8 Cramkr-Rao-Ungleichung 12-3

- grob 4-11 - Poisson 5-6

- Normalverteilung 11-4 - obere Grenze

- Binomial 4-9 - Poisson 5-7 Ü-4

- Schärfe 16-9 - Sicherheit 3-8 - untere Grenze

- Binomial 4-18 - Poisson 5-29 Ü-4

asymptotischer - Gauß-Test 17-6 - Likelihood-Quotienten Test 18-4 - Test einer Wahrscheinlichkeit 17-14 asymptotisches Fehlerrisiko 16-9 asymtotische Existenz 10-10

balancierte Umfänge 20-3 balancierter Fall 21-8 balanciertes Design 20-8 benachbarte Alternativen 22-5 Bernoulli-Verteilung 4-1 Bias 12-2 Bildmaß 1-1 Binomial-Grenzwertsatz 4-7 Binomial-Verteilung 4-1 9-6 Ü-1 - zentrales Moment Ü-7 Binomial-Verteilungsmodell

1-2 1-8 9-3 15-6 21-1 22-8

Dichte 8-5 Dichte-Modell 14-1 Dichte-Quotient 15-2 Differenz von Erwartungswerten 19-8 diskret (verteilt) 1-1 diskrete Verteilung 8-4

E(-) Erwartungswert 1-1 effektives Testniveau 17-2 effizienter Schätzer 12-6 Effizienz 12-6 Ein-Stichproben-Modell 19-2 einfache Hypothese 14-1 empirische Verteilung 7-1 7-2 empirische Verteilungsfunktion 7-1 empirisches Moment 8-6 empirisches zentrales Moment 8-6 Entscheidungsfunktion 14-2 Ereignisse 1-1 Ergebnisraum 1-1 erwartungstreu 1-4 2-1 2-2 10-9 Erwartungswert 1-1 - Konfidednzgrenze 3-1 - Poisson-Verteilung Ü-16 - quadratische Form 2-3 - Test 16-1 - Schätzung 1-1 - Vergleich 19-1 20-1

Page 276: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

Einführung in die Statistik 4.4.03 Index - 2

exakte obere Konfidenzgrenze - Binomial 4-1 - Poisson 5-1 exakte untere Konfidenzgrenze - Binomial 4-3 - Poisson 5-3 exakter Test - einseitig 17-3 17-8 - einer Wahrscheinlichkeit 17-3 17-10 exakter zweiseitiger Test 17-9 exaktes Konfidenzintervall- - Binomial 4-4 - Poisson 5-4 Existenz, asymptotische 11-2 11-3 Exponential-Familie

9-3 9-4 10-7 10-12 12-7 15-5 Ü-10 - ML-Schätzung 10-3 10-7 Exponential-Verteilung Ü-13 - mit Shift Ü-13

F-Verteilung 4-6 T-8 falsch-negativ 14-2 falsch-positiv 14-2 Fehlentscheidung 14-2 Fehler 1. Art 14-2 Fehler 2. Art 14-2 Fehlerrisiko 1. Art 14-3 Fehlerrisiko 2. Art 14-3 Fehlerrisiko - asymptotisches 16-9 - maximales 14-3 Fisher-Information 10-11 11-5 11-7 12-2 12-5

Gamma-Verteilung 9-11 10-11 13-2 Ü-2 Ü-8 Gamma-Verteilungsmodell 1-3 1-9 9-3 Gauß-Test Ü-12 - asymptotischer 17-6 - einseitig

- asymptotisch 20-5 21-6 - oberer 14-5 14-6 - unterer 14-8 - Wahrscheinlichkeit 17-7 17-8 17-9

- zweiseitig 14-9 - zweiseitig asymptotisch 20-5 21-6 geordnete Stichprobe 7-2 gleichmäßig schärfster Test 15-1 Gleichverteilung: diskrete 23-7 Glivenko-Cantelli, Theorem 7-3

Hypothese 14-1

iid 1-3 integrierbar 1-1 Intervall-Schätzer 3-1 Invarianz der ML-Schätzung 10-3 Inverse einer Verteilungsfunktion Ü-7 Irrtumswahrscheinlichkeit 3-1 - asymptotische 3-8

kanonischer Parameter 9-5 Konfidenzgrenze 11-9 - asymptotische 4-7 6-5 11-8 - Erwartungswert 3-1 3-7 - Erwartungswert-Differenz 19-8 20-10 - Normalverteilung 6-1 6-2 - Poisson-Modell Ü-4 - Poisson-Verteilung 5-1 5-11 Ü-4 - untere 16-4 - Varianz 6-6 - Wahrscheinlichkeits-Differenz. 21-10 - Wahrscheinlichkeit 4-1 17-4 17-7 Konfidenzintervall 3-1 3-9 6-6 11-8 11-9 - Normalverteilung 3-5 - zweiseitig 16-8 konservativ 4-3 5-2 konservativer Test 17-2 17-3 konservatives Konfidenzintervall 3-9 Konsistenz 11-2 11-6 - ML-Schätzer 11-4 - schwache 1-5 - starke 1-5 2-1 2-3 10-10 Konsumententest Ü-11 Konvergenz nach Wahrscheinlichkeit Ü-2 konvex 9-1 kritischer Bereich 14-2 Kumulante Ü-10 Kumulanten-Funktion 9-5

Likelihood 10-1 Likelihood-Funktion 10-1 Likelihood-Gleichung 10-3 Likelihood-Quotient 15-2 18-1 18-2 18-3 - asymptotische Verteilung 18-4 - monotoner 15-3

Hardy-Weinberg Gleichgewicht 22-16 homogene Varianzen 19-3

Page 277: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

Einführung in die Statistik 4.4.03 Index - 3

Likelihood-Quotienten - Abstand 22-9 - Anpassungstest 22-10 22-15 23-3 - asymptotisch 18-4 - Statistik 22-9 22-14 - Test 15-3 18-1 18-2 19-4 - Transformierte 15-3 Likelihood-Variable 10-2 lineare Hypothese 18-4 Logit-Skala 9-7 Logit-Transformation 9-6 lokale Alternative 22-5 LQ = Likelihood-Quotient 18-1

maximales Fehlerrisiko 14-3 Maximum-Likelihood - Schätzer 11-1 - Schätzung 10-1 10-3 22-2 Mean Square Error 12-2 Median 8-1 - Schätzung 8-1 Mindestumfang 17-13 20-7 21-8 22-8 - t-Test 16-12 Mittelwert, standadisierter 1-7 Mittelwert, Verteilung 1-6 mittlerer quadratischer Fehler 12-2 ML = Maximum-Likelihood 10-1 - Schätzer 10-2 10-9 - Schätzfolge 11-4 - Schätzfunktion 10-2 - Schätzung 10-1 10-8

- Normalverteilung Ü-10 Moment 8-6 13-1 - Schätzung - zentrales Momenten-Schätzer 13-1 monotoner Likelihood-Quotient 15-3 MP Test 15-1 Multinomial-Verteilung 22-1 23-1 Multinomial-Verteilungsmodell 22-1

natürliches Niveau 17-2 Neyman-Pearson Lemma 15-2 Neyman-Pearson Test 15-2 18-3 nichtzentrale Chiquadrat-Verteilung Ü-14 Nichtzentralität 14-6 16-2 19-6 Niveau 14-3 - natürliches 17-2 - nominelles 17-2 17-3 nominelles Niveau 17-2 17-3

Normalverteilung 9-9 13-3 23-6 Ü-10 T-1 T-3

- Konfidenzgrenzen 3-3 Normal-Verteilungsmodell

1-2 1-9 6-1 9-2 15-6 19-3 Normalengleichung 10-8 Nullhypothese 14-1

obere Konfidenzgrenze - Erwartungswert 3-7 - Normalverteilung 3-5 6-3 Order-Statistik 7-2 orthonormale Transformation 6-2

P- Wert 17-3 Parameterraum 9-1 parametrisches (Vertei1ungs)Modell 9-1 Pearson-Abstand 22-3 Pearson-Statistik 22-3 22-14 Poisson-Grenzwertsatz 5-6 Poisson-Verteilung 5-1 9-8 Ü-8 Ü-16 - exakte Konfidenzgrenze Ü-4 - Konfidentintervall Ü-4 Poisson-Verteilungsmodell 1-2 1-8 9-3 15-6 - ML-Schätzung 10-6 Power 14-2 Power-Divergenz-Statistik 22-16 Produzententest Ü-11 Punkt-Schätzer 3-1

quadratische Form 2-3 Quantil - Binomialverteilung 17-3 - Chiquadrat-Verteilung 5-5 T-5 - F-Verteilung 4-6 T-8 - Normalverteilung T-3 - Schätzung 8-1 8-3 - Standard-Normalverteilung 3-4 - t-Verteilung 6-3 6-5 T-3 Quasi-Inverse, Verteilungsfunktion Ü-7

randomisierter Test 17-2 17-4 Realisierung 1-3 Regularitätsbedingung 11-1 1-4 12-1 relative Häufigkeit 1-8

Schärfe - asymptotische - einseitige - Gauß-Test - zweiseitige

Page 278: Einführung in die Statistik - FB3 - Uni Bremenosius/download/lehre/Skripte/Statistik/Osius... · Einführung in die Statistik 2.8.06 Vorwort - 2 eine Bestimmung von Mindest-Stichprobenumfängen

Einführung in die Statistik 4.4.03 Index - 4

Schärfefunktion 14-2 schärfster Test 15-1 Schätzen 2-1 Schätzer 1-4 12-1 - effiezinter 12-6 Schätzgröße 1-4 Schiefe Ü-1 - Schätzung Ü-1 Score-Statistik 11-5 12-1 Score-Variable 11-4 12-4 Scores, asymptotische Normalität 11-6 Sicherheit 3-1 - asymptotische 3-8 Signifikanzniveau 17-3 statistischer Test 14-1 14-2 StatLab-Auswahl 20-12 20-13 SL-2 SL-3 StatLab-Daten SL-1 stetig (verteilt) 1-2 stetige Verteilung 8-5 Stichproben-Anteile 20-3 20-8 21-3 21-4 Stichproben-Median 8-2 Stichproben-Modell 1-3 Stirlingsche Formel Ü-6 Student's Test, einseitig 16-3 Symmetrie Ü-1 symmetrische Verteilung Ü-1

t-Test - asymptotische Eigenschaften 16-8 - einseitig 19-7

- oberer 16-2 16-3 16-6 - Schärfe-Approximation 16-10 - Versuchsplanung 16-11 - zweiseitig 16-7 19-4 19-6 t-Verteilung 6-3 Ü-6 T-3 Test 14-1 14-2 16-1 - exakter 17-3 - konservativ 17-2 - randomisiert 17-2 17-4

untere Konfidenzgrenze - Erwartungswert 3-7 - Normalverteilung 3-5 6-3 unverfälscht 1-4

Varianz 1-2 - quadratische Form 2-3 - Schätzung 2-1

- Normalverteilung 6-1 Varianzfunktion 21-1 Verfälschung 12-2 Versuchsplanung 17-11 17-13 22-8 Ü-12 - t-Test 16-11 - einseitiger Test 20-7 21-8 - zweiseitiger Test 20-9 21-9 Versuchsplanungs-Box 17-15 Verteilung 1-1 - empirische 7-2 - von Quadraten Ü-2 Verteilungsfunktion 7-1 8-4 8-5 - empirische 7-1 - Normalverteilung T-1 - Schätzung 7-1 Vertrauensgrenze 3-1 Verzerrung 12-2

Wahrscheinlichkeit - asymptotischer Test 17-14 - einseitig, Gauß-Test 17-7 17-8 - exakter Test 17-3 17-8 17-10 - Gauß-Test 17-7 17-8 17-9 - Testen 17-1 - Vergleich 21-1 - zweiseitig, Gauß-Test 17-9 - zweiseitiger Test 17-9 Wahrscheinlichkeitsmaß 1-1 Wahrscheinlichkeitsvektor 22-1 22-13 Weibull-Verteilung Ü-13 Wiederholungen 1-3 9-2 10-7

Test-Box 1 17-10 17-14 zentrales Moment 8-6 13-1 Ü-1 Ü-10 Testfunktion 14-4 - Binomialverteilung Ü-7 Testniveau, effektives 17-2 Zufallsvariable 1-1 Testproblem 14-1 Zufallszahl 17-5 Testschärfe, Approximation 17-11 zusammengesetzte Hypothese 14-1 Teststatistik 14-4 Zwei-Stichproben-Modell 19-2 Testwert 14-4 - Binomial 21-1 Träger 9-3 10-2

UMP Test 15-1 Umparametrisierung 9-4 10-3 18-3