Einf¨uhrung in die Statistik - soil.tu-bs.de · Vorwort Dies ist kein Lehrbuch. Dieses Skript...

73
Einf ¨ uhrung in die Statistik Skript zur Vorlesung an der Universit¨ at Bayreuth SS 1999 c Dr. rer. nat. habil. Wolfgang Durner

Transcript of Einf¨uhrung in die Statistik - soil.tu-bs.de · Vorwort Dies ist kein Lehrbuch. Dieses Skript...

Einf uhrung in die Statistik

Skript zur Vorlesungan der Universit¨at Bayreuth

SS 1999

c Dr. rer. nat. habil. Wolfgang Durner

Vorwort

Dies ist kein Lehrbuch.

Dieses Skript enth¨alt weder Abbildungen, noch Beispiele, noch Erl¨aute-rungen zu einzelnen Sachverhalten, nochUbungen, und auch keine statisti-schen Tabellen. All dies findet man in Lehrb¨uchern, von denen im Bereichder einfuhrenden Statistik und Chemometrie gen¨ugend hervorragende Bei-spiele existieren.

Wozu also ¨uberhaupt ein Skript?Der primare Zweck des Skripts liegt darin, eine Orientierungshilfe darzu-stellen. Es soll den Aufbau der Veranstaltung ¨ubersichtlich und klar zu zei-gen, und die Inhalte straff, aber vollst¨andig aufzuf¨uhren. Das Skript befreitdie TeilnehmerInnen von einem Großteil der standardm¨aßigen Mitschrift,so daß mehr Aufmerksamkeit auf das Verst¨andnis der Vorlesung und auf dieNotation von Besonderheiten und speziellen Hinweisen verwendet werdenkann. Daruberhinaus kann das Skript von denjenigen, die den Stoff verstan-den haben, als Formelsammlung verwendet werden.

Der Aufbau dieses Kurses folgt nicht einem einzelnen Lehrbuch. Der gr¨oßteTeil basiert auf den Lehrb¨uchern von Khazanie [16], K¨ohler et al. [17],Sachs [25] und Kreyszig [19]. Die Passagen ¨uber Nachweis- und Erfas-sunsgsgrenzen wurden aus dem Buch von Einax et al. [9] ¨ubernommen.

Das vorliegende Skript ist ein Entwurf und wird somit Fehler aufweisen.Es ist zudem recht heterogen aufgebaut: zu den meisten Themen sind nurdie Stichworte aufgef¨uhrt, einige wenige andere Bereiche – etwa der Um-gang mit Meßfehlern - wird etwas ausf¨uhrlicher und subjektiv kommen-tiert. Ich hoffe dennoch, daß es die ihm zugedachte Rolle erf¨ullen kann.Fur Resonanz und kreative Verbesserungsvorschl¨age bin ich empf¨anglichund dankbar.

Bayreuth, im April 1999Wolfgang Durner

i

Inhaltsverzeichnis

1 Einfuhrung 1

1.1 Was ist Statistik ? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1

1.2 Motivation - Statistik als Werkzeug . . . . . . . . . . . . . . . . . . . . . . 1

1.3 Begriff und Gliederung der Statistik . . . . . . . . . . . . . . . . . . . . . 2

2 Beschreibende Statistik 4

2.1 Ordnen und Organisieren von Daten . . . . . . . . . . . . . . . . . . . . . 4

2.1.1 Grundgesamtheit, Stichprobe, Merkmalsauspr¨agung . . . . . . . . 4

2.1.2 Skalenniveaus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5

2.1.3 Haufigkeiten und H¨aufigkeitsverteilungen. . . . . . . . . . . . . . 5

2.1.4 Klassifizieren von Daten . . .. . . . . . . . . . . . . . . . . . . . 5

2.2 Maßzahlen zur Charakterisierung von Verteilungen. . . . . . . . . . . . . 7

2.2.1 Momente und Zentralmomente . . . . . . . . . . . . . . . . . . . . 7

2.2.2 Lagemaße . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

2.2.3 Streuungsmaße . .. . . . . . . . . . . . . . . . . . . . . . . . . . 8

2.2.4 Schiefe und W¨olbung . . . . . . . . . . . . . . . . . . . . . . . . 8

2.3 Darstellung univariater Stichproben . . . . . . . . . . . . . . . . . . . . . 9

2.3.1 Tabellen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

2.3.2 Grafische Darstellung von Daten . . . . . . . . . . . . . . . . . . . 10

2.3.3 Histogramm . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10

2.3.4 Empirische Verteilungsfunktion. . . . . . . . . . . . . . . . . . . 11

2.3.5 Box-und-Whisker-Plot. . . . . . . . . . . . . . . . . . . . . . . . 12

2.4 Charakterisierung und Darstellung von Zusammenh¨angen . . . . . . . . . . 14

2.4.1 Bivariate H¨aufigkeitsverteilungen, Scatterdiagramme. . . . . . . . 14

2.4.2 Maßzahlen f¨ur Zusammenh¨ange: Kovarianz und Korrelation . . . . 14

2.4.3 Regression. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15

3 Wahrscheinlichkeiten und W.-Verteilungen 18

3.1 Grundbegriffe der Wahrscheinlichkeitsrechnung. . . . . . . . . . . . . . . 18

3.1.1 Experiment, Zufallsexperiment, Ereignis, Ereignisraum . . . . . . . 18

3.1.2 Moglichkeiten: Permutation und Kombination . . . . . . . . . . . . 19

3.1.3 Der Wahrscheinlichkeitsbegriff . . . . . . . . . . . . . . . . . . . 20

3.2 Wahrscheinlichkeitsverteilungen von Zufallsvariablen . . . . . . . . . . . . 21

ii

3.2.1 Zufallsvariable, Verteilungsfunktion, Wahrscheinlichkeitsdichte . . 21

3.2.2 Maßzahlen von Wahrscheinlichkeitsverteilungen . . . . . . . . . . 22

3.2.3 Rechenregeln f¨ur Erwartungswerte . . .. . . . . . . . . . . . . . . 23

3.2.4 Binomialverteilung . . . . . . . . . . . . . . . . . . . . . . . . . . 23

3.2.5 Poissonverteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . 25

3.2.6 Normalverteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . 26

3.2.7 Testverteilungen .. . . . . . . . . . . . . . . . . . . . . . . . . . 29

3.3 Wahrscheinlichkeitsverteilungen als theoretische Modelle empirischerHaufigkeitsverteilungen . .. . . . . . . . . . . . . . . . . . . . . . . . . . 30

4 Messungen und Fehlerbehandlung 34

4.1 Datenerhebung und Verarbeitung . . . . . . . . . . . . . . . . . . . . . . . 34

4.1.1 Kriterien fur Messungen . . .. . . . . . . . . . . . . . . . . . . . 34

4.2 Fehler, Ausreißer und Fehlende Werte . . . . . . . . . . . . . . . . . . . . 34

4.2.1 Fehler bei Messungen. . . . . . . . . . . . . . . . . . . . . . . . 35

4.2.2 Fehler- und Ausreißerdetektion . . . . . . . . . . . . . . . . . . . 36

4.2.3 Ausreißertests . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37

4.2.4 Fehlende Daten . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38

4.2.5 Fehlerfortpflanzung . . . . . . . . . . . . . . . . . . . . . . . . . . 38

4.3 Parametersch¨atzung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41

4.3.1 Kriterien fur Parametersch¨atzung . . . . . . . . . . . . . . . . . . 41

4.3.2 Sch¨atzmethoden .. . . . . . . . . . . . . . . . . . . . . . . . . . 41

4.3.3 Punktsch¨atzung fur Populationsparameter. . . . . . . . . . . . . . 42

4.3.4 Konfidenzintervalle . . . . . . . . . . . . . . . . . . . . . . . . . . 43

5 Tests 45

5.1 Grundlagen statistischer Tests. . . . . . . . . . . . . . . . . . . . . . . . 45

5.2 Parametrische Tests . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47

5.2.1 t-Testzum Vergleich eines Mittelwerts mit einem theoretischen Wert . . . 47

5.2.2 F-Test . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47

5.2.3 t-Testzum Vergleich der Mittelwerte unabh¨angiger Stichproben . . . . . 48

5.2.4 t-Testzum Vergleich der Mittelwerte verbundener Stichproben . .. . . . 48

iii

5.2.5 t-Testzur Prufung des Korrelationskoeffizienten . . . . . . . . . . . . . . 49

5.2.6 �2-Anpassungstestzum Vergleich von beobachteten mit erwarteten H¨aufigkeiten . . . 49

5.2.7 Kolmogorov-Smirnov-Anpassungstestzum Vergleich von beobachteten mit erwarteten Verteilungen . . . 50

5.3 Nichtparametrische Tests . . . . . . . . . . . . . . . . . . . . . . . . . . . 50

5.3.1 Vorzeichentest (Two Sample Sign Test)zum Vergleich zweier Mittelwerte verbundener Stichproben. . . . 51

5.3.2 Wilcoxon-Testzum Vergleich zweier Mittelwerte verbundener Stichproben. . . . 52

5.3.3 U -Testzum Vergleich zweier Mittelwerte unverbundener Stichproben . . . 52

6 Analysen 54

6.1 Korrelationsanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54

6.2 Regressionsanalyse. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56

6.3 Varianzanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59

7 Chemometrische Anwendungen 60

7.1 Prazision, Richtigkeit und Genauigkeit von Meßverfahren . . . . . . . . . 60

7.2 Statistische Beurteilung von Analyseverfahren . . . . . . . . . . . . . . . . 61

7.2.1 Prufung der Varianzhomogenit¨at von Kalibrierfunktionen . . . . . . 61

7.2.2 Prufung der Linearit¨at der Eichgerade . . . . . . . . . . . . . . . . 62

7.2.3 Vertrauensbereiche um die Eichgerade .. . . . . . . . . . . . . . . 63

7.2.4 Nachweisgrenze . . . . . . . . . . . . . . . . . . . . . . . . . . . 64

7.2.5 Erfassungsgrenze .. . . . . . . . . . . . . . . . . . . . . . . . . . 65

7.2.6 Bestimmungsgrenze. . . . . . . . . . . . . . . . . . . . . . . . . 65

7.3 Ringversuche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66

iv

1 EINFUHRUNG 1

1 Einfuhrung

1.1 Was ist Statistik ?

Statistik ist ein elementaresWerkzeug, das ben¨otigt wird, um Daten zu erfassen, zu ordnenund zu prasentieren, und zu bewerten. Entscheidend beim Einsatz der Statistik ist hierbeider letztgenannte Punkt: sie dient nicht nur zur Ordnung, Reduktion und Beschreibung vonDatenmaterial, sondern vor allem zum objektiven Umgang mit Unsicherheiten. Dies kommtin der folgenden Definition von Statistik zum Ausdruck, in der die Suche nachwesentlichenund allgemeingultigen Zusammenh¨angen betont wird:

Statistik ist die Wissenschaft, die sich mit allgemeinen Regeln und Methodendes Erfassens, Verarbeitens, Darstellens und Auswertens von zahlenm¨aßigenInformationenuber Massenerscheinungen besch¨aftigt. Sie sucht nach wesent-lichen und allgemeing¨ultigen Erkenntnissen ¨uber Niveau, Struktur, Zusammen-hang und Entwicklung dieser Erscheinungen.

Die Anwendung der Statistik vorwiegend auf die Thematik eines speziellen Wissenschafts-gebietes brachte in der Vergangenheit neue wissenschaftliche Disziplinen wie Biometrie,Psychometrie, medizinische Statistik,Okonometrie,Okometrie etc. hervor. Diese Entwick-lungen spiegeln sich wider in der Herausgabe von Zeitschriften wie “Biometrika” (1901),“Psychometrika” (1936), “Technometrics” (1959). Die grundlegenden Methoden dieser -metrien sind dieselben. Unterschiede finden sich in der Ausrichtung und Gewichtung derangewandten statistischen Verfahren.

1.2 Motivation - Statistik als Werkzeug

Viele praktische Anforderungen an die Statistik bestehen im L¨osen von Aufgaben, bei denenUngewißheit eine Rolle spielt: solche Aufgaben k¨onnen sein:

� Beurteilen von (scheinbaren) Widerspr¨uchen

� Fallen von Entscheidungen in ungewissen F¨allen

� Filtern von Informationen

� Reduzieren von Ungenauigkeiten

� Finden optimaler Versuchsbedingungen

Im Bereich der Wissenschaft und Forschung muß die Statistik bei folgenden elementarenstatistische Prozessen eingesetzt werden:

� Hypothesenformulierung (empirisch)

� Hypothesenpr¨ufung

� Optimierung von Versuchsanordnungen

� Optimierung von Datenerfassung

� Versuchsauswertung

1 EINFUHRUNG 2

Ziel dieses Kurses

Dieser Kurs soll Ihnen zeigen, wie Sie mit wissenschaftlich fundierten statistischen Tech-niken Ihre Arbeitsweise verbessern k¨onnen und so Ihren Ergebnissen gr¨oßere Wirksamkeitverhelfen. Dabei werden Ihre analytischen und synthetischen Denkf¨ahigkeiten genauso ge-fordert, wie Ihr Vermogen, prazise zu formulieren.

Sie sollten Ihren Sachverstand schulen, wie sprachlich formulierte Aufgabenstellungenmoglichst prazise in einen Versuchsaufbau ¨ubersetzt werden k¨onnen. Und Sie sollten Ler-nen, gemessene Werte in eine ad¨aquat formulierte Aussage zu ¨ubersetzen. Konkret sollenSie am Ende diese Kurses

� statistische Annahmen erkennen, die einer gegebenen Analysensituation unterliegen

� geeignete Methoden zum Auswerten von Messungen und Testen von Hypothesenfinden konnen, und

� statistische Berichte anderer beurteilen und interpretieren k¨onnen.

1.3 Begriff und Gliederung der Statistik

� Objektder Statistik: Massenerscheinungen, die “zuf¨allige” oder “zufallsartige” Ele-mente enthalten.

� Verwendung des Begriffs=

8><>:

a) fur Ergebnis¨ubersichten

b) fur die Gesamtheit statistischer Methoden

Gliederung der Statistik

� Beschreibende Statistik(deskriptive-, deduktive-):Prasentation und Auswertung von Daten

� Beurteilende Statistik(schließende-, induktive-):Schlußfolgerungen ¨uber Grundgesamtheiten

DerUbergang von der beschreibenden zur schließenden Statistik erfolgt auf Basis von wahr-scheinlichkeitstheoretischenUberlegungen.

Weiterhin laßt sich die Statistik nach der Art des Datenmaterials, das statistisch verarbeitetwird, einteilen:

� univariateStatistik:Darstellung und Analyse der H¨aufigkeitsverteilungen eines Merkmals.

� bivariateStatistik:Darstellung und Analyse von Zusammenh¨angen zwischen zwei Merkmalen.

� multivariateStatistik Darstellung und Analyse von Beziehungen zwischen mehr alszwei Merkmalen.

1 EINFUHRUNG 3

“L ugt” die Statistik ?

� Vorbehalte gegen¨uber Statistik entstehen aus vors¨atzlichem Mißbrauch statistischerMethoden zum Zweck der Meinungsmanipulation. Ein solcher Mißbrauch ist nurmoglich, wenn die “Kunden” ¨uber die verwendeten statistischen Verfahren, ihreGrenzen und Voraussetzungen nicht Bescheid wissen, oder wenn Datenmaterial durchbewußtes Weglassen oder Erg¨anzungen manipuliert wird.

� Grundsatzlich immanente Unsicherheit: keine exakte Aussage ¨uber einenEinzelwertmoglich.

� Grundsatzlich kein Nachweis von Kausalzusammenh¨angen (“Statistik beweistnichts”)

Literaturhinweis:Huff [15] “How to lie with statistics”.

2 BESCHREIBENDE STATISTIK 4

2 Beschreibende Statistik

Die Berechnung von statistischen Kennwerten und die Anfertigung von Graphen und Ta-bellen sind ein unverzichtbarer Teil derprimaren Datensichtung. Die gebrauchlichsten sta-tistische Kennwerte f¨ur Datens¨atze umfassen den Mittelwert und die Standardabweichungfur jede Variable, die Korrelation zwischen Datenpaaren, sowie die Regressionsberechnung,wenn Variablen von einander abh¨angig sind.

2.1 Ordnen und Organisieren von Daten

2.1.1 Grundgesamtheit, Stichprobe, Merkmalsauspragung

� Grundgesamtheit(population) — Stichprobe (sample)(finit oder infinit ) (immer finit)

� Parameter (parameter) — Stat. Zahl (statistic)

� Individuum — Merkmal — Merkmalsauspr¨agung (auch: M.-Wert)

Der Grundgesamtheit gilt in der Regel das Interesse. Es ist entscheidend, daß sieklar und eindeutig abgegrenzt wird in sachlicher, r¨aumlicher und zeitlicher Hinsicht.

Die Stichprobesoll ein verkleinertes, repr¨asentatives Abbild der Gesamtheit darstel-len. Sie dient in der Regel zurAbschatzungder Eigenschaften der Grundgesamtheit.

Eigenschaften der Grundgesamtheit werden durchParameter gekennzeichnet, Ei-genschaften der Stichprobe, die zur Sch¨atzung der Parameter dienen, heißenStatisti-sche Zahl(oder kurz “Statistik”)

DasIndividuum (auch: statistische Einheit, Einzelobjekt, Einzelprobe, Element, Un-tersuchungseinheit) steht in der Statistik niemals im Zentrum des Interesses; es istjedoch der “Lieferant” der Einzelinformationen, diezusammendas Bild der Masse –des Untersuchungsobjekts – pr¨agen.

Merkmale sind die Eigenschaften des Individuums, die untersucht werden. Die kon-kreten Werte, die von Merkmalen angenommen werden k¨onnen, werden alsMerk-malsauspragungoder Realisierung bezeichnet.

� Typen von Merkmalsauspr¨agungen (Datentypen)

qualitativ — quantitativl

diskret — kontinuierlich

2 BESCHREIBENDE STATISTIK 5

2.1.2 Skalenniveaus

Skala Datentyp

Nominalskala Haufigkeiten

Ordinalskala Range

Intervallskala metrische Daten (Meßwerte)

Verhaltnisskala metrische Daten mit absolutem Nullpunkt

2.1.3 Haufigkeiten und Haufigkeitsverteilungen

� absolute H¨aufigkeitfi(frequency)

relative Haufigkeit f reli =fiPfi(relative frequency)

prozentuale H¨aufigkeitf%i

= f reli� 100

(proc. frequency)

� Haufigkeitsverteilung f(xi)

(frequency distribution)

� Summenh¨aufigkeit Fi =iX

j=1

fj(cumulative frequency)

� Haufigkeitssumme (= Stichprobenumfang)n =X

fi(sample size)

� Dichtefunktionf(x)(frequency density distribution)

� VerteilungsfunktionF (x) =

Zx

�1

f(�)d�

(cumulative frequency distribution)(auch: Summenh¨aufigkeitsfunktion)

2.1.4 Klassifizieren von Daten

Um die Haufigkeitsverteilung von kontinuierlichen Daten visualisieren zu k¨onnen, m¨ussendiese klassifiziert werden. Auch bei diskret verteilten Daten, die viele verschiedene Werteannehmen k¨onnen (so daß Einzelwerte nur in sehr geringen H¨aufigkeiten vorkommen), istdie Klassifizierung ein notwendiges Werkzeug, um die Verteilungsform darzustellen.

Ziel: Mit Minimum an Klassen ein Maximum an Information aus den Daten holen.

1. Scannen der Urdaten, um die SpannweiteV = xmax � xmin zu finden

2. Bestimmung der geeigneten Klassenzahlm

3. Festlegen der Klassengr¨oße (Klassenbreite)

4. Festlegen der Klassengrenzen und -mitten

2 BESCHREIBENDE STATISTIK 6

5. Finden der Klassenh¨aufigkeiten

Faustregel nachSturges:

� Klassenzahlm = 1 + 3:3 lg n

� Klassenbreitew =(xmax � xmin)

m

Beschreibung der klassifizierten Daten durchf undF .

HINWEIS: Zur Frage der Klasseneinteilungen beachte auch die Aussagen zur Konstruktion vonHistogrammen, Kap. 2.3.3

Transformieren von Daten

Standardisierung

Oftmals mussen vor der Anwendung statistischer Verfahren Datens¨atze (oder Teiledavon) einer Datentransformation unterzogen werden (um Voraussetzungen von sta-tistischen Verfahren zu gen¨ugen).

Die wichtigste Transformation ist die sogenannteStandardisierungvon Daten: Durcheine Lineartransformation werden die Daten auf eine Verteilung mit dem Mittelwert0 und der Varianz 1 transformiert:

z =x� �x

s

wobei�x = arithmetisches Mittel unds = Standardabweichung der Daten ist (vg. Kap.2.2).

Nichtlineare Transpormation

Um angen¨ahert normalverteilte H¨aufigkeitsverteilungen von Daten zu erlangen, wer-den diese oft nichtlinearen Transformationen unterzogen. Die in denOkowissen-schaften wichtigste Transformation ist hierbei die Logarithmierung von Originalda-ten, da Umweltdaten oft linkssteile H¨aufigkeitsverteilung aufweisen, oder Wertebe-reicheuber mehrere Gr¨oßenordnungen umfassen.

2 BESCHREIBENDE STATISTIK 7

2.2 Maßzahlen zur Charakterisierung von Verteilungen

Vorbemerkung:In diesem Kapitel werden Datens¨atze mit Hilfe statistischer Maßzahlen charakterisiert. Wirinteressieren uns an dieser Stelle nicht f¨ur eine Grundgesamtheit, die ¨uber den Datensatzhinaus geht. Wie zu verfahren ist, wenn die Maßzahlen der Grundgesamtheiten ¨uber Stich-proben gesch¨atzt werden, wird in Kapitel 4 behandelt werden.

2.2.1 Momente und Zentralmomente(moments and central moments)

� k-tes Moment ist definiert durchmk =1

n

nXj=1

xkj(moment about the origin)

� k-tes Zentralmoment ist definiert durchzmk =1

n

nXj=1

(xj � �)k

(moment about the mean)

2.2.2 Lagemaße(measures of central tendency)

� arithmetisches Mittel� = �x(= m1)

(mean)

� geometrisches Mittel�xgeo= npx1 � x2 � � � xn =

0@ nYj=1

xj

1A1=n

(geometric mean)

� harmonisches Mittel �xhar=1

1n

�1x1

+ 1x2

+ � � �+ 1xn

� =

0@n= nX

j=1

1

xj

1A

(harmonic mean)

� Modus (auch: Dichtemittel) �xmod= xi fur fi = max:

(mode)Der Modus zeigt die Lage der h¨ochsten Datendichte an. Bei kontinuierlichen Va-riablen muß er an gruppierten Daten erhoben werden. Wegen der dazu n¨otigen (aufverschiedene Weise m¨oglichen) Klassifizierung der Originaldaten ist der Modus einnicht ganz eindeutig festgelegtes Lagemaß.

� Median (auch: Zentralmaß) �xmed= x fur F (x) = 0:5(median)Der Median zeichnet den Wert aus, der in einer sortierten Reihe aller Daten genauin der Mitte liegt. Wenn originale Meßwerte zur Verf¨ugung stehen, so wird der derMedian an ungruppierten Daten erhoben.

Z =

8><>:

xn+1

2

fur ungeraden

12

�xn

2+ xn

2+1

�fur geraden

2 BESCHREIBENDE STATISTIK 8

� QuantileAllgemein: dasp-Quantil einer Verteilung ist der Wert, unterhalb dessen ein Anteilp

aller Beobachtungen liegt. Oft verwendete Spezialf¨alle sind dieQuartile

– Erstes QuartilQ1 = x fur F (x) = 0:25

– Zweites QuartilQ2 = x fur F (x) = 0:50

– Drittes QuartilQ3 = x fur F (x) = 0:75

Wird der Anteilp in % ausgedr¨uckt, so spricht man vomp-Perzentil. Perzentile ha-ben u.a. eine praktische Bedeutung in der Toxikologie bei der Grenzwertediskus-sion. Hohe Perzentile wie z.B. das 95-er oder 99-er Perzentil werden in der Um-weltuberwachung als Kennwerte f¨ur die Regelung von Grenzwerten eingesetzt. Hoheund niedrige Perzentilwerte sind wesentlich unempfindlicher gegen Ausreißer als esMaximalwerte bzw. Minimalwerte sind. Sie sind alsorobusteLagemaße.

2.2.3 Streuungsmaße(measures of dispersion)

� Variationsbereite V = xmax � xmin

(range)

� (Stichproben-)Varianz s2 =1

n� 1

nXi=1

(xi � �x)2 (= zm2)(variance)

� Standardabweichung � =p�2 bzw.s =

ps2

(standard deviation SD)

� Variationskoeffizient cv =�

�bzw.cv =

s

�x(coefficient of variation)

� InterquartilabstandIQ = Q3 �Q1

(interquartile range)

2.2.4 Schiefe und Wolbung

� Schiefe(skewness)

Sf =zm3

�3=

1

n� 1

X(xi � �x)3�

1

n� 1

X(xi � �x)2

�3=2

linkssteil – symmetrisch – rechtssteil

x > D x < D

Sf> 0 Sf< 0

2 BESCHREIBENDE STATISTIK 9

� Wolbung(kurtosis)

Ex =zm4

�4� 3

relativ zur Normalverteilung:

positiv – “normal” – negativ

Ex > 0 Ex = 0 Ex < 0

HINWEIS: Das arithmetische Mittel kann nur von metrischen Daten berechnet werden. Esgilt nicht fur ordinale Daten, f¨ur logarithmierte Werte (z.B. pH-Werte) oder f¨ur zirkulare Da-ten (z.B. Winkelangaben). Soll z.B. das arithmetische Mittel aus pH-Werten berechnet wer-den, so sind diese Werte zuerst zu delogarithmieren, dann wird das aritmetische Mittl darausberechnet. Das Ergebnis wird anschließend wieder logarithmiert, um den pH-Mittelwert zuerhalten. Dasselbe Ergebnis ergibt sich auch unmittelbar aus dem geometrischen Mittel derpH-Werte. Ein wesentliches Merkmal des arithmetischen Mittels ist seine Empfindlichkeitgegen¨uber einzelnen großen Zahlen (etwa Ausreißern). Demgegen¨uber stellt der Medianein sehr robustes Maß dar: seine Berechnung wird duch einzelne extreme Werte nicht be-einflußt. Bei schiefen Verteilungen besitzen Modus, Median und arithm. Mittel eine charak-teristische Abfolge (“Fechnersche Lageregel”). Der Median ist bei solchen Stichproben oftdas geeignetste Maß zur Charakterisierung der mittleren Tendenz.

2.3 Darstellung univariater Stichproben

2.3.1 Tabellen

Man sollte in Manuskripten Datenmaterial tabellarisch pr¨asentieren, wenn immer dies ir-gendwie sinnvoll m¨oglich ist. Die Anfertigung klarer, ¨ubersichtlicher Tabellen erfordert je-doch besondere Sorgfalt. Die folgenden Hinweise nachChatfield[6]) sind insbesondere f¨urTabellen zu beachten, bei denen Zahlenmaterial in Zeilen und Spalten pr¨asentiert wird:

1. Zahlen sollten auf zwei signifikante Ziffern gerundet werden. Es ist nur verwir-rend, wenn zu viele signifikante Ziffern gezeigt werden (wie es oft in Computer-ausdrucken der Fall ist). Standardm¨aßige Computerlisten m¨ussen deshalb f¨ur Prasen-tationszwecke ¨uberarbeitet werden.

2. Die Maßeinheiten stets mitauff¨uhren.

3. Mittelwerte der Zeilen und Spalten sollten mit aufgef¨uhrt werden, sofern dies Sinnmacht. Man ¨uberlege, ob in manchen F¨allen eher die Angabe des Medians oder derSpaltensumme n¨utzlich ist.

4. Die Abfolge von Variablen sollte sinnvoll gew¨ahlt werden. Sofern sich eine spezifi-sche Anordnung nicht anbietet, sollten die Variablen z.B. nach der Gr¨oße ihrer Wertegeordnet werden.

5. Es sollte stets gepr¨uft werden, ob die Umkehrung von Zeilen und Spalten zu einerubersichtlicheren Pr¨asentation f¨uhrt. Spalten sind leichter zu lesen als Zeilen. DieZahl der Zeilen sollte also gr¨oßer sein als die Zahl der Spalten.

2 BESCHREIBENDE STATISTIK 10

6. Fur das generelle Layout der Tabelle sollten die Abst¨ande von Zeilen und Spaltenoptimal gewahlt werden. Zu enge Abst¨ande wirken abschreckend, andererseits sollteein ubermaßiges Spreizen der Tabelle (um eine Seite auszuf¨ullen) vermieden werden.Zu große Abst¨ande zwischen Spalten sind generell schlecht. Bei einer sehr großenZahl von Spalten sollten Untergruppen gebildet werden, die durch gr¨oßere Abst¨andevoneinander getrennt sind.

7. Eine Tabelle soll einen selbsterkl¨arenden Titel besitzen.

2.3.2 Grafische Darstellung von Daten

Grafiken bilden die schnellste und beste Methodik, wenn es darum geht, einen qualitati-venUberblickuber (umfangreiches) Datenmaterial zu bekommen. Wenn umfangreiche Da-tensatze also durch Grafiken darstellbar sind, sollten sie in wissenschaftlichen Arbeiten auchso dargestellt werden. Tabellen haben dagegen den Vorteil, daß sieexaktesZahlenmaterialaufweisen. In Diplomarbeiten und Dissertationen ist es sinnvoll, Daten im Hauptteil gra-fisch zu prasentieren und die zugeh¨origen Tabellen in einen Anhang zu verlegen. G¨angigeDarstellungen sind:

� Stab- (Balken-, Block-) Diagramm

� Pictogramme (Vergleich absoluter H¨aufigkeiten)

� Komponenten Stabdiagramm (Vergleich relativer H¨aufigkeiten; insb. bei Platznot)

� Kreisdiagramm (Darstellung relativer H¨aufigkeiten)

� Histogramm (Haufigkeitsverteilung kontinuierlicher Variablen)

� Polygonzug (Zeitreihen; Darstellung bivariater Daten)

� stetiger Ausgleich (ev. gegl¨attet; zur Visualisierung von Trends)

� Wahrscheinlichkeitsplot (vergleichende Darstellung streuender Meßdaten)

� Boxplot (Datenreihen oder Vergleiche von streuenden Daten)

2.3.3 Histogramm

(Aus Ries [24], in Anlehnung an Nagel et al. [21], S. 37) Durch das Histogramm erh¨alt derAnwender eine Vorstellung von der H¨aufigkeitsverteilung der Daten. Erkennbar werden:der Wertebereich und die Form der Verteilung (symmetrisch, linkssteil, rechtssteil, ein- odermehrgipflig), Bereiche gr¨oßerer oder kleinerer Datenh¨aufigkeit, und die Variation der Wer-te in der untersuchten Datenmenge. Die Konstruktion des Histogramms beinhaltet wiederdas Problem, daß die Anwender die Klassenbreite bzw. die Klassenzahl und die Lage derKlassen vorgeben m¨ussen.

Erstellung eines Histogramms:

1. Die Flache des Histogrammbalkens muß proportional zur H¨aufigkeit sein. Aus die-sem Grunde kann nur bei konstanter Klassenweite der Wert der (Klassen)h¨aufigkeitals Ordinate verwendet werden.

2. Bei ungleicher Klassenweite (davon ist grunds¨atzlich abzuraten) verwendet man f¨urdie Hohen der Balkens die Klassenh¨aufigkeiten dividiert durch die Klassenweiten.Dieser Quotient wird auch Dichte der Klassenh¨aufigkeit genannt.

2 BESCHREIBENDE STATISTIK 11

3. Fur die Auswahl der Klassenbreite empfiehlt es sich, neben der Anzahl der Datenauch die Variabilitat der Daten zu ber¨ucksichtigen.

4. Die Klassenmitten werden mit Vorteil so gew¨ahlt, daß sie auf runde Zahlen fallen.

5. Wird das Histogramm mit dem Computer gezeichnet, so empfiehlt es sich, mehre-re Klassenzahlen durchzurechen und darzustellen. Die Anwender m¨ussen dabei ent-scheiden zwischen einer zu geringen Klassenzahl, die wesentliche Strukturen derHaufigkeitsverteilung nivelliert und einer zu hohen Anzahl von Klassen, die die ge-nerelle Struktur der H¨aufigkeitsverteilung nicht mehr erkennen l¨aßt.

Da jedes Histogramm nur eine m¨ogliche Darstellung der H¨aufigkeitsverh¨altnisse der Stich-probe ist, und es bisher kein Verfahren zur Bestimmung des am besten geeigneten Histo-gramms gibt, ist in Zweifelsf¨allen das wiederholte Durchrechnen verschiedener F¨alle eineMoglichkeit, mit der Anwender eine gr¨oßere Sicherheit ¨uber die Haufigkeitsstruktur deruntersuchten Daten gewinnen k¨onnen.

2.3.4 Empirische Verteilungsfunktion

Werden diekumulativenrelativen Klassenh¨aufigkeiten gegenx aufgetragen und durch eineTreppenlinie verbunden, so erh¨alt eine monoton ansteigende Funktion, die bei null beginnt,und beim Wert eins endet. Diese Funktion heißtempirische Verteilungsfunktionder klassi-fizierten Daten.

Erstellung der empirischen Verteilungsfunktion (ungruppierte Daten):

1. Es sein die Anzahl der Daten, so daß jeder Datenpunkt eine relative H¨aufigkeitfrel =1=n besitzt.

2. Man sortiere alle vorkommenden Werte der Gr¨oße nach.

3. Die Verteilungsfunktion besitzt vonx = �1 bis zum kleinsten Wertx = x1 denOrdinatenwerty = f(x) = 0. An der Stellex1 springtf(x) auf den neuen Werty = 1=n.

4. Zwischenx = x1 undx = x2 bleibt die Verteilungsfunktion beiy = 1=n, um dannan der Stellex = x2 wiederum um den Betrag�y = 1=n zu wachsen.

5. Diese Prozedur wird an allen Stellenxi wiederholt, so daß nach Passieren der St¨utz-stellex = xn die Ordinate den Wert 1 erreicht.

6. Vonx = xn bisx = +1 bleibt die Funktion auf dem Wert 1.

Die Verteilungsfunktion ist zur Charakterisierung der einer Verteilung und zum Ablesenvon robusten Lage- und Streuungsmaßen (Medien, Quartile, Perzentile, Interquartilabstand)ideal geeignet.

HINWEIS: Man beachte, daß im Gegensatz zum Histogramm die Verteilungsfunktion im-mer auf Basis derungruppierten(=Original-) Daten erstellt werden sollte! Liegen keineRohdaten, sondern bereits klassifizierte Daten vor, so sind die kumulativen H¨aufigkeiten je-weils am Intervallende der Klassen aufzutragen, und durch einen Polygonzug zu verbinden.

2 BESCHREIBENDE STATISTIK 12

2.3.5 Box-und-Whisker-Plot

Eine sehr komprimierte und n¨utzliche Darstellung der Verteilung von Daten ergibt sich inForm eines Box-und-Whisker-Plots. Im wesentlichen werden hierbei die Variationsweiteund Quartile in der folgenden Weise grafisch dargestellt:

1. Man zeichnet eine Ordinate, die die gr¨oßten und kleinsten vorkommenden Werte ab-deckt.

2. Man zeichnet rechts von der Ordinate ein Rechteck (box) vonQ1 bisQ3.

3. Der Median wird innerhalb des Rechtecks durch eine waagrechte Linie gekennzeich-net.

4. VonQ1 bis zum kleinsten Wert, und vonQ3 bis zum großten Wert werden durchge-zogenen Linien (whiskers =“Barthaare”) gezeichnet.

HINWEIS: Es existieren einige Varianten des Box-und-Whisker-Plots, bei denen diewhis-kers nicht die gesamte Spannweite abdecken, und einzelne Extremwerte als gesondertePunkte aufgetragen sind. Im Zweifelsfall sollte die Grafik kurz erkl¨art werden.

Manipulation durch grafische Darstellungen

� Verzerrung von Achsen

� Nicht-flachenproportionale Darstellung

� Unklare Pictogramme

Abschließende Bemerkungen zur graphischen Darstellung

Ein exzellentes Buch ¨uber statistische Grafiken istThe Visual Display of Quantitative In-formationvon [28]. In diesem Buch werden nicht nur Beispiele von guten und schlechtenGrafiken gezeigt, sondern zus¨atzlich erlautertwarumeine Abbildung gelungen oder warumsie mißraten ist.

Es ist eine traurige Tatsache, daß trotz der Offensichtlichkeit der Grundregeln f¨ur gute Gra-fiken diese in wissenschaftlichen Publikationen und in Vortr¨agen gern ignoriert werden,und dafur bunter Murks serviert wird. Zu diesen wenigen Grundregeln geh¨ort etwa, daßGrafiken und Tabellen klare, selbsterkl¨arende Titel haben, daß die Achsen mit Titeln undMaßeinheiten versehen sind, und daß alle Schriften und Zahlen gen¨ugend groß und in einemsinnvollen Format dargestellt werden.

Ein Grund fur das bestehende Qualit¨atsproblem mag darin liegen, daß Tabellen und Gra-fiken oft durch Computerprogramme produziert werden, die nicht automatisch erkennenkonnen, welches Zahlenformat zum Beispiel f¨ur eine Darstellung optimal ist. Es sollteselbstverst¨andlich sein, daß solche Outputs vor einer Pr¨asentation entsprechend bearbei-tet werden. Eine korrekte Darstellung der Verteilungsfunktion oder des Histogramms istz.B. in Tabellenkalkulationsprogrammen wie EXCEL nicht als voreingestelltes Grafikma-kro implementiert.

Ein weiterer Grund f¨ur die vielfaltige Verbreitung schlechter Grafiken liegt sicher in derLeichtigkeit, mit der durch Computerprogramme auf den ersten Blick beeindruckende Farb-

2 BESCHREIBENDE STATISTIK 13

oder 3D-Effekte herbeigezaubert werden k¨onnen. Solche Effekte f¨uhren jedoch in der Praxissehr schnell dazu, daß die essentielle Botschaft einer Grafik verschleiert wird. Sie solltendeshalb sehr sparsam und ¨uberlegt eingesetzt werden.

Wirklich gute Grafiken und Tabellen fallen nicht einfach vom Himmel (oder aus dem Com-puter), sondern m¨ussen mit Erfahrung und Gesp¨ur in Feinabstimmung erarbeitet werden.

2 BESCHREIBENDE STATISTIK 14

2.4 Charakterisierung und Darstellung von Zusammenhangen

2.4.1 Bivariate Haufigkeitsverteilungen, Scatterdiagramme

Analog zum univariaten Fall k¨onnen Daten klassifiziert und die resultierenden H¨aufigkeitenfij uber 3-D Balkengrafik oder 3-D Histogramm visualisiert werden. Moderne Grafikver-arbeitungssysteme bieten die M¨oglichkeit, diskrete oder kontinuierliche bivariate H¨aufig-keitsfunktionenf(x; y) dreidimensional abzubilden.

Eine bessere Alternative ist jedoch meist die zweidimensionale Abbildung, bei der dieHaufigkeit oder H¨aufigkeitsdichte ¨uber eine Farbcodierung (Grauf¨arbung in schwarz-weissDarstellungen) dargestellt wird.

Scatterdiagramm

Im Scatterdiagramm wird jedem Individuum im kartesischen Koordinatensystem ein Punktzugeordnet. Die Achsen des Systems sind die MerkmalsachsenX1 undX2 (bzw.X undY ). Die Lage der Punkte ergibt sich aus den Wertenx1 undx2 (bzw.x undy).

2.4.2 Maßzahlen fur Zusammenhange: Kovarianz und Korrelation

Kovarianz

Die Kovarianz�xy ist Maß fur den Zusammenhang zweier streuender VariablenX undY :

�xy =1

n

X(xi � �x)(yi � �y)

bzw.1

sxy =1

n� 1

X(xi � �x)(yi � �y)

Pearson’sche Produkt-Moment-Korrelation

Der Korrelationskoeffizient� (bzw. der empirische Korrelationskoeffizientr) ist ein Maß,das geeignet ist, einenlinearenZusammenhang zwischen den zwei Variablen zu quantifi-zieren.

linearer Korrelationskoeffizient� =�xy

�x � �y bzw. r =sxy

sx � symit �x bzw.sx : Standardabweichung der x-Werte

�y bzw.sy : Standardabweichung der y-Werte�xy bzw.sxy : Kovarianz der Variablen

Eigenschaften des linearen Korrelationskoeffizienten:

1Obwohl zwei Abweichungen miteinander multipliziert werden, und die Kovarianz ein Pendant zur Varianzist, schreiben wirsxy, und nichts2xy

2 BESCHREIBENDE STATISTIK 15

� Es gilt immer:�1 � r � 1

� Nur dann, wennr = 1 oderr = �1 liegen alle Punkte genau auf einer Geraden

� Das Vorzeichen vonr ergibt sich aus der Art des ZusammenhangsWennr > 0, dann ist die Korrelation positivWennr < 0, dann ist die Korrelation negativWennr = 0, dann sind die Stichprobenwerteunkorreliert

� Sind zwei Variablen voneinander unabh¨angig, so ist der Korrelationskoeffizient derGrundgesamtheit� = 0.

HINWEIS 1: Die Korrelation ist ein reines Zusammenhangsmaß f¨ur zwei Variablen. Siegehtnicht davon aus, daß eine der Variablen unabh¨angig, die andere abh¨angig ist.

HINWEIS 2: Soll der Korrelationskoeffizient einer bivariaten Stichprobe berechnet wer-den, so sind mindestens intervallskalierte Meßdaten erforderlich. F¨ur eine Interpretation imKontext der schließenden Statistik m¨ussen die Daten außerdem bivariat normalverteilt sein(siehe Kapitel 6.1). Sind die Daten nur ordinalskaliert, so kann der Spearman’sche Rang-korrelationskoeffizient berechnet werden.

Spearman’scher Rangkorrelationskoeffizient

Der RangkorrelationskoeffizientR verlangt zum einen nur ordinalskalierte Daten f¨ur X1

und X2, zum anderen braucht kein linearer Zusammenhang vorausgesetzt werden. Esgenugt Monotonie.

R = 1� 6Pd2i

n � (n2 � 1)

wobei

di Die Differenz desi-ten Rangplatzpaares

n Anzahl der untersuchten Individuen

i Laufindex

Fur n < 5 sollte keinRangkorrelationskoeffizient bestimmt werden, da er kaum Aussage-kraft besitzt.

2.4.3 Regression

Lineare Regression: Least-squares Anpassung

Die Darstellung einer linearen Relation zwischen zwei Variablen ist durch eine Geraden-gleichung m¨oglich.Wird eine Variabley als vonx abhangig definiert, so f¨uhrt die Anpassung einer Ausgleichs-geradeny(x) in das(x; y) -Datenfeld nach der Methode der kleinsten Quadrate (least squa-res fitting)

MinnXi=1

(yi � y(xi))2

2 BESCHREIBENDE STATISTIK 16

zur Regressionsgeradeny = a+ bx

mit den Koeffizientenb =

sxy

s2xund a = y � bx

Bemerkung: Wird die angepaßte Gerade nur als Beschreibung eines Zusammenhangs zwei-er Variablen angesehen, wobei nicht entschieden werden kann, welche von welcher alsabhangig anzusehen ist, so k¨onnen die Rollen vonx undy vertauscht werden. Man erkenne,daß die Geradex(y) = a2+ b2 y nichtmit der Geradeny(x) ubereinstimmt. Man spricht indiesem Zusammenhang auch von der “Schere der Regressionsgeraden”. Die Geradenstei-gungb2 =

sxy

s2y

hangt mit der Geradensteigungb uber die einfache Beziehungb � b2 = r2

zusammen.

Linearisierte Regression

Besitzen Daten einen Zusammenhang, der durch eine Datentransformation linearisiert wer-den kann, so kann die Lineare Regression f¨ur die linearisierten Daten durchgef¨uhrt werden.e-Funktionen,ln-Funktionen, Potenzfunktionen und Polynome werden oft durch lineareRegression gefittet.

VORSICHT: Da die least-squares Anpassungskriterien auf die transformierten Daten an-gewandt werden, k¨onnen teilweise ¨uberraschende oder unbeabsichtigte Ergebnisse erzieltwerden!

Im folgenden wird die Anpassung einers Polynoms zweiten Grades an ein Datenfeld gezeigt(nach [13], S. 49ff).

Fragestellung:

Gesucht werden die Koeffizientenao; a1 und a2 die den funktionellen Zusammen-hang zwischen einer unabh¨angigen VariablenX und einer abh¨angigenY nach fool-gender Gleichung beschreiben:

y = ao + a1 � x+ a2 � x2

Berechnung der Hilfsgroßen:

Qxx =X

x2i �1

n

�Xxi

�2

Qxy =X

(xi yi)� 1

n

�Xxi

���X

yi

Q3x =

Xx3i �

1

n

�Xxi

���X

x2i

2 BESCHREIBENDE STATISTIK 17

Q4x =

Xx4i �

1

n

�Xx2i

�2

Q2xy =

X�x2i yi

�� 1

n

�Xx2i

���X

yi

Berechnung der Koeffizienten:

a2 =Qxy �Q3

x �Q2xy �Qxx

(Q3x)

2 �Qxx �Q4x

a1 =Qxy � a2 �Q3

x

Qxx

a0 =1

n

hXyi � a1 �

Xxi � a2 �

Xx2i

i

Aufgrund der Streuung der Daten um die angepaßte Funktion stellt diese lediglich eineSchatzung dar, deren Pr¨azision durch dieResidualstandardabweichungsy ausgerdr¨ucktwird:

sy =

sP(yi � yi)

2

n� 3

Die Anzahl der Freiheitsgrade ergibt sich alsFG = n�3, da drei aus den Daten abgeleiteteGroßen(a0; a1; a2) in die Berechnung vonsy eingehen.

Nichtlineare Regression

Die nichtlineare Regression (Anpassung beliebiger Kurven an bivariate Datens¨atze) ist einBereich der mathematischen Disziplin “Nichtlineare Optimierung”. Verschiedene Optimie-rungsstrategien sind verf¨ugbar (“Steepest Descent”, “Newton”, “Levenberg-Marquardt”),die resultierenden Gleichungssysteme m¨ussen iterativ gel¨ost werden. Die Verfahren werdenz.B. in [22] naher beschrieben.

3 WAHRSCHEINLICHKEITEN UND W.-VERTEILUNGEN 18

3 Wahrscheinlichkeiten und W.-Verteilungen

Die Wahrscheinlichkeitsrechnung ist die Theorie von zuf¨alligen Ereignissen. Ein Basis-verstandnis der grundlegenden Wahrscheinlichkeitstheorie und einfacher Wahrscheinlich-keitsmodelle ist notwendig, um die Methodik statistischer Schließweise zu verstehen.Wahrscheinlichkeitsrechnung und Statistik sind komplement¨are Gebiete. W¨ahrend Stati-stik sich mit induktiver Schlußweise (DATEN�! MODELL) beschaftigt, untersucht dieWahrscheinlichkeitsrechnung diededuktiveSchlußweise (MODELL�! Verhalten des Sy-stems).

Es gibt einige philosophische Probleme bei der Frage dar¨uber, wie der Begriff “Wahrschein-lichkeit” genau aufzufassen ist, und wie mit ihnen gerechnet werden kann. VerschiedeneAuffassungen von Wahrscheinlichkeit umfassen gleichartige Wahrscheinlichkeiten (klass.Def.), relative Haufigkeiten in sehr langen Versuchsreihen (empirische Def. der Wahrschein-lichkeit), und einen subjektiven Wahrscheinlichkeitsbegriff. F¨ur eine Diskussion dieser Auf-fassungen wird auf die Literatur verwiesen ([8, 18]).

3.1 Grundbegriffe der Wahrscheinlichkeitsrechnung

3.1.1 Experiment, Zufallsexperiment, Ereignis, Ereignisraum

Experiment (experiment)= jeglicher Vorgang (Messung, Befragung, Beobachtung), der zu einem beobachtba-ren Ergebnis f¨uhrt (also sehr viel weiter gefaßt alssensu strictu).

deterministisch — stochastisch

Ein Vorgang istdeterministisch, wenn bei gegebenen Einflußgr¨oßen das Resultat ein-deutig und sicher prognostizierbar ist, und die Genauigkeit allein durch die Meßun-genauigkeit der Einflußgr¨oßen bestimmt ist.

In allen anderen F¨allen ist ein Vorgangstochastisch. Die Stochastikals Teilbereichder Statistik ist demnach die Theorie zuf¨alliger Vorgange. Sie schließt “zufallsartige”Vorgange mit ein.

Es kommt haufig vor, daß sich ein zufallsartiger Vorgang aus derUberlagerung einesstochastischen und eines deterministischen Vorgangs hervorgeht. Es l¨aßt sich dannein stochastischer Teil von einem deterministischen abspalten.2

Ereignisraum oder Ereignismenge(sample space)= Menge aller denkbaren (m¨oglichen) Ergebnisse; finit oder infinit. Der Ereignisraumumfaßt mindestens 2 Elemente.

Ereignis (event)= aktuelles Resultat eines Experiments. Untermenge der Ereignismenge. Ein Ele-mentarereignis besteht aus einem einzigen Element der Ereignismenge. Zusammen-

2In den Geowissenschaften ist das Problem der Gr¨oßenskala oft entscheidend daf¨ur, ob ein Vorgang als de-terministisch oder stochastisch behandelt werden muß. Auf kleiner Skala deterministische Prozesse werden alssubskalig aufgefaßt und f¨ur die Modellierung parametrisiert. Stochastisch verteilteSubskalige Prozessesteckendurch Mittelwertbildung im Datenmaterial; bei der Interpretation muß dies ber¨ucksichtigt werden.Supraska-lige Prozessedagegen k¨onnen Nichtstationarit¨at erzeugen und allm¨ahlich die Rahmenbedingungen ver¨andern.Literaturhinweis: [26].

3 WAHRSCHEINLICHKEITEN UND W.-VERTEILUNGEN 19

gesetzte Ereignisse k¨onnen aus Elementarereignissen kombiniert werden. Bei Wie-derholung eines Experiments beeinflussen sich die Ereignisse gegenseitig nicht.

Zufallsexperiment (random experiment)= Experiment, dessen Ausgang zufallsbehaftet ist. Der exakte Ausgang eines Zufalls-experiments ist also nicht exakt vorhersagbar, sondern besteht aus einer Ereignis-menge, deren einzelne Elemente (mit einer definierten Wahrscheinlichkeit) verifiziertwerden konnen.

Jedem Element einer diskreten Ereignismenge, und damit jedem Ereignis, l¨aßt sicheineWahrscheinlichkeitP (E) zuordnen, mit der es bei Ausf¨uhrung des Zufallsexpe-riments eintritt. Hierbei ist eineinfachesEreignis dadurch gekennzeichnet, daß nurein Element der Ereignismenge realisiert wird.

Ereignisse heißenunabhangig, wenn das Eintreffen des einen Ereignisses in seinerWahrscheinlichkeit durch das Eintreffen des anderen nicht beeinflußt wird.

3.1.2 Moglichkeiten: Permutation und Kombination

Fur zwei grundlegende Experimente sollen die Zahl der m¨oglichen Ereignisse dargestelltwerden:

1. PermutationSeienn Objekte gegeben. Die Anzahl der M¨oglichkeiten, daraus eine Untermengevon r Objekten zu entnehmen ist

k =n!

(n� r)!

2. Eine Anzahl vonr Objekten kann aufr! verschiedene Weisen angeordnet werden.

3. KombinationSeienn Objekte gegeben. Die Anzahl derverschiedenenUntermengen vonr Objek-ten, die daraus kombiniert werden k¨onnen, ist

k =n!

(n� r)! r!=

n

r

!

3 WAHRSCHEINLICHKEITEN UND W.-VERTEILUNGEN 20

3.1.3 Der Wahrscheinlichkeitsbegriff

� Klassische Fassung3

(Bernoulli, Laplace)

P (E) =nErfolg

ntotal

Voraussetzg.: alleP (E) sind gleichwahrscheinlich (a priori).

� A posteriori Fassung(Richard von Mises)Beruht auf der Beobachtung: Bei h¨aufigen Wiederholungen zeigen relative H¨aufig-keiten im allgemeinen eine auffallende Stabilit¨at

P (E) =dessen relative H¨aufigkeit in einer sehr großen Versuchsreihe

� Subjektive (a priori) Fassung(Savage)Die Wahrscheinlichkeit des zuf¨alligen EreignissesA ist eine auf Einsicht bzw. Erkent-nis einer oder mehrerer Personen beruhende Zahlenangabe ¨uber das voraussichtlicheEintreffen des entsprechenden Ereignisses.

� Axiomatische Fassung4 (Kolmogorow)

1. Die Wahrscheinlichkeit ist eine Zahl zwischen 0 und 1

0 � P � 1 Nichtnegativ

2. DasSichere Ereignishat die Wahrscheinlichkeit 1

P (S) = 1 Normierung

3. Die Wahrscheinlichkeit, daß von mehreren,sich paarweise einander aus-schließendenEreignissen, eines auftritt, ist gleich der Summe der Einzel-Wahrscheinlichkeiten

P (E1 [E2) = P (E1) + P (E2) Additivitat

4. Die Eintrittswahrscheinlichkeit eines zusammengesetzten Ereignisses ist beistochastischer Unabh¨angigkeit der Einzelereignisse gleich dem Produkt derEinzel-Wahrscheinlichkeiten

P (E1 \E2) = P (E1) � P (E2)

Produktdefinition der stochastischen Unabhangigkeit

3Die Wahrscheinlichkeit wird durch das Symbolp (probability) dargestellt4Axiom = Grundsatz, der keines Beweises bedarf. Axiome definieren die mathematischen Eigenschaften

der Wahrscheinlichkeit, nicht deren Wesen.

3 WAHRSCHEINLICHKEITEN UND W.-VERTEILUNGEN 21

3.2 Wahrscheinlichkeitsverteilungen von Zufallsvariablen

3.2.1 Zufallsvariable, Verteilungsfunktion, Wahrscheinlichkeitsdichte

� Zufallsvariable5 X

(random variable)

= Variable, die den Ausgang eines Zufallsexperiments charakterisiert, also alle Werteeines Ereignisraums annehmen kann (qualitativ oder quantitativ; diskret oder konti-nuierlich). Schreibweise: Die ZufallsvariableX nimmt mit einer bestimmten Wahr-scheinlichkeitP (xi) den Wertxi an. Die Wahrscheinlichkeiten, mit denen die Wertedes Ereignisraums angenommen werden, sind durch die Verteilungsfunktion (bzw.die Wahrscheinlichkeitsdichtefunktion oder die Wahrscheinlichkeitsfunktion) gege-ben. Ist eine ZufallsvariableX normalverteilt mit dem Mittelwert� und der Varianz�2 (siehe Kap. 3.5), so schreiben wirX � N(�; �2), wobei das Symbol� bedeutet‘ist verteilt’.

� Verteilungsfunktion F (x)

(cumulative distribution function, cdf)

Zur eindeutigen Festlegung einer Zufallsvariablen dient die Verteilungsfunktion; Siegibt die Wahrscheinlichkeit an, mit derX einen Wertkleiner oder gleichx annimmt:

F (x) = Prob(X�x)

Im Fall diskreter Zufallsvariabler ist die Verteilungsfunktion eine Treppenfunkti-on, die an den Stellenxi Sprungstellen besitzt, wobei die Sprungh¨ohen durchf(xi) gegeben sind. Aus den Axiomen der Wahrscheinlichkeitsrechnung ergibt sichzwangslaufig, die Verteilungsfunktion die Werte 0 bis 1 durchl¨auft.

� Wahrscheinlichkeitsfunktion f(x)

(probability distribution function)

Fur diskrete Zufallsvariable k¨onnen den verschiedenen m¨oglichen Werten des Ereig-nisraums zugeh¨orige Wahrscheinlichkeiten angegeben werden.

f(xi) = Prob(X=xi)

Die Wahrscheinlichkeitsfunktion ist f¨ur beliebigexi definiert und nimmt ¨uberall einenWert zwischen 0 und 1 an. Sie ist somit das theoretische Pendant zur (empirischen)relativen Haufigkeitsverteilung.

Zwischen Verteilungsfunktion und Wahrscheinlichkeitsfunktion besteht folgendefunktionale Beziehung:

F (x) =Xxi�x

f(xi)

5Konvention zur Schreibweise: Zufallsvariablen werden immer mit Großbuchstaben bezeichnet; EinzelneWerte ihres Wertebereichs dagegen mit Kleinbuchstaben (z.B. hat die ZufallsvariableX an irgendeiner Stellex eine bestimmte WahrscheinlichkeitP = Prob(X= x).)

3 WAHRSCHEINLICHKEITEN UND W.-VERTEILUNGEN 22

� Wahrscheinlichkeitsdichtef(x)(probability density function, pdf)

Eine stetige Zufallsvariable liegt dann vor, wenn die Variable in einem bestimmtenIntervall jeden beliebigen Wert annehmen kann. Die Angabe einer Wahrscheinlichkeitfur das Eintreten eines einzelnen WertesP (X = a) ist zwangslaufig immer Null(!); Wahrscheinlichkeiten k¨onnen immer nur f¨ur Intervalle angegeben werden (dienaturlich beliebig klein sein k¨onnen).

Die Wahrscheinlichkeitsdichte ist definiert als Ableitung der kontinuierlichen Vertei-lungsfunktionF (x).

f(x) =dF (x)

dx

Umgekehrt laßt sich die Verteilungsfunktion aus der Wahrscheinlichkeitsdichtefunk-tion durch Integration berechnen:

F (x) =

Zx

�1

f(�) d�

Die Wahrscheinlichkeit, daß ein Ereignis einen Wert zwischena und b (einschließ-lich) annimmt, ergibt sich aus:

P (a � X � b) = F (b)� F (a) =

Zb

a

f(�) d�

3.2.2 Maßzahlen von Wahrscheinlichkeitsverteilungen

Das arithmetische Mittel einer Zufallsvariablen (oder eines Ausdrucks, in dem eine solcheVariable involviert ist) heißtErwartungswert. Da Wahrscheinlichkeitsverteilungen als theo-retische Modelle f¨ur Grundgesamtheiten dienen, werden die gebr¨auchlichsten Maßzahlenanalog zu den Parametern von Grundgesamtheiten mit griechischen Buchstaben bezeich-net: Mittel�, Varianz�2, Standardabweichung�.

Fur die Berechnung von Mittelwert und Varianz von Wahrscheinlichkeitsfunktionen gilt

� diskrete Wahrscheinlichkeitsverteilungen

E(X) = � =X

xif(xi)

VAR(X) = E(X � �)2 = �2 =X

(xi � �)2f(xi)

� kontinuierliche Wahrscheinlichkeitsverteilungen

E(X) = � =

Z1

�1

xf(x)dx

VAR(X) = E(X � �)2 = �2 =

Z1

�1

(x� �)2f(x)dx

3 WAHRSCHEINLICHKEITEN UND W.-VERTEILUNGEN 23

3.2.3 Rechenregeln f ¨ur Erwartungswerte

Wenn man mitX bzw.X1, X2, : : : Xn verschiedene Zufallsvariable und mitk eine Kon-stante bezeichnet (k 6= 0), dann gelten folgende Regeln f¨ur Erwartungswerte:

1. E(X � k) = E(X)� k

2. E(X � k) = k � E(X)

3. E

nXi=1

Xi

!=

nXi=1

E (Xi)

E (X1 �X2) = E (X1)�E (X2)

4. E

nYi=1

Xi

!=

nYi=1

E (Xi) nur bei stochastischer Unabh¨angigkeit derXi

Fur Erwartungswerte des zweiten Zentralmoments (Varianzen) gelten folgende Rechenre-geln (seiVAR(X) = E

�(X � �)2

�):

1. VAR(X � k) = VAR(X) weil VAR(k) = 0

2. VAR(X � k) = k2 � VAR(X)

3. VAR

nXi=1

Xi

!=

nXi=1

VAR (Xi) nur bei stoch. Unabh¨angigkeit derXi

4. VAR (X1 �X2) = VAR(X1) + VAR(X1) + 2 � COVAR(X1;X2)

3.2.4 Binomialverteilung

Die Binomialverteilung wurde f¨ur Zufallsexperimente mit einem dichotomischen Ereignis-raum entwickelt. Es gibt bei praktischen Untersuchungen viele F¨alle, in denen der Ereig-nisraum aus zwei sich ausschließenden EreignissenA mit einer Eintreffwahrscheinlichkeitvon p undA einer Eintreffwahrscheinlichkeit vonq = (1 � p) besteht. Wird ein solchesExperiment oft (n mal) wiederholt, wobei der Ausgang jeweils unbeeinflußt vom letztenAusgang bleibt, so heißt diesBernoulli - Experiment:

1. Das Experiment besteht aus unabh¨angigen Ereignissen

2. Die Ereignisse sind entweder als Erfolg (success) oder Nichterfolg (failure) einzuord-nen

3. Die Erfolgswahrscheinlichkeit des einzelnen Ereignisses ist bekannt und bleibt w¨ah-rend des Experiments konstant

Die Wahrscheinlichkeitsfunktion f¨ur dieses Experiment wird durch die Binomialverteilungwiedergegeben:

In einem Binomial-Experiment mit einer konstanten Erfolgswahrscheinlichkeitp je Versuchist die Wahrscheinlichkeit vonxi Erfolgen bein Versuchen durch

f(xi) = P(xi Erfolge) =n!

xi! (n� xi)!� pxi � qn�xi

gegeben, wobeixi = 0,1,...,xn eine ganze Zahl, undq = 1� p die Wahrscheinlichkeit eineseinzelnen Mißerfolgs ist.

3 WAHRSCHEINLICHKEITEN UND W.-VERTEILUNGEN 24

Eigenschaften der Binomialverteilung

1. Die Binomialverteilung ist eine diskrete Verteilung, da die Ereignisse nur ganzzahligeWerte annehmen k¨onnen.

2. Die Binomialverteilung ist eine zweiparametrische Verteilung. Sie wird durchn=Umfang des Zufallsexperiments (bzw. der Stichprobe) undp = Wahrscheinlich-keit des Erfolges vollst¨andig beschrieben.

3. Die Binomialverteilung gilt nur f¨ur den Fall, daß die Wahrscheinlichkeitp bei allenRealisierungen des Zufallsexperiments gleich groß ist. Das ist bei unendlichen Ge-samtheiten und bei endlichen Gesamtheiten beim Ziehen mit Zur¨ucklegen der Fall.

4. Der Erwartungswert der Binomialverteilung istE(X) = � = n � p5. Die Varianz einer binomialverteilten Zufallsvariable istVAR(X) = n � p � q6. In Abhangigkeit von der H¨ohe der Wahrscheinlichkeitp bzw. der Gegenwahrschein-

lichkeit q verandert sich die Form der Binomialverteilung. Beip < 0:5 ist sielinkssteil, beip > 0:5 rechtssteil, beip = q = 0:5 symmetrisch. Beip = 0:5 undgroßenn nimmt die Binomialverteilung eine glockenf¨ormige Gestalt an.

7. Die Binomialverteilung kann unter bestimmten Bedingungen durch andere Verteilun-gen approximiert werden.

� Durch die Normalverteilung, wenn sowohl die Bedingungn �p5 als auchn �q >5erfullt ist.

� Durch die Poissonverteilung, wennp sehr klein undn groß ist, aber die Bedin-gungen zur Approximation durch die Normalverteilung nicht erf¨ullt sind.

8. Die grafische Darstellung der Binomialverteilung erfolgt mittels Stabdiagramm(Wahrscheinlichkeitsfunktion) und mittels Treppenfunktion (Verteilungsfunktion).

Die einzelnen Binomial-Wahrscheinlichkeiten sind f¨ur kleinen tabelliert. Zur Schreibwei-se:b(4;10;0:9) bedeutet Wahrscheinlichkeit von vier Erfolgen in einer Reihe von zehn Versu-chen mit der Erfolgswahrscheinlichkeit 0.9 .

3 WAHRSCHEINLICHKEITEN UND W.-VERTEILUNGEN 25

3.2.5 Poissonverteilung

Der franzosische MathematikerPoissonfuhrte diese Verteilung 1837 ein. Er leitete sie durchGrenzwertbetrachtungen aus der Binomialverteilung ab. Die Binomialverteilung strebt un-ter der Bedingung, daßp gegen Null undn gegen unendlich geht und der Mittelwert� = n�peinen endlichen Wert annimmt, gegen die Funktion

f(x) =�x

x!e�� fur x = 0; 1; 2; : : : ; n

Diese Funktion gibt f¨ur ein Zufallsexperiment, bei dem die Wahrscheinlichkeit eines be-stimmten Ereignissesp sehr klein, die Anzahl der Versuche aber sehr groß ist, an, mit wel-cher Wahrscheinlichkeit das Ereignis genaux mal eintritt.

Eigenschaften der Poissonverteilung

1. Die Poissonverteilung ist eine diskrete Verteilung.

2. Die Poissonverteilung ist eine einparametrische Verteilung. Sie wird durch�

vollstandig beschrieben.

3. Der Erwartungswert der Poissonverteilung istE(X) = � = n � p4. Die Varianz einer poissonverteilten Zufallsvariable ist gleich ihrem Erwartungswert:

VAR(X) = �2 = n � p5. Die Poissonverteilung ist wegen der kleinen Werte vonp stark linkssteil. Mit zuneh-

mendem Wert von� nimmt die Asymmetrie ab. F¨ur � > 7 ist sie nahezu symme-trisch.

6. Die Poissonverteilung ist eine gute Approaximationsverteilung f¨ur die Binomialver-teilung. Bein > 100 und p < 0:01 unterscheiden sich die Werte der Poisson- undder Binomialverteilung nur unwesentlich.

7. Die Poissonverteilung kann ihrerseits bei� > 7 durch die Normalverteilung approxi-miert werden.

8. Die grafische Darstellung der Poissonverteilung erfolgt mittels Stabdiagramm (Wahr-scheinlichkeitsfunktion) und mittels Treppenfunktion (Verteilungsfunktion).

Die Poissonverteilung liegt tabelliert vor (in vielen Lehrb¨uchern allerdings nur die Vertei-lungsfunktion).

3 WAHRSCHEINLICHKEITEN UND W.-VERTEILUNGEN 26

3.2.6 Normalverteilung

Die Normalverteilung ist die wichtigste Wahrscheinlichkeitsverteilung in der Statistik, weilbei vielen Anwendungen in der Praxis damit gerechnet werden kann, daß die Werte der un-tersuchten Grundgesamtheit ann¨ahernd normalverteilt sind, und weil die Normalverteilungals Approximation f¨ur andere (schwieriger zu berechnende) Verteilungen benutzt werdenkann. Weiterhin erw¨achst die ¨uberragende Rolle der Normalverteilung aus dem zentralenGrenzwertsatz der Statistik (s.u.).

Die Wahrscheinlichkeitsdichte(auch: Gauß’sche Glockenkurve) der Normalverteilung istallgemein durch den Ausdruck

f(x) =1

�p2�

� e� 1

2( x��

�)2

gegeben.

Eigenschaften der Normalverteilung

1. Die Normalverteilung ist eine stetige Wahrscheinlichkeitsverteilung.

2. Die Normalverteilung ist eine zweiparametrische Verteilung. Sie wird vollst¨andig be-schrieben durch den Mittelwert� und die Varianz�2 der ZufallsvariablenX.

3. Die Normalverteilung ist symmetrisch und hat eine glockenf¨ormige Gestalt.

4. Das Dichtemaximum liegt an der Stelle�.

5. Die Wendepunkte der W.Dichte liegen bei�� �.

6. Fur � = 1 ist das Dichtemaximumf(x) ' 0:4; je großer die Standardabweichungist, desto flacher wird die W.Dichte.

7. Die Flachenanteile unter der Normalverteilung nehmen f¨ur dasz-fache der Standard-abweichung folgende Werte an:

P(�� �) = 0.683

P(�� 2�) = 0.955

P(�� 3�) = 0.998

Ein Flachenanteil von 95% wird durch den Bereich� � 1:96� eingenommen, einAnteil von 90% durch den Bereich�� 1:65�.

Fur die praktische Arbeit ist die Normalverteilung mit dem Mittelwert� = 0 und derVarianz�2 = 1 tabelliert. Diese spezielle Verteilung heißtStandardnormalverteilung:

f(z) =1p2�

� e� z2

2

Die Transformation einer normalverteilten ZufallsvariablenX zu einer Standardnormalver-teilten VariablenZ erfolgt durch Standardisierung:

Z =X � �

�:

3 WAHRSCHEINLICHKEITEN UND W.-VERTEILUNGEN 27

Die Verteilungsfunktion der Normalverteilung ist durch das Integral der Wahrscheinlich-keitsdichte definiert:

F (z) =1

�p2�

�Z

z

�1

exp

��1

2(� � �

�)2�d�

Die Werte der Verteilungsfunktion der Standardnormalverteilung sind in allen Stati-stikbuchern tabelliert. Die Verteilungsfunktion kann durch

B =1

2

h1 + 0:196854jzj + 0:115194jzj2 + 0:000344jzj3 + 0:019527jzj4

i�4approximiert werden [2], wobeijzj den Absolutwert vonz bezeichnet undF (z) durch

F (z) =

8><>:

B fur z < 0

1�B fur z � 0

gegeben ist. Der Fehler f¨ur F (z) ist in dieser Approximation kleiner als 0.00025.

Zentraler Grenzwertsatz der Statistik

Der Grenzwertsatz der Statistik gilt als bedeutendster Satz der Wahrscheinlichkeitslehre.Auf ihm fußt die induktive Statistik:

Werden aus unabh¨angigen, identisch verteilten Grundgesamtheiten von belie-biger Verteilungsform mit dem Mittelwert� und der Varianz�2 Stichprobendes Umfangsn entnommen, so sind die Mittelwerte dieser Stichproben appro-ximativ normalverteilt mit�x = � und�2�x = �2

n.

Die Approximation wird besser mit wachsendemn. Die Mittelwerte sind auch bei kleinemn bereits normalverteilt, wenn sie einer normalverteilten Grundgesamtheit entstammen.

Die Standardabweichung

��x =

s�2

n=

1pn� �

heißtStandardfehler des Mittelwertsoder mittlerer Fehler.

Erzeugung normalverteilter Zufallswerte

Fur Simulationsstudienist es wichtig zu wissen, wie man auf einem Rechner Realisationennormalverteilter Zufallsvariabler erzeugen kann. In der Regel bieten Programmiersprachen(oder Programme) einen Zufallszahlengenerator, der unabh¨angige Realisationenxi einer imIntervall im Intervall[0 : : : 1] gleichverteilten Zufallsgr¨oße bereitstellt. Bildet man nun

y =

nXi=1

xi � n

2pn=12

3 WAHRSCHEINLICHKEITEN UND W.-VERTEILUNGEN 28

so hat man es – wegen der G¨ultigkeit des zentralen Grenzwertsatzes – f¨ur genugend großesnnaherungsweise mit der Realisation einerN(0; 1)-verteilten Zufallsgr¨oße zu tun. Oft reichtdabei schonn = 12 aus, so daß

y =12Xi=1

xi � 6

ist. Allerdings konnen hierbei keine Extremwerte auftauchen da�6 � y � 6 gilt. Eineweitere Moglichkeit zur Erzeugung vonX � N(0; 1) findet sich z.B. inHartung, S. 147.

Aufgrund der Bedeutung der Normalverteilung in der Statistik sei dieser Abschnitt mit eineretwas ungew¨ohnlichen approximativen Darstellung ihrer Dichteverteilung abgeschlossen:

THE

NORMAL

LAW OF ERROR

STANDS OUT IN THE

EXPERIENCE OF MANKIND

AS ONE OF THE BROADEST

GENERALIZATIONS OF NATURAL

PHILOSOPHY � IT SERVES AS THE

GUIDING INSTRUMENT IN RESEARCHES

IN THE PHYSICAL AND SOCIAL SCIENCES AND

IN MEDICINE AGRICULTURE AND ENGINEERING�

IT IS AN INDISPENSABLE TOOL FOR THE ANALYSIS AND THE

INTERPRETATION OF THE BASIC DATA OBTAINED BY OBSERVATION AND EXPERIMENT

W.J. Youden

Annaherung der Binomialverteilung durch die Normalverteilung

Die Berechnung der Binomialkoeffizienten wird f¨ur großen zu einem sehr aufwendigenUnternehmen; dies besonders dann, wenn keine einzelne Wahrscheinlichkeit, sondern dieSumme aller Wahrscheinlichkeiten gr¨oßer oder kleiner gleich einem bestimmten Wert ver-langt werden.

Fur großen und wennp nicht zu nahe an 0 oder 1 liegt, l¨aßt sich die Binomialverteilungdurch die Normalverteilung mit dem Mittelwert� = np und der Standardabweichung� =pnpq approximieren.

b(xi;n;p) � P (z1 � z � z2) = F (z2)� F (z1)

mit

z1 =xi� 1

2 � nppnpq

und

z2 =xi+

12 � nppnpq

:

Als Faustregel gilt, daß sowohl das Produktnp als auch das Produktnq großer als 5 seinmussen.

3 WAHRSCHEINLICHKEITEN UND W.-VERTEILUNGEN 29

3.2.7 Testverteilungen

Einige Wahrscheinlichkeitsverteilungen spielen in der in der schließenden Statistik als so-genannte Pr¨uf- oder Testverteilungen eine tragende Rolle. Dies deshalb, weil sie theoreti-sche Modelle f¨ur die Verteilung von Parametern darstellen, die aufgrund von Stichprobenberechnet werden. Die wichtigsten Testverteilungen sind die Normalverteilung, die�2 -Verteilung, diet - Verteilung und dieF - Verteilung.

Zur mathematischen Formulierung der Dichte- und Verteilungsfunktionen sowie zur Kur-vendiskussion dieser Verteilungen sei auf die einschl¨agigen Lehrb¨ucher verwiesen. Anwen-dungen der Testverteilungen im Rahmen der schließenden Statistik werden in den folgendenKapiteln gezeigt werden.

�2 - Verteilung

Die �2 - Verteilung wurde von F. Robert Helmert (1876) eingef¨uhrt und durch K. Pearson(1900) benannt ([25], S. 213). Sie ist die Wahrscheinlichkeitsverteilung einer Summe qua-drierter, standardisierter, normalverteilter Zufallsvariablen. Die Wahrscheinlichkeitsdichteder�2 - Verteilung ist

f(x) = Kn xn�2

2 e�x

2 ;

mit n = Anzahl der Freiheitsgrade, undKn = Konstante, die unter Nutzung der Gamma-funktion ermittelt wird.

Die �2 - Verteilung hat folgende Eigenschaften

1. Die�2 - Verteilung ist nur fur positive Werte definiert.

2. Die�2 - Verteilung ist linkssteil; bei zunehmender Anzahln asymptotisch symme-trisch.

3. Die Gestalt der�2 - Verteilung hangt von der Zahl der Freiheitsgrade ab. F¨ur n = 1

und n = 2 fallen die Kurven monoton. F¨ur n > 2 haben sie ein Maximum beix = n� 2.

4. Mit wachsendemn wird die �2 - Verteilung symmetrischer und konvergiert gegeneine Normalverteilung.

5. Die�2 - Verteilung hat den Erwartungswert

E(X) = n

und die VarianzVAR(X) = 2n :

Die�2 - Verteilung ist fur die wichtigsten Werte der Aussagesicherheit und f¨ur eine begren-ze Zahl von Freiheitsgraden in Lehrb¨uchern tabelliert.

t - Verteilung

Die t - Verteilung oder Studentverteilung wurde von W.S. Gosset eingef¨uhrt, der unter demPseudonym Student ver¨offentlicht hat. Bildet man aus einer standardnormalverteilten Zu-fallsvariablenX und einer�2-verteilte ZufallsvariablenY 2 mit n Freiheitsgraden einen

3 WAHRSCHEINLICHKEITEN UND W.-VERTEILUNGEN 30

Quotienten der Form

T =XsY 2

n

=X

Y

pn ;

so ergibt sich eine neue Zufallsvariable, die einer Wahrscheinlichkeitsverteilung folgt, dieman t-Verteilung oder Studentverteilung nennt. Auf die Angabe der Dichtefunktion wirdhier verzichtet und auf die Lehrb¨ucher verwiesen. Die Dichtefunktion ist sehr m¨uhsam zuberechnen; man greift somit in der Regel auf tabellierte Werte zur¨uck, die fur eine begrenzteZahl von Freiheitsgraden in jedem Lehrbuch zu finden sind.

Die t-Verteilung hat folgende Eigenschaften:

1. Die t-Verteilung ist wie die Normalverteilung glockenf¨ormig und symmetrisch zumErwartungswert.

2. Die Gestalt dert-Verteilung hangt von der Anzahl der Freiheitsgrade ab. Mit zuneh-mendemn wird die Wahrscheinlichkeitsdichte steiler, und die Funktion strebt gegendie Standardnormalverteilung.

3. Fur n = 1 hat diet-Verteilung keinen Mittelwert, f¨ur n � 2 ist der ErwartungswertE(T ) = 0.

4. Fur n = 1 undn = 2 hat diet-Verteilung keine Varianz, f¨ur n � 3 ergibt sich dieVarianz als

VAR(T ) =n

n� 2:

3.3 Wahrscheinlichkeitsverteilungen als theoretische Modelle empirischerHaufigkeitsverteilungen

Im Bereich der Umweltwissenschaften sind einige weitere Verteilungen als theoretischeModelle von beobachteten H¨aufigkeitsverteilungen interessant. Erw¨ahnenswert sind dieeinparametrige Exponentialverteilung (z.B. als Modell f¨ur die Abstandszeit zwischen Nie-derschlagsereignissen oder radioaktiven Zerf¨allen), die zweiparametrige Weibullverteilung(z.B. als Modell fur die Beschreibung von Materialerm¨udungen), die Lognormalverteilung(als Modell fur viele naturlich vorkommende Meßgr¨oßen) sowie die Pearson III- und dieGumbel-Verteilung (zur Beschreibung von Hochwasserspitzen). Einige dieser Verteilungensollen hier kurz vorgestellt werden. Die Ausf¨uhrungen dieses Abschnitts richten sich nach[7].

Normal - Verteilung

Aufgrund des zentralen Grenzwertsatzes ist zu erwarten, daß Variablen, die sich als Summevieler unabh¨angiger Ereignisse summieren, normalverteilt sind. Im Bereich der Hydrologietrifft dies z.B. auf die Jahressumme der Niederschl¨age zu. F¨ur viele andere hydrologischeGroßen, die nur positive Werte annehmen k¨onnen und oft linkssteile Verteilungen aufwei-sen, ist die Normalverteilung allerdings nicht optimal geeignet (s.u.).

3 WAHRSCHEINLICHKEITEN UND W.-VERTEILUNGEN 31

Lognormal - Verteilung

Viele in der Natur vorkommende Gr¨oßen, die nur positive Werte annehmen k¨onnen, sindnicht symmetrisch, sondern linkssteil verteilt, insbesondere wenn sich der Wertebereichuber mehrere Gr¨oßenordnungen erstreckt. In solchen F¨allen kann oft durch logarithmierenerreicht werden, daß die Verteilung symmetrisch wird und sich durch eine Normalverteilunggut approximieren l¨aßt.

Ist lnX eineN(�; �2)-verteilte Zufallsvariable, so heißtX selbstlogarithmisch normalver-teilt. Oft wird davon ausgegangen, daß Gr¨oßen, die durch Multiplikation normalverteilterVariablen zustandekommen, lognormalverteilt sind. Empirische Beispiele solcher Variablensind die hydraulische Leitf¨ahigkeiten von por¨osen Medien, oder die Gr¨oße von Regentrop-fen wahrend eines Niederschlagsereignisses. Die Dichtefunktion der Lognormalverteilungist fur x > 0

f(x) =1

x

1

�p2�

e

�(lnx� �)2

2�2 :

Der Erwartungswert der lognormalverteilten ZufallsvariablenX ist

E(X) = e�+

�2

2 ;

ihre Varianz ist

VAR(X) = e2�+ �2(e�2 � 1) ;

und der Median und die Schiefe berechnen sich zu

D = Sf =

s�e2�+ �2 � 1

� �e�

2+ 2

�:

Exponentialverteilung

Manche Reihen hydrologischer Ereignisse, wie z.B. das Auftreten von Niederschl¨agen oderdas Auftreten von Oberfl¨achenabschwemmungen, k¨onnen als sogenanntePoisson Prozesseangesehen werden, bei denen die Ereignisse unabh¨angig voneinander auf einer (Zeit-)Achseauftreten. Die Zeit zwischen dem Auftreten der Ereignisse, dieinterarrival time, wird durcheine Exponentialverteilung beschrieben, deren Parameter� die durchschnittliche Zeit zwi-schen zwei Ereignissen beschreibt. Die Exponentialverteilung ist eine einparametrige Ver-teilung, mit der Wahrscheinlichkeitsdichte

f(x) = �e��x fur x � 0

Der Erwartungswert ist

E(X) =1

�;

die Varianz

VAR(X) =1

�2:

Man beachte bei Anwendungen der Exponentialverteilung als Wahrscheinlichkeitsmodellfur Prozesse, daßUnabhangigkeitder Ereignisse vorausgesetzt wird. Diese Voraussetzungist z.B. bei Niederschl¨agen aus Fronten nicht erf¨ullt (vgl. [7]).

3 WAHRSCHEINLICHKEITEN UND W.-VERTEILUNGEN 32

Stetige Gleich- oder Rechteckverteilung

Treten innerhalb eines Bereichsa bis b Werte mit gleich hoher Wahrscheinlichkeit auf,wahren sie außerhalb ¨uberhaupt nicht auftreten, so liegt eineGleich- oder Rechteckver-teilung (uniform distribution) vor. Beispiele sind die erzielten Augen beim gleichm¨aßigenWurfelwurf (diskrete Gleichverteilung). Zufallszahlengeneratoren von Computern liefernoft gleichverteilte Werte im Intervall [0,1].

Die konstante Wahrscheinlichkeitsdichte der stetigen Gleichverteilung ist gegeben durch

y = f(x) =

(1=(b � a) fur a < x < b

fur x � a oderx � b

Der Erwartungswert ist

E(X) =a+ b

2;

die Varianz

VAR(X) =(b� a)2

12:

Fur den wichtigen Spezialfall0 < x < 1 ergibt sich ein Erwartungswert von 0.5 und eineVarianz von1=12, d.h. eine Standardabweichung von 0.28867.

Gamma - Verteilung

Die Zeit, die verstreicht, bis in einem Poisson Prozeß� Ereignisse eintreten, wird durchdie Gamma-Verteilung beschrieben. Die Gammaverteilung ist somit als Summe von� un-abhangigen und identischen exponentiell verteilten Zufallsvariablen definiert. Die Gamma-verteilung hat eine recht flexible Form mit einer unteren Begrenzung beim Wert 0. Ihre Formreicht von monoton abfallend ¨uber linkssteil bis ann¨ahernd symmetrisch, und ist durch diezwei Parameter� und� bestimmt. Ihre Wahrscheinlichkeitsdichte ist gegeben durch

f(x) =��x��1e��x

�(�)

mit �(�) = Gamma-Funktion. Die Gamma-Funktion ihrerseits ist f¨ur positive ganze Zahlendefiniert als�(�) = (� � 1)!, in allgemeiner Form als

�(�) =

Z1

0u��1e�udu :

Der Erwartungswert der Gamma-Verteilung ist

E(X) =�

�;

die Varianz

VAR(X) =�

�2:

Aufgrund ihrer Flexibilitat ist die Gamma-Verteilung recht vielseitig einsetzbar. Ihre Ver-teilungsfunktion ist in B¨uchern tabelliert. Die�2-Verteilung und die Exponentialverteilungsind Spezialf¨alle der Gammaverteilung.

3 WAHRSCHEINLICHKEITEN UND W.-VERTEILUNGEN 33

Pearson III - Verteilung

Die Pearson III - Verteilung ist eine Gammaverteilung, deren unteres Limit von Null aufeinen positiven Wert veschoben ist. Sie wird deshalb auchDrei-Parametrige Gammavertei-lung genannt. Die Pearson III - Verteilung wurde durch [12] in der Hydrologie eingef¨uhrt,um die Verteilung der j¨ahrlichen Spitzenabfl¨usse zu beschreiben.

Ist die zu beschreibende Verteilung sehr linkssteil, so ist es sinnvoll, die Werte zu logarith-mieren. Das beschreibende Modell ist dann eine Log-Pearson III - Verteilung. Diese Ver-teilung ist die Standardverteilung f¨ur die Haufigkeitsanalyse der j¨ahrlichen Spitzenhoch-wasser in den Vereinigten Staaten. Da die Normalverteilung ein Spezialfall der PearsonIII-Verteilung ist, schließt die Log-Pearson III-Verteilung die Lognormalverteilung in ana-loger Weise als Spezialfall ein. F¨ur eine nahere Diskussion dieser Verteilung sei auf dieFachliteratur verwiesen.

Extremwert - Verteilungen

Extremwerte sind ausgew¨ahlte Maxima oder Minima aus Datens¨atzen. So kann z.B. derhochste auftretende Abfluß eines Gew¨assers im Laufe eines Jahres als Extremwert aufge-zeichnet werden. Werden diese Werte ¨uber viele Jahre gesammelt, so kann ihre Verteilungstatistisch analysiert werden. Wie [10] gezeigt haben, konvergieren die Extremwerte von be-liebigen Verteilungsformen auf eine von drei Formen von Extremwertverteilungen, die alsTyp I, II oder III bezeichnet werden. Die Eigenschaften dieser drei Formen wurden durchGumbel (1941) f¨ur den Typ I, Frechet (1927) f¨ur den Typ II, und Weibull (1939) f¨ur denTyp III untersucht; entsprechend werden diese Verteilungen oft alsGumbel-, Frechet-oderWeibull-Verteilung bezeichnet. F¨ur eine nahere Diskussion dieser Verteilungen sei auf dieFachliteratur verwiesen ([4]).

4 MESSUNGEN UND FEHLERBEHANDLUNG 34

4 Messungen und Fehlerbehandlung

Die zentralen Aufgaben der schließenden Statistik sind die Parametersch¨atzung und die Hy-pothesenpr¨ufung. Grunds¨atzlich geht es darum, aus Meßwerten einer Stichprobe mit einergeschatzten Unsicherheit auf Eigenschaften der Grundgesamtheit r¨uckzuschließen.

In diesem Kapitel soll in einem ersten Block zun¨achst beleuchtet werden, welche Regelnbei der Auswahl von Messgr¨oßen, bei der Datenerfassung und Datenverarbeitung beach-tet werden sollten (Kap. 4.1). Im n¨achsten Schritt werden Fehlerarten und M¨oglichkeitenzur Aufspurung dieser Fehler diskutiert. In einem dritten Schritt wird aufgezeigt, wie sichFehler (oder Unsicherheiten) bei Berechnungen auf das Endergebnis durchschlagen (Kap.4.2).

In einem dritten Block wird schließlich dargestellt, nach welchen Kriterien unbekannte Pa-rameter von Grundgesamtheit gesch¨atzt werden k¨onnen. Es geht dabei nicht nur um dieSchatzung von Parameterwerten, sondern auch zugeh¨origer Vertrauensbereiche (Konfiden-zintervalle), innerhalb derer sich die wahren Parameter mit einer vorgew¨ahlten Wahrschein-lichkeit befinden (Kap. 4.3.

4.1 Datenerhebung und Verarbeitung

4.1.1 Kriterien f ur Messungen

Bei der Auswahl von Merkmalen und Merkmalsauspr¨agungen zur statistischen Analysemussen folgende Kriterien ber¨ucksichtig werden:

� Objektivit atObjektiv ist ein Meßergebnis, wenn es nicht durch den Bearbeiter beeinflußt ist, wennmehrere Bearbeiter durch einen analogen Meßvorgang zu dem selben Ergebnis gelan-gen.

� Reliabilit at (Zuverlassigkeit)Zuverlassigkeit der Meßwerte ist gegeben, wenn wiederholte Messungen ein- unddesselben Merkmals am selben Objekt ¨ubereinstimmen.

� Validit at (Gultigkeit)Gultigkeit beweisen Meßergebnisse und damit Meßverfahren, wenn sie in der Lagesind, genau den Sachverhalt wiederzugeben, der von der Aufgabenstellung her gefor-dert war.

4.2 Fehler, Ausreißer und Fehlende Werte

Es gibt drei Typen von Problemdaten: Fehler, Ausreißer und fehlende Werte. EinFehler isteine Beobachtung die falsch aufgezeichnet wurde, m¨oglicherweise aufgrund eines Ger¨ate-defekts, oder einesUbertragungs- oder Kopierfehlers. EinAusreißerist dagegen ein Ex-tremwert, der nicht so recht zum Rest der Daten passen will. Ausreißer gehen auf eineReihe von m¨oglichen Ursachen zur¨uck und konnen vielArger bereiten. Eine grundlegendeBehandlung des Problems incl. L¨osungsvorschl¨age zu seiner Behandlung findet man bei[3].

4 MESSUNGEN UND FEHLERBEHANDLUNG 35

4.2.1 Fehler bei Messungen

Allgemein wird davon ausgegangen, daß sich ein Meßwert aus einer wahren Informationund einem fehlerhaften Anteil zusammensetzt. Hat man keine weiteren Informationen ¨uberdie verwendete Methode und die ggf. analysierte Substanz, so ist die Gr¨oße des fehlerhaftenAnteils zunachst unbekannt. Dieser fehlerhafte Anteil kann, soweit nichts weiteres ¨uberihn bekannt ist, als Gesamtfehler bezeichnet werden. Der bei einer Messung entstehendeGesamtfehler setzt sich als Teilfehlern mit sehr unterschiedlichen Ursachen zusammen. F¨ureine Analyse und eine m¨ogliche Reduzierung oder Beseitigung bestimmter Fehler ist einallgemeines Modell der Fehlerursachen n¨otig:

Messwert= wahrer + grober + systemat. + zufalligerWert Fehler Fehler Fehler

vermeidbar ! gefahrlich unvermeidbar

Grobe Fehler

Hierunter versteht man zum Beispiel einen Ablesefehler oder das Notieren einer falschenZahl. Fehlerursachen sind h¨aufig in menschlicher Fahrl¨assigkeit zu finden. Durch Plausibi-lit atskontrollen, mehrfache Messungen und die erneute Durchf¨uhrung eines Versuchs kanndie Wahrscheinlichkeit eines groben Fehlers sehr stark reduziert werden. Grobe Fehler sindin jedem Fall zu vermeiden.

Systematische Fehler

Kennt man einen systematischen Fehler, so ist dessen Behebung aus Sicht der Datenanalysein einer Vielzahl von fallen relativ einfach. Da (wie der Name andeutet) eine feste funktio-nelle Ursache diesen Fehler hervorruft, kann in vielen F¨allen eine Funktion zur Datenkor-rektur gefunden werden. Unter diesen Voraussetzungen ist die Behebung eines systemati-schen Fehlers auch nach bereits erfolgter Messung auf rechnerischem Weg aus den Datenmoglich. Entsprechend der Sachlage kann ein systematischer Fehler auch am Ger¨at oderam Versuchsaufbau direkt behoben werden. Systematische Fehler k¨onnennichtaus der sta-tistischen Streuung der Daten heraus erkannt oder abgesch¨atzt werden. Sie k¨onnen deshalbsehr gefahrlich sein, insbesondere dann, wenn sie klein ausfallen und keine Parallelanalysen(mit anderen Verfahren, Ger¨aten, Bearbeitern) vorgenommen werden.

Zuf allige Fehler

Gilt der Versuchs- oder Meßaufbau als ¨uberpruft und richtig (=frei von systematischen Feh-lern), so verbleibt noch ein zuf¨alliger Fehler, der sich in kleineren Abweichungen bei wie-derholten Messungen ¨außert. Die Ursachen des zuf¨alligen Fehlers liegen in vielen klei-nen, unvermeidbaren und in der Regel voneinander unabh¨angigen Fehlern. Die Gr¨oße deszufalligen Fehlers ist ausschlaggebend f¨ur die Reproduzierbarkeit (precision) einer Meß-methode. Unsicherheiten aufgrund zuf¨alliger Fehler lassen sich durch statistische Mittelberechnen und ausdr¨ucken.

4 MESSUNGEN UND FEHLERBEHANDLUNG 36

4.2.2 Fehler- und Ausreißerdetektion

Was ist Fehler, was ist Ausreißer?

Fehler und Ausreißer werden oft durcheinandergebracht. Es gibt Situationen, in denen Feh-ler keine Ausreißer verursachen, und andere, in denen Ausreißer nicht auf Fehler zur¨uck-zufuhren sind. Besonders problematisch sind Extremwerte, die aus linkssteilen Verteilungenentstammen, und somit tats¨achlich ber¨ucksichtigt werden sollten.

Die Suche nach m¨oglichen Fehlern ist ein wichtiger Teil der fr¨uhen Datensichtung. EinigeChecks k¨onnen von Hand durchgef¨uhrt werden, aber Computer k¨onnen leicht so program-miert werden, daß sie einen großen Teil der routinem¨aßigen Pr¨ufungen durchf¨uhren konnen.Es sollten dieVertrauenswurdigkeit, die Konsistenzund dieVollstandigkeitder Daten ge-pruft werden.

Plausibilit atsprufung von Daten

Beim Check auf Glaubw¨urdigkeit wird gepr¨uft ob die Daten sich innerhalb eines zul¨assi-gen Wertebereichs bewegen. Unm¨ogliche Werte oder sonstige extreme Ausreißer solltendadurch detektiert werden.

Ein einfacher, aber sehr sinnvoller Check liegt darin, einen Ausdruck der Daten oder ihrergrafische Darstellung zu sichten. Obwohl es nicht m¨oglich ist, die Zahlen im einzelnen zulesen, ist das Auge recht effizient wenn es darum geht, Werte aufgrund einer ver¨andertenStruktur zu entdecken — vorausgesetzt die Daten stehen in einem sinnvollen Format undstrikt ausgerichtet in Spalten.

Beobachtet man bei der ersten Datensichtung einen oder mehrere Werte, die den Eindruckerwecken, daß sie Ausreißer sind, so ist als erstes zu kl¨aren, ob diese durch Meß-, Rechen-,Schreib-, oder Datenerfassungsfehler bedingt sein k¨onnen, d.h., ob siesystematischeFehlersind. Oft kann man fehlerhafte Daten, die auf einen Datenverarbeitungsfehler zur¨uckgehen,nachtraglich korrigieren.

Der Umgang mit Extremwerten – ob diese nun auf Fehler zur¨uckzufuhren sind oder nicht– ist schwierig. So kann man mittels sogenannterAusreißertestsuberprufen, ob diese Da-ten uberhaupt zur pr¨azisierten Stichprobe zu rechnen sind. Sind sie dies signifikant nicht,so wird man sie bei einer Auswertung der Daten gar nicht ber¨ucksichtigen, um so eineVerfalschung der Ergebnisse zu vermeiden. Andererseits ist beim Ausschluß von Daten, dielinkssteilen Verteilungen entstammen, h¨ochste Zur¨uckhaltung geboten, da solche Werte jatatsachlich vorkommen k¨onnen.

Konnen suspekte Daten nicht klar als Ausreißer eliminiert werden, so empfiehltChatfield(1994) einen praktischen Ansatz: Sofern kein Hinweis auf einen Fehler besteht, sollte ei-ne statistische Prozedur mit dem Extremwert durchgef¨uhrt werden und sodann ohne ihnwiederholt werden. Wenn die Schlußfolgerungen aus den Tests durch die Ber¨ucksichtigungdieses Wertes maßgeblich ver¨andert werden, so sollten Entscheidungen, die damit auf derExistenz eines oder zweier Werte beruhen, nur mit h¨ochster Vorsicht gef¨allt werden.

4 MESSUNGEN UND FEHLERBEHANDLUNG 37

4.2.3 Ausreißertests

Ausreißertests werden benutzt, um (1) routinem¨aßig die Zuverl¨assigkeit von Daten zu kon-trollieren, (2) rechtzeitig gewarnt zu werden, die Datengewinnung besser zu kontrollierenund um (3) Beobachtungen, die extrem liegen und bedeutungsvoll sein k¨onnten, zu erfassen.

Bei Normalverteilung der Daten er¨offnet die Normalverteilungsfunktion einen direkten Wegmit dem die Wahrscheinlichkeit von seltenen aber korrekten sehr großen (extremen) Ab-weichungen vom Mittelwert bestimmt werden kann. Entsprechend der in Abschnitt 3.2.6angegebenen Wahrscheinlichkeitsintervalle

a) P (�� � < x < �+ �) � 68:3%

b) P (�� 2� < x < �+ 2�) � 95:5%

c) P (�� 3� < x < �+ 3�) � 99:7%

d) P (�� 4� < x < �+ 4�) � 99:994%

ergibt sich, daß sich 68.3% der normalverteilten Werte im Intervall� � 1� befinden. DieWahrscheinlichkeit einer Abweichung des Meßwertsx um mehr als1� von� ist etwa ein-mal in drei Versuchen zu erwarten.

a)P (jx� �j > �) � 0:317

Entsprechend gelten f¨ur die weiteren�-Schranken folgende Wahrscheinlichkeiten f¨ur ex-treme Abweichungen

b) P (jx� �j > 2�) � 0:0455 (einmal in ca. 22 Versuchen)c) P (jx� �j > 3�) � 0:0027 (einmal in ca. 370 Versuchen)d) P (jx� �j > 4�) � 0:000064 (einmal in ca. 15625 Versuchen)

Dies zeigt, daß ein extremer Wert um so unwahrscheinlicher ist, je kleiner die Stichprobe.Einer allgemeinen Regel folgend (siehe [25], S. 364), darf bei einer Stichprobe mit demMindestumfangn = 10 ein Wert dann als Ausreißer verworfen werden, wenn er außer-halb des Intervalls�x� 4s liegt. Mittelwert und Standardabweichung sind hierbei ohne denverdachtigen Wert zu berechnen.

Ausreißertests fur nicht normalverteilte Daten

Es existieren viele Tests die dazu dienen, Ausreißer zu detektieren. F¨ur kontinuierliche Va-riablen wurde bislang der DIXON-Test f¨ur n � 29 und der GRUBBS-Test f¨ur n � 30

empfohlen. Nach den letzten Empfehlung den der Standardisierungsorganisationen wirdheute der DIXON-Test in modifizierter Form allgemein empfohlen. Die Testvorschrift so-wie die tabellierten Pr¨ufwerte findet man z.B. beiEinax et al.[9], S. 41f. EineUbersichtuber Testverfahren bietetRechenberg[23].

HINWEIS: Die Anwender sollten sich bewußt sein, daß Ausreißer in einer Meßreihe ent-weder einen neuen Hinweis auf unerwartete aber real vorhandenen Variabilit¨at des unter-suchten Ph¨anomens geben oder fehlerhafte Werte darstellen. Aus diesem Grund sollte manstets einen sehr sorgf¨altigen Blick auf festgestellte und entfernte Ausreißer legen und dasEntfernen von Ausreißern nicht ausschließlich Computerprogrammen ¨uberlassen.

BEISPIEL: Hatten sich die maßgebenden Forscher nicht nur auf die Macht laufender Re-chenprogramme verlassen, so w¨are das Ozonloch ¨uber der Arktis vermutlich um einigeJahre fruher entdeckt worden.

4 MESSUNGEN UND FEHLERBEHANDLUNG 38

4.2.4 Fehlende Daten

Sofern Daten fehlen, ist zun¨achst zu klaren, warum sie fehlen. Es ist ein entscheidender Un-terschied, ob die fehlenden Daten auf v¨ollig zufallsbedingte Ausf¨alle zuruckzufuhren sind,oder ob diese Ausf¨alle stets in ganz bestimmten Situationen auftreten. Im ersten Fall k¨onnendie fehlenden Daten in einfachen Analysen einfach weggelassen werden, in komplexerenVerfahren (Varianzanalysen) durch “gefittete” Stellvertreter ersetzt werden. Es muß auf je-den Fall strikt davor gewarnt werden, fehlende Daten durch spezielle Zahlen zu codieren,da dies bei automatischen Auswertungen zu den seltsamsten Ergebnissen f¨uhren kann.

4.2.5 Fehlerfortpflanzung

Eine vollig genaue Messung einer kontinuierlichen Gr¨oße ist nicht m¨oglich. Es existiertimmer eine Abweichung�x = xa�xb = absoluter Fehler zwischen einem abgelesenen unddem realen Wert. Man unterscheidet konstante Fehler, systematische Fehler und zuf¨alligeFehler.

Konstante Fehler lassen sich durch Differenzenbildung eliminieren. Sie sind keine “Feh-ler” im Sinne der Statistik, da ihnen keine Unsicherheit innewohnt.

Systematische Fehlereiner Eingangsgr¨oße sind ¨ahnlich wie konstante Fehler durch einegerichtete (aber unbekannte) Verschiebung eines Meßwerts gegen¨uber dem wahren Wertdefiniert. Die Absch¨atzung der m¨oglichen Große eines systematischen Fehlers aus Mehr-fachmessungen ist mit statistischen Mitteln nicht m¨oglich! Kann die Gr¨oße systematischerFehler�xi in den Messungen der Eingangsvariablen anderweitig angegeben werden, soerrechnet sich das “Durchpausen” auf das Ergebnis wie folgt:

�y =nXi=1

���� @f@xi�����xi

wobei

�y = Fehler der resultierenden Variablen

@f@xi

= partielle Ableitung der Funktiony = f(x1; x2; : : : ; xn) nachxi.

Diese partielle Ableitung wirdSensitivitat (-skoeffizient)von y nachxi genannt.

�xi = Fehler der Eingangsgr¨oßexi .

Eine einfache Min-Max-Absch¨atzung fur y ergibt sich, wenn man innerhalb der Bestim-mungsgleichungy = f(x1; x2; � � � ; xn) die oberen bzw. unteren Werte derxi � �xi soeinsetzt, daß sie einmal den Gesamtausdruck minimieren, zum andern den Ausdruck maxi-mieren.

Zuf allige Fehler sind klassische Meßfehler in dem Sinn, daß Messungen um den wahrenWert mal mehr, mal weniger streuen. Oft sind diese Messungen um den wahren Wert nor-malverteilt.

4 MESSUNGEN UND FEHLERBEHANDLUNG 39

Fur zufallige Fehler ergibt sich dasFehlerfortpflanzungsgesetz nach Gauß, das eine mildereSchatzung des Gesamtfehlers eines Experiments als Folge verschiedener zuf¨alliger Fehlerin den gemessenen Eingangsgr¨oßen erlaubt.

sy =

vuut nXi=1

�@f

@xi

�2s2i

mit sy = Standardabweichung des (normalverteilten) Ergebnisses unds2i

= Varianzen derEingangsgr¨oßenxi.

Die Gleichung besagt, daß sich die Fehler der Eingangsvariablen multipliziert mit den ent-sprechenden Sensitivit¨atskoeffizienten quadratisch (“vektoriell”) addieren.

Fortpflanzungsregeln fur zuf allige Fehler

Im folgenden gilt folgende Symbolregelung:

absoluter Fehlereiner Variablenx: sx(= Stabw. einer wiederholten Messung)

relativer Fehler einer Variablenx: Æx = sx=�x

Die Anwendung desFehlerfortpflanzungsgesetzes nach Gaussfuhrt bei unkorrelierten(!!!)Meßfehlern zu folgenden einfachen Regeln:

� Fehlerreduktion durch wiederholte MessungDer Fehler eines Mittelwerts reduziert sich durch Wiederholungsmessungen.

�x =1

n

Xx; s�x = sx=

pn

Der wahre zu messende Wert liegt mit einer Wahrscheinlichkeit von ca. 68% im In-tervall [�x� s=

pn; �x+ s=

pn].

� Summe oder DifferenzDie absoluten Fehler addieren sich vektoriell.

y = x1 + x2 odery = x1 � x2; sy =qs2x1 + s2x2

Merke: der relative Fehler kann sich bei der Differenzenbildung zweier etwa gleich-großer Zahlen extrem vergr¨oßern.

� Produkt oder QuotientDie relativen Fehler addieren sich vektoriell.

y = x1 � x2 odery = x1=x2; Æy =qÆ2x1 + Æ2x2

4 MESSUNGEN UND FEHLERBEHANDLUNG 40

� PotenzenDer relative Fehler vervielfacht sich entsprechend der Potenz

y = xn; Æy = n � Æy

Es empfiehlt sich in der Praxis, in gr¨oßeren Gleichungen f¨ur jeden Term die Variable mitdem großten relativen Fehler zu identifizieren. Dieser bestimmt oft in erster N¨aherung denrelativen Fehler des gesamten Terms.

Bei korrelierten Fehlern muß die Kovarianz der Meßfehler mit ber¨ucksichtigt werden.

Literatur: [19], S. 333.

4 MESSUNGEN UND FEHLERBEHANDLUNG 41

4.3 Parameterschatzung

4.3.1 Kriterien f ur Parameterschatzung

Ein aus einer Stichprobe berechneter Sch¨atzerb� fur einen Parameter� muß folgende Krite-rien erfullen:

1. Erwartungstreue(unbiasedness)Die Verteilungsfunktion des Sch¨atzersb� hat den Erwartungswert�.

2. Wirksamkeit(efficiency)Die Varianz des Sch¨atzers aufgrund der Unsicherheit der Stichprobenwerte istmoglichst klein.

3. Konsistenz(consistency)Mit wachsendem Stichprobenumfang n¨ahert sich der Sch¨atzer beliebig nahe an denzu schatzenden Parameter(Konvergenz).

4. Vollstandigkeit(sufficiency)Die Berechnung des Sch¨atzers nutzt alle nutzbare Information der Stichprobe und hatsomit eine minimale Varianz.

4.3.2 Schatzmethoden

Es gibt einige generelle Verfahren, um Parameter zu sch¨atzen.

1. Momentenmethode(method of moments)Die (parameterabh¨angigen) Momente der Wahrscheinlichkeitsverteilung werden denMomenten der Stichprobe gleichgesetzt.

2. Maximum-Likelihood-Methode(method of maximum likelihood)Grundidee: Der beste Parameterwert einer Wahrscheinlichkeitsverteilung ist derje-nige Wert, fur den sich am ehesten der tats¨achlich beobachtete Datensatz einstellt.Mathematisch: Man findet die verbundene Wahrscheinlichkeitsfunktion (joint proba-bility oder joint pdf im kontinuierlichen Fall) der Daten in Bezug auf den unbekann-ten Parameter� und maximiert diese sogenannte Likelihood-Funktion hinsichtlich�.Da die Wahrscheinlichkeitsverteilungen oft auf Exponentialfunktionen basieren, istes attraktiv, den Log der Likelihood-Funktion, d.h. die sogenannte Log-Likelihood-Funktion zu maximieren.

3. Methode der kleinsten quadratischen Abweichungen(method of least squares)Die unbekannten Parameter werden gesch¨atzt, indem die Summe der quadratischenAbweichungen zwischen den beobachteten und den (durch das angenommene Mo-dell) berechneten Werte minimiert werden.

4. Methode der kleinsten absoluten Abweichungen(method of least absolute deviations)Wie oben, nur wird die Summe der Abst¨andsbetr¨age minimiert. Die Methode ist inder Regel analytisch sehr diffizil, aber durch Computer leicht durchf¨uhrbar.

4 MESSUNGEN UND FEHLERBEHANDLUNG 42

Die verschiedenen Verfahren f¨uhren oft zu den selben Formeln f¨ur die Schatzfunktionen.Da sie in der Regel durch fertige Computerprogramme bereitgestellt werden, werden ihreDetails hier nicht weiter diskutiert.

4.3.3 Punktschatzung fur Populationsparameter

Nach den genannten Kriterien ergeben sich6:

Parameter Optimaler Schatzer

Mittelwert � �x =1

n

nXi=1

xi

Varianz�2 s2 =1

n� 1

nXi=1

(xi � �x)2

Kovarianz�xy sxy =1

n� 1

nXi=1

(xi � �x)(yi � �y)

Korrelationskoeffizient� r =sxy

sx sy

Steigung der Regressionsgeraden� b =sxy

s2x

Achsenabschnitt der Regressionsgeraden� a = �y � b�x

Der Stichprobenmittelwert ist also ein optimaler Sch¨atzer fur den Populationsmittelwert.Dagegen muß f¨ur die Schatzung der Populationsvarianz ber¨ucksichtigt werden, daß in derBerechnungsformel ein Wert vorkommt, der aus der Stichprobe bereits abgesch¨atzt werdenmußte: der wahre Populationsmittelwert� ist ja unbekannt. Dies kommt dadurch zum Aus-druck, daß die Summe der berechneten quadratischen Abweichungen nicht durch die Zahlder Messungenn, sondern durch eine kleinere Zahl,(n � 1) geteilt wird. Diese kleinereZahl nennt manAnzahl der Freiheitsgrade(FG oder df=degrees of freedom). Generell wirddie Zahl der Freiheitsgrade durch die Zahl der Messungen (bzw. Meßpaare) gegeben, redu-ziert um 1 fur jeden in der Gleichung auftretenden Wert der aus den Daten selbst berechnetwurde. Im Fall der Varianz wird z.B. der Mittelwert� durch den aus den Daten errechnetenWert �x ersetzt, die Zahl der Freiheitsgrade ist somitn� 1.

HINWEIS: Da die Parameterberechnung f¨ur Stichproben praktisch stets in Hinblick auf dieParametersch¨atzung fur die Grundgesamtheit vorgenommen wird, werden in der Regel stetsdie Schatzer berechnet, ohne daß dies in der Namensgebung deutlich wird. So wird z.B.s2

(eigentlich irrefuhrend) alsStichprobenvarianzbezeichnet.

6Zur Schreibweise: Populationsparameter sowie Parameter ihrer theoretischen Modelle, der Wahrschein-lichkeitsverteilungen, werden mit griechischen Buchstaben bezeichnet, die statistischen Kennzahlen der Stich-proben dagegen mit den korrespondierenden lateinischen Buchstaben.

4 MESSUNGEN UND FEHLERBEHANDLUNG 43

4.3.4 Konfidenzintervalle

Konfidenzintervalle (oder Vertrauensintervalle) sind Wertebereiche, die einen gesuchten Pa-rameter mit einer gewissen Konfidenz (¨ahnlich, aber nicht identisch mit Wahrscheinlichkeit)einschließen. Intervallsch¨atzungen sollten Punktsch¨atzungen in der Regel vorgezogen wer-den.

Man hute sich vor Angaben wiea� b wenn nicht klar gesagt wird, obb ein Standardfehler,zwei Standardfehler, ein 95% Konfidenzintervall, oder was auch immer ist.

� Allgemeine Fragestellung: Finde zwei Zahlen, die einen gesuchten unbekannten Pa-rameter mit einer vorgegebenen Konfidenz umschließen.

� Allgemeine Vorgehensweise: Der gesuchte Parameter ist eine Zufallsvariable, d.h.er streut in irgendeiner Weise um den “wahren” Mittelwert (z.B. normalverteilt,t-verteilt, oder�2-verteilt).

Wir mussen also den Typ dieserTestverteilungkennen, und ihre Parameter aus derStichprobe absch¨atzen. Sodann k¨onnen wir aufgrund der Kenntnis der Streueigen-schaften dieser Testverteilung ausrechnen, in welchem Intervall der unbekannte Para-meter mit einer Konfidenz von 90%, 95% oder 99% eingeschlossen ist. Naturgem¨aßhangt die Weite des Intervalls vom Stichprobenumfang ab, da mit einer gr¨oßerenStichprobe der unbekannte Wert mit gr¨oßerer Sicherheit gesch¨atzt werden kann.

Beispiele fur Konfidenzintervalle

1. Mittelwert bei bekannter VarianzWie oben angef¨uhrt, ist die Punktsch¨atzung des Mittelwerts durch den Stichproben-mittelwert gegeben.

� = �x

Der Hut uber dem� bedeutet “Sch¨atzung fur”. Es kann gezeigt werden, daß dieStichprobenverteilung des Mittelwerts normalverteilt ist, d.h.�X � N(�; �2=n). DieStreuung dieses Mittelwertes,�=

pn, wird Fehler des Mittelwertsgenannt. Da wir�

kennen (d¨urfte in der Praxis eher selten vorkommen) k¨onnen wir ein 95% Konfidenz-Intervall fur � berechnen

�x� 1:96�=pn

2. Mittelwert bei unbekannter VarianzWenn� dagegen aus der Stichprobe gesch¨atzt werden muß, benutzen wirs=

pn als

geschatzten Standardfehler von�x und erhalten das 95% Intervall aus dert-Verteilung

�x� t0:975;n�1 s=pn

wobeit das 97.5%-Quantil dert-Verteilung mitn�1 Freiheitsgraden angibt, d.h. dieStelle oberhalb dessen212% der Verteilung liegt (Da diet-Verteilung wie die Normal-verteilung symmetrisch sind, kann dieser Wert sowohl f¨ur die Ober- und Untergrenzeverwendet werden, um die Bereiche zu kennzeichnen, die zusammen 5% aller Werteausschließen).

Allgemein ergibt sich ein -Konfidenztintervall, indem in die obige Gleichung dasQuantil t1��=2;FG der t-Verteilung (einseitig tabelliert!) eingesetzt wird, wobei� =

1� die Irrtumswahrscheinlichkeit der Sch¨atzung ausdr¨uckt.

4 MESSUNGEN UND FEHLERBEHANDLUNG 44

HINWEIS: Oft liegt die t-Verteilungzweiseitigtabelliert vor. In diesem Fall ist dert-Wert fur �; FG abzulesen (sieheUbungen).

3. Varianz einer PopulationDie Stichprobenvarianzs2 ist ein erwartungstreuer Sch¨atzer fur die Populationsvari-anz�2. Das 95%-Konfidenzintervall f¨ur �2 ist gegeben durch

(n� 1)s2

�20:025;n�1bis

(n� 1)s2

�20:975;n�1

(Beachte, daß die�2-Verteilung unsymmetrisch ist, und deshalb die Stellen, die dieunteren212% und die oberen212% abschneiden, explizit aus der Tabelle entnommenwerden m¨ussen).

4. Mittelwertsdifferenz zweier PopulationenWir haben zwei Stichproben, die normalverteilten Grundgesamtheiten entstammen,die durch verschiedene Mittelwerte, aber gleiche Varianz gekennzeichnet sind. DieStichprobengr¨oßen seienn1 undn2. Wenn die Stichprobenparameter durch�x1, �x2,s21 unds22 gegeben sind, so ist die Differenz(�x1��x2) eine erwartungstreue Sch¨atzungfur (�1 � �2) mit einem Standardfehler von

r�

n1+

n2= �

s1

n1+

1

n2

Das 95%-Konfidenzintervall f¨ur (�1 � �2) bei bekanntem� ergibt sich dann aus

(�x1 � �x2)� 1:96�

s1

n1+

1

n2

Wenn� aus den Stichproben gesch¨atzt werden muß

s2 =h(n1 � 1)s21 + (n2 � 1)s22

i=(n1 + n2 � 2)

ergibt sich ein 95%-Konfidenzintervall f¨ur (�1��2) bei unbekanntem, aber gleichem� aus

(�x1 � �x2)� t0:975;n1+n2�2 s

s1

n1+

1

n2

HINWEIS: Die Voraussetzungen f¨ur die obigen parametrischen Sch¨atzverfahren (Normal-verteiltheit der Daten, gleiche Varianzen) sind leider oft nicht gegeben. Die Methoden gel-ten allerdings wg. des zentralen Grenzwertsatzes asymptotisch f¨ur beliebige Verteilungen,wobei die Naherung mit wachsendemn besser wird.

Fur viele Falle, in denen die Verteilungsvoraussetzung absolut nicht gew¨ahrleistet werdenkann, existierenrobusterenichtparametrische Sch¨atzverfahren, die etwa Ausreißern weni-ger Gewicht zuordnen. Generell sollte nach der Philosophie verfahren werden, eher einrobustes Verfahren mit sicheren Voraussetzungen zu verwenden, als ein “sch¨arferes” Ver-fahren, das auf unsicheren Beinen steht. F¨ur nahere Informationen ¨uber nichtparametrischeVerfahren sei auf die Spezialliteratur verwiesen (z.B. [27]).

5 TESTS 45

5 Tests

Unter einemStatistischen Testverstehen wir einen Algorithmus, der dazu f¨uhrt eine be-stimmte Ausage ¨uber eine Grundgesamtheit zu akzeptieren oder abzulehnen.

Die Annahme oder Ablehnung ist gem¨aß dem Wesen der Statistik keine sichere Aussa-ge, sondern mit einer Irrtumswahrscheinlichkeit behaftet. Wir k¨onnen in sensiblen F¨allendiese Irrtumswahrscheinlichkeit zwar klein w¨ahlen, dennoch kann mit statistischen Testsnichts bewiesenwerden. Zudem muß ber¨ucksichtigt werden, daß man sich trotz derNichtablehnungeiner Hypothese nicht auf deren tats¨achliche G¨ultigkeit verlassen kann, so-lange die Testst¨arke (Macht, Trennsch¨arfe) des Tests unbekannt ist (Erkl¨arung der Begriffes.u.)!

5.1 Grundlagen statistischer Tests

Nullhypothese und Alternativhypothese

Eine statistische Hypothese ist eine Behauptung ¨uber eine Eigenschaft der Grundgesamt-heit.7 Die Hypothese wirdNullhypotheseHo genannt, wenn sie eine Behauptung ¨uber einekonkrete Eigenschaft der Grundgesamtheit enth¨alt, die statistisch getestet werden kann. DieNullhypothese wird mit der Absicht getestet, sie zur¨uckzuweisen, sofern sich anhand einerStichprobe ein Resultat ergibt, das stark gegen die Richtigkeit der Nullhypothese spricht(proof by contradiction)8.

Die Hypothese, gegen die die Nullhypothese getestet wird, heißtAlternativhypotheseHA.Im Gegensatz zur Nullhypothese muß die Alternativhypothese nicht zu einer eindeutigen,testbaren Aussage ¨uber die Grundgesamtheit f¨uhren. Die Alternativhypothese wird selbstnicht getestet; ihre Formulierung entscheidet jedoch dar¨uber, in welcher Form die Nullhy-potese getestet wird (einseitig oder zweiseitig).

Die Wertebereiche von Null- und Alternativhypothese d¨urfen sich nicht ¨uberlappen, es kannalso nur eine der beiden Hypothesen angenommen werden. Die Alternativhypothese wirdgenau dann angenommen, wenn die Nullhypothese als Folge des Tests zur¨uckgewiesenwird.

Ein- und zweiseitiger Test

Ein Test heißteinseitig, wenn der Wertebereich der Alternativhypothese zusammenh¨angendist. Ansonsten ist ein Testzweiseitig.

Fehler 1. und 2. Art

Es gibt vier mogliche Konstellationen in einem Test:

1. DieHo ist richtig, und sie wird aufgrund des Tests nicht verworfen (P = 1� �).

7Formuliert als Annahme ¨uber die Verteilung einer Zufallsvariablen.8Man beachte: Die Nicht-Zur¨uckweisung einer Nullhypothese bedeutet somit keineswegs, daß sie richtig

ist!

5 TESTS 46

2. DieHo ist richtig, wird aber aufgrund des Tests verworfen (Fehler 1. Art,P = �).

3. DieHo ist falsch, wird aber aufgrund des Tests nicht verworfen (Fehler 2. Art,P =

1� �).

4. Die Ho ist falsch, und wird aufgrund des Tests tats¨achlich verworfen (Macht desTests,P = �).9

Wahrend die erste und vierte Konstellation erw¨unscht ist, weil sie das richtige Ergebnisliefert, treten die Fehler 1. und 2. Art mit den Wahrscheinlichkeiten� und� auf.

Signifikanz und Macht

Die AussagesicherheitoderSignifikanzeines Tests ist die Wahrscheinlichkeit, mit der einIrrtum erster Art in Kauf genommen wird. Wegen der Methodik des Tests kann die Wahr-scheinlichkeit, einen Fehler 1. Art zu begehen, durch die testende Person frei gew¨ahlt wer-den.

Die Wahrscheinlichkeit�, Ho abzulehnen wenn dieHA richtig ist, wirdMacht (Teststarke,Trennsch¨arfe) eines Tests genannt. Ist die Signifikanz� eines Tests festgelegt, so ergibt sichdie Wahrscheinlichkeit(1� �) eines Fehlers 2.Art aus der Formulierung der Alternativhy-pothese, dem Umfang der Stichprobe, der Streuung der Daten und der Seitigkeit des Tests.Ist die Alternativhypothese konkret formuliert (so daß sie auch als Nullhypothese getestetwerden konnte), so ist es m¨oglich, den Fehler 2.Art zu quantifizieren.

Bei kleineren Stichprobenumf¨angen und kleinem� ist die Moglichkeit, tatsachlich vor-handene Unterschiede nachzuweisen, gering. Das Ergebnis “Es wurde kein signifikanterUnterschied gefunden” muß dann mit Vorsicht beurteilt werden.

Durchf uhrung eines Tests

Die Durchfuhrung von statistischen Tests folgt einem generellen Schema:

1. Formuliere die NullhypotheseHo.

2. Formuliere die AlternativhypotheseHA und entscheide ¨uber die Seitigkeit des Tests.

3. Suche den geeigneten Test f¨ur das zu untersuchende Problem.

4. Prufe die Voraussetzungen des vorgesehenen Verfahrens.

5. Wahle ein Signifikanzniveau (i.d. Regel 5%).

6. Berechne aus den Stichprobenwerten den Werttexp (zexp, �2exp, Fexp) der Zufallsva-riablen (T , Z, �2, F ), die getestet werden soll.

7. Suche aus der tabellierten Verteilungsfunktion der Zufallsvariablen (t-, z-, �2- oderF -Verteilung) in Abhangigkeit von der Anzahl der FreiheitsgradeFG und der Sei-tigkeit des Tests einen Grenzwert (z.B.t�;FG), der mit der gew¨ahlten Irrtumswahr-scheinlichkeit� uberschritten wird.

8. Verwerfe dieHo, sofern der berechnete Werttexp der Zufallsvariablen gr¨oßer als derGrenzwertt�;FG und somit zu “unwahrscheinlich” erscheint.

9Beachte: die Notation f¨ur die Macht des Tests ist leider nicht einheitlich, Manchmal wird(1 � �) fur dieMacht verwendet. Die hier verwendete Notation richtet sich nach [19].

5 TESTS 47

Sofern eine Entscheidung zwischen zwei konkreten Hypothesen zu treffen ist, sollte dieMacht des Testes berechnet werden. Nur so kann entschieden werden, ob die AkzeptanzderHo tatsachlich auf sicheren Beinen steht.

5.2 Parametrische Tests

5.2.1 t-Testzum Vergleich eines Mittelwerts mit einem theoretischen Wert

Fragestellung:

Weicht der Mittelwert� einer Grundgesamtheit, der eine Stichprobe mit Mittel-wert �x entnommen wurde, signifikant von einem theoretischen Wert�o ab?

Voraussetzungen:

Die Grundgesamtheit, aus der die Stichprobe stammt, sei normalverteilt mit demunbekannten Mittelwert�. Die gemessenen Daten sind mindestens invervalls-kaliert.

Rechenweg:

1. Berechnetexp =j�x� �j

s

pn.

2. Lesettab fur das Quantil1� �=2 undFG = n� 1 aus dert-Tabelle ab.3. Verwerfe dieHo (“� = �o”), wenn texp � ttab.

5.2.2 F-Test

zum Vergleich der Varianzen zweier Stichproben

Fragestellung:

Sind die Varianzen�x und�y zweier Grundgesamtheiten, denen die Stichpro-benX undY entnommen wurden, signifikant verschieden?

Voraussetzungen:

Die Grundgesamtheiten, aus denen die Stichproben stammen, sind beide nor-malverteilt. Die gemessenen Daten sind mindestens intervallskaliert.

Rechenweg:

1. Berechnung der Pr¨ufgroße (Fexp)

Fexp =s2xs2y

(es wird davon ausgegangen, daßsx > sy; ansonsten werden Z¨ahler und Nennergetauscht.)

5 TESTS 48

2. Ablesen des tabellierten WertesFtab aus derF -Tabelle fur P = 99%, FG1 =

nx � 1, FG2 = ny � 1

3. Entscheidung: WennFexp > Ftab, so ist der Unterschied zwischen den Varian-zen signifikant.

Bei einem signifikanten Unterschied kann keint-Test auf gleiche Mittelwerte durch-gefuhrt werden, sondern es muß auf ein parameterfreies testverfahren zur¨uckgegriffenwerden (vgl. Kap. 5.3).

5.2.3 t-Testzum Vergleich der Mittelwerte unabhangiger Stichproben

Fragestellung:

Sind die Mittelwerte�x und�y zweier Grundgesamtheiten, denen die Stichpro-benX undY entnommen wurden, signifikant verschieden?

Voraussetzungen:

Die Grundgesamtheiten, aus denen die Stichproben stammen, sind beide nor-malverteilt. Die gemessenen Daten sind mindestens intervallskaliert. Die Vari-anzen sind unbekannt, aber gleich.

Rechenweg:

1. Berechnetexp =j�x� �yjso

�s

nx ny

nx + ny

mit so =

s(nx � 1)s2x + (ny � 1)s2y

nx + ny � 2.

2. Lesettab = t1��=2;FG aus dert-Tabelle ab, wobei die Zahl der FreiheitsgradeFG durchnx + ny � 2 berechnet wird.

3. Verwerfe dieHo (“�x = �y”), wenn texp � ttab.

5.2.4 t-Testzum Vergleich der Mittelwerte verbundener Stichproben

Fragestellung:

Ist ein Unterschied�� = j�x� �yj einer verbundenen StichprobeX;Y signi-fikant von 0 verschieden?

Voraussetzungen:

Die Werte der Stichprobe seien verbunden, die Meßwerte mindestens intervalls-kaliert. Dien Differenzen seien normalverteilt mit dem unbekannten Mittelwert��.

Rechenweg:

5 TESTS 49

1. Berechnetexp =j �djsd� pn

mit der mittleren Differenz�d =1

n

nXi=1

(xi � yi)

und der Stabw. der Differenzensd =

vuut 1

n� 1

nXi=1

��d� (xi � yi)

�2.2. Lese das(1� �=2)-Quantil ttab mit FG = n� 1 aus dert-Tabelle ab.

3. Verwerfe dieHo (“�� = 0”), wenntexp � ttab.

5.2.5 t-Testzur Prufung des Korrelationskoeffizienten

Fragestellung:

Ist der ausn Wertepaaren ermittelte Korrelationskoeffizientr signifikant ver-schieden von Null?

Voraussetzungen:

Die StichprobenX undY entstammen normalverteilten Grundgesamtheiten.

Rechenweg:

1. Berechnetexp =jrjp1� r2

� pn� 2.

2. Leset�;FG mit FG = n� 2 aus dert-Tabelle ab.

3. Verwerfe dieHo (“� = 0”), wenn texp � t�;FG.

5.2.6 �2-Anpassungstestzum Vergleich von beobachteten mit erwarteten Haufigkeiten

Fragestellung:

Weichenn beobachtete H¨aufigkeitenfi einer Stichprobe signifikant von erwar-teten Haufigkeiten�i einer vermuteten Verteilung ab?

Voraussetzungen:

Es gen¨ugen nominalskalierte Daten. F¨ur stetige Variablen m¨ussen Klassengebildet werden. Bei bivariaten Datens¨atzen kann mit den H¨aufigkeitenfijbzw.�ij gerechnet werden.

Rechenweg:

5 TESTS 50

1. Berechne zu denn beobachteten H¨aufigkeitenfi die zugeh¨origen theoretischen(erwarteten) H¨aufigkeiten�i und berechne die Summe der normierten quadra-tischen Differenzen

�2exp =nXi=1

(fi � �i)2

�i=

nXi=1

f2i

�i�N :

mit N = Stichprobenumfang (Anzahl aller Messungen).2. Lese�2

�;FGmit FG = n � 1 � a aus der�2-Tabelle ab, wobeia die Anzahl

Parameter angibt, die aus der Stichprobe gesch¨atzt werden mußten, um die er-warteten Haufigkeiten zu berechnen.

3. Verwerfe dieHo (“Die beobachtete und die theoretische Haufigkeitsverteilungsind gleich”), wenn�2exp � �2

�;FG.

5.2.7 Kolmogorov-Smirnov-Anpassungstestzum Vergleich von beobachteten mit erwarteten Verteilungen

Fragestellung:

Entstammt eine beobachtete Verteilungsfunktion~F (xi) einer theoretischenWahrscheinlichkeitsverteilungF (x) ?

Voraussetzungen:

Die Verteilungsfunktion der Grundgesamtheit ist stetig, die Daten mindestensintervallskaliert.

Rechenweg:

1. Berechne zu den Werten~F (xi) der beobachteten Verteilungsfunktion die zu-gehorigen theoretischen WerteF (xi).

2. Bestimme die innerhalb des Definitionsbereiches der Verteilung auftretendeMaximalabweichung�exp = supj ~F (x)� F (x)j.

3. Entnehme der Kolmogorov-Smirnov-Verteilung f¨ur das Signifikanzniveau�und den Stichprobenumfangn den Wert��;n.

4. Verwerfe dieHo (“Die beobachtete Verteilung entstammt der theoretischenWahrscheinlichkeitsverteilung”), wenn�exp � ��;n.

5.3 Nichtparametrische Tests

Parametrische Tests setzen grunds¨atzlich Annahmen ¨uber die Verteilung der Grundgesamt-heit voraus, oft z.B. normalverteilte Daten. Die Pr¨ufung dieser Annahmen wiederum istmanchmal – je nach Datenbeschaffenheit – nur mit einer großen Unsicherheit m¨oglich.

Verteilungsfreieoder nichtparametrischeTests sind f¨ur Situationen gefunden worden, indenen diese Annahmen unsicher sind oder offensichtlich nicht zutreffen. Man spricht indiesem Zusammenhang auch vonrobustenVerfahren.

Die Vorteileverteilungsfreier Tests sind

5 TESTS 51

- meist leichter zu verstehen und oft einfach zu berechnen.

- konnen in Situationen verwendet werden, wo klassische parametrische Tests nichtangewendet werden d¨urfen.

- besonders wenn Daten niedrig (sprich nicht intervall-) skaliert sind, sind parameter-freie Tests angebracht.

Die Nachteilesind

- sie ignorieren oft den tats¨achlichen numerischen Wert eines Parameters, d.h. sie ver-schwenden Information (Effizienzkriterium).

- Die Machtder parameterfreien Tests ist kleiner,Ho wird also eher irrt¨umlicherweisebeibehalten als bei parametrischen Tests.

In der Literatur werden eine Vielzahl von verteilungsfreien Verfahren beschrieben. Im fol-genden werden einige wenige parameterfreie Tests f¨ur Vergleiche von Mittelwerten vorge-stellt. Fur einen besseren Einblick in diese Verfahren und f¨ur eine Vielzahl von weiterenexistierenden Methoden sei auf die spezifische Literatur verwiesen ([5, 14, 27]).

5.3.1 Vorzeichentest (Two Sample Sign Test)zum Vergleich zweier Mittelwerte verbundener Stichproben

Der “Vorzeichentest (Two Sample Sign Test)”fur Paardifferenzen benutzt nicht dienumerischen Werte der Daten, sondern die Vorzeichenplusundminusals Testgrund-lage. Dies ist nicht gerade besonders effizient. Der Test hat allerdings den Vorteil, daßer bereits bei der Datensichtung “mit dem bloßen Auge” durchgef¨uhrt werden kann.

Fragestellung:

Sind die Wertexi undyi zweier verbundener StichprobenX undY signifikantverschieden?

Voraussetzungen:

Die Stichproben seien verbunden, die Meßwerte mindestens ordinalskaliert.

Rechenweg:

1. Weise jedem Datenpaar, f¨ur das unterschiedliche Werte vorliegen, ein “+” oderein “–” Zeichen zu. Addiere die “+” und “–” Zeichen, um die Zahln der in dieBerechnung eingehenden Datenpaare zu ermitteln. Die Zahl der Pluswerte seik.

2. Berechne den Wert

zexp =

�����k

n� 1

2

�p4n

���� :

3. Lese fur das Signifikanzniveau� und Zweiseitigkeit des Tests den Wertz(�=2)aus Tabelle der Standardnormalverteilung ab.

4. Verwerfe dieHo (“ kn= 1

2 ”), wennzexp � z�=2 .

Literatur:

[16], S. 420–426.

5 TESTS 52

5.3.2 Wilcoxon-Testzum Vergleich zweier Mittelwerte verbundener Stichproben

DerWilcoxon-Test fur Paardifferenzenentspricht in der Fragestellung dem Vor-zeichentestest, ist allerdings effizienter, da er die Gr¨oße der Differenzen ber¨uck-sichtigt.

Fragestellung:

Sind die Mediane zweier verbundenen StichprobenX und Y signifikantverschieden?

Voraussetzungen:

Die beiden Grundgesamtheiten sollen stetige Verteilungen von gleicherForm haben. Die Stichproben seien verbunden und die Daten mindestensordinalskaliert.

Rechenweg:

1. Berechne die Meßwertdifferenzendi = xi � yi. Die Differenzendi = 0

bleiben unber¨ucksichtig, es bleibenn Differenzendi 6= 0 zu betrachten.2. Bringe dienMeßwertdifferenzendi entsprechend ihrer Absolutbetr¨agejdij

in eine aufsteigende Rangfolge mit den R¨angenR(di).3. Berechne die SummeW+ uber die RangzahlenR(di) aller positiven Meß-

wertdifferenzendi > 0 und entsprechend die SummeW� derR(di) allernegativen Differenzendi < 0.

4. Diekleinereder beiden Gr¨oßen wird alsWexp bezeichnet.5. Verwerfe dieHo (“Die Mediane sind gleich”), wennWexp � W(n;�), wo-

beiW(n;�) aus der “W -Tabelle” entnommen wird.

Literatur:

[17], S. 103.

5.3.3 U -Testzum Vergleich zweier Mittelwerte unverbundener Stichproben

DerU -Test vonMann und Whitney(Rangsummen-Test) vergleicht die Mittel-werte zweier Grundgesamtheiten mitunterschiedlichenVarianzen (dert-Testkann nicht verwendet werden).

Fragestellung:

Sind die Mediane zweier unabh¨angiger StichprobenX1 undX2 verschie-den?

Voraussetzungen:

Die Grundgesamtheiten sind stetige Verteilungen von gleicher Form. DieStichproben sind unabh¨angig, die Daten mindestens ordinalskaliert.

Rechenweg:

1. Bringe die(n1 + n2) Stichprobenwerte in einegemeinsameReihenfolgeund berechne die SummenR1 undR2 der Rangzahlen der StichprobenX1

undX2.

5 TESTS 53

2. BerechneU1 undU2 entsprechend

U1 = n1 � n2 + n1 � (n1 + 1)

2�R1

U2 = n1 � n2 + n2 � (n2 + 1)

2�R2

Probe:U1 + U2 = n1 � n2.3. Diekleinereder beiden Gr¨oßen wird alsUexp bezeichnet.4. Verwerfe dieHo (“Die Mediane sind gleich”), wenn Uexp � U(n1;n2;�),

wobeiU(n1;n2;�) aus der “U -Tabelle” entnommen wird.

Literatur:

[17], S. 101; [25], S. 381.

6 ANALYSEN 54

6 Analysen

6.1 Korrelationsanalyse

� Typisierung korrelativer Zusammenhange

Formale Korrelationj j

ja nein+

Inhomogenitatskorrelationj j

ja nein+

Gemeinsamkeitskorrelationj j

ja nein+

Kausale Korrelation

� Gesamte, erklarte und unerkl arte StreuungDie gesamte QuadratsummeQy der gemesseneny-Werte

Q2y =

nXi=1

(yi � y)2

laßt sich in zwei Anteile zerlegen:

– Der Quadratsummen-Anteilum die Regressionsgerade ist

Q2e =

nXi=1

(yi � yi)2

mit yi = Meßwert an der Stellexi, und yi = aus der empirischen Regressions-geraden berechneter Wert an der Stellexi.

– Der Anteil Q2y, der sich aus der Differenz der vorhergesagten Werteyi vom

Gesamtmittely ergibt, ist

Q2y =

nXi=1

(yi � y)2

Diesen letzten Anteil nennen wir dieErklarte Quadratsumme. Es zeigt sichnun, daß sich die Gesamtstreuung gerade alsSummeder erklarten und der uner-klarten Streuung ergibt!

� Gute der Anpassung: Bestimmtheitsmaßr2

Um ein allgemeines Maß f¨ur die Gute der Anpassung einer Regressionskurve (die Ge-rade stellt lediglich einen Spezialfall dar) anzugeben, liegt es nahe, daf¨ur das Verh¨alt-nis zwischen erkl¨arter und gesamter Varianz zu benutzen.

6 ANALYSEN 55

Die so definierte Gr¨oße heißtBestimmtheitsmaßB

B = r2 =Q2y

Q2y

:

Im Fall der linearen Regression istB stets gerade das Quadrat des Korrelationskoef-fizientenr, und wird dann alsr2 angegeben.

� Test der Signifikanz der Korrelation; (H0 : � = 0)Der Korrelationskoeffizient der Stichprobe kann als (zufallsbehaftete) Realisierungeines Korrelationskoeffizienten� der Grundgesamtheit angesehen werden. Es ist dannzu prufen, ob der beobachtete Zusammenhang zwischen den Variablen tats¨achlichexistiert.

Um dies testen zu k¨onnen, muß die Voraussetzung erf¨ullt sein, daßbeideVariablenZufallsvariablen sind und normalverteilte Grundgesamtheiten besitzen, und daß dieAnzahl der Meßwerte nicht klein ist (Die Betrachtungsweise ist also anders als bei derRegressionsanalyse, s.u.).Ein Test ohne Beachtung dieser Voraussetzung ist wertlos.Der Test selbst ist (wie immer) sehr einfach:

Die TestvariableT = r

sn� 2

1� r2ist t-verteilt mit n-2 Freiheitsgraden.

Fragestellung:

Ist der Korrelationskoeffizient der Grundgesamtheit� signifikant verschiedenvon Null?

Voraussetzungen:

Die beiden Grundgesamtheiten sollen stetig und normalverteilt sein.

Rechenweg:

1. Berechnetexp = r

sn� 2

1� r2.

2. Verwerfe dieHo (“� = 0”), wenn texp � t�=2;n�2, wobei der tabellierte Wertder einseitigent-Tabelle entnommen wird (Bei Ablesen aus der zweiseitigent-Tabelle muß nat¨urlich der Wertt�;n�2 genommen werden).

6 ANALYSEN 56

6.2 Regressionsanalyse

Zugrundeliegendes lineares Modell

1. Die Werte der unabh¨angigen Variablen sind fest:x ist keine Zufallsvariable

2. Fur jedesx ist der zugeh¨origeY -Wert eine normalverteilte Zufallsvariable mit demMittelwert�Y jx = �+�x, wobei� und� konstant sind10. Die Gerade�Y jx = �+�x

heißtRegressionsgerade der Grundgesamtheit.

3. Die Varianz derY -Werteverteilung der Grundgesamtheit ist an jeder Stellex gleichgroß (Homoskedastizitat). Wir bezeichnen sie mit�2e .

Auf der Basis dieses Modells umfaßt die statistische Regressionsanalyse folgende Pro-bleme:

1. Berechnung von Punktsch¨atzungen f¨ur die Parameter�, � und�Y jx.

2. Abschatzung der Varianz�2e .

3. Berechnung von Konfidenzintervallen f¨ur die Parameter�, � und�Y jx.

4. Testen von Hypothesen zu diesen Parametern.

Losungen der Probleme

ad 1) Punktschatzungen:Es kann gezeigt werden, daß die nach der Methode der kleinsten Quadrate berechneteRegressionsgerade der Stichprobe eine erwartungstreue Sch¨atzung der Populations-Regressionsgeraden ist. Die Punktsch¨atzungen f¨ur �, � und�Y jx sind durcha, b undy(x) gegeben.

ad 2) Varianzabschatzung:Die an jeder Stellex gleiche Varianz�2e der ZufallsvariablenY wird durch die Streu-ungs2e der gemesseneny-Werteum die Regressionsgerade abgesch¨atzt:

s2e =1

n� 2

nXi=1

(yi � y)2

(Es wird durchn� 2 geteilt, weil wir durch die Sch¨atzung der ParameterA undB im obigenAusdruck zwei Freiheitsgrade verloren haben. Der Indexe kommt von“Error” )In der Praxis wirds2e durch folgenden Ausdruck berechnet:

s2e =1

n� 2

"nXi=1

y2i � anXi=1

yi � bnXi=1

xiyi

#

Die Standardabweichungse heißtStandardfehler der Regressionsgeraden11.

10Im folgenden wird� sowohl als Koeffizient der Regressionsgerade als auch zur Angabe der Irrtummswahr-scheinlichkeit benutzt. Dies ist von der Nomenklatur her nicht sauber, sollte aber zu keinen Verwechslungenfuhren.

11In EXCEL: STFEHLERYX(y;x)

6 ANALYSEN 57

ad 3) KonfidenzintervalleDie Berechnung von Konfidenzintervallen und die Tests beruhen auf der Kenntnisder Verteilungen und Varianzen der einzelnen Parameter. Da wir die Varianzen derGrundgesamtheit nicht kennen, m¨ussen wir sie aus Stichprobenwerten absch¨atzen.Die zugeh¨orige Testverteilung ist deshalb Studentst-Verteilung.

Aus der Sch¨atzung vons2e lassen sich die Varianzsch¨atzungen f¨ur die Wahrscheinlich-keitsverteilungen der Parameter�, � und des prognostizierten WertesY (x0) ableiten:

s2a =

�1

n+

�x2Pn

i=1(xi � x)2

�s2e

s2b =s2eP

n

i=1(xi � x)2

s2yo =

"1

n+

(xo � x)2Pn

i=1(xi � x)2

#s2e

HINWEIS: Die Varianz der Vorhersage der ZufallsvariablenY ist fur verschiedene x-Werteunterschiedlich groß; Sie ist an der Stellexo = x am kleinsten, und wird nach beiden Seitenzunehmend (quadratisch) gr¨oßer !

Fur die Konfidenzintervalle der Parameter bzw. eines gesch¨atzten Wertes auf der Re-gressiongerade gilt0

B@ Parameter�Punkt�Sch�atzung

1CA�

0B@ Zu gehoriger

Wert der

t� V erteilung

1CA �

0B@ Gesch�atzte

Standard�Abweichung

1CA

Daraus folgt mit = 1� �:

– Ein (1 � �) � 100 Prozent Intervall f¨ur � ist

a� tn�2;�=2 � sa

– Ein (1 � �) � 100 Prozent Intervall f¨ur � ist

b� tn�2;�=2 � sb

– Ein (1 � �) � 100 Prozent Intervall f¨ur �Y jxo ist

a+ bx0 � tn�2;�=2 � syo

ad 4) Test der GeradensteigungB auf einen bestimmten WertBo

Die TestvariableT =b�Bo

sbist t-verteilt mitn� 2 Freiheitsgraden:

Fragestellung:

Ist die GeradensteigungB der Grundgesamtheit signifikant verschieden von ei-ner SteigungBo?

6 ANALYSEN 58

Voraussetzungen:

Die Grundgesamtheiten entsprechen dem linearen Modell I (s.o.).

Rechenweg:

1. Berechnetexp =b�Bo

sb.

2. Verwerfe dieHo : (\B = B00o ), wenntexp � tn�2;�=2.

Abschließende Bemerkungen

Welche Analyse ist an welche Voraussetzungen gebunden ?

Korrelationskoeffizienten und Regressionskurven lassen sich an beliebigen Daten berech-nen. Bei ihrer Interpretation, d.h. bei der Durchf¨uhrung der Regressions- und Korrelations-analyse, muß man jedoch unbedingt die damit verkn¨upften Modellvorstellungen beachten!

Bei der behandeltenRegressionsanalysewird die unabh¨angige Variable als fest vorgegebenbetrachtet, w¨ahrend die abh¨angige normalverteilt ist. IstX ebenfalls eine Zufallsvariable,so ist das modifizierte Modell II anzuwenden (s. Literatur). Wird die Regressionsgleichungzu Vorhersagen benutzt, so ist dies - wie bei allen statistischen Verfahren - nur innerhalbdes Wertebereichs zul¨assig, der durch Stichprobenwerte abgedeckt ist. Streuen die Daten inbetrachtlichem Maß, so sollten die Konfidenzbereiche f¨ur Y berechnet werden.

Ist bei einerSignifikanzprufung des Korrelationskoeffizientennicht sicher, ob die Stichpro-bendaten normalverteilten Grundgesamtheiten entstammen, so ist ein entsprechender Testdurchzufuhren. Nicht normalverteilte Daten k¨onnen manchmal zur Normalverteilung trans-formiert werden; in diesem Fall ist mit den transformierten Daten die Korrelationsanalysedurchzufuhren. Sollte eine Normalverteilung auch nicht angen¨ahert erreichbar sein, so mußmit verteilungsfreien Verfahren gearbeitet werden (z.B. Rangkorrelation).

Weiterhin sollte erkannt werden, daß einwichtiger und einsignifikanterEffekt nicht im-mer dasselbe ist: bei gen¨ugend großen Stichproben k¨onnen auch schwache Effekte (alsox-Werte, die diey-Werte nur schwach bestimmen) als signifikant nachgewiesen werden.Umgekehrt gilt bei kleinen Stichproben, daß selbst ein relativ hoher Wert vonr manchmalnicht als signifikant eingestuft wird. In diesem Fall sollte der Stichprobenumfang erh¨ohtwerden, um den Effekt statistisch zu belegen.

Abschließend muß noch betont werden, daß eine signifikante Korrelation grunds¨atzlichnicht bedeutet, daß eine Ursache-Wirkung Beziehung besteht. Es ist nur ein Hinweis dar-auf, daß eine solche Verkn¨upfung bestehen kann. Dies zu Pr¨ufen ist aber die Sache desuntersuchenden Wissenschaftlers und kann von der Statistik nicht ¨ubernommen werden!

6 ANALYSEN 59

6.3 Varianzanalyse

� Grundgedanke

– Frage: Hat die Variation eines (Versuchs)parameters einen signifikanten Ein-fluß auf das Ergebnis ?

– Prinzip: Unterscheidung in feste und zuf¨allige Effekte (z.B. Zufallige Meßfeh-ler — Bewußte Variation eines Versuchsparameters)

– Vorgehensweise:Einteilung der Daten inm Stichproben mit den Stichprobenumf¨angenni. (FurjedeFaktorstufeeine Stichprobe).

– Zerlegung der Gesamtvarianz nach Streuungsursachen:

Varianz innerhalb der SPs2 = s2i;innerh: =

Pm

i=1

Pnij=1(xi;j � xi)

2Pm

i=1(ni � 1)

Varianz zwischen den SPs2zwischen =1

m� 1

mXi=1

(xi � x)2

(xi sind die SP-Mittelwerte,x ist der Gesamtmittelwert.)

– Prufung der Varianzen auf Gleichheit durchF -Test

� Testdurchfuhrung:

H0: Die Mittelwerte�1; �2; : : : ; �m sind alle gleichHA: Wenigstens einer der Mittelwerte ist verschieden

Test mit der Signifikanz� durch Vergleich der Varianzzwischenden Gruppen mit derinternenVarianz: Das Verh¨altnis muß gr¨oßer als ein tabellierterF -Wert sein.

fexp = nszwischen

sinnerh:

VerwerfeHo wennfexp � F(m�1;P

(ni�1); �) (Bem.: Fur Werte< 1 wird H0 in

jedem Fall beibehalten. Einseitiger Test).

� Test-Voraussetzungen

– Diem Stichproben stammen ausm normalverteilten Grundgesamtheiten.

– Die m Grundgesamtheiten haben diesselbe Varianz; dabei kann�2 unbekanntsein.

– Diem Stichproben seien unabh¨angig.

� HinweisBei der Planung eines Versuches sollte man darauf achten, f¨ur jede Faktorstufe diegleiche Anzahl von Wiederholungenzu haben (�n = n1 = n2 = : : : = nm). Eine sol-che Versuchsanordnung heißtbalanciertund hat fur statistische Auswertungen vieleVorteile.

7 CHEMOMETRISCHE ANWENDUNGEN 60

7 Chemometrische Anwendungen

7.1 Prazision, Richtigkeit und Genauigkeit von Meßverfahren

Prazision

Die Prazision (precision) eines Verfahrens kann durch den zuf¨alligen Meßfehler beschrie-ben werden. Ist die Varianz bzw. die Standardabweichung als Maß f¨ur den zufalligen Fehlersehr klein geworden, dann hat das Verfahren eine hohe Pr¨azision erreicht. Als Maß f¨ur diePrazision kann eine inverse Funktion der Standardabweichung z.B.1=� verwendet werden.Je großer der Funktionswert ist, desto pr¨aziser arbeitet das Meßverfahren.

Richtigkeit (accuracy of the mean; bias)

Bei der Untersuchung von Richtigkeit eines Meßverfahrens steht die Frage ¨uber den syste-matischen Fehler des Verfahrens im Vordergrund. Im Unterschied zur Pr¨azision, die direktim Zusammenhang mit der Streuung von Meßergebnissen steht, ist die Richtigkeit einesVerfahrens danach zu beurteilen, wie weit der Mittelwert der Meßergebnisse vom “wah-ren” Wert entfernt ist. Dieser wahre Wert ist als theoretische Gr¨oße immer unbekannt. Erkann beispielsweise als Naturkonstante gegeben sein, empfohlen sein, oder als hypotheti-scher Wert vorgegeben sein. Demnach ist die Richtigkeit vorerst nicht quantifizierbar. DieRichtigkeit eines Meßverfahrens kann indirekt ¨uberpruft werden durch:

- Parallelbestimmungen mit einem anderen Meßverfahren

- Zusatzversuche (in der Analytik durch Hinzuf¨ugen bekannter Substanzmengen zurUrsprungssubstanz)

- Mischversuche (in der Analytik durch Mischen einer zu untersuchenden; Substanz inverschiedenen Konzentrationen oder Mengen)

- Ringversuche

Genauigkeit

Unter Genauigkeit eines Meßverfahrens verstehenFunk et al.[13] diegesamte Abweichungeines Meßverfahrens. Da sich die Richtigkeit eines Meßverfahren nur am systematischenFehler orientiert, und die Pr¨azision eines Verfahrens am zuf¨alligen Fehler, ist die Frageoffen, wie Meßverfahren insgesamt zu bewerten sind.

Einfach ist die Frage zu beantworten, wenn beide Meßverfahren die gleiche Richtigkeit be-sitzen. In diesem Fall wird das Verfahren mit der gr¨oßeren Pr¨azision gew¨ahlt. Umgekehrtwird bei zwei Verfahren mit der gleichen Pr¨azision das Verfahren mit der gr¨oßeren Richtig-keit zu wahlen sein.

Schwieriger ist die Frage zu beurteilen, wenn ein Meßverfahren eine hohe Pr¨azision und ei-ne geringe Richtigkeit hat und das andere eine geringe Pr¨azision aber eine hohe Richtigkeit.In diesem Fall kann die Wahl des Verfahrens von der jeweiligen Anwendung abh¨angen. Ge-nerell ist zu ber¨ucksichtigen, daß ein Verfahren mit hoher Streuung oft nur relativ schwerweiter prazisiert werden kann. Hingegen besteht bei einem systematischen Fehler h¨aufig die

7 CHEMOMETRISCHE ANWENDUNGEN 61

Moglichkeit der Justierung. In diesem Fall sollte der Pr¨azision das gr¨oßere Gewicht gegebenwerden.

Empfindlichkeit, Sensitivitat

Unter derEmpfindlichkeitoder Sensitivitat eines Analysenverfahrensverfahrens verstehtman dieAnderung des Signalwerts proAnderung des Gehalts, d.h. die Steigung der Eich-geraden. Die Empfindlichkeit geht ein in die Definition der Verfahrensstandardabweichung(Verhaltnis von Streuung zu Empfindlichkeit), und damit in die Berechnung der Nachweis-grenze.

7.2 Statistische Beurteilung von Analyseverfahren

(Nach [9], S. 64 ff.) Die ¨uberwiegende Zahl der in der Wasseranalytik benutzten Analy-severfahren sind eichbed¨urftige Relativverfahren, bei denen ein gemessenes Signal – derInformationswerty – uber eine Eichfunktion in eine Konzentrationx umgerechnet werdenmuß. DieNachweisgrenze(NG) ist ein wichtiges Kennzeichen der Leistungsf¨ahigkeit ei-nes Analyseverfahrens. Sie ist gekennzeichnet durch den kleinsten Wert des Gehaltes einerSubstanz in einer Analysenprobe, f¨ur den die vorliegende Analysenmethode Signalwerteliefert, die sich mit 95% Wahrscheinlichkeit von solchen Signalwerten unterscheiden, dieder Gehalt “Null” in der Analysenprobe liefert.

Eine Substanz ist dann nachgewiesen, wenn der gefundene Wert ihres Gehaltes im Untersu-chungsmaterial gr¨oßer als die Nachweisgrenze ist. Liegt der gefundene Wert unterhalb derNachweisgrenze, aber noch unterhalb der Bestimmungsgrenze, so kann noch kein exakterZahlenwert als Analysenergebnis angegeben, sondern bestenfalls die Gr¨oßenordnung desGehalts abgesch¨atzt werden [11].

Wahrend man also bei Messung eines Wertes oberhalb der Nachweisgrenze davon ausge-hen kann, daß sehr wahrscheinlich tats¨achlich etwas in der Probe ist, f¨uhren umgekehrt sehrniedrige Gehalte in der Probe an der Grenze der Nachweisgrenze oft (ca. 50% der F¨alle)dazu, daß das Signal als nicht signifikant verschieden vom Blindwert interpretiert wird.Daraus folgt die sinnvolle Definition derErfassungsgrenze. Diese stellt ein h¨oheres Kon-zentrationsmaß, ab dem man “on the save side” ist, d.h. das Fehlerrisiko, eine Substanz, diein dieser oder einer h¨oheren Konzentration vorliegt, nicht zu detektieren, wird ebenfalls sehrgering. Auf die Gegebenheiten der Qualit¨atssicherung im Bereich der R¨uckstandsanalytikabgestimmt ist schließlich der fr¨uher oft verwendete Begriff derBestimmungsgrenze, derallerdings uneinheitlich gehandhabt wird.

Zur Bestimmung dieser statistischen Maße ist es n¨otig, die Empfindlichkeit und die Streu-ung des Meßverfahrens zu quantifizieren, sowie die Voraussetzungen der regressionsanaly-tischen Kalkulationen zu pr¨ufen.

7.2.1 Prufung der Varianzhomogenitat von Kalibrierfunktionen

(Vereinfachtes Verfahren, aus [13], S. 32 ff.) ZurUberprufung der Varianzhomogenit¨at wirdvorgeschlagen, jeweils zehn Standardproben der niedrigstenx1, und der h¨ochsten Konzen-trationx10 des Arbeitsbereiches getrennt zu analysieren, wobei jeweils zehn Informations-werteyi;j erhalten werden (ni = 10). Fur beide Gruppen werden die Mittelwerte�y1 und

7 CHEMOMETRISCHE ANWENDUNGEN 62

�y10 sowie die Standardabweichungens1 und s10 berechnet. Mit Hilfe des einfachen Va-rianzentests (F -Test) werden die Streuungen der Informationswerte an den Grenzen desArbeitsbereiches auf signifikante Unterschiede hin untersucht.

1. Berechnung der Pr¨ufgroße (Fexp)

Fexp =s210s21

(es wird davon ausgegangen, daßs10 > s1; ansonsten werden Z¨ahler und Nennergetauscht.)

2. Ablesen des tabellierten WertesFtab aus derF -Tabelle furP = 99%, FG1 = n1�1,FG2 = n10 � 1

3. Entscheidung: WennFexp > Ftab, so ist der Unterschied zwischen den Varianzensignifikant.

Bei einem signifikanten Unterschied sollte der vorl¨aufige Arbeitsbereich soweit eingeengtwerden, bis die Bedingung der Varianzhomogenit¨at erfullt ist. Ansonsten muß mit einergewichteten Regression gearbeitet werden.

7.2.2 Prufung der Linearit at der Eichgerade

(aus [13], S. 34 ff.) Um bei der Pr¨ufung auf Linearitat auf die Durchf¨uhrung vonMehrfach-analysender Eichproben verzichten zu k¨onnen, wird ein Anpassungstest nachMandel[20]empfohlen. Dieser testet die durch Wahl einer anderen Ausgleichsfunktion (hier: Regressi-onsfunktion 2. Grades) erhalteneVerringerung der Restvarianzauf Signifikanz.

Testdurchfuhrung

� Aus den vorliegenden Konzentrations- und Informationswerten zu mindestensN =

10 unterschiedlichen Eichproben werden berechnet:

a) die lineare Eichfunktiony = a+ bx samt Residualstandardabweichungse1

b) die quadratische Eichfunktiony = a + bx + cx2 samt Residualstandardabwei-chungse2.

� Uber die Residualstandardabweichungen undse1 undse2 wird die Differenz�s2 derVarianzen berechnet:

�s2 = (N � 2) � s2e1 � (N � 3) � s2e2

� Die Differenz wird imF -Test auf Signifikanz gepr¨uft:

1. Berechnung der Pr¨ufgroße (Fexp)

Fexp =�s2

s2e2

2. Ablesen des tabellierten WertesFtab aus derF -Tabelle furP = 99%,FG1 = 1,FG2 = N � 3

7 CHEMOMETRISCHE ANWENDUNGEN 63

3. Entscheidung: WennFexp > Ftab, so ist der Unterschied zwischen den Varian-zen signifikant.

Ist der Unterschied nicht signifikant, so ist die Eichgerade linear.

Ist der Unterschied dagegen signifikant, so stellt die Anpassung der Parabel tats¨achlich einbesseres Modell f¨ur die Daten dar: die Eichgerade ist signifikant nichtlinear. Erfahrungs-gemaß kann in diesem Fall durch Einengung des Arbeitsbereichs eine Verbesserung erzieltwerden. Es sollte, wenn dies gew¨unscht wird, in einem engeren Arbeitsbereich eine neueEichung durchgef¨uhrt und der Linearit¨atstest wiederholt werden, anderenfalls muß mit einernicht linearen Eichgerade gearbeitet werden (siehe [13], Kap. 3.4).

ANMERKUNG: Dieser Linearitatstest hat gegen¨uber dem einfachen Vergleich (F -Test) der beidenRestvarianzens2

e1und s2

e2den Vorteil, daß die Pr¨ufgroßenicht durch die unterschiedlichen Frei-

heitsgrade beeinflußt wird, was bei einer niedrigen Anzahl von Einzeldaten stark ins Gewicht fallenwurde.

7.2.3 Vertrauensbereiche um die Eichgerade

In Kapitel 6.3 (Regressionsanalyse) wurden einige wichtige Gr¨oßen definiert, die zur Be-rechnung der Nachweisgrenze ben¨otigt werden: Aus der Streuung der Meßwerte um dieRegressionsgerade,se, laßt sich die Varianzs2

yieines einzelnen, ¨uber die Eichgerade vor-

hergesagten, Informationswertsyi errechnen, und darauf basierend ein Konfidenzintervallyi ��yi. Die Gleichungen hierzu sind:

Standardfehler der Regressionsgeraden:

s2e =1

n� 2

nXi=1

(yi � yi)2

Streuung des vorhergesagten Informationswerts:

s2yi = s2e �"1

n+

(xi � x)2Pn

i=1(xi � x)2

#

Prognoseintervall eines vorhergesagten Informationswerts:

yi ��yi = yi � tFG;�=2 � syimit FG = n� 2, wobein die Anzahl der Meßpunkte beim Aufstellen der Eichgerade sind.

Erfolgt nun eine Messung der (unbekannten) Konzentrationxj (nicht notwendigerweiseidentisch zu einer der Eichmessungenxi, und (aus mathematischer Sicht) nicht einmal not-wendigerweise innerhalb des Wertebereichs der Eichung), so ergibt sich f¨ur die Varianzs2(yj) des zugeh¨origen Informationswerts

s2(yj) = s2e �"1 +

1

n+

(xi � x)2Pn

i=1(xi � x)2

#

Durch wiederholte Messung (na Messungen f¨ur eine Probe) l¨aßt sich das Konfidenzbandetwas verkleinern:

s2(yj) = s2e �"1

na+

1

n+

(xi � x)2Pn

i=1(xi � x)2

#

7 CHEMOMETRISCHE ANWENDUNGEN 64

Tragt man die Konfidenzwerte f¨ur alle Wertex grafisch auf, so erh¨alt man die leicht ge-krummten Konfidenzb¨ander (prediction intervalls) um die Eichfunktion.

Fur den Analyseschritt ist es nun n¨otig, aus den Konfidenzb¨andern fur den Informationswertdurch Invertierung Konfidenzintervalle f¨ur eine unbekannte Konzentrationxa zu berechnen.

Die Invertierung ergibt f¨ur denVertrauensbereich vonx bei vorgelegtem Signalwerty [9]:

�xa ���xa = �xa �se � tFG;�=2

b

s1

na+

1

n+

(�xa � �x)2Pn

i=1(xi � x)2

mit b = Steigung der Eichgeraden, und�x = Mittelwert der Konzentrationen bei der Eichung.

HINWEIS: Der Ausdruckseb

wird Verfahrensstandardabweichunggenannt und stellt einewichtige Große zur Charakterisierung der G¨ute des Meßverfahrens dar.

7.2.4 Nachweisgrenze

Ausgehend von der Eichgeradey = a+ bx

konnen Nachweisgrenze, Erfassungsgrenze und Bestimmungsgrenze ausgehend von einemkritischen Wertycrit errechnet werden. Diese Werte sind von besonderem Interesse im Be-reich er Spurenanalytik. Die Verfahren zur Errechnung der Kennwerte k¨onnen hierbei unter-teilt werden in solche, die darauf basieren, daß mehrere Blindwertmessungen durchgef¨uhrt,und statistisch ausgewertet werden, und solche, die zus¨atzlich die Informationen aus derEichgeraden verwenden.

Nachweisgrenze: Methode der Blindwertstreuung

Werdennb Versuche zur Bestimmung des Blindwerts durchgef¨uhrt, so lassen sich ein mitt-lerer Blindwertyblank und die zugeh¨orige Standardabweichungsblank berechnen. Der kriti-sche Informationswertycrit wird dann als obere Grenze des Vertrauensintervalls f¨ur yblankaus den Blindwertmessungen aufgefaßt:

ycrit = yblank + sblank � tFG;�=2s

1

nb

mit FG = nb � 1.

Ist das Signal einer Analyse ¨uber diesem kritischen Wert, so l¨aßt sich mit einer Irrtumswahr-scheinlichkeit� sagen, daß es durch eine Konzentration in der Probe hervorgerufen wurde.Aufgrund dieserqualitativen Entscheidungkann nun leicht ausgerechnet werden, welcherKonzentrationx = NG dieser Informationswert entspricht:

NG =sblank

b� tFG;�=2

s1

nb

Entsprechend einem Vorschlag der DIN 32645 [1]kann der numerische Wert der Nachweis-grenze noch weiter abgesenkt werden, wenn angenommen wird, daß f¨ur die Analyse einer

7 CHEMOMETRISCHE ANWENDUNGEN 65

Probe dieselbe Standardabweichung wie f¨ur die Analyse der Blindwerte besteht:

NG =sblank

b� tFG;�=2

s1

nb+

1

na

Nachweisgrenze: Eichkurvenverfahren

Bei dieser Methode wird zur Berechnung des kritischen Werts die obere Konfidenzgrenzedes Achsenabschnitts der Eichgerade benutzt [1]:

ycrit = a+ se � tFG;�=2s

1

n+

1

na+

�x2Pn

i=1(xi � x)2

mit n = Anzahl der Messungen zur Aufstellung der Eichgeraden,na = Anzahl der Messun-gen der zu untersuchenden Probe,�x2 = Quadrat des Mittelwerts der Eichkonzentrationen,undFG = n� 2. Einsetzen vonycrit in die Gleichung der Eichgeraden ergibt

NG =se

b� tFG;�=2

s1

n+

1

na+

�x2Pn

i=1(xi � x)2

7.2.5 Erfassungsgrenze

Fur Konzentrationen an der Nachweisgrenze besteht eine 50%-Wahrscheinlichkeit, daß ge-messene Werte im Streubereich des Blindwertes liegen. In anderen Worten: Das Risiko,einen Blindwert irrtumlich als Signal zu akzeptieren, ist zwar gering (namentlich =�), aberdie Wahrscheinlichkeit f¨ur einen Fehler 2. Art, n¨amlich eine tats¨achlich vorhandene Kon-zentration als nicht nachweisbar zu erkl¨aren, ist relativ hoch. Eine verl¨aßliche Erfassung vonKonzentrationen ist also erst m¨oglich, wenn auch die Fehlerwahrscheinlichkeit� verklei-nert wird. Fur� = � ergibt sich in erster N¨aherung eine Verdoppelung der Nachweisgrenze.Dieser Wert wird mit dem TerminusErfassungsgrenze[1] bezeichnet:

EG = 2 �NG

7.2.6 Bestimmungsgrenze

Die Bestimmungsgrenze ist ein traditioneller Begriff, der uneinheitlich gehandhabt wur-de. Nach [13] ergibt sich die BestimmungsgrenzeBG aus der Forderung, daß die obereVertrauensbereichsgrenze des Blindwerts der unteren Vertrauensbereichsgrenze der quan-tifizierbaren Analysewerte entspricht. Dies w¨urde der oben definierten Erfassungsgrenzeentsprechen. Nach einem Vorschlag von Long und Winefordner (1983; zit. in [9]) wird dieBestimmungsgrenze analog zur Nachweisgrenze errechnet, wobei jedoch eint�Wert von10 (statttFG;�=2 � 2) eingesetzt wird.

“Die Bestimmungsgrenze ist eine pragmatisch festgelegte Gr¨oße (d.h. sie ist ohne Bezug zuSicherheit und Risiko). Sie gibt die untere Gehaltsgrenze f¨ur einen maximal tolerierbarenrelativen Zufallsfehler an. Bestimmungen unterhalb dieser Grenze sind mit einem unakzep-tabel hohen Zufallsfehler belastet.”

7 CHEMOMETRISCHE ANWENDUNGEN 66

7.3 Ringversuche

(Siehe hierzu HARTUNG, S. 342 ff.) Mit Hilfe von Ringversuchen k¨onnen Meß- und Ana-lysenmethoden auf systematische und zuf¨allige Fehler hin untersucht werden.

Bei analytischen Fragestellungen in Ringversuchen geht man aus von einem Probenmaterialmit genau vorgegebenem Stoffgehalt12.

Proben des Referenzmaterials werden an die teilnehmenden Laboratorien versandt und dortauf die vorgegebene Substanz hin quantitativ analysiert. Geht man davon aus, daß keineMeßfehler auftreten, so w¨urden alle Laboratorien zu den gleichen Ergebnissen gelangen.Sind nun bei den meisten Teilnehmern die Analysen nahezu gleich und treten nur bei ei-nigen wenigen st¨arkere Abweichungen auf, so wird man diese Abweichungen genauer aufsystematische Fehler hin untersuchen. Ein Ringversuch dieser Art wird auch interlaboratori-eller Vergleich genannt. Ringversuche k¨onnen ebenfalls auf Vergleiche innerhalb von Labo-ratorien angewendet werden (intralaboratorieller Vergleich). Beispielsweise k¨onnen die zuuntersuchenden Analysen von verschiedenen Mitarbeitern vorgenommen werden. Ebensodenkbar ist die Durchf¨uhrung der Analysen von verschiedenen Mitarbeitern an verschiede-nen Tagen. Die Durchf¨uhrung von Analysen in verschiedenen Laboratorien von verschiede-nen Mitarbeitern an verschiedenen Tagen kann ebenfalls ausgewertet werden. In den letztenbeiden Fallen spricht man von einem hierarchischen Aufbau des Ringversuchs.

12In den USA beispielsweise werden zertifizierte Referenzmaterialien mit genau eingestellten Stoffgehaltenin den unterschiedlichsten Tr¨agermaterialien bzw. Matrices vom National Bureau of Standards angeboten.

LITERATUR 67

Literatur

[1] DIN 32645. Teil1: Chemische Analytik; Nachweis-, Erfassugs- und Bestimmungs-grenze; Ermittlung unter Wiederholbedingungen; Begriffe, Verfahren, Auswertung 5.1994.

[2] M. Abramowitz and I.A. Stegun.Handbook of Mathematical Functions. Dover, NewYork, 1965.

[3] V. Barnett and T. Lewis.Outliers in Statistical Data. Wiley, Chichester, 2 edition,1985.

[4] V. Baumgartner and A. C¨asperlein. Anwendung von Verteilungsfunktionen in derHochwasserstatistik.Wasserwirtschaft, 76(1):5–9, 1986.

[5] J. Bortz, G.A. Lienert, and K. Boehnke.Verteilungsfreie Methoden in der Biostatistik.Springer, Berlin, 2 edition, 1990.

[6] C. Chatfield. Problem Solving. A Statistician’s Guide. Chapman and Hall, London,1994.

[7] V.T. Chow, D.R. Maidment, and L.W. Mays.Applied Hydrology. McGraw-Hill, NewYork, 1988.

[8] K.L. Chung.Elementary Probability Theory with Stochastic Processes. Springer, NewYork, 3 edition, 1979.

[9] W. Einax, H. W. Zwanziger, and S. Geiß.Chemometrics in Environmental Analysis.VCH, Weinheim, 1997.

[10] R.A. Fisher and L.H.C. Tippet. Limiting forms of the frequency distribution of thelargest or smallest member of a sample.Proc. Cambridge Phil. Soc., 24(II):180–191,1928.

[11] Deutsche Forschungsgemeinschaft.Methodensammlung zur Ruckstandsanalytik vonPflanzenschutzmitteln. VCH, Weinheim, 11. Lieferung ,1991.

[12] H.A. Foster. Theoretical frequency curves and their application to engineering pro-blems.Trans. Am. Soc. Civ. Eng., 87:142–173, 1924.

[13] W. Funk, V. Dammann, C. Vonderheid, and G. Oehlmann.Statistische Methoden inder Wasseranalytik. VCH, Weinheim, 1985.

[14] M. Hollander and D.A. Wolfe.Nonparametric Statistical Methods. Wiley, New York,1973.

[15] D. Huff. How to lie with Statistics. Norton, New York, 1954.

[16] R. Khazanie.Elementary Statistics in a World of Applications. Scott, Foresman andCompany, Glenview, Illinois, 1979.

[17] W. Kohler, G. Schachtel, and P. Voleske.Biometrie. Einfuhrung in die Statistik furBiologen und Agrarwissenschaftler. Springer, Berlin, 1984.

LITERATUR 68

[18] U. Krengel. Einfuhrung in die Wahrscheinlichkeitstheorie und Statistik. Vieweg Stu-dium, Aufbaukurs Mathematik, Braunschweig, 3 edition, 1991.

[19] E. Kreyszig. Statistische Methoden und ihre Anwendungen. Vandenhoek undRupprecht, G¨ottingen, 7 edition, 1979.

[20] J. Mandel. The statistical analysis of experimental data. Intersc. Publ., J. Wiley &Sons, New York, 1964.

[21] M. Nagel, K. D. Wernecke, and W. Fleischer.Coputergestutzte Datenanalyse.VerlagTechnik, Berlin, Munchen, Mit MS-Dos Diskette f¨ur Statistikprogramm ISP, 1997.

[22] W.H. Press, S.A. Teukolsky, W.T. Vetterling, and B.P. Flannery.Numerical Recipes.Cambridge University Press, Cambridge, 2 edition, 1992.

[23] W. Rechenberg.Fresenius Z. Analyt. Chem., 311:590, 1982.

[24] L. Ries.Chemometrie.Europa Fachhochschule Fresenius, Idstein, Skript, Ausgabe 4,September 1997.

[25] L. Sachs.Angewandte Statistik. Springer, Berlin, 7 edition, 1992.

[26] C.-D. Schonwiese. Praktische Statistik fur Meteorologen und Geowissenschaftler.Borntrager, Stuttgart, 1985.

[27] S. Siegel.Nichtparametrische Statistische Methoden. Fachbuchhandlung f¨ur Psycho-logie, Verlagsbuchhandlung, Frankfurt, 1976.

[28] E.R. Tufte.The Visual Display of Quantitative Information. Graphics Press, Cheshire,Connetticut, 1985.