Statistik - hs-esslingen.dekamelzer/stat_TBB/Statistik.pdf · Statistik Dr. I. Fahrner basierend...

39
Statistik Dr. I. Fahrner basierend auf den Skripten von Prof. Dr. K. Melzer und Prof. Dr. P. Plappert [email protected] Contents 1 Einleitung und Übersicht 3 2 Datengewinnung (kurzer Überblick) 3 2.1 Planungsphase einer statistischen Untersuchung ..................... 3 2.1.1 Festlegung des Untersuchungsziels ........................ 3 2.1.2 Festlegung der Grundgesamtheit und der statistischen Einheiten ....... 4 2.1.3 Festlegung der zu erhebenden Merkmale ..................... 4 2.1.4 Festlegung von Art und Methode der Erhebung ................. 4 2.2 Durchführung der Erhebung ................................ 5 2.3 Datenbereinigung ...................................... 5 2.3.1 Behandlung von Ausreißern ............................ 5 2.3.2 Behandlung fehlender Werte ........................... 5 3 Beschreibende Statistik 5 3.1 Tabellarische und grafische Darstellung eines Merkmals ................ 6 3.1.1 Darstellung eines qualitativen Merkmals ..................... 6 3.1.2 Darstellung eines quantitativen Merkmals .................... 7 3.2 Statistische Kennzahlen für ein quantitatives Merkmal ................. 7 3.2.1 Berechnung von Kennzahlen bei Vorliegen einer Messreihe ........... 7 3.2.2 Berechnung von Kennzahlen bei Vorliegen einer Häufigkeitstabelle ...... 8 3.2.3 Kennzahlen bei Vorliegen einer Häufigkeitstabelle mit Klasseneinteilung ... 9 3.2.4 Verschiebung und Streckung ............................ 9 3.3 Zusammenhang zwischen zwei quantitativen Merkmalen ................ 9 3.3.1 Grafische Darstellung ............................... 9 3.3.2 Empirische Kovarianz ............................... 10 3.3.3 Empirischer Korrelationskoeffizient ........................ 10 3.3.4 Lineare Regression/Ausgleichsgerade ....................... 11 3.3.5 Bestimmtheitsmaß ................................. 11 4 Wahrscheinlichkeitsrechnung und Kombinatorik 11 4.1 Kombinatorik ........................................ 11 Permutationen ................................... 12 Die vier Grundaufgaben der Kombinatorik ................... 13 4.2 Grundbegriffe der Wahrscheinlichkeitsrechnung ..................... 13 4.3 Berechnung von Wahrscheinlichkeiten .......................... 14 4.3.1 Grundformel für Wahrscheinlichkeiten bei Laplace-Zufallsexperimenten ... 14 4.3.2 Gegenereignis und zusammengesetzte Ereignisse ................ 14 4.3.3 Wahrscheinlichkeiten zusammengesetzter Ereignisse .............. 15 4.3.4 Mehrstufige Zufallsexperimente .......................... 15 4.4 Zufallsvariablen ....................................... 16 4.4.1 Diskrete Zufallsvariablen .............................. 16 4.4.2 Kennzahlen von Zufallsvariablen ......................... 17 4.4.3 Verteilung, Verteilungsfunktion und Unabhängigkeit .............. 18 4.4.4 Stetige Zufallsvariablen .............................. 19 4.4.5 Standardnomalverteilung Z ∼N (0, 1) ...................... 19 4.4.6 Summen von unabhängigen Zufallsvariablen ................... 20 1

Transcript of Statistik - hs-esslingen.dekamelzer/stat_TBB/Statistik.pdf · Statistik Dr. I. Fahrner basierend...

StatistikDr. I. Fahrner

basierend auf den Skripten vonProf. Dr. K. Melzer und Prof. Dr. P. Plappert

[email protected]

Contents1 Einleitung und Übersicht 3

2 Datengewinnung (kurzer Überblick) 32.1 Planungsphase einer statistischen Untersuchung . . . . . . . . . . . . . . . . . . . . . 3

2.1.1 Festlegung des Untersuchungsziels . . . . . . . . . . . . . . . . . . . . . . . . 32.1.2 Festlegung der Grundgesamtheit und der statistischen Einheiten . . . . . . . 42.1.3 Festlegung der zu erhebenden Merkmale . . . . . . . . . . . . . . . . . . . . . 42.1.4 Festlegung von Art und Methode der Erhebung . . . . . . . . . . . . . . . . . 4

2.2 Durchführung der Erhebung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52.3 Datenbereinigung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5

2.3.1 Behandlung von Ausreißern . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52.3.2 Behandlung fehlender Werte . . . . . . . . . . . . . . . . . . . . . . . . . . . 5

3 Beschreibende Statistik 53.1 Tabellarische und grafische Darstellung eines Merkmals . . . . . . . . . . . . . . . . 6

3.1.1 Darstellung eines qualitativen Merkmals . . . . . . . . . . . . . . . . . . . . . 63.1.2 Darstellung eines quantitativen Merkmals . . . . . . . . . . . . . . . . . . . . 7

3.2 Statistische Kennzahlen für ein quantitatives Merkmal . . . . . . . . . . . . . . . . . 73.2.1 Berechnung von Kennzahlen bei Vorliegen einer Messreihe . . . . . . . . . . . 73.2.2 Berechnung von Kennzahlen bei Vorliegen einer Häufigkeitstabelle . . . . . . 83.2.3 Kennzahlen bei Vorliegen einer Häufigkeitstabelle mit Klasseneinteilung . . . 93.2.4 Verschiebung und Streckung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

3.3 Zusammenhang zwischen zwei quantitativen Merkmalen . . . . . . . . . . . . . . . . 93.3.1 Grafische Darstellung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93.3.2 Empirische Kovarianz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103.3.3 Empirischer Korrelationskoeffizient . . . . . . . . . . . . . . . . . . . . . . . . 103.3.4 Lineare Regression/Ausgleichsgerade . . . . . . . . . . . . . . . . . . . . . . . 113.3.5 Bestimmtheitsmaß . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

4 Wahrscheinlichkeitsrechnung und Kombinatorik 114.1 Kombinatorik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

Permutationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12Die vier Grundaufgaben der Kombinatorik . . . . . . . . . . . . . . . . . . . 13

4.2 Grundbegriffe der Wahrscheinlichkeitsrechnung . . . . . . . . . . . . . . . . . . . . . 134.3 Berechnung von Wahrscheinlichkeiten . . . . . . . . . . . . . . . . . . . . . . . . . . 14

4.3.1 Grundformel für Wahrscheinlichkeiten bei Laplace-Zufallsexperimenten . . . 144.3.2 Gegenereignis und zusammengesetzte Ereignisse . . . . . . . . . . . . . . . . 144.3.3 Wahrscheinlichkeiten zusammengesetzter Ereignisse . . . . . . . . . . . . . . 154.3.4 Mehrstufige Zufallsexperimente . . . . . . . . . . . . . . . . . . . . . . . . . . 15

4.4 Zufallsvariablen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164.4.1 Diskrete Zufallsvariablen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164.4.2 Kennzahlen von Zufallsvariablen . . . . . . . . . . . . . . . . . . . . . . . . . 174.4.3 Verteilung, Verteilungsfunktion und Unabhängigkeit . . . . . . . . . . . . . . 184.4.4 Stetige Zufallsvariablen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 194.4.5 Standardnomalverteilung Z ∼ N (0,1) . . . . . . . . . . . . . . . . . . . . . . 194.4.6 Summen von unabhängigen Zufallsvariablen . . . . . . . . . . . . . . . . . . . 20

1

CONTENTS 2

4.4.7 Approximation diskreter Verteilungen durch die Normalverteilung . . . . . . 214.4.8 Quantile . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 214.4.9 Zufallsstreubereiche (ZSB) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22

5 Schließende Statistik 225.1 Punktschätzer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 225.2 Vertrauensbereiche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23

5.2.1 Konstruktion von Vertrauensbereichen . . . . . . . . . . . . . . . . . . . . . . 245.2.2 Tabellen für Vertrauensbereiche zur Vertrauenswahrscheinlichkeit 1− α . . . 24

Vertrauensbereich für µ bei bekannter Standardabweichung σ . . . . . . . . 24Vertrauensbereich für µ bei unbekannter Standardabweichung σ . . . . . . . 24Vertrauensbereich für die Differenz zweier Erwartungswerte µ1 − µ2 . . . . 25Vertrauensbereich für eine unbekannte Wahrscheinlichkeit p . . . . . . . . . 25

5.3 Hypothesentests . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 255.3.1 Konstruktion von Tests . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 265.3.2 Generelles Vorgehen beim Testen von Hypothesen . . . . . . . . . . . . . . . 265.3.3 Tabellen für statistische Tests . . . . . . . . . . . . . . . . . . . . . . . . . . . 27

Gauß-Test: Test für µ bei bekannter Standardabweichung σ . . . . . . . . . 27t-Test: Test für µ bei unbekannter Standardabweichung σ . . . . . . . . . . 27Zweistichproben-t-Test . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28Test für eine unbekannte Wahrscheinlichkeit/einen unbekannten Anteil p . . 28

6 Statistische Methoden in der Qualitätssicherung 286.1 Qualitätsregelkarten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29

6.1.1 Führen der Qualitätsregelkarte . . . . . . . . . . . . . . . . . . . . . . . . . . 296.1.2 Berechnung der Eingriffsgrenzen . . . . . . . . . . . . . . . . . . . . . . . . . 306.1.3 Grunderhebung (Vorlauf) zur Schätzung von µ und σ . . . . . . . . . . . . . 30

6.2 Prozessfähigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 316.3 Annahme-Stichprobenprüfung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32

6.3.1 Allgemeines zur Annahme-Stichprobenprüfung . . . . . . . . . . . . . . . . . 326.3.2 Ein AQL-Stichprobensystem . . . . . . . . . . . . . . . . . . . . . . . . . . . 336.3.3 Ergänzungen zum Thema ”Annahme-Stichprobenprüfung” . . . . . . . . . . 346.3.4 Übersichten und Tabellen zu den Normen MIL-STD-105E und DIN ISO 2859 35

Tabellen 38

1 EINLEITUNG UND ÜBERSICHT 3

1 Einleitung und ÜbersichtWichtiger Hinweis:Diese Dateien werden für Studierende ausschließlich zur Nutzung im Rahmen ihres Studiums an derHochschule Esslingen bereitgestellt. Jede weitergehende Nutzung, insbesondere Vervielfältigungjeder Art oder Weitergabe an Dritte, ist untersagt.

Die Statistik ist die Lehre von Methoden zum Umgang mit quantitativen Informationen. Sie be-fasst sich mit der Gewinnung, Darstellung und Auswertung von Daten. Ziel ist die Vorbereitungvon Entscheidungen.In der Ökonometrie werden theoretische Modelle durch statistische Verfahren überprüft.Phasen einer statistischen Untersuchung und Kapitel der VorlesungPlanung

↓Erhebung

↓Bereinigung

Datengewinnung (Kurzer Überblick in Kapitel 2)

Darstellung(Kapitel 3: Beschreibende Statistik)↓

Analyse, Interpretation(Kapitel 5: Schließende Statistik)

Auswertung

Entscheidung + KonsequenzHilfsmittel für Kapitel 5: Kapitel 4 (Wahrscheinlichkeitsrechnung)Spezialfall der vorherigen Kapitel: Kapitel 6 (Statistische Methoden in der Qualitätssicherung)Beispiel: Von A nach B fahren zwei Züge mit je 200 Sitzplätzen. Eine Fahrgastzählung im BahnhofA ergibt, dass 300 Personen die Züge benützen. Ergebnis der Umfrage:

Es gibt mehr als ausreichend Sitzplätze, es kann sogar noch optimiert werden.

Jedoch fahren 240 Personen in Zug 1 und 60 Personen in Zug 2.Eine Umfrage im Bahnhof B mit Frage ”War Ihr Zug überfüllt?” kommt zu dem Schluss, dass

240/300=80% aller Passagiere in überfüllten Zügen fahren müssen.

Die Lokalzeitung formt dies in die sinnlose Schlagzeile

”4 von 5 Zügen überfüllt!”

um (es gibt nur zwei Züge).Eine Kontrollumfrage durch ein zweites Institut (von einer anderen Stadt, stand im Stau undverpasst deswegen die Passagiere von Zug 1) ergibt, dass

0/60=0% der Passagiere in überfüllten Zügen sitzt.

2 Datengewinnung (kurzer Überblick)2.1 Planungsphase einer statistischen UntersuchungÜberblick:2.1.1 Festlegung des Untersuchungsziels2.1.2 Festlegung der Grundgesamtheit und der statistischen Einheiten2.1.3 Festlegung der zu erhebenden Merkmale2.1.4 Festlegung von Art und Methode der Erhebung

2.1.1 Festlegung des Untersuchungsziels

Fragen formulieren!

2 DATENGEWINNUNG (KURZER ÜBERBLICK) 4

2.1.2 Festlegung der Grundgesamtheit und der statistischen Einheiten

Die zu untersuchende Grundgesamtheit muss präzise abgegrenzt werden in räumlicher, zeitlicherund sachlicher Hinsicht, d. h. es muss definiert werden, welche statistischen Einheiten (man sagtauch: ”Merkmalsträger” oder ”Objekte”) dazugehören und welche nicht.

2.1.3 Festlegung der zu erhebenden Merkmale

Arten von Merkmalen und ihre möglichen Ausprägungen:

1. Quantitative Merkmale:

• Die Ausprägungen sind Zahlen aus Messungen oder Zählungen.• Differenzen zwischen zwei Ausprägungen haben eine Bedeutung (z. B. ein Werkstück istum 0, 3 mm länger als ein anderes).

(a) Quantitativ-stetige Merkmale:• Mögliche Ausprägungen sind alle Werte in einem Intervall.• Stetige Merkmale treten vorzugsweise bei Messungen auf.• Diese Merkmale besitzen meist einen Rundungsfehler.• Beispiele: Länge, Gewicht, Temperatur, Geldbeträge in Euro (!).

(b) Quantitativ-diskrete Merkmale:• Mögliche Werte sind nur einzelne Punkte auf dem Zahlenstrahl.• Diskrete Merkmale treten vorzugsweise bei Zählungen auf.• Es gibt keine Rundungsfehler.• Als Ausprägungen sind dann nur 0, 1, 2, . . . möglich.• Beispiel: Anzahl der Defektstücke in einer Lieferung.

2. Qualitative Merkmale:

• Beschreiben Eigenschaften, die sich nicht durch Messen oder Zählen ermitteln lassen.• Können gelegentlich mit Hilfe von Zahlen codiert sein; dann haben aber die Differenzender Codes keine Bedeutung. Z. B. bei Verschlüsselung 3 = ”gelb”, 6 = ”grün” ergibt eskeinen Sinn zu sagen, Farbe ”grün” sei doppelt so groß wie Farbe ”gelb”.

(a) Ordinale Merkmale:• Die Ausprägungen stehen in einer natürlichen Rangfolge.• Beispiel: Merkmal ”Interesse an Statistik-Vorlesung” mit Ausprägungen”sehr groß” / ”groß” / ”mittel” / ”gering” / ”sehr gering”.

(b) Nominale Merkmale:• Die Ausprägungen lassen sich nicht in eine Rangfolge bringen.• Beispiel: Merkmal ”Farbe”.

2.1.4 Festlegung von Art und Methode der Erhebung

Arten von Erhebungen:

• Totalerhebung (auch: ”Vollerhebung”)

• Teilerhebung (Stichprobe)

Einige wichtige Methoden zur Durchführung von Stichprobenuntersuchungen sind:

• Reine Zufallsstichprobe

• Systematische Auswahl, z. B. jeder hundertste produzierte Gegenstand

• Schichtenstichprobe: Einteilung der Grundgesamtheit in Schichten, die bezüglich des Un-tersuchungsmerkmals möglichst homogen sind. Anschließend wird aus jeder Schicht eine bes-timmte Anzahl von Stichprobenstücken gezogen. Der Anteil der in die Stichprobe aufgenomme-nen Objekte kann von Schicht zu Schicht unterschiedlich sein.

3 BESCHREIBENDE STATISTIK 5

• Klumpenstichprobe : Wenn sich die Grundgesamtheit in ”Klumpen” zerlegen lässt, diemöglichst ähnlich wie Grundgesamtheit zusammengesetzt sind. Oft sind Klumpen geographischdefiniert, z. B. Kreise, Stadtbezirke, Planquadrate, . . .Es werden gewisse Klumpen ausgewählt, für diese wird eine Vollerhebung erfasst.

• Quotenverfahren: Durch Vorgabe von Quoten wird sichergestellt, dass die Stichprobe beibestimmten Merkmalen wie z. B. Frau/Mann, Alter, Berufsgruppe, . . . die gleichen Anteileenthält wie die Grundgesamtheit → repräsentative Stichprobe

2.2 Durchführung der ErhebungEine Erhebung wird technisch durchgeführt z. B. durch Befragung (Fragebogen, Internet, . . . ),Beobachtung oder Experiment. Die Nutzung von bereits vorhandenem (evtl. früher für andereZwecke erhobenem) Datenmaterial bezeichnet man als ”Sekundärerhebung”.

2.3 Datenbereinigung2.3.1 Behandlung von Ausreißern

Als ”Ausreißer” bezeichnet man Daten, die offenbar viel zu groß oder viel zu klein sind.Vorgehen:

1. Ausreißer identifizieren;

2. überprüfen, ggf. berichtigen;

3. wenn die Ausreißer nicht berichtigt werden können,

(a) Datensatz streichen oder(b) fehlerhafte Daten abändern (z. B. Ersetzen durch den Mittelwert der nicht fraglichen

Daten) oder(c) Datensatz unverändert beibehalten.

Die Möglichkeiten 3(b) und 3(c) sollten nur mit größter Zurückhaltung angewendet werden.Im Zweifelsfall wende man Möglichkeit 3(a) an.

Ähnlich wie bei Ausreißern geht man bei Werten vor, die zwar keine Ausreißer sind, die aber aussonstigen Gründen unmöglich oder unplausibel sind.

2.3.2 Behandlung fehlender Werte

Das Vorgehen bei fehlenden Werten entspricht sinngemäß dem bei Ausreißern:

1. Fehlende Werte identifizieren;

2. überprüfen, ggf. ergänzen;

3. wenn die fehlenden Werte nicht ergänzt werden können,

(a) Datensatz streichen oder(b) einen Ersatzwert für die fehlende Daten berechnen (z. B. Mittelwert der nicht fehlenden

Daten).

Es ist wichtig, dass alle Phasen der Datengewinnung mit größter Sorgfalt durchgeführt werden.Im schlimmsten Fall können sonst die gewonnenen Daten nutzlos sein.

3 Beschreibende StatistikZiel der beschreibenden Statistik

Sachverhalte aufzeigen, die sonst nicht oder nicht so leicht ersichtlich wären.

3 BESCHREIBENDE STATISTIK 6

3.1 Tabellarische und grafische Darstellung eines MerkmalsVorbemerkung zur Objektivität bei Grafiken: Auch ein Diagramm muss die darzustellenden Größenobjektiv wiedergeben. Hierzu gehören u. a. auch folgende Regeln, die hier aufgeführt werden, weilgegen sie besonders oft verstoßen wird:

1. Proportionalität von Fläche und darzustellendem Wert. Bei den meisten Diagramm-typen (z. B. den unten genannten: Kreisdiagramm, Säulendiagramm, Histogramm) müssendie Flächen im Diagramm proportional zu den darzustellenden Werten sein. Z. B. wäre esnicht korrekt, zwei Werte, von denen der zweite doppelt so groß ist wie der erste, grafischdurch zwei Quadrate wiederzugeben, von denen das zweite eine doppelt so große Seitenlängewie das erste hat (denn die Fläche wäre dann viermal so groß wie die erste statt richtig doppeltso groß).

2. Skalierung der Achsen. Bei einem Säulendiagramm wird auf der y-Achse ein quantitativesMerkmal aufgetragen. Nach der Regel 1) oben müssen (bei konstanter Säulenbreite) dieHöhen der Säulen proportional zu den darzustellenden Werten sein. Insbesondere darf daherdie y-Achse nicht verzerrt sein und muss bei 0 beginnen.Sollte es ausnahmsweise erforderlich sein, die Achse nicht bei 0 beginnen zu lassen, muss diesdeutlich kenntlich gemacht werden.Sinngemäß das gleiche gilt natürlich auch für die x-Achse (sofern hier ein quantitatives Merk-mal aufgetragen wird) und für andere Diagrammtypen.

Beispiel: Linke Grafik irreführend, rechte Grafik korrekt

3.1.1 Darstellung eines qualitativen Merkmals

Es wird die Häufigkeit des Auftretens der verschiedenen Ausprägungen dargestellt. Hier gibt esu. a. folgende Möglichkeiten:

• Häufigkeitstabelle. Wichtig: korrekte Beschriftung der Kopfzeile und der ersten Spalte;ggf. ist eine Summenzeile sinnvoll.

Autofarbe AnzahlSilber 1800Weiß 900Rot 200Schwarz 1200Summe 4100

• Säulendiagramm (auch: ”Stabdiagramm”).

• Kreisdiagramm (auch: ”Tortendiagramm”).

3 BESCHREIBENDE STATISTIK 7

Achtung: Stellt man mehrere Datenreihen in je einem Kreisdiagramm dar, sollte die Flächeeines Kreises proportional zur Anzahl der dargestellten Datenwerte sein (d. h. der Radiuseines Kreises proportional zur Wurzel aus der Anzahl der Datenwerte). Vgl. dazu oben Regel1).

3.1.2 Darstellung eines quantitativen Merkmals

• Bei einem diskreten Merkmal stehen grundsätzlich die gleichen Darstellungsmöglichkeiten wiebei einem qualitativen Merkmale zur Verfügung.

• Bei einem stetigen Merkmal (oder bei einem diskreten Merkmal mit vielen Ausprägungen)müssen die Messwerte zunächst zu Klassen zusammengefasst werden.

• Anschließend können die in Klassen eingeteilten Messwerte in einem Histogramm dargestelltwerden. Histogramm = Säulendiagramm, bei dem die Säulen über den entsprechendenKlassenintervallen gezeichnet werden und daher an den Klassengrenzen aneinanderstoßen.

• Folgende Regeln sind bei Histogrammen sinnvoll:

– Klassen so wählen, dass keine Messwerte auf den Klassengrenzen liegen.– Gleiche Klassenbreite wählen, damit die Höhen der Säulen proportional zu den Häu-

figkeiten der Klassen sind.

– Anzahl der Klassen k ≈√n , wobei n = Anzahl der Messwerte.

Neben den in 3.1.1 und 3.1.2 genannten Diagrammtypen gibt es viele weitere Darstellungsmöglichkeiten,die je nach Ziel der statistischen Untersuchung ebenfalls sinnvoll oder sogar besser geeignet seinkönnen.

3.2 Statistische Kennzahlen für ein quantitatives MerkmalLagemaße: Geben an, wo die Messwerte im Mittel liegen, z. B. arithmetischer Mittelwert oderempirischer Median (Wo liegen die Daten? → Punkte)Streuungsmaße: Geben an, wie breit die Messwerte um den Mittelwert herum streuen, z. B.empirische Varianz, empirische Standardabweichung, Spannweite (Wie breit streuen die Daten?→ Abstände)Ist die empirische Standardabweichung (bzw. empirische Varianz) klein, liegen also viele Messwertein der Nähe des Mittelwertes. Ist sie groß, sind die Messwerte weiter vom Mittelwert entfernt.

3.2.1 Berechnung von Kennzahlen bei Vorliegen einer Messreihe

Es ist eine Messreihe mit n Werten x1, . . . , xn gegeben.Arithmetischer Mittelwert

x = 1n

(x1 + x2 + · · ·+ xn) = 1n

n∑i=1

xi

Empirische Varianz

s2 = 1n− 1

n∑i=1

(xi − x)2

= 1n− 1

[(n∑i=1

x2i

)− n · x2

]

3 BESCHREIBENDE STATISTIK 8

Empirische Standardabweichung

s =√s2 =

√√√√ 1n− 1

n∑i=1

(xi − x)2

=

√√√√ 1n− 1

[(n∑i=1

x2i

)− n · x2

].

Die empirische Varianz gibt also die mittlere quadratische Abweichung von x an. Die zweite Formelfür s2 ist einfacher anzuwenden; hier muss man aber x mit großer Genauigkeit berechnen!Die empirische Standardabweichung hat dieselbe Dimension wie die gegebenen Messwerte. Sindbeispielsweise die Messwerte in der Einheit ”Gramm” angegeben, so gilt die empirische Standard-abweichung auch die Einheit ”Gramm”.

Nur in Ausnahmefällen wird man die Berechnung von x, s2 oder s tatsächlich mit den obengenannten Formeln durchführen. Viel kürzer ist es, die Datenreihe x1, x2, . . . , xn nur eineinziges Mal in den Taschenrechner (TR) einzugeben und anschließend sowohl x als auch süber die eingebauten TR-Funktionen abzurufen.Dabei ist die empirische Standardabweichung s auf dem TR oft mit dem Symbol σn−1 odergelegentlich mit σx,n−1 o. ä. bezeichnet. (Die empirische Varianz erhält man dann, indem manden mit σn−1 abgerufenen Wert quadriert.)Beachten Sie hierzu ggf. auch die auf der Internetseite von Prof. Plappert bereitgestelltenTaschenrechner-Bedienungsanleitungen. Für diese Bedienungsanleitungen wird keine Gewährübernommen! Daher bitte anhand von Beispielen überprüfen.

Empirischer Median x = Messwert, der bei Sortierung der Messreihe nach der Größe inder Mitte steht (bei gerader Anzahl von Messwerten: arithmetis-ches Mittel der beiden Messwerte in der Mitte).

Spannweite R = größter Messwert − kleinster Messwert = xmax − xmin

3.2.2 Berechnung von Kennzahlen bei Vorliegen einer Häufigkeitstabelle

Es liegen Messwerte x1, x2, . . . , xk mit zugehörigen Häufigkeiten f1, f2, . . . , fk vor (Der Messwertx1 wurde f1-mal beobachtet, der Messwert x2 wurde f2-mal beobachtet usw.). Es sei n =

∑ki=1 fi

die Summe aller Häufigkeiten = Gesamtzahl aller Messungen.

Merkmal Anzahlx1 f1x2 f2...

...xk fkSumme n

In den Formeln für x bzw. s müssen hier alle Summanden mit der jeweiligen Häufigkeit gewichtet(= multipliziert) werden.

Arithmetischer Mittelwert x = 1n

k∑i=1

fi · xi

Empirische Varianz s2 = 1n− 1

k∑i=1

fi · (xi − x)2 oder

s2 = 1n− 1

[(k∑i=1

fi · x2i

)− n · x2

]Empirische Standardabweichung s =

√s2

Die zweite Formel für s2 ist einfacher anzuwenden; hier muss man aber x mit großer Genauigkeitberechnen!Auch die Kennzahlen zu 3.2.2 kann man am kürzesten mit Hilfe der eingebauten TR-Funktionen erledigen. Leider ist die Art der Dateneingabe der Häufigkeiten f1, f2, . . . beiverschiedenen TR-Typen unterschiedlich.

3 BESCHREIBENDE STATISTIK 9

3.2.3 Kennzahlen bei Vorliegen einer Häufigkeitstabelle mit Klasseneinteilung

Es ist eine Häufigkeitstabelle (z. B. entstanden durch Klasseneinteilung eines stetigen Merkmals)gegeben. Es seien k = Anzahl der Klassen, fi = Häufigkeit der i-ten Klasse, mi = Mittelpunkt deri-ten Klasse, n =

∑ki=1 fi die Summe aller Häufigkeiten.

Hier rechnet man so, als ob alle Messwerte in der Mitte der jeweiligen Klasse liegen, und verwendetdann die 3.2.2 entsprechenden Formeln, wobei nur xi durch mi ersetzt werden muss.

Arithmetischer Mittelwert x = 1n

k∑i=1

fi ·mi

Empirische Varianz s2 = 1n− 1

k∑i=1

fi · (mi − x)2 oder

s2 = 1n− 1

[(k∑i=1

fi ·m2i

)− n · x2

]Empirische Standardabweichung s =

√s2

Die zweite Formel für s2 ist einfacher anzuwenden; hier muss man aber x mit großer Genauigkeitberechnen!

3.2.4 Verschiebung und Streckung

Wie verhalten sich die Lagemaße x, x und die Streuungsmaße R, s, wenn man alle Messwerte umeinen Wert b verschiebt oder mit einem Faktor a streckt?

Maß/ Datensatz xi xi + b a · xiMedian x x+ b a · xMittelwert x x+ b a · xSpannweite R R a ·RStandardabweichung s s a · s

Streuungsmaße reagieren also nicht auf Verschiebung.

3.3 Zusammenhang zwischen zwei quantitativen MerkmalenWerden an jedem Untersuchungsobjekt gleichzeitig zwei Merkmale gemessen, so erhält man eineMessreihe aus n Wertepaaren (x1; y1), (x2; y2), . . . , (xn; yn).

3.3.1 Grafische Darstellung

Streudiagramm (Scatterplot) → ”Punktewolke”(hier mit Korrelation −0, 2, +0, 66, −0, 8 und +0, 99)

Zwei Fragen sind von Interesse:

3 BESCHREIBENDE STATISTIK 10

• Kann man den Grad der Abhängigkeit zwischen den Zufallsgrößen durch eine geeignete Kenn-zahl ”quantifizieren” ; Korrelationsrechnung

• Kann man einen (näherungsweisen) funktionalen Zusammenhang zwischen X und Y mathe-matisch formulieren ; Regressionsrechnung

(Empirische) Regression bedeutet: eine Gerade oder eine Kurve ”möglichst gut” durch einegegebene ”Punktewolke” legen. Im Falle einer Geraden spricht man von ”linearer Regression”,sonst von ”nichtlinearer Regression” (z. B. von ”quadratischer Regression”, wenn die Regres-sionskurve eine quadratische Parabel ist).

3.3.2 Empirische Kovarianz

Wir definieren

Empirische Varianz der x-Werte s2x = 1

n− 1

[(n∑i=1

x2i

)− n · x2

]

Empirische Varianz der y-Werte s2y = 1

n− 1

[(n∑i=1

y2i

)− n · y2

]

Empirische Standardabweichungen sx =√s2x , sy =

√s2y

Empirische Kovarianz sxy = 1n− 1

[(n∑i=1

xi · yi

)− n · x · y

]oder

sxy = 1n− 1

n∑i=1

(xi − x) · (yi − y)

Beschreibt die Stärke und Richtung des linearen Zusammenhangs.

3.3.3 Empirischer Korrelationskoeffizient

Zusätzliche Skalierung liefert denEmpirischer Korrelationskoeffizient

rxy = sxysx · sy

=

(n∑i=1

xi · yi

)− n · x · y√√√√( n∑

i=1x2i

)− n · x2 ·

√√√√( n∑i=1

y2i

)− n · y2

• Werte von r: −1 ≤ rxy ≤ 1

• Linearer Zusammenhang spiegelt sich in der Aussage ”Je größer x, desto [größer/kleiner] isttendenziell y”.

• Falls |r| ≈ 1 , gibt es einen starken linearen Zusammenhang. (Aber nicht unbedingt einenursächlichen Zusammenhang zwischen den x- und y-Werten!)

• Falls r ≈ 0, gibt es keinen linearen Zusammenhang. (Aber in manchen Fällen einen Zusam-menhang anderer Art, z. B. quadratisch!)

• Falls r > 0, steigt die ”beste Gerade”, falls r < 0 fällt sie.

• rxy = 1: alle Punkte (xi ; yi) liegen auf einer Geraden mit positiver Steigung

• rxy = −1: alle Punkte (xi ; yi) liegen auf einer Geraden mit negativer Steigung

rxy > 0: positive (gleichsinnige) Korrelation; großen Werten entsprechen über-wiegend große Werte

rxy < 0: negative (gegensinnige) Korrelation; großen Werten entsprechenüberwiegend kleine Werte

rxy ≈ 0: unkorreliert

4 WAHRSCHEINLICHKEITSRECHNUNG UND KOMBINATORIK 11

3.3.4 Lineare Regression/Ausgleichsgerade

• Gegeben: Stichprobe mit nDatenpunkten (x1 ; y1), (x2 ; y2), . . . , (xn ; yn). Dabei wird angenom-men, dass nur die y-Werte größeren (z. B. zufälligen) Schwankungen unterliegen können unddie x-Werte fest (oder sehr genau bestimmbar) sind.

• Gesucht: ”Beste Gerade” durch die zugehörige (xi | yi)-Punktwolke

• Der y-Wert der Regressionsgeraden bei xi wird mit yi bezeichnet, ri = yi−yi heißt ”Residuum”.

• Methode der kleinsten Quadrate (MKQ):n∑i=1

r2i soll minimal werden.

• Die MKQ führt zu folgender Gleichung der empirischen Regressionsgeraden:

y = mx+ k mit m = sxy

s2x

=

(n∑i=1

xi · yi

)− n · x · y(

n∑i=1

x2i

)− n · x2

und k = y −m · x

3.3.5 Bestimmtheitsmaß

Für alle Regressionstypen (auch quadratische usw.) wird als Gütemaß das BestimmtheitsmaßR2 verwendet, d. h. wie gut die Gerade/Kurve die Punktwolke beschreibt (nicht verwechseln mitder Spannweite R einer Messreihe!)Für das Bestimmtheitsmaß R2 gilt

a) 0 ≤ R2 ≤ 1

b) Falls R2 ≈ 1 verläuft die Regressionsgerade (oder -kurve) gut durch die ”Punktewolke”.Falls R2 ≈ 0 gibt die Regressionsgerade (oder -kurve) die ”Punktewolke” nicht gut wieder.

c) R2 beschreibt den Anteil an der Varianz der y-Werte, der durch die Regression erklärt werdenkann.

Während a), b), c) auch für nichtlineare Regressionen gelten, ist die Gleichung R2 = r2xy nur im

Falle der linearen Regression richtig. (Der empirische Korrelationskoeffizient r bezieht sich nämlichausschließlich auf die lineare Regression.)

Bemerkung zur Berechnung von m und rxy bei linearer Regression

Viele TR haben eine eingebaute Berechnungsmöglichkeit für die Parameterm und k der empirischenRegressionsgeraden und für den empirischen Korrelationskoeffizienten rxy nach Eingabe aller x- undy-Werte. Wer einen Taschenrechner besitzt, bei dem das so nicht möglich ist, benutzt am bestendas gezeigte Berechnungsschema.Die angegebenen Formeln sind für die Berechnung ”von Hand” – also wenn im TR Regression undKorrelation nicht implementiert sind – am einfachsten anzuwenden. Bei der Berechnung von m undr müssen x und y aber mit großer Genauigkeit bestimmt werden!

4 Wahrscheinlichkeitsrechnung und Kombinatorik4.1 KombinatorikDie ”Lehre vom Abzählen” heißt Kombinatorik. Sie hat die Grundoperationen:

• Anordnen der Elemente einer Menge (; Permutationen)

• Auswählen einer Teilmenge aus einer Grundmenge (”Ziehen”)

4 WAHRSCHEINLICHKEITSRECHNUNG UND KOMBINATORIK 12

Permutationen

1. Permutation ohne Wiederholung: Gegeben: n verschiedene Elemente.Wie viele Möglichkeiten gibt es, n Objekte anzuordnen?Für den ersten Platz gibt es n Objekte, für den zweiten n− 1 usw., also:Anzahl an Möglichkeiten (alle) n Elemente in eine Reihenfolge zu bringen:

n! := n · (n− 1) · · · 2 · 1 (lies: ”n Fakultät”)

Per Definition ist 0! = 1 (Definition) und die Berechnung mit dem Taschenrechner ist bismindestens 69! möglich.

2. Permutation mit Wiederholung: Gegeben: n Elemente, davon k rot und n− k schwarz.Führt man eine künstliche Nummerierung durch, so gibt es n! ”nummerierte” Permutatio-nen. Permutiert man innerhalb der roten oder der schwarzen Elemente, so ändert sich die”unnumerierte” Permutation nicht. Für die roten Elemente gibt es k! Permutationen, für dieschwarzen (n−k)!, also insgesamt gibt es zu jeder Permutation ohne Wiederholung k! ·(n−k)!”numerierte” Permutationen. Folglich gilt für die Anzahl der Permutuation mit Wiederholung(

n

k

):= n!

k!(n− k)! (lies: ”n über k”, Binomialkoeffizient)

Wenn k klein ist, kürzt man (n−k)!. Im Zähler bleiben dann die k Zahlen n, n−1, . . . , n−k+1und im Nenner die Zahlen k, k − 1, . . . , 1.

Beispiel:(

173

)= 17 · 16 · 15 · (14)!

3 · 2 · 1 · (14)! = 17 · 16 · 153 · 2 · 1 = 680;

hier stehen jeweils k = 3 Faktoren in Zähler (17 · 16 · 15) und im Nenner (3 · 2 · 1).Es gilt:

(nk

)=(n

n−k),(n0)

=(nn

)= 1 und

(nk

)+(nk+1)

=(n+1k+1)und somit das Pascaldreieck

1

1 1

1 2 1

1 3 3 1

1 4 6 4 1

Allgemein: Unter den n Elementen gibt es aber nur k verschiedene Elemente mit Anzahlen n1,. . . , nk. D. h. von Objekt 1 gibt es n1 (gleiche) Exemplare, von Objekt 2 gibt es n2 (gleiche)Exemplare, . . . von Objekt k gibt es nk (gleiche) Exemplare.Auf wie viele Arten kann man die n = n1 + n2 + · · ·+ nk Objekte anordnen?

Anzahl Möglichkeiten, diese n Elemente in eine Reihenfolge zu bringen: n!n1! · n2! · · ·nk!

Bemerkung:

• Für große Werte von n näherungsweise mit der Formel von Stirling:

lg(n!) ≈ 12 lg(2πn) + n lg

(ne

)hier bezeichnet lg den Logarithmus zur Basis 10 (Taschenrechner: Taste <LOG >).

Berechnung von(nk

):

• Wenn n und k groß sind, kann man die Formel

lg((

n

k

))= lg(n!)− lg(k!)− lg ((n− k)!)

verwenden und anschließend die Stirling-Formel benutzen.

4 WAHRSCHEINLICHKEITSRECHNUNG UND KOMBINATORIK 13

Die vier Grundaufgaben der Kombinatorik

Aus n verschiedenen Objekten werden k ausgewählt. Wie viele Möglichkeiten gibt es? Die Antwortauf diese Frage hängt davon ab,

• ob die Reihenfolge des Auswählens eine Rolle spielt (”geordnet”, ”mit Beachtung der Reihen-folge”) oder nicht (”ungeordnet”, ”ohne Beachtung der Reihenfolge”);

• ob ein Objekt mehrfach ausgewählt werden darf (”mit Wiederholung”, ”Ziehen mit Zurück-legen”) oder nicht.

Stichproben-auswahl/Ziehe

k aus n

geordnet/mitBeachtung

der Reihenfolge

ungeordnet/ohneBeachtung

der Reihenfolge

mit Zurück-legen nk

(n+ k − 1

k

)mit Mehrfach-

besetzung

ohne Zurück-legen

n!(n− k)!

(n

k

)ohne Mehrfach-

besetzung

mit unter-scheidbaren Kugeln

nicht unter-scheidbare Kugeln

Verteilen vonk Kugeln aufn Zellen

Links oben: Für jedes Objekt/Kugel gibt es n Möglichkeiten/Zellen, also n · n · n · · ·n = nk.Links unten: Für 1. Objekt/Kugel gibt es n Möglichkeiten/Zellen, für 2. Objekt/Kugel gibt es n−1Möglichkeiten/Zellen also n · (n− 1) · (n− 2) · · · (n− k + 1) = n!/(n− k)!. (Taschenrechner: nPr)Rechts unten: Jede ungeordnete Reihenfolge/Belegung kann mit einer künstlichen Nummerierung

k!-mal permutiert werden, also n!(n− k)!/k! =

(n

k

). (Taschenrechner: nCr)

Rechts oben (schwierig): Jede Verteilung kann grafisch durch eine Folge von ∗ für die Kugeln und| für die Zellen dargestellt werden (z. B. steht | ∗ ∗|| ∗ | für 2 Kugeln in der ersten Zelle, 0 in derzweiten und 1 in der dritten). Links und rechts steht ein |, dazwischen gibt es n− 1 + k Plätze fürn − 1 Zellwände und k Kugeln. Aus diesen ziehen wir ohne Zurücklegen und ohne Reihenfolge kPlätze für die Kugeln, also gibt es

(n+k−1

k

)Möglichkeiten.

Für die Stichprobe steht ∗ für ein Objekt und jedes | vor einem Objekt für einen Zug (also | ∗ ∗||∗bedeutet, dass das 1. Objekt einmal gezogen wurde, das 2. Objekt gar nicht und das dritte zweimal).Die Sequenz endet mit ∗, davor gibt es n− 1 Plätze für die restlichen Objekte und k Plätze für dieZüge, die man ungeordnet ohne Zurücklegen zieht, also gibt es

(n+k−1

k

)Möglichkeiten.

4.2 Grundbegriffe der WahrscheinlichkeitsrechnungZufallsexperiment: ein (prinzipiell) beliebig oft wiederholbares Experiment, dessen Ergebnis auf-

grund von Zufallseinflüssen nicht vorhersehbar ist.

Realisierung eines Zufallsexperiments: das Ergebnis der tatsächlichen Durchführung eines Zu-fallsexperiments.

Ergebnisraum Ω: umfasst alle möglichen Ergebnisse eines Zufallsexperiments.Bsp: Münzwurf: Ω = Kopf, Zahl oder Ω = Kopf, Zahl, Rand, Münze zerbricht;Würfel: Ω = 1, 2, 3, 4, 5, 6

Ereignis: Teilmenge von Ω, enthält ein Ergebnis oder mehrere Ergebnisse, oder auch alle Ergeb-nisse oder gar kein Ergebnis.Bsp: Augenzahl gerade beim Würfel: A = 2, 4, 6

Wahrscheinlichkeit P(A) eines Ereignisses A: beschreibt, wie groß die Chance des Eintretensvon A ist.

Relative Häufigkeit eines Ereignisses A: Wird ein Zufallsexperiment n-mal realisiert, und trittdabei das Ereignis A genau k-mal ein, so heißt hn(A) = k/n die relative Häufigkeit von A.

4 WAHRSCHEINLICHKEITSRECHNUNG UND KOMBINATORIK 14

Zusammenhang und Unterschied zwischen relativer Häufigkeit undWahrscheinlichkeit:

• Die Wahrscheinlichkeit P(A) ist eine (mathematische) Konstante.Die relative Häufigkeit hn(A) hingegen hängt von Zufall (von der konkreten Realisierung) ab.

• Im Allgemeinen ist daher P(A) 6= hn(A).Es gilt aber das Gesetz der großen Zahlen: limn→∞ hn(A) = P(A).

• Wenn man P(A) nicht ausrechnen kann, aber eine Realisierung des Zufallsexperiments vomUmfang n vorliegen hat, kann man P(A) unter Benutzung von hn(A) schätzen; siehe Kapitel5. Nach dem Gesetz der großen Zahlen wird diese Schätzung um so besser sein, je größer nist.

• Eine Definition von Wahrscheinlichkeit: Wahrscheinlichkeiten sind Voraussagen für rel-ative Häufigkeiten des Eintretens von Ereignissen auf lange Sicht (für den Grenzfall einergegen Unendlich strebenden Anzahl von Versuchsdurchführungen).

Schranken für Wahrscheinlichkeiten:

• Es gilt 0 ≤ P(A) ≤ 1.

• P(A) = 0 gilt für ein unmögliches Ereignis.Beispiel Würfelwurf: A = ”Augenzahl größer als 7”; hier ist P(A) = 0.

• P(A) = 1 gilt für ein mit Sicherheit eintretendes Ereignis.Beispiel Würfelwurf: A = ”Augenzahl kleiner als 7”; hier ist P(A) = 1.

• A ⊆ B impliziert P(A) ≤ P(B).

4.3 Berechnung von Wahrscheinlichkeiten4.3.1 Grundformel für Wahrscheinlichkeiten bei Laplace-Zufallsexperimenten

Ein Laplace-Zufallsexperimenten liegt vor, falls die beiden folgenden Bedingungen erfüllt sind:

1. Bei dem Zufallsexperiment sind nur endlich viele Ergebnisse möglich.

2. Alle Ergebnisse in Ω sind gleich wahrscheinlich.

Es gilt dann

P(A) = |A||Ω| = Anzahl der Ergebnisse in A

Anzahl aller möglichen Ergebnisse

Falls eine dieser beiden Bedingungen nicht erfüllt ist, also wenn Ω unendlich viele Elemente en-thält oder wenn es in Ω Ergebnisse mit unterschiedlichen Wahrscheinlichkeiten gibt, muss man dieMethoden aus Kapitel 5 anwenden, um P(A) zu schätzen.Beispiel: Faire Münze mit Ω = Kopf, Zahl und P(Kopf) = P(Zahl) = 1/2 ist Laplace-Zufallsexperiment,aber die Modellierung Ω = Kopf, Zahl, Rand, Münze zerbricht mit P(Kopf) = P(Zahl) = 1/2 undP(Rand) = P(Münze zerbricht) = 0 nicht.Unfaire Münze mit Ω = Kopf, Zahl und P(Kopf) = 0, 4; P(Zahl) = 0, 6 ist kein Laplace-ZufallsexperimentFür die Berechnung von P(A) unter der Laplace-Annahme muss man in der Lage sein, |A| auszurech-nen, also die in einem Ereignis enthaltenen Ergebnisse abzuzählen ; Kombinatorik.

4.3.2 Gegenereignis und zusammengesetzte Ereignisse

Man kann Ereignisse miteinander verknüpfen, um andere/komplexere Ereignisse zu erhalten.A und B seien Ereignisse.

A = ”nicht A” = Ω\A= A tritt nicht ein = Gegenereignis von A

A ∪B = ”A oder B”= A tritt eine oder B tritt ein oder beide treten ein = ”oder-Ereignis”

A ∩B = ”A und B” = A und B treten beide ein= sowohl A als auch B tritt ein = ”und-Ereignis”

4 WAHRSCHEINLICHKEITSRECHNUNG UND KOMBINATORIK 15

Beispiel: Ein Würfel wird zweimal geworfen,A sei das Ereignis ”im ersten Wurf eine 6”, B sei das Ereignis ”im zweiten Wurf eine 6”.

A = ”im ersten Wurf keine 6”, d. h. im ersten Wurf eine 1, 2, 3, 4 oder 5.A ∪B = ”im ersten oder im zweiten Wurf (oder in beiden) eine 6” = mindestens eine 6.A ∩B = ”im ersten und im zweiten Wurf eine 6” = zwei Sechsen.

Hier gilt: P(A) = P(B) = 1/6, P(A) = 5/6, P(A ∪B) = 11/36, P(A ∩B) = 1/36.

Formeln von de Morgan: A ∪B = A ∩B und A ∩B = A ∪B.Auch nützlich: A ∩ (B ∪ C) = (A ∩B) ∪ (A ∩ C) und A ∪ (B ∩ C) = (A ∪B) ∩ (A ∪ C)

4.3.3 Wahrscheinlichkeiten zusammengesetzter Ereignisse

• Wahrscheinlichkeit des Gegenereignisses A von A: P(A) = 1− P(A)

• P(A ∪B) - Berechnung mit dem Additionssatz:

– Additionssatz allgemein: P(A ∪B) = P(A) + P(B)− P(A ∩B)– Additionssatz für unvereinbare Ereignisse: P(A ∪B) = P(A) + P(B)

Falls A und B nicht beide eintreten können, so heißen A und B unvereinbar (A und Bschließen sich gegenseitig aus), dann ist A∩B = ∅. Nur in diesem Spezialfall (A und B könnennicht beide eintreten) gilt dann also der Additionssatz in der Form P(A∪B) = P(A) +P(B) .

• P(A ∩B) - Berechnung mit dem Multiplikationssatz:

– Multiplikationssatz allgemein: P(A ∩B) = P(A) · P(B|A)[= P(B) · P(A|B)]– Multiplikationssatz für unabhängige Ereignisse: P(A ∩B) = P(A) · P(B)

Dabei ist

P(A|B) = P(A ∩B)P(B) (lies: ”Wahrscheinlichkeit von A unter der Bedingung B”)

die (bedingte) Wahrscheinlichkeit, dass A eintritt, wenn sicher ist, dass B eintritt bzw.eingetreten ist.Wenn sich zwei Ereignisse (definitiv) nicht beeinflussen, spricht man von unabhängigenEreignissen, dann gilt P(A|B) = P(A). Die Kenntnis von B verändert dann nicht dieWahrscheinlichkeit für A.Beispiel: Ein Würfel wird zweimal so geworfen (Ω = (1, 1), . . . , (6, 6)), dass zunächst nurder Werfer die Ergebnisse sieht. Für A = im zweiten Wurf eine 6 gilt P(A) = 6/36 = 1/6.Der Werfer verrät, dass G = der zweite Wurf war höher wie der erste eingetreten ist.Somit können die Elemente von A∩G nicht mehr eintreten, die neue Grundgesamtheit ist G:

P(A|G) = P(A ∩G)P(G) = 5

15 = 13 .

Verrät der Werfer hingegen nur, dass B = im ersten Wurf eine 3 , so gilt P(A|B) = 1/6 =P(A). Wir erhalten keine zusätzliche Information, da die Würfe unabhängig sind.

4.3.4 Mehrstufige Zufallsexperimente

Wir betrachten Zufallsexperimente, die sich aus 2 Einzelversuchen aufbauen lassen, die nacheinanderoder gleichzeitig durchgeführt werden. Zur Beschreibung solcher zusammengesetzter Zufallsexperi-mente eignen sich Baumdiagramme oder Wahrscheinlichkeitsbäume.

4 WAHRSCHEINLICHKEITSRECHNUNG UND KOMBINATORIK 16

Ω

P(A)

P(A)

A

A

P(B|A)

P(B|A)

A ∩B

A ∩B

P(B|A)

P(B|A)

A ∩B

A ∩B

Berechnung von Wahrscheinlichkeiten imBaumdiagramm:

• Wahrscheinlichkeit eines Pfades = Pro-dukt der Wahrscheinlichkeiten längsdes Pfades (Multiplikationsregeloder Pfadregel).”Entlang der Pfade wird multipliziert”

• Wahrscheinlichkeit für ein Ereignis =Summe der Wahrscheinlichkeiten allerzu diesem Ereignis führenden Pfade(Additionsregel oder Summenregel).”Entlang der Äste wird addiert”

Knoten . . . (zufällige) EreignissePfade . . . (bedingte) Wahrscheinlichkeiten auftragen,

Die Summe der Wahrscheinlichkeiten aller Verzweigungen ist gleich Eins.

Oft sind bedingte Wahrscheinlichkeiten P(B|A) und P(B|A) gegeben und man möchte P(B) wissen.Es gilt: B = B ∩ Ω = B ∩ (A ∪A) = (B ∩A) ∪ (B ∩A) unvereinbare Zerlegung, und somit

P(B) = P(B ∩A) + P(B ∩A)= P(A) · P(B|A) + P(A) · P(B|A) (Satz der totalen Wahrscheinlichkeit)

4.4 ZufallsvariablenEine Zufallsvariable X beschreibt, welche Ausprägungen eines quantitativen Merkmals in einemZufallsexperiment auftreten können.Beispiel: X = Augenzahl beim Würfeln (kann Werte 1, 2, 3, 4, 5, 6 annehmen)D = Anzahl Defektstücke unter 100 Stück (kann Werte 0, 1, . . . , 100 annehmen)Xi = Bilanzgewinn im Jahr iMit Zufallsvariablen kann man rechnen: X2016 +X2017 = Bilanzgewinn über zwei Jahre. Bei einerReduktion des Geschäfts um 10% in 2017 erhält man X2016 + 0.9 ·X2017 u. s. w.

4.4.1 Diskrete Zufallsvariablen

Bei einem diskreten Merkmal spricht man von einer diskreten Zufallsvariable. Da mit X auchaX + b eine Zufallsvariable ist (oder auch eine andere Transformation), reicht es als WertebereichN0 = 0, 1, 2, 3, . . . zu betrachten.Kennt man pk = P(X = k) für alle k ∈ N0, so lässt sich die Wahrscheinlichkeit für jedes Ereignisdurch Aufsummieren bilden. pk heißt Zähldichte. Es gilt pk ≥ 0 und

∑∞k=0 pk = 1.

Beispiele:

1. X heißt Bernoulliverteilt mit Parameter p ∈ [0, 1], wenn P(X = 1) = p und P(X = 0) =1− p.Z. B. Qualitätskontrolle bei einer Kontrolle, defekt/nicht defekt

2. X die Augenzahl beim Würfel, Gleichverteilung mit P(X = k) = 1/6 für k = 1, . . . , 6.

3. Binomialverteilung, X ∼ B(n; p). Ein Bernoulliexperiment wird n-mal durchgeführt undX = X1 + · · ·+Xn, d. h. die Anzahl der Einsen in den n ExperimentenBsp.: Anzahl Defektstücke unter n / Ziehen mit Zurücklegen bei N Kugeln mit M roten undN −M schwarzen und X = Anzahl der roten Kugeln bei n Zügen. Hier ist dann p = M/N

P(X = k) =(n

k

)pk(1− p)n−k, k = 0, 1, . . . , n.

4. Hypergeometrische Verteilung, X ∼ H(n;N ;M) Ziehen ohne Zurücklegen bei N Kugelnmit M roten und N −M schwarzen und X = Anzahl der roten Kugeln bei n Zügen.

P(X = k) =

(M

k

)(N −Mn− k

)(N

n

) , k = 0, 1, . . . ,minn,M

4 WAHRSCHEINLICHKEITSRECHNUNG UND KOMBINATORIK 17

Bem: Ist N groß und n/N ≤ 0.1, so gilt H(n;N ;M) ≈ B(n;M/N).

Beispiel: Die Anzahl der Fische in einem See soll geschätzt werden. Dazu werden 1000Fische gefangen, mit einem roten Punkt markiert und wieder frei gelassen. Am nächsten Tagwerden wieder 1000 Fische gefangen. 100 haben einen roten Punkt. Es gibt also mindestens1900 Fische, allerdings ist es sehr unwahrscheinlich dann unter 1000 gefangenen 100 mit rotemPunkt zu sehen. Ist N die Anzahl der Fische im See, so gilt für die Anzahl X der Fische mitrotem Punkt unter 1000 gefangenen X ∼ H(1000;N ; 1000) und

P(X = 100) =(1000

100)(N−1000

900)(

N1000

) =: P (N).

P (1900) ist eine sehr kleine Zahl mit ca. 430 Nullen nach dem Komma. Als Schätzer für Nnimmt man denjenigen Wert von N , der P (N) maximiert. Betrachtet man

P (N)P (N − 1) = · · · = (N − 1000)2

N(N − 1900)

> 1 N < 10000< 1 N > 10000

,

so sieht man, dass N = 10000 Fische der ”Maximum Likelihood Schätzer” ist. Es gilt dannP (10000) ≈ 4.2%.

5. Die Poissonverteilung, X ∼ Po(λ) ist die Verteilung seltener Ereignisse mit

P(X = k) = λk

k! e−λ, k = 0, 1, . . .

Dabei ist λ die mittlere Anzahl von Vorkommnissen in einer Zeit/Flächeneinheit und X dietatsächliche Anzahl der Vorkommnisse in einer Zeit/Flächeneinheit.Bem: Für n ≥ 30 und p ≤ 0, 1 gilt B(n; p) ≈ Po(n · p).Bsp: Warteschlange λ = 1 Kunde pro MinuteBem: λ skaliert mit der Zeit/Flächenenheit, z. B. λ = 60 Kunden pro Stunde.

6. Geometrische Verteilung X ∼ Geo(p). Ein Experiment gelingt mit Wahrscheinlichkeit p.X = Anzahl der Durchführungen bis zum ersten Erfolg

P(X = k) = p(1− p)k−1, k = 1, 2, . . .

Übung: Gedächtnislosigkeit der geometrischen Verteilung: Ein Student zählt die benötigten Würfeeines Würfels bis zum ersten Erscheinen einer 6. Für die Anzahl X gilt X ∼ Geo(1/6). Nach 10Würfen ist noch immer keine 6 erschienen. Gilt jetzt immer noch X ∼ Geo(1/6)?Anwort: Ja, denn es gilt mit k0 = 10

P(X = k + k0 |X > k0) = P(X = k) für alle k,

d. h. die zusätzliche Information ändert nicht die Zähldichte.Rechnung:

P(X = k+k0 |X > k0) = P(X = k + k0 ∩ X > k0)P(X > k0) = P(X = k + k0)

P(X > k0) = p(1− p)k+k0−1

(1− p)k0= p(1−p)k−1,

da

P(X > k0) =∞∑

k=k0+1p(1− p)k−1 = p(1− p)k0

∞∑k=0

(1− p)k = p(1− p)k01

1− (1− p) .

4.4.2 Kennzahlen von Zufallsvariablen

Für eine diskrete Zufallsvariable definieren wir

Erwartungswert µ = E[X] =∞∑k=0

k · P(X = k)

m-tes Moment E[Xm] =∞∑k=0

km · P(X = k)

Varianz Var[X] = E[X2]− µ2

Standardabweichung σ =√

Var[X]

4 WAHRSCHEINLICHKEITSRECHNUNG UND KOMBINATORIK 18

µ ist ein Lagemaß und σ ein Streuungsmaß. Bei Verschiebung und Streckung der Zufallsvariablengilt für Zahlen a, b

E[aX + b] = aE[X] + b

Var[aX + b] = a2Var[X].

Sind X1, . . . , Xn unabhängige Realisationen mit gleicher Verteilung wie X, so gilt nach demGesetzder großen Zahlen

x = 1n

n∑k=1

Xk → E[X] und s→ σ für n→∞.

x und s sind also Schätzer für µ und σ.Das Gesetz der großen Zahlen kann auch so geschrieben werden:

∑nk=1 Xk ≈ nE[X] für große n.

Beispiel: Beim Würfel gilt E[X] = (1 + 2 + · · · + 6)/6 = 7/2 und Var[X] = 35/12 und damits ≈ 1, 71. Nach 10 Würfen wird die Augensumme ”in der Nähe von” 35 sein.

Übersicht diskreter Verteilungen

Name Kurz Dichte µ s2

Bernoulli p1 = p, p0 = 1− p p p(1− p)

Binomial B(n; p) pk =(n

k

)pk(1− p)n−k n · p n · p · (1− p)

k = 0, 1, . . . , n

Hypergeometrisch H(n;N ;M) pk =

(M

k

)(N −Mn− k

)(N

n

) n · MN

n · MN

(1− M

N

)N − nN − 1

k = 0, 1, . . . ,minn,M

Poisson Po(λ) pk = λk

k! e−λ, k = 0, 1, . . . λ λ

Geometrisch Geo(p) pk = p(1− p)k−1, k = 1, 2, . . . 1p

1p

(1p− 1)

4.4.3 Verteilung, Verteilungsfunktion und Unabhängigkeit

Unter derVerteilung verstehen wir die Zuordnung von Wahrscheinlichkeiten zu (allen) Ereignissen.Die speziellen Ereignisse X ≤ x ergeben die Verteilungsfunktion F (x) = P(X ≤ x) für x ∈ IR.Dies ist eine rechtsseitig stetige, monoton wachsende Funktion mit F (−∞) = 0 und F (∞) = 1.Wegen der unvereinbaren Zerlegung X ≤ k = X ≤ k − 1 ∪ X = k gilt

P(X = k) = P(X ≤ k)− P(X ≤ k − 1) = F (k)− F (k − 1).

Die Zähldichte lässt sich also aus der Verteilungfunktion gewinnen. F ist eine Treppenfunktion,d. h. zwischen k − 1 und k ist sie konstant, bei k springt sie um P(X = k).Allgemein gilt:

P(X ≤ a) = F (a)P(a < X ≤ b) = P(X ≤ b)− P(X ≤ a) = F (b)− F (a)

P(X > a) = 1− P(X ≤ a) = 1− F (a).

Zwei Zufallszahlen sind unabhängig, wenn

P(X ≤ k ∩ Y ≤ j) = P(X ≤ k)P(Y ≤ j) für alle k, j gilt.

4 WAHRSCHEINLICHKEITSRECHNUNG UND KOMBINATORIK 19

4.4.4 Stetige Zufallsvariablen

Stetige quantitative Merkmale nehmen jeden konkreten Wert mit Wahrscheinlichkeit 0 an:

P(X = x) = 0 für jedes x.

Anstelle der Zähldichte tritt hier eine Dichtefunktion

f(x) ≥ 0 mit∫ ∞−∞

f(x)dx = 1,

Summen werden durch Integrale∫ baf(x)dx ersetzt, die für die durch die Geraden x = a, x = b

der x-Achse und der Kurve f(x) gegebenen Fläche stehen. Die Verteilungsfunktion ist gegebendurch

F (b) = P(X ≤ b) =∫ b

−∞f(x)dx

Wie für diskrete Zufallsvariablen gilt F (−∞) = 0, F (∞) = 1 und F ist monoton wachsend, hataber für stetige Zufallsvariablen keine Sprünge sondern ist stetig und sogar differenzierbar. Es giltf(x) = F ′(x) = ∂

∂xF (x).

Wie bei diskreten Zufallsvariablen definieren wirErwartungswert µ = E[X] =

∫ ∞−∞

x · f(x)dx

m-tes Moment E[Xm] =∫ ∞−∞

xm · f(x)dx

Varianz Var[X] = E[X2]− µ2

Standardabweichung σ =√

Var[X]µ ist wieder ein Lagemaß und σ ein Streuungsmaß mit E[aX + b] = aE[X] + b und Var[aX + b] =a2Var[X].

Beispiele:

1. Gleichverteilung auf [0, 1], X ∼ U [0, 1]. Hier ist f(x) = 1 für x ∈ [0, 1], ansonsten f(x) = 0.Es gilt F (x) = x für x ∈ [0, 1] und µ = 1/2 und σ2 = 1/12.

2. Die Exponentialverteilung X ∼ Exp(λ) ist die stetige Version der geometrischen Verteilungmit F (x) = 1− e−λx für x ≥ 0, f(x) = λe−λx für x ≥ 0, µ = 1/λ und Var[X] = 1/λ2.Die Exponentialverteilung ist auch gedächtnislos, denn P(X > x) = 1 − F (x) = e−λx undsomit

P(X > x+ x0 |X > x0) = P (X > x+ x0)P (X > x0) = e−λ(x+x0)

e−λx0= e−λx.

Sie dient zur Modellierung von Lebensdauern von Glühbirnen, Bauteilen etc.

3. Normalverteilung X ∼ N (µ, σ2). Diese Verteilung hat zwei Parameter, die identisch zumErwartungswert und zur Varianz sind: E[X] = µ, Var[X] = σ2. (Vorsicht: Manchmal wirdals zweiter Parameter die Standardabweichung anstelle der Varianz benutzt.) Für die Dichtegilt (Gaußsche Glockenkurve)

f(x) = 1√2πσ2

e−

12

(x− µσ

)2

, x ∈ IR.

Eigenschaften: Achsensymmetrie zu x = µ, Wendepunkte bei µ± σ.

4.4.5 Standardnomalverteilung Z ∼ N (0,1)

Für die speziellen Parameter µ = 0 und σ2 = 1 wird die Verteilungsfunktion mit

Φ(z) = P(Z ≤ z), z ∈ IR

bezeichnet und ist für z ≥ 0 tabelliert, siehe Anhang im Skript. Aufgrund Symmetrie in der Dichtegilt

Φ(−z) = 1− Φ(z), z ∈ IR,

so dass für alle z ∈ IR die Verteilungsfunktion tabelliert vorliegt.

4 WAHRSCHEINLICHKEITSRECHNUNG UND KOMBINATORIK 20

Standardisierung

Ist X ∼ N (µ, σ2), so ist (Verschiebung/Streckung von EW und Varianz)

Z = X − µσ

∼ N (0, 1)

und umgekehrt, wenn Z ∼ N (0, 1), so ist

X = σZ + µ ∼ N (µ, σ2).

Damit ergibt sich

P(X ≤ x) = P(X − µ

σ≤ x− µ

σ

)= P

(Z ≤ x− µ

σ

)= Φ

(x− µσ

)und analog

P(a ≤ X ≤ b) = Φ(b− µ

σ

)− Φ

(a− µσ

)P(X > a) = 1− Φ

(a− µσ

)wobei ≤ durch < und > durch ≥ ersetzt werden darf (wegen P(X = a) = 0).

n− σ Regeln

Für Z ∼ N (0, 1) gilt aufgrund Symmetrie für z > 0

P(−z < Z ≤ z) = P(Z ≤ z)− P(Z ≤ −z) = Φ(z)− Φ(−z) = 2Φ(z)− 1.

Damit

z Φ(z) 2Φ(z)− 1 Regel1 0.8413 68.26% 2/3 Wkt.masse in [µ− σ, µ+ σ]2 0.9772 95.44% 95% Wkt.masse in [µ− 2σ, µ+ 2σ]3 0.9987 99.74% 99% Wkt.masse in [µ− 3σ, µ+ 3σ]

4.4.6 Summen von unabhängigen Zufallsvariablen

Für zwei Zufallsvariablen X1 und X2 gilt allgemein E[X1 +X2] = E[X1] + E[X2].Sind X1 ∼ N (µ1, σ

21) und X2 ∼ N (µ2, σ

22) unabhängig (!!!), so sind X1 +X2 und X1 −X2 auch

normalverteilt:

X1 +X2 ∼ N(µ1 + µ2, σ

21 + σ2

2)

X1 −X2 ∼ N(µ1 − µ2, σ

21 +σ2

2)

Allgemein: Sind X1, X2, . . . , Xn unabhängig mit der gleichen Normalverteilung N (µ, σ2), so gilt

für die Summe Sn = X1 +X2 + · · ·+Xn ∼ N(nµ;nσ2)

für den arithmetischen Mittelwert X = X1 +X2 + · · ·+Xn

n∼ N

(µ; σ

2

n

)für die skalierte Summe Sn − nµ

σ√n∼ N (0, 1)

Zentraler Grenzwertsatz – Summen von nicht normalverteilten Zufallsvariablen

Sind X1, X2, . . . unabhängige Zufallsvariablen mit derselben Verteilung mit Erwartungswert µ undVarianz σ2, so gilt mit Sn = X1 + · · ·+Xn

Sn − nµσ√n≈ N (0, 1) für große n.

Insbesondere bedeutet das, dass eine Summe vieler unabhängiger Größen näherungsweisenormalverteilt ist, selbst wenn die einzelnen Summanden nicht normalverteilt sind.Typische Anwendung: Messfehler/Produktionsabweichungen bestehen aus einer Summe von unbes-timmbaren Fehlern, sind also normalverteilt.

4 WAHRSCHEINLICHKEITSRECHNUNG UND KOMBINATORIK 21

4.4.7 Approximation diskreter Verteilungen durch die Normalverteilung

Die Binomialverteilung ergibt sich als Summe von Bernoulliexperimenten, lässt sich also durch dieNormalverteilung approximieren. Dies ist auch der Fall für die Hypergeometrische Verteilung unddie Poissonverteilung. Eine Faustregel lautet, dass dies in Ordnung ist, falls σ2 ≥ 9. Als Parameterwählt man

Verteilung µ σ2 Voraussetzung neben σ2 ≥ 9

X ∼ B(n, p) np np(1− p)

X ∼ H(n,N,M) nM

NnM

N

(1− M

N

)N − nN − 1 n/N ≤ 0.1

X ∼ Po(λ) λ λ

Hier sind zwei Dinge zu beachten:

1. Die Normalverteilung besitzt auf ganz IR Wahrscheinlichkeitsmasse. Somit darf auf den Bere-ichen X < 0 oder X > n nicht approximiert werden. (Man würde sonst eine positiveWahrscheinlichkeit bekommen!)

2. Stetigkeitskorrektur: Wird eine diskrete Zufallsvariable X, die nur ganzzahlige Werteannehmen kann, durch eine Normalverteilung N(µ;σ2) approximiert, sollten Wahrschein-lichkeiten mit den Formeln

P(a ≤ X ≤ b) ≈ Φ(b− µ+0, 5

σ

)− Φ

(a− µ−0, 5

σ

)P(X ≤ b) ≈ Φ

(b− µ+0, 5

σ

)P(a ≤ X) = P(X ≥ a) ≈ 1− Φ

(a− µ−0, 5

σ

)berechnet werden. Achtung: Bei diesen Formeln darf ”≤” nicht durch ”<” ersetzt werden.a und b sind ganze Zahlen ≥ 0 und ≤ minn,M.

Beispiel: Berechnen Sie P(9 ≤ X ≤ 11) für X ∼ B(1000, 1%). Genaue Rechnung ergibt:

P(9 ≤ X ≤ 11) = P(X = 9) + P(X = 10) + P(X = 11)≈ 0.125613 + 0.125740 + 0.114309 ≈ 36.56%

Approximation ergibt µ = 10 und σ2 = 9.9 > 9, somit

P(9 ≤ X ≤ 11) ≈ Φ(11− 10 + 0.5√

9.9

)− Φ

(9− 10− 0.5√9.9

).

Das Argument ist ca. ±0.48 (Symmetrie!) und aus der Tabelle liest man Φ(0.48) = 0, 6844, somiterhält man als Approximation 36.88%.Eine genauere Rechnung (mit Excel, genauere Tabelle) ergibt als Approximation 36.64%.Ohne Stetigkeitskorrektur würde man den ungenauen Wert 24.93% bekommen.

4.4.8 Quantile

Die Verteilungfunktion F (x) gibt die Wahrscheinlichkeitsmasse links von x an. Quantile sindhierzu die Umkehrung: Für α ∈ (0, 1) heißt die (größte) Zahl q mit F (q) = P(X ≤ q) = α dasα-Quantil. Sie gibt den Ort an, so dass links davon die Wahrscheinlichkeitsmasse α liegt.Für die Standardnormalverteilung schreiben wir zα für diese Zahl q. Die wichtigsten Quantile sindin einer Tabelle im Anhang des Skriptes angegeben. In EXCEL steht der Befehl NORMINV zurVerfügung.

5 SCHLIEßENDE STATISTIK 22

Beispiel: z0.99 = 2.326, d. h. P(Z ≤ 2.326) = 0.99

Für eine allgemeine Normalverteilung werden die Quantile mit qα bezeichnet. Mit den Formeln fürdie Standardisierung gilt

qα = σ · zα + µ.

Die Symmetrie der Standardnormalverteilung ergibt: zα = −z1−α.

4.4.9 Zufallsstreubereiche (ZSB)

Zufallsstreubereich oder Prognoseintervall einer normalverteilten Zufallsvariable X: ein Intervallum den Erwartungswert µ, in dem sich die Ausprägungen von X mit einer Wahrscheinlichkeit p(z. B. p = 90%, 98%, 99%) befinden.

Die Ausprägungen von X befinden sich außerhalb des Zufallsstreubereiches mit einer Wahrschein-lichkeit von α = 1− p.

Zufallsstreubereiche für eine normalverteilte Zufallsvariable X ∼ N(µ;σ2):Zweiseitig

[qα

2; q1−α2

]=[µ− z1−α2 · σ ; µ+ z1−α2 · σ

]Einseitig nach oben beschränkt (−∞ ; q1−α] = (−∞ ; µ+ z1−α · σ]

Einseitig nach unten beschränkt [qα ; ∞) = [µ− z1−α · σ ; ∞)

Für einen zweiseitigen Zufallsstreubereich benötigt man das z1−α2 -Quantil der Normalverteilung,z. B. also für einen zweiseitigen 99%-Zufallsstreubereich z0,995 = 2, 576.Wegen zα = −z1−α genügt es, eine Tabelle mit Quantilen der Standardnormalverteilung für ”hohe”Wahrscheinlichkeiten (> 0, 5) zu haben.

Besonders wichtig sind ZSB für das arithmetische Mittel X = 1n

∑nk=1 Xk. Sind Xk ∼ N (µ, σ2)

unabhängig, so gilt X ∼ N (µ, σ2/n) und es ergeben sich folgende ZSB:

Zweiseitig =[µ− z1−α2 ·

σ√n

; µ+ z1−α2 ·σ√n

]Einseitig nach oben beschränkt =

(−∞ ; µ+ z1−α ·

σ√n

]Einseitig nach unten beschränkt =

[µ− z1−α ·

σ√n

; ∞)

Bsp: Gegeben eine Stichprobe vom Umfang 16 eine Standardnormalverteilung. Wo wird mit 99%Wahrscheinlichkeit X liegen?Wir wissen X ∼ N (0, 1/16) und somit liegt X mit 99% Wahrscheinlichkeit im Intervall

[−2.576/4, 2.576/4] = [−0.644, 0.644].

5 Schließende Statistik5.1 PunktschätzerFür eine Zufallsvariable X ist oft ist der Verteilungstyp bekannt, aber die entsprechenden Parameternicht. Beispiele:

Anwendung Eigenschaft Verteilung zu schätzende ParameterLebensdauer Gedächtnislosigkeit Exponentialverteilung λ

Messfehler,Produktionsfehler,. . .

ZGWS Normalverteilung µ, σ

Bernoulli-Schema Erfolg – Misserfolg Bernoulli-/Binomialverteilung

p (bzw. µ = np)

seltene Ereignisse Skalierung Poissonverteilung λ

Aus einer Stichprobe X1, X2, . . . , Xn vom Umfang n sollen diese Parameter geschätzt werden(Punktschätzung), z. B. µ = 1

n

∑ni=1 Xi.

5 SCHLIEßENDE STATISTIK 23

Wünschenswerte Eigenschaften eines Schätzers Tn für einen Parameter θ:

1. Tn soll im Wertebereich von θ liegen (z. B. keine negativen Zahlen für Wahrscheinlichkeitenoder Varianz)

2. Für wachsende Stichprobe soll der Schätzer sich dem Parameter annähern, Tn → θ (n→∞)(Konsistenz)

3. Erwartungstreue: E[Tn] = θ. Bsp.: E[s2] = σ2 (daher auch die n− 1 im Zähler)

4. Suffizienz: Die gesamte Information der Stichprobe über den Parameter sollte verwendetwerden.Bsp.: 2

n

∑2i≤nX2i (nur jeder zweite Wert) ist auch ein Schätzer für µ, aber schlechter als µ.

5. Optimalität: Varianz sollte möglichst gering sein

6. (Approximative) Normalverteilung von Tn: erlaubt die Angabe von (approximativen) Zu-fallsstreubereichen.

Wichtige Methoden zur Gewinnung von Schätzern:

1. Momentenmethode: Das Gesetz der großen Zahlen besagt, dass das m-te Stichprobenmoment1n

∑ni=1 X

mi gegen dasm-te Moment E[Xm] für n→∞ konvergiert. Lassen sich die Parameter

aus den Momenten berechnen, so kann man diese mit den Stichprobenmomenten schätzen undbekommt daraus Schätzer für die Parameter.Bsp.: 1

n

(∑ni=1 X

2i − nX

2) ist der Momentenschätzer für σ2. Er ist nicht erwartungstreu,

deswegen verwenden wir s2 = 1n−1

(∑ni=1 X

2i − nX

2).2. Maximum Likelihood: Man berechnet in Abhängigkeit der Parameter die Wahrscheinlichkeit

für das Auftreten der beobachteten Stichprobe und wählt die Parameter so, dass diese Wahrschein-lichkeit maximiert wird, vgl. Fischbeispiel.

Wichtige Beispiele:

Unbekannter Parameter Punktschätzer

Wahrscheinlichkeit peines Ereignisses

p = kn (relative Häufigkeit, d. h. bei der Stichprobe

vom Umfang n trat das gesuchte Ereignis k-mal auf)

Erwartungswert µ µ = x (arithmetischer Mittelwert der Stichprobe)

Varianz σ2 σ2 = s2 (empirische Varianz der Stichprobe)

Standardabweichung σ σ = s (empirische Standardabweichung der Stichprobe)

Man wird versuchen, die möglichen Abweichungen zwischen dem geschätzten Wert und dem un-bekannten wahren Wert zu quantifizieren. Dazu wird man z. B. für den Fall einer unbekanntenWahrscheinlichkeit p Fragen wie die folgenden stellen:

1. Kann man einen Bereich angeben, in dem p liegen kann, etwa in der Form ”p liegt im Intervall[0, 63; 0, 67]”? ; Vertrauensbereiche, Abschnitt 5.2

2. Kann man bestimmte Werte von p ausschließen, z. B. kann man ausschließen, dass gilt p ≤0, 5? ; Tests, Abschnitt 5.3

5.2 VertrauensbereicheBei Zufallsstreubereichen waren die Parameter (z. B. µ) bekannt und man hat einen Bereich angegeben,in dem X mit hoher Wahrscheinlichkeit liegt. Vertrauensbereiche sind Intervallschätzer fürdie unbekannten Parameter, d. h. hier ist X gegeben und gesucht ist ein Zufalls-Intervall (in Ab-hängigkeit von X), das µ mit hoher Wahrscheinlichkeit überdeckt.Der Zufallsstreubereich und der Vertrauensbereich haben unterschiedliche Mittelpunkte, nämlich µund X, aber die gleiche Länge.

5 SCHLIEßENDE STATISTIK 24

5.2.1 Konstruktion von Vertrauensbereichen

Bei vorliegender Stichprobe X1, . . . Xn, sucht man eine Pivotgröße,

1. deren Verteilung (Quantile) bekannt ist und

2. die man nach dem gesuchten Parameter auflösen kann.

Beispiele:

1. Normalverteilung mit bekannter Varianz σ2 und unbekanntem Mittelwert µ.Wir wissen X ∼ N (µ, σ

2

n ), d. h. (Standardisierung)

Pivotgröße: Z = X − µσ

√n ∼ N (0, 1). Aus

P (−z1−α/2 ≤ Z ≤ z1−α/2) = 1− α

(symmetrisches Intervall ist das kürzeste!) ergibt sich durch Auflösen

P (X − z1−α/2σ√n≤ µ ≤ X + z1−α/2

σ√n

) = 1− α

und ”µ liegt mit Wahrscheinlichkeit 1− α im Intervall [X − z1−α/2σ√n

;X + z1−α/2σ√n

]”.

2. Normalverteilung mit unbekannter Varianz σ2 und unbekanntem Mittelwert µ.Wir verwenden s2 als Schätzer für die unbekannte Varianz σ2.Pivotgröße: T = X − µ

s

√n

T besitzt eine t-Verteilung mit n−1 Freiheitsgraden, T ∼ tn−1. Die Quantile der t-Verteilungsind tabelliert, siehe Ende des Skripts. Sie sind breiter, als bei der Normalverteilung (wenigerInformation) und konvergieren gegen diese für große n (wenn man ”mehr” Information hat).

3. Für den Fall der Differenz zweier Normalverteilungen besitzt W = X − Y − µ1 + µ2

sdeine

t-Verteilung mit m+ n− 2 Freiheitsgraden. (Definition sd siehe unten)

4. Zählt X das Eintreten eines konkreten Eregnisses, so ist X ∼ B(n; p). Durch Approximation

mit der Normalverteilung entsteht eine Pivotgröße X − np√np(1− p)

=Xn − p√p(1− p)

√n ≈ N (0, 1).

5.2.2 Tabellen für Vertrauensbereiche zur Vertrauenswahrscheinlichkeit 1− α

1. Vertrauensbereich für µ bei bekannter Standardabweichung σ zum Vertrauensniveau 1− αDer Vertrauensbereich wird auf Basis einer Stichprobe x1, x2, . . . , xn berechnet, deren arith-metischer Mittelwert x ist.

Art des Vertrauensbereichs Vertrauensbereich für µ

zweiseitig[x− z1−α2 ·

σ√n

; x+ z1−α2 ·σ√n

]einseitig nach unten begrenzt

[x− z1−α · σ√

n; ∞

)einseitig nach oben begrenzt

(−∞ ; x+ z1−α · σ√

n

]

2. Vertrauensbereich für µ bei unbekannter Standardabweichung σ zum Vertrauensniveau 1−αDer Vertrauensbereich wird auf Basis einer Stichprobe x1, x2, . . . , xn berechnet, deren arith-metischer Mittelwert x und deren empirische Standardabweichung s ist.

5 SCHLIEßENDE STATISTIK 25

Art des Vertrauensbereichs Vertrauensbereich für µ

zweiseitig[x− tn−1;1−α2 ·

s√n

; x+ tn−1;1−α2 ·s√n

]einseitig nach unten begrenzt

[x− tn−1;1−α · s√

n; ∞

)einseitig nach oben begrenzt

(−∞ ; x+ tn−1;1−α · s√

n

]tn−1;1−α: (1− α)-Quantil der t-Verteilung mit n− 1 Freiheitsgraden

3. Vertrauensbereich für die Differenz zweier Erwartungswerte µ1 − µ2 zum Vertrauensniveau1− αEs werden zwei Stichproben vom Umfang m und n mit den arithmetischen Mitteln x und yund mit den empirischen Standardabweichungen s1 und s2 gezogen.

Berechne zunächst die Hilfsgröße sd =√

(m− 1) · s21 + (n− 1) · s2

2 ·√

m+ n

m · n · (m+ n− 2)

Art des Vertrauensbereichs Vertrauensbereich für µ1 − µ2

zweiseitig[x− y − tm+n−2;1−α2 · sd ; x− y + tm+n−2;1−α2 · sd

]einseitig nach unten begrenzt [x− y − tm+n−2;1−α · sd ; ∞)

einseitig nach oben begrenzt (−∞ ; x− y + tm+n−2;1−α · sd]

4. Vertrauensbereich für eine unbekannte Wahrscheinlichkeit/einen unbekannten Anteil p einerGrundgesamtheit zum Vertrauensniveau 1− α

Tritt bei einer Stichprobe vom Umfang n das gesuchte Ereignis k-mal auf, verwendet man alsPunktschätzer für die unbekannte Wahrscheinlichkeit die relative Häufigkeit

p = k

n

Der Vertrauensbereich zum Vertrauensniveau 1− α berechnet sich dann als

Art des Vertrauensbereichs Vertrauensbereich für p

zweiseitig[p− z1−α2 ·

√p·(1−p)

n − 0,5n ; p+ z1−α2 ·

√p·(1−p)

n + 0,5n

]

einseitig nach unten begrenzt[p− z1−α ·

√p·(1−p)

n − 0,5n ; 1

]

einseitig nach oben begrenzt[

0 ; p+ z1−α ·√

p·(1−p)n + 0,5

n

]

5.3 HypothesentestsBeispiel: Eine Maschine stellt Glasscheiben her. ImMittel entstehen 10 Bläschen prom2. Beschreibtdie Zufallsvariable X die Anzahl der Bläschen auf 1m2, so gilt X ∼ Po(λ) mit λ = 10. Der Pro-duktiosleiter ändert die Arbeitsweise der Maschine und behauptet, dass es jetzt weniger Bläschengibt, dass nun also λ < 10. Wie lässt sich dies überprüfen?Statistische Hypothese: Annahme über die Verteilung einer Zufallsvariablen. Ist die Verteilungvollständig bestimmt, so heißt die Hypothese einfach, ansonsten zusammengesetzt.

5 SCHLIEßENDE STATISTIK 26

Beispiel: Bei der Poissonverteilung: λ = 10 einfache Hypothese, λ < 10 oder λ 6= 10 sind zusam-mengesetzte Hypothesen.Die Hypothese, die man bestätigen will, bezeichnet man mitH1, das ”Gegenteil” mitH0, im Beispielalso: H0: λ ≥ 10 vs. H1: λ < 10.(Statistischer) Test: Regel, ob aufgrund einer Stichprobe H0 verworfen/abgelehnt wird odernicht. H0 wird verworfen, wenn die Stichprobe in einem kritischen Bereich liegt.Bemerkung: Wird H0 abgelehnt, so gilt H1 als statistisch nachgewiesen (was man gerne möchte).Wird H0 nicht abgelehnt, so muss H0 nicht gelten, kann aber auch nicht ausgeschlossen werden.

Mögliche Fehler bei statistischen Tests

H0 wird nicht verworfen H0 wird verworfen

H0 trifft zu Richtige Entscheidung Fehler 1. Art (α-Fehler)Wahrscheinlichkeit: höchstens α

H1 trifft zu Fehler 2. Art (β-Fehler)Wahrscheinlichkeit: β

Richtige Entscheidung

α ist die Wahrscheinlichkeit, dass manH0 verwirft, obwohl es zutrifft (Irrtumswahrscheinlichkeit).Es wird als kleiner Wert vorgegeben.Falls H0 verworfen wird, sagt man auch, H1 sei ”signifikant” bei Signifikanzniveau α.Lautet die Regel ”H0 nie verwerfen” (leerer kritischer Bereich), so ist α = 0, aber dies ist nichtsinnvoll, da dann der Fehler 2. Art groß ist.Ziel ist es, Tests so zu konstruieren, dass bei gegebenem Signifikanzniveau der Fehler 2. Art möglichstklein wird (; optimale Tests)

5.3.1 Konstruktion von Tests

Gauß-Test: Testet man ausgehend von einer Normalverteilung mit bekannter Varianz σ2 die Hy-pothese H0: µ = µ0 vs. H1: µ 6= µ0, so wissen wir, dass für eine Stichprobe unter H0 X ∼N (µ0;σ2/n) gilt und (vgl. Abschnitt 4.4.9)

P(X 6∈ [µ0 − z1−α/2 ·

σ√n, µ0 + z1−α/2 ·

σ√n

])≤ α.

Liegt also X weiter als z1−α/2 · σ√n

von µ0 entfernt, so sollte H0 verworfen werden. Die Irrtum-swahrscheinlichkeit ist kleiner als α. Man kann zeigen, dass dieser Test optimal ist.Für die anderen Fällen verwendet man analoge Teststatistiken wie bei den Vertrauensbereichen(Abschnitt 5.2.1).

5.3.2 Generelles Vorgehen beim Testen von Hypothesen

1. Hypothesen aufstellen (s.u.)

2. Signifikanzniveau α festlegen, z. B. α = 0, 05, α = 0, 01 oder α = 0, 001.

3. Berechnung des Zufallsstreubereichs (nach Tabelle)Falls H0 zutrifft, sollte die Teststatistik mit großer Wahrscheinlichkeit 1 − α in diesem Zu-fallsstreubereich liegen.

4. Berechnung der Teststatistik aus der StichprobeTeststatistiken: x bzw. x− y bzw. k

n

5. Testentscheidung:Teststatistik ∈ ZSB (=Annahmebereich) =⇒ H0 kann nicht verworfen werden/wird beibehal-tenTeststatistik /∈ ZSB =⇒ H0 wird (zu Gunsten von H1) verworfen/abgelehnt

6. Antwortsatz d. h. ”Übersetzen” der Testentscheidung in das konkrete Anwendungsproblem

5 SCHLIEßENDE STATISTIK 27

Falls die Stichprobendaten der Nullhypothese nicht widersprechen, braucht man den ZSB nicht zuberechnen; z. B. wenn die Nullhypothese H0 : λ ≥ 10 lautet und x = 10, 7 ist. In einem solchen Fallwird die Nullhypothese nie verworfen; λ ≥ 10 kann natürlich nicht ausgeschlossen werden.

Ergänzung: Aufstellen der Hypothesen für Parametertests

H0 beinhaltet den für den unbekannten Parameter auszuschließendenWert (bzw. die auszuschließen-den Werte), H1 das ”Gegenteil” von H0, also die zu bestätigenden Werte.

Beispiele für Signalwörter im Text:

. . . gleich . . . . . . ungleich, weicht ab, . . .= 6=

. . . höchstens, nicht mehr als . . . . . . größer, mehr als, . . .≤ >

. . . mindestens, nicht weniger als . . . . . . kleiner, weniger als, . . .≥ <

H0 H1

H0 immer = , ≤ oder ≥ (”. . . gleich” steht vorne)H1 immer 6= , < oder >.

5.3.3 Tabellen für statistische Tests

Allgemeiner Hinweis zu den Tabellen auf den folgenden Seiten: Bei den zweiseitigen Tests ist das(1− α

2)-Quantil der Normalverteilung (bzw. t-Verteilung) zu benutzen. Ist zum Beispiel α = 5%,

so muss bei der Normalverteilung das Quantil z1−α2 = z0,975 = 1, 96 benutzt werden.

1. Gauß-Test: Test für µ bei bekannter Standardabweichung σ zum Signifikanzniveau αTest (zum Signifikanzniveau α) einer Nullhypothese über den unbekannten Erwartungswertµ, z. B. (erster Eintrag in der Tabelle) die Hypothese, dass µ gleich einer vorgegebenen festenZahl µ0 (etwa einem Sollwert oder dem bisherigen Wert) ist.Gegeben: Stichprobe x1, x2, . . . , xn. Die Messwerte sind Realisierungen von n unabhängigenN(µ, σ2)- verteilten Zufallsvariablen mit unbekanntem Erwartungswert µ, aber bekannterVarianz σ2.

H0 H1 Zufallsstreubereich für X,falls H0 zutrifft

H0 verwerfenfalls

µ = µ0 µ 6= µ0

[µ0 − z1−α2 ·

σ√n

; µ0 + z1−α2 ·σ√n

]x /∈ ZSB

µ ≥ µ0 µ < µ0

[µ0 − z1−α ·

σ√n

; ∞)

x /∈ ZSB

µ ≤ µ0 µ > µ0

(−∞ ; µ0 + z1−α ·

σ√n

]x /∈ ZSB

2. t-Test: Test für µ bei unbekannter Standardabweichung σ zum Signifikanzniveau αGegeben: Stichprobe x1, x2, . . . , xn. Die Messwerte sind Realisierungen von n unabhängigenN(µ, σ2)-verteilten Zufallsvariablen mit unbekanntem Erwartungswert µ, und unbekannterVarianz σ2.−→ Schätze σ durch s aus der Stichprobe. Deshalb müssen die Quantile der t-Verteilung (mitn− 1 Freiheitsgraden) statt der Normalverteilung benutzt werden.

6 STATISTISCHE METHODEN IN DER QUALITÄTSSICHERUNG 28

H0 H1 Zufallsstreubereich für X,falls H0 zutrifft

H0 verwerfenfalls

µ = µ0 µ 6= µ0

[µ0 − tn−1;1−α2 ·

s√n

; µ0 + tn−1;1−α2 ·s√n

]x /∈ ZSB

µ ≥ µ0 µ < µ0

[µ0 − tn−1;1−α ·

s√n

; ∞)

x /∈ ZSB

µ ≤ µ0 µ > µ0

(−∞ ; µ0 + tn−1;1−α ·

s√n

]x /∈ ZSB

s: Standardabweichung der Stichprobe,tn−1;1−α: (1− α)-Quantil der t-Verteilung mit n− 1 Freiheitsgraden

3. Zweistichproben-t-TestTest (zum Signifikanzniveau α) Über die Differenz zweier Erwartungswerte µ1 − µ2 zweierGrundgesamtheiten bei unbekannter aber gleicher Standardabweichung σ.Zum Test werden zwei Stichproben vom Umfang m und n mit den arithmetischen Mitteln xund y und mit den empirischen Standardabweichungen s1 und s2 gezogen.

Berechne zunächst die Hilfsgröße sd =√

(m− 1) · s21 + (n− 1) · s2

2 ·√

m+ n

m · n · (m+ n− 2)

H0 H1 Zufallsstreubereich für X − Y ,falls H0 zutrifft

H0 verwerfenfalls

µ1 − µ2 = 0 µ1 − µ2 6= 0[−tm+n−2;1−α2 · sd ; tm+n−2;1−α2 · sd

]x− y /∈ ZSB

µ1 − µ2 ≥ 0 µ1 − µ2 < 0 [−tm+n−2;1−α · sd ; ∞) x− y /∈ ZSB

µ1 − µ2 ≤ 0 µ1 − µ2 > 0 (−∞ ; tm+n−2;1−α · sd] x− y /∈ ZSB

4. Test für eine unbekannte Wahrscheinlichkeit/einen unbekannten Anteil p einer Grundge-samtheit zum Signifikanzniveau α

Bei einer Stichprobe vom Umfang n sei das gesuchte Ereignis k-mal eingetreten.

H0 H1 Zufallsstreubereich für kn ,

falls H0 zutrifftH0 verwer-fen falls

p = p0 p 6= p0

[p0 − z1−α2 ·

√p0·(1−p0)√

n− 0,5

n ; p0 + z1−α2 ·√p0·(1−p0)√

n+ 0,5

n

]k

n/∈ ZSB

p ≥ p0 p < p0

[p0 − z1−α ·

√p0·(1−p0)√

n− 0,5

n ; 1]

k

n/∈ ZSB

p ≤ p0 p > p0

[0 ; p0 + z1−α ·

√p0·(1−p0)√

n+ 0,5

n

]k

n/∈ ZSB

wobei p = kn : Anteil/relative Häufigkeit in einer Stichprobe vom Umfang n, wenn das gesuchte

Ereignis k-mal aufgetreten ist.

6 Statistische Methoden in der QualitätssicherungZiel der statistischen Prozesskontrolle (SPC = statistical process control) ist

6 STATISTISCHE METHODEN IN DER QUALITÄTSSICHERUNG 29

• ein zeitlich stabiler Produktionsprozess (der Prozess wird beherrscht ; 6.1)

• das Einhalten gewisser Toleranzgrenzen (der Prozess ist prozessfähig ; 6.2)

Dazu wird in regelmäßigen Zeitabständen eine Stichprobe genommen. Wir gehen von einem nor-malverteilten Merkmal aus. Beherrschbarkeit heißt dann, dass µ und σ zeiltlich konstant sind.Zur Überwachung trägt man daher jeweils den Stichprobenmittelwert x und die empirische Stan-dardabweichung s in eine eigene Qualitätsregelkarten ein. Ergeben sich hier gewisse Muster oderAbweichungen, so muss in den Produktionsprozess eingegriffen werden.Bei Anwendung von SPC ergibt sich somit ein Regelkreis, bei dem Störungen des Prozesses möglichstrasch entdeckt und behoben werden, damit bei der produzierten Ware erst gar kein Ausschussentsteht.

6.1 QualitätsregelkartenQualitätsregelkarten (QRK) können in einen Qualitätsregelkreis eingebunden werden, um die Qual-ität des produzierenden Prozesses zu überwachen:

6.1.1 Führen der Qualitätsregelkarte

Zur Überwachung von µ trägt man x in eine Qualitätsregelkarte (x-Karte) ein.Ebenso trägt man s zur Überwachung von σ in eine weitere Qualitätsregelkarte (s-Karte) ein, z. B.

Man definiert sich eine obere und untere Eingriffsgrenze (OEG, UEG). Werden diese über-schritten, so muss der Prozess korrigiert werden.Eingriffe sind aber auch bei ungewöhnliche Messwertfolgen notwendig, so z. B.:

• Mehr als 7 aufeinander folgende Werte liegen kontinuierlich ansteigend oder abfallend inner-halb der Eingriffsgrenzen (”Trend”).

• Mehr als 7 aufeinander folgende Werte liegen auf derselben Seite der Mittellinie (”Run”).

• Es treten regelmäßige Muster von Punkten innerhalb der Eingriffsgrenzen auf, die ggf. einenZusammenhang mit äußeren Einflüssen (z. B. Schichtwechsel, Temperatur, . . . ) ausweisen.

Bermerkung: Für andere Verteilungen müssen andere Parameter betrachtet werden. Auch bei derNormalverteilung kann man den Median (x-Karte) und die Spannweite (R-Karte) verwenden.

6 STATISTISCHE METHODEN IN DER QUALITÄTSSICHERUNG 30

6.1.2 Berechnung der Eingriffsgrenzen

UEG = untere Eingriffsgrenze; OEG = obere Eingriffsgrenze.

Diese Werte ergeben sich aus dem 99%-Zufallsstreubereich:

x-Karte: UEGx = µ− 2, 576 · σ√n; OEGx = µ+ 2, 576 · σ√

n(F1)

s-Karte: UEGs = a · σ; OEGs = b · σ (F2)Für µ und σ kommen zwei Möglichkeiten in Betracht:

• Man verwendet Soll- oder Erfahrungswerte µ0 , σ0: µ = µ0, σ = σ0.

• Man schätzt µ und σ aus einem ungestörten Vorlauf: µ = µ, σ = σ ; 6.1.3.

Im ersten Fall sind µ0 und σ0 konstante Vorgaben (z. B. aus Gesetz, Norm oder Herstellungsvorschrift)oder Erfahrungswerte aus früheren, umfangreichen Untersuchungen des Prozesses; ein Vorlauf zurSchätzung von µ und σ ist bei dieser Alternative nicht erforderlich.

Tabelle für die Berechnung der Eingriffsgrenzen bei der s-Karte

s−Karten a b2 0, 006 2, 8073 0, 071 2, 3024 0, 155 2, 0695 0, 227 1, 9276 0, 287 1, 8307 0, 336 1, 7588 0, 376 1, 7029 0, 410 1, 65710 0, 439 1, 619

n = Umfang der Stichproben, die beiAnwendung der QRK regelmäßig zuentnehmen sind

6.1.3 Grunderhebung (Vorlauf) zur Schätzung von µ und σ

Sind die Parameter µ und σ unbekannt und sind auch keine Sollwerte einzuhalten, kann man µ undσ in einer Grunderhebung (auch Vorlauf genannt) schätzen.Das Vorgehen bei einer Grunderhebung ist nun wie folgt:

1. Es werden k Messreihen mit je m Messwerten aufgenommen. Faustregel: k ≥ 20 und m (=Umfang der Vorlauf-Messreihen) mindestens so groß wie n (= Umfang der später bei Einsatzder QRK regelmäßig zu ziehenden Stichproben).(Eine andere Empfehlung lautet k ·m = 200, also dass im Vorlauf insgesamt mindestens 200Messwerte zu ermitteln sind.)Anmerkung: Liegt entgegen der Empfehlung k ≥ 20 in der Grunderhebung nur eine einzigeMessreihe vor, die aber umfangreich ist (d. h. k = 1 und m groß), sollte man µ durch denarithmetischen Mittelwert dieser Messreihe und σ durch die empirische Standardabweichungdieser Messreihe schätzen. Man hat also in diesem Ausnahmefall µ = x und σ = s.

2. Aus jeder Messreihe werden der arithmetische Mittelwert sowie die empirische Standardab-weichung ermittelt.Bezeichnungen: (1 ≤ j ≤ k)

Arithmetischer Mittelwert der j-ten Messreihe = xj

Empirische Standardabweichung der j-ten Messreihe = sj

3. Bildung des Mittelwerts über die Kennzahlen aller Messreihen

x = 1k

k∑j=1

xj ; s = 1k

k∑j=1

sj

(Diese Größen werden außerdem zur Orientierung alsMittellinien in die QRK eingezeichnet.)

6 STATISTISCHE METHODEN IN DER QUALITÄTSSICHERUNG 31

4. Schätzer für µ und σ:Schätze µ durch µ = x. Schätze σ durch σ = 1

cms.

Tabelle mit Werten für cmm cm2 0, 7983 0, 8864 0, 9215 0, 9406 0, 9527 0, 9598 0, 9659 0, 96910 0, 973

m = Umfang der Messreihen bei derGrunderhebung

Für m > 10 kann man σ durch σ = sschätzen.

6.2 ProzessfähigkeitProzessfähigkeit (engl.: process capability): Die Möglichkeit/Fähigkeit eines Prozesses, Produkteinnerhalb geforderter Toleranzgrenzen zu fertigen

Die Toleranzgrenzen werden in der Regel durch den Kunden vorgegeben (wirtschaftliche, keinestatistische Grundlage).

Die Prozessfähigkeitswerte cp und cpk dienen der Überprüfung, ob ein Prozess vorgegebeneToleranzgrenzen (UGW = Unterer Grenzwert und OGW = Oberer Grenzwert) einhält.Annahmen:

• Das beobachtete Merkmal im Prozess ist normalverteilt und

• der Prozess ist beherrschbar.

Mögliche Probleme: Toleranzgrenzen werden überschritten (= zu viel Ausschuss) weil

• Prozessstreuung zu groß und/oder

• Prozess zu nahe an den Toleranzgrenzen

Man betrachtet immer zwei Prozessfähigkeitswerte:cp-Wert (Pozessfähigkeitswert – beurteilt den Prozess (nur) in Bezug auf die Streuung)

cp = T

6σ = OGW − UGW6σ

cpk-Wert (kritischer Prozessfähigkeitswert – beurteilt den Prozess in Bezug auf die Lage, wennder Prozess nicht zentriert ist. Ist die Prozessmitte zu nahe an den Grenzen?)

cpk = minOGW − µ;µ− UGW3σ = Abstand von µ zur näheren Toleranzgrenze

wobei

OGW = Oberer Grenzwert für das betrachtete Merkmal;UGW = Unterer Grenzwert;

T = OGW−UGW (Toleranz)µ, σ = Erwartungswert, Standardabweichung des Merkmals

Wie bei Qualitätsregelkarten gilt auch hier: wenn µ und σ nicht bekannt oder vorgegeben sind,müssen sie aus den vorliegenden Daten geschätzt werden:

• Liegen die Stichprobendaten in Form einer einzigen Messreihe vor, so verwendet man dieSchätzungen µ = x und σ = s, wobei x den arithmetischen Mittelwert der Messreihe und sderen empirische Standardabweichung bezeichnet.

6 STATISTISCHE METHODEN IN DER QUALITÄTSSICHERUNG 32

• Wurden mehrere Messreihen durchgeführt (wie bei einer Grunderhebung), geht man zumSchätzen von µ und σ so wie im Abschnitt 6.1.3 beschrieben vor.

Ein Prozess ist fähig (”der Prozess ist o.k.”), wenn gilt:

cp ≥ 4/3 ≈ 1, 33 undcpk ≥ 4/3 ≈ 1, 33

Die Prozessfähigkeitswerte geben Aufschluss über die Qualität des Prozesses:

Gilt cp < 1, 33 =⇒ Prozessstreuung σ zu groß.Gilt cp ≥ 1, 33 aber cpk < 1, 33 =⇒ Prozessmitte µ liegt zu nahe an einer der beiden Toleranz-grenzen (Streuung akzeptabel).

Bemerkungen zu den Prozessfähigkeitswerten:Der cpk-Wert ist immer gleich oder kleiner als der cp-Wert: cpk ≤ cp (d.h. falls cp < 4/3 kann manaufhören).Die Forderung cp , cpk ≥ 4/3 ist wirtschaftlich und nicht statistisch motiviert! Es werden in derPraxis auch andere (zum Teil höhere) Werte gefordert.

Maschinenfähigkeit

Für die Beurteilung der Maschinenfähigkeit werden im Prinzip die gleichen Kennzahlen wie beider Prozessfähigkeit betrachtet (Bezeichnung: cm, cmk). Es liegt hier jedoch eine andere Art derDatengewinnung vor und evtl. werden andere Grenzwerte für die Kennzahlen verlangt. Datengewin-nung: alle Parameter (Mensch,Material,Messmethode,Maschinentemperatur und FertigungsMethode)werden konstant gehalten, so dass nur der Einfluss der Maschine auf das Ergebnis gemessen werdenkann. Mindestens 50 Teile hintereinander werden gefertigt und ausgewertet

Anmerkungen zu den Begriffen”beherrschter Prozess” und ”fähiger Prozess”

In mancher Literatur werden diese beiden Begriffe ein wenig anders definiert als in diesem Kapitel.

Nach DIN 55350 Teil 33 ist ein ”beherrschter Prozess” ein Prozess, bei dem sich die Parameterder Verteilung der Merkmalswerte ”praktisch nicht oder nur in bekannter Weise oder in bekanntenGrenzen ändern”. Es kommt aber wohl nur selten vor, dass sich die Parameter verändern und mansogar formelmäßig angeben kann, wie oder in welchen Grenzen sie sich verändern. Aus diesemGrund wurde in diesem Kapitel das ”in bekannter Weise oder in bekannten Grenzen ändern” nichtberücksichtigt. Da in den Abschnitten 6.1 und 6.2 zudem nur normalverteilte Qualitätsmerkmalebesprochen werden, bedeutet ”die Parameter verändern sich nicht” hier, dass sich bei dem Prozessµ und σ der Normalverteilung des Qualitätsmerkmals im Verlauf der Zeit nicht ändern.

Ebenfalls in DIN 55350 Teil 33 wird ”Prozessfähigkeit vorhanden” allein über die Ungleichungcp > 1, 33 definiert. Sollte diese erfüllt sein, aber der cpk -Wert unter 1, 33 liegen, gäbe es einengewissen Anteil der im Prozess gefertigten Teile, bei dem die vorgegebenen Toleranzgrenzen nichteingehalten werden. Das wäre — wie oben beschrieben — dann der Fall, wenn die Prozessmitte zunahe an einer der Toleranzgrenzen liegt. Daher müsste in einem solchen Fall die Prozessmitte nochnachjustiert werden; die Möglichkeit des Nachjustierens ist also in der DIN-Definition vorausgesetzt.In diesem Kapitel wurde vorgezogen, Prozessfähigkeit erst zu bescheinigen, wenn das Nachjustierender Prozessmitte nicht (oder nicht mehr) erforderlich ist, und deshalb wurde die Bedingung cpk ≥1, 33 in die Definition der Prozessfähigkeit eingeschlossen.

6.3 Annahme-Stichprobenprüfung6.3.1 Allgemeines zur Annahme-Stichprobenprüfung

Zur Kontrolle z. B. von ein- und ausgehenden Lieferungen kann eine Stichprobenprüfung eingesetztwerden.

Ein Prüfplan (auch ”Stichprobenanweisung” genannt) wird normalerweise in der Form (n|c)angegeben. Dabei ist n der Stichprobenumfang und c die Annahmezahl , d. h. die maximalerlaubte Anzahl von Defektstücken in der Stichprobe.

6 STATISTISCHE METHODEN IN DER QUALITÄTSSICHERUNG 33

Normalerweise ist die Rückweisezahl d = c + 1 . (Ausnahme: Reduzierte Prüfung, wie in 6.3.2erläutert.) Ist die gefundene Anzahl der Defektstücke in der Stichprobe mindestens so hoch wie dieRückweisezahl, wird die Lieferung zurückgewiesen.

(Anmerkung: Der Vertrag zwischen Lieferant und Abnehmer muss regeln, wie im Einzelnen beiAnnahme bzw. Zurückweisen der Lieferung zu verfahren ist.)

Die Zufallsvariable X bezeichne nun die Anzahl der Defektstücke in der Lieferung. X ist hyperge-ometrisch verteilt. P(X ≤ c) nennt man die Annahmewahrscheinlichkeit.

Oft wird man statt mit der hypergeometrischen Verteilung näherungsweise mit der Binomial- oderPoissonverteilung rechnen (vgl. Kapitel 4). Die Annahmewahrscheinlichkeit P(X ≤ c) hängt beidiesen Näherungsrechnungen außer von n nur noch davon ab, wie groß der Ausschussanteil p derLieferung ist, denn falls die Näherungsrechnung zulässig ist, gilt X ≈ B(n, p) oder X ≈ Po(n · p) .

Legt man eine Näherung mit BV oder PV zugrunde und zeichnet man dann die Annahmewahr-scheinlichkeit in Abhängigkeit von p , erhält man die sog. Annahmekennlinie oder OC-Kurve.Die Annahmewahrscheinlichkeit bezeichnet man auch alsAbnehmerrisiko (insbesondere für großeWerte von p). Umgekehrt bezeichnet man die Wahrscheinlichkeit, dass die Lieferung nicht ange-nommen wird, das Produzentenrisiko oder Lieferantenrisiko (insbesondere für kleine Wertevon p).

Ein Produzent wünscht geringes Produzentenrisiko, wenn er gute Ware liefert (d. h. p klein ist), einAbnehmer wünscht geringes Abnehmerrisiko, wenn er schlechte Ware erhält (d. h. p groß ist).

Beide Risikoarten lassen sich (in Abhängigkeit von p) aus der OC-Kurve ablesen: das Abnehmer-risiko ist der Funktionswert der Kurve an der Stelle p, das Produzentenrisiko die Differenz zwischendem Funktionswert und 1. (Für beide optimal wäre also eine möglichst ”steile” OC-Kurve, d. h.eine, die für kleine Werte von p fast 1 ist und für große Werte von p fast 0. Das lässt sich abernormalerweise nur durch sehr große Stichprobenumfänge n erreichen.)

Der Aussschussanteil p der Lieferung, bei dem das Produzentenrisiko einen festgelegten kleinenWert α annimmt, heißt AQL-Wert (AQL = ”Acceptable Quality Level”). Wir wählen α = 0, 1.

Wichtig: Dabei ist p in Prozent anzugeben. AQL 0, 4 bedeutet für uns also: Beträgt der Ausschuss-anteil der Lieferung 0, 4%, so ist die Annahmewahrscheinlichkeit 90 %. (*)

(*) bei den Normprüfplänen in 6.3.4.3A, B, C gilt diese Formel nur näherungsweise.

AQL ist nur eine Kennzahl des Prüfplan; die englische Bezeichnung ist nicht so zu verstehen, dassdiese Ausschussquote p ”akzeptabel” wäre. Zur genaueren Beurteilung eines Prüfplans benötigtman ohnehin die Annahmekennlinie (= OC-Funktion), AQL alleine genügt nicht.

AQL als Kennzahl ist insbesondere nicht ausreichend, wenn nur ein einzelnes Los zu prüfen ist (d. h.keine regelmäßige Geschäftsbeziehung zwischen Lieferant und Abnehmer besteht).

6.3.2 Ein AQL-Stichprobensystem

Dargestellte Normen

In diesem Abschnitt wird das AQL-Stichprobensystem des früheren US-amerikanischen MilitaryStandard MIL-STD-105E dargestellt. Dessen Vorversion D, die auch unter dem Namen ABC-STD-105D bekannt war, war die Grundlage für die Norm DIN ISO 2859. Die beiden Normen stimmenweitgehend überein. Die hier (auszugsweise) dargestellten Tabellen- werte sind mit denen der DIN-Norm identisch. Einen Unterschied gibt es bei den Vorschriften zum Übergang von normaler zureduzierter Prüfung.

Allgemeine Begriffe; Anwendung der Tabellen

Welcher Prüfplan gemäß den beiden Normen anzuwenden ist, hängt ab von:

1. Der Losumfang N und das Prüfniveau ergeben einen Kennbuchstaben

2. Beurteilungsstufe (normale, reduzierte oder verschärfte Prüfung)

3. AQL-Wert (siehe oben) und Kennbuchstabe ergibt Prüfplan (n|c) bzw. (n|c|d).

6 STATISTISCHE METHODEN IN DER QUALITÄTSSICHERUNG 34

Als Prüfniveau wird normalerweise das Allgemeine Prüfniveau II gewählt. Kurze Anmerkungenzu den übrigen Prüfniveaus folgen in Abschnitt 6.3.3 c) und d) auf der nächsten Seite.

Welche Beurteilungsstufe anzuwenden ist, hängt von den Ergebnissen eventuell vorangegangenerPrüfungen ab. Grundidee: Wurden vorher viele Lose in Folge angenommen, kann man reduziertprüfen; musste öfter zurückgewiesen werden, wird verschärft geprüft. Der Übergang zwischen nor-maler und verschärfter/reduzierter Prüfung (und zurück) ist aus den folgenden Übersichten er-sichtlich.

Bei der reduzierten Prüfung ist zu beachten, dass für die Rückweisezahl d oft nicht d = c + 1gilt. Der Prüfplan einer reduzierten Prüfung wird daher in der Form (n|c|d) angegeben, wobei nder Stichprobenumfang ist, c die Annahmezahl und d die Rückweisezahl. Hat man x Defektstückein der Stichprobe gefunden, entscheidet man wie folgt:

• Falls x ≤ c , so wird die Lieferung angenommen; die nächste Prüfung erfolgt ebenfalls re-duziert;

• Falls c < x < d, so wird die Lieferung zwar angenommen, aber die nächste Prüfung erfolgtals normale und nicht als reduzierte Prüfung;

• Falls x ≥ d, so wird die Lieferung zurückgewiesen. (Nächste Prüfung erfolgt normal.)

Mit Hilfe von Prüfniveau und LosumfangN findet man aus der Kennbuchstabentabelle denKennbuch-staben der Prüfung, der die Zeile der folgenden Tabellen festlegt. Der AQL-Wert bestimmt danndie Spalte in der Tabelle, in der Annahmezahl c und Rückweisezahl d stehen. (Bei normaler oderverschärfter Prüfung ist natürlich d = c+ 1.)

Ausnahme: Trifft man auf einen Pfeil ↑ oder ↓, muss man die erste eingetragene Stichprobenan-weisung über bzw. unter dem Pfeil nehmen (also die Zeile wechseln). Falls dadurch der Stichprobe-numfang n größer wird als der Losumfang N , ist das Los vollständig zu prüfen.

Hat man auf diese Weise die Zeile festgelegt, findet man in der letzten Spalte der Tabellen denStichprobenumfang n . Wie bereits oben gesagt, stehen Annahme- und Rückweisezahl in der Spalte,die zum gewählten AQL-Wert gehört.

6.3.3 Ergänzungen zum Thema ”Annahme-Stichprobenprüfung”

1. Wir haben hier nur die sog. Attributprüfung = zählende Prüfung behandelt, d. h. es wirdgeprüft, wie viele der Stichprobeneinheiten fehlerhaft bzw. nicht fehlerhaft sind.

Es gibt darüber hinaus auch Variablenprüfungen (= messende Stichprobenprüfungen).

2. Begriff Los: Ein Los ist ”eine Menge eines Produktes, die unter Bedingungen entstanden ist,die als einheitlich angesehen werden” (DIN 55350, Teil 31).

Wenn wir in der Vorlesung oder im Skript von ”Lieferung” gesprochen haben, sind wir stetsdavon ausgegangen, dass die Lieferung ein Los in diesem Sinne ist.

3. Die Prüfniveaus S1 bis S4 sind Sonderniveaus für kleine Stichprobenumfänge, z. B. beikostspieliger oder zerstörender Prüfung

4. Prüfniveau III ist schärfer als Prüfniveau II (= steilere OC-Funktion); Prüfniveau I istweniger scharf als II.

Eine höhere Prüfschärfe bedeutet eine Reduzierung sowohl des Abnehmerrisikos also auch desProduzentenrisikos. Dies zeigt das folgende Beispiel.

Losumfang N = 2000; AQL 1,0; normale Prüfung.

Prüfniveau I: Kennbuchstabe H Stichprobenvorschrift (50|1)Prüfniveau II: Kennbuchstabe K Stichprobenvorschrift (125|3)Prüfniveau III: Kennbuchstabe L Stichprobenvorschrift (200|5)

Aus den OC-Funktionen ist ersichtlich, dass das Abnehmerrisiko bei großem Ausschussanteilp bei Niveau III am geringsten, bei Niveau I am höchsten ist.

Ebenso ist aber auch bei kleinem p das Produzentenrisiko bei Niveau III geringer als beiNiveau II und dort wiederum geringer als bei Niveau I.

6 STATISTISCHE METHODEN IN DER QUALITÄTSSICHERUNG 35

6.3.4 Übersichten und Tabellen zu den Normen MIL-STD-105E und DIN ISO 2859

Übergang zwischen normaler und verschärfter Prüfung

Start

Verschärfte Prüfung Prüfung ausgesetztNormale Prüfung

Von 5 aufeinander-folgenden Losen 2zurückgewiesen

5 Lose in ver-schärfter Prüfungzurückgewiesen

5 aufeinander-folgenden Loseangenommen

Der Liefererverbessert die

Qualität

6 STATISTISCHE METHODEN IN DER QUALITÄTSSICHERUNG 36

Übergang zwischen normaler und reduzierter Prüfung [MIL-STD-105E]

Start

Normale PrüfungReduzierte Prüfung

• 10 vorangegangene Lose normalgeprüft und angenommen, und

• Gesamtzahl fehlerhafter Einheiten indiesen 10 Losen überschreitet nichtvorgegebenen Maximalwert∗, und• Produktion läuft gleichmäßig, und• reduzierte Prüfung wird vereinbart

• Los zurückgewiesen, oder• Anzahl fehlerhafter Einheitenzwischen Annahmezahl c und

Rückweisezahl d, oder• Produktion läuft ungleichmäßig

(oder ähnliche Gründe)

∗ Die Tabelle der Maximalwerte ist hier nicht abgedruckt.

Tabelle: KennbuchstabenLosumfang N Besondere Prüfniveaus Allgemeine Prüfniveaus

S-1 S-2 S-3 S-4 I II III26 bis 50 A B B C C D E51 bis 90 B B C C C E F91 bis 150 B B C D D F G

151 bis 280 B C D E E G H281 bis 500 B C D E F H J501 bis 1200 C C E F G J K

1201 bis 3200 C D E G H K L3201 bis 10000 C D E G J L M

10001 bis 35000 C D F H K M N

35001 bis 150000 D E G J L N P

Stichprobenanweisungen

In den folgenden Tabellen gelten folgende Abkürzungen:KB Kennbuchstabe c Annahmezahln Stichprobenumfang d Rückweisezahl

KB AQL (normale Prüfung) n0,040 0,065 0,10 0,15 0,25 0,40 0,65 1,0 1,5 2,5c d c d c d c d c d c d c d c d c d c d

D ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ 0 1 ↑ 8E ↓ ↓ ↓ ↓ ↓ ↓ ↓ 0 1 ↑ ↓ 13F ↓ ↓ ↓ ↓ ↓ ↓ 0 1 ↑ ↓ 1 2 20G ↓ ↓ ↓ ↓ ↓ 0 1 ↑ ↓ 1 2 2 3 32H ↓ ↓ ↓ ↓ 0 1 ↑ ↓ 1 2 2 3 3 4 50J ↓ ↓ ↓ 0 1 ↑ ↓ 1 2 2 3 3 4 5 6 80K ↓ ↓ 0 1 ↑ ↓ 1 2 2 3 3 4 5 6 7 8 125L ↓ 0 1 ↑ ↓ 1 2 2 3 3 4 5 6 7 8 10 11 200M 0 1 ↑ ↓ 1 2 2 3 3 4 5 6 7 8 10 11 14 15 315

6 STATISTISCHE METHODEN IN DER QUALITÄTSSICHERUNG 37

KB AQL (verschärfte Prüfung) n0,065 0,10 0,15 0,25 0,40 0,65 1,0 1,5 2,5 4,0c d c d c d c d c d c d c d c d c d c d

D ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ 0 1 ↓ 8E ↓ ↓ ↓ ↓ ↓ ↓ ↓ 0 1 ↓ ↓ 13F ↓ ↓ ↓ ↓ ↓ ↓ 0 1 ↓ ↓ 1 2 20G ↓ ↓ ↓ ↓ ↓ 0 1 ↓ ↓ 1 2 2 3 32H ↓ ↓ ↓ ↓ 0 1 ↓ ↓ 1 2 2 3 3 4 50J ↓ ↓ ↓ 0 1 ↓ ↓ 1 2 2 3 3 4 5 6 80K ↓ ↓ 0 1 ↓ ↓ 1 2 2 3 3 4 5 6 8 9 125L ↓ 0 1 ↓ ↓ 1 2 2 3 3 4 5 6 8 9 12 13 200M 0 1 ↓ ↓ 1 2 2 3 3 4 5 6 8 9 12 13 18 19 315

KB AQL (reduzierte Prüfung) n0,040 0,065 0,10 0,15 0,25 0,40 0,65 1,0 1,5 2,5c d c d c d c d c d c d c d c d c d c d

D ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ 0 1 ↑ 3E ↓ ↓ ↓ ↓ ↓ ↓ ↓ 0 1 ↑ ↓ 5F ↓ ↓ ↓ ↓ ↓ ↓ 0 1 ↑ ↓ 0 2 8G ↓ ↓ ↓ ↓ ↓ 0 1 ↑ ↓ 0 2 1 3 13H ↓ ↓ ↓ ↓ 0 1 ↑ ↓ 0 2 1 3 1 4 20J ↓ ↓ ↓ 0 1 ↑ ↓ 0 2 1 3 1 4 2 5 32K ↓ ↓ 0 1 ↑ ↓ 0 2 1 3 1 4 2 5 3 6 50L ↓ 0 1 ↑ ↓ 0 2 1 3 1 4 2 5 3 6 5 8 80M 0 1 ↑ ↓ 0 2 1 3 1 4 2 5 3 6 5 8 7 10 125

6STAT

ISTISC

HE

MET

HO

DEN

IND

ERQ

UA

LITÄTSSIC

HER

UN

G38

Verteilungsfunktion Φ(z) der Standard-Normalverteilung N(0; 1)

z 0 1 2 3 4 5 6 7 8 90,0 0,5000 0,5040 0,5080 0,5120 0,5160 0,5199 0,5239 0,5279 0,5319 0,53590,1 0,5398 0,5438 0,5478 0,5517 0,5557 0,5596 0,5636 0,5675 0,5714 0,57530,2 0,5793 0,5832 0,5871 0,5910 0,5948 0,5987 0,6026 0,6064 0,6103 0,61410,3 0,6179 0,6217 0,6255 0,6293 0,6331 0,6368 0,6406 0,6443 0,6480 0,65170,4 0,6554 0,6591 0,6628 0,6664 0,6700 0,6736 0,6772 0,6808 0,6844 0,68790,5 0,6915 0,6950 0,6985 0,7019 0,7054 0,7088 0,7123 0,7157 0,7190 0,72240,6 0,7257 0,7291 0,7324 0,7357 0,7389 0,7422 0,7454 0,7486 0,7517 0,75490,7 0,7580 0,7611 0,7642 0,7673 0,7704 0,7734 0,7764 0,7794 0,7823 0,78520,8 0,7881 0,7910 0,7939 0,7967 0,7995 0,8023 0,8051 0,8078 0,8106 0,81330,9 0,8159 0,8186 0,8212 0,8238 0,8264 0,8289 0,8315 0,8340 0,8365 0,83891,0 0,8413 0,8438 0,8461 0,8485 0,8508 0,8531 0,8554 0,8577 0,8599 0,86211,1 0,8643 0,8665 0,8686 0,8708 0,8729 0,8749 0,8770 0,8790 0,8810 0,88301,2 0,8849 0,8869 0,8888 0,8907 0,8925 0,8944 0,8962 0,8980 0,8997 0,90151,3 0,9032 0,9049 0,9066 0,9082 0,9099 0,9115 0,9131 0,9147 0,9162 0,91771,4 0,9192 0,9207 0,9222 0,9236 0,9251 0,9265 0,9279 0,9292 0,9306 0,93191,5 0,9332 0,9345 0,9357 0,9370 0,9382 0,9394 0,9406 0,9418 0,9429 0,94411,6 0,9452 0,9463 0,9474 0,9484 0,9495 0,9505 0,9515 0,9525 0,9535 0,95451,7 0,9554 0,9564 0,9573 0,9582 0,9591 0,9599 0,9608 0,9616 0,9625 0,96331,8 0,9641 0,9649 0,9656 0,9664 0,9671 0,9678 0,9686 0,9693 0,9699 0,97061,9 0,9713 0,9719 0,9726 0,9732 0,9738 0,9744 0,9750 0,9756 0,9761 0,97672,0 0,9772 0,9778 0,9783 0,9788 0,9793 0,9798 0,9803 0,9808 0,9812 0,98172,1 0,9821 0,9826 0,9830 0,9834 0,9838 0,9842 0,9846 0,9850 0,9854 0,98572,2 0,9861 0,9864 0,9868 0,9871 0,9875 0,9878 0,9881 0,9884 0,9887 0,98902,3 0,9893 0,9896 0,9898 0,9901 0,9904 0,9906 0,9909 0,9911 0,9913 0,99162,4 0,9918 0,9920 0,9922 0,9925 0,9927 0,9929 0,9931 0,9932 0,9934 0,99362,5 0,9938 0,9940 0,9941 0,9943 0,9945 0,9946 0,9948 0,9949 0,9951 0,99522,6 0,9953 0,9955 0,9956 0,9957 0,9959 0,9960 0,9961 0,9962 0,9963 0,99642,7 0,9965 0,9966 0,9967 0,9968 0,9969 0,9970 0,9971 0,9972 0,9973 0,99742,8 0,9974 0,9975 0,9976 0,9977 0,9977 0,9978 0,9979 0,9979 0,9980 0,99812,9 0,9981 0,9982 0,9982 0,9983 0,9984 0,9984 0,9985 0,9985 0,9986 0,99863,0 0,9987 0,9987 0,9987 0,9988 0,9988 0,9989 0,9989 0,9989 0,9990 0,9990

Ablesebeispiel: Φ(0, 92) = 0, 8212

Werte für negatives z mit der Formel

Φ(−z) = 1− Φ(z),

z. B. Φ(−1, 55) = 1− 0, 9394 = 0, 0606

Lineare Interpolation für höhere Genauigkeit beiZwischenwerten:Für x ist u die Zahl mit zwei Nachkommastellen undu < x < u+ 0, 01. Dann ist

Φ(x) ≈ Φ0 + 100 · (x− u) · (Φ1 − Φ0),

wobei Φ0 = Φ(u) und Φ1 = Φ(u + 0, 01) aus derTabelle gelesen werden,z. B. Φ(0, 924) ≈ 0, 8212 + 0, 4 · (0, 8238− 0, 8212) =0, 8222

6 STATISTISCHE METHODEN IN DER QUALITÄTSSICHERUNG 39

Quantile tm;q der t-Verteilung mit m Freiheitsgraden undQuantile zq der Standard-Normalverteilung (NV)

tm;q qm 0,8 0,9 0,95 0,975 0,99 0,995 0,9991 1,376 3,078 6,314 12,706 31,821 63,656 318,2892 1,061 1,886 2,920 4,303 6,965 9,925 22,3283 0,978 1,638 2,353 3,182 4,541 5,841 10,2144 0,941 1,533 2,132 2,776 3,747 4,604 7,1735 0,920 1,476 2,015 2,571 3,365 4,032 5,8946 0,906 1,440 1,943 2,447 3,143 3,707 5,2087 0,896 1,415 1,895 2,365 2,998 3,499 4,7858 0,889 1,397 1,860 2,306 2,896 3,355 4,5019 0,883 1,383 1,833 2,262 2,821 3,250 4,29710 0,879 1,372 1,812 2,228 2,764 3,169 4,14411 0,876 1,363 1,796 2,201 2,718 3,106 4,02512 0,873 1,356 1,782 2,179 2,681 3,055 3,93013 0,870 1,350 1,771 2,160 2,650 3,012 3,85214 0,868 1,345 1,761 2,145 2,624 2,977 3,78715 0,866 1,341 1,753 2,131 2,602 2,947 3,73316 0,865 1,337 1,746 2,120 2,583 2,921 3,68617 0,863 1,333 1,740 2,110 2,567 2,898 3,64618 0,862 1,330 1,734 2,101 2,552 2,878 3,61019 0,861 1,328 1,729 2,093 2,539 2,861 3,57920 0,860 1,325 1,725 2,086 2,528 2,845 3,55221 0,859 1,323 1,721 2,080 2,518 2,831 3,52722 0,858 1,321 1,717 2,074 2,508 2,819 3,50523 0,858 1,319 1,714 2,069 2,500 2,807 3,48524 0,857 1,318 1,711 2,064 2,492 2,797 3,46725 0,856 1,316 1,708 2,060 2,485 2,787 3,45026 0,856 1,315 1,706 2,056 2,479 2,779 3,43527 0,855 1,314 1,703 2,052 2,473 2,771 3,42128 0,855 1,313 1,701 2,048 2,467 2,763 3,40829 0,854 1,311 1,699 2,045 2,462 2,756 3,39630 0,854 1,310 1,697 2,042 2,457 2,750 3,38535 0,852 1,306 1,690 2,030 2,438 2,724 3,34040 0,851 1,303 1,684 2,021 2,423 2,704 3,30745 0,850 1,301 1,679 2,014 2,412 2,690 3,28150 0,849 1,299 1,676 2,009 2,403 2,678 3,26160 0,848 1,296 1,671 2,000 2,390 2,660 3,23270 0,847 1,294 1,667 1,994 2,381 2,648 3,21180 0,846 1,292 1,664 1,990 2,374 2,639 3,19590 0,846 1,291 1,662 1,987 2,368 2,632 3,183100 0,845 1,290 1,660 1,984 2,364 2,626 3,174200 0,843 1,286 1,653 1,972 2,345 2,601 3,131500 0,842 1,283 1,648 1,965 2,334 2,586 3,107

zq 0,842 1,282 1,645 1,960 2,326 2,576 3,090

Ablesebeispiele: t20;0,975 = 2, 086; z0,995 = 2, 576Werte für q < 0, 5 mit den Formeln tm;1−q = −tm;q und z1−q = −zq.Beispiele: t30;0,1 = −t30;0,9 = −1, 310; z0,01 = −z0,99 = −2, 326.