Markus Ziegler Ziegler Induktive Statistik und ... · Statistik scheint geradezu der Gegenentwurf...

30
Grundlagentexte Methoden Markus Ziegler Induktive Statistik und soziologische Theorie Eine Analyse des theoretischen Potenzials der Bayes-Statistik

Transcript of Markus Ziegler Ziegler Induktive Statistik und ... · Statistik scheint geradezu der Gegenentwurf...

Indu

ktiv

e S

tati

stik

und

so

ziol

ogis

che

Theo

rie

Zieg

ler

Gru

ndla

gent

exte

Met

hode

n

Markus Ziegler

Induktive Statistik und soziologische TheorieEine Analyse des theoretischen Potenzials der Bayes-Statistik

Markus Ziegler Induktive Statistik und soziologische Theorie

Grundlagentexte Methoden

Markus Ziegler

Induktive Statistik und soziologische Theorie Eine Analyse des theoretischen Potenzials der Bayes-Statistik

Der Autor Markus Ziegler, Jg. 1980, ist als Data Scientist im Bereich Marketing & Data Sciences der GfK SE tätig. Seine Arbeitsschwerpunkte sind quantitative empirische Methoden und die Analyse digitaler Daten. Zugl.: Berlin, Technische Universität, Diss., 2016 Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung ist ohne Zustimmung des Verlags unzulässig. Das gilt insbesondere für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronische Systeme. Dieses Buch ist erhältlich als: ISBN 978-3-7799-3658-9 Print ISBN 978-3-7799-4654-0 E-Book (PDF) 1. Auflage 2017 © 2017 Beltz Juventa in der Verlagsgruppe Beltz · Weinheim Basel Werderstraße 10, 69469 Weinheim Alle Rechte vorbehalten Herstellung: Ulrike Poppel Satz, Druck und Bindung: Beltz Bad Langensalza GmbH, Bad Langensalza Printed in Germany

Weitere Informationen zu unseren Autoren und Titeln finden Sie unter: www.beltz.de

5

Inhaltsverzeichnis

Danksagung 7

Kapitel 1 Einführung: Soziologische Theorie und Statistik 9

Kapitel 2 Die historische Entwicklung der Wahrscheinlichkeitstheorie 15 2.1 Subjektive und objektive Wahrscheinlichkeit 15 2.2. Wahrscheinlichkeitstheorie und Inferenzstatistik 56 2.2.1 Wahrscheinlichkeitstheorie im 19. Jahrhundert:

Rückzug auf die deskriptive Statistik 56 2.2.2 Das Entstehen der Statistik als Prozess der objektiven

Wahrscheinlichkeit 72 2.2.3 Die Inferenzrevolution als Wegbereiter der modernen Statistik 81 2.2.4 Wahrscheinlichkeitstheorie im Wandel der Zeit 115

Kapitel 3 Klassische und Bayesianische Inferenz im Vergleich 119

Kapitel 4 Zur Erkenntnistheorie in der quantitativen Sozialforschung 135 4.1 Wissenschaftlichkeit und Objektivität 139 4.2 Bedingungen wissenschaftlicher Erkenntnis 148 4.3 Methodologische Anpassungen einer Erkenntnistheorie

der quantitativen Sozialforschung 167

6

Kapitel 5 Die Leistungsfähigkeit der Bayes-Statistik: eine empirische Analyse 176 5.1 Empirischen Meta-Analyse der Bayes-Statistik 185 5.1.1 Prognose 185 5.1.2 Geringe Informationsdichte: kleine Stichproben 208 5.1.3 Annahmen beim statistischen Testen 238 5.1.4 Verzerrungen in Daten 250 5.1.5 Erfassung von Kausalität auf Einzelfallebene 263 5.2 Evaluation der Bayes-Statistik 272

Kapitel 6 Ausblick 285

Literaturverzeichnis 288

7

Danksagung

Diese Arbeit wäre nicht möglich gewesen ohne die Hilfe von ganz vielen Personen im Kleinen wie im Großen.

Danken möchte ich zunächst meinen Betreuern, Nina Baur und Ger-hard Schulze. Nina Baur machte dieses Dissertationsprojekt überhaupt erst möglich, erlaubte mir sehr viel Freiheit bei Themenwahl und -gestaltung und stand mir im Labyrinth wissenschaftlicher Forschung mit vielen hilf-reichen Hinweisen zur Seite. Gerhard Schulze prägte nachhaltig meine So-zialisation in der Soziologie und besonders der empirischen Sozialfor-schung. Von ihm durfte ich wahrlich für das Leben lernen.

Den Studierenden und Mitarbeitern des Instituts für Soziologie der TU Berlin, insbesondere Leila Akremi, sei für viele fruchtbare Diskussionen und auch ganz praktische Unterstützung gedankt, die die räumliche Distanz nach Berlin mit sich brachte. Meinen Kollegen bei der GfK Marketing & Data Sciences danke ich für den Freiraum, der es mir erlaubte, Dissertation und berufliche Tätigkeit unter einen Hut zu bringen.

Meiner Schwester Alexandra und meinem Bruder Stefan danke ich für jeglichen Beistand in den langen Jahren der Promotion.

Abschließend gilt mein besonderer Dank meinen Eltern, Renate und Gerhard Ziegler. Ohne ihre stetige Unterstützung in allen Lebenslagen wäre nicht nur diese Arbeit niemals möglich gewesen.

9

Kapitel 1 Einführung: Soziologische Theorie und Statistik

Wenn man sich in den Sozialwissenschaften mit quantitativer Forschung beschäftigt, so stößt man unweigerlich in Ausbildung und empirischer For-schung auf statistische Auswertungsverfahren. Man findet sie in jedem universitären Curriculum und die einschlägigen Lehrbücher kommen ohne ein oder mehrere Kapitel darüber nicht aus. Während die Ausbildung in soziologischer Theorie oder auch in den qualitativen Methoden uns stets Mannigfaltigkeit und Diversität vermittelt, verschiedene Denkansätze und Vorgehensweisen vorgestellt werden, so ist das bei der Statistik anders. Sie wird als einheitlich, in sich geschlossene Denkschule präsentiert, die klaren und eindeutig festgelegten Regeln folgt. Wir sind es gewohnt, dass die The-orie stets eine historische Komponente besitzt, Schulen und Entwicklungs-pfade aufgezeichnet werden und durchaus die eine oder andere Kontroverse dargelegt wird. An vielen Stellen ist es sogar explizit Inhalt der soziologi-schen Betrachtung, unterschiedliche theoretische Perspektiven miteinander zu vergleichen und zu bewerten. Die Vielzahl theoretischer Ansätze und Erklärungsmuster sozialer Phänomene hat zur Unterscheidung verschie-dener Kategorien bzw. Ebenen soziologischer Theorie geführt, etwa in Ad-hoc-Theorien, Theorien mittlerer Reichweite und Theorien höherer Kom-plexität (König 1973: 4) oder in Sozialtheorien, Theorien begrenzter Reich-weite und Gesellschaftstheorien (Lindemann 2008). Diese Vielfalt der Theorieansätze wird weder bestritten noch in der Regel als ein wissenschaft-liches Problem angesehen.

Bei der Auswertung quantitativer Daten sieht das anders aus und dies beginnt normalerweise schon direkt bei der universitären Ausbildung, in-dem etwas gelehrt und gelernt wird, was es eigentlich gar nicht gibt: eine einzige Art und Weise, statistische Modelle aufzustellen und zu analysieren. Statistik scheint geradezu der Gegenentwurf zur Vielfalt der Theorie zu sein, nämlich ein in sich geschlossenes Konstrukt der objektiven Bewertung von quantitativen Daten, das kumulativ über die Jahre gewachsen ist. Etwas verkürzt könnte man damit sagen: Viele verschiedene Theorien hier und nur eine einzige Statistik dort.

10

Diese Sicht von Statistik ignoriert allerdings zwei sehr wichtige Sachver-halte. Die Geschichte statistischen Denkens seit den ersten ernst zu neh-menden Anfängen im 17. Jahrhundert ist weit weniger kumulativ und line-ar, als die aktuelle Anwendungspraxis glauben lassen mag. Sie ist vielmehr das Ergebnis von Entwicklungen auf den unterschiedlichsten Feldern und speist sich aus zahlreichen Denktraditionen und -richtungen, von der Wahrscheinlichkeitsrechnung über Astronomie bis hin zur Biometrie oder den Agrarwissenschaften. Zudem werden Theorie und Mathematik viel stärker miteinander verbunden, als das heute bewusst ist. Erst ab dem 20. Jahrhundert wurden all diese Entwicklungspfade Teil einer einzigen statistischen Disziplin und damit auch die Vorstellung verankert, sie hätte sich geradezu logisch zu dem entwickelt, was wir heute für die eine Statistik halten.

Neben dem Glauben an diesen kumulativen Entwicklungspfad der Sta-tistik ist auch das Wissen und die Anwendung alternativer Ansätze und Denklogiken statistischer Analyse in der Wissenschaft im Allgemeinen und den Sozialwissenschaften im Besonderen stark unterentwickelt. Allein der Gedanke, quantitative Daten auf eine andere Art und Weise auszuwerten, als es üblicherweise universitäre Lehre und etablierte wissenschaftliche Pra-xis vorgeben, erscheint vielen Forschenden abwegig. Doch auch in der Sta-tistik existieren unterschiedliche Denkansätze darüber, wie Analysen durchgeführt werden können (Efron 1986; Stigler 2000).

Ein Bereich, an dem sich diese Problematik deutlich zeigen lässt, ist das Feld des statistischen Schließens. Wenn ein empirisch arbeitender Forscher heute Hypothesen testet oder den Schätzwert eines Modellparameters be-stimmt, dann basiert das in aller Regel auf der sogenannten klassisch fre-quentistischen Tradition der Schule von Ronald Fisher auf der einen sowie der Schule Jerzy Neymans und Egon Pearsons auf der anderen Seite. Auf die Begründer wird in diesem Zusammenhang höchst selten hingewiesen, gelehrt werden die Schulen unter dem Label der ,Statistik‘, akzeptiert als eine einzige gängige mathematische Methodik zur Datenanalyse.

Weitgehend unbekannt bleibt dabei, dass es auch andere Möglichkeiten statistischen Denkens und statistischen Schließens gibt. Die wohl bedeu-tendste Alternative ist die in den Sozialwissenschaften praktisch nicht ver-wendete Bayes- oder Bayesianische Statistik. Diese statistische Schule hat ihre Wurzeln im späten 17. Jahrhundert und zeichnet sich durch zwei Cha-rakteristika aus. Zum einen wird bei der Bayes-Statistik neben der reinen Dateninformation auch theoretisches (Vor-)Wissen über den zu untersu-chenden Gegenstand explizit mit in die Modellierung integriert. D.h. nicht an Daten gebundene Information wird mathematisch übersetzt und dann Teil der statistischen Analyse. Des Weiteren arbeitet sie mit einem anderen Wahrscheinlichkeitsbegriff. Wahrscheinlichkeit wird nicht wie sonst üblich

11

im Sinn einer relativen Häufigkeit als eine objektive Eigenschaft des Gegen-stands angesehen, sondern als ein Vertrauens- oder Glaubensgrad. Diese subjektive Sicht von Wahrscheinlichkeit beschreibt, wie groß der Glaube eines einzelnen Forschers an einen bestimmten Sachverhalt ist.

Auf den ersten Blick erscheint es nur zu verständlich, dass dieses Vorge-hen bei den Anwendern statistischer Methoden im Bereich der quantitati-ven Wissenschaften seit jeher mit großer Skepsis betrachtet wird. Subjek-tives Wissen als Teil eines objektiven und auf Neutralität ausgerichteten wissenschaftlichen Vorgehens? Die Verbindung von Daten mit theoreti-schen Informationen im mathematischen Modell? Recht grundsätzliche Fragen lassen an der Eignung der Bayes-Statistik für ein angemessenes wis-senschaftliches Vorgehen zweifeln. Kommen Forscher dann doch mit ihr in Berührung, schrecken sie nicht selten vor ihrer Anwendung zurück, weil sie sich nicht dem Vorwurf fehlender Objektivität oder der Beliebigkeit im Umgang mit Daten aussetzen wollen.

In anderen Disziplinen allerdings hat die Nutzung Bayesianischer Me-thoden in den vergangenen Jahrzehnten stetig zugenommen. Vor allem in den Wirtschaftswissenschaften ist sie in vielen Bereichen gar nicht mehr wegzudenken und selbstverständlicher Teil der statistischen Analyse (Ro-bert & Casella 2004; Berger 1985; Gelman 2000). Dies hat vor allem damit zu tun, dass die ständig steigenden Möglichkeiten der Computertechnik immer komplexere Modelle möglich machen und ganz neue Felder der Analyse erschlossen werden können, ein Potenzial, das die Soziologie bis-lang weitgehend ignoriert. Doch auch auf der Ebene der Theorie zeigt ein zweiter Blick einen für die Soziologie interessanten Ansatzpunkt. Die große Diskrepanz von Theorie und Methode ist ein häufig beklagtes Phänomen der empirischen Sozialforschung (Baur 2009). Nicht selten wird die Theo-rieferne der statistischen Modellierung und die Fixierung auf ihre mathe-matische Komponente explizit als Nachteil genannt (Heinze 2001: 79 ff.; Streeck 2015). Hier bietet eine statistische Modellierung, die ganz ausdrück-lich beide Ebenen zusammenführt, eine beachtenswerte Alternative, um vor dem Hintergrund statistischer Datenanalyse soziologische Theorie und mathematische Statistik zu verbinden.

Für die mangelnde Berücksichtigung der Bayes-Statistik in den Sozial-wissenschaften sind in erster Linie zwei Aspekte verantwortlich: eine grund-sätzliche Unkenntnis alternativer theoretischer Schulen der Statistik und die Fixierung auf das Vorgehen der klassischen Statistik sowie das Fehlen einer methodischen Evaluierung der Brauchbarkeit der Bayes-Statistik. Genau an diesen Punkten setzt diese Arbeit an. Zwar existiert bereits auf Sozialwissen-schaftler zugeschnittene Einführungsliteratur, etwa das exzellente Werk von Jackman (2009). Allerdings fokussiert sich diese sehr stark auf die Vermitt-lung des mathematischen Werkzeugs zur praktischen Anwendung, also auf

12

den technischen Teil der Bayes-Statistik. In dieser Arbeit soll dagegen ein anderer Weg beschritten werden. Die Bewertung einer statistischen Schule kann nicht erfolgen, ohne ihre innere Denklogik näher zu betrachten und damit ihren Beitrag zur soziologischen Theoriebildung zu bewerten. Ziel der Arbeit ist daher weniger die Vermittlung von Kenntnissen zur konkre-ten praktischen Arbeit mit der Bayes-Statistik, sondern stärker die Bewer-tung ihrer Analysephilosophie für die empirische Analyse in der Soziologie und ihr theoretisches Potenzial für die Soziologie. Die Frage nach dem „Was ist denn eigentlich die Bayes-Statistik“ soll in Form einer Evaluierung ihrer Analyselogik erfolgen und drei Ziele verfolgen:

• Ahistorizität der Statistik aufbrechen und die Verbindung von Theo-rie und Statistik zeigen: Lehre und Praxis der Statistik werden im Ge-gensatz zur soziologischen Theorie geprägt von Ahistorizität und der al-leinigen Fokussierung auf die klassische Schule der Statistik. Allein die Tatsache unterschiedlicher Denktraditionen ist vielen nicht einmal be-wusst. Dieses Denken hat zu einem tief verwurzelten Glauben an das Objektivitätsversprechen der klassischen Statistik geführt, der jegliche Verbindung zur Person des Forschers oder zur soziologischen Theorie leugnet. Historische Entwicklungen und ihre Einflüsse bei der Entste-hung empirischer Werkzeuge und Vorgehensweisen bleiben dabei quasi völlig unberücksichtigt. Dies begünstigt Fehlentwicklungen in der Pra-xis, weil Regeln der mathematischen Anwendung nicht mehr auf Brauchbarkeit und Gültigkeit hin überprüft, sondern stattdessen me-chanisch („machen doch alle so“) umgesetzt werden. Dieser blinde Fleck soll entsprechend explizit beleuchtet werden und die Entstehung der Statistik als Disziplin im Allgemeinen und der Bayes-Statistik als infer-enzstatistische Schule im Besonderen aus einer historischen Perspektive betrachtet werden. Besonderes Augenmerk wird dabei darauf gerichtet, wie sich das Verhältnis von Inhalt und Mathematik, von Theorie und Empirie im Laufe der Zeit gewandelt hat, um darauf basierend die Viel-falt der statistischen Denktraditionen demonstrieren und das Bild eines linearen, kumulativen Entwicklungsprozesses aufbrechen zu können. Durch diese Annäherung an die Statistik lassen sich viele heute seltsam oder widersinnig erscheinende Entwicklungen in Lehre und Praxis in einem neuen Licht beleuchten und auch erklären.

• Wissenschaftlichkeit der Bayes-Statistik überprüfen: Durch die Ein-bindung theoretischen Wissens in den Prozess der Datenmodellierung und die Verwendung eines subjektiven Wahrscheinlichkeitsbegriffs steht jeder Anwender der Bayes-Statistik zunächst einmal unter dem Generalverdacht, anerkannte Regeln der Wissenschaftlichkeit aufbre-chen zu wollen. Daher ist ein weiteres Ziel der Arbeit die Prüfung genau

13

dieses Vorwurfs. Das etablierte Denken und die Forschungspraxis der statistischen Analyse in der Soziologie sind auf ein Paradigma ausgerich-tet, welches das forschende Subjekt soweit wie nur immer möglich aus dem Forschungsprozess ausschließen möchte, um die Objektivität des Vorgehens sicherstellen zu können. Diese aus den Naturwissenschaften stammende Sichtweise der Entsubjektivierung der Forschung gerät aber leicht in einen Konflikt mit dem Gegenstand der Soziologie, welcher ei-ne Interpretationsleistung des Forschers voraussetzt. Dieses Spannungs-feld aus Gegenstand und Regeln wissenschaftlicher Praxis wird noch erweitert um den Bezug zum Prozess wissenschaftlicher Erkenntnis. Durch die Verbindung dieser Elemente soll ein Beitrag zu einer Er-kenntnistheorie der quantitativen Sozialforschung geleistet werden, auf deren Basis letztlich ein Urteil über die erkenntnistheoretische Taug-lichkeit der Bayes-Statistik gefällt werden kann.

• Brauchbarkeit in der empirischen Praxis prüfen: Eine Evaluierung der Leistungsfähigkeit der Bayes-Statistik sollte sich auch mit konkreten empirischen Anwendungen beschäftigen. Erst die Beleuchtung der Er-gebnisse Bayesianischer Modelle erlaubt ein abschließendes Urteil der Brauchbarkeit dieser Schule. Zwei Komponenten sind dabei besonders wichtig: Wie kann ich überhaupt theoretisches Wissen mathematisch so fassen, dass es in einem statistischen Modell zum Einsatz kommen kann? Und inwieweit ergeben sich dadurch Möglichkeiten, bestehende methodische Probleme der soziologischen Forschungspraxis besser an-gehen zu können? Beide Aspekte haben eine ungeheure praktische Be-deutung, da sie Auskunft geben über Möglichkeiten, Aufwand und Nutzen eines Wechsels von der Verwendung klassischer hin zu Bayesia-nischer Statistik. Ergebnis dieser Analyse ist die Bewertung von Stärken und Schwächen des Bayesianischen Vorgehens bei der konkreten An-wendung in einer empirischen Analyse.

Diese Zielsetzungen zeigen, dass diese Arbeit vom üblichen Vorgehen bei der Vorstellung weniger bekannter Methoden abweicht. Es geht weniger darum, die Bauanleitung für die Verwendung Bayesianischer Statistik zu liefern. Vielmehr soll die Frage nach dem Wesen der Bayes-Statistik und ihre Evaluation im Mittelpunkt stehen, welche durch eine Einführung in die Vielfalt und Komplexität der historischen Entwicklung der Statistik, eine Auseinandersetzung mit sozialwissenschaftlicher Erkenntnistheorie und der beispielhaften Prüfung empirischer Anwendungsbeispiele (Abbildung 1) analysiert wird.

Eine ausführliche Beschreibung aller mathematischen Facetten der Bayes-Statistik würde daher hier den Rahmen dieser Arbeit sprengen. Ent-sprechend werden nur verhältnismäßig einfache, analytisch lösbare Modelle

14

Abbildung 1: Aufbau der Arbeit

betrachtet, an denen die Denklogik beispielhaft demonstriert werden kann. Komplexere, in aller Regel simulationsbasierte Verfahren, die in anderen Disziplinen sich großer Beliebtheit erfreuen, sind daher nicht Gegenstand der Analyse und werden im Folgenden nicht weiter berücksichtigt. Hierzu sei auf die ausführliche Literatur zur Bayes-Statistik mit einem klaren Fokus auf den mathematischen Kern des Vorgehens verwiesen, wie etwa die Stan-dardwerke von Gelman (2000), Gill (2002) oder Lee (2012) sowie Koop (2012) mit einem stärker ökonometrischen Blickwinkel, für Interessierte mit Kenntnissen in der Programmiersprache R (R 2013) auf die Lehrbücher von Kruschke (2011) und Albert (2009). Zusammengefasst will die Arbeit einen Beitrag liefern, die Bayes-Statistik als eine Schule statistischen Arbei-tens für die Soziologie zu erschließen und gängige Vorgehensweisen und Praktiken der quantitativen empirischen Sozialforschung, die quasi aus-schließlich auf Techniken der klassischen Statistik setzt, zu hinterfragen. Besonderes Augenmerk soll dabei auf das theoretische Potenzial gelegt wer-den, das die Verwendung der Bayes-Statistik der Soziologie bietet, um da-mit eine methodische Evaluierung der Stärken und Schwächen des Vorge-hens für den praktischen Forscher zu ermöglichen.

15

Kapitel 2 Die historische Entwicklung der Wahrscheinlichkeitstheorie

2.1 Subjektive und objektive Wahrscheinlichkeit

Setzt man sich als Sozialwissenschaftler mit Statistik auseinander, so ist deren Rolle im Rahmen des empirischen Forschungsprozesses eigentlich recht eindeutig: Statistische Modelle und Verfahren dienen – so kann man es in vielen Lehrbüchern nachlesen – der Analyse empirischer Daten in der quantitativen Sozialforschung und sind damit ein ganz wichtiges Hilfsmittel bei deren wissenschaftlicher Betrachtung und Bewertung (Diekmann 2004: 545 f.). Ihre Einsatzmöglichkeiten erscheinen dabei schier unbegrenzt, von der Datensammlung und Theorien der Stichprobenziehung über die reine Beschreibung von Daten bis hin zu Modellen der Entdeckung von Ähnlich-keits- oder Abhängigkeitsstrukturen. Gängige Differenzierungen untertei-len daher die Statistik in einen beschreibenden, deskriptiven und einen schließenden, induktiven Teil oder orientieren sich an der Anzahl der un-tersuchten Variablen und deren Verwendung in einem Modell. Dann spricht man von einer univariaten oder bivariaten Auswertung, wenn ein bzw. zwei Variablen Gegenstand der Analyse sind, oder auch von multivari-aten Verfahren bei mehr als zwei Variablen (Atteslander & Cromm 2006: 258).

Läuft einem dabei die Bayes-Statistik über den Weg, so stellt sich natür-lich sofort die Frage, an welcher Stelle sie eingeordnet werden kann. Die Bayes-Statistik ist zunächst ganz streng genommen nichts anderes als eine alternative Möglichkeit des Schließens auf Basis statistischer Daten. Nicht umsonst vermeiden viele – vor allem englischsprachige – Autoren den Be-griff der Bayes-Statistik und sprechen lieber von „Bayesian analysis“ oder „Bayesian inference“ (Gill 2002; Jackman 2009; Rossi et al. 2005). Ihre Wur-zeln und damit die innere Logik liegen vollständig im Bereich der Wahr-scheinlichkeitstheorie und somit ist es nur konsequent, die gängige Infer-enzstatistik als Vergleichsmaßstab und Bezugspunkt zu wählen. Allerdings wäre es eine unangemessene Verkürzung, Bayes als eine weitere inferenz-statistische Analyseoption im traditionellen Sinn zu bezeichnen. Üblicher-weise bezeichnet die Inferenzstatistik den Teilbereich der Statistik, der sich

16

mit dem Schluss der Ergebnisse einer Stichprobe auf die Grundgesamtheit beschäftigt. Diese Definition ist allerdings ein Ergebnis historischer Ent-wicklungen und hat sich so erst im 20. Jahrhundert durchgesetzt. Bayesia-ner fassen Inferenz im allgemeineren Wortsinn deutlich weiter, nämlich als jede Form von Schlussfolgerung, die der Forscher aus empirischen Daten ableitet. Nicht die Beziehung von Stichprobe und Grundgesamtheit wird beurteilt, sondern es geht darum, wie ganz generell informierte wissen-schaftliche Entscheidungen getroffen werden (Jackman 2009: xxvii).

Man kann sich leicht vorstellen, dass dies eine grundsätzlich andere Denklogik und -tradition voraussetzt. Diese ist auch der Grund, warum im Folgenden bewusst weiter von der Bayes-Statistik bzw. der Bayesianischen Statistik gesprochen wird, um die Eigenständigkeit dieser analytischen Vor-gehensweise trotz der Betonung des Aspekts der Schlussfolgerung auf Daten zu verdeutlichen. Gleichzeitig soll dadurch ein Bewusstsein geschaffen wer-den, dass mit Statistik keineswegs ein einheitliches, uniformes Gedanken-konstrukt verbunden ist. Wie wir es auch aus der soziologischen Theorie kennen, gibt es in der Statistik mehr als einen Weg der Lösung eines Pro-blems, unterschiedliche theoretische Konzepte und Schulen. Darüber hin-aus transportieren diese Schulen stets auch gewisse Vorannahmen und Sichtweisen. Es liegen ihnen eine theoretische Idee über die Zusammenhän-ge in der realen Welt zugrunde, die in der konkreten Anwendung leider viel zu häufig ignoriert und unter den Tisch gekehrt werden. Gerade dieser Aspekt soll besondere Beachtung erhalten.

Da Darstellungen der mathematischen Eigenschaften der Bayes-Statistik zwar das „Wie“ der Anwendung, aber nicht das „Warum“ transparent ma-chen, bettet die folgende Darstellung stattdessen die Bayes-Statistik in die zeitliche Entwicklung der Ideengeschichte der Statistik sowie der Wahr-scheinlichkeitstheorie ein. Dies erlaubt ein besseres Verständnis für die inhaltliche Dimension, d. h. die grundlegende Idee der statistischen Schule, die sich wiederum auch in ihrer mathematischen Umsetzung zeigt.

Als Bezugspunkt fungiert dabei stets die Entwicklung der heute klar dominierenden Sichtweise in der Statistik, die – nicht nur in Abgrenzung zur Bayes-Statistik – als klassische Statistik oder klassische Schule bezeich-net wird. Deren wichtigste Schulen sind die von Ronald Aylmer Fisher (1890 – 1962) auf der einen sowie Egon Pearson (1895 – 1980) und Jerzy Neyman (1894 – 1981) auf der anderen Seite, welche auch im Wesentlichen die Ideen der modernen Inferenzstatistik transportieren, die man heute in jedem Lehrbuch finden kann. Neben diesen beiden Statistiktraditionen gibt es noch weitere, wissenschaftlich aber weniger relevante inferenzstatistische Spielformen. Diese haben sich fast ausschließlich als Ergebnis der Kritik bzw. der Erweiterung der klassischen Statistik entwickelt. R.A. Fisher arbei-tete etwa neben der klassischen Inferenzstatistik noch an der sogenannten

17

Fiduzialinferenz (Fisher, R. A. 1935, 1930). Fraser griff diese Jahrzehnte später auf und transformierte sie in seine eigene Inferenzstatistik, die er „Strukturinferenz“ nannte (Fraser 1968). Daneben gilt es etwa noch die Likelihoodinferenz nach Barnard und Birnbaum (Barnard et al. 1962; Birn-baum 1962; Reid 2000) zu nennen. All diese Schulen sollen aufgrund ihrer geringen praktischen Bedeutung von der Betrachtung ausgeschlossen wer-den.

Im Detail werden im Folgenden zunächst die zentralen historischen Entwicklungen der Wahrscheinlichkeitstheorie und dann auch die Etablie-rung der klassischen Statistik nachgezeichnet. Der Fokus liegt dabei auf der Betrachtung des Verhältnisses von Theorie und Mathematik sowie der Rol-le, die dem forschenden Subjekt zugewiesen wird. Darin eingebettet ist die Entstehung der Bayes-Statistik in den Anfängen der Wahrscheinlichkeits-theorie, ihr völliges Verschwinden im 19. Jahrhundert sowie ihre Wieder-entdeckung im 20. Jahrhundert, nachdem sich die klassisch frequentistische Statistik in der Wissenschaft allerdings bereits etabliert hatte.

Allein schon aus Platzgründen ist eine vollständige historische Abhand-lung der Wahrscheinlichkeitstheorie mit ihren zahlreichen Verbindungen zu Entwicklungen auf anderen Feldern natürlich nicht möglich. Für eine ausführliche Darstellung der kompletten Geschichte der Wahrscheinlich-keitstheorie sei auf die umfangreichen Arbeiten von Hald (2003), Daston (1988) und Stigler (2000) verwiesen.

Oft verwischen die Unterschiede zwischen der Darstellung der histori-schen Entwicklung der Wahrscheinlichkeitstheorie und der Entstehung der Statistik als eigene wissenschaftliche Disziplin. Dies hat damit zu tun, dass die moderne Statistik sich im Wesentlichen auf drei historische Vorläufer stützt. Sie entwickelte sich als Ergebnis der Verbindung von Werkzeugen und Fragestellungen der englischen politischen Arithmetik und der deut-schen Statistik, von Astronomie und Physik und eben der Wahrscheinlich-keitstheorie. Die Überschneidungen und der wechselseitige Austausch von Techniken der Verwaltung, der Natur- und der Humanwissenschaften brachten schlussendlich zu Beginn des 20. Jahrhunderts die wissenschaftli-che Disziplin der Statistik hervor (Desrosières 2005: 19). Diese Entwicklung wird in dieser Arbeit insofern deutlich, als die Geschichte der Wahrschein-lichkeitstheorie ab dem 19. Jahrhundert schrittweise in eine Geschichte der Statistik mündet, die auch Elemente der anderen Stränge berücksichtigt.

Naturgemäß ist die wissenschaftliche Quellenlage umso schwieriger, je weiter man sich in der Zeit zurückbewegt. Dies gilt vor allem dann, wenn es darum geht, wichtige Neuentdeckungen durch Wissenschaftler zu beschrei-ben. In vielen Fällen stößt man auf Hinweise, dass veröffentlichte Werke lediglich das bereits bekannte Wissen der Zeit erstmals schriftlich zusam-menfassten, Neuerungen unabhängig voneinander von mehreren Personen

18

gefunden wurden oder schlicht die Bekanntheit des Autors über die chro-nologische Entwicklung obsiegt hat. Speziell letzteres ist sicherlich kein Kennzeichen der Vergangenheit. Im Rahmen seiner Arbeiten zur Wissen-schaftssoziologie hat Merton (1968) dieses Phänomen als „Matthäus-Effekt“ beschrieben, nach dem bereits bekannten Wissenschaftlern neue Errungen-schaften eher zugeschrieben werden als weniger bekannten. Stigler (1980) prägte das Gesetz der Eponyme oder auch Stiglers Gesetz, demzufolge keine wissenschaftliche Erfindung nach seinem tatsächlichen Erfinder benannt ist – Stiglers Gesetz im Übrigen auch nicht, es geht, wie Stigler auch selbst anmerkt, auf Merton (1973) zurück –, und zeigt dies unter anderem für die Gauß-Verteilung oder den Lehrsatz nach Pythagoras. All diese Schwierig-keiten lassen sich im Rahmen dieser Arbeit natürlich nicht lösen und es führt an manchen Stellen zu historischen Ungenauigkeiten und möglicher-weise auch zu kleineren Fehlern in der chronologischen Darstellung. Da es hier aber weniger um eine ganz exakte Vorstellung historischer Abläufe, sondern um ein Verständnis der ideengeschichtlichen Entwicklung geht, erscheinen mir diese potenziellen Mängel vertretbar.

Für das inhaltliche Verständnis der Arbeit sind zwei Begriffe überaus zentral, nämlich die des statistischen Modells und des Parameters. Beide Begriffe werden in sehr unterschiedlichen Kontexten und daher sehr abs-trakt verwendet. In der Literatur finden sich verschiedenste Klassifizie-rungen zum Begriff des statistischen Modells, so unterscheidet Kromrey beispielsweise drei Typen: Modelle, die Schlüsse von Stichproben auf Grundgesamtheiten zulassen, Modelle zur Repräsentation von Beziehungen von Variablen sowie Modelle, die eine Informationsreduktion von Daten vornehmen (Kromrey 2006: 211). Des Weiteren wird der Begriff auch im Bereich der Messtheorie verwendet, wenn der Aspekt des Messfehlers in einem Modell erfasst werden soll (Gigerenzer & Krüger 1999: 135).

Da im vorliegenden Fall die Inferenzstatistik im Mittelpunkt steht, soll auch der Begriff des statistischen Modells entsprechend in Anlehnung an Fishers Artikel „On the Mathematical Foundations of Theoretical Statistics“ (1922) verwendet werden, allerdings in etwas allgemeinerer Form. In seinem Artikel betont Fisher den Unterschied zwischen Stichprobe und Population, wobei letztere nicht zwangsläufig existieren muss. In diesem Sinn ist für ihn ein statistisches Modell ein formal-mathematisches Gebilde, das eine Aussage zur Beziehung von Stichprobe und Grundgesamtheit möglich macht, ohne dass er diese Beziehung weiter spezifiziert. Damit ist natürlich auch die Bezie-hung von empirischer Information zur Welt berührt. In diesem Sinn ist im Folgenden mit einem statistischen Modell sehr allgemein jegliche Form ma-thematischer Zusammenhänge gemeint, die eine Aussage über einen Teil der Welt zum Ziel hat und gilt damit ebenso für ein Binomialmodell wie für Mo-delle zur Bestimmung von Kausalität, z. B. die Regression.

19

Einen Parameter wiederum definiert Fisher als Eigenschaft der Grund-gesamtheit, über den mittels statistischer Kennwerte eine Aussage getroffen wird. In diesem Sinn ist etwa ein Anteil ein Parameter, der untersucht wird, und das Ergebnis der Analyse mittels eines Binomialmodells darstellt. An manchen Stellen ist es allerdings auch erforderlich, für eine bessere Ver-ständlichkeit diese Begriffe etwas breiter aufzufassen, als sie üblicherweise in der klassischen Statistik und im Sinn Fishers Anwendung finden.

Dies ist ein generelles Problem, das im Diskurs von Vertretern der klas-sischen Statistik und der Bayes-Statistik zumindest unterschwellig stets präsent ist und auch nicht vollständig gelöst werden kann. Aufgrund der deutlich weiteren Verbreitung der klassischen Statistik war und ist es nötig, dass Bayesianer ebenfalls mit Begriffen der klassischen Statistik operieren, um mit diesen überhaupt in Dialog treten zu können bzw. nicht allein schon auf der Begriffsebene für komplette Konfusion zu sorgen. Diese führt gelegentlich dazu, dass die inhaltliche Stringenz der dahinterstehenden Denklogik eingeschränkt wird. Da aber nur auf diesem Weg überhaupt ein gemeinsamer Dialog möglich wird, wird diese Einschränkung hingenom-men und mit der Verwendung von Begriffen an den Stellen, an denen es nötig ist, pragmatisch verfahren.

Schließlich sei darauf verwiesen, dass Lehrbücher und allgemeine Litera-tur zur Bayes-Statistik fast ausschließlich in englischer Sprache erscheinen. Begriffe und Termini sind daher stark durch diese bestimmt. Deshalb exis-tiert nicht selten keine passende deutsche Übersetzung, die allgemein geteilt wird. Daher werde ich im Folgenden an manchen Stellen die englischen Begriffe nicht übersetzen und in ihrem Original verwenden. Dies mag den Lesefluss an der einen oder anderen Stelle negativ beeinflussen. Dieser Nachteil wird aber hoffentlich durch die Tatsache ausgeglichen, dass die Nachvollziehbarkeit und die Anknüpfungsmöglichkeiten an die gängige Literatur bzw. auch die aktuellen Diskurse leichter fallen.

Was ist Wahrscheinlichkeit? Elementar für das Verständnis von jeglicher Art von Inferenzstatistik ist die Wahrscheinlichkeit (Jackman 2009: 3). Ihr Ziel ist es, auf Basis der Informa-tion einer Teilmenge einer Untersuchungspopulation Aussagen über die gesamte Population machen zu können. Weiter gefasst geht es darum, trotz unvollständiger Information über eine zu untersuchende Einheit Aussagen über eben diese zu treffen. Ziel der Inferenzstatistik ist es somit, die mathe-matischen Werkzeuge und Vorgehensweisen zur Verfügung zu stellen, um eben diese Aussagen durch den Forscher zu ermöglichen. Damit – und dies wird in der Praxis der Statistik in der Regel nicht reflektiert – handelt es sich hier ebenso um eine Interpretation empirischer Information wie etwa in der qualitativ orientierten Sozialforschung. Statistik und quantitative empiri-

20

sche Sozialforschung benötigen ebenfalls die Ebene der Interpretation durch den Forscher. Die gängige Sichtweise in der Auseinandersetzung von qualitativ und quantitativ orientierten Sozialforschern, dass statistische Methoden einen höheren Grad an Objektivität oder Präzision aufgrund fehlender Interpretationskomponente besitzen, trifft somit nicht zu.

Die Aufgabe, die Brücke zwischen der Teilmenge an Informationen – im Fall der empirischen Sozialforschung in aller Regel Datenkorpus bzw. einer Stichprobe an Elementen – und der Gesamtheit zu schlagen, kommt in der Statistik der Wahrscheinlichkeitstheorie mit ihrer Technik des induktiven Schließens (Kromrey 2006: 420) zu. Ohne den Begriff der Wahrscheinlich-keit und ein Verständnis von Wahrscheinlichkeitstheorie lassen sich folg-lich weder die Bayes-Statistik noch die klassische Statistik erfassen. Worin sie sich fundamental unterscheiden, sind das geeignete Verständnis von Wahrscheinlichkeit und die Konsequenzen, die sich daraus für den For-schungsprozess ergeben.

Über die Konzeption von Wahrscheinlichkeit zu streiten, erscheint auf den ersten Blick fremd. Denn die mathematische, ja statistische Definition scheint überaus eindeutig. Ein Blick in zwei Lehrbücher zur empirischen Sozialforschung zeigt das: Wahrscheinlichkeit wird definiert im Sinn einer relativen Häufigkeit. Es bezeichnet die Anzahl des Auftretens eines Ereig-nisses A dividiert durch das Auftreten aller Ereignisse (Atteslander & Cromm 2006: 249; Kromrey 2006: 294 f.). Die Autoren verweisen zwar darauf, dass es auch andere Ideen von Wahrscheinlichkeit gibt, stellen aber dieses Konzept der relativen Häufigkeit als „statistische Wahrscheinlich-keit“ vor. Damit wird der Wahrscheinlichkeitsbegriff eng an das Ergebnis einer abzählbar häufigen Kette von Ereignissen des gleichen Typs und der Vorstellung einer wiederholten Ziehung geknüpft. Zudem – und das ist besonders wichtig – ist Wahrscheinlichkeit damit ein Charakteristikum der Natur, das sich berechnen lässt (Jackman 2009: 5). In einer Urne mit 10 weißen und 20 schwarzen Kugeln ist die Auswahlwahrscheinlichkeit, also die Wahrscheinlichkeit eine Kugel mit einer bestimmten Farbe zu ziehen, mittels mathematischer Operationen ohne Schwierigkeiten bestimmbar. Da die Verhältnisse bekannt sind, liegt sie als Relation der Anzahl der Kugeln bei 1:2. Aus diesem Grund wird dieser Wahrscheinlichkeitsbegriff auch als frequentistisch oder objektiv bezeichnet.

Die Bayes-Statistik allerdings fußt auf einer anderen Vorstellung, bei der Wahrscheinlichkeit eine Eigenschaft eines denkenden Subjekts im Sinn eines Glaubens- oder Vertrauensgrads erfasst (Jackman 2009: 7; Hacking 1984: 12). Sie bezeichnet keinen Zustand der Natur, sondern bildet die indi-viduelle Einschätzung über einen bestimmten Sachverhalt ab. Bezogen auf das oben genannte Beispiel der Urne mit schwarzen und weißen Kugeln bezeichnet Wahrscheinlichkeit den persönlichen Glaubensgrad mit dem

21

nächsten Zug aus der Urne eine weiße bzw. schwarze Kugel zu ziehen. Da mehr schwarze als weiße Kugeln in der Urne liegen, sollte dieser Überzeu-gungsgrad so ausgeformt sein, dass eine rational handelnde Person eher das Ziehen einer schwarzen als einer weißen Kugel erwartet. Dieser Typus der Wahrscheinlichkeit wird als subjektive oder auch epistemische Wahr-scheinlichkeit bezeichnet. Eine solche Vorstellung von Wahrscheinlichkeit mag zunächst suspekt aussehen, vor allem im Kontext mathematischer Statistik. Allerdings sollten wir uns vor Augen führen, dass uns diese grund-sätzliche Vorstellung von Wahrscheinlichkeit als Glaubensgrad näher ist, als wir meinen. Wir sind in unserem Alltag mit vielerlei Aussagen konfron-tiert, die genau diesen abbilden, etwa, dass es morgen wahrscheinlich reg-net, ein Bekannter höchstwahrscheinlich nicht mehr am Abendessen teil-nehmen werde oder wir mit ziemlicher Sicherheit zu spät ins Theater kommen. Hier wird mit dem Begriff der Wahrscheinlichkeit operiert und man kann auch erkennen, dass es um individuelle, persönliche Einschät-zungen einer bestimmten Situation geht.

Zur Veranschaulichung soll der Unterschied noch einmal an einem so-ziologischen Beispiel verdeutlicht werden. Ein zentraler Aspekt der Bil-dungssoziologie ist die Erklärung von Bildungsungleichheiten (Kristen 1999). Einen wesentlichen Teil dieser Debatte bilden die gesellschaftlichen Rahmenbedingungen und Prozesse, die sozialen Aufstieg direkt oder in-direkt mit Bildungsfaktoren verknüpfen. Häufig spricht man in diesem Zusammenhang von der Betrachtung des sogenannten Bildungsaufstiegs. Besondere Beachtung erhalten hier in der Regel bildungsferne Bevölke-rungsschichten, etwa traditionelle Arbeiterschichten oder Migranten. In einer Beispielstudie sollen dazu aus einer Bildungskohorte 100 Kinder aus bildungsfernen Familien untersucht werden. Von diesen 100 Kindern besu-chen letztlich 25 eine Hochschule. Aus Sicht der traditionellen Statistik und der objektiven Wahrscheinlichkeit ergibt sich die Wahrscheinlichkeit, in dieser Studie einen Bildungsaufsteiger zufällig zu ziehen, als Anteil der Kin-der mit Hochschulbildung bezogen auf alle Kinder in der Studie. Dieser Anteil liegt bei 25 %, welcher sich als relative Häufigkeit des Auftretens des Ereignisses „Bildungsaufsteiger“ ergibt: 25 / 100 = 0,25 [25 %]. Dieser Wert lässt sich ohne jegliche weitere Information ausschließlich aus den erhobe-nen Daten berechnen und stellt eine unabhängig vom Forscher oder Be-trachter existierende Eigenschaft der Datengrundlage dar.

Der Bayesianer verwendet im Gegensatz dazu einen subjektiven Wahr-scheinlichkeitsbegriff zugrunde. Die Wahrscheinlichkeit, aus den 100 Kin-dern einen Bildungsaufsteiger zufällig zu ziehen, ist keine Eigenschaft der Stichprobe, sondern bildet den Vertrauensgrad des Forschers ab. Subjektive Wahrscheinlichkeit ist somit ein mathematisches Abbild des Wissens des Forschers über den Anteil der Kinder mit Hochschulbildung in der Studie.

22

Nun ist es nur rational, dass dieser Vertrauensgrad ebenfalls bei 25 % liegt, der Forscher also erwarten sollte, dass bei etwa jedem vierten Kind eine Hochschulkarriere vorliegt, also kein numerischer Unterschied zur objekti-ven Wahrscheinlichkeit besteht. Dass dem so ist, liegt an der Tatsache, dass sich das Wissen des Forschers in unserem Beispiel nur aus den Werten der Studie speist und keine weiteren Informationsquellen angenommen wer-den. Da aber der individuelle Vertrauens- oder Glaubensgrad bestimmt wird, ist die Berechnung einer subjektiven Wahrscheinlichkeit nicht auf die Verwendung von Dateninformation eingeschränkt, sondern kann auch weitere Wissenskomponenten beinhalten. Hätte der Forscher aus früheren Studien Vorkenntnisse darüber, dass der Anteil der Bildungsaufsteiger bei-spielsweise im Normalfall bei 20 % liegt, so ist es nur rational, diese Infor-mation zu verwenden und in die Bestimmung der subjektiven Wahrschein-lichkeit einfließen zu lassen.

Zwei Aspekte sind dabei besonders wichtig. Die Verwendung von sub-jektiver oder objektiver Wahrscheinlichkeit ist zunächst nichts anderes als eine unterschiedliche Perspektive auf einen Gegenstand. Im Fall der objek-tiven Wahrscheinlichkeit geht es um die Bestimmung einer unabhängig vom Forscher existierenden Eigenschaft der Welt, im Fall der subjektiven Wahrscheinlichkeit um die Zusammenfassung des individuellen Wissens eines Forschers über diese. Soziologische Theorien gehen im Kern nicht anders vor, sie bilden jeweils eigene Zugänge zu einem Sachverhalt und haben eigene Perspektiven. Man kann somit die objektive und subjektive Sichtweise auf Wahrscheinlichkeit als eigene Theorien der Wahrscheinlich-keitsstatistik ansehen, auch wenn die Debatten der Statistik im Gegensatz zur soziologischen Theorie viel stärker in den Kategorien „richtig“ und „falsch“ geführt wurden und immer noch werden.

Weiterhin liegt die Schwierigkeit der epistemischen Sicht auf Wahr-scheinlichkeit damit offensichtlich in ihrem Begründungszusammenhang liegt (Jackman 2009: xxxiv). Bei der objektiven Wahrscheinlichkeit ist dieser eindeutig. Indem etwas bestimmt wird, was unabhängig ist vom Individu-um und eine Eigenschaft eines Objekts darstellt, steht es prinzipiell jedem Forscher offen. Es muss gemessen oder gerechnet werden, alles andere lässt sich dann aus den Zahlen ablesen, über welche es seine Legitimation erhält. Aus den Daten der 100 Kinder muss schlicht sukzessive gezogen werden, um die Wahrscheinlichkeit, einen Bildungsaufsteiger zu ziehen, bestimmen zu können. Dann kann die Anzahl der gezogenen Bildungsaufsteiger mit der Anzahl der vorgenommenen Züge verglichen und aus der Relation die Wahrscheinlichkeit bestimmt werden. Bei der subjektiven Wahrscheinlich-keit ist dies entsprechend schwerer. Denn wie eine Person zu ihrer Ein-schätzung gelangt, ist zunächst einmal völlig offen. Möchte der Forscher nur eine Aussage über die konkrete Stichprobe machen, ist es sinnvoll, den

23

Weg der Frequentisten zu gehen und sich ebenfalls auf den relativen Anteil zu stützen. Wenn allerdings der Schluss auf die zugrundeliegende Grundge-samtheit ansteht, also etwa der Anteil der Bildungsaufsteiger dieser Kohorte in ganz Deutschland – was üblicherweise in wissenschaftlichen Studien gemacht wird –, dann kann es sinnvoll sein, über die reine Dateninforma-tion hinauszugehen und zusätzliches Wissen zu berücksichtigen.

Damit berührt der Gegensatz von objektiver und subjektiver Statistik das ganz grundsätzliche Verhältnis von Objektivität und Subjektivität in der Wissenschaft, welches alles anders als einfach ist. Wie im Folgenden noch gezeigt wird, ist Objektivität im Kern nicht einmal einer eigenen Definition zugänglich, sondern bezeichnet lediglich die Abwesenheit von Subjektivität (Daston 1992). Nimmt man diese Definition ernst, dann ist zunächst jede Aussage, Annahme und gewählte Vorgehensweise einer Person subjektiv und so soll Subjektivität auch im Folgenden definiert sein. Das bedeutet natürlich nicht, dass jede subjektive Aussage einer Person auch mit Belie-bigkeit, Bauchgefühl oder Irrationalität gleichzusetzen ist. Denn die Frage nach der Transparenz und der Nachvollziehbarkeit ist nicht weiter berührt (Schulze 2004c; Lamnek 2010: 19 ff.). Vielmehr gibt es verschiedene Mög-lichkeiten, genau diese Kriterien zu erreichen. Die beiden wichtigsten Vor-stellungen, in diesem Sinn Objektivität zu erzielen, verlaufen direkt an der Trennungslinie von qualitativer und quantitativer Sozialforschung. In der quantitativen Sicht wird Objektivität durch die Unabhängigkeit der Mes-sung von der Person des Forschers bzw. des Messenden erreicht. Jede ob-jektive Messung führt in diesem Verständnis zum gleichen Ergebnis, egal wer diese Messung vornimmt (Behnke et al. 2006: 125 f.). Die qualitative Sozialforschung vertritt demgegenüber die Sichtweise, dass Objektivität durch die Reflexion des Interpretationsvorgangs und die Nachvollziehbar-keit der Schritte der empirischen Analyse sichergestellt wird (Lamnek 2010: 54 ff.).

Zwangsläufig vermischen sich in der subjektiven Sichtweise von Wahr-scheinlichkeit somit Elemente der Beobachtung der Natur mit gesammelten Erfahrungen und daraus abgeleitetem Wissen, also abstrakter formuliert konkrete Dateninformation und theoretisches Wissen. Ein solches Kon-strukt allerdings statistisch zu erfassen, erscheint bestenfalls problematisch. Gerade für Neulinge im Feld der Bayes-Statistik ist diese Definition von Statistik und das Verhältnis zur objektiven, etablierten Sichtweise nicht einfach zu verstehen.

Um diesen Gordischen Knoten zu durchschlagen, hilft es, einen Blick auf die historische Entwicklung der Wahrscheinlichkeitstheorie zu werfen. Auf diesem Weg werden statistisch-methodische Fragen mit der Wissen-schaftshistorie verbunden und somit Denk- und Vorgehensweisen leichter verständlich. Deutlich wird dabei vor allem, dass zu Beginn der Wahr-

24

scheinlichkeitstheorie beide Vorstellungen von Wahrscheinlichkeit alles andere als Gegensätze darstellten, sondern einen gemeinsamen Rahmen für die Analyse rationaler Schlussfolgerungen bildeten. In der Folge entwickelte die Wissenschaft, angetrieben von den Naturwissenschaften, einen strenge Entsubjektivierung des analytischen Vorgehens, die die subjektive Wahr-scheinlichkeit stetig zurückdrängte. Damit entstand das Feld der Statistik ausschließlich vor dem Hintergrund einer frequentistischen Sichtweise, ohne dass damit aber die Bayes-Statistik als Ausdruck der subjektiven Seite völlig vergessen worden wäre.

Statistik tritt uns heute üblicherweise als streng mathematisches Projekt unter dem Dach der objektiven Wahrscheinlichkeit gegenüber. Dabei wird aber völlig übersehen, dass auch die Statistik keinen kumulativen Entwick-lungspfad genommen hat, sondern in verschiedenen Phasen sehr unter-schiedlich mit subjektiver und objektiver Wahrscheinlichkeit und damit auch mit der Person des Forschenden umgegangen ist. Im Folgenden soll daher gezeigt werden, wie Statistik zu einem Projekt wurde, das die Suche nach Objektivität in der Wissenschaft (ohne immer genau zu wissen, was das ist), aber auch die konsequente Entfernung jeglicher theoretischen Komponente aus der Analyse zu ihrem zentralen Anliegen gemacht hat. Darüber hinaus wird deutlich, dass Theorie und inhaltliche Erwägungen an vielen Stellen der statistischen Analyse nötig und auch wichtig sind, auch wenn die Forschungspraxis vor dieser Tatsache gerne die Augen ver-schließt.

Die Verbindung von objektiver und subjektiver Wahrscheinlichkeit Ob man Wahrscheinlichkeit objektiv oder subjektiv denkt, beides verbindet das Motiv der Erklärung von Unsicherheit und die Notwendigkeit der Her-stellung eines geeigneten Argumentationsrahmens (Gigerenzer & Krüger 1999: 15 ff.). Heute kleiden wir solche Komponenten in der Statistik häufig in den Mantel des Zufalls, etwas Nicht-Regelhaftes, das man kausal nicht erklären kann. Zufall kann vieles sein von der unvollständigen Erfassung eines Phänomens, über fehlende Daten bis hin zur Art der Datenerhebung. Entsprechend ist es unterschiedlichen Interpretationen zugänglich, sub-jektiv gefasst als fehlendes Wissen und objektiv gefasst als nicht weiter rele-vante Unregelmäßigkeit der Natur. Heute trennt beides, vor allem in der Statistik, ein großer inhaltlicher Graben. Doch gerade zu Beginn der Wahr-scheinlichkeitstheorie bezogen sich objektive und subjektive Wahrschein-lichkeit in einem Maße aufeinander, wie wir es heute gar nicht mehr ken-nen. Dass es dazu kommen konnte, lag nicht an einer Auseinandersetzung mit dem Zufall. Solche Überlegungen spielten zu Beginn einer mathemati-schen Beschäftigung mit Wahrscheinlichkeit im 17. Jahrhundert keine Rol-le. Denn Zufall gab es in den Augen der Zeit nicht. Etwas Unerklärliches

25

war schlicht dem Verständnis der Menschen entzogen und wurde als gott-gegeben angesehen (Coumet 1970: 577). Auch ein Probabilismus im Den-ken konnte man nicht erkennen, die Auseinandersetzung mit Wahrschein-lichkeiten entstand in einem ausgesprochen deterministischen Klima (Kendall 1956). Was die ersten Wahrscheinlichkeitstheoretiker antrieb, lässt sich am besten am Briefwechsel von Blaise Pascal und Pierre Fermat aus dem Juli 1654, der üblicherweise als erstes Zeugnis der formalisierten Aus-einandersetzung mit wahrscheinlichkeitstheoretischen Fragen gilt, und Pascals Gedanken zur Religion in den „Pensées“ aus 1669 nachvollziehen. Die Jahre um dieses Ereignis, also etwa der Zeitraum zwischen 1650 und 1660, gelten nicht nur als Geburtsstunde der mathematischen Wahrschein-lichkeitstheorie, sondern auch der Statistik als Ganzes sowie der Philoso-phie der Wahrscheinlichkeit (Desrosières 2005: 52).

In besagtem Briefwechsel mit Pierre de Fermat beschäftigte sich Pascal auf Bitten des Chevalier de Méré u. a. mit dem sogenannten Teilungsprob-lem. Dieses war bereits seit dem 15. Jahrhundert bekannt und drehte sich um die Frage, wie der monetäre Einsatz bei einem Glücksspiel aufgeteilt werden soll, wenn das Spiel zu irgendeinem Zeitpunkt abgebrochen werden muss (Büchter & Henn 2007: 263 ff.). Ausgangspunkt sind zwei Spieler, die den gleichen Geldbetrag eingesetzt haben. Das Spiel geht über mehrere Runden, in der jeweils eine faire Münze geworfen wird und der erste Spie-ler, der eine gewisse Anzahl an Runden gewonnen hat, den kompletten Einsatz gewinnt. Der Frage, der sich Pascal und Fermat gegenübersahen, war, wie gerechterweise mit dem Einsatz zu verfahren sei, wenn das Spiel – aus welchen Gründen auch immer – abgebrochen wird, ohne dass einer der Spieler die erforderliche Anzahl an Runden gewonnen hat. Die vorgeschla-gene Lösung ist aus heutiger Sicht besonders deshalb bemerkenswert, weil sie zwar deutlich in den Bereich der Wahrscheinlichkeitsrechnung fällt, aber den eigentlichen Begriff der Wahrscheinlichkeit (probabilitas) über-haupt nicht enthält (Gigerenzer & Krüger 1999: 23). Diesen gab es zwar schon, er hatte allerdings eine völlig andere Bedeutung, nämlich die einer durch eine Autorität gesicherten Meinung (Byrne 1968). Daran änderte auch Pascal zunächst nichts. Für ihn war auch keine Vorstellung von Wahr-scheinlichkeit der Ausgangspunkt, er arbeitete stattdessen mit der Erwar-tung als Grundbegriff und definierte den Erwartungswert, der später als Produkt aus Wahrscheinlichkeit und dem Wert eines Ereignisses formali-siert wurde (Coumet 1970). Nach Pascal musste dieser Wert so beschaffen sein, dass – unter Berücksichtigung der Eigenschaften des jeweiligen Spiels – es für einen der Spieler keinen Nutzenvorteil bedeutet, das Spiel fortzuset-zen oder es zu beenden. Anders ausgedrückt durfte der faire Anteil am Ge-samteinsatz in der jeweiligen Spielsituation keinerlei Unterschiede für einen Spieler aufweisen, ob er das Spiel fortsetzt oder den angebotenen Auszah-

26

lungsbetrag annimmt und das Spiel beendet (Pascal 2012: 478). Bestandteile zur Bestimmung dieses Erwartungswerts sind lediglich die Ergebnisse der gespielten Runden und die Gewinnerwartung in Bezug auf die nächste Runde. Dies hat den wichtigen Effekt, dass dieser Wert jederzeit von beiden Spielern bestimmbar ist und zum gemeinsamen Wissen der Spieler gehört, ohne dass eine dritte Instanz zur Bestimmung benötigt wird (Desrosières 2005: 56).

Konkretisieren wir das Konzept an einem Beispiel, indem wir davon ausgehen, dass die beiden Spieler Tim und Peter jeweils fünf Euro eingesetzt haben und das Spiel dann beendet werden soll, wenn ein Spieler drei Run-den gewonnen hat. Nehmen wir zudem an, dass wir uns an einem Punkt im Spiel befinden, an dem Tim zwei und Peter eine Runde gewonnen hat und sich nun das Teilungsproblem stellt, weil das Spiel nicht fortgeführt werden kann, da Tim zum Abendessen nach Hause gehen muss. Auf Basis des Kon-zepts des Erwartungswerts können wir diesen für beide Spieler bestimmen. Für Tim ergeben sich folgende Konstellationen: Gewinnt er die folgende Runde, hat er das Spiel gewonnen und bekäme somit zehn Euro. Verliert er das Spiel, so ist der Rundenstand ausgeglichen und die Chancen wären für beide Spieler wieder gleich, in der darauffolgenden Runde den gesamten Einsatz zu gewinnen. Er läge somit bei einem virtuellen Gewinn von fünf Euro. Für Peter ist die Situation entsprechend entgegengesetzt. Verliert er die nächste Runde bekommt er nichts, gewinnt er, sind die Chancen auf den Gewinn des Gesamteinsatzes ebenso groß wie für Tim. Da die Chance bei einem fairen Würfel auf Gewinn oder Verlust genau gleich sind, liegt der Erwartungswert Pascalscher Prägung bei gegebenem Spielstand bei 7,50 Euro für Tim (Chance von 50 % auf einen virtuellen Spielstand von fünf Euro nach dem nächsten Spiel + Chance von 50 % auf zehn Euro) und entsprechend 2,50 Euro für Peter.

Möchte man Pascals Lösung des Teilungsproblems mit einem Wort be-schreiben, dann bleibt wohl nur Gerechtigkeit. Genau das ist es auch, was er transportieren wollte und was als Wurzel der Wahrscheinlichkeitstheorie angesehen wird. Pascal und nach ihm eine ganze Generation von mathema-tisch interessierten Gelehrten entwickelten keine dezidierte Wahrschein-lichkeitstheorie, sondern eine mathematisch fundierte Vorstellung von Gerechtigkeit. Sie taten dies, indem sie ihre Vorstellung von Erwartung mit Fairness gleichsetzten und mathematisch fassten (Gigerenzer & Krüger 1999: 23; Desrosières 2005: 55 ff.). Da sie aber vom Begriff der Erwartung ausgingen, erscheint uns das Argument heute recht seltsam. Wir gehen heute normalerweise so vor, dass wir definieren, welche Eigenschaften ein Spiel haben muss, um als fair zu gelten. Gleiche Gewinnerwartungen sind in dieser Sicht ein Charakteristikum eines fairen Spiels. Das Argument im 17. Jahrhundert war jedoch genau umgekehrt: Gleiche Gewinnerwartung wur-

27

de definiert als Ergebnis eines fairen Spiels. Der Physiker Christian Huygens fasste es in der ersten Veröffentlichung zur Wahrscheinlichkeitstheorie „De ratiociniis in luda alea“ 1657 so, dass die Gewinnerwartung dem Betrag entspricht, den man von einem fairen Spiel erwarten kann (Huygens 1657: 1 f.).

Pascal verwendete das Konzept des Erwartungswerts nicht nur in einem recht harmlosen Feld wie dem Glücksspiel. In seinem 1669 veröffentlichten Werk „Pensée“ fasste er seine Ansichten von Religion und dem Glauben an Gott zusammen. Dabei versuchte er zu zeigen, warum es rational sei, an Gott zu glauben, was auch unter dem Begriff der Pascalschen Gotteswette bekannt ist (Pascal 1937). Dabei geht es um die grundsätzliche Frage, ob Gott existiert oder nicht bzw. der Gläubige an dessen Existenz glauben soll-te oder nicht. Je nach der Entscheidung des Einzelnen ergeben sich andere Optionen für die Gestaltung des Lebens. Wer nicht an die Existenz Gottes glaubt, kann sich problemlos allen beliebigen Freuden des irdischen Lebens hingeben, ohne Konsequenzen nach dem Tod befürchten zu müssen. Der Gläubige wiederum wird sich an die religiösen Gebote halten, will er nicht die Gefahr ewiger Verdammnis riskieren. Damit schränkt er seinen eigenen Handlungsspielraum aber selbstredend ein. Genau hier setzt Pascal an und versucht zu zeigen, dass es besser ist, an Gott zu glauben (und sich entspre-chend zu verhalten), als dies nicht zu tun (Pascal 1937: 141 ff.). Sein Argu-ment fußt wieder auf dem Konzept der Erwartung, indem er die Chance für die Existenz Gottes und die möglichen Folgen als Basis verwendet. Die Wahrscheinlichkeit der Existenz Gottes entspricht der Gewinnwahrschein-lichkeit in einem Glücksspiel und die Folgen dieses Handelns dem monetä-ren Einsatz. Nach Pascal sind diese Folgen bei einer Existenz Gottes unend-lich, denn sie bedeuten entweder das Fegefeuer oder die Erlösung des ewigen Lebens. Selbst wenn die Chance für die Existenz Gottes verschwin-dend gering ist, so ist doch das Produkt aus Existenzwahrscheinlichkeit und den zu erwartenden Folgen in jedem Fall größer als der Erwartungswert, den man aus einem Leben ungezügelter menschlicher Freuden ziehen könnte. Dies wäre nur dann nicht der Fall, wenn bezüglich der Nicht-Existenz Gottes Sicherheit bestünde (also die Chance auf die Existenz Got-tes gleich Null wäre), und dies kann ebenso wenig bewiesen werden wie die Existenz selbst (Gigerenzer & Krüger 1999: 15 ff.).

Deutlich wird dabei: Pascal geht es nicht um die Beantwortung der Fra-ge, ob Gott existiert oder nicht. Er vermittelt eine Handlungsweise, wie sich jeder Einzelne vor dem Hintergrund der Unsicherheit über die Existenz Gottes verhalten sollte. Er appelliert nicht an religiöse Überlieferungen oder argumentiert vor dem Hintergrund theologischer Glaubenssätze. Der kon-krete Zielpunkt der Argumentation ist die Rationalität jedes einzelnen (Gigerenzer & Krüger 1999: 24). Pascal versucht in seiner Gotteswette zu

28

zeigen, dass ein jeder aus individueller Rationalität heraus besser an Gott glaubt, selbst wenn die Zweifel an seiner Existenz noch so groß sind. Anders ausgedrückt: Da nicht ausgeschlossen ist, dass Gott wirklich existiert, sollte man das ewige Leben auf keinen Fall riskieren für etwas Spaß auf Erden. So inhaltlich verschieden die beiden Schriften Pascals auch sind, sie weisen doch einige Gemeinsamkeiten auf. Sie argumentieren beide auf Basis des Begriffs der Erwartung und in beiden Fällen wird eine Beziehung hergestellt zwischen einem bekannten aktuellen Zustand und einem unsicheren zu-künftigen, einmal im Verhältnis des gegebenen Spielstands zum Gewinn des Jackpots und bei der Gotteswette in der Beziehung des Lebensstils auf Erden zu einem möglichen Leben nach dem Tod.

Sein Verständnis von Erwartung und Fairness, das sich in seinen Schrif-ten zeigt, schloss direkt an eine rechtliche Vereinbarung an, die im Han-delsrecht des 16. und 17. Jahrhunderts zunehmend an Bedeutung gewon-nen hatte, sogenannte aleatorische Verträge. Diese Verträge zielten darauf ab, faire Abmachungen für Fälle zu formalisieren, in denen ein gegenwärtig sicherer Wert gegen einen unsicheren zukünftigen Gewinn eingetauscht werden sollte (Coumet 1970: 579). Beispiele für solche Abmachungen sind mannigfaltig und reichen vom Glücksspiel über Versicherungen jeglicher Art bis hin zu Rentenzahlungen oder Investitionen in den Seehandel. Sie hatten sich im Laufe des Mittelalters als Reaktion auf die seit jeher kritische Haltung der Kirche gegenüber der Geldwirtschaft und der Zinsnahme ent-wickelt. Der theologisch-juristische Streitpunkt bestand darin, inwieweit Gewinne, die von unbekannten zukünftigen Ereignisses abhängen und ohne das Zutun der Vertragspartner zustande kommen, zu beurteilen sind (Sales 2003: 186). Recht zügig setzte sich die Vorstellung durch, dass das Risiko bei der Bereitstellung von Kapital als moralisches Äquivalent für Arbeit anzusehen und daher vom Zinsverbot auszunehmen sei. Der Kauf-mann, der in ein Schiff für den Seehandel investiert, verdient damit auf-grund des eingegangenen Risikos seinen Gewinn genauso ehrlich wie durch die Tätigkeit in seinem Laden (Gigerenzer & Krüger 1999: 24). Damit wur-de eine klare Trennung zwischen Glücksspiel auf der einen und der öko-nomischen Sphäre, wie etwa bei Versicherungen bzw. monetären Investi-tionen mit Gewinnerzielungsabsicht ohne den Einsatz menschlicher Arbeit, auf der anderen Seite definiert und nur letztere war explizit erlaubt. Mit dem Erfolg des Konzepts des aleatorischen Vertrags (und natürlich auch dem schwindenden Einfluss der katholischen Kirche) verlor diese Unter-scheidung aber zusehends an Bedeutung, wobei das Glücksspiel aber wei-terhin ein recht unbedeutendes Anwendungsfeld aleatorischer Verträge blieb (Daston 1990: 238 ff.). Auch von kirchlicher Seite wurde diese Ansicht im 17. Jahrhundert bestätigt, als die jesuitische Congegratio de Propaganda Fide auf einen Antrag jesuitischer Missionare bekehrten Chinesen Dispens

29

gewährte für das Verleihen von Geld gegen Zinsen, solange „ein angemes-senes Verhältnis zwischen der Gefahr und der empfangenen Geldsumme gewährleistet ist“ (Noonan 1957: 289).

Genau diese Angemessenheit war aber natürlich die zentrale Streitfrage bei aleatorischen Verträgen. Wenn Pascal eine Lösung des Teilungsprob-lems präsentierte, so bot er letztlich eine Antwort auf die Frage nach der Ausgestaltung eines aleatorischen Vertrags. Diese Bewertung der Angemes-senheit war die Triebkraft für die ersten Wahrscheinlichkeitstheoretiker in der zweiten Hälfte des 17. Jahrhunderts. Faire und gerechte Regelungen zu finden, stand im Zentrum ihres Tuns. Anwendungsbereiche blieben damit nicht nur das Glücksspiel wie bei Pascal und Huygens, sondern etwa auch Fragestellungen von Renten (z. B. Johann de Witt) oder auch die Bewertung der Beweiskraft von Zeugenaussagen und rechtlichen Problemen im Allge-meinen (Gottfried Wilhelm Leibnitz, Nicholas Bernoulli) (Hacking 1984: 11, 57 ff.). Ihr Denken hatte dabei eine weitere, fast normative Komponente, nämlich die Beschreibung einer damals noch recht neuen Form von Ratio-nalität (Gigerenzer & Krüger 1999: 24, 37 ff.). Pascals Gotteswette zeigt dies deutlich, indem er eben nicht theologisch argumentiert, sondern an die Vernunft des Lesers appelliert. Ihm geht es darum aufzuzeigen, warum ein bestimmtes Handlungsmuster rational ist. Am Ende handelt es sich bei der Frage nach der Existenz Gottes um nichts anderes als eine individuelle Kos-ten-Nutzen-Abwägung, bei der der gesunde Menschenverstand eine klare Handlungsanweisung in einer Situation ermöglicht, die in Bezug auf den konkreten Ausgang eine gewisse Unsicherheit mit sich bringt. Diese Ratio-nalität wiederum spiegelt sich im mathematischen Formalismus des Erwar-tungswerts wider.

Die Wurzeln der Wahrscheinlichkeitstheorie liegen somit in zwei unab-hängig voneinander verlaufende Entwicklungen, die im 17. Jahrhundert eine besonders große Bedeutung hatten: die Etablierung einer neuen prag-matischen Rationalität, die das bis dato gültige Ideal von Gewissheit des Wissens aufgegeben hatte, auf der einen Seite und der immer erfolgreichere Versuch der Mathematik, neue Erfahrungsbereiche für sich zu erobern, auf der anderen (Gigerenzer & Krüger 1999: 21; Coumet 1970: 579). Diese neue Rationalität war letztlich eine Reaktion auf die historischen Entwicklungen der Zeit. Mit den Auseinandersetzungen von Reformation und Gegenre-formation wuchs der Zweifel in die Beständigkeit des Glaubens. Dies führte in der Philosophie zu einer Neuentdeckung des Skeptizismus. Bei den dar-aus resultierenden Debatten standen sich in den Extremen Fideisten, die auf der Gewissheit ihrer jeweiligen Position bestanden, und Skeptiker, die zum Teil weder menschliche Empfindungen noch mathematische Beweise als Evidenzen zuließen, gegenüber. Als Konsequenz stieg die Unsicherheit, auf welches Wissen man sich eigentlich noch stützen könnte. Traditionelle