Politikwissenschaft und die Methoden der eHumanities · Politikverdrossenheit und sinkende...

21
Politikwissenschaft und die Methoden der eHumanities Kickoff-Workshop, Hamburg, 15. und 16.11.2012 Postdemokratie und Neoliberalismus - Materialien 1

Transcript of Politikwissenschaft und die Methoden der eHumanities · Politikverdrossenheit und sinkende...

Politikwissenschaft und die Methoden der eHumanities Kickoff-Workshop,Hamburg, 15. und 16.11.2012

Postdemokratie und Neoliberalismus - Materialien 1

EinführungIdee der Tagung

Tagungsprogramm

Liste der Teilnehmer_innen

Nützliche Informationen

Inhalt

1. Idee der Tagung

2. Tagungsprogramm

3. Teilnehmer_innen

4. Nützliche Informationen

3

1. Idee der Tagung

Gary S. Schaal / Gerhard Heyer

Das vom Bundesministerium für Bildung und Forschung (BMBF) finanzierte Verbundprojekt „Postdemokratie und Neoliberalismus. Zur Nutzung neoliberaler Argumentation in der bundesdeutschen Politik 1949–2011“ ist im Bereich der Politischen Theorie sowie im Feld der allgemeinen Sprachverarbeitung angesiedelt. Es wird institutionell von der Universität der Bundeswehr Hamburg, dort vom Lehrstuhl für Politikwissenschaft, insbesondere Politische Theorie, sowie von der Universität Leipzig, dort vom Lehrstuhl für Automatische Sprachverarbeitung, getragen.

Die Tagung „Politikwissenschaft und die Methoden der eHumanities“, die am 15. und 16. November 2012 an der Helmut-Schmidt-Universität in Hamburg stattfindet, ist gleichzeitig die Kickoff-Veranstaltung des Projekts. Zentrales Ziel der Veranstaltung ist die Vernetzung sozialwissenschaftlicher Projekte, die sich der Methoden der eHumanities bedienen. Dabei geht es nicht nur darum, Synergien für den fortlaufenden Arbeitsprozess herzustellen. Es geht auch um die Steigerung der Akzeptanz elektronischer Analyseverfahren in den sozialwissenschaftlichen Teildisziplinen. Um dieses Ziel zu erreichen, verfolgt der

Einführung

4

Kickoff-Workshop - wie auch das Verbundprojekt insgesamt - eine zweigleisige Strategie. In einem weiten sozialwissenschaftlichen Überblick sollen sowohl einschlägige Fachinhalte – etwa aus der Politikwissenschaft, der Soziologie und der Konfliktforschung – und deren jeweilige Fragestellungen vorgestellt, sowie die Leistungsfähigkeit von Methoden der eHumanities mit Blick auf diese Fragestellungen diskutiert werden. Neben der fachspezifischen Dimension der Projekte geht es also immer auch um deren methodologische Handhabbarkeit.

Da die Methoden der eHumanities nicht nur auf die Politikwissenschaft, geschweige denn auf die Politische Theorie Anwendung finden können – was mit Blick auf die hier versammelten Beiträge exemplarisch etwa in dem manifesten Bedarf nach einer elektronischen Analyse von Argumenten im Sinne von Begründungen deutlich wird – sehen wir den starken Bedarf einer breiten, interdisziplinären Verankerung von Methoden der eHumanities im sozialwissenschaftlichen Fächerkanon. Eine breite, interdisziplinäre Vernetzung innerhalb der Sozialwissenschaften wird zu signifikanten Synergien für die gegenwärtig anstehenden Forschungsprojekte führen.

Erfolgreiche Projektabschlüsse tragen so zu einer steigenden Akzeptanz elektronischer Analyseverfahren in den Sozialwissenschaften bei und stärken damit den

sozialwissenschaftlichen Forschungszweig im Bereich der eHumanities. Die Einbettung von sozialwissenschaftlichen Projekten aus dem Bereich der eHumanities in bestehende Forschungsverbünde (etwa ClarinD) stellt ein erklärtes mittelfristiges Ziel für an eHumanities interessierte Sozialwissenschaftler_innen dar.

5

2. TagungsprogrammDonnerstag, den 15.11.2012

bis 13:30 Uhr - Anreise

bis 14:00 Uhr - Get together, Empfang

14:00 - 14:15 Uhr - Grußwort durch den Vizepräsidenten für Forschung der Helmut-Schmidt-Universität, Prof. Dr.-Ing. Jens P. Wulfsberg

14:15 - 14:45 Uhr - Förderung der eHumanities durch das BMBF, Dr. Ranjana Sarkar

Panel 1 - Postdemokratie und Neoliberalismus (HSU Hamburg / Uni Leipzig)

14:45 - 16:00 Uhr - Ökonomisierung des Politischen, Dr. Matthias Lemke

16:00 - 16:30 Uhr - Kaffeepause

16:30 - 18:00 Uhr - Der „Ökonomisierung“ auf der Spur: Text Mining zur Analyse großer Zeitungskorpora, Gregor Wiedemann, M.A. / Dr. Andreas Niekler

ca. 19:00 Uhr - gemeinsames Abendessen

Freitag, den 16.11.2012

Panel 2 - Strategien zur Argumentidentifikation

09:00 - 10:30 Uhr - VisArgue - Wie und Wann überzeugen Argumente? Analyse und Visualisierung von politischen Verhandlungen, Valentin Gold

10:30 - 10:45 Uhr - Kaffeepause

10:45 - 12:15 Uhr - Annotieren vs. Automatisierung – methodische Herausforderungen zur Erkennung spezifischer Argumentationsstrukturen, Reinhard Messerschmidt, M.A

12:15 - 13:30 Uhr - Mittagspause

Panel 3 - Diskursanalyse in Politik und Social Media

13:30 - 15:00 Uhr - Vortrag zu PolMine, Jun.-Prof. Dr. Andreas Blätte

15:00 - 15:15 Uhr - Kaffeepause

15:15 - 16:30 Uhr - Analyse von Diskursen in Social Media - Ein Werkstattbericht, Prof. Dr. Christoph Neuberger

16:30 - 17:00 Uhr - Resümee der Veranstaltung, Prof. Dr. Gary S. Schaal

6

ab 17:00 Uhr - Ende des Kickoff-Workshops und Abreise der Teilnehmer_innen

3. Teilnehmer_innenDie nachstehende Tabelle listet die Teilnehmer_innen der Tagung in alphabetischer Reihenfolge auf. Eine Kontaktmöglichkeit sowie der Hinweis auf die Zugehörigkeit zu einem bestimmten Panel kann aus den Folgespalten entnommen werden (Stand: 01.10.2012).

Name EMail Panel

Biebricher, Thomas, Dr. [email protected]

Blätte, Andreas, JProf. Dr. [email protected] 3

Dumm, Sebastian, Dipl.-Soz. [email protected]

Glasze, Georg, Prof. Dr. [email protected]

Gold, Valentin [email protected] 2

Heyer, Gerhard, Prof. Dr. [email protected] 1

Lemke, Matthias, Dr. [email protected] 1

Meister, Jan C., Prof. Dr. [email protected]

Messerschmidt, Reinhard, M.A. [email protected] 2

Neuberger, Christoph, Prof. Dr. [email protected] 3

Niekler, Andreas, Dr. [email protected] 1

Rohrdanz, Christian [email protected] 2

Sarkar, Ranjana, Dr. [email protected]

Schaal, Gary S., Prof. Dr. [email protected] 1

Scharloth, Joachim, Prof. Dr. [email protected]

Vogel, Friedemann, Dr. [email protected]

Wiedemann, Gregor, M.A. [email protected] 1

7

4. Nützliche InformationenIm Folgenden finden Sie ein kurzes Glossar nützlicher Informationen, das Ihnen eine möglichst umfassende Hilfestellung für die Anreise und den Aufenthalt an der Helmut-Schmidt-Universität in Hamburg bieten soll.

Sollten Sie Hinweise oder Informationen vermissen, so können Sie uns jederzeit unter [email protected] kontaktieren.

Adresse

Helmut-Schmidt-UniversitätUniversität der Bundeswehr HamburgHolstenhofweg 8522043 Hamburg

Anreise

... mit dem Zug bis Hamburg Hauptbahnhof, von dort mit der U-Bahn-Linie U1 bis Wandsbek Markt. Von Wandsbek Markt aus fahren Busse der Linie 10 (Metrobus), 261 und 263 zur Helmut-Schmidt-Universität. Zielhaltestelle ist „Universität der Bundeswehr“.

... mit dem Auto über BAB 24 Abfahrt HH-Jenfeld, rechts auf Schiffbeker Weg (Richtung Nord) bis Rodigallee, dann links auf Rodigallee zum Universitätsbereich Holstenhofweg.

... mit dem Flugzeug zum Flughafen Hamburg (HAM), ab Flughafen mit der S1 bis Wandsbeker Chaussee, ab Wandsbeker Chaussee mit dem Bus der Linie 261 (Richtung U Horner Rennbahn) oder mit dem Schnellbus (zuschlagpflichtig) der Linie 35 (Richtung Sorenkoppel) bis Haltestelle „Universität der Bundeswehr“.

Homepage

Aktuelle Hinweise im Zusammenhang mit dem Workshop entnehmen Sie bitte unserer Homepage unter http://www.epol-projekt.de.

Hotels

Günstig gelegen (mit Blick auf die Erreichbarkeit der Helmut-Schmidt-Universität sowie der Hamburger Innenstadt) sind:

Motel One Alster, Steindamm 96–102, 20099, Hamburg - St. Georg

Holiday Inn Express Hamburg City Centre, Lübecker Straße 109, 22087, Hamburg - Hohenfelde

Novotel Hamburg City Alster, Lübecker Strasse 3, 22087, Hamburg - Hohenfelde

8

Internet

Die Helmut-Schmidt-Universität bietet einen WLAN-Zugang über „Eduroam“ an. Wählen Sie den „Eduroam“-Zugang aus der Liste der verfügbaren Netzwerke aus und geben Sie die Internet-Login-Daten Ihrer Heimateinrichtung ein. Sie erhalten dann Zugang zum Internet.

Kontakt

Für alle Fragen rund um den Workshop wenden Sie sich bitte an Dr. Matthias Lemke unter 040 - 6541 - 3379 oder unter [email protected].

Lageplan

Einen Lageplan des Campus der Helmut-Schmidt-Universität im pdf-Format können Sie unter der Adresse http://www.hsu-hh.de/hsu/index_IQtFfASrlEzBOVfk.html herunterladen.

Reisekostenrechnung

Die Kosten für Anreise und Übernachtung übernehmen wir für Sie, solange sich diese im Einklang mit den geltenden Bestimmungen des Bundesreisekostengesetzes befinden. Für die zeitnahe Abrechnung benötigen wir nach Ende des Workshops die Fahrkarten, die Hotelrechnung (Originalbelege) sowie ein ausgefülltes und unterschriebenes Formular zur

Reisekostenrechnung, das Sie während des Workshops erhalten.

Tagungsraum

Die Veranstaltung findet im Gebäude Mensa (im Lageplan: M), dort im Raum M0008 - Thomas-Ellwein-Saal - statt.

1 Postdemokratie und Neoliberalismus

Was heißt Ökonomisierung?

Wie analysiert man Ökonomisierungs-prozesse?

PanelPostdemokratie und Neoliberalismus

Inhalt

1. Postdemokratie und Neoliberalismus

2. Was heißt Ökonomisierung?

3. Wie analysiert man Ökonomisierungsprozesse?

10

1. Postdemokratie und NeoliberalismusBMBF-Verbundprojekt HSU Hamburg / Uni Leipzig, Prof. Dr. Gary S. Schaal / Prof. Dr. Gerhard Heyer

Zur Nutzung neoliberaler Argumentationen in der bundesdeutschen Politik 1949–2011

Die zeitgenössischen liberalen Demokratien prägen seit einigen Jahren zwei zunächst scheinbar gegensätzliche Entwicklungstendenzen. Einerseits lässt sich eine Zunahme politischer Apathie beobachten (unter anderem Politikverdrossenheit und sinkende Wahlbeteiligung). Gleichzeitig kommt es auch zu verschärften Sozialprotesten und dem Aufstieg populistischer Parteien. Kritiker_innen diagnostizieren in diesem Zusammenhang eine Zersetzung zentraler demokratischer Werte und Prozesse, die geeignet scheint, die Legitimität und Stabilität der politischen Systeme zu bedrohen. In der Politischen Theorie werden diese Entwicklungen unter dem Stichwort „Postdemokratie“ intensiv diskutiert. Unser Forschungsprojekt hat es sich zum Ziel gesetzt, die Diagnose der Postdemokratiedebatte für die Bundesrepublik erstmals umfassend empirisch zu analysieren. Hierzu wird auf die zentrale These des Diskurses zurückgegriffen, wonach der Prozess der Postdemokratisierung durch die zunehmende Bedeutung der Leitideen des

Panel 1

11

Neoliberalismus in der politischen Sphäre (das heißt eine Ökonomisierung des Politischen) forciert wird. Die Relevanzverschiebung dieser Leitideen für den Zeitraum von 1949 bis 2011 wird anhand einer Diskursanalyse untersucht, bei der neben qualitativen Ausprägungen vor allem auch quantitativen Verteilungen und Veränderungen politischer Argumentationsmuster analysiert werden.

In einem innovativen Forschungsdesign kommen zur Aufarbeitung des umfangreichen Quellenmaterials Verfahren der Automatischen Sprachverarbeitung zum Einsatz. Ziel des Teilprojekts der ASV ist es einerseits, etablierte Verfahren und Tools wie Topic Modelle, Term Extraction und Sentiment Analysis für die sozialwissenschaftliche Analyse qualitativer Daten fruchtbar zu machen. Darüber hinaus werden für die spezifische Fragestellung neue (halb‐)automatische Text Mining-Verfahren entwickelt, mit dem Ziel, Veränderungen politischer Argumentationsmuster und Begründungszusammenhänge in großen, zeitindizierten Korpora zu identifizieren und der politikwissenschaftlichen Analyse zugänglich zu machen. Durch die intensive Kooperation von Politischer Theorie und Automatischer Sprachverarbeitung im Rahmen eines empirischen Forschungsvorhabens zielt das Projekt auf einen bedeutenden Beitrag zur Entwicklung der computergestützten qualitativen Sozialforschung insgesamt.

Die metadisziplinären Ziele des Projekts „Postdemokratie und Neoliberalismus“ werden durch die Kooperation der Politischen Theorie (PT, Prof. Schaal) mit der Automatischen Sprachverarbeitung (ASV, Prof. Heyer) erreicht und durch das Bundesministerium für Bildung und Forschung gefördert.

2. Was heißt Ökonomisierung?Dr. Matthias Lemke

Die Ausgangsfrage dieses Vortrages lässt sich recht knapp formulieren: Was heißt Ökonomisierung? Und vielleicht, um noch etwas präziser zu sein, könnte man ergänzen: Was ist eigentlich damit gemeint, wenn von einer „Ökonomisierung des Politischen“ die Rede ist? Ich werde argumentieren, dass Ökonomisierung ein spezifisch moderner, jedoch nicht ein bloß neoliberal inspirierter Maßnahmenkatalog ist, in dessen Gefolge es etwa durch Strategien des New Public Management gilt, den Staat in ein modernes Dienstleistungsunternehmen zu verwandeln. Umgekehrt ist Neoliberalismus auch nicht das pars pro toto von Ökonomisierung. Entgegen gegenwärtig weit verbreiteter Ansätze, die eine Analyse von Ökonomisierung immer auf ein bestimmtes Politikfeld beziehen und so heuristisch notwendig eng führen, soll hier für die Metaebene politischen Argumentierens und Entscheidens gezeigt werden,

12

dass Ökonomisierung eine – mit Blick auf Akteure und Inhalte – polymorphe argumentative Strategie darstellt, die je nach konkreter Interessenlage in verschiedenen Erscheinungsformen auftritt. Ökonomisierung – egal, ob sie als Neoliberalisierung, als Privatisierung, als Deregulierung oder neuerdings im Zusammenhang mit der Euro-Krise als Austeritätspolitik auftritt – vermag kollektive Entscheidungsprozesse in ganz unterschiedlichen Politikfeldern zu entdifferenzieren, indem sie ein bestimmtes – nämlich ein ökonomisch-utilitaristisches – Präferenzsystem etabliert.

3. Der „Ökonomisierung“ auf der Spur: Text Mining zur Analyse großer ZeitungskorporaGregor Wiedemann, M.A. / Dr. Andreas Niekler

Zwar nimmt der Einsatz von Software zur Analyse großer Mengen qualitativer Daten in den Sozialwissenschaften allmählich zu. Einheitliche Vorgehensmodelle und Verfahren für unterschiedliche Analysebedürfnisse existieren jedoch bislang nicht „out of the box“, sondern müssen für den jeweiligen Analysekontext neu festgelegt werden. Das Projekt „Postdemokratie und Neoliberalismus“ steht dabei vor

besonderen Herausforderungen: eine enorm große Datengrundlage (3,5 Millionen Zeitungsartikel aus den Jahren 1949–2011) sowie die Operationalisierung recht abstrakter Konzepte.

In den Sozialwissenschaften bereits länger etablierte computergestützte Textanalyseverfahren betrachten i.d.R. lediglich lexikalische Einheiten. Um weiter auf eine semantische Analyseebene vorzudringen, kommen bei diesem Projekt statistische und musterbasierte Text Mining-Verfahren zu Einsatz, die nicht nur einen hypothesenprüfenden, sondern einen rekonstruktiven Blick auf die Daten ermöglichen. Ziel ist es, Erkenntnisse aus einer eher qualitativen Analyseperspektive mit einer quantifizierenden Perspektive zu verbinden. Der Beitrag stellt die zum Einsatz kommenden Verfahren vor: Term Extraction zum Aufbau eines „Wörterbuchs neoliberaler Sprache“, Topic Modelle zur Analyse diachroner Daten, Kookkurrenzanalysen zur Erschließung typischer Kontexte, Dokument-Clustering und -Klassifizierung.

Einen weiteren Aspekt stellt die Einbettung dieser Verfahren in intuitive Visualisierungen dar, welche geeignet sein müssen, die Resultate automatisierter Ergebnisse interpretierbar und nachvollziehbar darzustellen. Entsprechende Oberflächen werden entwickelt, um Dokumentmengen, Semantische Konzepte, Semantische Graphen, Statistische Kennzahlen darzustellen und zu verwalten. Weiterhin geben wir Hinweise,

13

wie solche Verfahren zur Beantwortung sozialwissenschaftlicher Fragestellungen Anwendung finden können.

2 Deliberative Kommunikation

VisArgue - Wann überzeugen Argumente?

eTraces

Manuelles Annotieren vs. Automatisierung - Methodologische Herausforderungen

PanelStrategien zur Argumentidentifikation

Inhalt

1. Deliberative Kommunikation

2. VisArgue - Wie und Wann überzeugen Argumente?

3. eTraces - Recherche und Analyse von Zitationsspuren und Wissenstransfer in sozialwissenschaftlichen Texten und deutschsprachiger Literatur

4. Manuelles Annotieren vs. Automatisierung

15

1. Deliberative KommunikationBMBF-Projekt Uni Konstanz, Prof. Dr. Katharina Holzinger

Die Auseinandersetzungen um den Ausbau des Stuttgarter Bahnhofs haben erneut deutlich gemacht, dass öffentliche Großprojekte in demokratischen Systemen eine kritische Zone zwischen Bürgerbeteiligung und der gesetzgebenden, vollziehenden oder kontrollierenden Tätigkeit von Staat und Kommunen darstellen. Öffentliche Großprojekte sind für politische Entscheidungsträger_innen zu einem schwer kalkulierbaren Risiko geworden. Seit Mitte der 1990er Jahre kommen deshalb vermehrt dialogbasierte, deliberative Verfahren zum Einsatz, die eine stärkere Beteiligung der Öffentlichkeit gewährleisten. Bisher fehlen jedoch geeignete Verfahren zur Messung der deliberativen Kommunikation. Es fehlt an Analyseverfahren, die eine automatisierte und zuverlässige Erfassung von deliberativer Kommunikation ermöglichen. Im Rahmen des vom BMBF finanzierten Projekts VisArgue soll ein Analyseverfahren entwickelt werden, das analytische Methoden aus der Informatik, der Linguistik und der Politikwissenschaft zusammenbringt, um Deliberation und Argumentation in der politischen Kommunikation zu analysieren. Erst mit einer solchen Messung der deliberativen Qualität politischer Kommunikation können konsensorientierte

Panel 2

16

deliberative Verfahren einer verlässlichen empirischen Prüfung unterzogen werden.

2. VisArgue - Wie und Wannüberzeugen Argumente?

Valentin Gold

VisArgue bringt Methoden aus der Informatik, der Linguistik und der Politikwissenschaft zusammen, um Deliberation und Argumentation in der politischen Kommunikation zu analysieren. Ziel ist, auch große Textmengen eingehend analysieren zu können, ohne ausschließlich auf aufwändige manuelle Verfahren angewiesen zu sein, die außerdem zugrundeliegende Muster wegen der großen Datenmengen nicht zuverlässig herausarbeiten können. Beispiele deliberativer Kommunikation, die analysiert werden sollen, sind Mediationsverfahren wie z.B. zu ”Stuttgart 21“, in denen durch Argumentation versucht wird, die jeweils andere Partei vom eigenen Standpunkt zu überzeugen. Es ist die zentrale Zielsetzung, ein automatisiertes textanalytisches Verfahren zu entwickeln, mit dem sich das Ausmaß der Deliberativität von Kommunikation messen lässt. Aus politikwissenschaftlicher Sicht geht es erstens darum, ein Konzept zu entwickeln, das als Maß für Deliberativität dienen kann und zweitens, eine

Methode zu finden, die der jetzigen aufwändigen manuellen Analyse von Dialogen und Texten Abhilfe schaffen kann. Es soll eine Analysesoftware entwickelt werden, die nicht nur computerlinguistische Methoden wie die der automatischen Korpusannotation mit einer ”tiefen“ linguistischen Verarbeitung der Texte durch linguistisch anspruchsvolle Parser kombiniert, sondern diese Analyse darüber hinaus gewinnbringend mit neuen Methoden aus der Informatik kombiniert, die eine visuelle Darstellung und Analyse der zugrundeliegenden Merkmale in großen Textmengen wie auch komplizierten linguistischen Strukturen erlaubt.

VisArgue strebt eine innovative Kombination von Analyseinstrumenten aus der Informatik, der Linguistik und der Politikwissenschaft an, die eine neue Einsicht in die dynamischen Prozesse deliberativer politischer Kommunikation liefern soll. Gesellschaftlich ist dieses Thema von hoher Relevanz, da öffentliche Großprojekte in Demokratien immer wieder zu Konflikten zwischen Staat und Bürger_innen führen. Die Durchführung von Großprojekten ist inzwischen für politische Entscheidungsträger_innen zu einem schwer kalkulierbaren Risiko geworden. VisArgue möchte zur Lösung solcher Probleme einen Beitrag leisten, indem es mit Visualisierungsmethoden auf einfache nachvollziehbare Art aufzeigt, wie deliberative Kommunikation und Prozesse des Argumentierens und Überzeugens in politischen Verhandlungen, wie Mediationsverfahren, funktionieren und wo

17

in der Kommunikation/Argumentation etwas schief geht, um so letztendlich eine effektivere Kommunikation zwischen Bürger_innen und politischen Entscheidungsträger_innen zu ermöglichen.

3. eTraces - Recherche und Analyse von Zitationsspuren und Wissenstransfer in sozialwissenschaftlichen Texten und deutschsprachiger LiteraturBMBF-Projekt, GESIS Leibniz Institut für Sozialwissenschaften, Dr. Brigitte Mathiak

Gegenstand des Vorhabens ist die Entwicklung einer generischen Architektur sowie infrastrukturfähiger Software-Werkzeuge für das Entdecken von wortwörtlichen und sinngemäßen Zitaten und deren zeitlichen Spuren und Vernetzungen in sozialwissenschaftlichen Texten seit 1950 und in der deutschsprachigen Romanliteratur zwischen 1500 und 1900.

Der grundlegende Fokus des Partners GESIS liegt auf der Recherche und Analyse der Genese sozialwissenschaftlicher

Grundkonzepte und deren systematischer Ausdifferenzierung in den Hauptströmungen der deutschen Nachkriegssoziologie. Neben diesen absichtlichen Zitationsspuren im Sinne einer Ursprungs- bzw. Ausbreitungsforschung werden insbesondere die nicht absichtlichen „Spuren“ in Form von Boilerplates genutzt, um unabhängig von diesem Antrag solche Textstellen aus dem Retrieval-System zu entfernen und dementsprechend die Qualität der Ergebnisse in dem Informationsangebot zu verbessern.

4. Manuelles Annotieren vs. AutomatisierungReinhard Messerschmidt, M.A.

Methodische Herausforderungen zur Erkennung spezifischer Argumentationsstrukturen bei der Sentiment-Analyse soziologischer Texte (eTraces) und Diskursanalyse massenmedialer Texte

Um der fortschreitenden Digitalisierung insbesondere auch sozialwissenschaftlicher Texte zukünftig zu begegnen, erscheint der Zugriff auf Zitationen, Paraphrasen und Referenzen innerhalb dieser als eine vielversprechende Perspektive. Der Zugang zu soziologischen Diskursen und ihrer

18

Verwobenheit untereinander könnte dadurch bereits bei der Recherche von Autor_innen erheblich beschleunigt sowie mit einem wesentlich höheren Informationsgehalt versehen werden.

Aus methodischer Sicht ergeben sich dabei jedoch Herausforderungen, welche größtenteils auch mit spezifischen inhaltlichen und sprachlichen Charakteristika sozialwissenschaftlicher Texte verbunden sind. Im Gegensatz bspw. zur Informatik lässt sich ein spürbares Defizit an Eindeutigkeit aufgrund einer starken Kontextabhängigkeit der für Sentiments relevanten Formulierungen beobachten. Darüber hinaus sind die Textstrukturen erheblich komplizierter, kaum einheitlich und je nach Paradigma mit eigenen Terminologien aufgeladen, deren Bedeutungen im Hinblick auf Sentiments durchaus bis hin zum Gegenteil variieren können.

Diesen Herausforderungen stellt sich das eTraces-Teilprojekt bei GESIS gegenwärtig anhand der Bearbeitung digitalisierter Korpora der Gesammelten Schriften Theodor W. Adornos und Max Webers und deren „Echo“ in den Tagungsbänden der DGS von 1910–2008 sowie weiteren soziologischen Zeitschriften. Momentan wurden hierfür über 2700 Codes in MaxQDA manuell vergeben (Stand 09/2012). Ziel ist es auf Basis dieser Codes die Vergabe weiterer Codes automatisiert fortzusetzen, um so zu statistischen Aussagen bzgl. der Rezeption verschiedener Autor_innen zu erhalten.

In der Präsentation werden daher neben der Projektstruktur die bis dahin zur Verfügung stehenden ersten Ergebnisse vorgestellt, wobei angesichts der zuvor beschriebenen Problematik schwerpunktmäßig auf methodische Aspekte eingegangen wird. Ergänzend werde ich auf die abgeschlossene manuelle Bearbeitung des Korpus für die Diskursanalyse meiner Dissertation (2900 Texte/ ~30000 Codes) eingehen, welche zwar unter anderem theoretischen Hintergrund erfolgte, aber durchaus ähnliche methodische Herausforderungen hinsichtlich zukünftiger potenzieller Automation in sich trägt. Abgesehen von der induktiven Entwicklung eines Kategorienschemas betrifft dies die kontextabhängige Kodierung von Aussageregelmäßigkeiten und die dazu notwendige Interpretation. In Zusammenführung beider Projekte sollen somit Chancen und Grenzen eines maschinellen Zugriffs aufgezeigt und diskutiert werden.

3 Polmine

Analyse von Diskursen in Social Media

PanelDiskursrekonstruktion in Politik und Social Media

Inhalt

1. PolMine

2. Analyse von Diskursen in Social Media

20

1.PolMineUniversität Duisburg-Essen, Jun.Prof. Dr. Andreas Blätte

Projektbeschreibung und Abstract zum Vortrag werden nachgereicht.

2. Analyse von Diskursen in Social Media

BMBF-Projektverbund, Prof. Dr. Neuberger

Durch Social Media-Anwendungen wie Twitter, Facebook und Weblogs haben sich die Möglichkeiten der öffentlichen Kommunikation erweitert. Journalistische „Gatekeeper“ sind im Internet nicht mehr die zentralen Vermittler von Themen und Meinungen. Prinzipiell können sich nun individuelle und kollektive Akteure aller Art als Sprecher_innen an öffentlichen Diskursen beteiligen. Dadurch verändern sich Prozesse und Strukturen der aktuellen Öffentlichkeit. Themenkarrieren und Meinungsbildung nehmen andere Verläufe als in den klassischen Medien. Zugleich bietet das Internet ein höheres Maß an Transparenz. Außerdem lassen sich digitale Texte in großem Umfang automatisiert auswerten. Das Ziel des Projektverbunds besteht darin, solche automatisierten Verfahren zu entwickeln und zu evaluieren, um sie künftig

Panel 3

21

komplementär bei der Beantwortung kommunikations- wissenschaftlicher Fragen zu Online-Diskursen einsetzen zu können.

Die quantitative Inhaltsanalyse als manuelle Standardmethode der Kommunikationswissenschaft ist sehr zeit- und kostenintensiv. Dies gilt nicht weniger für qualitative Verfahren der Diskursanalyse, die in anderen Sozialwissenschaften gebräuchlich sind. Um dieser Einschränkung zu begegnen, kooperieren im Rahmen des Verbundprojekts die beiden kommunikationswissenschaftlichen Partner mit Vertreter_innen aus zwei weiteren Fächern, die unterschiedliche methodische Ansätze einbringen. Die Wirtschaftsinformatik ermöglicht das Sammeln großer Datenmengen aus verschiedenen Social Media-Anwendungen (Datentracking) und ist in der Lage, diese Daten mittels automatisierter Netzwerkanalysen zu strukturieren. Die Computerlinguistik verfügt über Methoden zur Analyse von Sentiments und Diskursqualitäten. Darüber hinaus wird ein automatisiertes Verfahren der Inhaltsanalyse weiterentwickelt, das auf induktiver Textklassifikation basiert. Ergänzend und evaluierend werden manuelle Verfahren eingesetzt. Insgesamt soll es damit möglich werden, öffentliche Diskurse auf der Mikro-, Meso- und Makroebene vielfältig und vergleichend analysieren zu können.