Post on 19-Oct-2020
364
Wie algorithmische Prozesse
Öffentlichkeit strukturieren
Christian Stöcker & Konrad Lischka
Hochschule für Angewandte Wissenschaften Hamburg
& Bertelsmann Stiftung, Gütersloh
Algorithmische Prozesse strukturieren heute längst Öffentlichkeit, sei
es in Form der Ergebnislisten von Suchmaschinen oder der Sortierung
von Inhalten in den Newsfeeds sozialer Netzwerke. Diese neuen Ga-
tekeeper, die Informationen zugänglich machen aber auch nach Re-
levanz gewichten, wenden andere Kriterien an, als das etwa Journa-
listen bei der Auswahl und Gewichtung von Inhalten tun. Die Sortie-
rentscheidungen dieser Systeme basieren auf einer Vielzahl von Mess-
werten, von Verweildauer über Scrollgeschwindigkeit bis hin zu sozi-
alen Variablen. Gleichzeitig treten die Prinzipien der Sortiermechanis-
men in Wechselwirkung mit anderen Faktoren, die dafür sorgen, dass
nun Inhalte ein breites Publikum erreichen können, was noch vor
zehn bis zwanzig Jahren kaum möglich gewesen wäre. Die Debatte
über »Fake News« ist ein Aspekt dieser Entwicklung, die über Social
Bots und andere Werkzeuge digitaler Propaganda ein anderer, und
auch das Phänomen von Echokammern oder Filterblasen fällt in die-
sen Bereich. Der Beitrag umreißt wichtige Einflussfaktoren dieser
neuen digitalen Öffentlichkeiten, lotet ihre Bedeutung für den aktu-
ellen politischen Diskurs im Inland aus und zeigt kurz mögliche An-
sätze für Folgenabschätzung und Regulierung auf.
365
1. Der personalisierte Medienalltag
Wenn man nach einem möglichst einprägsamen Bild davon sucht,
wie die Digitalisierung unsere Öffentlichkeit in den vergangenen
zehn bis fünfzehn Jahren verändert hat, lohnt ein Blick auf Fotos aus
U-Bahnen irgendwo in der industrialisierten Welt. Rushhour-Bilder
aus dem Jahr 2006 zeigen verlässlich einen komplizierten Tanz, um
Kollisionen mit den Nachbarn zu vermeiden: Jeder zweite Fahrgast
hatte damals eine Zeitung in der Hand. Die unhandlichen Papiersta-
pel so zu halten, dass man dabei niemand anderem in die Quere kam,
war eine täglich trainierte Kunst.
Fotos von 2016, zehn Jahre später, zeigen ein völlig anderes Bild,
auch wenn die meisten Passagiere ihre Aufmerksamkeit noch immer
auf Medieninhalte richten: Egal ob in der U-Bahn von New York,
Berlin oder Tokio – die Menschen starren auf ihre Smartphones. Das
Jahr 2007, das Jahr, in dem Apple sein erstes iPhone vorstellte, mar-
kiert eine Veränderung von menschheitsgeschichtlicher Bedeutung:
Zwar gab es auch schon zuvor mobile Geräte, mit denen man E-Mails
abrufen und auf speziell angepasste Webseiten zugreifen konnte.
Erst mit dem iPhone aber war das neue Standardformat für die mo-
bile Interaktion mit dem neuen, digitalen Medienuniversum gefun-
den.
Das Smartphone ist der vorläufige Endpunkt einer Entwicklung, die
der britische Kulturwissenschaftler Raymond Williams schon 1974
unter dem Schlagwort mobile privatization vorausahnte, einem Be-
griff, der mit mobile Privatisierung nur unzureichend übersetzt ist.1
Williams bezeichnete mit dem Begriff eine in seinen Augen zu er-
wartende zunehmende Personalisierung sozialen Erlebens, die er
auf technische Entwicklungen zurückführte. Die Markteinführung
1 Williams, 1974
366
des Sony Walkman im Jahr 1979 gab ihm zum ersten Mal recht:
Plötzlich konnten einzelne Personen im öffentlichen Raum sich ein
eigenes akustisches Universum schaffen, ihren Alltag mit einem in-
dividuellen Soundtrack versehen.
Mit dem Smartphone ist die mobile Totalindividualisierung der me-
dialen und kommunikativen Umwelt nahezu jedes Einzelnen mitt-
lerweile weit fortgeschritten. Zwischen den Zeitungslesern in den U-
Bahnen von 2006 und den Smartphone-Nutzern in denen von 2016
besteht nämlich ein fundamentaler Unterschied: Bei den ersteren ist
auf einen Blick ersichtlich, was sie gerade tun. Bei den letzteren ist
es völlig unklar. Lesen Sie einen Artikel im Onlineangebot einer Zei-
tung oder Zeitschrift? Einen Fachartikel? Den Social-Media-Post ei-
nes Bekannten? Oder eines Prominenten? Eine berufliche oder pri-
vate E-Mail? Kaufen sie gerade ein? Suchen sie ein Hörbuch aus, ein
Musikstück oder eine Playlist zur Beschallung während der restli-
chen Bahnfahrt über Kopfhörer? Spielen sie ein Spiel? Diese Aufzäh-
lung ließe sich noch lange fortsetzen, und mit jedem weiteren Mo-
nat, der vergeht, kommen neue Nutzungsmöglichkeiten für die mo-
bilen Touch-Computer hinzu. Personalisiert sind die Medien- und
Kommunikationserfahrungen, die Smartphones ermöglichen, aber
noch auf eine andere, schon aus dem stationären World Wide Web
bekannte Weise: durch algorithmische Filterung. In Deutschland hat
sich für die Angebote, die solche Vermittlungs- und Filteraufgaben
übernehmen, im wissenschaftlichen Diskurs der Begriff Intermedi-
äre durchgesetzt.2
2 Hasebrink, Schmidt, & Merten, 2016; Schmidt, Petrich, Rolfs, Hasebrink, &
Merten, 2017
367
2. Intermediäre und ihre Rolle für die
Meinungsbildung
Forscher des Hamburger Hans-Bredow-Instituts fassen unter dem
Begriff Intermediäre sowohl Suchmaschinen wie Google oder Bing
als auch Videoportale wie Youtube, eher visuell orientierte Kommu-
nikationsplattformen wie Snapchat und Instagram, aber auch her-
kömmliche Instant Messenger wie WhatsApp zusammen. Zahlen
von TNS Infratest zufolge nutzen über 57 Prozent aller deutschen
Internetnutzer regelmäßig solche Intermediäre, um sich zu infor-
mieren – also nicht nur, um sich mit Freunden auszutauschen oder
unterhaltende Inhalte zu konsumieren. Suchmaschinen liegen dabei
mit fast 40 Prozent Nutzung vorne, gefolgt von sozialen Netzwerken
wie Facebook mit gut 30 Prozent und Videoportalen wie Youtube mit
gut 9 Prozent. Instant Messenger nutzen demnach 8,5 Prozent in in-
formierender Weise. Bei Letzteren spielen automatisierte Entschei-
dungsmechanismen derzeit in der Regel allerdings keine Rolle.
Bei den Intermediären selbst gibt es klare Marktführer, was die in-
formierende Nutzung betrifft: Google bei den Suchmaschinen (37,9
Prozent) und Facebook bei den sozialen Netzwerken (24,1 Prozent).
Zum Vergleich: Microsofts Suchmaschine Bing wird nur von zwei
Prozent der deutschen Onliner in informierender Weise genutzt,
Twitter von 2,1 Prozent. Insgesamt kommen über 54 Prozent all je-
ner, die sich im Internet informieren, regelmäßig über Suchmaschi-
nen oder soziale Medien mit den Inhalten eher traditioneller Infor-
mationsanbieter, wie den Webseiten von Tageszeitungen, Zeit-
schriften oder TV-Sendern, in Kontakt.
Beschränkt man die Betrachtung nicht auf die informierende Nut-
zung, ist das Bild noch deutlich klarer: Über 95 Prozent aller deut-
schen Onliner nutzen täglich mindestens einen Intermediär (zu al-
len möglichen Zwecken), dabei liegt Google mit weitem Abstand
368
(78,6 Prozent) vorn, gefolgt von Youtube (42 Prozent) und Facebook
(41,8 Prozent). Bei Instant-Messaging-Diensten, die für das Thema
dieses Textes eine untergeordnete Rolle spielen, dominiert die Fa-
cebook-Tochter WhatsApp: Fast 75 Prozent aller deutschen Onliner
nutzen den Dienst täglich.
Fragt man Nutzer, welche Angebote ihnen für ihre Informationssu-
che besonders wichtig sind, kommt man zu ähnlichen Ergebnissen.3
Hasebrink et al.4 kamen auf Basis dieser und anderer Daten zu dem
Schluss, dass »Meinungsbildungsprozesse ohne Intermediäre nicht
mehr denkbar«, diese gleichzeitig aber »nur ein Baustein im Prozess
der Meinungsbildung« seien. Auch das eigene soziale Umfeld »sowie
die Berichterstattung publizistischer Medien, denen Vertrauen ent-
gegengebracht wird«, seien »nach wie vor bedeutsam«.
Wie in nahezu jedem Bereich, den die Digitalisierung betrifft, gilt
allerdings auch hier: Die genannten Zahlen bilden nur einen Zu-
stand zu einem bestimmten Erhebungszeitpunkt im Jahr 2016 ab,
Nutzungszahlen und -weisen sind in einem Zustand permanenter
Veränderung begriffen. In den USA, in denen die Entwicklung in die-
sem Bereich stets ein wenig weiter fortgeschritten ist als hierzu-
lande, nutzten beispielsweise schon Anfang 2016 44 Prozent aller
Erwachsenen Facebook häufiger als »selten« als Nachrichtenquelle.5
Dies- wie jenseits des Atlantiks gilt zudem: Je jünger die befragte
Zielgruppe, desto höher der Anteil derer, die soziale Netzwerke, Vi-
deoplattformen und Suchmaschinen benutzen, um sich zu informie-
ren – und desto geringer der Anteil derer, die dazu auf klassische
Medien wie Tageszeitungen zurückgreifen.6
3 Ecke, 2016 4 Hasebrink et al., 2016 5 Gottfried & Shearer, 2016 6 Mitchell et al., 2016
369
Eine zweite wichtige Entwicklung ist die zunehmende Bedeutung
sozialer Netzwerke als Einstiegspunkt und Kontaktvermittler für an-
dere Inhalteanbieter. Das US-Unternehmen Parse.ly, das Website-
Betreibern Analysewerkzeuge anbietet und deshalb Zugriff auf die
Traffic-Statistiken Tausender Anbieter hat, wertet jährlich auch aus,
wie viele Besucher die erfassten Seiten woher bekommen. Ende 2012
lag Google als Traffic-Bringer für die erfassten Seiten mit einem An-
teil von über 40 Prozent demnach noch klar vorne, Facebooks Anteil
lag um die 10 Prozent. Mitte 2015 überholte der Anteil von Facebook
erstmals den von Google, beide lagen nun knapp unter 40 Prozent.
Seit etwa Mitte 2017 aber scheint sich dieser Trend erneut zu drehen
– Parse.ly zufolge liegt Facebook's Anteil Anfang 2018 nur noch bei
gut 20 Prozent, Googles dagegen bei etwa 45 Prozent.7
Wer solche Intermediäre, ausgenommen Messenger, nutzt, um sich
Informationen zu verschaffen, der begegnet algorithmischen Ent-
scheidungen immer und grundsätzlich.8 Die in einem Facebook-
Newsfeed angezeigten Beiträge, ob von Freunden des Nutzers oder
aber von Medienanbietern, deren Facebook-Seiten der Betreffende
folgt, werden nach bestimmten Kriterien automatisch sortiert. Bei
Suchmaschinen gilt das Gleiche: Wer eine Google-Suche startet, be-
kommt eine maschinell aufgrund bestimmter Kriterien sortierte Er-
gebnisliste zurück. Erstaunlich ist, dass viele Nutzer das offenbar bis
heute gar nicht wissen.
Als eine Forschergruppe aus Kalifornien 2015 Facebook-Nutzer be-
fragte, wie die Reihenfolge der in ihrem eigenen Newsfeed angezeig-
ten Beiträge wohl zustande komme, gingen über 62 Prozent der Be-
fragten davon aus, dass ihnen alle Beiträge ihrer Freunde und aller
7 Parse.ly, 2017 8 Gillespie, 2014
370
Seiten, denen sie in dem Netzwerk folgen, angezeigt würden. Man-
che hatten zwar den Verdacht, dass da irgendetwas im Gange war,
aber keine Vorstellung, was genau das sein könnte. Eine Teilnehme-
rin wird mit folgenden Worten zitiert: »Ich habe so 900 Freunde und
glaube, ich sehe nur so 30 davon in meinem Newsfeed. Ich weiß also,
dass da irgendetwas los ist, aber ich weiß nicht genau, was«.9
Zusammenfassend lässt sich also sagen: Für einen wachsenden Teil
der Bevölkerung in den Industrienationen sind Intermediäre, und
hier vor allem Suchmaschinen und soziale Netzwerke, ein wesentli-
cher Faktor bei der Gewinnung und Rezeption von Information, die
für gesellschaftliche Teilhabe relevant ist. Dies gilt umso mehr, je
jünger die betrachtete Zielgruppe ist. Zwar spielen klassische Medi-
enkanäle, insbesondere das Fernsehen, nach wie vor eine sehr wich-
tige Rolle. Der Trend der vergangenen Jahre zeigt jedoch klar, dass
Informationsvermittlung durch Intermediäre und damit durch algo-
rithmische Entscheidungsprozesse, sogenannte ADM10-Prozesse,
eine immer wichtigere Rolle spielt. Gleichzeitig sind sich viele Nut-
zer keinesfalls der Tatsache bewusst, dass hier algorithmische Ent-
scheidungsprozesse am Werk sind.
3. Die Relevanzkriterien der Intermediäre
Es lohnt in diesem Kontext, sich in Erinnerung zu rufen, dass
Google, Facebook und Co. ursprünglich nicht primär dafür konstru-
iert wurden, Medieninhalte von journalistischen Organisationen an
Konsumenten weiterzureichen. Sie benutzen technische Systeme,
um zu entscheiden, ob ein bestimmter Inhalt aus einem gewaltigen
Fundus für einen bestimmten Nutzer interessant, relevant sein
9 Eslami et al., 2016 10 ADM: automated decision making, zu Deutsch: automatisiertes Entscheiden
371
könnte oder nicht. Diese Systeme waren ursprünglich aber eher da-
rauf ausgelegt, etwa – im Falle von Suchmaschinen – Webseiten
auszuwerfen, die eine bestimmte Information enthalten, oder – im
Falle von sozialen Netzwerken – besonders interessante Wortmel-
dungen oder Fotos aus dem eigenen Freundeskreis prominent zu
platzieren. Sie sortieren Inhalte deshalb nach teilweise völlig ande-
ren Kriterien als beispielsweise die Redakteure einer Tageszeitung
oder eines Magazins das tun würden. Relevanz bedeutet für Google
etwas anderes als für Facebook und beide verstehen unter dem Be-
griff etwas anderes als die Redaktionen beispielsweise von SPIEGEL
ONLINE oder Sueddeutsche.de.
Drei Merkmale zeichnen Intermediäre im Sinne dieses Artikels aus11:
1. Sie vermitteln zwischen Dritten, aus deren Interaktion Öffent-
lichkeit entsteht. Dabei handelt es sich unter anderem um Pri-
vatpersonen, journalistisch-redaktionelle Medien, Unterneh-
men, Politik und Verwaltung.
2. Sie verbreiten und/oder erschließen von Dritten erstellte In-
halte. Dabei fügen Intermediäre diese Inhalte neu zusammen,
basierend auf eigenen Prinzipien zum Einschätzen der Rele-
vanz. Sie bestimmten die Bedingungen des Zugangs und die Me-
chanismen des Matchings.
3. Für die Relevanzeinschätzung und Auswahl angezeigter Inhalte
nutzen sie Prozesse algorithmischer Entscheidungsfindung.
Die Intermediäre erfassen zur Errechnung der herangezogenen Re-
levanzwerte für einzelne Inhalte eine Vielzahl von Variablen. Diese
Signale reichen von basalen Verhaltensmaßen wie der Scrollge-
schwindigkeit oder der Verweildauer auf einzelnen Seiten bis hin
11 in Anlehnung an Perset, 2010
372
zum Grad der Interaktion zwischen mehreren Nutzern eines sozia-
len Netzwerks.12 Wenn eine Person, mit der man bei Facebook schon
öfter kommuniziert hat, einen Inhalt postet, ist die Wahrscheinlich-
keit höher, dass man diesen Inhalt zu sehen bekommt, als bei einer
anderen Person, mit der man zwar theoretisch digital verknüpft ist,
praktisch aber nie in Kontakt tritt. Auch die Signale, die andere Nut-
zer – oft unwissentlich – aussenden, gehen in die Relevanzbewer-
tung mit ein, seien es Verlinkungen, Klicks auf Links oder den »Ge-
fällt mir«-Button, Weiterreichungen (sogenannte Shares) oder die
Anzahl der Kommentare, die ein bestimmter Inhalt hervorruft.
Das Optimierungsziel der Plattform-Designer ist in der Regel Enga-
gement, eine Art Hybridmaß für die Interaktionsintensität und -
dauer, die mit einem bestimmten Inhalteportfolio erreicht werden
können. Bei Youtube etwa wird der Empfehlungsalgorithmus, der
Nutzern Videoclips vorschlägt, die sie sich als nächstes ansehen
könnten, explizit auf die erwartete »Sehdauer« hin optimiert, wie ein
ehemaliger Youtube-Entwickler dem britischen »Guardian« anver-
traute.13 Dem Entwickler zufolge hat das negative Auswirkungen auf
die Qualität der empfohlenen Videos: »Der Empfehlungsalgorith-
mus optimiert nicht für das, was wahrhaftig, ausgewogen oder gut
für die Demokratie ist.«
Durch die permanente Live-Optimierung der Sortieralgorithmen
werden gleichzeitig permanent die Relevanzsignale beeinflusst, an-
hand derer die Systeme der Plattformbetreiber über die Platzierung
von Inhalten entscheiden. »Wir führen bei Facebook über Tausend
Experimente am Tag durch«, erklärte der für Facebook arbeitende
12 Backstrom, 2013; Constine, 2016; Google, 2016; Oremus, 2016; für einen
umfassenden Überblick siehe Lischka & Stöcker, 2017 13 Lewis, 2018
373
Eytan Bakshy schon 2014 in einem Blogeintrag.14 Manche dieser Ex-
perimente, so Bakshy, dienten der Optimierung kurzfristiger Ergeb-
nisse, während andere die Basis für langfristige Designentscheidun-
gen bildeten.
Ein gutes Beispiel ist die »People you may know«-Funktion bei Face-
book, die auf Basis von Netzwerkauswertungen mögliche Bekannte
des jeweiligen Nutzers als zusätzliche Kontakte vorschlägt. Als die-
ses Empfehlungssystem eingeführt wurde, verdoppelte sich auf ei-
nen Schlag die Anzahl der Facebook-internen Verknüpfungen, die
jeden Tag hinzukommen.15 Die innerhalb von Netzwerkplattformen
abgebildeten Beziehungsnetzwerke hängen also von den Angeboten
ab, die die Betreiber machen. Gleichzeitig gehen die so katalogisier-
ten Bekanntschaftsnetzwerke als Variablen in die Relevanzbestim-
mung ein. Wer zusätzliche »Freunde« hat, bekommt womöglich
auch andere Medieninhalte zu sehen. Design-Entscheidungen ver-
ändern also stets die Nutzererfahrung, was wiederum auf das Inter-
aktionsverhalten der Nutzer zurückwirkt. Die Betreiber messen Sig-
nale, die sie selbst ständig beeinflussen, und bauen auf diesen Mes-
sungen Entscheidungen auf, die für die neue, digitale Öffentlichkeit
weitreichende Auswirkungen haben können.
Einige Entwicklungen der jüngeren Zeit zeigen, dass auch die größ-
ten unter den neuen Aufmerksamkeitsverteilern, Facebook und
Google, ihre wachsende Verantwortung durchaus reflektieren. Nach
einer ausgiebigen Debatte über die Frage, welche Rolle über Face-
book verbreitete Falschmeldungen (Fake News) möglicherweise bei
der US-Präsidentschaftswahl 2016 gespielt haben könnten, äußerte
sich Facebook-Chef Mark Zuckerberg, der entsprechende Einfluss-
möglichkeiten seines Unternehmens zuvor stets verneint hatte, so:
14 Bakshy, 2014 15 Malik & Pfeffer, 2016
374
»Wir wollen keine Falschmeldungen auf Facebook. Unser Ziel ist es,
den Leuten die Inhalte zu zeigen, die ihnen am meisten bedeuten,
und die Leute wollen korrekte Nachrichten. Wir haben bereits Ar-
beiten initiiert, die es unserer Community erlauben werden, Falsch-
meldungen und Fake News zu markieren, und wir können hier noch
mehr tun«16.
Am 31. Januar 2017 folgte dieser unspezifischen Ankündigung eine
spezifische: Facebook wolle künftig »neue Signale berücksichtigen«,
um »authentische Inhalte besser identifizieren und einstufen zu
können«.17 Anfang 2018 verkündete Zuckerberg schließlich, man
werde den eigenen Algorithmus so abändern, dass wieder mehr In-
halte aus dem persönlichen Umfeld der jeweiligen Nutzer und weni-
ger Inhalte von professionellen Anbietern im Newsfeed höher plat-
ziert werden sollen.18 Konkret versprach Zuckerberg »weniger öf-
fentlichen Content von Firmen, Marken und Medien« und stattdes-
sen mehr »bedeutsame Interaktionen zwischen Leuten«.
Bei Facebook ist der Gedanke, dass die eigenen Algorithmen zur Bil-
dung der öffentlichen Meinung beitragen könnten, also durchaus
angekommen, und dies schlägt sich auch in Form technischer Ver-
änderungen nieder.
Bei Google gibt es eine entsprechende Qualitätskontrolle schon län-
ger. Evaluatoren, sogenannte Quality Rater, tippen regelmäßig vor-
gegebene Suchanfragen in die Suchmaske des Unternehmens ein
und beurteilen dann nach einem Kriterienkatalog die Qualität der
Ergebnisse. Das Handbuch für diese Evaluatoren umfasst auch einen
Abschnitt über sogenannte »your money or your life (YMYL) pages«
16 Zuckerberg, 2016 17 Lada, Li, & Ding, 2017 18 Zuckerberg, 2018
375
(Geld-oder-Leben-Seiten).19 Diese spezielle Kategorie von Seiten
umfasst dem Handbuch für Evaluatoren zufolge solche, die »sich auf
die künftige Zufriedenheit, die Gesundheit oder finanzielle Stabili-
tät der Nutzer auswirken könnten«. Neben Seiten mit Gesundheits-
oder Finanzinformationen schließt diese Kategorie dem Handbuch
zufolge explizit auch solche mit Nachrichteninhalten ein: »Websei-
ten, die wichtig sind, um eine informierte Bürgerschaft zu erhalten,
einschließlich Informationen über Regierungsprozesse, Personen
und Gesetze auf der lokalen, bundesstaatlichen oder der nationalen
Ebene«, sowie »Nachrichten über wichtige Themen wie internatio-
nale Ereignisse, Wirtschaft, Politik, Wissenschaft und Technologie«.
Die Evaluatoren werden aufgefordert, »ihre Urteilskraft und ihr Wis-
sen über ihre Region« zum Einsatz zu bringen.
Die großen Intermediäre richten ihr Verhalten also bereits jetzt
nach der Annahme aus, dass die Ergebnisse ihrer Systeme und Pro-
zesse Einfluss auf die Information der Öffentlichkeit haben. Sie sind
dabei aber, was eine Vielzahl von Beispielen zeigt, nicht immer er-
folgreich und tragen so auch zur effektiven Verbreitung von Propa-
ganda und Desinformation bei.20
Die Gestaltungsprinzipien dieser Intermediäre führen zu einem
Strukturwandel der Öffentlichkeit. Zentrale Aspekte sind:
– Entkopplung von Veröffentlichung und Reichweite: Jeder kann
veröffentlichen. Aber nicht jeder findet ein Publikum. Aufmerk-
samkeit entsteht erst durch das Zusammenwirken von Men-
schen und ADM-Prozessen.
– Entbündelung von Publikationen: Reichweite wird auf Beitrags-
ebene ausgehandelt.
19 Google, 2017 20 siehe z.B. Lewis, 2018; Silverman, 2016; Stöcker, 2016
376
– Personalisierung: Nutzer erfahren mehr über ihre Interessenge-
biete.
– Größerer Einfluss des Publikums auf Reichweiten: Nutzerreak-
tionen beeinflussen ADM-Prozess insgesamt und die Reichweite
jedes Beitrags.
– Zentralisierung der Auswahlinstanzen: Es gibt bei Intermediä-
ren eine deutlich geringere Vielfalt als bei redaktionell kuratier-
ten Medien.
– Wechselwirkung zwischen redaktioneller und maschineller Ku-
ratierung: Redaktionell kuratierte Medien verbreiten Inhalte
über Intermediäre und nutzen Reaktionen in diesen als Signal
für Publikumsinteresse.
Nutzerreaktionen und algorithmische Prozessen bestimmen also
gemeinsam die Verteilung von Aufmerksamkeit über Intermediäre.
Unsere Hypothese ist, dass Nutzerreaktionen und ADM-Prozesse
sich dabei nicht eindeutig in eine lineare Kausalkette bringen lassen.
Vielmehr entstehen im digitalen Informationsraum komplexe
Wechselwirkungen. Einige davon wollen wir in den folgenden Ab-
schnitten kurz skizzieren.
4. Wechselwirkungen zwischen ADM-
Systemen und anderen Faktoren
4.1. Psychologische Faktoren und
Gestaltungsprinzipien der Intermediäre
Öffentlichkeit entsteht vermittelt durch solche digitalen Intermedi-
äre als Ergebnis einer komplexen Wechselwirkung unterschiedlicher
Faktoren. Auf der individuellen Ebene spielen bestimmte Nutzungs-
weisen eine Rolle, die wiederum durch die Gestaltung der jeweiligen
377
Angebote begünstigt werden. So werden Medieninhalte etwa häufig
nur auf Basis ihrer Überschriften und Anreißertexte weitergereicht,
ohne dass der Weiterreichende sie tatsächlich vollständig rezipiert
hat. Zu diesem Ergebnis kommt etwa eine Studie zur Verbreitung
von Artikeln der fünf Medien BBC, CNN, Fox News, New York Times
und Huffington Post auf Twitter in einem Sommermonat 2015. Die
Forscher analysierten, wann und wie oft Verweise auf Artikel dieser
Medien auf Twitter herumgereicht wurden und ob die dabei verwen-
deten URLs des Verkürzungsdienstleisters bit.ly tatsächlich aufge-
rufen wurden.21 Die statistische Auswertung legt eine Interpretation
nahe: Was geteilt wird, wurde nicht unbedingt gelesen. Die Autoren
bilanzieren: »Es scheint wesentlich mehr Nischeninhalte zu geben,
die Menschen auf Twitter weiterzureichen bereit sind, als Inhalte,
auf die sie tatsächlich zu klicken bereit sind.«
Zudem werden stark emotionalisierende Inhalte besonders häufig
geteilt und intensiv diskutiert. Eine Studie von Stieglitz und Dang-
Xuan22 auf Basis von Beiträgen und Kommentaren auf den Facebook-
Seiten von bundesdeutschen Parteien im Jahr 2011 zeigt: Emotional
negativ aufgeladene Beiträge provozieren mehr Reaktionen als nicht
emotional aufgeladene. Die Software-Textanalyse zählte die Häu-
figkeiten von Worten mit negativer (z. B. »enttäuscht«) und positi-
ver (z. B. »Hurra!«) Konnotation und bewertete die Intensität der ge-
äußerten Emotion auf einer Skala von 1 bis 5. Analysiert wurden
5.636 Beiträge und 36.397 Kommentare von 10.438 Nutzern auf den
Facebook-Seiten von politischen Parteien zwischen März und Sep-
tember 2011 (CDU, CSU, SPD, FDP, B90/Die Grünen, Die Linke, Pi-
ratenpartei). Ein Kernergebnis: Negativität erzielt mehr Reaktionen.
21 Gabielkov et al., 2016 22 Stieglitz und Dang-Xuan, 2012
378
Je negativer Facebook-Beiträge (gemessen an Häufigkeit und Inten-
sität genutzter Begriffe) formuliert sind, desto mehr Kommentare
erhalten sie. Bei Beiträgen mit positiven Begriffen gibt es keinen sol-
chen Zusammenhang.
Den Zusammenhang zwischen geäußerter Emotion und Reaktionen
auf diese haben dieselben Forscher auch bei einem anderen sozialen
Netzwerk (Twitter) untersucht und zum Teil bestätigt.23 Der Unter-
schied bei dieser Analyse zwischen den Reaktionen auf positiv und
negativ formulierte Beiträge ist nicht so groß wie bei der Facebook-
Untersuchung. Als Reaktion werteten die Forscher auf Twitter aller-
dings nicht die Anzahl der Kommentare zu einem Beitrag, sondern
die Anzahl der Retweets. Sie analysierten 165.000 Tweets der offizi-
ellen Parteikonten von CDU, CSU, SPD, FDP, B90/Die Grünen, Die
Linke und Piratenpartei im Umfeld der Landtagswahlen 2011 in Ber-
lin, Baden-Württemberg und Rheinland-Pfalz mit derselben Me-
thode wie beim Facebook-Datensatz. Dies ergab zwei Erkenntnisse:
Je stärker emotional aufgeladen ein Tweet formuliert ist, desto häu-
figer wird er per Retweet weiterverbreitet. Dieser Effekt ist bei geäu-
ßerter negativer Stimmung zum Teil (Sample zur Berliner Wahl,
nicht Baden-Württemberg und Rheinland-Pfalz) stärker als bei ge-
äußerter positiver. Je stärker emotional aufgeladen ein Tweet for-
muliert ist, desto weniger Zeit vergeht zudem bis zur ersten Weiter-
verbreitung per Retweet. Hier ist kein Zusammenhang zwischen der
Art der geäußerten Stimmung und der Zeitspanne feststellbar.
Die Facebook-Untersuchung von Stieglitz und Dang-Xuan24 zeigt ei-
nen weiteren Effekt: Emotionale Beiträge werden ähnlich emotional
aufgeladen kommentiert. Je negativer ein Beitrag formuliert ist,
23 Stieglitz & Dang-Xuan, 2013 24 Stieglitz & Dang-Xuan, 2012
379
desto negativer sind die Reaktionen. Und je positiver ein Beitrag ge-
schrieben ist, desto positiver lesen sich die Kommentare dazu. Stieg-
litz und Dang-Xuan selbst leiten daraus ab: »Unsere Ergebnisse deu-
ten darauf hin, dass sowohl positive als auch negative Emotionen in
die nachfolgende Diskussion hineindiffundieren.«
Derartige Signale gehen in die algorithmische Sortierung von Inhal-
ten ein und erhöhen so die Wahrscheinlichkeit, dass besonders emo-
tionalisierende Inhalte ein noch breiteres Publikum erreichen. Aus
der Psychologie bekannte kognitive Verzerrungen wie die Verfüg-
barkeitsheuristik25 treten vermutlich in Wechselwirkung mit solchen
Mechanismen: Im Zweifel wird das Weltbild einzelner Nutzer maß-
geblich von Inhalten bestimmt, die weder sie selbst noch derjenige,
dessen Weiterleitungsaktion ihnen diese Inhalte verfügbar gemacht
hat, tatsächlich vollständig rezipiert haben.
Solche Verzerrungen und ohne großen kognitiven Aufwand durch-
geführten Aktionen werden begünstigt von den Gestaltungszielen
und -prinzipien der Intermediäre: Als Leitwert gilt eine möglichst
ausgeprägte Einfachheit für alle angestrebten Aktivitäten. Hinder-
nisse, die zu kognitiver Verlangsamung führen könnten, werden
identifiziert und nach Möglichkeit beseitigt. Der im Silicon Valley
sehr gefragte Usability-Forscher Nir Eyal etwa empfiehlt in einem
Buch zum Thema explizit, kognitive Heuristiken, die eigentlich Ver-
zerrungen darstellen, wie Anker- oder Framingeffekte26 gezielt aus-
zunutzen, um bestimmte Verhaltensweisen besonders einfach und
effektiv auszulösen.27
Die Leichtigkeit der Interaktion begünstigt also absichtlich solche
kognitiven Verzerrungen, die in der Sozialpsychologie schon seit
25 siehe Kahneman, 2012 26 siehe auch Kahneman, 2012 27 Eyal, 2014
380
vielen Jahren bekannt sind. Ein gutes Beispiel ist die Verfügbarkeits-
heuristik: Wenn ein Ereignis oder eine Erinnerung sich leicht aus
dem Gedächtnis abrufen lässt, wird es oder sie als besonders wahr-
scheinlich oder häufig eingeschätzt. Die Konsequenz: Nicht gele-
sene, aber aufgrund einer Überschrift besonders häufig weiterge-
reichte Medieninhalte begegnen Nutzern eines sozialen Netzwerks
oft – und werden deshalb im Nachhinein als »wahr« oder »wahr-
scheinlich« erinnert. Das gilt auch dann, wenn der Text selbst wo-
möglich klarmachen würde, dass die Überschrift eine groteske Über-
treibung oder schlicht irreführend ist.28
Auch eine Reihe anderer psychologischer Faktoren spielt hier eine
wichtige Rolle, etwa die Tatsache, dass Nutzer gerade soziale Me-
dien nicht nur zu informativen Zwecken, sondern auch als Werkzeug
des Identitätsmanagements, in einem weiten Verständnis definiert
als »Arbeit an der eigenen Identität«, einsetzen: Manche Medienin-
halte werden womöglich nur weitergereicht, um die eigene Zugehö-
rigkeit etwa zu einem politischen Lager zu demonstrieren.29
4.2. Technische Manipulationen Dritter
Externe Akteure schalten sich mit automatisierten Manipulations-
mechanismen, zum Beispiel sogenannten Social Bots - automati-
sierten Systemen, die menschliches Nutzerverhalten vortäuschen -
in die hier diskutierten Prozesse ein und sorgen aus kommerzieller
oder propagandistischer Motivation heraus dafür, dass bestimmte
Inhalte und Konzepte durch ADM-Prozesse mehr Aufmerksamkeit
bekommen, als das ohne sie der Fall wäre.
Einer Studie zufolge waren etwa im Umfeld der US-Präsidentschafts-
wahlen bei Twitter 400.000 solcher Bots im Einsatz, die etwa ein
28 siehe (Tversky & Kahneman, 1974 29 siehe z. B. Schmidt, 2009
381
Fünftel der gesamten Konversation über die TV-Debatten zwischen
den Kandidaten bestritten.30 Es ist unklar, inwieweit solche automa-
tisierten Systeme Menschen tatsächlich in ihrer Wahlentscheidung
beeinflussen können. Klar ist dagegen, dass die von ihnen produ-
zierten Signale – Klicks, Likes, Shares – in die Relevanzbeurteilun-
gen der algorithmischen Entscheidungssysteme eingehen. Bots kön-
nen also einen Artikel so interessant erscheinen lassen, dass der Al-
gorithmus ihn menschlichen Nutzern zeigt.
Solche automatisierten Propagandasysteme sind gerade bei poli-
tisch umkämpften Themen massiv im Einsatz. Es erscheint daher
plausibel, dass Bots, die sich beispielsweise gemäß einem von He-
gelich und Janetzko31 beschriebenen Funktionsprinzip namens
»Nimm einen populären Tweet und hänge folgende Hashtags an«
verhalten, Desinformationsartikeln über Intermediäre massive zu-
sätzliche Verbreitung verschaffen könnten. Das wiederum könnte
sich auf die Einstufung der entsprechenden Links oder Posts durch
die ADM-Systeme der Intermediäre auswirken. Die Aktivitäten der
Sortieralgorithmen und der algorithmisch betriebenen Manipulati-
ons-Bots könnten auf diese Weise also in eine Spirale gegenseitiger
Verstärkung geraten. Das so entstehende Bild der digitalen Öffent-
lichkeit hätte dann mit einem Abbild der tatsächlichen Verhältnisse
nur noch wenig gemein. Gemessene Reichweite muss also nicht im-
mer gleich realer Reichweite sein.
30 Bessi & Ferrara, 2016 31 Hegelich & Janetzko, 2016
382
4.3. Gesellschaftliche Polarisierung und politisches
System
Schließlich führt das Zusammenspiel individueller Nutzerentschei-
dungen, algorithmischer Sortiersysteme, technischer Manipulatio-
nen von außerhalb und psychologischer Faktoren zumindest bei
Teilen der Nutzerschaft zu einer verstärkten Polarisierung sowohl
im Hinblick auf wahrgenommene Inhalte als auch im Hinblick auf
gesellschaftliche und politische Einstellungen. ADM-Prozesse sind
in diesem komplexen Gefüge nur ein Faktor, aber einer, der in Wech-
selwirkung mit allen übrigen Faktoren steht und somit als Verstär-
ker sowohl menschlich-kognitiver Unzulänglichkeiten als auch ge-
zielter technischer Manipulationen gelten kann.
Eine Forschergruppe aus Wissenschaftlern vom italienischen Insti-
tute for Advanced Study in Lucca und Kollegen von anderen Einrich-
tungen haben die Ausbreitung von Gerüchten, insbesondere Ver-
schwörungstheorien, in sozialen Netzwerken untersucht. Das Team
kommt über die Auswertung von Facebook-Daten zu dem Schluss,
Nutzer hätten die Tendenz, sich dort in Interessengemeinschaften
zu sammeln, sodass sie vor allem entsprechende Inhalte zu sehen
bekämen. Das führe zu »Bestätigungsverzerrung, Spaltung und Po-
larisierung«. Im Kontext sozialer Medien führe der sogenannte con-
firmation bias, eine weitere aus der Psychologie bekannte kognitive
Verzerrung, »zur Verbreitung von verzerrten Narrativen, angefacht
von unbestätigten Gerüchten, Misstrauen und Paranoia«, so Michela
Del Vicario et al.32
In einer weiteren Studie zeigten einige an der eben zitierten Studie
beteiligte Forscher zudem, dass gerade Verschwörungstheoretiker
32 del Vicario et al., 2016
383
auf scheinbar paradoxe Weise reagieren, wenn sie mit Informatio-
nen konfrontiert werden, die ihre Ansichten infrage stellen könn-
ten: Sie ignorieren Fakten, die der Verschwörungstheorie widerspre-
chen – oder sie wenden sich sogar noch stärker der Echokammer
Gleichgesinnter zu.33 Die Arbeiten der italienischen Forscher legen
nicht zuletzt eins nahe: Die Inhalte, die Menschen in sozialen Netz-
werken teilen, spielen eine wichtige Rolle für das Identitätsmanage-
ment.34 Man teilt, was zum eigenen Weltbild passt.35
Eine wichtige Frage in diesem Zusammenhang betrifft die Konfron-
tation mit den eigenen Einstellungen entsprechenden oder wider-
sprechenden Informationen, insbesondere bei bereits radikalisier-
ten Personen. Magdalena Wojcieszak36 kam in einer Studie mit Teil-
nehmern US-amerikanischer Onlineforen für Neonazis zu dem
Schluss, dass die Nutzer solcher Plattformen die Angaben, die sie
dort vorfänden, verwenden, um »Gegenargumente zu entkräften
und Erklärungen zu generieren, die ihre eigenen Vorannahmen stär-
ken«.
Die Kommunikationswissenschaftlerin zitiert ein anonymes Mit-
glied eines der untersuchten rechtsextremen Foren mit dem Satz:
»Wir existieren in einer Welt voller Einflüsse, aber wir sind überwie-
gend immun dagegen, weil wir uns selbst fortgebildet haben.« Unter
Fortbildung wird dort etwa das Sammeln von Argumenten für die
Leugnung des Holocaust oder die Überlegenheit der »weißen Rasse«
verstanden. Zumindest bei bereits teilweise radikalisierten Perso-
nen kann die Verfügbarkeit extremistisch geprägter Kommunikati-
onsumgebungen – seien es Internetforen oder Facebook-Gruppen –
33 Zollo et al., 2015 34 siehe z. B. Schmidt, 2016 35 siehe auch An, Quercia, & Crowcroft, 2013 36 Wojcieszak, 2010
384
also offenbar zu einer weiteren Verstärkung der Radikalisierung füh-
ren.
Insgesamt zeigen sich klare Anhaltspunkte für eine komplexe Wech-
selwirkung zwischen Intermediären, ADM-Systemen, gewachsenem
und diversifiziertem Medienangebot, politischer Polarisierung und
dem politischen System eines Landes, wie etwa Borgesius et al.37 be-
tonen: »Die Wirkung personalisierter Nachrichteninhalte auf Pola-
risierung hängt vom polistischen System ab.« So bilanzieren die Au-
toren einer Studie aus den Niederlanden, in denen es kein Zweipar-
teiensystem gibt, dass sich dort keine eindeutigen Bezüge zwischen
zur eigenen politischen Einstellung kongruenter Information und
Polarisierung herstellen lasse. Mit anderen Worten: Ob jemand ext-
remere politische Positionen vertritt, hängt in den Niederlanden
nicht davon ab, ob er selektiv Medieninhalten mit einer bestimmten
politischen Ausrichtung ausgesetzt wird.38
5. Fazit und Diskussion
Intermediäre, die sich algorithmischer Sortiersysteme für Medien-
inhalte bedienen, sind für die Meinungsbildung substanzieller Teile
der Bevölkerung heute bereits von großer Bedeutung, und diese Be-
deutung wird vermutlich weiter wachsen (siehe Abschnitt 2). Die Re-
levanzsignale, über die Intermediäre wie Google, Facebook oder Y-
outube aus Wettbewerbs- und anderen Gründen nur ungern detail-
lierte Auskünfte geben, sind potenziell problematisch. Zunächst
einmal deshalb, weil die Betreiber der entsprechenden Plattformen
sie selbst ununterbrochen verändern: ADM-Systeme wie die von
Google oder Facebook sind in einem permanenten Wandel begriffen,
37 Borgesius et al., 2016 38 Trilling, van Klingeren & Tsfati, 2016
385
an nahezu jedem Aspekt der Benutzeroberfläche und anderen Eigen-
schaften der Plattformen wird experimentiert und gearbeitet, um
bestimmte Effekte wie zum Beispiel Interaktionsintensität zu erzie-
len. Jede dieser Veränderungen beeinflusst ihrerseits potenziell die
Relevanzsignale, die die Plattformen selbst messen (siehe Abschnitt
3).
Ein weiteres Problem der von den Plattformbetreibern erfassten Sig-
nale hat mit der Art von Interaktion zu tun, für die solche Plattfor-
men optimiert sind: Ein zentrales Credo der Gestaltung lautet, dass
Interaktionen möglichst einfach und mühelos sein sollten, um ihre
Wahrscheinlichkeit zu maximieren. Auf den »Gefällt mir«-Button o-
der einen Link zu klicken, erfordert keinerlei kognitive Anstrengung.
Und von dieser Anstrengungslosigkeit machen viele Nutzer augen-
scheinlich intensiv Gebrauch, was wiederum mit hohen Reichweiten
für besonders emotionale Inhalte einhergeht (siehe Abschnitt 4.1).
Ein derartig emotionalisierter Umgang mit Nachrichteninhalten
kann zu einer stärkeren gesellschaftlichen Polarisierung führen
(siehe Abschnitt 4.3). Insbesondere in den USA gibt es für diese
These auch erste empirische Belege. Allerdings scheinen solche Po-
larisierungseffekte von einer Reihe weiterer Faktoren abzuhängen,
etwa dem Wahlsystem eines Landes: Gesellschaften mit Mehrheits-
wahlrecht wie die der USA sind womöglich anfälliger für extreme po-
litische Polarisierung als solche mit Verhältniswahlrecht, in denen
wechselnde Koalitionen regieren und ein Mehrparteiensystem insti-
tutionalisiert Interessenausgleich begünstigt. Vermutlich besteht
auch eine Wechselwirkung zwischen bereits erfolgter Polarisierung
und den Ergebnissen algorithmischer Sortierung von Medieninhal-
ten. Eine Studie zeigt zum Beispiel, dass sich Anhänger von Ver-
schwörungstheorien bei Facebook im Lauf der Zeit immer stärker
386
der eigenen Verschwörungstheoretiker-Community zuwenden.39 In-
tensiviert wird dieser Prozess womöglich durch einen Algorithmus,
der ihnen entsprechende Inhalte immer häufiger vor Augen führt.
Zusammenfassend lässt sich sagen, dass die Relevanzbewertungen
algorithmischer Sortiersysteme für Medieninhalte nicht notwendi-
gerweise gesellschaftlich wünschenswerten Kriterien folgen: Leit-
werte wie Orientierung an der Wahrheit oder gesellschaftliche In-
tegration spielen keine Rolle (siehe Abschnitt 3). Primär zählt die
Optimierung der Interaktionswahrscheinlichkeit und der Verweil-
dauer auf der jeweiligen Plattform. Interessierte Parteien, denen an
gezielter Desinformation gelegen ist, können diese Mechanismen
für ihre Zwecke ausnutzen: Eine kreative, zielgerichtete Lüge kann
im Zweifel emotional aktivierender und damit innerhalb solcher
Systeme erfolgreicher und damit reichweitenstärker sein als die
langweilige Wahrheit.
Im Zentrum aller komplexen Wechselwirkungen digitaler Öffent-
lichkeit steht die algorithmische Sortierung von Inhalten. Hier müs-
sen Lösungen ansetzen. Ein erstes, vergleichsweises einfach zu er-
reichendes Ziel ist die Sensibilisierung der Nutzer für die genannten
Prozesse und Mechanismen. Studien zeigen, dass Nutzer sozialer
Netzwerkplattformen sich nicht einmal der bloßen Existenz eines
Sortieralgorithmus bewusst sind, geschweige denn seiner Funkti-
onsweise. Hier könnten Bildung und Fortbildung ebenso ansetzen
wie bei einer verstärkten Sensibilisierung für und Immunisierung
gegen Desinformationsversuche, etwa mithilfe einer faktenorien-
tierten Aufklärung.
39 Zollo et al., 2015
387
Über im Zweifel noch effektivere Interventionsmöglichkeiten verfü-
gen die Plattformbetreiber selbst: zum Beispiel, indem sie be-
stimmte Leitwerte wie Angemessenheit, Verantwortlichkeit und
Kompetenz, etwa bei der Entwicklung und Gestaltung der entspre-
chenden Systeme, stärker verankern. Mittelfristiges Ziel könnte eine
branchenweite Professionsethik für Entwickler algorithmischer Ent-
scheidungssysteme sein.
Aber auch Fachleute, die nicht für die Plattformbetreiber selbst ar-
beiten, könnten und sollten in die Lage versetzt werden, die Auswir-
kungen der dort getroffenen Entscheidungen wissenschaftlich zu
begleiten und zu erforschen. Derzeit ist der Zugriff auf dafür not-
wendige Daten, die den Betreibern selbst in gewaltiger Zahl vorlie-
gen, für externe Wissenschaftler oder Regulierungsbehörden müh-
selig bis unmöglich. Sowohl die Designentscheidungen der Platt-
formbetreiber als auch ihre Auswirkungen für individuelle Nutzer
sind weitgehend intransparent.
Systematische Verzerrungen etwa in einer bestimmten politischen
Richtung ließen sich auf Basis der derzeit verfügbaren Daten kaum
erkennen. Mehr Transparenz durch eine Kombination aus freiwilli-
gen Selbstverpflichtungen und nötigenfalls auch regulatorischen
Maßnahmen könnte unabhängiges Wissen über die tatsächlichen
gesellschaftlichen Auswirkungen algorithmischer Sortierung von
Medieninhalten ermöglichen und mögliche Gefahren frühzeitig er-
kennbar machen.
Eine bessere Beforschbarkeit würde eine sachliche und lösungsori-
entierte Debatte fördern und könnte neue Lösungsansätze aufzei-
gen. Eine solche Entwicklung könnte die teilhabeförderliche Gestal-
tung und Wirkung algorithmischer Systeme stärken. Das würde eine
differenzierte Betrachtung algorithmischer Prozesse fördern und
388
könnte das Vertrauen in die zum Nutzen der gesamten Gesellschaft
gestalteten Systeme stärken.
Quellen
An, J., Quercia, D., & Crowcroft, J. (2013). Fragmented social media: a look
into selective exposure to political news. Proceedings of the 22nd Interna-
tional Conference on World Wide Web (S. 51–52). ACM.
Backstrom, L. (2013, August 6). News Feed FYI: A Window Into News Feed.
http://s.fhg.de/wH6, abgerufen am 01.03.2017
Bakshy, E. (2014, April 3). Big experiments: Big data’s friend for making de-
cisions. http://s.fhg.de/NgH
Bessi, A., & Ferrara, E. (2016). Social bots distort the 2016 US Presidential
election online discussion. First Monday, 21 (11).
Constine, J. (2016). How Facebook News Feed Works. http://s.fhg.de/Eqw,
abgerufen am 01.03.2017
Ecke, O. (2016). Wie häufig und wofür werden Intermediäre genutzt?
http://s.fhg.de/aiQ
Eslami, M., Karahalios, K., Sandvig, C., Vaccaro, K., Rickman, A., Hamilton,
K., & Kirlik, A. (2016). First I »Like« It, then I Hide It: Folk Theories of Social
Feeds. Proceedings of the 2016 CHI Conference on Human Factors in Computing
Systems (S. 2371–2382). New York, NY, USA: ACM.
Eyal, N. (2014). Hooked: how to build habit-forming products. New York, New
York: Portfolio/Penguin.
Gabielkov, M., Ramachandran, A., Chaintreau, A., & Legout, A. (2016). So-
cial Clicks: What and Who Gets Read on Twitter? ACM SIGMETRICS/IFIP
Performance 2016.
Gillespie, T. (2014). The Relevance of Algorithms. In: T. Gillespie, P. Bocz-
kowski, & K. Foot (Hrsg.), Essays on Communication, Materiality, and Society.
(S. 167–194). Cambridge.
Google. (2016). Blitzschnelle Suche. http://s.fhg.de/BLU
Google. (2017, March 14). General Guidelines. http://s.fhg.de/9rS
389
Gottfried, J., & Shearer, E. (2016). News use across social media platforms
2016. Pew Research Center, 26. http://s.fhg.de/i8h
Hasebrink, U., Schmidt, J.-H., & Merten, L. (2016). Wie fließen Intermediäre
in die Meinungsbildung ein?
Hegelich, S., & Janetzko, D. (2016, March 31). Are Social Bots on Twitter
Political Actors? Empirical Evidence from a Ukrainian Social Botnet.
Kahneman, D. (2012). Schnelles Denken, langsames Denken. Siedler Verlag.
Lada, A., Li, J., & Ding, S. (2017, January 31). News Feed FYI: New Signals to
Show You More Authentic and Timely Stories. http://s.fhg.de/QZ5
Lewis, P. (2018). »Fiction is outperforming reality«: how YouTube’s algo-
rithm distorts truth. The Guardian Online. http://s.fhg.de/QkV
Lischka, K., & Stöcker, C. (2017). Digitale Öffentlichkeit (Impuls Algorith-
menethik No. #3). Bertelsmann Stiftung.
Mitchell, A., Gottfried, J., Barthel, M., & Shearer, E. (2016). The Modern
News Consumer: Pathways to News. http://s.fhg.de/5cF
Oremus, W. (2016, January 3). Who Controls Your Facebook Feed. Slate.
http://s.fhg.de/zeP
Parse.ly. (2017). External Referral Traffic to Parse.ly’s Customers. 2. Februar
2018, http://s.fhg.de/4G8
Perset, K. (2010). The economic and social role of Internet intermediaries.
OECD Digital Economy Papers 171.
Schmidt, J. (2009). Das neue Netz: Merkmale, Praktiken und Folgen des Web
2.0. Konstanz: UVK Verlagsgesellschaft.
Schmidt, J.-H. (2016). Ethik des Internets. In P. D. J. Heesen (Hrsg.), Hand-
buch Medien-und Informationsethik (S. 283–292). Springer.
Schmidt, J.-H., Petrich, I., Rolfs, A., Hasebrink, U., & Merten, L. (2017). Zur
Relevanz von Online-Intermediären für die Meinungsbildung. Arbeitspa-
piere des Hans-Bredow-Instituts Nr. 40. http://s.fhg.de/4KJ
Silverman, C. (2016, November 16). This Analysis Shows How Viral Fake
Election News Stories Outperformed Real News On Facebook.
http://s.fhg.de/QyS, abgerufen am 01.03.2017
390
Stieglitz, S., & Dang-Xuan, L. (2012). Impact and Diffusion of Sentiment in
Public Communication on Facebook. ECIS 2012 Proceedings.
Stieglitz, S., & Dang-Xuan, L. (2013). Emotions and Information Diffusion
in Social Media—Sentiment of Microblogs and Sharing Behavior. Journal of
Management Information Systems, 29(4) (S. 217–248).
Stöcker, C. (2016). Google, Facebook und Co.: Wir waren’s nicht! Die Ma-
schine war’s! http://s.fhg.de/RPb
Trilling, D., van Klingeren, M., & Tsfati, Y. (2016). Selective Exposure, Po-
litical Polarization, and Possible Mediators: Evidence From the Netherlands.
International Journal of Public Opinion Research, edw003.
Tversky, A., & Kahnemann, D. (1974). Judgment under Uncertainty: Heuris-
tics and Biases. Science, 185 (4157).
Vicario, M. D., Bessi, A., Zollo, F., Petroni, F., Scala, A., Caldarelli, G., …
Quattrociocchi, W. (2016). The spreading of misinformation online. Pro-
ceedings of the National Academy of Sciences, 113 (3) (S. 554–559).
http://s.fhg.de/Sb3
Williams, R. (1974). Television Technology and Cultural Form. London: Fon-
tana.
Wojcieszak, M. (2010). 'Don’t talk to me’: effects of ideologically homoge-
neous online groups and politically dissimilar offline ties on extremism. New
Media & Society. http://s.fhg.de/LYS
Zollo, F., Bessi, A., Del Vicario, M., Scala, A., Caldarelli, G., Shekhtman, L.,
… Quattrociocchi, W. (2015). Debunking in a World of Tribes. arXiv Preprint
arXiv:1510.04267. https://arxiv.org/abs/1510.04267
Zuckerberg, M. (2016, November 13). Some thoughts on Facebook and the
Election. http://s.fhg.de/mSJ
Zuckerberg, M. (2018). One of our big focus areas for 2018. https://www.fa-
cebook.com/zuck/posts/10104413015393571
391
Hinweis
Dieser Artikel basiert auf der Expertise »Digitale Öffentlichkeit: wie
algorithmische Prozesse den gesellschaftlichen Diskurs beeinflus-
sen« der Autoren für die Bertelsmann Stiftung aus dem Jahr 2017.
Über die Autoren
Christian Stöcker
Christian Stöcker leitet an der Hochschule für Angewandte Wissen-
schaften Hamburg den Master-Studiengang Digitale Kommunika-
tion. Zuvor arbeitete er über elf Jahre in der Redaktion von Spiegel
Online, fünf davon als Leiter des Ressorts Netzwelt. Stöcker promo-
vierte an der Universität Würzburg mit einer kognitionspsychologi-
schen Grundlagenarbeit und verfügt über einen Abschluss in Kultur-
kritik von der Bayerischen Theaterakademie August Everding. Er ist
Autor diverser Bücher über die Wechselwirkung von Internet und
Gesellschaft.
Konrad Lischka
Konrad Lischka schreibt seit 1999 über die digitale Gesellschaft –
Bücher, Essays und Blogs. Nach dem Diplomstudium der Journalistik
und der Ausbildung an der Deutschen Journalistenschule arbeitete
er als Chefredakteur des bücher Magazins und stellvertretender Res-
sortleiter Netzwelt bei Spiegel Online. Danach Wechsel in die Me-
dien- und Netzpolitik als Referent Digitale Gesellschaft in der
Staatskanzlei Nordrhein-Westfalen, seit 2016 Projektmanager bei
der Bertelsmann Stiftung im Projekt Teilhabe in einer digitalisierten
Welt.