Está en la página 1de 15

POLITISCHE

MEINUNGS-
BILDUNG
IM NETZ

FOKUS
Impressum Inhalt
Herausgeber 1 MEINUNGSBILDUNG IN SOZIALEN MEDIEN 4
Friedrich-Naumann-Stiftung für die Freiheit Facebook, Twitter und Co. sind unerlässlicher Bestandteil
Truman-Haus von politischer Meinungsbildung und Diskursen.
Karl-Marx-Straße 2
14482 Potsdam-Babelsberg 2 BOTS 6
Nicht alle Bots sind per se schlecht, man muss sie nur
/freiheit.org unterscheiden können.
/FriedrichNaumannStiftungFreiheit
/FNFreiheit 3 BIG DATA & MICROTARGETING 14
Große Datenmengen können beitragen, Wählerinnen
Autorin und Wähler besser zu erreichen, aber auch sie stark
Christine Frohn, Referentin für Energiepolitik und Nachhaltigkeit zu beeinflussen.

Redaktion 4 WAS TUN, WENN MEINUNG


Liberales Institut der Friedrich-Naumann-Stiftung für die Freiheit AUTOMATISIERT WIRD? 20
Christine Frohn, Referentin für Energiepolitik und Nachhaltigkeit Medien- und Informationskompetenz sind der Schlüssel,
um automatisierter Meinungsmache entgegenzutreten.
Produktion
COMDOK GmbH LITERATURVERZEICHNIS 26

Kontakt
Telefon +49 30 220126 34
Telefax +49 30 690881 02
E-Mail service@freiheit.org

Stand
Juli 2019

Hinweis zur Nutzung dieser Publikation


Diese Publikation ist ein Informationsangebot der Friedrich-Naumann-Stiftung
für die Freiheit.
Die Publikation ist kostenlos erhältlich und nicht zum Verkauf bestimmt.
Sie darf nicht von Parteien oder von Wahlhelfern während eines Wahlkampfes
zum Zwecke der Wahlwerbung verwendet werden (Bundestags-, Landtags-
und Kommunalwahlen sowie Wahlen zum Europäischen Parlament).
4 POLITISCHE MEINUNGSBILDUNG IM NETZ 5

1 Meinungsbildung Wofür werden die Sozialen Netzwerke genutzt?

in Sozialen Medien
38%
Die politische Öffentlichkeit wird immer digitaler, und auch Wahl-
kämpfe finden zusätzlich zum klassischen Straßenwahlkampf
18% Jobsuche
Produktangebote und
Dienstleistungen

online statt. Soziale Medien fungieren als eine neue Öffentlichkeit

11%
und sind über den Unterhaltungswert hinaus ein Ort, wo zum einen

68%
öffentlicher Diskurs stattfindet und zum anderen Menschen nach
(politischen) Informationen suchen.
Partnersuche
Pflege privater Kontakte
Nicht nur ist ein Großteil von Bevölkerung und Presse aktiv in den

31%
Sozialen Medien, auch Politikschaffende und Parteien zeigen dort
mehr und mehr Präsenz. Insbesondere Twitter erfreut sich großer
Beliebtheit, weil dort Politikerinnen und Politiker kurze Kommentare
Informationen zu
zu aktuellen politischen Ereignissen abgeben können. Dort werden Unternehmen und Marken
Meinungen von politischen Akteuren in beinahe Echtzeit verbreitet,
ohne dass beispielsweise die Presse eingebunden werden muss.

38%
Die politische Seite kann sich so unverfälscht und schnell präsen-
tieren, und die Wählerinnen und Wähler können sich wiederum
schnell und unverfälscht einen Eindruck von den Politikerinnen und Organisation des Privatlebens
Politikern machen (Bader et al. 2015). Deshalb sind die Sozialen
Medien in der politischen Meinungsbildung und auch in den Wahl-
kämpfen ein unerlässlicher Bestandteil geworden, der neben den

30%
klassischen Kanälen den politischen Marketingmix ergänzt.

Informationen zu Personen
des öffentlichen Lebens

57% Tagesgeschehen

Quelle: Rohlede 2018


6 POLITISCHE MEINUNGSBILDUNG IM NETZ 7

2 Bots In der Debatte um digitale Wahlkämpfe werden oftmals


einzelne Akteure und Instrumente vermischt
Man unterscheidet in:

„Bots sind Computer Scripts, die menschliche Online-Aufgaben Microtargeting


automatisieren“ (Rosenberg 2013). Ein Bot erledigt kleinere, meist Zielgruppen-optimierte
repetitive Aufgaben, die von Menschen als zu stupide wahrgenom- Ausspielung von Botschaften
men werden. Der Bot führt diese Aufgaben dann selbstständig
Bots
basierend auf vorprogrammierten Regeln durch. Das kann das Automatisierte,
Verbreiten von Eilmeldungen sein oder das Ermitteln von Matches code-basierte Accounts,
bei Online-Dating-Plattformen. Ursprünglich wurden Bots in den die Content verbreiten
Sozialen Medien oft im Werbebereich genutzt – für Spamming
oder beispielsweise DDoS- und Virus-Attacken.

Social Bots werden meist auf Sozialen Netzwerken wie Twitter,


Facebook oder Instagram gefunden. Dort können sie viele unter-
schiedliche Zielgruppen erreichen. Manche Bots sind eindeutig als
automatisierte Accounts zu erkennen, andere geben sich bewusst
verdeckt als menschliche Akteure aus. „Fake News“
Trolle Von Menschen gemachte
Menschen im Netz, Falschmeldungen
deren Beiträge auf die per Bots verbreitet
The good … Provokation anderer
User abzielen
Eigene Darstellung
Social Bots sind eine Unterkategorie von Bots. Ihr Ziel ist es,
menschliches Verhalten nachzuahmen und dabei in Kontakt mit
Online-Wahlkampf
anderen Nutzerinnen und Nutzern zu treten. Im Unterschied zum
Das Budget der Parteien für den Online-Wahlkampf zur Bundestagswahl 2017 war so hoch wie
Chatbot – virtuellen persönlichen Assistenten wie Siri oder Alexa – noch nie zuvor. Dieser Wahlkampf wurde auch als der erste echte Online-Wahlkampf bezeichnet.
sollen zur Meinungsmache eingesetzte Social Bots im Umgang
mit Menschen nicht offenlegen, dass sie nicht menschlicher Natur
sind. Social Bots werden nicht zwangsläufig zu negativen oder Die Linke 0,45
manipulativen Zwecken eingesetzt. FDP 0,50

Bündnis 90/Grüne 2,00

SPD keine Angaben


Automatisiert
bedeutet, dass code-getriebene Instrumente (Skripte und Algorithmen) CDU/CSU keine Angaben
zur Verbreitung und Verstärkung von politischen Botschaften einge- AfD keine Angaben
setzt werden. Zusätzlich verfügen diese Instrumente über Big Data
und können damit zielgruppenoptimiert ihren Content verbreiten. Angaben in Mio. Euro

Quelle: Scherfig 2017


8 POLITISCHE MEINUNGSBILDUNG IM NETZ 9

Die CSU nutzte im März 2017 den in Facebook integrierten Chat- Bots in Sozialen Medien
roboter Leo. Dieser versuchte, Wählerinnen und Wählern das
Wahlprogramm näherzubringen, indem er auf bestimmte Frage-
stichwörter Antworten aus der Parteiprogrammatik gab. Leo war

10%
ausdrücklich als Chatbot gekennzeichnet (FAZ 2017). Auch die FDP Bots generieren
nutzte einen Chatbot im Wahlkampf zur Bundestagswahl 2017 und ca. 10 % aller Inhalte
in den Sozialen Medien
unter dem Namen „@FDPShots“. User konnten bei Twitter an dieses

62%
Handle einen Begriff wie beispielsweise „Bildung“ oder „Rente“
sowie 62 % des gesamten
schicken und der Bot antwortete in 140 Zeichen mit der entspre- Web Traffics
chenden Position aus dem FDP-Wahlprogramm (Liberale.de 2017)

... the bad Quelle: Rosenberg 2013

Im Rahmen von „Computational Propaganda“ spricht man deshalb Auch zur Verbreitung von „Fake News“ sind Social Bots prädestiniert, da diese daten-
eher von politischen Spambots. Diese haben das Ziel, politische getrieben agieren. So können passgenau relevante Zielgruppen ausgewählt und ange-
Inhalte mit hohen Reichweiten zu verbreiten oder an politischen sprochen werden. Das bedeutet auch, dass gezielt Diskurse manipuliert und faktisch
nicht vorhandene Unterstützung für bestimmte Positionen generiert werden können.
Diskussionen in Sozialen Netzwerken teilzunehmen. Bots sind sehr
günstig in der Herstellung sowie der Wartung und werden deshalb
oft während Wahlkämpfen oder politischen Entscheiden von politi-
schen Gruppen erschaffen, um ihre Botschaften und ihre Geistes-
haltung zu kommunizieren.

1.000
... and the ugly bot 10.000 User-Profile
Accounts

Im US-amerikanischen Präsidentschaftswahlkampf 2016 oder vor


dem Brexit wurden Social Bots auf Twitter genutzt. Es haben ca.
400.000 Social Bots Tweets zur politischen Diskussion über die
$
US-Präsidentschaftswahl abgesetzt.
45
00
$5
Quelle: Hegelich 2016

Es kostet im Schnitt etwa 500 US-Dollar, eine Software zu unterhalten, die 10.000
Twitter-Accounts steuert. Dazu kommt noch der Preis für die User-Accounts. Je nach
Ausgestaltungsgrad kosten 1.000 User-Profile nur 45 US-Dollar (Hegelich 2016).
10 POLITISCHE MEINUNGSBILDUNG IM NETZ 11

Die automatisierten Accounts haben 20 Prozent aller Tweets zur Was sind typische Ziele beim Einsatz von politischen Spambots?
Wahl verfasst (Bessi/Ferrara 2016). Eine Woche vor der Brexit-Ent-
Als Mensch Steigerung der Steigerung der
scheidung ließ sich eine erhöhte Anzahl an automatisch verfassten getarnter Bot Popularität Sichtbarkeit von Themen
Tweets durch Social Bots messen, die das Pro-Brexit-Lager in den
Sozialen Medien massiv unterstützt haben (Howard/Kollanyi 2016).
Vor der Bundestagswahl 2017 ließ sich jedoch keine signifikante
Bot-Aktivität verzeichnen (Neudert 2017).

Social Bots auf Twitter Täuscht menschliche


Meinung vor oder
überschwemmt
Multiplikatoren sind für Bots zentral. Verbreiten diese bot-generierte Themen, um einen
Botschaften, machen sie solche zum einen glaubwürdiger und ver- weiteren Austausch
zu verhindern
größern zum anderen die Reichweite der Bots. Wichtig ist hierzu das Bot-Netzwerk
aus tausenden
„Trenden“ von Hashtags bei Twitter. von Fake-Profilen

Unter den „Trending Topics“ befinden sich Themen, die besonders Benutzt Likes und generierte Spürt gezielt Beiträge
Kommentare, um eine politische durch spezifische
intensiv bei Twitter diskutiert werden. In diesen Prozess greifen Bots Botschaft zu verbreiten Schlüsselwörter auf
ein und verfassen millionenfach Tweets, die bestimmte Hashtags
Eigene Darstellung
enthalten und diese zum „Trenden“ bringen. Viele Medienschaffende
benutzen Twitter, um Stimmungen in der Bevölkerung abzufangen Woran erkennt man Social Bots?
und zu erfahren, welche Themen besonders aktuell sind. So kann
es passieren, dass ein Thema, das durch Bots zum „Trenden“ ge- Vanessa
Computermensch
bracht wurde, wiederum von der Presse ungefiltert übernommen Hohe Anonymität,
Kein oder gestohlenes wenige persönliche
wird. Auch Politikerinnen und Politiker können nicht immer einen Profilbild Wohnort: Berlin Angaben, Allgemein-
Alter: 46
politischen Spambot erkennen. Es besteht also die Gefahr, auf diese plätze in Beschreibung
Mitglied seit: gestern
und ihre Junk-News hereinzufallen. Neues Profil mit
Follower: 10 wenigen Followern
Erstellt Kommentare
Verfasste Kommentare heute: +50
mit übermenschlicher
Frequenz

Hat einen Beitrag geteilt

Wenige eigene Jakob Politiker


Veröffentlichungen,
aber hohes Engagement

Sehr schnelle
Reaktionen innerhalb
von Sekunden
Antwort: vor 2 Sek.
Eigene Darstellung
POLITISCHE MEINUNGSBILDUNG IM NETZ

Vertrauen in Medien Die Daten-Affäre um Cambridge Analytica hatte Einfluss auf das Verhältnis der
Internetnutzer zu Facebook.

2%
Wie viele Leserinnen und Leser Das Vertrauen der Befragten geben an, 12%
59%
trauen der deutschen Presse? von Facebook-Usern

88%
Facebook aufgrund der
Berichte nicht mehr zu nutzen der Befragten geben an,
in die Sicherheit ihrer Facebook aufgrund der
persönlichen Daten der Befragten geben an,
Berichte weniger zu nutzen
ist gering. Facebook nicht zu nutzen

27%
der Befragten geben an,
2000 2006 2016 Facebook unverändert weiter
zu nutzen

10% Quelle: ARD-Deutschland-Trend 2018

30,2% 41,8% 55,7% Facebook dominiert als Quelle


politischer Informationen
Quelle: Uni Würzburg 2017 Quelle: ARD-Deutschland-Trend 2018 unter den Sozialen Medien.

Bei welchen Punkten wussten die Befragten, dass Algorithmen Entscheidungen


Anzahl der 2,3
Nutzerinnen und Nutzer Mrd.
treffen oder Empfehlungen abgeben?
Sozialer Medien weltweit

37% 52% 48%


77%
1,0
Mrd.

Preise für Produkte, Flüge u.a. Singlebörsen Kreditwürdigkeit

23%

32% 32% 18%


18%

2016 2017
Steuererklärungen Planung von Polizeieinsätzen Rückfälligkeit von Straftätern Quelle: Statista GmbH 2018

Quelle: Fischer/Petersen 2018 Quelle: YouGov 2017


14 POLITISCHE MEINUNGSBILDUNG IM NETZ 15

3 Big Data und Cleavage-Theorie


Typische Gruppen und Konfliktlinien in einer Gesellschaft

Microtargeting
Kapital Arbeit

Microtargeting ist eine Technik aus dem Werbebereich. Durch sie


werden Userinnen und User maßgeschneidert auf die Produkte
angesprochen, die sie interessieren könnten. Man nennt das perso-
nalisierte Werbung. Die Technik basiert auf den Daten aus dem Kirche Staat

Surfverhalten der Userinnen und User, die kontinuierlich erhoben


und als Cookies gespeichert werden. Weil das so gut bei Werbung
funktioniert hat, wird Microtargeting auch im Wahlkampf benutzt.
Microtargeting ist dort die personalisierte und zielgerichtete Stadt Land
Ansprache einzelner Wählerinnen und Wähler. Zudem können teil-
weise die Auswirkungen dieser Ansprache vorhergesagt werden.

Effektive Wähleransprache Zentrum Peripherie

Unsere Gesellschaft wird immer heterogener. Früher wurde ver- Quelle: Lipset/Rokkan 1967

sucht, Wahlergebnisse anhand beispielsweise der Cleavage-Theorie


(Lipset/Rokkan 1967) zu erklären. Bestimmte Gruppen und Konflikt- Politische Botschaften
linien wurden in einer Gesellschaft festgemacht, die bestimmte können zielgerichtet und maßgeschneidert winzigen Zielgruppen zugespielt werden.

Wahlpräferenzen aufwiesen. Arbeiterinnen und Arbeiter wählten


beispielsweise eher sozialdemokratische Parteien. Heutzutage
wird es immer schwieriger, einzelne große Gruppen innerhalb der
Bevölkerung zu identifizieren wie beispielsweise „den Arbeiter“
oder „die Kapitalistin“. Deshalb können bestimmte Botschaften mit
den alteingesessenen Wahlkampftechniken wie dem Wahlplakat in
einer spezifischen Gegend immer weniger zielgruppenabgestimmt
ausgespielt werden.

Eigene Darstellung
16 POLITISCHE MEINUNGSBILDUNG IM NETZ 17

Online kann aufgrund des Nutzungsverhaltens genau bestimmt Cookies


werden, welche Altersgruppen was in welcher Region relevant fin- Internet-Browser
den. Anhand von beispielsweise öffentlichen Facebook-Likes oder
Cookie
anderem Nutzungsverhalten können sehr zuverlässige Aussagen
Speichert Cookies,
über Alter, Interessen, politische Orientierung oder Gewohnheiten um dich gegenüber einer
getroffen werden. Entsprechende gezielte Botschaften oder poli- Webseite eindeutig
identifizieren zu können
tische Werbung wird dann auf Facebook oder Instagram ausge-
spielt. Internet-Nutzenden, denen Umweltfragen wichtig sind, wird
in der Anzeige erklärt, wie die Umweltpolitik bestimmter Kandida-
tinnen und Kandidaten aussieht. Parteien können so passgenau
Inhalte ihres Programms ausspielen, die eher auf Zustimmung
stoßen werden.
Suchmaschine Online-Shop Soziale Medien E-Mail-Konto
Personalisierte Wahlkampf-Werbung wird dann zum Beispiel auf
Facebook basierend auf den Interessen der Nutzerinnen und Nut-
zer ausgespielt. Oder der Haustürwahlkampf wird durch Datenana-
lysen modifiziert. Bestimmten Hauszügen kann eine Wahrschein-
lichkeit der Parteiaffinität zugeordnet werden (Hegelich 2017).
Diese Ergänzung des Wahlkampfs kann positive Auswirkungen
auf die Demokratie haben. Bürgerinnen und Bürger werden durch
passgenaue individuelle Botschaften mehr abgeholt als durch
einheitliche Wahlplakatsprüche. Zudem kann diese interessen-
orientierte politische Kommunikation zu mehr Interaktion vor Nutzer-Profil Algorithmus
Wahlen und politischen Entscheiden führen.
  Name, Alter, Wohnort, Analysiert Daten und
Freunde, Interessen, erstellt Inhalte angepasst
Login-Daten, Verlauf etc. an den jeweiligen Nutzer

Unser Umgang mit Algorithmen und Nutzungsverhalten im Internet muss reflektierter


sein. Algorithmen können durch gezieltes Filtern unsere Wahrnehmung beeinflussen.
Unser Nutzungsverhalten hinterlässt Spuren, die Rückschlüsse auf unser persönliches
Leben geben.

Eigene Darstellung
18 POLITISCHE MEINUNGSBILDUNG IM NETZ 19

Dark Posts & Falschmeldungen Jede dritte Nachricht auf Twitter, die Trump unterstützte,
soll von einem Computerprogramm stammen. Bei Clinton jede fünfte.
Enthalten Wahlplakate Falschmeldungen oder werden sie für den
Rufmord einzelner politischer Personen genutzt, fällt das schnell
auf. Werden politische Botschaften maßgeschneidert winzigen Ziel-
gruppen ausgespielt, ist die Kontrolle schwierig. Problematisch wird
es, wenn Dark Posts bei Facebook verwendet werden. Die jeweiligen
Botschaften werden dann nur der ausgewählten Zielgruppe, die Trump Clinton
über bestimmte Eigenschaften verfügt, gezeigt. Auf dem Profil der
Partei und für andere Nutzerinnen und Nutzer sind sie jedoch nicht
sichtbar. Werbeanzeigen dieser Art sehen zudem aus wie normale
Posts und sind lediglich durch den Hinweis „gesponsert“ als solche
erkennbar.

Insbesondere im US-amerikanischen Präsidentschaftswahlkampf


zeigte sich das Missbrauchspotenzial des Microtargetings. Das
Wahlkampfteam um Donald Trump nutzte es zur strategischen
Demobilisierung bei der Wähleranhängerschaft Hillary Clintons. Es
wurden gezielt rufschädigende Informationen über die Präsident-
schaftskandidatin ausgespielt. So wurde Usern, die von Facebook
die ethnische Affinität „African American“ zugeordnet bekamen, ein
Video-Snippet aus den 90er-Jahren gezeigt, in dem Hillary Clinton
den rassistisch konnotierten Begriff „super predators“ („Superraub-
tiere“) verwendet. Frauen wurden Posts ausgespielt, die auf Affären
Bill Clintons hinwiesen (Dachwitz 2017).

Quelle: arte 2017


20 POLITISCHE MEINUNGSBILDUNG IM NETZ 21

4 Was tun, wenn Meinung Microtargeting

automatisiert wird? Im Bundestagswahlkampf 2017 haben alle Parteien in unterschied-


lichen Ausprägungen Microtargeting verwendet. Eine Regulierung
gab es zu diesem Zeitpunkt hierzu noch nicht.

Aktuelle Studien zeigen, dass in Deutschland derzeit die Bedrohung Diskutiert wird ein Transparenzregister für politische Parteien, in
durch Social Bots sowie der Missbrauch durch Microtargeting dem zielgruppenoptimierte Werbung gespeichert wird. Soziale
als eher gering zu beurteilen ist (Hegelich 2017a, Neudert 2017a). Netzwerke könnten auch in ihrer Funktion als Werbungsplattformen
Trotzdem fehlt ein effizienter Regulierungsrahmen, der sich generell stärker kontrolliert werden. Zwar betrachten Facebook und Twitter
mit neuen Technologien und der Verantwortung von Plattform- als private Wirtschaftsunternehmen ihre Algorithmen als geistiges
betreibern auseinandersetzt. Das im Jahr 2017 verabschiedete Eigentum. Trotzdem könnten sie Auditing-Verfahren unterzogen
Netzwerkdurchsetzungsgesetz (NetzDG) versucht, Symptome zu werden. Diese gelten für Algorithmen, die das öffentliche Interesse
bekämpfen, anstatt sich mit den dahinterliegenden Strukturen und berühren, wie beispielsweise Algorithmen von Spielautomaten oder
deren Auswirkungen genauer zu befassen. Bisher agieren user- des Finanzhandels.
generierte Inhalte und die Sozialen Medien als Contentplattformen
in einem legalen Vakuum. Seit Mai 2018 ist die Datenschutzgrundverordnung in Kraft getreten.
Diese erlaubt Microtargeting nur unter strengen Voraussetzungen.
Es werden in der Regel auch Soziale Netzwerke außerhalb Deutsch-
Social Bots lands erfasst. Die Verordnung gilt, wenn das Nutzungsverhalten von
Nutzerinnen und Nutzern innerhalb der EU beobachtet wird. Sie ist
Vor der Bundestagswahl 2017 versicherten alle Parteien, keine auch anwendbar, wenn dabei die Daten außerhalb der EU verarbeitet
Social Bots bei ihrem Wahlkampf zu verwenden. Eine gesetzliche werden (Art. 3 DSGVO).
Regelung zum Einsatz von politischen Spam Bots gibt es noch nicht.
Es wurde gefordert, alle Bots zu verbieten. Das bedeutet auch das
Verbot von legitimen und sinnvollen Bots. Eine Kennzeichnungs-
pflicht für Bots wird überlegt. Diesen Vorschlag haben die Justiz-
minister der Länder im Herbst 2017 unterbreitet. Im Herbst 2018 hat
auch der Bundesrat anonymisierte soziale Netze und die Kennzeich-
nung von Social Bots gefordert. Auch die EU-Kommission hat im
Winter 2018 einen Aktionsplan gegen Desinformation vorgelegt. Seit
März 2019 gibt es in allen EU-Mitgliedsländern ein Frühwarnsystem,
das die schnelle Verbreitung von „Fake News“ in On- und Offline-
Medien verhindern soll. Es ist unklar, ab welchem Grad der Automati-
sierung diese Pflicht greifen soll. Die Bundesregierung denkt zudem
über eine Kennzeichnungspflicht für Social Bots nach. Eine aktuelle
Regulierung gibt es derzeit noch nicht. Möglicherweise drohen auch
Bußgelder bei Zuwiderhandlung.
22 POLITISCHE MEINUNGSBILDUNG IM NETZ 23

Medienkompetenz als Schlüssel

Die wichtigste Maßnahme ist die Vermittlung von Medienkompetenz


durch alle Altersklassen. Der Schwerpunkt der klassischen Medien-
kompetenz muss um die Komponente der Informationskompetenz
ausgeweitet werden.

Dazu gehört das Wissen über die einzelnen Aspekte und Werkzeuge
automatisierter Meinungsmache sowie ihre Wirkung. Wenn Medien-
konsumenten zudem die kognitiven und affektiven Mechanismen
ihrer eigenen Medienrezeption verstehen, sind sie besser auf Medien-
einflüsse vorbereitet. Zudem ist auch immer die Auseinandersetzung
mit dem eigenen Nutzungsverhalten sowie Medienkonsum von
großer Bedeutung (Müller/Denner 2017).

Nutzerinnen und Nutzer müssen wissen, dass sie es nicht immer


mit Menschen im Netz zu tun haben, sondern eben auch mit
Chatrobotern. Diese Bots können zu unterschiedlichen Zwecken
eingesetzt werden; oftmals erweisen sie uns gute Dienste. Manch-
mal werden diese Bots aber auch zur Meinungsmache eingesetzt.
Und genau diese politischen Spambots müssen von den Usern als
solche erkannt und kritisch hinterfragt werden. Nutzerinnen und
Nutzer müssen lernen, kritischer gegenüber Inhalten und Nachrich-
ten aus den Sozialen Medien zu sein. Nicht die Plattformen müssen
abwägen, welche Nachrichten „Fake News“ sein könnten, sondern
die User selbst. Facebook sollte nicht als Primärquelle für Informa-
tionen genutzt werden.
24 POLITISCHE MEINUNGSBILDUNG IM NETZ 25

Literaturverzeichnis
ARD-Deutschlandtrend, 61 Prozent der Internetnutzer haben Sorge P. N. Howard, S. C. Wooley, Political Communication, Computatio-
vor Datenmissbrauch. Vertrauen in Facebook ist gering, 2018, nal Propaganda, and Autonomous Agents, in: International Journal
https://presse.wdr.de/plounge/tv/das_erste/2018/04/20180405_ of Communication 10, 2016, S. 4882–4890
ard_deutschlandtrend_4.html
P. N. Howard, B. Kollanyi, Bots, #StrongerIn, and #Brexit:
Arte, Sind unsere Wahlen gekauft, 2017, Computational propaganda during the UK-EU referendum 2017,
https://info.arte.tv/de/social-bot-bundestagswahl-manipulation http://arxiv.org/abs/1606.06356

C. Bader, K. Fuchs, C. Güthlein, O. Kamm, T. Schunk & M. Maurer, Liberale.de, Die FDP in 140 Zeichen, 2017
Die Wahl in 140 Zeichen – Twitter als Kommunikationsplattform
für Politik, Medien und Bürger im Bundestagswahlkampf 2013, in: S. M. Lipset, S. Rokkan, Cleavage Structures, Party Systems and
Politische Psychologie, Heft 1, 2015, S. 5–22 Voter Alignments. An Introduction, in: S. M. Lipset, S. Rokkan (Hgg.),
Party Systems and Voter Alignments. Cross-National Perspectives,
Deutscher Bundestag, Hegelich erwartet keine große Gefahr durch New York 1967, S. 1–64
Social Bots im Wahlkampf, 2017, https://www.bundestag.de/
dokumente/textarchiv/2017/kw29-w-forum/514278 P. Müller, N. Denner, Was tun gegen Fake News, Eine Analyse
anhand der Entstehungsbedingungen und Wirkweisen gezielter
I. Dachwitz, Wahlkampf in der Grauzone: Die Parteien, das Micro- Falschmeldungen im Internet, Potsdam 2017
targeting und die Transparenz, 2017, https://netzpolitik.org/2017/
wahlkampf-in-der-grauzone-die-parteien-das-microtargeting- L.-M. Neudert, Computational Propaganda in Germany:
und-die-transparenz/ A Cautionary Tale, in: S. Woolley and P. N. Howard (Hgg.),
Working Paper, Oxford 2017, S. 31 ff.
S. Fischer, T. Petersen, Was Deutschland über Algorithmen weiß
und denkt, Gütersloh 2018, https://www. bertelsmann-stiftung.de/ L.-M. Neudert, P. Howard & B. Kollanyi, Junk news and bots during
fileadmin/files/BSt/Publikationen/GrauePublikationen/Was_die_ the German federal presidency election: What were German voters
Deutschen_ ueber_Algorithmen_denken.pdf sharing over Twitter?, 2017, http://comprop.oii.ox.ac.uk/wpcontent/
uploads/sites/89/2017/03/What-Were-German-Voters-Sharing-
S. Hegelich, Invasion der Meinungsrobotor, 2016, OverTwitter-v6-1.pdf (Neudert 2017a)
http://www.kas.de/wf/de/33.46486/
K. Otto, A. Köhler, Vertrauen in die Medien so hoch wie seit
S. Hegelich, #FDPleaks: Hype und Hybris im Datenwahlkampf, 15 Jahren nicht mehr, Würzburg 2017,
Political Data Science Blog, 2017, http://politicaldatascience. https://www.wiwi.uni-wuerzburg.de/lehrstuhl/professur-fuer-
blogspot.de/2017/08/fd pleaks-hype-und-hybris-im.html wirtschaftsjournalismus/medienvertrauen/
(Hegelich 2017a)
26 POLITISCHE MEINUNGSBILDUNG IM NETZ 27

B. Rohlede, Social-Media-Trends, Bitkom, 2018,


https://www.bitkom.org/Presse/Anhaenge-an-PIs/2018/
180227-Bitkom-PK-Charts-Social-Media-Trends-2.pdf

Y. Rosenberg, 62 percent of all web traffic comes from bots,


16. Dezember 2013, http://theweek.com/articles/454320/62-
percent-all-webtraffic-comes-from-bots

L. Scherfig, Das sind die Trends im digitalen Wahlkampf 2017,


in: Der Westen, 2017, https://www.derwesten.de/politik/das-sind-
die-trends-im-digitalen-wahlkampf-2017-id211974713.html

Statista, Statistiken zur Social-Media Nutzung, 2018,


https://de.statista.com/themen/1842/soziale-netzwerke/

T. Steppert, Die CSU hat einen neuen Chatroboter, 2017,


http://www.faz.net/aktuell/politik/inland/wahlkampf-die-csu-
hat-einen-neuen-chat-roboter-14996490-p2.html (FAZ 2017)

YouGov, Politisches Informationsverhalten der Deutschen:


Messenger und Social Media hoch im Kurs, 2017,
https://yougov.de/news/2017/04/03/politisches-informations-
verhalten-der-deutschen-me/