MEINUNGS-
BILDUNG
IM NETZ
FOKUS
Impressum Inhalt
Herausgeber 1 MEINUNGSBILDUNG IN SOZIALEN MEDIEN 4
Friedrich-Naumann-Stiftung für die Freiheit Facebook, Twitter und Co. sind unerlässlicher Bestandteil
Truman-Haus von politischer Meinungsbildung und Diskursen.
Karl-Marx-Straße 2
14482 Potsdam-Babelsberg 2 BOTS 6
Nicht alle Bots sind per se schlecht, man muss sie nur
/freiheit.org unterscheiden können.
/FriedrichNaumannStiftungFreiheit
/FNFreiheit 3 BIG DATA & MICROTARGETING 14
Große Datenmengen können beitragen, Wählerinnen
Autorin und Wähler besser zu erreichen, aber auch sie stark
Christine Frohn, Referentin für Energiepolitik und Nachhaltigkeit zu beeinflussen.
Kontakt
Telefon +49 30 220126 34
Telefax +49 30 690881 02
E-Mail service@freiheit.org
Stand
Juli 2019
in Sozialen Medien
38%
Die politische Öffentlichkeit wird immer digitaler, und auch Wahl-
kämpfe finden zusätzlich zum klassischen Straßenwahlkampf
18% Jobsuche
Produktangebote und
Dienstleistungen
11%
und sind über den Unterhaltungswert hinaus ein Ort, wo zum einen
68%
öffentlicher Diskurs stattfindet und zum anderen Menschen nach
(politischen) Informationen suchen.
Partnersuche
Pflege privater Kontakte
Nicht nur ist ein Großteil von Bevölkerung und Presse aktiv in den
31%
Sozialen Medien, auch Politikschaffende und Parteien zeigen dort
mehr und mehr Präsenz. Insbesondere Twitter erfreut sich großer
Beliebtheit, weil dort Politikerinnen und Politiker kurze Kommentare
Informationen zu
zu aktuellen politischen Ereignissen abgeben können. Dort werden Unternehmen und Marken
Meinungen von politischen Akteuren in beinahe Echtzeit verbreitet,
ohne dass beispielsweise die Presse eingebunden werden muss.
38%
Die politische Seite kann sich so unverfälscht und schnell präsen-
tieren, und die Wählerinnen und Wähler können sich wiederum
schnell und unverfälscht einen Eindruck von den Politikerinnen und Organisation des Privatlebens
Politikern machen (Bader et al. 2015). Deshalb sind die Sozialen
Medien in der politischen Meinungsbildung und auch in den Wahl-
kämpfen ein unerlässlicher Bestandteil geworden, der neben den
30%
klassischen Kanälen den politischen Marketingmix ergänzt.
Informationen zu Personen
des öffentlichen Lebens
57% Tagesgeschehen
Die CSU nutzte im März 2017 den in Facebook integrierten Chat- Bots in Sozialen Medien
roboter Leo. Dieser versuchte, Wählerinnen und Wählern das
Wahlprogramm näherzubringen, indem er auf bestimmte Frage-
stichwörter Antworten aus der Parteiprogrammatik gab. Leo war
10%
ausdrücklich als Chatbot gekennzeichnet (FAZ 2017). Auch die FDP Bots generieren
nutzte einen Chatbot im Wahlkampf zur Bundestagswahl 2017 und ca. 10 % aller Inhalte
in den Sozialen Medien
unter dem Namen „@FDPShots“. User konnten bei Twitter an dieses
62%
Handle einen Begriff wie beispielsweise „Bildung“ oder „Rente“
sowie 62 % des gesamten
schicken und der Bot antwortete in 140 Zeichen mit der entspre- Web Traffics
chenden Position aus dem FDP-Wahlprogramm (Liberale.de 2017)
Im Rahmen von „Computational Propaganda“ spricht man deshalb Auch zur Verbreitung von „Fake News“ sind Social Bots prädestiniert, da diese daten-
eher von politischen Spambots. Diese haben das Ziel, politische getrieben agieren. So können passgenau relevante Zielgruppen ausgewählt und ange-
Inhalte mit hohen Reichweiten zu verbreiten oder an politischen sprochen werden. Das bedeutet auch, dass gezielt Diskurse manipuliert und faktisch
nicht vorhandene Unterstützung für bestimmte Positionen generiert werden können.
Diskussionen in Sozialen Netzwerken teilzunehmen. Bots sind sehr
günstig in der Herstellung sowie der Wartung und werden deshalb
oft während Wahlkämpfen oder politischen Entscheiden von politi-
schen Gruppen erschaffen, um ihre Botschaften und ihre Geistes-
haltung zu kommunizieren.
1.000
... and the ugly bot 10.000 User-Profile
Accounts
Es kostet im Schnitt etwa 500 US-Dollar, eine Software zu unterhalten, die 10.000
Twitter-Accounts steuert. Dazu kommt noch der Preis für die User-Accounts. Je nach
Ausgestaltungsgrad kosten 1.000 User-Profile nur 45 US-Dollar (Hegelich 2016).
10 POLITISCHE MEINUNGSBILDUNG IM NETZ 11
Die automatisierten Accounts haben 20 Prozent aller Tweets zur Was sind typische Ziele beim Einsatz von politischen Spambots?
Wahl verfasst (Bessi/Ferrara 2016). Eine Woche vor der Brexit-Ent-
Als Mensch Steigerung der Steigerung der
scheidung ließ sich eine erhöhte Anzahl an automatisch verfassten getarnter Bot Popularität Sichtbarkeit von Themen
Tweets durch Social Bots messen, die das Pro-Brexit-Lager in den
Sozialen Medien massiv unterstützt haben (Howard/Kollanyi 2016).
Vor der Bundestagswahl 2017 ließ sich jedoch keine signifikante
Bot-Aktivität verzeichnen (Neudert 2017).
Unter den „Trending Topics“ befinden sich Themen, die besonders Benutzt Likes und generierte Spürt gezielt Beiträge
Kommentare, um eine politische durch spezifische
intensiv bei Twitter diskutiert werden. In diesen Prozess greifen Bots Botschaft zu verbreiten Schlüsselwörter auf
ein und verfassen millionenfach Tweets, die bestimmte Hashtags
Eigene Darstellung
enthalten und diese zum „Trenden“ bringen. Viele Medienschaffende
benutzen Twitter, um Stimmungen in der Bevölkerung abzufangen Woran erkennt man Social Bots?
und zu erfahren, welche Themen besonders aktuell sind. So kann
es passieren, dass ein Thema, das durch Bots zum „Trenden“ ge- Vanessa
Computermensch
bracht wurde, wiederum von der Presse ungefiltert übernommen Hohe Anonymität,
Kein oder gestohlenes wenige persönliche
wird. Auch Politikerinnen und Politiker können nicht immer einen Profilbild Wohnort: Berlin Angaben, Allgemein-
Alter: 46
politischen Spambot erkennen. Es besteht also die Gefahr, auf diese plätze in Beschreibung
Mitglied seit: gestern
und ihre Junk-News hereinzufallen. Neues Profil mit
Follower: 10 wenigen Followern
Erstellt Kommentare
Verfasste Kommentare heute: +50
mit übermenschlicher
Frequenz
Sehr schnelle
Reaktionen innerhalb
von Sekunden
Antwort: vor 2 Sek.
Eigene Darstellung
POLITISCHE MEINUNGSBILDUNG IM NETZ
Vertrauen in Medien Die Daten-Affäre um Cambridge Analytica hatte Einfluss auf das Verhältnis der
Internetnutzer zu Facebook.
2%
Wie viele Leserinnen und Leser Das Vertrauen der Befragten geben an, 12%
59%
trauen der deutschen Presse? von Facebook-Usern
88%
Facebook aufgrund der
Berichte nicht mehr zu nutzen der Befragten geben an,
in die Sicherheit ihrer Facebook aufgrund der
persönlichen Daten der Befragten geben an,
Berichte weniger zu nutzen
ist gering. Facebook nicht zu nutzen
27%
der Befragten geben an,
2000 2006 2016 Facebook unverändert weiter
zu nutzen
23%
2016 2017
Steuererklärungen Planung von Polizeieinsätzen Rückfälligkeit von Straftätern Quelle: Statista GmbH 2018
Microtargeting
Kapital Arbeit
Unsere Gesellschaft wird immer heterogener. Früher wurde ver- Quelle: Lipset/Rokkan 1967
Eigene Darstellung
16 POLITISCHE MEINUNGSBILDUNG IM NETZ 17
Eigene Darstellung
18 POLITISCHE MEINUNGSBILDUNG IM NETZ 19
Dark Posts & Falschmeldungen Jede dritte Nachricht auf Twitter, die Trump unterstützte,
soll von einem Computerprogramm stammen. Bei Clinton jede fünfte.
Enthalten Wahlplakate Falschmeldungen oder werden sie für den
Rufmord einzelner politischer Personen genutzt, fällt das schnell
auf. Werden politische Botschaften maßgeschneidert winzigen Ziel-
gruppen ausgespielt, ist die Kontrolle schwierig. Problematisch wird
es, wenn Dark Posts bei Facebook verwendet werden. Die jeweiligen
Botschaften werden dann nur der ausgewählten Zielgruppe, die Trump Clinton
über bestimmte Eigenschaften verfügt, gezeigt. Auf dem Profil der
Partei und für andere Nutzerinnen und Nutzer sind sie jedoch nicht
sichtbar. Werbeanzeigen dieser Art sehen zudem aus wie normale
Posts und sind lediglich durch den Hinweis „gesponsert“ als solche
erkennbar.
Aktuelle Studien zeigen, dass in Deutschland derzeit die Bedrohung Diskutiert wird ein Transparenzregister für politische Parteien, in
durch Social Bots sowie der Missbrauch durch Microtargeting dem zielgruppenoptimierte Werbung gespeichert wird. Soziale
als eher gering zu beurteilen ist (Hegelich 2017a, Neudert 2017a). Netzwerke könnten auch in ihrer Funktion als Werbungsplattformen
Trotzdem fehlt ein effizienter Regulierungsrahmen, der sich generell stärker kontrolliert werden. Zwar betrachten Facebook und Twitter
mit neuen Technologien und der Verantwortung von Plattform- als private Wirtschaftsunternehmen ihre Algorithmen als geistiges
betreibern auseinandersetzt. Das im Jahr 2017 verabschiedete Eigentum. Trotzdem könnten sie Auditing-Verfahren unterzogen
Netzwerkdurchsetzungsgesetz (NetzDG) versucht, Symptome zu werden. Diese gelten für Algorithmen, die das öffentliche Interesse
bekämpfen, anstatt sich mit den dahinterliegenden Strukturen und berühren, wie beispielsweise Algorithmen von Spielautomaten oder
deren Auswirkungen genauer zu befassen. Bisher agieren user- des Finanzhandels.
generierte Inhalte und die Sozialen Medien als Contentplattformen
in einem legalen Vakuum. Seit Mai 2018 ist die Datenschutzgrundverordnung in Kraft getreten.
Diese erlaubt Microtargeting nur unter strengen Voraussetzungen.
Es werden in der Regel auch Soziale Netzwerke außerhalb Deutsch-
Social Bots lands erfasst. Die Verordnung gilt, wenn das Nutzungsverhalten von
Nutzerinnen und Nutzern innerhalb der EU beobachtet wird. Sie ist
Vor der Bundestagswahl 2017 versicherten alle Parteien, keine auch anwendbar, wenn dabei die Daten außerhalb der EU verarbeitet
Social Bots bei ihrem Wahlkampf zu verwenden. Eine gesetzliche werden (Art. 3 DSGVO).
Regelung zum Einsatz von politischen Spam Bots gibt es noch nicht.
Es wurde gefordert, alle Bots zu verbieten. Das bedeutet auch das
Verbot von legitimen und sinnvollen Bots. Eine Kennzeichnungs-
pflicht für Bots wird überlegt. Diesen Vorschlag haben die Justiz-
minister der Länder im Herbst 2017 unterbreitet. Im Herbst 2018 hat
auch der Bundesrat anonymisierte soziale Netze und die Kennzeich-
nung von Social Bots gefordert. Auch die EU-Kommission hat im
Winter 2018 einen Aktionsplan gegen Desinformation vorgelegt. Seit
März 2019 gibt es in allen EU-Mitgliedsländern ein Frühwarnsystem,
das die schnelle Verbreitung von „Fake News“ in On- und Offline-
Medien verhindern soll. Es ist unklar, ab welchem Grad der Automati-
sierung diese Pflicht greifen soll. Die Bundesregierung denkt zudem
über eine Kennzeichnungspflicht für Social Bots nach. Eine aktuelle
Regulierung gibt es derzeit noch nicht. Möglicherweise drohen auch
Bußgelder bei Zuwiderhandlung.
22 POLITISCHE MEINUNGSBILDUNG IM NETZ 23
Dazu gehört das Wissen über die einzelnen Aspekte und Werkzeuge
automatisierter Meinungsmache sowie ihre Wirkung. Wenn Medien-
konsumenten zudem die kognitiven und affektiven Mechanismen
ihrer eigenen Medienrezeption verstehen, sind sie besser auf Medien-
einflüsse vorbereitet. Zudem ist auch immer die Auseinandersetzung
mit dem eigenen Nutzungsverhalten sowie Medienkonsum von
großer Bedeutung (Müller/Denner 2017).
Literaturverzeichnis
ARD-Deutschlandtrend, 61 Prozent der Internetnutzer haben Sorge P. N. Howard, S. C. Wooley, Political Communication, Computatio-
vor Datenmissbrauch. Vertrauen in Facebook ist gering, 2018, nal Propaganda, and Autonomous Agents, in: International Journal
https://presse.wdr.de/plounge/tv/das_erste/2018/04/20180405_ of Communication 10, 2016, S. 4882–4890
ard_deutschlandtrend_4.html
P. N. Howard, B. Kollanyi, Bots, #StrongerIn, and #Brexit:
Arte, Sind unsere Wahlen gekauft, 2017, Computational propaganda during the UK-EU referendum 2017,
https://info.arte.tv/de/social-bot-bundestagswahl-manipulation http://arxiv.org/abs/1606.06356
C. Bader, K. Fuchs, C. Güthlein, O. Kamm, T. Schunk & M. Maurer, Liberale.de, Die FDP in 140 Zeichen, 2017
Die Wahl in 140 Zeichen – Twitter als Kommunikationsplattform
für Politik, Medien und Bürger im Bundestagswahlkampf 2013, in: S. M. Lipset, S. Rokkan, Cleavage Structures, Party Systems and
Politische Psychologie, Heft 1, 2015, S. 5–22 Voter Alignments. An Introduction, in: S. M. Lipset, S. Rokkan (Hgg.),
Party Systems and Voter Alignments. Cross-National Perspectives,
Deutscher Bundestag, Hegelich erwartet keine große Gefahr durch New York 1967, S. 1–64
Social Bots im Wahlkampf, 2017, https://www.bundestag.de/
dokumente/textarchiv/2017/kw29-w-forum/514278 P. Müller, N. Denner, Was tun gegen Fake News, Eine Analyse
anhand der Entstehungsbedingungen und Wirkweisen gezielter
I. Dachwitz, Wahlkampf in der Grauzone: Die Parteien, das Micro- Falschmeldungen im Internet, Potsdam 2017
targeting und die Transparenz, 2017, https://netzpolitik.org/2017/
wahlkampf-in-der-grauzone-die-parteien-das-microtargeting- L.-M. Neudert, Computational Propaganda in Germany:
und-die-transparenz/ A Cautionary Tale, in: S. Woolley and P. N. Howard (Hgg.),
Working Paper, Oxford 2017, S. 31 ff.
S. Fischer, T. Petersen, Was Deutschland über Algorithmen weiß
und denkt, Gütersloh 2018, https://www. bertelsmann-stiftung.de/ L.-M. Neudert, P. Howard & B. Kollanyi, Junk news and bots during
fileadmin/files/BSt/Publikationen/GrauePublikationen/Was_die_ the German federal presidency election: What were German voters
Deutschen_ ueber_Algorithmen_denken.pdf sharing over Twitter?, 2017, http://comprop.oii.ox.ac.uk/wpcontent/
uploads/sites/89/2017/03/What-Were-German-Voters-Sharing-
S. Hegelich, Invasion der Meinungsrobotor, 2016, OverTwitter-v6-1.pdf (Neudert 2017a)
http://www.kas.de/wf/de/33.46486/
K. Otto, A. Köhler, Vertrauen in die Medien so hoch wie seit
S. Hegelich, #FDPleaks: Hype und Hybris im Datenwahlkampf, 15 Jahren nicht mehr, Würzburg 2017,
Political Data Science Blog, 2017, http://politicaldatascience. https://www.wiwi.uni-wuerzburg.de/lehrstuhl/professur-fuer-
blogspot.de/2017/08/fd pleaks-hype-und-hybris-im.html wirtschaftsjournalismus/medienvertrauen/
(Hegelich 2017a)
26 POLITISCHE MEINUNGSBILDUNG IM NETZ 27