Wahlmanipulation in sozialen Netzwerken

Artikel
14.10.2019 - Prof. Dr. Ulrike Klinger
Warum sind Fake Accounts, hyperaktive Accounts, Trolle und Bots ein relevantes Thema? (Bild: Pixabay)

Längst vergangen sind die Zeiten, in denen Politik als langweilig galt und das Gespenst einer Politikverdrossenheit umging. Das Brexit-Referendum, die Wahl von Trump, des ukrainischen Präsidenten Selenskyi und andere überraschende Wendungen haben gezeigt, dass bei Wahlen alles, wirklich alles passieren kann. Die Schuld dafür wird dann schnell bei den „Sozialen Medien“ gesucht. Ist es wirklich so einfach?

Schauen wir uns ein Phänomen an, das mit Identität, genauer gesagt, mit vielen falschen Identitäten zu tun hat. Soziale Netzwerke ermöglichen es praktisch jedem, anonym, mit falscher Identität und sogar in beliebiger Anzahl zu kommunizieren, die eigene Stimme und Meinung zu multiplizieren.  In vielen Fällen verstößt solches Verhalten gegen die Nutzungsbedingungen der Plattformen, die in einer sisyphoshaften Anstrengung Milliarden von Fake-Accounts, Trollen und Social Bots, also automatisierte Accounts löschen. Das kann man in den Transparenzberichten von Facebook oder Twitter nachlesen, und schon die schiere Menge an böswilligen Manipulationsversuchen, von denen dort berichtet wird, ist atemberaubend. Bei der Analyse politischer Diskurse in sozialen Netzwerken finden auch Wissenschaftler regelmäßig Accounts, die hunderte Postings pro Tag verschicken und ebenso viele Likes verteilen, Hunderte, Tausende Klicks pro Tag, an jedem Tag. 

Dass in nahezu allen Wahlen und Abstimmungen der letzten Jahre Social Media Accounts fragwürdiger Identität und Provenienz am Werke waren, ist in zahlreichen Studien belegt worden. Ob es sich um das Abtreibungsreferendum in Irland handelt, bei dem YouTube und Facebook letztlich intervenierten, um ausländische Manipulationsversuche zu unterbinden, oder die Macron-Leaks kurz vor der französischen Präsidentschaftswahl 2018 – konzertierte Aktionen und automatisierte Accounts gehören mittlerweile zum Grundrauschen in sozialen Netzwerken und zum Standard-Repertoire von Wahlkämpfen. Eine offene Frage bleibt aber, wie groß die Wirkung solcher Manipulationsversuche ist und ob sie wirklich eine Gefahr für demokratische Prozesse darstellen. Wir glauben nicht alles, was wir sehen, und Meinungsbildung wie Wahlentscheidungen gehören zu den stabileren und komplexeren politischen und psychologischen Prozessen.

Dubiose Quellen der Information 

Warum also sind Fake Accounts, hyperaktive Accounts, Trolle und Bots ein relevantes Thema? Zum einen wissen wir z.B. aus dem Reuters Institute Digital News Report, dass das Internet bei allen deutschen Altersgruppen bis 45 Jahre das Fernsehen als Hauptnachrichtenquelle abgelöst hat. Im Internet sind es für diese Altersgruppen in erster Linie die sozialen Netzwerke, die als Hauptnachrichtenquelle dienen – noch vor den Nachrichtenportalen wie Spiegel Online. Auch YouTube und WhatsApp werden als Quelle für Nachrichten herangezogen, und 23 Prozent der 18 bis 24-Jährigen nutzen Instagram als Nachrichtenmedium.

Die Kommunikation auf diesen Plattformen ist hochgradig personalisiert und von Algorithmen kuratiert. Wenngleich die Mehrheit der Nutzer meint, dort alles zu sehen, was die Freunde und deren Freunde so alles posten, ist es doch eine Auswahl, die die Algorithmen der Plattformen nach weitgehend unbekannten Kriterien treffen. Zudem posten dort auch Akteure, die nicht eben freundschaftliche Intentionen haben. Die Plattformen sind zudem nicht in erster Linie ihren Nutzern oder demokratischen Gesellschaften verpflichtet, sondern ihren Geschäftsmodellen, Investoren und Aktionären. Shoshana Zuboff, die im November 2019 in der Urania zu Gast sein wird, brachte dies mit dem Begriff „surveillance capitalism“ auf den Punkt. Von Algorithmen haben nur etwa 10 Prozent der Deutschen eine genauere Vorstellung, so eine Studie der Bertelsmann Stiftung. Hier werden also Informationsumgebungen zu Hauptnachrichtenquellen, von denen keiner so genau weiß, wie sie eigentlich funktionieren, und die hochgradig und sehr einfach manipulierbar sind.

Katz- und Maus mit lauten Minderheiten

Um den Überblick zu behalten, orientiert man sich an quantifizierbaren Popularitätswerten, der Zahl von Likes, Shares, Followern oder Kommentaren. Wenn ein Account oder ein Posting viele Likes hat und oft geteilt wird, muss es ja populär und relevant sein. Davon gehen Algorithmen und Nutzer gleichermaßen aus. Doch so einfach ist es nicht – diese niedrigschwelligen Feedbackmöglichkeiten können auch einfach anzeigen, dass eine Person, eine Thema oder eine Meinung sehr kontrovers ist. Follower und Likes lassen sich für wenig Geld kaufen, Accounts kann man einfach automatisieren, sie antworten und retweeten dann von selbst. Es würde also schon helfen, diesen Zahlen weniger zu trauen. Weil es sehr einfach ist, mit ein paar Hundert Accounts und einfachen technischen Mitteln vermeintliche Popularität künstlich zu erzeugen, entstehen laute Minderheiten. Diese können dann das Meinungsklima beeinflussen, also die Wahrnehmung von anderen Nutzern, welche Themen und Meinungen wie verteilt und relevant sind, was man widerspruchsfrei sagen kann, und was nicht.

Die Erforschung dieser Dynamiken und Funktionsweisen ist sehr schwierig. Das liegt zum einen daran, dass soziale Netzwerke dynamische Forschungsgegenstände sind, die sich permanent, mit jedem Like und Follower verändern. Vor allem liegt es aber auch daran, dass die Wissenschaft nur sehr eingeschränkt Zugang zu den Daten der sozialen Netzwerke hat und sich diese Prozesse nur durch das Schlüsselloch anschauen kann. Die Plattformen teilen selbst nicht gerne und limitieren den Zugang zu Daten öffentlicher Kommunikation immer weiter. Dadurch fehlen nicht nur Daten, um Wahlkampagnen umfassend zu beobachten, sondern auch Trainingsdaten für die Weiterentwicklung von Instrumenten, die problematische Accounts automatisiert erkennen. Es ist ein Katz- und-Maus-Spiel, das demokratische Gesellschaften derzeit an die Plattformen selbst outsourcen. Wir können allerdings nicht kontrollieren, ob die Maßnahmen von Facebook, Twitter und Co. etwa gegen Desinformation und Fake Accounts ausreichend und effizient genug sind. 

Um die Integrität von Wahlprozessen in digitalen Gesellschaften zu schützen, ist es nötig, diese Dynamiken besser zu verstehen. Es braucht eine gemeinsame Anstrengung von Wissenschaft, Politik und den Social Media Plattformen, um die negativen Kollateraleffekte ihrer Geschäftsmodelle auf Demokratie zu verringern – denn nach der Wahl ist immer auch vor der nächsten Wahl.

 

Prof. Ulrike Klinger ist Juniorprofessorin für Publizistik- und Kommunikationswissenschaft mit dem Schwerpunkt Digitale Kommunikation unter Berücksichtigung von Genderaspekten am Institut für Publizistik- und Kommunikationswissenschaft der Freien Universität Berlin. Gemeinsam mit Prof. Mike Schäfer von der Universität Zürich arbeitet sie u.a. zum Thema „Social Bots in digitalen Öffentlichkeiten: Feldstudien zu politischen Kampagnen und methodische Herausforderungen”.

Diese Seite teilen

F T I