Social Bots sind Profile in sozialen Netzwerken, die sich als Menschen ausgeben, aber teilweise oder ganz automatisiert und algorithmisch kontrolliert agieren. Bots agieren also nicht autonom, sondern letztlich stehen hinter jedem Bot Menschen oder Organisationen, die mit Hilfe dieser automatisierten Accounts Inhalte schneller und weiter verbreiten und dadurch Popularität sowie Relevanz künstlich erzeugen oder zumindest vortäuschen können. Das gilt nicht nur, aber auch für Desinformationskampagnen. Ein zentrales Merkmal ist, dass sich Social Bots tarnen und es selbst für Experten sehr schwierig ist, sie als solche zu identifizieren. Das unterscheidet sie von Chatbots, die als Assistenzprogramme im Kundendienst oder in Messenger Diensten nützlich sind und von eher harmlosen offensichtlichen Bots.
In Wahlkämpfen und anderen politische Kampagnen können Social Bots problematische Effekte haben. Erstens simulieren sie Popularität und Relevanz dadurch, dass einzelne Parteien oder Kandidaten mehr "Follower" haben, die aber nicht Bürger, Wähler, oder Parteimitglieder sind, sondern Maschinen. Zweitens vergrößern sie künstlich die Reichweite politischer Botschaften und Themen, weil die Algorithmen der Social Media Plattformen Engagement belohnen, also Botschaften sichtbarer machen, wenn Nutzer (egal ob Mensch oder Bots) mit ihnen interagieren, sie liken, teilen oder kommentieren. Drittens zeigen agentenbasierte Netzwerksimulationen, dass in bestimmten Konstellationen schon zwei bis vier Prozent Bots in einem Diskurs ausreichen, um das Meinungsklima zu drehen.
Es ist also kein Wunder, dass dieses Thema bereits vor der Bundestagswahl 2017 kontrovers diskutiert wurde. Zahlreiche Studien hatten bereits belegt, dass Social Bots in den Wahlkampagnen der US Präsidentschaftswahl 2016,
Wie man Bots identifizieren kann
Vor dem Hintergrund, dass Social Bots nun einmal existieren, bereits aktiv in anderen Wahlkampagnen involviert waren und eine ganz neue Akteursform der politischen Kommunikation darstellen, stellt sich nun die Frage, ob sie auch in der Bundestagswahl 2017 eine Rolle gespielt haben. Wir werden dazu aktive und passive Bots vergleichen und danach fragen, wie viele Bots wir unter den Twitter-Followern der deutschen Parteien vor und während des Wahlkampfs finden.
Will man Social Bots untersuchen, muss man zunächst auf Nutzerdaten der sozialen Netzwerke zugreifen, in unserem Falle Twitter. Das ist über eine Datenschnittstelle, eine sogenannte API möglich, oder über Datenhändler. Der Zugang zu Daten der sozialen Netzwerke ist nur sehr eingeschränkt möglich, so dass es von außerhalb der Unternehmen viel schwieriger ist, öffentliche Kommunikation in sozialen Netzwerken zu analysieren oder Bots zu identifizieren. Tatsächlich argumentierte Twitters "Head of Site Integrity", Externer Link: Yael Roth, dass niemand außer Twitter selbst die nicht-öffentlichen Nutzerdaten einsehen könne, so dass nur Twitter selbst Bots mit Sicherheit identifizieren könne. Der eingeschränkte Datenzugang bedeutet letztlich auch, dass eine zentrale Funktion von Öffentlichkeit derzeit beschnitten ist: die Selbst-Beobachtung der Gesellschaft.
Für unsere Studie haben wir, soweit verfügbar, die Daten aller Twitter-Follower der wichtigsten deutschen Parteien im Wahlkampf heruntergeladen: 1,2 Millionen Follower im Februar 2017 und 1,6 Millionen Follower im September 2017. In den Metadaten der Follower sehen wir, ob die Accounts aktiv oder inaktiv sind, das heißt ob sie in den drei Monaten vor der Datenerhebung Tweets oder Retweets gesendet, etwas kommentiert oder als Like markiert haben. Noch bevor wir überprüfen, wie viele Bots darunter sind, fallen zwei bemerkenswerte Muster ins Auge: Zum einen variierte der Anteil der aktiven Follower stark. So war der Anteil der aktiven Follower der AfD deutlich höher als bei den anderen Parteien (im September 2017 26% vs. durchschnittlich 15%). Zum anderen zeigten die Follower der AfD eine Vernetzungsstruktur, die von den anderen Parteien deutlich abweicht. Fast die Hälfte der AfD Follower (45%) folgen ausschließlich der AfD, während die Follower der anderen Parteien ganz überwiegend (87%) mehreren Parteien, auch über das ideologische Spektrum hinweg folgen.
Zur Identifikation von Bots gibt es ganz verschiedene Ansätze. Hier nutzen wir ein Instrument, das von Informatikern an der University of Indiana entwickelt wurde, das "Botometer". Wie andere Methoden handelt es sich um kein perfektes Instrument, aber es bietet doch einige Vorteile: Es analysiert 1150 Merkmale der Kategorien Vernetzung, Tweet-Verhalten, Inhalt und Sprache, Sentiment und zeitliche Sequenzierung der Tweets. Botometer ist über eine Webseite zugänglich, um einzelne Accounts zu überprüfen sowie über eine API, so dass auch automatisierte Analysen größerer Datensätze möglich sind. Ende 2018 erreichten Botometer 250.000 Anfragen pro Tag
Damit Botometer einschätzen kann, ob es sich bei einem Account um einen Menschen oder einen Bot handelt, sind die Metadaten der Accounts wichtig. Wenn die Privatsphäre-Einstellungen eines Accounts restriktiv auf "privat" gesetzt sind, hat Botometer keinen Zugriff auf die Inhalte und kann keine vollständige Analyse durchführen. Auch Accounts die bereits schon wieder gelöscht wurden oder überhaupt gar keine Inhalte getweetet hatten, kann Botometer nicht analysieren. Insgesamt basieren die Ergebnisse unserer Studie auf ungefähr der Hälfte der Twitter-Follower der Parteien (638.674 Follower im Februar 2017 und 838.026 Follower im September 2017), was ganz überwiegend (80% der nicht-analysierbaren Fälle) an leeren Timelines liegt, also Followern, die noch nie irgendeinen Tweet oder Retweet gesendet hatten.