Social Bots werden Computerprogramme genannt, die auf Social Media Plattformen wie beispielsweise Twitter aktiv sind: Sie erstellen oder verbreiten (teil-)automatisiert Inhalte, interagieren mit Menschen über diese Plattformen und verfolgen teilweise das Ziel, menschliches Verhalten zu imitieren oder andere Menschen zu beeinflussen.
Social Bots als altes Phänomen
Bots steht als Kurzform für Software-Roboter, die in der Informatik seit Jahrzehnten kreiert und untersucht werden.
Profitorientierte Unternehmen setzen beispielsweise Chatbots ein, um Kundenanfragen automatisiert zu beantworten. Auf Wikipedia werden tausende von Social Bots eingesetzt, um Einträge automatisiert zu bearbeiten. Auf Twitter werden sie auch genutzt, um täglich populäre Zitate zu verschicken, unterhaltsame Tweets automatisiert zu erstellen oder automatisiert Tweets mit bestimmten Hashtags weiterzuverbreiten. Sie werden auch dazu eingesetzt, um Beiträge vollautomatisiert zu retweeten, sofern ein gewisser Hashtag vorkommt, oder sie folgen gewissen Twitternutzenden, um ihre Popularität größer erscheinen zu lassen als sie tatsächlich ist. Social Bots in ihrer Gesamtheit sind Teil der Entwicklung zu mehr automatisierten Prozessen im Internet im Allgemeinen, aber auch auf Social Media Plattformen im Spezifischen.
Social Bots als neues Phantom
Da sie Computerprogramme sind, schränkt sich ihr Handeln nicht nur auf ein Themenfeld ein; sie lassen sich für verschiedenste Aufgaben in verschiedensten Bereichen einsetzen. Während sie als Chatbots deklariert Kunden über ihre Aufgabe und ihr Wesen im Klaren lassen und nicht als gefährlich betrachtet werden, können sie aber auch als Menschen getarnt in politische Diskurse eingreifen, wodurch sie die öffentliche Meinung verzerren und manipulativ in demokratische Prozesse wirken könnten.
Denn: Social Bots müssen nicht als solche gekennzeichnet werden. Wird ein Porträt eines Menschen für das Profilbild des Social Bots und ein (menschlicher) Name verwendet, sind sie aufgrund ihrer Präsenz potentiell nicht als Social Bot zu entlarven. In ihrer Kommunikation werden sie von Menschen als glaubwürdig, interaktiv und kompetent angesehen
Nicht nur machen Social Bots 9 bis 15 Prozent aller Twitternutzenden aus,
Social Bots als aktuelle Herausforderung
Erstens ist es methodisch sehr schwierig, Social Bots zu entdecken. Sofern sie sich nicht selbst als solche bezeichnen, bleibt stets eine Ungewissheit, ob es sich um einen Bot oder um einen Menschen handelt. Um sie dennoch zu identifizieren, werden ganz unterschiedliche Verfahren angewendet: Von Ansätzen, die einen einzelnen Indikator wie die Aktivität eines Accounts evaluiert bis hin zu Methoden, die über tausend Variablen berücksichtigen. Während die einen Methoden sehr transparent das Vorgehen beschreiben, sind andere weniger transparent, was das methodische Dilemma in diesem Forschungsgebiet widerspiegelt: Methoden mit erhöhter Transparenz spielen den Bot-Entwicklenden in die Hände, wodurch sie Social Bots so programmieren können, dass sie die Bot-entdeckenden Verfahren umgehen können. Verringerte Transparenz aber führt dazu, dass unklar ist, ob die Methode Bots zu entdecken vermag und wenn ja, was für Typen von Bots. Das führt zu unterschiedlichen Ergebnissen zur Anzahl und zum Einfluss von Social Bots auf politische Prozesse auf Social Media Plattformen. Es bleibt also ein Katz- und Maus-Spiel zwischen denjenigen, die Bots kreieren, und denjenigen, die sie zu entdecken versuchen.
Zweitens sollten Social Bots nicht als autonome Akteure betrachtet werden. Hinter jedem Social Bot steckt ein Mensch. Sie können einen Social Bot vollautomatisiert – oder nur halbautomatisiert agieren lassen. Wenn ein Mensch viel Einfluss auf die Aktionen eines oder mehrerer Bots übernimmt, kann deren Verhalten nur schwer von koordinierten Aktionen echter Menschen unterschieden werden. Das betrifft das gesamte Spektrum von digitalem "Astroturfing":
Drittens sind Social Bots auf Plattformen aktiv, worauf sie weniger Personen erreichen als sie beispielsweise über traditionelle Medienanbieter wie Zeitungen oder das Fernsehen würden. Einerseits bedeutet dies, dass ihr Einfluss auf politische Prozesse lediglich ihr Netzwerk betrifft, andererseits vor allem Social Media Nutzende. Wenn Meinungsführer aus dem Journalismus oder der Politik jedoch Beiträge von Social Bots weiterverbreiten oder die Anzahl "Likes" manipuliert von Social Bots als öffentliche Meinung fehlinterpretieren, könnten Social Bots dennoch eine breitere Schicht der Bevölkerung erreichen und politische Prozesse manipulieren. Es benötigt also auch eine gesellschaftliche Sensibilisierung für die Problematik.
Social Bots als altes Phänomen werden weiterhin Teil der digitalen Welt bleiben, da sie nicht per se eine Gefahr darstellen und deshalb auch nicht per se zu verbieten sind. Als Computerprogramme, die teil- oder vollautomatisiert Beiträge absetzen oder weiterverbreiten werden sie weiterhin aktiv bleiben; als Kunstform, Werbung oder Hilfe. Imitieren sie Menschen und versuchen zentrale politische Prozesse zu manipulieren, könnten sie auch zur Gefahr werden. Sie zu entdecken bleibt jedoch eine Herausforderung, weshalb ihr tatsächlicher Einfluss schwierig einzuschätzen ist – sie wirken vor allem wie ein Phantom. Das fordert WissenschaftlerInnen, Social Media Betreibende sowie die Nutzenden selbst: In der Wissenschaft ist man gefordert, Methoden zu entwickeln, die Social Bots und die Akteure dahinter zu entdecken vermögen. Die Nutzenden mit hoher Reichweite wie beispielsweise JournalistInnen und PolitikerInnen von Social Media Plattformen sollten überlegt Beiträge unklarer Herkunft oder mit zweifelhaftem Inhalt teilen – oder eben nicht weiterverbreiten. Schliesslich sind auch die Betreibenden der Plattformen aufgerufen, den manipulativen Einsatz von Social Bots zu verhindern. PolitikerInnen können hierbei unterstützend wirken, indem sie beispielsweise Social Media Plattformen weiterhin kritisch beobachten, bei Bedarf deren Regulierung fordern und selbst vorbildlich auf den Plattformen agieren.