Vor der Bundestagswahl 2017 herrschte Verunsicherung wegen möglicher Einflussnahmen. Im Vorfeld diskutierte man beispielsweise eine Kennzeichnungspflicht für Social Bots, also automatisiert betriebene Social-Media-Konten, die politische Botschaften verbreiten. Nach den Erkenntnissen aus dem Wahlkampf in den USA wurde ebenfalls vor politischem Microtargeting gewarnt. Social-Media-Plattformen bieten Werbetreibenden die Möglichkeit, Anzeigen auf bestimmte Zielgruppen zuzuschneiden, die man beispielsweise nach Wohnort, Geschlecht, Alter aber auch politischen Vorlieben auswählen kann. Auch über mögliche Leaks, die einem Hackerangriff auf den Bundestag im Jahr 2015 entstammen könnten, Externer Link: wurde im Vorfeld spekuliert. Besonders das Bundesamt für Sicherheit in der Informationstechnik (BSI) und das Externer Link: Büro des Bundeswahlleiters bereiteten sich daher gezielt auf Manipulationsversuche vor. Tatsächlich hat es vor der Bundestagswahl sowie am Tag des Urnengangs Versuche gegeben, die Wahl zu beeinflussen. Ob diese Versuche erfolgreich waren, bleibt allerdings fraglich.
Auf der Chat-Plattform Discord organisierten sich rechte Gruppierungen, um beispielsweise koordinierte Angriffe auf Politiker, Aktivisten und Medien durchzuführen.
Im Rahmen der Untersuchungen möglicher Wahlbeeinflussung in den USA veröffentlichte Externer Link: Twitter die Namen von mehr als 1.000 Konten, die der russischen Trollfabrik "Internet Research Agency" zugerechnet werden. Darunter waren auch einige Konten, die vor der Bundestagswahl auf Deutsch twitterten und versuchten, Hashtags wie #jugendfürmerkel oder #merkelmussbleiben zu etablieren. Über andere Konten wurden Falschmeldungen über Straftaten Geflüchteter verbreitet. Insgesamt erreichten diese Tweets aber selten viele Interaktionen, also Retweets, Likes oder Antworten anderer Twitter-Nutzer.
Am Wahltag selbst verbreiteten sich über Twitter zahlreiche Falschmeldungen über angebliche Wahlmanipulationen, etwa durch ausradierbare Stifte oder vermeintliche linksextreme Wahlhelfer. Das Social-Media-Team des Bundeswahlleiters reagierte damals offensiv und korrigierte noch am Wahltag Falschmeldungen. Vor und nach der Bundestagswahl 2017 haben zudem die Social-Media-Plattformen einige Versuche unternommen, Manipulationsversuche zu verhindern oder zu beschränken.
Verhaltenskodex der Europäischen Union
Gegenüber der Europäischen Kommission haben sich Facebook, Google und Twitter in einem Aktionsplan zu verschiedenen Maßnahmen verpflichtet, die Versuchen der Wahlbeeinflussung durch Desinformation entgegen wirken sollen. Zu diesem Aktionsplan gehören eine Reihe von Maßnahmen, die im Folgenden erläutert werden sollen. Die Plattformen erstatten gegenüber der Kommission Externer Link: monatlich Berichte über Fortschritte in der Implementierung des Aktionsplans und Maßnahmen gegen Versuche der Einflussnahme.
Facebook und Twitter gehen regelmäßig gegen Fake Accounts vor. Nach Externer Link: eigenen Angaben verhindert Facebook beispielsweise täglich die Erstellung von einer Million Konten. Ebenso Externer Link: veröffentlichen Social-Media-Plattformen regelmäßig Berichte über die Aufdeckung von Accounts, die koordiniertes, "unauthentisches Verhalten” aufzeigen. Diese Verhaltensweisen schließen beispielsweise ein, dass mehrere Personen sich in einem kurzen Zeitraum in ein Profil einloggen oder Software genutzt wird, um Twitter-Accounts automatisiert zu folgen.
Datenbanken für politische Werbung
Um politische Werbung rund um die Europawahl zu schalten, müssen Werbetreibende sich bei Facebook, Google und Twitter verifizieren lassen. So müssen unter anderem ein Adressnachweis über den Wohnsitz in einem Land der Europäischen Union sowie ein Ausweisdokument vorgelegt werden, damit Werbung geschaltet werden kann. Facebook und Twitter haben außerdem bereits Datenbanken für politische Werbung auf ihren jeweiligen Plattformen veröffentlicht. Auch Google hat eine solche Datenbank angekündigt, die im April 2019 veröffentlicht werden soll. Für die USA und Indien gibt es sie bereits. Der Aufbau der Datenbanken variiert je nach Plattform. Grundsätzlich können Nutzer jedoch in allen Datenbanken nach ihnen bekannten Konten, beispielsweise von Parteien oder Kandidierenden, suchen. Außerdem kann eingesehen werden, wer eine Anzeige bezahlt hat, welcher Zielgruppe sie ausgespielt wurde und wieviel Geld in etwa ausgegeben wurde. In der Datenbank von Facebook kann zudem nach Stichworten gesucht werden.
Mitte April 2019 sind die Einträge in den Datenbanken noch vergleichsweise überschaubar. Bei Externer Link: Facebook wurden zu kaum einem relevanten Begriff Suchergebnisse angezeigt. Bei Externer Link: Twitter war nur ein einziger politischer Werbetreibender in der Europäischen Union registriert. Mögliche Erklärungen dafür wären einerseits, dass noch nicht mehr Werbetreibende registriert waren oder Werbung geschaltet haben, oder dass die Datenbanken noch nicht so funktionieren, wie sie es sollten.
Zwar kann man sich beispielsweise bei Google Werbeberichte für einen bestimmten Zeitraum ausgeben lassen, in den meisten Fällen müssten Nutzende aber wissen, wonach genau sie suchen. Auch ist unklar, wie eng der Begriff der "politischen Werbung" konkret ist und inwiefern sich die Definition und Identifikation solcher Werbeanzeigen von Plattform zu Plattform unterscheidet. Die Informationen über die jeweils ausgewählten Zielgruppen beinhalten zudem zwar Angaben zu Alter, Geschlecht und Wohnort, nicht aber zu politischen Interessen, die bei der Auswahl von Zielgruppen auch angegeben werden kann. Im Bundestagswahlkampf 2017 fielen auch Werbetreibende auf, die nicht unmittelbar einer Partei zugeordnet werden konnten. So schalteten die Betreiber des sogenannten "Greenwatchblog" Anzeigen, die sich negativ auf die Grünen bezogen. Externer Link: Das Blog und alle dazugehörigen Social-Media-Konten verschwanden mit dem Wahlsonntag, ohne dass bekannt wurde, wer hinter diesen Seiten steckte.
Vorgehen gegen Falschmeldungen und Verschwörungsmythen
Der Umgang mit Falschmeldungen und Verschwörungsmythen fällt je nach Plattform unterschiedlich aus. Facebook, Youtube und Twitter ist jedoch gemein, dass regelmäßig reichweitenstarke Akteure gesperrt werden, die wiederholt gegen die Nutzerrichtlinien verstoßen und zuvor verschwörungsideologische und falsche oder irreführende Inhalte verbreiteten. Facebook arbeitet auf der ganzen Welt mit Medienpartnern zusammen, die Faktenchecks in 24 Sprachen veröffentlichen. In Deutschland übernahm diese Rolle ab 2017 zunächst Externer Link: Correctiv. Seit Anfang 2019 ist außerdem die Externer Link: Deutsche Presseagentur (dpa) eine solche Kooperation mit Facebook eingegangen. Facebooks Fact-Checking-Partner überprüfen virale Artikel, Videos und Fotos auf ihren Wahrheitsgehalt hin und veröffentlichen Faktenchecks, die wiederum neben oder unter dem Post mit der überprüften Meldung angezeigt werden. Geprüft können werden außerdem Inhalte, die von Facebook-Nutzern als Falschmeldungen gemeldet werden.
Youtube hat begonnen, Videos zu populären Verschwörungsmythen um Informationen aus vertrauenswürdigen Quellen zu ergänzen. Das betrifft bislang allerdings vor allem englischsprachige Inhalte. Außerdem hat Youtube in der Vergangenheit Externer Link: gezielt die Suchergebnisse zu einzelnen Suchbegriffen angepasst, wenn diese vor allem Falschmeldungen, Verschwörungserzählungen oder veraltete nachrichtliche Inhalte enthielten. Entsprechend wurden dann Inhalte von etablierten Medien zum Thema in den Suchergebnissen bevorzugt.
Google hat zudem ein Tool entwickelt, mit dem Faktenchecks mit bestimmten Metadaten angereichert werden können um so in der Google-Suche besser auffindbar zu sein. In Deutschland wird das Tool von Correctiv und einem inzwischen Externer Link: stillgelegten Fact-Checking-Projekt verwendet. Über den "Externer Link: Fact Check Explorer” können Faktenchecks, die mit dem sogenannten "ClaimReview”-Tool bearbeitet wurden, nach Stichworten oder Faktencheck-Initiativen weltweit durchsucht werden.
Messaging-Dienste
Neben den bereits genannten Maßnahmen haben Technologiekonzerne weitere Maßnahmen ergriffen, um Manipulationsversuche zu unterbinden oder einzudämmen. Whatsapp hat beispielsweise eingeführt, dass einzelne Nachrichten jeweils nur fünf mal weiter geleitet werden können. Desinformation und irreführende Inhalte werden immer häufiger auch auf halb-öffentlichen oder privaten Kanälen verbreitet. Im Externer Link: brasilianischen Wahlkampf beispielsweise wurden Falschmeldungen vor allem über Messenger verteilt. Im indischen Wahlkampf hat Whatsapp zuletzt in Zusammenarbeit Externer Link: eine Art Hotline für Tipps zu vermuteten Falschmeldungen eingerichtet. Allerdings sollen nicht alle Meldungen überprüft und beantwortet werden. Die Daten sollen vor allem der Forschung dienen, denn bislang gibt es wenige wissenschaftliche Arbeiten zu Falschmeldungen in Messaging-Apps.
Die Social-Media-Plattformen haben jeweils unterschiedlich umfangreich auf Gefahren der digitalen Manipulation reagiert. Das Maßnahmenpaket wird sowohl vor als auch nach der Europawahl 2019 noch erweitert werden. Zu den größten Neuerungen gehören die Datenbanken für politische Werbung sowie die monatlichen, öffentlich einsehbaren Berichte der Social-Media-Plattformen an die EU-Kommission. Neben den Plattformen liegt es somit auch an Politik, Bildung und Zivilgesellschaft, Manipulationsversuche nicht zuzulassen.