Wahlen und Wahlkämpfe sind ein häufiges Ziel von digitalen Desinformationskampagnen und Akteuren, die gezielt Falschinformationen streuen. Auch die Europawahl 2024 ist dadurch potenziell gefährdet. Um vorbereitet zu sein, müssen Institutionen und Gesellschaften daher analysieren, auf welchen Plattformen und Kanälen Des- und Falschinformation verbreitet werden, welche Themen und Narrative im Kontext der Europawahl in den Fokus rücken könnten und welche Gegenmaßnahmen bereits ergriffen wurden.
Die Rolle digitaler Plattformen
Der Löwenanteil öffentlicher und semi-öffentlicher Kommunikation findet schon seit mehreren Jahren auf den großenExterner Link: digitalen Plattformen statt: TikTok, Instagram, Facebook, YouTube, X (vormals Twitter) oder Telegram, um nur einige zu nennen. Dementsprechend ist es wenig überraschend, dass auf diesen Plattformen häufig Falschinformationen Verbreitung finden oder sie gar für gezielte Interner Link: Desinformationskampagnen genutzt werden.
Was ist der Unterschied zwischen Falsch- und Desinformation?
Bei der Analyse ist es wichtig, zwischen Falschinformationen und Desinformation bzw. Desinformationskampagnen zu unterscheiden. Falschinformationen sind faktisch nicht korrekte, irreführende Tatsachenbehauptungen oder dekontextualisierte, d.h. aus ihrem ursprünglichen Kontext heraus gerissene, Inhalte. Desinformation hingegen ist die intendierte Veröffentlichung oder Verbreitung von Falschinformationen, wobei zumeist politische oder wirtschaftliche Ziele verfolgt werden (High level Group on fake news and online disinformation 2018). Desinformation hat damit immer auch eine Akteurs- und eine Verhaltensdimension, die bei der Erkennung bzw. Analyse mit bedacht werden muss (Pamment 2020). Beide Dimensionen gehen über die Betrachtung des einzelnen Inhalts, der bei der Bewertung von Falschinformationen im Fokus steht, hinaus. So werden bei gezielten Desinformationskampagnen manipulative Taktiken oder Techniken angewandt. Dazu gehört beispielsweise der Einsatz von Fake-Accounts, die Imitation bekannter Medienmarken und Personen oder die Diskreditierung von Personen des öffentlichen Lebens.
Die meisten großen Technologie-Unternehmen haben insbesondere im Nachgang derInterner Link: US-Präsidentschaftswahl 2016 - die von Desinformationsaktivitäten in den Sozialen Medien sowie Interner Link: Cyberoperationen gekennzeichnet war - Interner Link: Maßnahmen gegen die Veröffentlichung und Verbreitung von Falsch- und Desinformation auf ihren Plattformen ergriffen. Personelle und technologische Ressourcen wurden erweitert, um gefälschte Social Media-Accounts schneller zu erkennen. Plattformen wie Facebook und X (damals noch Twitter) ergänzten zudem politische Beiträge mit weiterführenden Informationen sowie Quellen. Nach dem Interner Link: Sturm auf das US-Kapitol Anfang 2021 wurden Lösch- und Sperrpraktiken weiter verschärft. Allerdings hat sich diese proaktive Grundhaltung nicht gehalten. Mittlerweile sind mehrere Plattformen dazu übergegangen, gezielte Richtlinien und Regeln gegen Falsch- und Desinformation abzuschwächen. Sie haben gesperrte Accounts wieder zugelassen (allen voran die Accounts des ehemaligen US-Präsidenten Trump) oder, wie im Fall von X, eine Anything Goes-Attitüde angenommen: Nach der Übernahme durch Elon Musk im Oktober 2022 wurden die Sicherheits- und Moderationsabteilungen demontiert und tausende zuvor gesperrte Accounts wieder aktiviert. Dadurch ist X nachweislich zu einem von Hassrede, Desinformation und Spam durchsetzten Netzwerk geworden (Hickey et al. 2023).
Wahlen als kritische Phasen für versuchte Einflussnahme
Das Jahr 2016 war für die europäische Öffentlichkeit der Startpunkt, sich intensiver mit Desinformation und verdeckten Manipulationskampagnen zur Beeinflussung von Wahlen zu befassen. Allen voran der US-Wahlkampf, geprägt von Falschaussagen des späteren Präsidenten Trump und gezielten Desinformationskampagnen russischer sowie Russland-naher Akteure, hat maßgeblich zur öffentlichen Debatte über das Thema beigetragen.
Zweifelsohne sind Wahlkampfzeiten und Wahlen kritische Phasen, in denen Öffentlichkeiten immer wieder Interner Link: versuchter Einflussnahme ausgesetzt sind. Die Gründe sind offensichtlich: mit Wahlen werden politische Weichen für Jahre gestellt, für Desinformations-Akteure ist das Kosten-Nutzen-Verhältnis entsprechend lukrativ.
Wer verbreitet Des- und Falschinformation?
Wenn es darum geht, die Verbreiter von Des- und Falschinformation zu bestimmen, wird für gewöhnlich zwischen inländischen und ausländischen sowie staatlichen und nicht-staatlichen Akteuren unterschieden. Bei den ausländischen Akteuren stehen zumeist Interner Link: Russland oder mit der russischen Regierung verbundene Akteure im Fokus. Dass russische Akteure seit langem versuchen, die öffentliche Meinung in westlichen Staaten teils offen (z.B. durch russische Staatsmedien), aber vor allem verdeckt zu beeinflussen, ist mannigfach bewiesen (European Union External Action 2024). Ein Beispiel ist die sogenannte „Doppelgänger“-Kampagne. Bei dieser wurden regelmäßig gefälschte Klone legitimer Webseiten veröffentlicht und durch Fake Accounts in sozialen Netzwerken verbreitet. In Deutschland waren davon etablierte Medien wie „Der Spiegel“ und die „Frankfurter Allgemeine Zeitung“ (FAZ) betroffen. Wie erfolgreich diese Kampagnen sind, ist aber durchaus umstritten (Altay et al. 2023). Bemerkenswert ist, dass sich russische Akteure in der jüngeren Vergangenheit privatwirtschaftlicher PR- und Marketingagenturen bedient haben, die Kampagnen umgesetzt haben. So berichtete etwa das Sicherheitsteam des Konzerns Meta, zu dem Facebook und Instagram gehören, dass für die Durchführung der „Doppelgänger“-Kampagne unter anderem eine russische Marketingagentur verantwortlich gewesen sei. Desinformations-Aktivitäten können zunehmend auch chinesischen Akteuren zugeordnet werden. Haben sich chinesische Aktivitäten in den vergangenen Jahren eher auf die geographische Nachbarschaft konzentriert, gibt es mittlerweile Berichte von Kampagnen, die auch europäische oder amerikanische Öffentlichkeiten avisieren. Dabei nehmen sich diese Akteure ein Beispiel an russischen Vorbildern und greifen vermehrt zu verdeckten Manipulationstechniken.
Die vermutlich aber größten Verbreiter von Desinformation sind inländische Akteure. Dabei handelt es sich insbesondere um Politiker:innen, politische Aktivist:innen, Influencer:innen oder sogenannteInterner Link: Alternativmedien des rechtspopulistischen bis rechtsextremen Spektrums, die gemeinsam eine sich selbst befeuernde Gegenöffentlichkeit bilden. Desinformationskampagnen werden hier nicht zentral gesteuert, sondern sind ein Ergebnis deutschlandweiter, teils europaweiter Interner Link: medialer Netzwerke.
Eine Analyse von Desinformationsnarrativen rund um nationale Wahlen in europäischen Ländern zeigt, dass 2023 im Zuge aller elf analysierten Wahlen in zehn verschiedenen Ländern (Tschechien, Estland, Bulgarien, Finnland, Griechenland, Polen, Spanien, Slowakei, Montenegro und Türkei) Falsch- oder Desinformation verbreitet wurde (The European Digital Media Observatory 2023). In allen Ländern fanden sich wiederkehrend ähnliche Falschbehauptungen, die darauf abzielen, die Integrität des Wahlprozesses in Zweifel zu ziehen. Dazu gehören beispielsweise Behauptungen über angeblichen Wahlbetrug durch die Manipulation von Briefwahlunterlagen. Allerdings zirkulieren auch manipulierende Inhalte mit spezifischem nationalem Kontext. So ging beispielsweise kurz vor der Wahl in der Slowakei im September 2023 eine belastende Tonaufnahme, in der einer der Spitzenkandidaten offenbar damit prahlte, wie er die Wahl manipuliert hätte, viral. Es stellte sich jedoch heraus, dass die Aufnahme durch Künstliche Intelligenz (KI) generiert wurde.
Für eine systematische Evaluation der Veröffentlichung und Verbreitung von Falschinformation hat die Arbeit von unabhängigen Faktenchecker:innen zunehmend an Bedeutung gewonnen. Vor der Europawahl hat das Externer Link: European Fact-Checking Standards Network (EFCSN), eine Vereinigung europäischer Faktenchecker:innen, eine englischsprachigeExterner Link: Datenbank mit Faktenchecks rund um die Europawahl und damit verwobene Themen initiiert. Sie bietet zwar keine vollständige Erhebung, erlaubt aber einen Überblick der in Europa kursierenden Falschbehauptungen und Desinformations-Narrative. Dabei zeigt sich, dass europaweit vor allem Falschbehauptungen rund um Russlands Angriffskrieg gegen die Ukraine kursieren (siehe Abbildung). Darstellungen, die ukrainische Geflüchtete als gewalttätig zu diskreditieren versuchen, sind dafür eines von vielen Beispielen. Am zweithäufigsten finden sich in der Faktencheck-Datenbank Behauptungen mit Bezug zum Klimawandel und zur Klimapolitik. Grundsätzlich lässt sich feststellen, dass Falschbehauptungen zu Themen verbreitet werden, die auch unabhängig von der Europawahl große gesellschaftliche Relevanz und großes Konfliktpotenzial besitzen. Erfahrungen aus nationalen Wahlen im vergangenen Jahr deuten zudem daraufhin, dass rund um den Urnengang Anfang Juni wieder vermehrt Falschbehauptungen zum eigentlichen Wahlprozess verbreitet werden (z.B. über vermeintliche Manipulationen bei der Briefwahl oder angeblichen Stimmenkauf).
Abzuwarten bleibt, welche Rolle KI-generierte Desinformation im Europawahlkampf spielen wird. Bislang machen Texte, Fotos und Videos, die von Systemen Künstlicher Intelligenz erzeugt wurden, nur einen kleinen Teil der kursierenden Falschinformationen aus. Die leichte Verfügbarkeit und die Qualität der generierten Inhalte lassen aber befürchten, dass das nicht so bleiben wird. Das Beispiel der KI-generierten Tonaufnahmen im slowakischen Wahlkampf ist dafür nur ein Indiz. Ein anderes ist eine Kampagne gegen den russischen Oppositionellen Externer Link: Alexej Nawalny im Jahr 2023 mittelsInterner Link: Bot-Accounts auf X, die offensichtlich mit Interner Link: ChatGPT generierte Tweets auf X verbreitet haben.
Der rasante Fortschritt der verschiedenen KI-Modelle ist zwar beeindruckend, stellt aber alle, die an der Integrität und Authentizität öffentlicher Kommunikation interessiert sind, vor gewaltige Probleme. Der Nachweis, dass ein Inhalt KI-generiert ist, wird immer schwieriger. Sogenannte Provenienz-Techniken, mit denen Authentizität und Herkunft eines Inhalts eindeutig bestimmt werden können, wie z. B. digitale Wasserzeichen (Watermarking), sind noch nicht so ausgereift und weit verbreitet, dass sie wirksam sind. Gleichzeitig nimmt die Überzeugungskraft zu, die menschliche Probanden maschinell erzeugten Inhalten zuschreiben (Goldstein et al. 2024).
Bekämpfung von Desinformation auf EU-Ebene
Auch wenn Wahlen ein potenzielles Einfallstor für Desinformation darstellen, sollten Gegenmaßnahmen und Aufmerksamkeit nicht darauf beschränkt sein. Für gewöhnlich geht es den Verbreiter:innen von Desinformation nicht darum, ein konkretes politisches Anliegen zu verwirklichen. Vielmehr ist die Zielsetzung, langfristig gesellschaftliches Vertrauen zu erodieren, das Vertrauen in demokratische Institutionen zu zerstören und ganze Gesellschaften so politisch handlungsunfähig zu machen.
Die Europäische Union hat sich schon vor mehreren Jahren den Kampf gegen Desinformation zum Ziel gesetzt. Grob lassen sich die in diesem Zusammenhang ergriffenen Maßnahmen in drei Kategorien einordnen:
Strategische Kommunikation: Dazu gehört beispielsweise das von der EU betriebene, mehrsprachige Portal Externer Link: „EUvsDisinfo“, das die Richtigstellung russischer Desinformation sowie Propaganda zum Ziel hat.
Der DSA gilt als EU-Verordnung in allen EU-Mitgliedsstaaten und dient vor allem der Regulierung großer digitaler Plattformen und sozialer Netzwerke. Darin festgeschrieben ist z. B. eine Löschverpflichtung bei illegalen Inhalten, wie sie in Deutschland nach dem 2017 in Kraft getretenen Externer Link: Netzwerkdurchsetzungsgesetz (NetzDG) ohnehin schon ähnlich bestand. Da Desinformation aber nicht zwingend illegal ist, gibt es einen weiteren Mechanismus, der im Kampf gegen Desinformation greifen kann: die Verpflichtung, Maßnahmen bei systemischen Risiken, wie etwa einer grundlegenden Gefährdung der Informationsfreiheit, zu ergreifen. Diese Gegenmaßnahmen können u. a. durch Selbstverpflichtungen definiert und erfüllt werden.
Der CoP ist eine von der EU-Kommission initiierte Selbstverpflichtung, die u. a. die großen Technologiefirmen (Google, Meta, Microsoft und TikTok) unterzeichnet haben. Darin sind zahlreiche Regeln vorgesehen, die vorschreiben, dass und wie Plattformen gegen Des- und Falschinformation vorgehen sollten. Die erste Fassung des CoP wurde 2018 veröffentlicht und anschließend überarbeitet. Die aktuell gültige Fassung wurde 2022 veröffentlicht und enthält 128 konkrete Maßnahmen gegen Des- und Falschinformation. Dazu gehören z. B. Transparenzvorschriften, die Durchsetzung von Community-Richtlinien oder die Pflicht zur Zusammenarbeit mit Faktenchecker:innen und Forschenden. Noch nicht abschließend geklärt ist die Frage, wie die Einhaltung der Verpflichtungen aus dem Code überwacht werden sollen. Eine erste umfassende Analyse hat gezeigt, dass die Transparenzberichte, die Plattformen vorlegen müssen, mangelhaft sind (Park und Mündges 2023). Die Nicht-Einhaltung des CoP ist zudem bislang kaum sanktionierbar. Ein Anreiz zur Einhaltung könnte geschaffen werden, wenn der CoP in einen sogenannten Code of Conduct umgewidmet wird. Dann würde dieser in den Anwendungsbereich des DSA fallen. Die Einhaltung wäre für große Plattformen damit zwar nicht verpflichtend, von den Regulierungsbehörden aber empfohlen. Große Plattformen könnten durch die Einhaltung des Codes belegen, dass sie ausreichende Maßnahmen zur Minimierung sogenannter systemischer Risiken getroffen haben. Dazu sind sie laut DSA verpflichtet.