Bei ihrer Analyse und Strategieentwicklung stützt sich die Europäische Union (EU)(besonders aktiv in diesem Bereich ist die Europäische Kommission) auf empirische Studien, europaweite Umfragen, Analysen externer Institutionen und Organisationen sowie auf Berichte eigener Expertengruppen. So rief die Kommission beispielsweise die sogenannte High Level Expert Group on Fake News and Online Disinformation ins Leben. Das Gremium war mit renommierten Kommunikationswissenschaftlern, Journalisten sowie Vertretern von Technologie- und Medienkonzernen besetzt. In ihrem Externer Link: Bericht definiert die Expertengruppe, was Desinformationen überhaupt sind, und empfiehlt mögliche Maßnahmen, die die Europäische Kommission im Kampf gegen Desinformation ergreifen könnte. Aufgrund dieser Faktenlage hat die EU eine Reihe verschiedener Strategien und Maßnahmen ergriffen, mit der sie auf das komplexe und vielschichtige Problem reagiert:
Selbstverpflichtungen großer digitaler Plattformen und Technologiekonzerne mit dem Ziel die Verbreitung von Desinformationen einzudämmen und mehr
Transparenz für die Nutzer herzustellen,
der Förderung von Medienkompetenz,
der Förderung von journalistischen und technologischen Projekten und
dem Aufbau eigener Überwachungseinheiten und Informationsangebote, um selbst schnell auf Falschinformationen und Desinformationskampagnen zu reagieren.
Selbstverpflichtungen großer digitaler Plattformen und Technologiekonzerne
Große Technologiekonzerne sind es, die einen Großteil der digitalen Infrastruktur bereitstellen, über die öffentliche Kommunikation läuft: Facebook und Twitter sind soziale Netzwerke, über die Menschen miteinander in Kontakt treten und Informationen ausgetauscht werden, Google fungiert durch seine Suchmaschine und Dienste wie Google News als zentraler Vermittler von Informationen. Beim Kampf gegen Desinformation liegt es daher nahe, diese Firmen mit einzubeziehen. Deren Vertreter haben in Zusammenarbeit mit der EU-Kommission einen Verhaltenskodex erarbeitet und unterschrieben, mit dem sie sich selbst dazu verpflichten, Maßnahmen zu ergreifen, um die Verbreitung von Desinformationen zu minimieren.
1. Werbeanzeigen
Desinformationen können online über Werbeanzeigen verbreitet werden, zum Beispiel indem schädliche Inhalte in Werbeanzeigen in den Newsfeeds von Facebook-Nutzern angezeigt werden oder indem sie im Umfeld von Suchergebnissen bei Google platziert werden. Außerdem können sich Seiten, die Desinformationen verbreiten, über Werbeanzeigen finanzieren. Problematisch sind beide Fälle, insbesondere da Werbeanzeigen genau auf Nutzer, ihre Interessen und Weltsicht zugeschnitten werden können ("Microtargeting"), wodurch sie enorm an Überzeugungskraft gewinnen können. Facebook und Google sind große Werbeunternehmen, die online bei der datengetriebenen Verbreitung von Werbung zentrale Positionen einnehmen. Sie sollen deshalb gegen die genannten Probleme vorgehen. Webseiten, die hauptsächlich Falschinformationen verbreiten und damit Geld verdienen, sollen möglichst vom Werbemarkt abgeschnitten werden. Hier kommt Google ins Spiel. Denn das Unternehmen betreibt ein großes Werbenetzwerk, über das Werbetreibende in Echtzeit-Auktionen Anzeigen an genau spezifizierte Nutzergruppen ausspielen können. Die Werbeanzeigen werden dabei nicht nur auf den Google-eigenen Seiten der Suchmaschine angezeigt. Tatsächlich nutzt ein Großteil der Webseiten im Internet Googles Netzwerk um Werbeplätze zu verauktionieren. Lässt Google Webseiten, die Desinformationen verbreiten, nicht mehr über sein System Werbeplätze verkaufen, könnte damit der Anreiz Desinformationen zu verbreiten, für einige Akteure sinken.
Die beiden Unternehmen sollen außerdem mehr Transparenz herstellen hinsichtlich der Parameter nach denen Werbeanzeigen Nutzern angezeigt werden. Nutzer sollen so verstehen können, warum ihnen ein bestimmter Werbepost angezeigt wird. Zu noch weitergehender Transparenz haben sich beide Plattformen hinsichtlich politischer Werbung verpflichtet. "Externer Link: Hierzu zählen nicht nur Anzeigen, die für bestimmte Kandidaten oder Parteien werben, sondern auch solche, die stark politisierte Themen wie z.B. Einwanderung behandeln.". Facebook hat dafür unter dem Titel "Externer Link: Werbebibliothek" ein Archiv- und Transparenzsystem aufgesetzt. Darüber sollen Nutzer aber auch Regulierungsbehörden, Journalisten und Wissenschaftler die Möglichkeit bekommen, alle geschalteten politischen Werbeanzeigen samt Daten zur Verbreitung einzusehen. Die Identität von Werbetreibenden soll außerdem überprüft werden und sie müssen nachweisen, dass sie ihren Sitz in dem Land haben, das Ziel der politischen Werbung ist. Auch Google will ein durchsuchbares Werbeanzeigen-Archiv zu Verfügung stellen und mehr Transparenz bei politischen Werbeposts herstellen.
2. Verbreitungsmechanismen
Google und Facebook sind entscheidende Plattformen für die Verbreitung von Informationen im Digitalen. Diese Plattformen sollen daher "in Technologien investieren, die relevante, authentische und korrekte Informationen priorisieren, sei es in Suchergebnissen, Feeds oder anderen automatisch zusammengestellten Verbreitungswegen".
3. Kampf gegen Fake-Accounts und Bots
Für die Verbreitung und Verstärkung von Desinformation wird häufig auf Fake-Accounts und Bots zurückgegriffen. Fake-Accounts sind Nutzerkonten, die vorgeben einen real existierenden Menschen zu repräsentieren und von diesem gesteuert zu werden. Fake-Accounts können entweder von Menschen oder automatisiert (also von Bots) gesteuert werden. Facebook selbst schätzt, dass 3-4 % aller Nutzerkonten Fake-Accounts sind.
Förderung von Medienkompetenz sowie journalistischen und technologischen Projekten
"Die lebenslange Entwicklung kritischer und digitaler Medienkompetenz insbesondere junger Menschen" sei von entscheidender Bedeutung im Kampf gegen Desinformation, schreibt die EU Kommission in ihrem Konzept zur "Externer Link: Bekämpfung von Desinformation im Internet". Um Medienkompetenz zu vermitteln, wurden mehrere Projekte und Initiativen gestartet. So fand Ende März 2019 die European Media Literacy Week statt, eine Aktionswoche mit 42 Veranstaltungen in zahlreichen europäischen Ländern. Ziel war es dabei unter anderem verschiedene Organisationen, die bereits im Bereich Medienkompetenz tätig sind, zu unterstützen und miteinander zu vernetzen. Ob die Anstrengungen der EU aber langfristig wirksam sein können, bleibt abzuwarten. Denn Einfluss auf Lehrpläne in EU-Mitgliedsstaaten hat die EU nicht.
Im Rahmen des EU-Förderprogramms "Horizon 2020", das bis zum Jahr 2020 mit knapp 80 Milliarden Euro zahlreiche Forschungs- und Innovationsprojekte aus unterschiedlichsten Bereichen fördern soll, werden auch Projekte gefördert, die technische Instrumente zur Erkennung und Überprüfung von Inhalten entwickeln sollen. Dabei geht es konkret um Fragen wie: Wer ist die Ursprungsquelle für einen Social Media-Post? An welchen Datensignalen lassen sich möglicherweise gefälschte Posts erkennen? Wie sollten Software-Tools aussehen, mit denen Fact-Checker schnell Videos auf ihre Echtheit prüfen können? Solche neuen Tools sollen auch journalistischen Faktencheck-Teams zur Verfügung gestellt werden. Teil der EU Maßnahmen ist es, ein unabhängiges europäisches Netz von Fact-Checkern zu knüpfen. Dafür wurden Workshops abgehalten. Die Kommission räumt in einem Zwischenbericht aber selbst ein, dass die Bemühungen, Fact-Checking zu stärken, bislang nicht zum gewünschten Ziel geführt haben. So wird nur ein Teil der EU-Länder durch das entstandene Fact-Checking Netzwerk abgedeckt und die Faktenprüfer sind laut EU "nicht in der Lage, mit der zunehmenden Menge an Online-Nachrichten Schritt zu halten".
Aufbau eigener Informationsangebote
Bereits 2015 nahm die EU East StratCom Task Force (Strategisches Kommunikationsteam Ost) die Arbeit auf.
Die skizzierten Maßnahmen und Strategien zeigen, dass die EU um eine umfassende Reaktion auf das Problem digitaler Desinformation bemüht ist. Allerdings stellt sich die Frage, wie nachhaltig diese Bemühungen sind. Die Regulierung der großen Plattformen verlässt sich vor allem auf Selbstverpflichtungen und kleinere Plattformen oder auch geschlossene Kommunikationsräume (z.B. Messenger-Dienste oder geschlossene Chat-Räume auf Servern kleinerer Unternehmen), über die ebenfalls Falschinformationen verbreitet werden können, sind von diesen Selbstverpflichtungen ohnehin nicht betroffen. Auch welche nachhaltigen Ergebnisse die Förderung von Medienkompetenz und Fact-Checking haben wird, bleibt abzuwarten. Schließlich handelt es sich um Bereiche, die sich nicht ausschließlich per Dekret regulieren lassen. Die EU wählt wohl auch deshalb eher behutsame Schritte, um einen Konflikt mit einem Grundrecht zu vermeiden: Denn wer gegen Desinformationen vorgeht, läuft auch immer Gefahr, das Recht auf Meinungsfreiheit zu tangieren.