Umgang mit Desinformationen
Wie wichtig ein schneller und konsequenter Umgang mit Desinformationen in den sozialen Medien ist, hat uns die COVID-19 Pandemie eindringlich vor Augen geführt. Trotz umfangreicher Aufklärungskampagnen öffentlicher Institutionen und einer kurzzeitig wieder gewachsenen Bedeutung seriöser und professioneller Nachrichtenanbieter, u.a. öffentlich-rechtlicher TV-Sender im Frühjahr 2020 (Peter & Brosius, 2020), nimmt die Menge an absichtlich verbreiteten Falschinformationen und Verschwörungserzählungen nicht ab. Eine Analyse von CORRECTIV.Faktencheck von zum Faktencheck gemeldeter Links (ca. 1400) verdeutlicht, dass die meisten Falschinformationen zum Infektionsgeschehen von YouTube stammen (ca. 46%) (CORRECTIV, 2020). Verbreitet werden sie am ehesten über den Messenger-Dienst WhatsApp (ebd.).
YouTube selbst ergreift unterschiedliche Maßnahmen, um seinen Nutzer/-innen weniger Fehlinformationen und mehr verlässliche Informationen zur Verfügung zu stellen (für einen Überblick YouTube, o.D.c). Darüber hinaus gab es Anfang März Gespräche zwischen Vertreter/-innen unterschiedlicher sozialer Medien und Mitgliedern der Europäischen Kommission, um über den Umgang mit Desinformationen zu beraten (Jaursch, 2020).
Als Reaktion auf den Anstieg an Falschinformationen zum Corona-Virus etwa werden Videos gelöscht, die das Virus beispielsweise mit der 5G-Technologie in Verbindung bringen oder Videos, die unseriöse Methoden für die Heilung einer Virusinfektion verbreiten (rnd, 2020). Weiterhin werden problematische Videos mit Infoboxen versehen, die auf seriöse Quellen verweisen – im Zusammenhang mit dem Virus etwa zur Bundeszentrale für gesundheitliche Aufklärung (BZGA) (CORRECTIV, 2020; Jaursch, 2020).
Neben einer möglichen Meldung von Inhalten, die als problematisch empfunden werden, durch die Nutzenden selbst, werden Inhalte bei YouTube automatisiert evaluiert und klassifiziert. Dazu verwendet die Plattform maschinelles Lernen. Dies eignet sich gut für die schnelle und effektive Aufdeckung von problematischen Inhalten (z.B. Desinformation, Fake Bots, Deep Fakes, Kinderpornographie) und ergänzt menschliche Handlungen im Kampf gegen problematische Inhalte. Wer entscheidet aber letztlich darüber was (politisch) "richtig" und was (politisch) "falsch" ist?
Automatisierte Vorgehensweisen sind alles andere als objektiv. Hinter ihrer Programmierung stehen Menschen mit ihren individuellen Wertvorstellungen, Einstellungen, Stereotypen. Daher sind auch die von ihnen programmierten Algorithmen mit einer Vielzahl an Verzerrungen (Bias), Limitationen, unintendierten Konsequenzen verknüpft. Dieser Umstand kann unterschiedliche Folgen haben. Nachfolgend sollen nur ein paar Möglichkeiten exemplarisch dokumentiert werden: Inhalte werden als problematisch, widerrechtlich eingestuft und sind es nicht ("falsch positiv"), was letztlich in eine Einschränkung von Meinungs- und Pressefreiheit auf der Plattform führen kann. Algorithmen können rassistische, radikalere Inhalte empfehlen (Ribeiro et al., 2020) oder Bildungsangebote mit problematischen Inhalten verknüpfen (Schmitt et al., 2018). Weiterhin können soziale Ungleichheiten verstärkt werden.
Während sich die Plattform im Umgang mit schädlichen Inhalten im Wesentlichen auf die Einhaltung ihrer weltweit geltenden Community-Richtlinien zurückzieht, gibt es verschiedene gesetzliche Regelungen und Vorgaben für den Umgang sozialer Medien mit problematischen Inhalten. Im Jahr 2018 wurde in Vorbereitung auf die Europawahl von der Europäischen Kommission etwa der Europäische Aktionsplan gegen Desinformation entwickelt und veröffentlicht (Europäische Kommission, 2018). Dieser zielt auf ein gemeinsames und koordiniertes Konzept zur Bekämpfung von Desinformation. Neben dem Ausbau der Fähigkeiten der Organe der EU, "Desinformationen zu erkennen, zu untersuchen und zu enthüllen", "mehr koordinierte und gemeinsame Maßnahmen der EU-Organe und der Mitgliedstaaten zum Thema Desinformation", der "Sensibilisierung für das Thema Desinformation in der Gesellschaft und Ausbau ihrer Widerstandsfähigkeit" ist darin die "Mobilisierung des Privatsektors bei der Bekämpfung von Desinformation" benannt – also die Mobilisierung der großen Anbieter sozialer Online-Plattformen, Werbetreibender o.ä. (Die Bundesregierung, o.D.; Europäische Kommission, 2018).
Im Zusammenhang mit dem zuletzt genannten Aspekt wird auf den im September 2018 von den wichtigsten Online-Unternehmen (Google, Facebook, Twitter, Mozilla) unterzeichneten Verhaltenskodex verwiesen (Europäische Kommission, 2020) . Darin verpflichten sich die Online-Unternehmen zu einer Reihe an Maßnahmen zur Bekämpfung von Desinformationen im Internet.
"Dieser greift im Wesentlichen Forderungen der EU-Kommission auf. Die Kommission hatte in ihrem Aktionsplan verlangt, dass die Plattformen politische Werbung transparent machen, gegen Scheinkonten vorgehen sowie automatisierte Bots ausfindig machen und entsprechend kennzeichnen. Überdies sollen die Online-Unternehmen mit nationalen Kontaktstellen im Bereich der Desinformation und mit Faktenprüfern zusammenzuarbeiten."
(Die Bundesregierung, o.D.)
Umgang mit rechtswidrigen Inhalten (z.B. Extremismus)
In Deutschland trat im Oktober ein weiteres Tool zur Bearbeitung rechtswidriger Inhalte in sozialen Online-Netzwerken mit mehr als zwei Millionen registrierten Nutzer/-innen in Deutschland in Kraft: Das Netzwerkdurchsetzungsgesetz (NetzDG). Durch das NetzDG sind Plattformen wie YouTube etc. gezwungen, rechtswidrige Inhalte innerhalb von 24 Stunden zu löschen, nur in Ausnahmefällen darf die Entfernung länger dauern. Zudem muss der Plattformanbieter "Nutzern ein leicht erkennbares, unmittelbar erreichbares und ständig verfügbares Verfahren zur Übermittlung von Beschwerden über rechtswidrige Inhalte zur Verfügung stellen" (Netzwerkdurchsetzungsgesetz vom 1. September 2017 (BGBl. I S. 3352), §3 Abs.1). In einem halbjährlich erscheinenden Transparenzbericht muss die Plattform Angaben zur Organisation, zum Verfahren und den Richtlinien zur Entfernung von Inhalten sowie über die Anzahl der Beschwerden und entfernten Inhalte machen.
"Um in den Anwendungsbereich des NetzDG zu fallen, muss der Inhalt unter einen der 21 Straftatbestände des Strafgesetzbuches (StGB) fallen, auf die das NetzDG verweist. Zudem prüfen wir [Google] Inhalte, die uns im Rahmen des NetzDG gemeldet werden, anhand unserer eigenen, weltweiten YouTube-Community-Richtlinien. Wenn der Inhalt gegen diese YouTube-Community-Richtlinien verstößt, entfernen wir [Google] ihn weltweit. Wenn der Inhalt nicht unter diese Richtlinien fällt, wir [Google] ihn aber gemäß einem der 21 Straftatbestände, auf die das NetzDG verweist (§ 1 Abs. 3 NetzDG), oder aufgrund einer anderen Rechtsnorm als rechtswidrig einstufen, sperren wir [Google] ihn lokal."
(Google Transparenzbericht, o.D.)
Insgesamt sind die Plattformen zu solchen Maßnahmen jedoch nicht verpflichtet. Das Telemediengesetz
regelt das sogenannte Provider-Privileg (§§8-10, TMG). Hiernach sind die Diensteanbieter nicht unmittelbar für die von Nutzer/-innen veröffentlichten Inhalte verantwortlich. Daher müssen die Plattformen bisher nur aktiv werden, wenn Inhalte von Nutzer/-innen, Meldestellen oder Behörden als potentiell rechtswidrig gemeldet werden.
Seit der Reform des NetzDG im Juni 2020 sollen die sozialen Netzwerke künftig potentiell strafbare Inhalte (z.B. Volksverhetzung, Androhung von schwerer Körperverletzung) nicht nur von der Plattform löschen, sondern diese – und die Passwörter relevanter Nutzer/-innen – auch direkt an das Bundeskriminalamt melden.
Abbildung 5 gibt einen Überblick über die in Deutschland zwischen Juli und Dezember 2019 gemeldeten Inhalte (188.671 gemeldet von Nutzer/-innen, 88.807 gemeldet von Beschwerdestellen) aufgeschlüsselt nach Beschwerdegrund. Es entfallen die meisten Meldungen von Inhalten aufgrund von Hassrede und politischem Extremismus (> 80.000) sowie aufgrund von Persönlichkeitsverletzungen oder Beleidigungen (>70.000).
Entfernt wurden von Google jedoch deutlich weniger Inhalte. Abbildung 6 gibt einen Überblick darüber, wie viele Inhalte aufgeschlüsselt nach Meldegrund letztlich von der Plattform entfernt worden sind. Dabei ist der tatsächliche Grund für die Entfernung nicht notwendigerweise identisch mit dem Meldegrund. Ca. 70.000 Inhalte wurden innerhalb von 24 Stunden von der Plattform entfernt. Die nicht entfernten Inhalte haben laut Google weder gegen einen im NetzDG genannten Straftatbestand noch gegen die Community-Richtlinien von YouTube verstoßen.
Das NetzDG sollte Vorbildcharakter im Umgang mit Hassverbrechen im Netz haben. Die Wirksamkeit und Effektivität des NetzDG im Hinblick auf problematische Inhalte im Internet ist jedoch umstritten. So erhöht das Gesetz die Anreize für die sozialen Online-Netzwerke user-generated Content zu löschen, um Strafen zu entgehen. Welche Inhalte zu entfernen – also illegal – sind, darüber entscheiden die Plattformen letztlich selbst. Die Meinungsfreiheit scheint in Gefahr. Darüber hinaus gibt das NetzDG keine Auskunft darüber, wie Nutzer/-innen möglicherweise unrechtmäßige Löschentscheidungen anfechten können (Dachwitz, 2019). Mehr Mitsprache und Informationen für Nutzer/-innen werden zwar in der EU-Richtlinie über audiovisuelle Mediendienste , eine Richtlinie, welche die EU-weite Koordinierung der nationalen Gesetzgebung bezüglich aller audiovisueller Medien regelt, sowie im überarbeiteten Telemediengesetz formuliert. Das NetzDG hat jedoch Vorrang vor diesen Maßgaben (ebd.). Die Novellierung des Gesetzes, welche die Weiterleitung von Kommentaren und die Pflicht zur Herausgabe von Passwörtern an das BKA vorsieht, wird von Medienrechtlern als höchst bedenklich eingeschätzt (Markert, 2020).
Weiterhin lässt sich durch das Gesetz Hasskriminalität im Netz nur bedingt wirksam bekämpfen. So betrifft das Gesetz nur Plattformen mit mehr als zwei Millionen registrierten User/-innen, extremistische Akteur/-innen ziehen sich für den Upload von Inhalten auf alternative Plattformen zurück, die nicht unter die Meldepflicht des NetzDG fallen (siehe auch der Überblick über Alternativen zu YouTube in Interner Link: Webvideo-Plattformen abseits von YouTube). Weiterhin sind es insbesondere subtilere Online-Inhalte wie etwa Verschwörungserzählungen, denen nicht – oder nur sehr schwer – mit Löschung oder juristischen Sanktionen begegnet werden kann.
Werberichtlinien
Insbesondere für jüngere Nutzer/-innen sind sogenannte Creator/-innen, Influencer/-innen und YouTuber/-innen von großer Bedeutung (Google, 2015). Eine Inhaltsanalyse der 100 erfolgreichsten YouTube-Kanäle in Deutschland verdeutlicht, dass sie in 56 der 100 Kanäle eine zentrale Rolle als "digitale Meinungsführer" und "virtuelle Freund/-innen" spielen (Frühbrodt & Floren, 2019). Inhaltlich stehen Alltagsaktivitäten, das Shoppen, Auspacken, Ausprobieren und Kommentieren von Produkten im Fokus (Frühbrodt, 2019). Monetarisiert wird die Beliebtheit der YouTube-Stars durch den Vertrieb von Merchandise-Artikel, Produktplatzierungen bzw. Werbung vor ihren Videos (Frühbrodt & Floren, 2019). Diese Rolle als Werbefiguren ist jedoch vor allem für jüngere Nutzer/-innen häufig nur schwer zu erkennen. Werbung – insbesondere, wenn sie als Produktplatzierungen eingebettet ist – wird weder als störend empfunden noch als Werbung wahrgenommen. Ein Mechanismus, den sich das Influencer-Marketing umfassend zu Nutze macht (Frühbrodt, 2019).
Da viele Influencer/-innen Werbung nicht kenntlich machten, gaben die Landesmedienanstalten 2015 erstmals Leitlinien zur Werbekennzeichnung bei Social-Media-Angeboten heraus (die Medienanstalten, 2020). Gemäß diesen müssen entsprechende Videos mit "Werbevideo", "unterstützt durch Produktplatzierungen" oder "Affiliate Link" gekennzeichnet werden. Die Rechtsprechung zu Tätigkeiten von sogenannten Influencer/-innen ist jedoch bisher uneindeutig. Laut Gesetzentwurf der Bundesregierung zur Änderung des Telemediengesetzes und weiterer Gesetze vom 27. April 2020 bestünde die Gefahr, ...
"... dass die betroffenen Personenkreise auch redaktionelle Beiträge aus Angst vor Abmahnungen als Werbung kennzeichnen, was nicht nur das Gebot der Trennung von redaktionellen und werblichen Inhalten unterminieren würde, sondern auch im Hinblick auf die in Artikel 11 der Charta der Grundrechte der Europäischen Union (ABl. C 364, S. 1) verankerten Grundrechte der Meinungsfreiheit, Informationsfreiheit und Medienfreiheit bedenklich wäre."
(Deutscher Bundestag, 2020, S.34)
Ein überarbeitetes Telemediengesetz soll entsprechende Klarheit schaffen (siehe auch Dachwitz, 2020). Weiterhin nimmt die Überarbeitung neuformulierte Aspekte aus der EU-Richtlinie über audiovisuelle Mediendienste auf (Europäische Kommission, 2020), nach denen es Online-Videoplattformen ihren Nutzer/-innen erleichtern sollen, ihre Videos beim Upload als Werbung zu kennzeichnen.
EU-Urheberrechtsreform: Artikel 13
Anfang des Jahres 2019 wurde die "Richtlinie über das Urheberrecht im digitalen Binnenmarkt" von einer Mehrheit des EU-Parlamentes angenommen (bpb, 2019). Doch die Richtlinie ist teilweise heftig umstritten (siehe z.B. bpb, 2019; Marx, 2019). Besonders in der Kritik steht der Artikel 13 (in der angenommenen Fassung Artikel 17), welcher vorsieht, dass Inhalte bereits vor der Veröffentlichung auf mögliche Urheberrechtsverstöße geprüft werden; zwar wird das in der Richtlinie nicht so formuliert, in der Praxis würde das jedoch über sogenannte Uploadfilter geschehen (bisher wurden nur Inhalte aufgrund von Urheberrechtsverstößen aus den sozialen Medien entfernt, wenn eine entsprechende Meldung an die Plattform vorlag).
Die Uploadfilter würden die Gefahr bergen, dass IT-Unternehmen (durch vermutlich intransparente Filtertechnologien) mehr Macht über Nutzer/-innen und ihre Daten erhielten (bpb, 2019), außerdem Inhalte, die etwa eine satirische Verarbeitung von urheberrechtlich geschütztem Content vornehmen, (zunächst) entfernt bzw. gar nicht erst auf der Plattform veröffentlicht würden. Es wurde sogar eine Petition ins Leben gerufen mit dem Titel "Stoppt die Zensurmaschine – Rettet das Internet!", der sich auch viele YouTuber/-innen angeschlossen haben. Die deutsche Bundesregierung hat dem EU-Entwurf zwar im EU-Ministerrat zugestimmt, wie jedoch das Gesetz letztlich in nationales Recht umgesetzt wird, ist bisher nicht klar. Die deutsche Bundesregierung hat dafür noch bis zum 07. Juni 2021 Zeit.