Hintergrund: Wie wirkt sich die Nutzung digitaler Plattformen auf Meinungsbildungsprozesse aus?
Jakob von Lindern
/ 18 Minuten zu lesen
Link kopieren
Medien liefern Informationen und bilden öffentliche Diskurse ab. War der Bedeutungszuwachs von Online-Medien lange mit Hoffnungen verbunden, rückten zuletzt problematische Entwicklungen in den Fokus.
Den größten Teil unseres Wissens beziehen wir über andere. Medien spielen dabei eine zentrale Rolle. Sie liefern Informationen und bilden öffentliche Diskussionen ab – und versetzen ihre Nutzer/-innen damit in die Lage, sich selbst eine Meinung zu bilden.
Doch die Art und Weise, wie wir uns informieren und miteinander diskutieren, hat sich in den vergangenen Jahrzehnten stark verändert. Lange Zeit spielten die Massenmedien Presse, Hörfunk und Fernsehen die zentrale Rolle. Heute nutzen die meisten Menschen zunehmend digitale Plattformen, um an Informationen zu gelangen oder sich auszutauschen. Im Mittelpunkt der Mediennutzung stehen heute Soziale Netzwerke, Messenger-Dienste, Suchmaschinen und Online-Nachrichtenangebote. Für die traditionellen Massenmedien wurden aufgrund ihrer großen Bedeutung für die Gesellschaft im Laufe der Zeit Gesetze, Regeln und Mechanismen entwickelt, die sicherstellen sollen, dass die Medien ihre Rolle gemäß den Interessen der Gesellschaft erfüllen. Zum Beispiel sollen sie die Vielfalt der Meinungen abbilden, und Journalisten/-innen sollen sorgfältig und ausgewogen berichten.
Während digitale Plattformen innerhalb kurzer Zeit eine enorme Bedeutung erlangt haben, läuft die Entwicklung solcher Mechanismen noch hinterher.
Ihr Bedeutungszuwachs wird teilweise mit Hoffnungen verbunden, doch in der öffentlichen Diskussion stehen seit einigen Jahren problematische Entwicklungen im Vordergrund, digitale Plattformen werden teilweise sogar als Gefahr für die Demokratie bezeichnet. Zudem ist noch nicht geklärt, ob es sich bei diesen Plattformen überhaupt um Medienunternehmen handelt.
Die Hoffnungen beruhen darauf, dass digitale Dienste die gesellschaftliche Partizipation fördern können. Sie erleichtern es, sich zu informieren und sich aktiv mit anderen auszutauschen und zusammenzuarbeiten. Nutzer/-innen würden zu "Prosumenten", die nicht mehr nur Informationen konsumieren, sondern selbst öffentlich zugängliche Beiträge produzieren und Aufmerksamkeit für ihre Themen erzielen könnten. Jedoch wird oft kritisiert, dass insbesondere Soziale Netzwerke die Polarisierung der Gesellschaft und "Verrohung" der öffentlichen Debatte fördern können. Zudem würden sie die Verbreitung von Falschinformationen ("Fake News") ermöglichen.
Warum sind Medien wichtig für die Demokratie?
Wie wir unsere Meinungen bilden, ist grundlegend wichtig für die Demokratie. Denn in der Demokratie beteiligen sich idealerweise alle Bürgerinnen und Bürger daran, die Gesellschaft zu gestalten. Sie bilden sich eine Meinung darüber, wie unsere Gesellschaft aussehen sollte und treffen entsprechende Entscheidungen – zum Beispiel bei Wahlen.
Klar ist, dass es in einer Gesellschaft unterschiedliche Meinungen gibt, denn sie hängen von den verschiedenen Lebenslagen und Bedürfnissen der einzelnen Menschen ab. In die Meinungsbildungsprozesse in einer Demokratie sollten daher unterschiedliche Sichtweisen einfließen. Es gehört zum Selbstverständnis des Journalismus, in Zeitungen, Rundfunk und Fernsehen unterschiedliche Perspektiven sichtbar zu machen, relevante Stimmen auszuwählen und auch zu bewerten. Journalismus übernimmt auf diese Weise eine Filterfunktion. Diese Funktionen sind Gegenstand der Medienpolitik. Sie hat zum Ziel, die Vielfalt im Angebot journalistischer Medien zu sichern und zu verhindern, dass einzelne zu große "Meinungsmacht" bekommen.
Doch die Mediennutzung hat sich drastisch verändert. Die Auflage von Tageszeitungen in Deutschland beispielsweise hat sich seit 1990 halbiert. Dagegen nutzen wir heute im Durchschnitt mehr als dreieinhalb Stunden pro Tag das Internet. Bei Menschen unter 30 Jahren liegt dieser Wert sogar fast doppelt so hoch.
Zwar entfällt ein großer Teil dieser Zeit auf journalistische Inhalte. Doch eine entscheidende Rolle spielen dabei Suchmaschinen und soziale Netzwerke. Denn aufgefunden werden Medienbeiträge sehr häufig nicht direkt über die Internetseiten oder Apps der Herausgeber, sondern indem sie bei Plattformen wie Facebook oder Twitter geteilt, in den Ergebnissen einer Suchmaschine gelistet oder per Messenger weitergeleitet werden. Für einen großen Teil der jüngeren sind soziale Netzwerke bereits die wichtigste Quelle für Nachrichten.
Eine Handvoll von digitalen Plattformen ist besonders wichtig. Bei Suchmaschinen ist es Google. Der Dienst ist mit einem Marktanteil von rund 86 Prozent weltweit mit großem Abstand führend. Bei den sozialen Netzwerken ist in Deutschland Facebook führend, im Jahr 2019 lag der Marktanteil bei 60 Prozent. Facebook wird monatlich allein in Deutschland von über 32 Millionen Menschen genutzt. Bei den jüngeren Nutzern/-innen ist Instagram am beliebtesten. Die Plattform gehört jedoch ebenfalls zum Facebook-Konzern, der sich Ende 2021 in Meta umbenannt hat.
Welche Rolle spielen digitale Plattformen für den Zugang zu Informationen?
Bei traditionellen Massenmedien filtern Journalisten/-innen die Informationen, eine zentrale Redaktion bereitet sie auf. Dann werden sie in identischer Form an ein großes Publikum verbreitet: Millionen Zuschauer/-innen sehen gleichzeitig dieselbe Nachrichtensendung, (wobei etwa durch Mediatheken der Fernsehsender inzwischen auch hier eine asynchrone Nutzung möglich ist).
Dagegen bestimmen bei sozialen Netzwerken und Suchmaschinen die automatisierten Funktionen der Plattformen sowie das Verhalten der Nutzer/-innen, was diese zu sehen bekommen.
Allerdings produzieren Plattformen wie Google und Facebook keine eigenen Inhalte. Suchmaschinen und soziale Netzwerke wirken vielmehr als Vermittler, als sogenannte Intermediäre. Die Inhalte stammen aus verschiedensten Quellen. Die Plattformen fügen sie für ihre Nutzer/-innen zusammen, indem sie die Beiträge in deren "Streams" oder "Timelines" anzeigen.
Das verändert die Aufbereitung im Vergleich zu traditionellen Massenmedien in mehreren Punkten:
Personalisierung
Was die Nutzer/-innen von sozialen Netzwerken und Suchmaschinen zu sehen bekommen, ist personalisiert. In sozialen Netzwerken ist dies besonders deutlich. Der "Nachrichtenstrom" verschiedener Nutzer/-innen enthält in der Regel völlig unterschiedliche Beiträge. Doch auch die Ergebnisse von Suchmaschinen können sich unterscheiden, je nachdem, wer sucht. Denn soziale Netzwerke und Suchmaschinen sind darauf ausgerichtet, Informationen zu liefern, die den individuellen Interessen ihrer Nutzer/-innen entsprechen. Dahinter steht die Annahme, dass diese solche Inhalte als besonders nützlich empfinden. Die meist werbefinanzierten Anbieter versprechen sich davon, dass die Nutzer/-innen mehr Zeit auf ihren Plattformen verbringen.
Verschiedene Mechanismen sorgen für die Personalisierung. In sozialen Netzwerken entscheiden sich Nutzer/-innen zum einen aktiv für Informationsquellen, indem sie anderen "folgen", deren Beiträge abonnieren oder sich bestimmten Gruppen anschließen. Ähnliches passiert in Messenger-Diensten. Zum anderen versuchen soziale Netzwerke, ihre Nutzer/-innen so gut wie möglich kennenzulernen. Zu diesem Zweck werten sie aus, wem Nutzer/-innen folgen und wie sie mit ihren Kontakten und mit Beiträgen reagieren. Kommentare oder ein "Like" für einen Beitrag können dazu führen, dass den Nutzer/-innen mehr Inhalte ähnlicher Art angezeigt werden.
Auch Suchmaschinen personalisieren in der Regel die Ergebnisse, die sie ihren Nutzern/-innen anzeigen, indem sie ihr Verhalten auswerten. Google zum Beispiel gibt an, dass die bisherigen Suchanfragen in die Suchergebnisse einfließen. Außerdem bezieht das Unternehmen laut eigenen Angaben weitere "Aktivitäten in deinem Google-Konto" ein. Daraus kann es zum Beispiel darauf schließen, wo sich die Nutzerin oder der Nutzer während der Suchanfrage befindet. So liefert die Suchmaschine bei derselben deutschsprachigen Anfrage in Deutschland und in Österreich unterschiedliche Ergebnisse. Es sind jedoch viel genauere Ortsbestimmungen möglich. Das wird dadurch erleichtert, dass das Unternehmen verschiedene Dienste anbietet, darunter auch den Kartendienst Google Maps.
Nebeneinander verschiedener Quellen
Sowohl in sozialen Netzwerken als auch in den Ergebnissen von Suchmaschinen können Inhalte aus den unterschiedlichsten Quellen mehr oder weniger gleichberechtigt nebeneinanderstehen. Dazu zählen journalistische Inhalte, geprüfte Fakten aus Online-Lexika, Blog-Artikel, persönliche Beiträge von Freunden und Bekannten, aber auch Falschmeldungen und Spekulationen oder Meinungen von Fremden sowie von Parteien bezahlte Wahlwerbung.
Aktive Rolle der Nutzer/-innen
Im Gegensatz zu Massenmedien spielen die Nutzer/-innen eine zentrale Rolle dabei, welche Inhalte in sozialen Netzwerken und Suchmaschinen sichtbar werden. Bei sozialen Netzwerken ist das besonders deutlich. Ein großer Teil ihrer Inhalte wird von Nutzer/-innen selbst erstellt. Außerdem interagieren Nutzer/-innen mit den Beiträgen anderer, zum Beispiel, indem sie diese kommentieren, mit Reaktionen wie "gefällt mir" markieren oder weiterleiten.
Beiträge können enorme Reichweiten erzielen, wenn sie von Nutzern/-innen in sozialen Netzwerken weiterverbreitet werden. Dieser Effekt wird als "virale" Verbreitung bezeichnet. Was einzelne Nutzer/-innen so wichtig finden, dass sie darauf reagieren oder es mit ihren Kontakten teilen, finden oft auch viele andere interessant, sodass sich ein Schneeball-Effekt der Verbreitung ergibt.
Dieser Effekt wird durch das Interner Link: Geschäftsmodell von sozialen Netzwerken begünstigt. Sie finanzieren sich durch Werbung; daher sind ihre Funktionen darauf ausgerichtet, Beiträge zu "belohnen", welche die Aufmerksamkeit von möglichst vielen Nutzern/-innen auf sich ziehen.
Bei Suchmaschinen ist weniger deutlich, dass die Nutzer/-innen aktiv die Inhalte beeinflussen. Doch auch für die Reihenfolge der Suchergebnisse bei Google spielen sie eine wichtige Rolle. Google bewertet Websites unter anderem danach, ob andere Nutzer/-innen sie bevorzugen und ob andere bekannte Websites darauf verlinken.
Was sind die Folgen für die Wahrnehmung von Informationen?
Die Personalisierung, das Nebeneinander verschiedener Quellen und die aktive Rolle der Nutzer/-innen wirken sich darauf aus, wie wir uns in digitalen Plattformen informieren können – und haben somit Folgen für die Prozesse der Meinungsbildung.
Einerseits bieten sich dadurch Chancen. So eröffnen digitale Plattformen grundsätzlich den Zugang zu einer riesigen Vielfalt von Informationen und Meinungen und ermöglichen Debatten. Sie können es Nutzer/-innen erleichtern, die Übersicht über bestimmte Themen zu behalten oder sich mit Menschen zu vernetzen, die ähnliche Interessen haben. Zudem bieten sie die Möglichkeit, Interner Link: sich selbst zu äußern und in Diskussionen einzubringen.
Im Vergleich zu traditionellen Massenmedien sinkt die Hürde massiv, öffentlich sichtbar zu werden. Nicht mehr nur Fernsehsendungen oder Tageszeitungen erreichen ein großes Publikum, sondern auch kleine NGOs oder sogar Einzelpersonen haben die Chance, enorme Reichweiten zu erzielen. Ein Beispiel ist #MeToo. Erstmals 2006 von Tarana Burke auf Myspace verwendet, wurde MeToo im Jahr 2017 zum Schlagwort einer Bewegung in den sozialen Netzwerken. Die Diskussionen dort lösten eine breite gesellschaftliche Debatte über sexualisierte Gewalt und Diskriminierungserfahrungen aus.
Andererseits ist die Vermittlung von Informationen und Meinungen durch Suchmaschinen und soziale Netzwerke mit problematischen Entwicklungen verbunden. Insbesondere folgende Befürchtungen werden diskutiert:
Digitale Plattformen – insbesondere soziale Netzwerke – würden die Zersplitterung der Öffentlichkeit ("Filterblasen") und die Polarisierung der Gesellschaft fördern,
die Verrohung von öffentlichen Debatten sowie die Verbreitung von Hass begünstigen,
die Verbreitung von Falschinformationen erleichtern ("Fake News"),
die gezielte Beeinflussung der Öffentlichkeit ermöglichen.
Zersplitterung der Öffentlichkeit ("Filterblasen")
Unsere Medienerfahrungen sind individualisiert. Was verschiedene Nutzer/-innen in ihrem digitalen Medienalltag zu sehen bekommen, unterscheidet sich stark. Befürchtet wird, dass durch diese Personalisierung ein verzerrtes Bild von gesellschaftlichen Debatten vermittelt wird und die Meinungsbildung der Nutzer/-innen auf einseitigen Informationen beruht.
Denn Nutzer/-innen hören, sehen und lesen in sozialen Netzwerken vor allem Meinungen, die dem ähneln, was sie selbst denken. Andere Sichtweisen könnten automatisch gefiltert werden. Der Effekt wird oft als "Filterblase" bezeichnet. Häufig fällt auch der Begriff "Echokammer".
Selbst wenn verschiedene Nutzer/-innen in verschiedenen "Filterblasen" dieselbe Nachricht erhalten, kann sich die Art und Weise unterscheiden, in der sie davon erfahren (unterschiedliches "Framing"). Die Wahrnehmung eines journalistischen Beitrags kann ganz unterschiedlich ausfallen, je nachdem, ob er innerhalb eines sozialen Netzwerks viele "Likes" erzielt oder von Freunden per Messenger weitergeleitet und als Beleg für das "Versagen der Mainstream-Medien" bezeichnet wird.
Allerdings ist wissenschaftlich nicht belegt, ob es wirklich immer und automatisch zum Effekt der Filterblasen kommt – das Konzept ist umstritten. Und: Auch Tageszeitungen und Fernsehsender neigen häufig zu einer bestimmten politischen Ausrichtung, die ihre Inhalte beeinflusst.
Verbreitung von "Fake News"
Ein zentraler Kritikpunkt in der Debatte über die Rolle von digitalen Plattformen in der Gesellschaft ist, dass sie die Verbreitung von Falschinformationen fördern (sogenannte "Fake News"). Vor allem soziale Netzwerke und Messenger-Dienste stehen in der Kritik. Geteilt von deren Nutzer/-innen können "Fake News" enorme Reichweiten erzielen, weil sie in den persönlichen Nachrichtenstrom vieler Kontakte "gespült" werden. Doch auch in den Ergebnissen von Suchmaschinen können Falschinformationen ganz oben auftauchen.
Besorgniserregend ist dies vor allem, wenn dadurch Vorbehalte und Hass geschürt werden oder das Vertrauen in die Demokratie untergraben wird. In traditionellen Medien gibt es Mechanismen, welche die Verbreitung von Falschinformationen verhindern sollen. Dazu gehören Standards für die Arbeitsweise von Journalisten/-innen wie die Verpflichtung, Quellen zu prüfen, sowie die Prüfung von Beiträgen durch eine Redaktion.
Das Prinzip von sozialen Netzwerken ist dagegen, dass Nutzer/-innen direkt miteinander kommunizieren. Inhaltliche Prüfungen sind nicht vorgesehen. Informationen werden durch automatische Funktionen und Algorithmen der Plattformen bewertet und gefiltert statt durch Journalisten/-innen. In Deutschland soll das Netzwerkdurchsetzungsgesetz allerdings seit 2017 die Möglichkeit schaffen, Hetze und strafbare Falschnachrichten so schnell wie möglich von sozialen Netzwerken zu löschen (s.u.).
Polarisierung, Verrohung und "Hate Speech"
Einige grundlegende Mechanismen von sozialen Netzwerken werden mit der Polarisierung und "Verrohung" öffentlicher Debatten in Verbindung gebracht. Denn dort werden zugespitzte Aussagen durch höhere Sichtbarkeit belohnt. Die Funktionsweise der Plattformen bedingt, dass Beiträge, die viele Reaktionen auslösen, auch anderen Nutzer/-innen häufiger angezeigt werden. Das betrifft nicht nur lustige Beiträge, die einen großen Teil der Inhalte in sozialen Netzwerken ausmachen, sondern zum Beispiel auch politische Forderungen oder Beiträge, die Angst oder Wut auslösen.
Hintergrund ist das Geschäftsmodell von sozialen Netzwerken: Sie finanzieren sich durch Werbung. Die Anbieter der Plattformen haben nicht per se ein Interesse daran, dass ausgewogene Meinungen oder akkurate Informationen verteilt werden. Im Fokus steht, dass Nutzer/-innen auf der Plattform möglichst viel interagieren und somit Interner Link: viel Zeit dort verbringen.
Bei sogenannten Hassbeiträgen ("Hate Speech") spielen diese Bedingungen ebenfalls eine Rolle. So können beleidigende oder menschenverachtende Inhalte eine große Reichweite erzielen. Hinzu kommt, dass sich ihre Verfasser/-innen oft bestärkt fühlen durch ihr Umfeld im sozialen Netzwerk: Sie sind häufig mit Nutzer/-innen in Kontakt, die ähnlich denken (siehe Abschnitt zu "Filterblasen").
Zusammengenommen kann dies die Tonlage von Debatten im Netz entscheidend beeinflussen.
Manipulation der Öffentlichkeit
Die Mechanismen digitaler Plattformen können ausgenutzt werden, um die öffentliche Meinung gezielt zu beeinflussen. Eine überparteiliche Untersuchung des US-Senats ergab, dass anlässlich der Präsidentschaftswahl 2016 in sozialen Netzwerken in großem Umfang gezielt falsche Berichte verbreitet wurden, teilweise durch eigens angelegte Nutzerprofile und Seiten. Auch bezahlte Anzeigen wurden genutzt. Offenbar sollten dadurch bestehende gesellschaftliche Spannungen verstärkt und die Wahlkampagne des damaligen republikanischen Kandidaten und späteren US-Präsidenten Donald Trump unterstützt werden. Laut den Untersuchungen geschah dies teilweise im Auftrag der russischen Regierung.
Generell ist die Frage relevant, welche Rolle bezahlte Inhalte in digitalen Plattformen spielen. Die Suchmaschine Google hat über die Jahre etwa immer stärker das Geschäft mit Anzeigen ausgebaut, die passend zu einem Suchbegriff prominent angezeigt werden. Jedoch haben Studien ergeben, dass viele Nutzer/-innen die bezahlten Anzeigen nicht von den normalen Suchergebnissen unterscheiden können.
Auch bei Facebook oder Twitter fällt vielen Nutzer/-innen trotz Kennzeichnung nicht auf, welche Inhalte gesponsert sind. Hier können gegen Geld Beiträge bevorzugt im Newsfeed der Nutzer/-innen platziert werden. So können Unternehmen, Interessensgruppen oder auch Parteien ihre meinungsbildenden Botschaften gezielt platzieren. Allein in den drei Monaten vor der Bundestagswahl 2021 gaben die Parteien rund 4,7 Millionen Euro für Werbung bei Facebook, Instagram, Google und YouTube aus, berichtete das Magazin Der Spiegel. Auch die Plattform TikTok findet immer mehr Beachtung. Sie ist besonders bei Jugendlichen beliebt. Zwar sind dort offiziell keine politischen Werbeanzeigen erlaubt. Aber viele Politiker/-innen bzw. die Parteien treiben teilweise großen Aufwand, um Inhalte für TikTok zu produzieren und damit insbesondere jüngere Menschen anzusprechen.
Welche Rollen spielen Unternehmen, die Nutzer/-innen und der Gesetzgeber?
Betreiber digitaler Plattformen
Zwar tragen Suchmaschinen und soziale Netzwerke zur Meinungsbildung ihrer Nutzer/-innen bei und spielen somit eine wichtige Rolle für die gesamte Gesellschaft – dennoch sind sie Angebote privater Unternehmen, die ihre Produkte nach ihren Vorstellungen gestalten können. Plattformen wie Facebook oder Twitter haben gewissermaßen das Hausrecht und regulieren, welche Beiträge angezeigt werden – und welche nicht. Dabei wird immer wieder deutlich, dass die wirtschaftlichen Interessen der Anbieter im Vordergrund stehen und nicht das Ziel, eine unbeeinflusste Meinungsbildung zu ermöglichen.
Grundsätzlich ist es für Nutzer/-innen nicht transparent, wie Beiträge ausgewählt oder sortiert werden. Der Algorithmus, nach dem meinungsbildende Artikel oder Videos platziert werden, ist bei den meisten Anbietern ein wohlgehütetes Geschäftsgeheimnis. Und er wird stetig angepasst – die relevanten Kriterien können sich von Tag zu Tag verändern.
Seit langem wird gefordert, dass die Plattform-Anbieter mehr Verantwortung dafür übernehmen, welche Inhalte auf den Plattformen kursieren. Jedoch hat sich zum Beispiel Facebook-Gründer Marc Zuckerberg lange Zeit dagegen gesträubt, Facebook als Medienunternehmen zu bezeichnen. Aus seiner Sicht sei der Konzern ein Technologieunternehmen.
Ein besonderer Fall ist die Plattform TikTok. Sie sorgt für Diskussionen, weil das Betreiberunternehmen ByteDance seinen Sitz in China hat. Insbesondere in den USA gibt es Sorge, dass die chinesische Regierung Einfluss auf die Plattform nimmt und zum Beispiel sensible Daten der Nutzer/-innen erhält. Seit April 2021 ist der chinesische Staat sogar direkt an dem Unternehmen beteiligt.
Die einzelnen Nutzer/-innen
Ohne die aktive Mitwirkung von Millionen Nutzer/-innen würde es die beschriebenen Probleme nicht geben. Insbesondere bei der Verbreitung von "Fake News" und Hassbotschaften spielen die Aktionen individueller Nutzer/-innen eine zentrale Rolle.
Unsere Beiträge in sozialen Medien sind unmittelbar für viele unserer Kontakte sichtbar. Ob wir uns ausgewogen äußern oder aufregen, kann den Ton vorgeben für die weitere Diskussion. Wenn wir Informationen weitergeben oder journalistische Beiträge teilen, wird unsere persönliche Verbindung zu anderen Nutzern/-innen zum Rahmen der Information ("Framing"); wir können ihnen damit eine gewisse Legitimation verleihen – oder uns kritisch äußern. Auf diese Weise spielen wir für unsere Kontakte eine ähnliche Rolle wie die Redaktion einer Zeitung.
Eine besondere Verantwortung kommt sogenannten Influencer/-innen zu. Das sind einzelne Personen, deren Profile eine besonders große Reichweite haben.
Gesetzgeber
Im Bereich der traditionellen Massenmedien haben sich in demokratischen Gesellschaften über lange Zeiträume verschiedene Kontrollmechanismen etabliert. So soll einerseits sichergestellt werden, dass Medien frei berichten können und die Vielfalt der Meinungen sichtbar bleibt, andererseits sollen problematische Entwicklungen vermieden werden. So gibt es bei den öffentlich-rechtlichen Medien in Deutschland sogenannte Rundfunkräte, in denen verschiedene gesellschaftliche Gruppen vertreten sind. Sie sollen sicherstellen, dass die Medien ihrem gesellschaftlichen Auftrag gerecht werden. Demnach sollen die öffentlich-rechtlichen Medien die Vielfalt der Gesellschaft abbilden und objektiv informieren.
Außerdem sollen rechtliche Regelungen – zum Beispiel im Kartellrecht – verhindern, dass einzelne Medienunternehmen zu viel Einfluss gewinnen und sogenannte "Meinungsmonopole" entstehen.
Hinzu kommen eigene Kontrollmechanismen der Medien, etwa der Deutsche Presserat. Er ist die freiwillige Selbstkontrolle der Medien und hat die Aufgabe, für ethische Standards und Verantwortung im Journalismus einzutreten. Der Presserat gibt den sogenannten Pressekodex heraus. Darin werden Standards für die journalistische Arbeit formuliert.
Im Hinblick auf wirksame Regulierung der digitalen Plattformen läuft die Entwicklung noch hinterher. Doch gibt es bereits entsprechende Initiativen der Politik.
So wurde in Deutschland beispielsweise 2017 das Netzwerkdurchsuchungsgesetz (kurz NetzDG) verabschiedet. Es soll eine Rechtsgrundlage schaffen, um gegen Hassrede oder Falschnachrichten im Netz vorzugehen. Plattformbetreiber müssen seither nachweisen, dass sie rechtswidrige Beiträge effektiv und zügig entfernen.
Eine Herausforderung für die Regulierung durch den Gesetzgeber besteht darin, dass die großen Plattformen global aktiv sind, aber die Rechtslage in den verschiedenen Ländern unterschiedlich ist. Zum Beispiel ist es in Deutschland eine Straftat, den Holocaust zu leugnen. In anderen Ländern ist dies von der Meinungsfreiheit gedeckt, zum Beispiel in den USA. Facebook hat daher in Deutschland entsprechende Inhalte blockiert, in den USA dagegen nicht. Im Herbst 2020 kündigte Facebook jedoch an, künftig weltweit Beiträge blockieren zu wollen, in denen der Holocaust geleugnet oder verharmlost wird. Facebook-Chef Marc Zuckerberg begründete dies mit dem "aktuellen Zustand der Welt".
Ein weiteres Beispiel für diese Problematik ist die Lage in China. Die Nutzung vieler Plattformen westlicher Anbieter wie Facebook oder Twitter ist dort verboten. Stattdessen dominieren chinesische Anbieter. In deren Plattformen unterdrückt die Regierung Themen, die sie für brisant hält. Auch ausländische Nutzer/-innen chinesischer Plattformen waren bereits von der Zensur betroffen. So wurden Nutzer/-innen der App WeChat in den USA gesperrt, weil sie sich positiv über den Wahlsieg demokratischer Kandidaten/-innen in Hongkong geäußert hatten. Auch bei der aus China stammenden, international beliebten Plattform TikTok wird befürchtet, dass der chinesische Staat Einfluss nimmt. Nicht zuletzt gibt es auch westliche Konzerne, die Zensur- und Überwachungsvorgaben für ihre Angebote in China übernehmen – so etwa Apple für seinen App Store.
Welche Trends zeichnen sich ab?
Insgesamt wächst das Problembewusstsein. So gab es in den USA im Sommer 2020 Anhörungen vor dem Senat, die für großes Aufsehen sorgten. Anlass war die monopolartige Rolle, welche die großen Tech-Konzerne Apple, Google, Facebook und Amazon in vielen Bereichen spielen. Dabei ging es auch um die Moderation und Kontrolle problematischer Inhalte. Im Verlauf der Anhörungen wurden die Unternehmen teilweise scharf kritisiert. Sie würden ihre vorherrschende Stellung im Markt missbrauchen, gegen die Interessen ihrer Nutzer/-innen handeln und teilweise eine Gefahr für die Demokratie darstellen. Die Anhörungen machten deutlich, dass bestehende US-Gesetze die Grundlage bieten könnten, die Unternehmen zu zerschlagen.
Ebenfalls im Jahr 2020 kam es zu einer Aktion von Werbekunden gegen Facebook. Eine Vielzahl von Unternehmen buchte keine Anzeigen mehr, um gegen Hass und Belästigung auf der Plattform zu protestieren. Ziel war, Druck auf Facebook auszuüben, damit die Plattform mehr gegen problematische Inhalte unternimmt.
Seitens der Plattform-Anbieter gibt es verschiedene Initiativen, um die Probleme zu lösen. Um gegen "Fake News" vorzugehen hat Facebook etwa in den vergangenen Jahren unabhängige Organisationen verpflichtet, Beiträge auf Faktentreue zu überprüfen.
Die Regulierung von Inhalten durch soziale Netzwerke rückte wegen der politischen Entwicklung in den USA zeitweise in den Mittelpunkt der politischen Auseinandersetzung. Im Mai 2020 versah Twitter erstmals einen Beitrag des damaligen US-Präsidenten mit einer Warnung. Donald Trump bezeichnete die Stimmabgabe per Briefwahl als Betrug, Twitter kennzeichnete die Äußerung als "unbegründet". Später zogen andere Plattformen nach. Irreführende Behauptungen über die Wahl wurden auch von Facebook und YouTube mit Warnungen und Labels versehen. Nach der Erstürmung des US-Capitols im Januar 2021 sperrte Twitter den Account von Donald Trump komplett, wegen des Risikos weiterer "Anstiftung zur Gewalt".
Der Umgang mit Donald Trump machte erneut ein zentrales Dilemma deutlich, das seit jeher im Zusammenhang mit der Regulierung von Medieninhalten diskutiert wird. Einerseits gilt in Demokratien das Recht auf freie Meinungsäußerung. Andererseits gibt es Grenzen der Meinungsfreiheit, zum Beispiel, wenn zu Gewalt aufgerufen wird. Doch die Grenzen sind oft schwer zu ziehen. Viele Betroffene von Sperrungen in sozialen Netzwerken fühlen sich zensiert.
Umstritten ist, welche Rolle die Anbieter von digitalen Plattformen bei der Regulierung spielen sollen. Sollen Unternehmen darüber entscheiden, ob eine Äußerung etwa von der Meinungsfreiheit gedeckt ist oder problematisch ist? Häufig wird kritisiert, dass die bisher von den Plattformen entwickelten Regeln nicht ausreichen beziehungsweise nicht konsequent angewendet werden.
Die Regulierung ist häufig auch intransparent. So können die Plattformanbieter auch Sanktionen umsetzen, die kaum nachweisbar sind. Zum Beispiel haben sie die Möglichkeit, die Reichweite bestimmter Nutzer/-innen zu begrenzen. Dies wird als "Shadowban" bezeichnet. Zudem gibt es praktische Probleme. Offensichtlich ist es für die Plattformen eine Herausforderung, die Masse an Meldungen zu bearbeiten und dabei zuverlässig zu bewerten, welche Beiträge rechtswidrig sind und welche nicht. So bereitet es den Plattformen offenbar Schwierigkeiten die Aussagen einzelner Beiträge zu erkennen und zu bewerten. Das kann bei Zitaten oder Satire zu falschen Entscheidungen führen.
Zunehmend wird in Deutschland auch darüber diskutiert, dass Bürgerinnen und Bürger bestimmte Kompetenzen benötigen, um unter den Bedingungen der Digitalisierung souverän handeln zu können. Die Interner Link: kritische Einordnung von Informationen und die Prüfung von Quellen gehören dabei zu den zentralen Themen. Denn in den vergangenen Jahren ist mehrfach deutlich geworden, dass "Fake News" zur Spaltung der Gesellschaft beitragen können. Beispiele sind die Verbreitung von Falschmeldungen, mit denen Stimmung gegen Geflüchtete gemacht wird, oder von Verschwörungsmythen im Zusammenhang mit der Corona-Pandemie.
Entsprechende Kompetenzen müssen mittlerweile verpflichtend in der Schule vermittelt werden. Immer wieder werden auch weitergehende Initiativen gefordert, zum Beispiel die Einrichtung einer "Bundeszentrale für digitale Aufklärung".
Zudem gibt es zahlreiche private Initiativen, die gegen Hass im Netz eintreten und sich stattdessen für digitale Zivilcourage und ein demokratisches Miteinander im Netz engagieren.
Jakob von Lindern arbeitet als Journalist bei ZEIT Online. Als freier Journalist war er Teil des Pressebüros JP4 in Köln. Er schreibt schwerpunktmäßig über das Internet und wie es unser Zusammenleben, die Bildung, die Wirtschaft und den Journalismus verändert.
Ihre Meinung ist uns wichtig!
Wir laden Sie zu einer kurzen Befragung zu unserem Internetauftritt ein. Bitte nehmen Sie sich 5 Minuten Zeit, um uns bei der Verbesserung unserer Website zu helfen. Ihre Angaben sind anonym.