Allerdings sind die Filterkriterien der Algorithmen, die Inhalte für Nutzer*innen vorstrukturieren, eine Blackbox. Von außen kann man nicht einsehen, wie genau der Algorithmus eines sozialen Netzwerks, eines Nachrichtenaggregators oder einer Suchmaschine tatsächlich programmiert ist. Somit ist nicht transparent nachvollziehbar, welche Inhalte einer Person gezeigt werden und welche nicht, oder wie Inhalte priorisiert werden. Tatsächlich ändern sich Algorithmen auch ständig
Um das zu verhindern, stützen sich die eingesetzten Algorithmen auf die Vorauswahl, die Nutzer*innen selbst treffen. Also z. B. welche Suchbegriffe sie in der Vergangenheit in Suchmaschinen eingegeben haben und welche Links sie schließlich geklickt haben oder welchen Accounts sie in sozialen Netzwerken wie Facebook, Instagram, Twitter oder Tiktok folgen, mit welchen Inhalten sie interagieren, insbesondere welche sie „liken“ und teilen.
Dieses in der Psychologie als Selective Exposure bekannte Verhalten nutzen Menschen seit jeher, um sich auf Informationen in ihrem Umfeld zu konzentrieren, die zu ihrem Weltbild passen und es stützen. Beispielsweise lesen sie eine Zeitung, die ihre politischen Ansichten spiegelt. So minimieren oder vermeiden sie kognitive Dissonanzen
Risiko für Meinungsblasen
Kritiker befürchten daher, dass nun diese auf Selective Exposure basierende algorithmische Filterung den Informationshorizont von Social-Media-Nutzer*innen so sehr einschränken könnte, dass sie nicht mehr ausgewogen informiert sind, ihr Weltbild einseitig verstärkt wird und sie im Extremfall sogar nur noch Mis- und Desiformationen ausgesetzt sind. Das gelte vor allem in Bezug auf politisch und gesellschaftlich kontrovers diskutierte Themen, so dass ein konstruktiver Dialog zwischen einzelnen Personen, aber vor allem über gesellschaftliche Gruppen hinweg nicht mehr möglich würde. Eine solche Entwicklung sei insbesondere dann möglich, wenn die Themen, die zur Diskussion stehen, komplex und ausschließlich medial vermittelt würden. In solchen Fällen wäre die Wahrnehmung zu einem Problem ausschließlich durch die Mediennutzung geprägt, ohne persönlichen Austausch in der realen Welt.
Das Risiko für derartige Meinungsblasen kann demnach, vor allem bei globalen Problemen wie dem Klimawandel oder Kriegen in zwei Schritten entstehen: Zuerst spaltet sich die Gesellschaft als Reaktion auf ein Ereignis oder eine Maßnahme in zwei Gruppen auf. Auf der einen Seite stehen die Befürworter*innen und auf der anderen die Gegner*innen. Dann beginnt – zumindest in Demokratien – ein öffentlicher, medialer Diskurs, in dem beide Seiten ihre Argumente vorbringen. Gleichzeitig versorgen sich Mitglieder der jeweiligen Seite jeweils selektiv mit Informationen, die ihrem Weltbild entsprechen. Das tun sie im persönlichen Austausch ebenso wie medial. Gegenteilige Meinungen oder Fakten werden dabei ausgeblendet oder lediglich als zu widerlegende Äußerungen betrachtet. Was hier passiert, ist eine Kombination aus Selective Exposure und Confirmation Bias – die unbewusste Tendenz, nur Informationen zu glauben, die der eigenen Meinung entsprechen. Die selektive Wahrnehmung von Informationen wird durch den Confirmation Bias unterstützt und umgekehrt. Menschen – so die Annahme – nehmen also Informationen nur noch wahr, wenn sie ihrer Meinung entsprechen. Dieses Ungleichgewicht führt dann zur Bestätigung und Verstärkung der eigenen Position. Verschiedene Studien belegen, dass diese Verhaltenskombination die politische und gesellschaftliche Meinungsbildung und das Handeln einzelner stark beeinflussen kann
Es stellt sich daher die Frage, ob die algorithmische Vorauswahl von Inhalten automatisch zur weltanschaulichen Isolation, also in sogenannte Filterblasen, führt. Und ob diese „die zentrale Schuld an der gesellschaftlichen und ideologischen Polarisierung“
Verschiedene Studien zeigen, dass man diese Fragen differenziert betrachten muss
Argumente gegen die Filterblase
Peter M. Dahlgren
Hierzu passen die Ergebnisse verschiedener Studien
Außerdem zeigt der Reuters Institute Digital News Report von 2023
Zwischen Filter und Verhalten
Ein weiterer Punkt, der die überhöhte Bedeutung von Filterblasen infrage stellt, liegt in doppelter Hinsicht in der Funktionsweise der Algorithmen. Einerseits merkt Peter M. Dahlgren
Allerdings gibt es durchaus Indizien für eine gewisse Blasenbildung. Laut Michael D. Conover und Kollegen
Es gibt also viele Argumente gegen eine Filterblase, als dass sie allein für die gesellschaftliche und ideologische Polarisierung verantwortlich gemacht werden könnte. Zieht man zusätzlich in Betracht, dass Menschen auch und vor allem soziale Interaktionen außerhalb des Internets haben und politische Themen nur einen geringen Teil der Gespräche und sozialen Interaktionen bestimmen, dann hat Peter M. Dahlgren durchaus recht, wenn er sagt, dass es leicht ist, das Problem durch die Wahl der Stichproben in Studien zur möglichen Bildung von Filterblasen zu überzeichnen. Konkret sagt er, „wenn wir Personen, die bereits extreme politische Nutzer*innen sind, und Diskussionen, die bereits politisch extrem sind, heranziehen, könnten wir daraus schließen, dass ihre Extremität ein Ergebnis von Filterblasen ist. Diese Art der Argumentation kann sehr leicht zu einem Zirkelschluss werden, indem das Phänomen, das nachgewiesen werden soll, einfach vorausgesetzt wird“
Auch ist zu beachten, dass verschiedene (digitale) Medien und Plattformen verschiedene Funktionen erfüllen, die sich individuell stark unterscheiden können. Wer etwa lokale und nationale Nachrichten über eine News-App, eine Online-Zeitung oder die Mediathek von ARD und ZDF konsumiert und internationale Meldungen auf Instagram oder Facebook, indem man z.B. der New York Times, The Guardian oder Le Monde folgt, hat eine bewusste Auswahl getroffen. Andere Nutzer*innen können etwa Tiktok zur Unterhaltung verwenden und Twitter – oder X, wie es jetzt heißt – für Nachrichten und je nach Thema und Standpunkt politische Diskussionen mit Gleichgesinnten und/oder Menschen anderer Meinung führen. Wieder kommt es darauf an, welchen Accounts man auf welcher Plattform folgt, wie oft und wie bewusst man diese Plattformen nutzt und wie gut man sich ohnehin merkt, was man gesehen hat. Studien belegen nämlich, dass sich Menschen oft nicht genau daran erinnern können, was sie in sozialen Medien konsumieren
Entscheidend ist der Mensch
Zusammenfassend lässt sich sagen, dass die Filterblase als mathematisches Modell durchaus nachweisbar ist. Allerdings schließt sie gesellschaftlich betrachtet einzelne Menschen nicht zwingend in einem undurchdringlichen medialen Käfig ein. Entscheidend ist am Ende nicht die Technologie, sondern der Mensch. Es mag zwar sein, dass einzelne ihren Informationskonsum online begrenzen – Selective Exposure in Kombination mit Confirmation Bias – und dass insgesamt die Nachrichtenmüdigkeit zunimmt
Studien belegen auch, dass sich in Deutschland Menschen in der Regel aus unterschiedlichen Quellen informieren. So „dominieren traditionelle Nachrichtenanbieter aus TV, Radio und Print die Nachrichtennutzung im Internet. 43 Prozent lesen, schauen oder hören regelmäßig die Inhalte etablierter Nachrichten; bei den 18- bis 24-Jährigen sind es 46 Prozent. Für 44 Prozent in dieser Altersgruppe sind soziale Medien eine regelmäßige Quelle für Nachrichten; das sind elf Prozentpunkte weniger als noch 2022“
Diese gemischte Nachrichtennutzung lässt darauf schließen, dass Filterblasen nicht allein die Verantwortung für die gesellschaftliche und ideologische Polarisierung tragen. Denn Polarisierungseffekte gab es lange vor sozialen Medien, Nachrichtenaggregatoren und Suchmaschinen. Damit sie aber nicht zunehmen, braucht es die Vermittlung von Medien- und Informationskompetenzen, die auch die Funktionsweisen von Algorithmen, Mis- und Desinformation sowie ein Bewusstsein für die eigene zunehmend öffentliche Rolle in sozialen Netzwerken einschließt. Zudem gilt es, die Bereitschaft und Fähigkeit zur sachlichen Diskussion zu fördern.