Nicht nur der Zugang für verschiedenste Akteur*innen, sondern auch zu einer Vielzahl von Themen wurde über soziale Medien möglich. Nutzer*innen sozialer Medien konnten Themen, die von den traditionellen Medien ignoriert wurden, auf die öffentliche Agenda setzen. Dadurch schienen diese Medien die normativen Anforderungen an eine deliberative Öffentlichkeit bestens zu erfüllen: Offenheit und adäquate Kapazität, soziale Probleme zu thematisieren. Nutzer*innen können in sozialen Medien nicht nur etwas thematisieren, sondern auch problematisieren, d.h. Ansichten einem Argumentationsprozess unterziehen. Damit wäre das deliberative Ideal der Diskursivität erfüllt
Deliberative Demokratie
Dieses Demokratiemodell geht davon aus, dass die Bevölkerung die Regierungsgewalt innehat, sofern Partizipation und Entscheidungsfindung durch Deliberationsprozesse, also den Austausch von Argumenten, miteinander verknüpft sind.
Die Grundlage der Deliberation bildet das Argumentieren, welches den daraus resultierenden Prozess prägt und somit die Gewährleistung der Volksherrschaft in Demokratien sicherstellt. Damit die notwendige deliberative Öffentlichkeit funktioniert, müssen verschiedene Kriterien erfolgt sein: So müssen alle Themen und Sprecher*innen Zugang zur Debatte bekommen. Die Teilnehmenden müssen zudem die gleichen Chancen haben, sich zu äußern. Auch müssen alle Beteiligten ihre Positionen begründen bzw. begründen können und sich in ihrem Handeln an dem Gemeinwohl orientieren. Außerdem setzt das Modell voraus, dass alle respektvoll miteinander umgehen und auf eine konstruktive Politik setzen.
Quellen:
John S. Dryzek, Discursive Democracy. Politics, Policy and Political Science. Cambridge: Cambridge University Press.
Habermas, Jürgen (2002): Tabuschranken. Eine semantische Anmerkung – für Marcel Reich-Ranicki, aus gegebenen Anlässen. In_ Süddeutsche Zeitung, 7. Juni 2002.
Juan Carlos Velasco, (2010): Deliberation/deliberative Demokratie. In: Sandkühler, Hans Jörg (Hg.): Enzykopädie Philosophie. Hamburg: Felix Meiner, 2. Auf., 360-363.
Eine weitere Entwicklung schien das Schicksal sozialer Medien als Förderer der Demokratie zu bestätigen: In den 2010er Jahren folgten Onlinemobilisierungen mit demokratischen, sozialen oder freiheitlichen Zielen in vielen Ländern: der Arabische Frühling 2010, die Occupy-Bewegung in den USA 2011, die Movimiento 15-M, die Indignados in Spanien 2011 und 2012, die Vinegar-Proteste in Brasilien und die Gezi-Proteste in der Türkei 2013.
Das Ende des Optimismus
Der Internet-Optimismus endete jäh: Insbesondere während der Brexit-Kampagne und des Wahlkampfes von Donald Trump im Jahr 2016 wurden die destruktiven Seiten der neuen Medien für alle sichtbar
Das waren aber bei weiten nicht die einzigen digitalen Bedrohungen für die Demokratie, die der Phase des Internetoptimismus aus deliberativer Sicht ein Ende bereiteten. Zahllose Nutzer*innen instrumentalisierten die Offenheit des neuen Mediums auch, um historisch unterdrückte Gruppen zum Gegenstand von Herabsetzung und Hetze zu machen (Hate Speech). Statt Diskursivität beförderte das neue Medium Inzivilität und als deren Folge Sprachlosigkeit. Nutzer*innen und Politiker*innen wurden beschimpft, gedemütigt, lächerlich gemacht, bedroht und eingeschüchtert. Viele zogen sich daraufhin zunehmend aus der Öffentlichkeit und Politik zurück.
Inzivilität und Hatespeech
Inzivilität bezeichnet ein Verhalten, das einen freien und inklusiven Austausch von Ideen und Positionen zwischen Personen behindert statt voranbringt. Es handelt sich um einen Oberbegriff, der verschiedene Ausdrucksformen einbezieht, darunter beleidigende Aussagen, Bedrohungen, Pöbelleien, Täuschungen u.v.m.
Hate Speech meint jede Form von Kommunikation, die Menschen auf Grund eines Identitätsfaktors wie Herkunft, Hautfarbe, Religion, Geschlecht, sexuelle Orientierung usw. angreift und/oder herabsetzt. Das kann z.B. in Form offensiver Rede wie bei der Verwendung rassistischer oder sexistischer Schimpfwörter oder auch als anstiftende Rede, wie z.B. Hetzenkampagnen erfolgen.
Quelle:
Robin Stryker, Bethany Anne Conway, Shawn Bauldry und Vasundhara Kaul Stryker, „Replication Note: What is Political Incivility?”, Human Communication Research, 48(2022): 168–17
United Nations, United Nations strategy and plan of action on hate speech: Detailed Guidance on Implementation for United Nations Field Presences, 2020, https://www.un.org/en/genocideprevention/documents/UN%20Strategy%20and%20PoA%20on%20Hate%20Speech_Guidance%20on%20Addressing%20in%20field.pdf
Die Reaktion der Betreiber*innen digitaler Plattformen auf gesellschaftliche Kritik trug grundsätzlich die Merkmale des deliberativen Modells in sich. Mark Zuckerberg redete davon, dass „das beste Argument gewinnt“, und vom Recht von Holocaustleugnern, falsch zu liegen
Gesetz-Technologie-Bildung
Es wurde jedoch sehr bald deutlich, dass Gegenargumentation bzw. Counterspeech keine Lösung zur Bekämpfung von Hate Speech und Inzivilität in den sozialen Medien war und auch das beste Argument nur selten gewann
Far Right-Akteur*innen erkannten in der strategischen Polarisierung ein geeignetes Mittel, um die Gesellschaft zu spalten und binäre Weltanschauungen zu verbreiten. Durch Polarisierung versuchen sie erfolgreich, die Mitte der Gesellschaft dazu zu drängen, eine Seite zu wählen
„Das beste Argument“ bzw. Gegenrede generiert zudem mehr Interaktionen
Im Ergebnis wurde deutlich, dass individuelle Ansätze bzw. der gute Willen einzelner Social-Media-Nutzer*innen allein das Problem nicht lösen können. Es folgten Gesetze auf nationaler und europäischer Ebene, wie das Netzwerkdurchsetzungsgesetz in Deutschland und der Digital Service Act in der EU. Viele deutsche Bundesländer gründeten Meldestellen für Betroffene und die Betreiber digitaler Plattformen wurden aufgefordert, Inhalte zu moderieren.
Der Ansatz Gesetz-Technologie-Bildung
Diese Bindung ist allerdings eine stete Gratwanderung. Ein negatives Beispiel stellt hier TikTok dar, dessen Vorgehen zur Vermeidung von Hate-Speech unter anderem darin bestand, Menschen aus der LGBTQIA+ Bewegung schlicht unsichtbar zu machen.
Alternativen zur Gegenrede
Es existieren zahlreiche Alternativen zum Argumentieren mit Onlinehater*innen. Alle haben jedoch eines gemeinsam: Sie erfordern Medienkompetenz, um die Funktionsweise digitaler Plattformen zu verstehen und sich dort auf kompetente und kreative Weise gegen Hate Speech und Inzivilität einzusetzen.
Handelt es sich um potenziell strafbare Inhalte, wie zum Beispiel die Leugnung des Holocausts oder die Verwendung verfassungswidriger Symbole, besteht die Möglichkeit, eine Meldestelle zu kontaktieren. Allerdings muss hier das Material sachgerecht gesichert sein, um eine Strafverfolgung zu ermöglichen. Hierfür bieten Organisationen wie HateAid Hilfe.
Eine andere Möglichkeit ist es, Nutzer*innen im eigenen Account zu blocken
Alternativ können problematische Inhalte bei den Plattformen selbst gemeldet werden (Flagging). Diese Gegenmaßnahme erweist sich aber häufig als unproduktiv. Dies liegt zum einen daran, dass Nutzer*innen auf ihre Meldung hin oft die Antwort bekommen, dass die angezeigten Inhalte nicht gegen die Standards der digitalen Plattform verstoßen. Zum anderen, weil antidemokratische Nutzer*innen selbst das Flagging nutzen können, um Aktivist*innen wie Feminist*innen zum Schweigen zu bringen
Eine weitere Maßnahme besteht im Online Shaming: Das Fehlverhalten wird durch die Verbreitung der problematischen Inhalte (inklusive der Identität der Hater*innen) öffentlich angeprangert. Allerdings ist diese Gegenmaßnahme sowohl ethisch als auch juristisch umstritten, wie der Fall Sigrid Maurer in Österreich zeigte. Die Politikerin bekam über den Nachrichtendienst Messenger zahlreiche Nachrichten mit obszönen Inhalten. Als Reaktion darauf veröffentlichte sie diese Nachricht samt des Nutzernamens des Absenders online. Der Nutzer stritt die Urheberschaft der Nachrichten ab und verklagte am Ende die Politikerin. Die Klage wurde allerdings zurückgezogen
Um solche Situationen zu vermeiden, sollte zuerst versucht werden, die Botschaft als problematisch zu offenbaren, indem man das Problem – und nicht unbedingt die Nutzer*innen – beim Namen nennt. In einem von Munger entwickelten Experiment mit Social Bots konnte die offene Nennung des Fehlverhaltens die Anwendung von rassistischen Schimpfwörtern reduzieren. Allerdings spielten andere Faktoren ebenfalls eine Rolle, wie die Hautfarbe und die Anzahl der Follower*innen von widersprechenden Nutzer*innen.
Posten Nutzer*innen die Botschaft weiter, etwa um Empörung gegen den verstörenden Inhalt bei anderen zu erwecken und/oder die Hater*innen zu beschämen, sollten sie darauf achten, die Interaktionskette zu brechen. Das ist wichtig, um den Plattformbetreibern zu signalisieren, dass sie mit Hass und Hetze keinen Interaktionen und damit auch kein Geld verdienen können. Es ist daher z.B. sinnvoller, einen Screenshot des Beitrages zu machen und diesen zu posten, als einfach den Inhalt samt Link zu teilen.
Nicht interagieren kann ebenfalls als Gegenmaßnahme fungieren. Es geht hier nicht darum, zu schweigen, sondern die Hater*innen und die Plattformen nicht mit Interaktionen zu füttern. Das ist der Fall bei unbekannten Nutzer*innen, die versuchen, Debatten zu diskreditieren oder zu kapern, indem sie sich abwertender Aussagen gegen eine Minderheit oder unzivilen Verhaltens bedienen. In solchen Fällen gilt es, den „Troll“ nicht zu füttern.
Von zentraler Bedeutung ist in allen Fällen, die Situation richtig einzuschätzen. Das heißt konkret: Die Logik der jeweiligen Plattform zu kennen und das Forum zu analysieren, in dem die Botschaft gepostet wurde: Um wen handelt es sich bei der postenden Person? Ist es eine öffentliche oder eine unbekannte Person? Sind wir persönlich betroffen oder werden wir kollektiv aufgrund eines Identitätsfaktors wie Hautfarbe, Geschlecht, Religion angegriffen? Welche Rolle haben wir selbst in diesem Forum? Sind wir Betroffene oder Beistehende? Was wollen wir mit unserer Gegenmaßnahme erreichen? All diese Faktoren spielen eine Rolle, wenn wir entscheiden wollen, ob wir z.B. auf eine Interaktion verzichten, höflich reagieren, Nutzer*innen blockieren oder die Hassmeldestelle anschreiben.
Sind die potenziellen Hater*innen öffentliche Personen, wird ein Nicht-Interagieren kaum einen Effekt haben. Werden wir persönlich beschimpft oder bedroht, können wir Anzeige erstatten. Wird Hass gegen eine Minderheit angestiftet, kann das gemeldet werden und der Staat muss aktiv werden. Höflich mit Gegenargumenten zu reagieren kann potenziell einen positiven Effekt bei Privatpersonen haben, die im Netz entgleisen. In diesen Fällen kann Gegenrede durchaus das geeignete Mittel der Wahl sein.
Last but not least, Social Media-Nutzer*innen können sich organisieren und kollektiv gegen Hate Speech und Inzivilität vorgehen. Koordinierter Counterspeech, so Schieb und Preuss
Fazit
Unabhängig von der eigenen Perspektive ist zu konstatieren, dass das deliberative Modell in den sozialen Medien in den meisten Fällen nicht funktioniert. Neben den (nur selten anwendbaren) gesetzlichen Maßnahmen bleibt der Gesellschaft vor allem eine Option, um Demokratie und freien Meinungsaustausch zu ermöglichen: Medienkompetenz. Dazu gehört die Fähigkeit, Hass und Hetze als solche zu erkennen. Notwendig ist es zudem die Medienlogik der Social Media-Plattformen zu verstehen, damit klar wird, dass bloße Empörung und Gegenrede auf demütigende und spaltende Inhalte Hate Speech und Inzivilität erst zu einem guten Geschäft machen.
Jenseits der Gegenrede braucht es aber vor allem neue, kreativere Wege im Kampf gegen Hate Speech und Inzivilität. Nicht zuletzt braucht es aber auch mehr sozialen Zusammenhalt sowie ein stärkeres Bewusstsein für das uns alle Verbindende in der Vielfältigkeit unserer Gesellschaft.