Meine Merkliste Geteilte Merkliste PDF oder EPUB erstellen

Hate Speech und Inzivilität: Gegenmaßnahmen jenseits von Gegenrede | Soziale Medien – wie sie wurden, was sie sind | bpb.de

Soziale Medien Technikgeschichte Die Vorgeschichte der „sozialen Medien“ Alles geht? Die jüngste Geschichte der „sozialen Medien“ Das vergessene Versprechen: Wie die Idee der Sozialen Medien scheitert Geschäftsmodelle Das Geschäftsmodell von Social-Media-Unternehmen Das Leben zum Beruf machen: Wie sich professionelle Influencer*innen finanzieren Getriebene der Plattformen Politische Teilhabe Soziale Medien im Spannungsfeld zwischen Demokratisierung und Fragmentierung der Öffentlichkeit Individuelle Meinungsbildung und -äußerung auf sozialen Medien Hate Speech und Inzivilität: Gegenmaßnahmen jenseits von Gegenrede Soziale Medien und die Kommunikation politischer und staatlicher Institutionen Die digitale Professionalisierung der politischen Kommunikation Digitale Medien, Partizipation und Aktivismus Gesellschaftspolitik „Wer hat, dem wird gegeben“ – Über die Logik von gesellschaftspolitischen Diskursen auf sozialen Medien Soziale (Un-)Gleichheit auf Social Media Technikmythos? Utopien und Dystopien des Internets und der sozialen Medien Social Media als Technikmythos Mythos Filterblase – sind wir wirklich so isoliert? Politische Bildung Politische Bildung mit sozialen Medien Basiswissen zur politischen Bildung, sozialen Medien und Extremismus Evaluationsmethoden wirkungsorientierter digitaler politischer Bildung Redaktion

Hate Speech und Inzivilität: Gegenmaßnahmen jenseits von Gegenrede Beyond Countering: Ansätze zur Bekämpfung von Hate Speech und Inzivilität

Prof. Dr. Liriam Sponholz

/ 11 Minuten zu lesen

Vor nicht allzu langer Zeit hegte man die Hoffnung, dass soziale Medien die Ideale einer deliberativen Demokratie verwirklichen könnten. Im traditionellen Mediensystem hatten nur diejenigen Zugang zur Öffentlichkeit, die von den Gatekeeper*innen – den Medienproduzent*innen – ausgewählt wurden. Doch durch soziale Medien erlangte jede*r die Möglichkeit, eine Öffentlichkeit zu erreichen, indem er oder sie lediglich ein Profil auf einer digitalen Netzwerkplattform erstellte (obwohl dies keine Garantie für Gehör bot). Dies schien die Forderungen einer deliberativen Öffentlichkeit nach Gleichheit und potenzieller Reziprozität zu erfüllen.

Illustration: www.leitwerk.com

Nicht nur der Zugang für verschiedenste Akteur*innen, sondern auch zu einer Vielzahl von Themen wurde über soziale Medien möglich. Nutzer*innen sozialer Medien konnten Themen, die von den traditionellen Medien ignoriert wurden, auf die öffentliche Agenda setzen. Dadurch schienen diese Medien die normativen Anforderungen an eine deliberative Öffentlichkeit bestens zu erfüllen: Offenheit und adäquate Kapazität, soziale Probleme zu thematisieren. Nutzer*innen können in sozialen Medien nicht nur etwas thematisieren, sondern auch problematisieren, d.h. Ansichten einem Argumentationsprozess unterziehen. Damit wäre das deliberative Ideal der Diskursivität erfüllt.

Deliberative Demokratie

Dieses Demokratiemodell geht davon aus, dass die Bevölkerung die Regierungsgewalt innehat, sofern Partizipation und Entscheidungsfindung durch Deliberationsprozesse, also den Austausch von Argumenten, miteinander verknüpft sind.

Die Grundlage der Deliberation bildet das Argumentieren, welches den daraus resultierenden Prozess prägt und somit die Gewährleistung der Volksherrschaft in Demokratien sicherstellt. Damit die notwendige deliberative Öffentlichkeit funktioniert, müssen verschiedene Kriterien erfolgt sein: So müssen alle Themen und Sprecher*innen Zugang zur Debatte bekommen. Die Teilnehmenden müssen zudem die gleichen Chancen haben, sich zu äußern. Auch müssen alle Beteiligten ihre Positionen begründen bzw. begründen können und sich in ihrem Handeln an dem Gemeinwohl orientieren. Außerdem setzt das Modell voraus, dass alle respektvoll miteinander umgehen und auf eine konstruktive Politik setzen.

Quellen:

  • John S. Dryzek, Discursive Democracy. Politics, Policy and Political Science. Cambridge: Cambridge University Press.

  • Habermas, Jürgen (2002): Tabuschranken. Eine semantische Anmerkung – für Marcel Reich-Ranicki, aus gegebenen Anlässen. In_ Süddeutsche Zeitung, 7. Juni 2002.

  • Juan Carlos Velasco, (2010): Deliberation/deliberative Demokratie. In: Sandkühler, Hans Jörg (Hg.): Enzykopädie Philosophie. Hamburg: Felix Meiner, 2. Auf., 360-363.

Eine weitere Entwicklung schien das Schicksal sozialer Medien als Förderer der Demokratie zu bestätigen: In den 2010er Jahren folgten Onlinemobilisierungen mit demokratischen, sozialen oder freiheitlichen Zielen in vielen Ländern: der Arabische Frühling 2010, die Occupy-Bewegung in den USA 2011, die Movimiento 15-M, die Indignados in Spanien 2011 und 2012, die Vinegar-Proteste in Brasilien und die Gezi-Proteste in der Türkei 2013.

Das Ende des Optimismus

Der Internet-Optimismus endete jäh: Insbesondere während der Brexit-Kampagne und des Wahlkampfes von Donald Trump im Jahr 2016 wurden die destruktiven Seiten der neuen Medien für alle sichtbar. Rechtsaußen-Akteur*innen (Far Right) entdeckten das Potential sozialer Medien und nutzten die Medienlogik solcher Plattformen zu ihren eigenen Gunsten. Anschließend erschütterte der Cambridge-Analytica-Skandal die Öffentlichkeit. Hierdurch wurde öffentlich bekannt, dass Nutzer*innendaten bei Facebook an Wahlkampfteams weitergegeben wurden. Dies ermöglichte den Kandidat*innen, maßgeschneiderte 'Wahrheiten' nach den Wünschen der Wähler*innen anzubieten. Begriffe wie Microtargeting, Astroturfing, Click Farms, Troll-Fabriken und Social Bots wurden zu Schlagworten, die diese Enttäuschung begleiteten.

Das waren aber bei weiten nicht die einzigen digitalen Bedrohungen für die Demokratie, die der Phase des Internetoptimismus aus deliberativer Sicht ein Ende bereiteten. Zahllose Nutzer*innen instrumentalisierten die Offenheit des neuen Mediums auch, um historisch unterdrückte Gruppen zum Gegenstand von Herabsetzung und Hetze zu machen (Hate Speech). Statt Diskursivität beförderte das neue Medium Inzivilität und als deren Folge Sprachlosigkeit. Nutzer*innen und Politiker*innen wurden beschimpft, gedemütigt, lächerlich gemacht, bedroht und eingeschüchtert. Viele zogen sich daraufhin zunehmend aus der Öffentlichkeit und Politik zurück.

Inzivilität und Hatespeech

Inzivilität bezeichnet ein Verhalten, das einen freien und inklusiven Austausch von Ideen und Positionen zwischen Personen behindert statt voranbringt. Es handelt sich um einen Oberbegriff, der verschiedene Ausdrucksformen einbezieht, darunter beleidigende Aussagen, Bedrohungen, Pöbelleien, Täuschungen u.v.m.

Hate Speech meint jede Form von Kommunikation, die Menschen auf Grund eines Identitätsfaktors wie Herkunft, Hautfarbe, Religion, Geschlecht, sexuelle Orientierung usw. angreift und/oder herabsetzt. Das kann z.B. in Form offensiver Rede wie bei der Verwendung rassistischer oder sexistischer Schimpfwörter oder auch als anstiftende Rede, wie z.B. Hetzenkampagnen erfolgen.

Quelle:

  • Robin Stryker, Bethany Anne Conway, Shawn Bauldry und Vasundhara Kaul Stryker, „Replication Note: What is Political Incivility?”, Human Communication Research, 48(2022): 168–17

  • United Nations, United Nations strategy and plan of action on hate speech: Detailed Guidance on Implementation for United Nations Field Presences, 2020, https://www.un.org/en/genocideprevention/documents/UN%20Strategy%20and%20PoA%20on%20Hate%20Speech_Guidance%20on%20Addressing%20in%20field.pdf

Die Reaktion der Betreiber*innen digitaler Plattformen auf gesellschaftliche Kritik trug grundsätzlich die Merkmale des deliberativen Modells in sich. Mark Zuckerberg redete davon, dass „das beste Argument gewinnt“, und vom Recht von Holocaustleugnern, falsch zu liegen . Elon Musk bezeichnete sich selbst als „free speech absolutist“. Die Folge war, dass Gegenrede zur „one-size-fits-all“-Lösung wurde. Jedes Mal, wenn von Hass und Hetze im Netz die Rede war, egal ob es sich um die Veröffentlichung einer privaten Adresse eines Politikers oder von Liebesvideos mit der Ex-Partnerin handelte oder ob Desinformationen über einzelne Personen verbreitet wurden: Die Lösung für alles schien einfach: dagegen argumentieren. Das Problem: Derartige Fälle sind nicht mit Gegenargumenten zu lösen. Auch stellt sich die Frage, ob und welches Ziel erreicht wird, wenn z. B. Argumente über die Existenz oder Gleichwertigkeit von Menschen zur Debatte stehen. Wenn Menschenwürde diskutiert wird, wird sie auch diskutabel.

Gesetz-Technologie-Bildung

Es wurde jedoch sehr bald deutlich, dass Gegenargumentation bzw. Counterspeech keine Lösung zur Bekämpfung von Hate Speech und Inzivilität in den sozialen Medien war und auch das beste Argument nur selten gewann. Das Gegenteil ist der Fall: Gegenrede kann sogar zu mehr Inzivilität führen und die digitale Öffentlichkeit in einem virtuellen „Gladiatorenring“ verwandeln. Deswegen gilt: Wer Gegenrede als Mittel nutzen möchte, muss sich so zivil wie möglich verhalten.

Far Right-Akteur*innen erkannten in der strategischen Polarisierung ein geeignetes Mittel, um die Gesellschaft zu spalten und binäre Weltanschauungen zu verbreiten. Durch Polarisierung versuchen sie erfolgreich, die Mitte der Gesellschaft dazu zu drängen, eine Seite zu wählen.

„Das beste Argument“ bzw. Gegenrede generiert zudem mehr Interaktionen. Was auf den ersten Blick positiv klingt, hat aber mehr als eine Facette. Eine hohe Interaktionsrate von Posts infolge des Konterns von Hate Speech und Inzivilität signalisiert digitalen Plattformen, deren Broterwerb aus Interaktionen besteht, dass symbolische Angriffe ein gutes Geschäft sein können. Manche davon, wie Meta, haben sogar angefangen, derartige polarisierende Inhalte zu puschen, um noch mehr Interaktion zu bekommen.

Im Ergebnis wurde deutlich, dass individuelle Ansätze bzw. der gute Willen einzelner Social-Media-Nutzer*innen allein das Problem nicht lösen können. Es folgten Gesetze auf nationaler und europäischer Ebene, wie das Netzwerkdurchsetzungsgesetz in Deutschland und der Digital Service Act in der EU. Viele deutsche Bundesländer gründeten Meldestellen für Betroffene und die Betreiber digitaler Plattformen wurden aufgefordert, Inhalte zu moderieren.

Der Ansatz Gesetz-Technologie-Bildung ist durchaus erfolgreich. Hierbei werden unterschiedliche Maßnahmen auf juristischer, technologischer und pädagogischer Ebene gegen Hate Speech und Inzivilität eingesetzt, wodurch auch verschiedene soziale Akteur*innen involviert werden. Auf der gesetzgeberischen Ebene übernimmt der Staat die Verantwortung für die Regulierung der Onlinekommunikation und die Durchsetzung der Gesetze in der Onlinewelt. In Bezug auf die Technologie werden wiederum die Plattformen aufgefordert, hetzerische und herabwürdigende Inhalte nicht mehr zu puschen, sondern diese gegebenenfalls zu entfernen sowie durch ihre technische Architektur stärker einen Dialog statt Konflikte zu fördern. Hinsichtlich der Bildung geht es darum, die Medienkompetenz bezüglich des Umgangs mit digitalen Medien zu erhöhen, was nicht nur soziales, sondern auch technisches Grundlagenwissen verlangt.

Diese Bindung ist allerdings eine stete Gratwanderung. Ein negatives Beispiel stellt hier TikTok dar, dessen Vorgehen zur Vermeidung von Hate-Speech unter anderem darin bestand, Menschen aus der LGBTQIA+ Bewegung schlicht unsichtbar zu machen. Welche Handlungsoption bieten sich in diesem Rahmen für durchschnittliche Social-Media-Nutzer*innen?

Alternativen zur Gegenrede

Es existieren zahlreiche Alternativen zum Argumentieren mit Onlinehater*innen. Alle haben jedoch eines gemeinsam: Sie erfordern Medienkompetenz, um die Funktionsweise digitaler Plattformen zu verstehen und sich dort auf kompetente und kreative Weise gegen Hate Speech und Inzivilität einzusetzen.

Handelt es sich um potenziell strafbare Inhalte, wie zum Beispiel die Leugnung des Holocausts oder die Verwendung verfassungswidriger Symbole, besteht die Möglichkeit, eine Meldestelle zu kontaktieren. Allerdings muss hier das Material sachgerecht gesichert sein, um eine Strafverfolgung zu ermöglichen. Hierfür bieten Organisationen wie HateAid Hilfe.

Eine andere Möglichkeit ist es, Nutzer*innen im eigenen Account zu blocken. Allerdings ist das Blocken mit Bedacht zu verwenden, um den freien Austausch von Ideen nicht zu beeinträchtigen. Beschimpfungen, Drohungen, Einschüchterungen sind zum Beispiel keine Einladung zu einem Austausch. Greifen Social Media- Nutzer*innen wiederholt auf solche Formen von Kommunikation zurück, kann Blocken eine Alternative darstellen.

Alternativ können problematische Inhalte bei den Plattformen selbst gemeldet werden (Flagging). Diese Gegenmaßnahme erweist sich aber häufig als unproduktiv. Dies liegt zum einen daran, dass Nutzer*innen auf ihre Meldung hin oft die Antwort bekommen, dass die angezeigten Inhalte nicht gegen die Standards der digitalen Plattform verstoßen. Zum anderen, weil antidemokratische Nutzer*innen selbst das Flagging nutzen können, um Aktivist*innen wie Feminist*innen zum Schweigen zu bringen. Die Chance, diese Strategie erfolgreich gegen problematische Inhalte zu verwenden, erhöht sich jedoch, wenn einzelne Nutzer*innen sich an kollektive Akteure wenden, z.B. Organisationen, die gegen Hate Speech, Rassismus o.ä. vorgehen und die problematischen Inhalte bzw. Hater*innen anzeigen. Diese Organisationen können eine Beschwerde weitaus erfolgreicher an eine Plattform herantragen.

Eine weitere Maßnahme besteht im Online Shaming: Das Fehlverhalten wird durch die Verbreitung der problematischen Inhalte (inklusive der Identität der Hater*innen) öffentlich angeprangert. Allerdings ist diese Gegenmaßnahme sowohl ethisch als auch juristisch umstritten, wie der Fall Sigrid Maurer in Österreich zeigte. Die Politikerin bekam über den Nachrichtendienst Messenger zahlreiche Nachrichten mit obszönen Inhalten. Als Reaktion darauf veröffentlichte sie diese Nachricht samt des Nutzernamens des Absenders online. Der Nutzer stritt die Urheberschaft der Nachrichten ab und verklagte am Ende die Politikerin. Die Klage wurde allerdings zurückgezogen.

Um solche Situationen zu vermeiden, sollte zuerst versucht werden, die Botschaft als problematisch zu offenbaren, indem man das Problem – und nicht unbedingt die Nutzer*innen – beim Namen nennt. In einem von Munger entwickelten Experiment mit Social Bots konnte die offene Nennung des Fehlverhaltens die Anwendung von rassistischen Schimpfwörtern reduzieren. Allerdings spielten andere Faktoren ebenfalls eine Rolle, wie die Hautfarbe und die Anzahl der Follower*innen von widersprechenden Nutzer*innen.

Posten Nutzer*innen die Botschaft weiter, etwa um Empörung gegen den verstörenden Inhalt bei anderen zu erwecken und/oder die Hater*innen zu beschämen, sollten sie darauf achten, die Interaktionskette zu brechen. Das ist wichtig, um den Plattformbetreibern zu signalisieren, dass sie mit Hass und Hetze keinen Interaktionen und damit auch kein Geld verdienen können. Es ist daher z.B. sinnvoller, einen Screenshot des Beitrages zu machen und diesen zu posten, als einfach den Inhalt samt Link zu teilen.

Nicht interagieren kann ebenfalls als Gegenmaßnahme fungieren. Es geht hier nicht darum, zu schweigen, sondern die Hater*innen und die Plattformen nicht mit Interaktionen zu füttern. Das ist der Fall bei unbekannten Nutzer*innen, die versuchen, Debatten zu diskreditieren oder zu kapern, indem sie sich abwertender Aussagen gegen eine Minderheit oder unzivilen Verhaltens bedienen. In solchen Fällen gilt es, den „Troll“ nicht zu füttern.

Von zentraler Bedeutung ist in allen Fällen, die Situation richtig einzuschätzen. Das heißt konkret: Die Logik der jeweiligen Plattform zu kennen und das Forum zu analysieren, in dem die Botschaft gepostet wurde: Um wen handelt es sich bei der postenden Person? Ist es eine öffentliche oder eine unbekannte Person? Sind wir persönlich betroffen oder werden wir kollektiv aufgrund eines Identitätsfaktors wie Hautfarbe, Geschlecht, Religion angegriffen? Welche Rolle haben wir selbst in diesem Forum? Sind wir Betroffene oder Beistehende? Was wollen wir mit unserer Gegenmaßnahme erreichen? All diese Faktoren spielen eine Rolle, wenn wir entscheiden wollen, ob wir z.B. auf eine Interaktion verzichten, höflich reagieren, Nutzer*innen blockieren oder die Hassmeldestelle anschreiben.

Sind die potenziellen Hater*innen öffentliche Personen, wird ein Nicht-Interagieren kaum einen Effekt haben. Werden wir persönlich beschimpft oder bedroht, können wir Anzeige erstatten. Wird Hass gegen eine Minderheit angestiftet, kann das gemeldet werden und der Staat muss aktiv werden. Höflich mit Gegenargumenten zu reagieren kann potenziell einen positiven Effekt bei Privatpersonen haben, die im Netz entgleisen. In diesen Fällen kann Gegenrede durchaus das geeignete Mittel der Wahl sein. Gegenüber „professionellen“ Hater*innen, wie rassistischen oder rechten Überzeugungstäter*innen, wird der Gegenargument, auch wenn es höfflich kommuniziert wird, kaum etwas bewirken. Der Fokus sollte in diesen Fällen nicht darauf liegen, Hetze mit „guten Argumenten“ entgegenzutreten, sondern zu vermeiden, dass man selbst verhetzt wird. In diesem Kontext sind die Identifikation und offene Nennung des Problems produktiver.

Last but not least, Social Media-Nutzer*innen können sich organisieren und kollektiv gegen Hate Speech und Inzivilität vorgehen. Koordinierter Counterspeech, so Schieb und Preuss, ist erfolgversprechender als einzelne Interventionen. Auch andere kollektive Strategien haben sich als erfolgreich erwiesen. Ein Beispiel dafür liefern dänische Facebook-Nutzer*innen. Diese beobachteten gemeinsam fiktive Profile vermeintlicher Muslim*innen, über die Hass gegen ethnische Gruppen verbreitet wurde, und offenbarten sie anschließend als Fake-Profile.

Fazit

Unabhängig von der eigenen Perspektive ist zu konstatieren, dass das deliberative Modell in den sozialen Medien in den meisten Fällen nicht funktioniert. Neben den (nur selten anwendbaren) gesetzlichen Maßnahmen bleibt der Gesellschaft vor allem eine Option, um Demokratie und freien Meinungsaustausch zu ermöglichen: Medienkompetenz. Dazu gehört die Fähigkeit, Hass und Hetze als solche zu erkennen. Notwendig ist es zudem die Medienlogik der Social Media-Plattformen zu verstehen, damit klar wird, dass bloße Empörung und Gegenrede auf demütigende und spaltende Inhalte Hate Speech und Inzivilität erst zu einem guten Geschäft machen.

Jenseits der Gegenrede braucht es aber vor allem neue, kreativere Wege im Kampf gegen Hate Speech und Inzivilität. Nicht zuletzt braucht es aber auch mehr sozialen Zusammenhalt sowie ein stärkeres Bewusstsein für das uns alle Verbindende in der Vielfältigkeit unserer Gesellschaft.

Fussnoten

Fußnoten

  1. vgl. dazu Birgit Peters, „‘Öffentlichkeitselite‘ - Bedingungen und Bedeutungen von Prominenz“, in Öffentlichkeit, öffentliche Meinung, soziale Bewegungen, hrsg. von Friedrich Neidhardt, 191–213 (Opladen: Westdt. Verlag, 1994); Jürgen Habermas, Theorie des kommunikativen Handelns. Handlungsrationalität und gesellschaftliche Rationalisierung. (Frankfurt am Main: Suhrkamp, 1984).

  2. Michael L. Miller und Cristian Vaccari, „Digital threats to democracy: Comparative lessons and possible remedies”, The International Journal of Press/Politics, 25/3 (2020): 333-356.

  3. zur Einordnung des Cambridge Analytica-Skandals siehe den Text Interner Link: „Social Media als Technikmythos“ in diesem Dossier.

  4. Simon Hurtz, „Facebook-Chef Mark Zuckerberg. Was hinter Zuckerbergs Aussage zur Holocaustleugnung steckt“, 19. Juli 2018, Externer Link: www.sueddeutsche.de/digital/facebook-zuckerberg-holocaustleugnung-1.4061389.

  5. Michel Martin, „Elon Musk calls himself a free speech absolutist. What could Twitter look like under his leadership?”, 08.10.2022, Externer Link: www.npr.org/2022/10/08/1127689351/elon-musk-calls-himself-a-free-speech-absolutist-what-could-twitter-look-like-un.

  6. Rae Langton, „Blocking as counter-speech”, in New work on speech acts, hrsg. Von Daniel Fogal, Daniel W. Harris und Matt Moss, 144-164 (Oxford: Oxford University Press, 2018)

  7. Nadine Keller und Tina Askanius, „Combatting hate and trolling with love and reason? A qualitative analysis of the discursive antagonisms between organized hate speech and counterspeech online”, Externer Link: Studies in Communication and Media 9/4 (2020): 540-572.

  8. Dominik Hangartner et al., „Empathy-based counterspeech can reduce racist hate speech in a social media field experiment”, Proceedings of the National Academy of Sciences, 118 (2021): 50.

  9. Julia Ebner, „Counter-creativity: Innovative ways to counter far-right communication tactics,” in Post-digital Cultures of the Far Right, hrsg. Von Maik Fielitz und Nick Thurston, 169-181 (Bielefeld: Transcript, 2019)

  10. Dana Alsagheer, Haidi Mansourifar und Wendong Shi, „Counter hate speech in social media: A survey”, Externer Link: arXiv preprint arXiv (2022); Binny Mathew et al., „Thou shalt not hate: Countering online hate speech”, Proceedings of the international AAAI conference on web and social media 13 (2019): 369-380.

  11. Jeremy B. Merill und Will Oremus, „Five points for anger, one for a ‘like’: How Facebook’s formula fostered rage and misinformation”, 26.10.2021, Externer Link: www.washingtonpost.com/technology/2021/10/26/facebook-angry-emoji-algorithm/

  12. Catherina Blaya, „Cyberhate: A review and content analysis of intervention strategies”, Aggression and violent behavior 45 (2019): 163-172.

  13. Externer Link: https://www.tagesschau.de/investigativ/tik-tok-begriffe-blockade-101.html

  14. Rae Langton, „Blocking as counter-speech”, in New work on speech acts, hrsg. Von Daniel Fogal, Daniel W. Harris und Matt Moss, 144-164 (Oxford: Oxford University Press, 2018).

  15. vgl. dazu Richard Delgado und Jean Stefancic, Understanding Words that Wound. (Boulder, Colorado: Westview Press,2004).

  16. Kate Crawford und Tarleston Gillespie, „ What is a flag for? Social media reporting tools and the vocabulary of complaint”, Externer Link: New Media & Society 18/3 (2016): 410-428.

  17. Cathrin Kahlweit,„Freispruch für Sigrid Maurer,“ Süddeutsche Zeitung, 17.2.2021,Externer Link: www.sueddeutsche.de/panorama/sigrid-maurer-gruenen-politikerin-oesterreich-bierwirt-prozess-facebook-1.5209076

  18. Dominik Hangartner et al., „Empathy-based counterspeech can reduce racist hate speech in a social media field experiment”, Proceedings of the National Academy of Sciences, 118 (2021): 50.

  19. Carla Schieb und Mike Preuss, „Governing hate speech by means of counterspeech on Facebook”, 66th Ica aAnual Conference, Fukuoka, Japan 2016.

  20. Joshua Garland et al., „Countering hate on social media: Large scale classification of hate and counter speech”, arXiv preprint arXiv (2020)

  21. Julia Ebner, Counter-creativity: „Innovative ways to counter far-right communication tactics,” in Post-digital Cultures of the Far Right, hrsg. Von Maik Fielitz und Nick Thurston, 169-181 (Bielefeld: Transcript, 2019)

  22. Johan Farkas und Christina Neumayer, „Stop Fake Hate Profiles on Facebook’: Challenges for crowdsourced activism in social media”, First Monday, 22/9 (2017).

Lizenz

Dieser Text ist unter der Creative Commons Lizenz "CC BY-NC-ND 4.0 - Namensnennung - Nicht kommerziell - Keine Bearbeitungen 4.0 International" veröffentlicht.
Urheberrechtliche Angaben zu Bildern / Grafiken / Videos finden sich direkt bei den Abbildungen.
Sie wollen einen Inhalt von bpb.de nutzen?

Weitere Inhalte

Liriam Sponholz ist Kommunikationswissenschaftlerin und derzeit Visiting Professor an der Universität von Brasília (UnB) sowie Associate Member am Deutschen Zentrum für Integration und Migration (DeZIM) in Berlin. Sie forscht zur Onlinekommunikation mit Schwerpunkt Onlinemobilisierung, Onlinewahlkämpfe und Hate Speech.