Hass im Netz ist kein neues Phänomen. Schon in den 1980er Jahren wurde das frühe Internet von extremistischen Gruppierungen genutzt, um menschenfeindliche Inhalte zu verbreiten: 1984 Externer Link: veröffentlichte der deutschstämmige Antisemit und Rassist Georg P. Dietz Hassschriften im Cyberspace, 1985 ging das Externer Link: „White Aryan Resistance“-Bulletin Board des Rechtsradikalen Tom Metzger online und 1991 entstanden mit dem World Wide Web auch die ersten Hass-Webseiten – etwa Externer Link: die Webpräsenz der rechtsextremistischen Gruppe "Stormfront".
Automatisierter Hass
Die Kommunikation im Netz hat sich seitdem grundlegend verändert. Hass-Seiten imitieren die Aufmachung von Nachrichtenportalen und kapern durch hochfrequente "Berichterstattung" populäre Suchbegriffe, so dass teilweise Externer Link: Rassismen und Verschwörungstheorien Externer Link: weit oben in der Ergebnisliste bei Google landen. Sogenannte Social Bots, also algorithmenbasierte Fake-Accounts, beeinflussen politische Debatten, auch und Externer Link: gerade in Wahlkampfzeiten. Durch die teilweise täuschend echte Imitation menschlicher Kommunikation sind Social Bots für viele Nutzer nur schwer zu erkennen. Zwar widmen sich Forschungsprojekte wie Externer Link: "Social Media Forensics" der Analyse solcher Bots. Eine Lösung dieses komplexen Problems kann sich jedoch nicht auf technische Ansätze beschränken.
Es braucht vor allem Aufklärung
Um Hass im Netz wirksam bekämpfen zu können, ist zunächst ein Bewusstsein dafür notwendig, dass die Macht, die hasserfüllte Botschaften seitens Trollarmeen, Social Bots, aber auch seitens Privatpersonen entfalten, auf tiefer liegende gesellschaftliche Missstände hinweist. Zum einen sind gerade jüngere Menschen, die in einer Zeit aufwachsen, in der klassische Medien wie Tageszeitungen, Nachschlagewerke und Bibliotheken keine Gatekeeper mehr sind, besonders anfällig dafür, Internetquellen nicht zu hinterfragen, sondern Facebook-Beiträge oder weit oben gelistete Google-Suchergebnisse vorschnell als verlässliche Informationen zu bewerten. Hier sind vor allem Bildungsanbieter gefragt, um verständlich darüber aufzuklären, wie seriöse von unseriösen Informationsanbietern unterschieden werden können und wie sich Hassrede und Fake News erkennen lassen. Zivilgesellschaftliche Akteure wie Externer Link: Mimikama oder Externer Link: #ichbinhier leisten auf diesem Feld bereits Pionierarbeit.
Zum anderen ist Hassrede auch deswegen so erfolgreich, weil sie sowohl an bereits bestehende individuelle Unsicherheiten als auch an zentrale Motive nationaler Identitätsbildung anknüpft, wie die Politikwissenschaftlerin Kate Ferguson herausgearbeitet hat: Hassrhetorik bedient sich häufig emotional besetzter Schlagwörter wie "Zugehörigkeit" und "Familie", aber auch "Feind", "Kampf" und "Überleben"; Begriffe, die traditionell bedeutsam für die Errichtung nationaler Identitätsgefühle sind. Ein Beispiel: Menschenfeindliche Diskurse im Kontext der Fluchtbewegungen seit 2015 präsentieren Geflüchtete als "Feinde" und beschreiben sie einerseits als kulturell "minderwertig" und unterlegen, andererseits aber als übermächtig und bedrohlich. Indem Hassredner sich als "Opfer" der Geflüchteten stilisieren, gestehen sie ihren "Feinden" das Recht ab, selbst Opfer zu sein, und beanspruchen sämtliche Externer Link: Empathie für sich selbst.
Wenn die Mehrheit schweigt
Wenn Hassrede im Netz unbeantwortet bleibt, verfestigt sich sowohl bei den Hassrednern selbst als auch bei stillen Mitlesenden der Eindruck, dass diese Meinungen von der Mehrheit geteilt werden.
Das Bedürfnis, normgemäß zu handeln, also keinerlei gesellschaftliche Sanktionen befürchten zu müssen, ist tief im Menschen verankert. Interventionen, die Hassrednern aufzeigen, dass sie nicht in Übereinstimmung mit gesellschaftlichen Normen agieren, sind daher ein wirksames Instrument, um Hate-Speech entgegenzuwirken, wie die Psychologin Externer Link: Rachel Brown aufzeigt. Der Einsatz gegen Hassrede, gerade im privaten Bereich, ist jedoch immer auch eine Frage der zeitlichen und emotionalen Ressourcen, die nur individuell beantwortet werden kann. Es ist wichtig, schnell und verlässlich einschätzen zu können, ob man es gerade mit einem Troll zu tun hat, dessen einziges Ziel darin besteht, andere zu demütigen und in Aufruhr zu versetzen, mit einem Social Bot oder mit einem Menschen, bei dem sich Counter Speech (Gegenrede) lohnen kann.
Initiativen gegen den Online-Hass
Die europaweite No Hate Speech Kampagne des Europarats, die in Deutschland von den Externer Link: Neuen deutschen Medienmachern koordiniert wird, unterstützt Mitglieder der Zivilgesellschaft, die sich gegen Hassrede stark machen möchten und/oder davon betroffen sind. Die Externer Link: No Hate Speech Kampagne Deutschland liefert Hintergrundinformationen zum Thema Hass im Netz, stellt Kontakte zu individuellen Anlaufstellen her, bietet Vernetzungsangebote, etwa überregionale Treffen für Aktivisten oder für von Hassrede betroffene Journalisten, und nennt konkrete Beispiele für Gegenrede.
Ein Leitfaden der Kampagne und der Facebook-Gruppe #ichbinhier wird eine Übersicht über die wichtigsten "Typen" von Trollen liefern, über ihre Motive und was ihnen entgegnet werden kann. Bislang reagiert nur ein Bruchteil der 14- bis 59-Jährigen in Deutschland mit aktiver Gegenrede, obwohl bereitsExterner Link: 77 Prozent von ihnen mit Hass im Netz konfrontiert worden sind; wenn jede und jeder aus einem Pool bereits erprobter Strategien schöpfen kann, könnte die Hemmschwelle deutlich niedriger sein, digitale Zivilcourage zu zeigen und sich Hetze im Netz erfolgreich entgegen zu stellen.