Dieser Beitrag ist zuerst bei Externer Link: fluter.de erschienen.
Man kann seine Filterblase noch so fein justiert haben, die Freundes-, Follow- und Blocklisten auf Facebook und Twitter noch so genau austarieren – manchmal erreicht es einen doch. Dann schwappt der ganze Hass, der in einigen Ecken des Internets zu finden ist, über Umwege in die eigene Online-Welt, und man möchte sich schütteln. Weil da Leute jubeln, wenn Flüchtlingsboote untergehen, weil Menschen anderen, die sich für Flüchtlinge einsetzen, für dieses Engagement Vergewaltigung und Tod an den Hals wünschen, weil da "Witze" gerissen werden von einer Abgestumpftheit und Grausamkeit, dass es einem den Atem verschlägt. Man muss kein Justizminister sein und auch nicht besonders zart besaitet, um sich zu wünschen, dass so etwas aus sozialen Netzwerken verschwindet. All dies ist ekelhaft und menschenverachtend. Einiges ist außerdem sicherlich rechtswidrig.
Aber wo verläuft die Grenze? Was ist noch Meinung, was schon Straftat?
Diese Fragen sind zu wichtig: Sie dürfen nicht an Twitter, Facebook und Konsorten delegiert werden. Aber genau das tut das Netzwerkdurchsetzungsgesetz (NetzDG). Laut dem Gesetz, das seit dem 1. Januar vollumfänglich gilt, müssen soziale Netzwerke rechtswidrige Beiträge auf ihren Seiten innerhalb von sieben Tagen löschen, nachdem sie ihnen gemeldet wurden. Es sei denn, die Beiträge sind "offensichtlich rechtswidrig", dann muss das sogar innerhalb von 24 Stunden geschehen. Was unterscheidet diese Kategorien? Und wer trifft letztendlich die Entscheidung, was gelöscht wird und was nicht? Muss dieser Mensch juristisch qualifiziert sein? Muss das überhaupt ein Mensch sein?
Das Gesetz legt sich da nicht fest. Nur "wirksam und transparent" müsse das Verfahren sein, heißt es im Text. Das ist nicht nur unpräzise, sondern legt auch sehr viel Verantwortung in die Hände von Unternehmen, die sich bisher nicht gerade mit Transparenz einen Namen gemacht haben – oder damit, dass sie sich für konstruktive politische Auseinandersetzung interessieren.
Zu viel zu löschen ist für die Plattformen besser als zu wenig zu löschen
Die Netzwerke werden deswegen auch kein Problem damit haben, im Zweifel lieber zu viel zu löschen als zu wenig. Schließlich drohen ihnen hohe Geldbußen, wenn sie systematisch gegen das Gesetz verstoßen. Dass vor diesem Hintergrund auch Beiträge verschwinden können, die offensichtlich Satire waren, wie vom "Titanic"-Magazin oder von Komikerin Sophie Passmann, haben die ersten Tage unter dem NetzDG gezeigt.
Nun sind ein paar Witze, die auf Twitter nicht mehr zu lesen sind, noch nicht das Ende der Debattenkultur in Deutschland. Aber die Fehlschläge in der Regulierung durch das NetzDG sind Wasser auf die Mühlen derjenigen, die ohnehin nie wollten, dass Straftaten wie Volksverhetzung und Beleidigung online verfolgt werden. Die AfD redet von Zensur, die sozialen Netzwerke freuen sich über eine breite Opposition gegen ein Gesetz, das sie sowieso nie wollten. Und Bundesjustizminister Heiko Maas? Verteidigt sein Projekt und tut, als gäbe es die Probleme nicht, die die Kritiker ansprechen, vom Deutschen Journalisten-Verband bis zum Digital-Branchenverband Bitkom.
Ein Gesetz, das es de facto Konzernen überlässt, die Grenzen der Meinungsfreiheit zu definieren, ist ein schlechtes Gesetz – egal wie gut es gemeint war. Dabei brauchen wir dringend eine Lösung gegen den Hass und die Hetze, die sich online so viel schneller verbreiten als über klassische Medien. Doch mit dem NetzDG sind wir davon weiter entfernt als zuvor: Jede Debatte, die in Zukunft darüber geführt wird, welche Regeln im Netz für freie Rede gelten sollen, wird davon geprägt sein, wie unzulänglich dieser Versuch war. Dieser Schaden ist schwer wiedergutzumachen.
Wir können selber aktiv gegen Hass im Netz anschreiben
Und als wäre das alles nicht genug, sieht es aus, als würde das NetzDG nicht einmal seine ursprüngliche Aufgabe erfüllen. Das legt jedenfalls ein Test des Bayerischen Rundfunks nahe. Von der Redaktion gemeldete Kommentare wurden von Twitter gar nicht und von Facebook nur teilweise gelöscht, obwohl sie laut BR gewaltverherrlichende Inhalte zeigen, die nach deutschem Recht womöglich strafbar sind.
Bis es eine sinnvolle, funktionierende gesetzliche Regelung für den Umgang mit Hasskommentaren gibt, müssen Nutzer selbst aktiver werden. Denn dass Hasskommentare nicht verschwinden, nur weil man sich das wünscht, heißt nicht, dass man sie einfach aushalten muss. Wir können dagegen mit eigenen Kommentaren anschreiben, Menschenverachtung nicht einfach unwidersprochen stehen lassen und solidarisch sein mit Opfern von Hetzkampagnen. Wir können klarmachen, dass Hass nicht erwünscht ist – ob nun gerade noch von der Meinungsfreiheit gedeckt oder nicht.