Hetze gegen Andersdenkende, Beleidigungen und Falschmeldungen sind mittlerweile fester Bestandteil der Kommunikation auf Sozialen Netzwerken wie Facebook, YouTube oder Twitter. Zwar stellen die Unternehmen Gemeinschaftsstandards auf und bieten Meldefunktionen an, um ihre Nutzer vor strafbaren und falschen Inhalten zu schützen. Allerdings haben sie mit einer regelrechten Flut von Posts, Kommentaren oder Videos zu kämpfen. Alleine die mehr als zwei Milliarden Facebook-Nutzer verfassen jeden Tag mehrere Millionen Statusbeiträge. Das Unternehmen beschäftigt tausende Moderatoren auf der ganzen Welt, die sich um diese Beiträge kümmern. Seit Herbst 2017 arbeiten in Deutschland 500 weitere Mitarbeiter, um sie zu sichten.
Opfer von beleidigenden oder schlicht falschen Posts können gegen Hass und Hetze kaum vorgehen, die Netzwerke reagieren träge und nicht sehr transparent. Es ist für Außenstehende meist nicht ersichtlich, warum manche Beiträge gelöscht werden und andere nicht. Das soll sich ändern. Die Plattformen sollen strafbare Inhalte schneller und umfassender löschen. Deshalb gilt in Deutschland seit Oktober 2017 Externer Link: das Gesetz zur Verbesserung der Rechtsdurchsetzung in sozialen Netzwerken, kurz Netzwerkdurchsetzungsgesetz, noch kürzer NetzDG. Nach einer dreimonatigen Übergangsfrist trat es zum 1. Januar 2018 vollständig in Kraft.
Entstehung des Gesetzes
Im Rahmen des vermehrten Flüchtlingszuzugs 2015 gab es auf sozialen Netzwerken viele herabwürdigende und rassistische Kommentare. Das Justiz- und Familienministerium hat eine "Verrohung der öffentlichen Debatte hin zu fremdenfeindlichen und rassistischen Hassbotschaften" Externer Link: festgestellt. Auf Initiative von Bundesjustizminister Heiko Maas (SPD) bildete sich daher im September 2015 Externer Link: der Arbeitskreis "Umgang mit rechtswidrigen Hassbotschaften im Internet". Darin diskutierten Experten vom Justiz- und Familienministerium mit Vertretern von Facebook, YouTube und Twitter, aber auch mit Branchenverbänden der Internetwirtschaft wie eco, Jugendschutzverbänden oder der Amadeu-Antonio-Stiftung, die sich gegen Hass im Netz einsetzt.
Aus diesem Arbeitskreis ging eine Selbstverpflichtung der Unternehmen hervor, "effektive Maßnahmen für die Bekämpfung von rechtswidrigen Hassbotschaften auf ihren Systemen zu ergreifen", etwa indem sie schnell reagieren und gemeldete Inhalte innerhalb von 24 Stunden prüfen. Für das Justizministerium war diese Selbstverpflichtung nicht ausreichend. Im März 2017 Externer Link: verwies das Ministerium auf eine Studie des gemeinnützigen Portals Jugendschutz.net. Das Portal hielt es weiterhin für unzureichend, wie gründlich und schnell Soziale Netzwerke gemeldete Hasskommentare löschen. Daraufhin brachte Justizminister Maas das NetzDG auf den Weg. Allerdings standen die ersten Entwürfe stark in der Kritik, da sie sehr allgemein gefasst waren und eventuell auch Messenger oder E-Mail-Anbieter betroffen hätten. Nach einigen Nachbesserungen wurde das Gesetz am 30. Juni 2017 vom Bundestag verabschiedet.
Was Plattformbetreiber tun müssen
Das Gesetz betrifft Soziale Netzwerke, die kommerziell betrieben werden und mehr als zwei Millionen Nutzer in Deutschland aufweisen. Messenger wie WhatsApp oder E-Mail-Anbieter wie Gmail werden vom Gesetz explizit ausgeschlossen, ebenso Berufsnetzwerke wie Xing oder Online-Spiele.
Wer ein Soziales Netzwerk betreibt und die Kriterien erfüllt, muss "einen offensichtlich rechtswidrigen Inhalt" innerhalb von 24 Stunden löschen. Verstößt ein Beitrag nicht offensichtlich gegen deutsches Recht, ist aber trotzdem rechtswidrig, hat der Betreiber eine Woche Zeit, um ihn zu entfernen. Er muss allerdings schon im Vorfeld entscheiden, was offensichtlich rechtswidrig ist – im Gesetz steht nicht, wie der Betreiber das entscheiden soll. Ist er sich nicht sicher, kann der Betreiber eine "Einrichtung der Regulierten Selbstregulierung" um Mithilfe bitten, die vom Justizministerium anerkannt ist. Das könnte beispielsweise der Verein Externer Link: Freiwillige Selbstkontrolle Multimedia-Diensteanbieter sein.
Eine Definition für rechtswidrige Inhalte liefert das NetzDG gleich mit und listet 20 Paragraphen aus dem Strafgesetzbuch auf. Unter rechtswidrige Inhalte fallen beispielsweise auch Beleidigungen, Volksverhetzungen oder üble Nachreden, aber auch Gewaltdarstellungen oder Vorbereitungen zu einer schweren staatsgefährdenden Straftat. Kommt ein Betreiber diesen Auflagen nicht nach, droht ein Bußgeld von bis zu 50 Millionen Euro. Allerdings ist das die Maximalstrafe und sie gilt nur bei grobem bzw. dauerhaftem Fehlverhalten, etwa wenn ein Soziales Netzwerk über einen längeren Zeitraum berechtigte Beschwerden ignoriert. Die Höhe des Bußgeldes richtet sich dann nach der Größe des Netzwerks. Für eine einzelne Fehlentscheidung muss der Betreiber kein Bußgeld zahlen.
Außerdem müssen die betroffenen Netzwerke nun alle sechs Monate einen deutschsprachigen Bericht darüber veröffentlichen, wie sie mit Beschwerden und Löschanfragen umgehen. Darin soll etwa stehen, wie viele Beschwerden sie erreicht haben, wie lange sie benötigt haben, um rechtswidrige Inhalte zu löschen oder wie viele Mitarbeiter dafür zuständig sind, die Beschwerden zu bearbeiten. Weiterhin müssen die Betreiber der sozialen Netzwerke einen Ansprechpartner für Gerichte benennen.
Das Gesetz ist umstritten. Viele Kritiker fürchten, dass die Betreiber der Netzwerke wegen der kurzen 24-Stunden-Frist vorsorglich zu viel löschen würden und so die Meinungsfreiheit der Nutzer beschränken. Wird ein Beitrag oder ein Konto ungerechtfertigt gelöscht, haben die Betroffenen zudem kaum eine Möglichkeit, gegen die Netzwerke vorzugehen. Widerspruchsmöglichkeiten sieht das NetzDG nicht vor.