Ein Einblick in Deutschlands Kampf gegen Hassrede

geman-hatespeech-law
Im Berliner Reichstagsgebäude. Foto von AC Almelor auf Unsplash.

Bei dem Dilemma, wie man am besten mit der Plage hasserfüllter und belästigender Online-Kommentare umgehen sollte, dreht sich alles um Meinungsfreiheit, lokale Gesetze und die Frage, wer am Ende darüber entscheidet, was von wem gesagt werden darf.

In der Vergangenheit profitierten Internetunternehmen von bewährten „Safe-Harbor-Gesetzen“, die es ihnen ermöglichten, sich der Verantwortung für die Äußerungen ihrer Nutzer zu entziehen. Einerseits hat diese Praxis maßgeblich dazu beigetragen, dass das Internet zu einem Ort voller Kreativität und Einfluss geworden ist. Andererseits grassieren aber auch Hassparolen und Belästigung im Netz, wofür globale Plattformen wie Facebook, YouTube und Twitter bisher weder einheitliche noch sonderlich effektive Lösungen gefunden haben.

Deutschland, ein Land mit fast 83 Millionen Einwohnern, zog vor Kurzem die globale Aufmerksamkeit zu diesem Problem auf sich, als es 2018 ein Gesetz zur Eindämmung von Hass und übler Nachrede im Netz verabschiedete. Beliebte Social-Media-Unternehmen haben demnach mit saftigen Geldstrafen zu rechnen, wenn sie offensichtlich gesetzeswidrige Inhalte nicht innerhalb von 24 Stunden nach der entsprechenden Meldung löschen. Für alle anderen illegalen Inhalte ist eine Frist von sieben Tagen vorgesehen.

Das Netzwerkdurchsetzungsgesetz (NetzDG) wurde von einigen Politikern als wichtiger Schritt in der Bekämpfung von Hassrede angesehen, stieß bei anderen jedoch auf heftige Kritik. Digitale Bürgerrechtsbewegungen waren besorgt, dass das Gesetz zu einem Overblocking führen und die Meinungsfreiheit bedrohen könnte. Im Ausland folgten Regierungen, die freie Meinungsäußerung bereits einschränken, dem Geschehen mit großem Entzücken. Russland, Venezuela und auch Kenia gehören zu den Ländern, die unverzüglich ihre eigenen Varianten des Gesetzes entwarfen.

Ein Jahr nach dessen Inkrafttreten scheint das NetzDG weder sonderlich viel von dem bewirkt zu haben, was es bewirken sollte, noch hat es sich als so restriktiv erwiesen, wie viele befürchtet hatten. Es ist jedoch schwierig, die Folgen genau einzuschätzen, solange wir keinen tieferen Einblick darin haben, welche Arten von Meldungen verschickt werden und mit welchen Methoden und Richtlinien Plattformen auf sie reagieren.

Das NetzDG ist darauf ausgelegt, Unternehmen zur Moderation und zügigen Entfernung von Inhalten zu verpflichten. Das Bundesamt für Justiz kann ihnen Bußgelder von bis zu 50 Millionen Euro auferlegen, wenn ihre Plattformen berechtigten Löschungsaufforderungen von Nutzern oder Behörden nicht nachkommen. Facebook und Twitter berichteten, dass sie nach Inkrafttreten des Gesetzes, zusätzliche Moderatoren in Deutschland eingestellt hatten, um Inhalte zu überprüfen, die von Nutzern oder Algorithmen als problematisch gekennzeichnet wurden.

Unter Befolgung des NetzDG schilderten Facebook, Google+, YouTube und Twitter im Juli und im Dezember 2018 jeweils in eigenen Berichten, wie ihre Nutzer Beschwerden einreichen können und wie diese dann verarbeitet werden. Allerdings scheinen die von den Plattformen veröffentlichten Zahlen zu den Entfernungen von Inhalten etwas niedrig, wenn man sie mit der Menge an eingegangenen Beschwerden vergleicht.

Twitter zum Beispiel erhielt laut eigenen Aussagen 256.462 Beschwerden im Zeitraum von Juli bis Dezember 2018 und ist nur neun Prozent davon nachgegangen. Bei Facebook waren es 1.048 und nur 35,2 Prozent der gemeldeten Inhalte wurden entfernt. Worum es bei diesen Beschwerden ging oder warum so viele von ihnen abgelehnt wurden, ist nicht bekannt. Unabhängige Forscher haben keinen Zugang zu den Rohdaten und es gibt für die verschiedenen Plattformen auch kein einheitliches Verfahren zur Meldung von Inhalten. Ihre Zahlen können auf verschiedenste Art und Weise ausgelegt werden.

„Wenn wir besser nachvollziehen wollen, wie Unternehmen darüber entscheiden, welche Äußerungen im Netz sie als akzeptabel oder inakzeptabel einstufen, brauchen wir genauere Informationen zu ihren Prüfverfahren in Einzelfällen.“ Mit diesen Worten reagierten Forscher des Humboldt-Instituts für Internet und Gesellschaft auf die oben genannten Berichte. Sie fordern mehr Transparenz und Aufklärung, um die Auswirkungen des Gesetzes genauer einschätzen zu können. „Wer sind die Menschen, die Entfernungsaufforderungen einreichen, und wie strategisch gehen sie bei der Nutzung von Meldesystemen vor? Welchen Einfluss haben Meldemechanismen auf das Verhalten der Nutzer?“

Die meisten Regeln für Inhalte auf Social-Media-Plattformen lassen sich aus ihren Nutzungsbedingungen, Community-Standards und anderen Benutzerrichtlinien herleiten. Wenn es jedoch darum geht, wie diese Plattformen ihre eigenen Regeln auf verbotene Inhalte anwenden, wird relativ wenig nach außen kommuniziert.

Bisher ist es Deutschland noch nicht gelungen, aus dieser kontroversen und politisierten Debatte über schädliche Inhalte neues Wissen zu schöpfen und bessere Lösungen zu finden. Gäbe es allerdings mehr Transparenz darüber, wer Hass und Gewalt im Netz verbreitet, wer diese Vorfälle meldet und wie mittlere Instanzen mit Inhaltsentfernungen umgehen, wären wir dem Verständnis, was ein gesünderes Internet für alle ausmacht, bereits einen wichtigen Schritt näher.

Entfernungen von Inhalten unter dem Netzwerkdurchsetzungsgesetz

Plattformberichte von Juli bis Dezember 2018

Facebooks, Googles und Twitters NetzDG-Transparenzberichte von und für Juli–Dezember 2018. Die Tabelle ist an die aus dem Artikel Removals of online hate speech in numbers von Kirsten Gollatz, Martin J. Riedl und Jens Pohlmann angelehnt. In: Digital Society Blog (2018)

Was denkst Du – wie können wir Hassrede im Netz am besten eindämmen?

Sag uns als Erstes Deine Meinung! Es gibt noch keine Kommentare.

Siehe Mozillas Richtlinien für das Mitwirken in der Community: [English | Español | Deutsch | Français]. Kommentare werden auf dieser Seite moderiert. Wir lehnen Kommentare ab, die andere verletzen oder nichts mit dem Thema zu tun haben.