Social-Media-Plattformen gehen das Problem der Online-Belästigung endlich ernsthaft an. Nur schade, dass sich die öffentliche Debatte über die Gefahren des offenen Internets erst zuspitzen musste, bis etwas passiert ist. So mussten erst unzählige Internetnutzer – vom Promi bis zum Normalo – darauf hinweisen, dass dieses Problem vor allem für Frauen, junge Menschen und sexuelle, ethnische und religiöse Randgruppen immer mehr zur Krise wird.

Online-Belästigung kann viele Formen annehmen – von böswilligen Kommentaren bis hin zu Bedrohung, Stalking und Doxing. Noch dazu wird das Problem durch „Bots“ verschärft, die unangemessenes Verhalten verstärken. Weder die Strafverfolgungsbehörden noch die Online-Plattformen haben sich in den letzten Jahren um dieses Problem gekümmert, weshalb der Vorwurf laut wurde, dass die Social-Media-Unternehmen eigentlich nie die Absicht hatten, irgendetwas dagegen zu tun.

Wie bereits andere vor ihm hatte der Schriftsteller Yair Rosenberg im Jahr 2017 genug von den Hasskommentaren auf Twitter und schuf einen wachsamen Bot, um „Trolle“ und Bots, die antisemitische Kommentare auf der Social-Media-Plattform hinterließen, auszutricksen. Letzten Endes wurde Rosenbergs Bot von Twitter gesperrt – mit der Begründung, er habe gegen die Regeln bezüglich Spam-Kommentaren verstoßen. Die Plattform hat seitdem jedoch andere Wege gefunden, um Online-Belästigung einzudämmen.

Im letzten Jahr konnte Twitter sechs Monate, nachdem die Plattform ihre Richtlinien aktualisierte, einen Rückgang von Belästigungsvorfällen vermelden. Nach eigenen Angaben ging Twitter 2017 gegen zehnmal so viele problematische Accounts vor wie noch im Jahr 2016. Auch Facebook erkannte 2017 das Ausmaß des Problems und veröffentlichte neue Features, mit denen ungewollte Kontakte abgewehrt werden können sowie Sicherheitsrichtlinien für besonders gefährdete Menschen wie Opfer häuslicher Gewalt oder Journalisten.

Angesichts der Tatsache, dass etwa 2,5 Milliarden Menschen auf der Welt soziale Medien benutzen – viele davon auf Sprachen, die von größeren Plattformen nicht unterstützt werden –, erfordert die Bekämpfung der unterschiedlichen Formen von Belästigung einen Mix aus menschlichen und automatisierten Ansätzen. Einige Unternehmen nutzen künstliche Intelligenz (KI) auf eine ganz neue Weise, um gegen Missbrauch auf ihren Plattformen vorzugehen.

Im Jahr 2017 sagte Instagram verletzenden Kommentaren mit einer KI namens DeepText den Kampf an. Das Tool wurde von einem mehrsprachigen Team dazu programmiert, negative Wörter und Emojis in den Sprachen Englisch, Arabisch, Französisch, Deutsch und Portugiesisch zu identifizieren und zu filtern. DeepText ist lernfähig – es erkennt von selbst neue Wörter, die in negativen Kontexten auftreten. Zusätzlich kann sich jeder Nutzer seine eigenen Filterlisten für bestimmte Wörter und Emojis zusammenstellen. Und um besser einschätzen zu können, ob ein potenziell verletzender Kommentar tatsächlich in böser Absicht verfasst wurde oder doch nur ein harmloser Scherz unter Freunden ist, überprüft die KI, in welcher Beziehung die einzelnen Nutzer zueinander stehen.

Gfycat, eine Plattform für Kurzvideos mit über 130 Millionen Nutzern pro Tag, setzt künstliche Intelligenz ein, um eine ganz andere Art der Online-Belästigung zu bekämpfen: „Revenge Porn“ (Pornografie, die ohne Einwilligung erstellt wurde) in Form von „Deepfakes“.

Bei einem Deepfake handelt es sich tatsächlich um zwei Videos, die so kombiniert werden, dass das Gesicht einer Person auf dem Körper einer anderen platziert wird. Die KI von Gfycat sucht nach Gesichtern und Hintergründen, die auch anderswo im Netz existieren. Stellt die KI eine falsche Kombination fest, wird das betroffene Video entfernt. Für prominente Opfer sind das gute Neuigkeiten, bei Personen, die nicht so leicht wiederzuerkennen sind, funktioniert das Prinzip jedoch noch nicht so effektiv.

Künstliche Intelligenzen können ein nützliches Hilfsmittel im Kampf gegen Online-Belästigung sein. Und doch haben auch sie ihre Tücken, vor allem im Hinblick auf die Meinungsfreiheit. In einem Fall hielt der Algorithmus der Instagram-KI das Wort „Mexikaner“ für ein Schimpfwort, da es in den USA oft in Hasskommentaren gegen Immigranten verwendet wird. Andere Plattformen wie Facebook und Twitter haben versucht, die Moderation ganz den Maschinen zu überlassen. Das hat jedoch unter anderem dazu geführt, dass Aktivisten und People of Color ungerechtfertigterweise mundtot gemacht wurden. Für den Einsatz von KI im Kampf gegen Online-Belästigung sollte die Minimierung dieser Risiken im Mittelpunkt jeder Strategie stehen. Wahrscheinlich werden dabei aber auch in Zukunft erst noch einige Fehler passieren.

Für Maschinen sind die Nuancen einer Sprache heikles Terrain, aber mit menschlicher Unterstützung könnten sie dazu beitragen, das Internet sicherer zu machen. Jetzt, da Online-Plattformen mehr gegen Belästigung im Netz tun, müssen sie enger mit den Nutzergemeinschaften zusammenarbeiten, um die damit verbundenen Probleme besser zu verstehen und ihre Regeln, Richtlinien und Best Practices entsprechend weiterentwickeln zu können.

Weitere Links

Instagram’s Kevin Systrom Wants to Clean Up the Internet (Wie Kevin Systrom von Instagram das Internet aufräumen möchte), WIRED (August 2017)
Facebook’s Secret Censorship Rules Protect White Men From Hate Speech But Not Black Children (Facebooks geheime Zensurbestimmungen schützen weiße Männer vor Hassrede, schwarze Kinder aber nicht), ProPublica (Juni 2017)
Artificial Intelligence is now fighting fake porn (Künstliche Intelligenz geht gegen Fake Porn vor), WIRED (Februar 2018)
Deepfakes are disappearing from parts of the Web, but they’re not going away (Deepfakes verschwinden allmählich aus einigen Teilen des Webs – aber das heißt nicht, dass sie weg sind), The Verge (Februar 2018)