Cebit: Hasskommentare automatisch erkennen

Das Netz debattiert - doch nicht jede Debatte verläuft harmonisch. Schnell gerät eine hitzige Debatte zum Austausch von Beleidigungen und Hass. "Häufig ist dies der Fall, wenn es in Debatten um Themen wie Flüchtlinge, Trump oder Russland geht", sagt Sebastian Köffer vom European Research Center for Information Systems an der Westfälischen Wilhelms-Universität Münster. Gerade Verlagshäuser, die auf ihren Webseiten Kommentare zuließen, würde Hass im Netz schnell überfordern, so Köffer: "Die schalten dann oft den Kommentarbereich ab und die Diskussionen verlagern sich auf andere Plattformen."
Moderation entlasten
Dies sei für Verlage ein wirtschaftlicher Verlust, weil deren Webseiten damit an Besuchern verlieren, sagt Köffer, aber nicht nur das: "Journalisten sollten sich auch der Debatte stellen und diese einordnen." Sein Projekt Hatemining will künftig dafür sorgen, dass Moderatoren im Internet in ihrer Arbeit entlastet werden - mit einer automatisierten Wort- und Kontextanalyse von Kommentaren.
Kommentare schneller freischalten
Ein Algorithmus erkennt dabei einerseits Wörter, aber auch den Kontext innerhalb eines Kommentares. "Das Ziel ist es, dass vor allem unproblematische Kommentare sofort erscheinen und nicht mehr von Moderatoren freigeschaltet werden müssen", so Köffer. Offensichtliche Hasskommentare sollen geblockt werden, eher unklare Kommentare werden Moderatoren zur Kontrolle vorgelegt, sagt der Projektleiter: "Das Programm zeigt dann aber an, welche Stellen im Kommentar problematisch sein könnten."
Kein einheitlicher Standard für Hasskommentare
Das Projekt "Hatemining" stößt mit dieser Herangehensweise auch auf Kritiker, die den Forschern Zensur vorwerfen. "Wir seien ein 'gefährliches Projekt' hieß es schon", sagt Mitentwickler Marco Niemann. Sie entgegnen, dass es bereits viele Foren und Soziale Medien gibt, die auf automatisierte Textverfahren setzen, um Hasskommentare zu erkennen. "Nur wird da ungern drüber geredet", so Sebastian Köffer. Er gibt zu, dass es keine einheitliche Definition dafür gibt, was Hasskommentare im Netz sind, findet aber: "Es ist zu kurz gegriffen, wenn damit nur Beleidigung und Volksverhetzung gemeint ist." Auch "Gossensprache" oder versteckte Codes müssen berücksichtigt werden.
Debattenkultur verbessern
Die Forscher aus Münster erhoffen sich von ihrem Algorithmus zuerst eine Verbesserung der Debattenkultur im Internet. Aber nicht nur das: "Es soll auch für Benutzer offen und transparent gemacht werden, warum ihr Kommentar vielleicht nicht erscheint", sagt Köffer. Damit könne sein Projekt auch für mehr Akzeptanz sorgen.
