Stand: 15.06.2018 13:35 Uhr  | Archiv

Cebit: Hasskommentare automatisch erkennen

von Carsten Pilger
Sebastian Köffer (links) und Marco Niemann vom Projekt "Hatemining" stehen bei der Cebit an ihrem Stand. © NDR Foto: Carsten Pilger
Wollen für eine bessere Debattenkultur sorgen: Sebastian Köffer (links) und Marco Niemann vom Projekt "Hatemining".

Das Netz debattiert - doch nicht jede Debatte verläuft harmonisch. Schnell gerät eine hitzige Debatte zum Austausch von Beleidigungen und Hass. "Häufig ist dies der Fall, wenn es in Debatten um Themen wie Flüchtlinge, Trump oder Russland geht", sagt Sebastian Köffer vom European Research Center for Information Systems an der Westfälischen Wilhelms-Universität Münster. Gerade Verlagshäuser, die auf ihren Webseiten Kommentare zuließen, würde Hass im Netz schnell überfordern, so Köffer: "Die schalten dann oft den Kommentarbereich ab und die Diskussionen verlagern sich auf andere Plattformen."

Moderation entlasten

Dies sei für Verlage ein wirtschaftlicher Verlust, weil deren Webseiten damit an Besuchern verlieren, sagt Köffer, aber nicht nur das: "Journalisten sollten sich auch der Debatte stellen und diese einordnen." Sein Projekt Hatemining will künftig dafür sorgen, dass Moderatoren im Internet in ihrer Arbeit entlastet werden - mit einer automatisierten Wort- und Kontextanalyse von Kommentaren.

Kommentare schneller freischalten

Ein Algorithmus erkennt dabei einerseits Wörter, aber auch den Kontext innerhalb eines Kommentares. "Das Ziel ist es, dass vor allem unproblematische Kommentare sofort erscheinen und nicht mehr von Moderatoren freigeschaltet werden müssen", so Köffer. Offensichtliche Hasskommentare sollen geblockt werden, eher unklare Kommentare werden Moderatoren zur Kontrolle vorgelegt, sagt der Projektleiter: "Das Programm zeigt dann aber an, welche Stellen im Kommentar problematisch sein könnten."

Kein einheitlicher Standard für Hasskommentare

Das Projekt "Hatemining" stößt mit dieser Herangehensweise auch auf Kritiker, die den Forschern Zensur vorwerfen. "Wir seien ein 'gefährliches Projekt' hieß es schon", sagt Mitentwickler Marco Niemann. Sie entgegnen, dass es bereits viele Foren und Soziale Medien gibt, die auf automatisierte Textverfahren setzen, um Hasskommentare zu erkennen. "Nur wird da ungern drüber geredet", so Sebastian Köffer. Er gibt zu, dass es keine einheitliche Definition dafür gibt, was Hasskommentare im Netz sind, findet aber: "Es ist zu kurz gegriffen, wenn damit nur Beleidigung und Volksverhetzung gemeint ist." Auch "Gossensprache" oder versteckte Codes müssen berücksichtigt werden.

Debattenkultur verbessern

Die Forscher aus Münster erhoffen sich von ihrem Algorithmus zuerst eine Verbesserung der Debattenkultur im Internet. Aber nicht nur das: "Es soll auch für Benutzer offen und transparent gemacht werden, warum ihr Kommentar vielleicht nicht erscheint", sagt Köffer. Damit könne sein Projekt auch für mehr Akzeptanz sorgen.

Cebit 2018
Das Flugtaxi Volocopter wird auf der Cebit ausgestellt. © NDR Foto: Carsten Pilger

Cebit: Von Lieferdrohne bis Flugtaxi

Drohnen sind kein Spielzeug mehr - für Feuerwehr und Polizei ist ihr Einsatz Alltag und auch Lieferdienste wollen sie vermehrt einsetzen. Doch oft hindert das Gesetz am Abheben. mehr

Eine futuristisch anmutende Ladesäule für Elektroautos steht über einem Autobahn-Tal.  Foto: Ionity GmbH

Cebit: Wie die Zukunft der Mobilität aussieht

Elektroautos, Drohnen, Flugtaxis und Exo-Skeletts: Die Zukunft der Mobilität zeigt sich in vielen Facetten auf der Cebit. NDR.de hat sich einige genauer angeschaut. mehr

Ein Screenshot der Cebit AR App. © VRTX

Cebit: Augmented Reality als Wegweiser

Viele Hallen, unzählige Stände – die Cebit kann schnell unübersichtlich werden. Eine Augmented-Reality-App aus Hannover ändert das und will die Messe zusätzlich noch zum Spiel machen. mehr

Dieses Thema im Programm:

Hallo Niedersachsen | 12.06.2018 | 19:30 Uhr

Mehr Videos von der CeBIT

Wetter