Archiv

Forschungsprojekt
Auf der Suche nach einem Mittel gegen den Hass

Beleidigungen und Hassbotschaften sind im Netz ein weit verbreitetes Problem. Seit einigen Jahren schreiben mehrere Initiativen dagegen an. Ob diese Gegenrede ein wirksames Instrument ist, erforschen jetzt WissenschaftlerInnen.

Von Anh Tran | 24.06.2020
Ein Grafitti zeigt eine Handfläche in deren Mitte ein Mund aufgerissen schreit.
Gegenrede könnte ein wirksames Mittel gegen Hass im Netz sein (Unsplash/ Heather Edwards)
Um die Wirkung von zivilem Widerstand auf Hass im Netz zu erforschen, musste erst einmal ein Grundproblem gelöst werden: Wie lässt sich Gegenrede im Internet automatisiert erkennen? Das Problem: Die Daten fehlen und Gegenrede ist nicht gleich Gegenrede.
Sie variiert in ihrer Form, erklärt der habilitierte Informatiker Keyan Ghazi-Zahedi: "Das ist sozusagen eine sehr große Bandbreite von rein faktischem Argumentieren, Scherze machen, Gegenattacke oder einfach nur ablenken, Quatsch machen und das ist schwierig zu erkennen."
Algorithmus erkennt Gegenrede
Zusammen mit einem Forschungsteam des Santa Fe Institute in den USA hat Ghazi-Zahedi einen Algorithmus entwickelt, der erstmals organisierte Gegenrede in deutscher Sprache auf Twitter erkennt.
Ein großes Glück für die Forschenden, sagt er, sei die Entstehung der Gruppe "Reconquista Internet" 2018 gewesen.
Gegründet von Fernsehmoderator Jan Böhmermann: "Macht mit bei ‚Reconquista Internet‘. Wir sind die Wichser, die den Wichsern, die uns den Spaß am Internet verderben, den Spaß am Internet verderben."
Millionen Daten als Forschungsgrundlage
Als Gegenbewegung zum organisierten rechten Netzwerk "Reconquista Germanica" setzt sich das Projekt gegen koordinierte Hassattacken im Internet ein.
Auf diese Weise hat das Forschungsteam erstmals organisierte Gegenrede identifizieren und Daten erheben können. Das Ergebnis nach einer Netzwerkanalyse: rund 4,5 Millionen Gegenrede-Tweets. Diese bilden wiederum die Datengrundlage für ein eigenes, so genanntes Korpus.
Das Korpus füttert die künstliche Intelligenz – kurz KI – damit die lernt, Gegenrede zu erkennen. "Dieser KI zeigen wir einen Satz und gucken, was hinten rauskommt. Wir wissen beim Training, das ist Gegenrede oder das ist Hass. Das heißt die KI muss sagen, zu wie viel Prozent sie sicher ist, dass das Gegenrede oder Hass ist", sagt Ghazi-Zahedi.
Ständig an der Schraube drehen
Danach muss der Algorithmus – eine Art Formel – immer wieder angepasst werden, erklärt er weiter: "An welcher Schraube in der KI muss man noch ein bisschen drehen, damit es noch ein bisschen besser ist. Wenn sie ganz schlecht ist, drehen wir ein bisschen mehr an der Schraube, damit der Fehler verringert wird. Das muss man wirklich Millionen Mal machen. Deswegen braucht man ganz viele Beispiele und ganz viele Datensätze, um das zu machen."
Die Formel so lange umzustellen, bis das Ergebnis stimmt – dieses Prinzip kennen wir aus der Mathematik. Ist das erledigt, wird mit unbekannten Beispielen noch die Güte des Algorithmus überprüft.
Und dann kommt der Mensch ins Spiel: Deutschsprachige Personen teilen die Tweets nochmal separat in die Kategorien Hass- und Gegenrede ein– also quasi analog. Und siehe da: Die Übereinstimmung zwischen den Ergebnissen von Mensch und Maschine bei der Erkennung von Gegenrede ist signifikant hoch.
Gegenrede nicht immer bestes Mittel
Die Erforschung der Gegenrede soll in Zukunft dabei helfen, Diskussionen im Internet wieder konstruktiver zu gestalten. Eine Organisation, die sich in der Praxis mit Hasskommentaren auseinandersetzt, ist hassmelden.de:
"Wir sagen, bei 'hassmelden' kann alles gemeldet werden, was die Nutzerin, was der Nutzer, was die Nutzerin für strafrechtlich relevant hält. Und in den Fällen ist es dann auch oft so, dass die Nutzerin, der Nutzer sich dafür entscheidet, dass da Counterspeech gar nicht mehr sinnvoll, gar nicht mehr gewünscht ist", sagt Lorenz Schmidt von hassmelden, der seinen richtigen Namen aus Sicherheitsgründen nicht nennen will.
Das ehrenamtliche Projekt ist 2019 aus der "Reconquista Internet"-Bewegung entstanden. Im ersten Jahr erreichten die Plattform bereits circa 60.000 Meldungen, so Schmidt. Fast jede dritte davon hat sie zur Anzeige gebracht.
Argumentieren auf Augenhöhe
Während seiner Arbeit bei der ehrenamtlichen Organisation hat Lorenz Schmidt viele Erfahrungen mit Hass- und Gegenrede gemacht und wie man am besten auf fragwürdige Inhalte reagiert oder besser nicht:
"‘Du bist blöd´würde ich nicht empfehlen. Ich würde immer empfehlen auf Augenhöhe und respektvoll zu kommunizieren, weil ich finde, man sollte so behandeln, wie man auch selbst behandelt werden möchte. Und wenn man auch die leise Hoffnung hat, dem anderen einen Floh ins Ohr zu setzen, dann macht man das besser, wenn man demjenigen auf Augenhöhe entgegentritt und nicht überheblich oder gar beleidigend."
Doch welche Strategien wirklich sinnvoll sind, um Hassrede zu stoppen, dazu fehlen bisher empirische Zahlen. Denn: Erstens sind die Daten der aktuellen Studie nur begrenzt übertragbar. Die Künstliche Intelligenz ist spezialisiert auf die deutsche Sprache und Twitter.
Und: Die KI kann noch nicht zwischen verschiedenen Formen der Gegenrede unterscheiden. Das heißt, für sie sind Fakten das Gleiche wie Ironie. Studienmacher Keyan Ghazi-Zahedi will genau da mit weiteren Untersuchungen anknüpfen. Dass die Forschung nun zumindest ein Instrument habe, das Gegenrede erkennt, sagt er, sei der erste Schritt.