Dienstag, 19. März 2024

Archiv

Hass im Internet
"Es könnte eine Quarantäne für Hasskommentare geben"

Forscher der Universität Cambridge arbeiten an einer App, die Hassbotschaften erkennt und dann die Empfänger vor den Inhalten warnt. Das soll Menschen helfen, die Kontrolle über ihre Kommunikation zurückzugewinnen. Um das wirksam zu erreichen, müssten aber die Betreiber sozialer Netzwerke mitspielen.

Stephanie Ullmann im Gespräch mit Manfred Kloiber | 11.01.2020
Auf dem Bildschirm eines Smartpones sieht man eine Antwort eines Users auf einen Post auf Twitter.
Im Idealfall soll die Quarantäne-Funktion zu einem Rückgang solcher Hassbotschaften führen (dpa/ Fabian Sommer)
Hassreden sind die Pest der modernen Kommunikationskultur und mit den angeblich sozialen Medien haben sie einen idealen Nährboden gefunden. Die Plattformbetreiber selbst werden dem grassierenden Problem kaum gerecht. Und gesetzliche Regelungen wie in Deutschland das Netzwerkdurchsetzungsgesetz sind höchst umstritten.
Stefanie Ullmann vom Cambridge Centre for Research in Arts, Social Sciences and Humanities arbeitet mit einer Gruppe Studenten an einem Verfahren, das es Nutzern ermöglichen soll, den Hass von sich fernzuhalten. Dazu entwickeln sie eine App, die in der Lage sein soll, Texte zu analysieren und Hassbotschaften zu erkennen. Anschließend soll sie dem Nutzer sagen können, wie wahrscheinlich es ist, dass eine Nachricht Hass enthält. Ob Nutzer die Nachricht dann lesen oder nicht, das sollen sie selbst entscheiden. "Man möchte einerseits Nutzer und Nutzerinnen schützen, aber andererseits Redefreiheit nicht verletzen", sagte Ullmann im Deutschlandfunk.
Nutzern "wieder ein bisschen mehr Kontrolle geben"
"Es könnte eine Art Quarantäne für Hasskommentare im Internet geben", beschreibt die Linguistin die Idee. Ähnlich wie es diese ja auch für Computerviren gebe. Algorithmen seien bereits sehr gut in der Lage, Sprache zu analysieren und Hasskommentare zu erkennen. Das könne man nutzen, um Menschen vor dem Lesen darüber zu informieren, dass eine Nachricht menschenfeindliche Inhalte enthalte. Ob er der Nutzer sie dann liest, solle er aber selbst entscheiden. "Im Prinzip ist unser Gedanke, dem Nutzer, der Nutzerin wieder ein bisschen mehr Kontrolle zu geben, darüber, was sie eigentlich sehen und lesen möchten und was nicht."
Eine Schwierigkeit sei, dass Worte in sehr verschiedenen Kontexten genutzt würden und zum Beispiel auch sarkastisch gemeint sein könnten. Doch Algorithmen könnten – gefüttert mit großen Datenmengen – auch komplexere sprachliche Beleidigungen erkennen. Nutzer sollten aber dennoch natürlich auch selbst filtern, sich zum Beispiel fragen, ob sie den Absender kennen oder nicht.
Soziale Netzwerke könnten die Funktion integrieren
Ullmann hofft, dass eine solche Quarantäne-Funktion im Idealfall sogar zu einer Reduktion von Hassbotschaften führen könne. Denn wenn deren Absender davon ausgehen müssten, dass ihre Nachricht vielleicht gar nicht gelesen wird, könnte die Motivation zum Schreiben der Nachricht sinken. In Fällen strafbarer Aussagen sei zudem auch eine automatische Übermittlung an die Strafverfolgungsbehörden denkbar.
Ein Hauptproblem werde am Ende sein, die Anbieter sozialer Netzwerken wie Facebook zu überzeugen, eine solche Quarantäne-Funktion in ihre Plattformen zu integrieren. Insbesondere Facebook werde von einem solchen Schritt schwer zu überzeugen sein, Twitter sei hingegen offener für Ideen gegen Hass im Netz, meint Ullmann.