Samstag, 20. April 2024

Archiv

Debattenkultur im Netz
"Es ist wichtig, mit den Lesern zu sprechen"

Hass im Netz ist ein Phänomen, das seit dem vorigen Jahr breit diskutiert wird. Auf den beiden Medienkonferenzen Republica und Media Convention in Berlin wurde in dieser Woche über das Phänomen gesprochen – und es wurden Perspektiven aufgezeigt für eine bessere Debattenkultur im Netz.

Von Stefan Fries | 07.05.2016
    Screenshot des Leserforums auf sueddeutsche.de
    Das Leserforum der Süddeutschen Zeitung im Netz. (Deutschlandradio / Stefan Fries)
    Wer den Facebook-Account einer Zeitungs- oder Rundfunkredaktion betreut, braucht starke Nerven. Haben Deutschlandfunk, Tagesschau oder "Bild" einen Artikel zu einem umstrittenen Thema gepostet, geht es gleich heftig zur Sache. Rassismus, Sexismus, Homophobie, gegenseitige Beleidigungen vergiften die Diskussion. Lange haben sich Redaktionen meistens alleine mit solchen Nutzern herumgeschlagen, inzwischen denken viele Journalisten gemeinsam darüber nach, sagt Carline Mohr, die bis April das Social-Media-Team bei bild.de geleitet hat.
    "Ich glaube, was wichtig ist, ist eben, einmal klar Kante zu zeigen und zu sagen, Rassismus oder Rechtspopulismus hat keinen Platz bei uns. Und da auch hart durchzugreifen."
    Denn auch weiter wird es wohl nötig sein, auch mit juristischen Mitteln vorzugehen gegen die, die Verbotenes posten. Jörg Heidrich arbeitet als Justitiar beim Onlineportal Heise in Hannover. In dessen Foren entdeckt er immer wieder Einträge von Nutzern, die den Rahmen dessen überschreiten, was noch als erlaubte Meinung durchgehen kann. Diese Beiträge werden schnell gelöscht.
    "Also Sperren ist natürlich die Hauptmöglichkeit. Daneben kann man den User ausschließen und sperren, das hilft nur bedingt, weil er sich halt relativ schnell wieder neu anmelden kann. Also neue E-Mail-Adresse, neue IP-Adresse, dann ist er wieder dabei. Und als ganz seltenes Mittel, was bei uns aber schon ein Akt der Verzweiflung ist, machen wir auch mal ne Strafanzeige, aber das ist eher selten."
    Den Dialog suchen
    Volksverhetzung, Aufruf zu strafbaren Handlungen, Beleidigungen sollte man auch weiter nicht hinnehmen, sagt Heidrich. Nutzer mit Kommentaren unterhalb dieser Schwelle sollte man allerdings ernst nehmen, findet Social-Media-Managerin Carline Mohr – auch wenn sie extreme Meinungen vertreten, wenig konstruktiv sind und ernsthafte Diskussionen zerschießen.
    "Es ist gleichzeitig wichtig, mit den Lesern zu sprechen, zu diskutieren, den Dialog zu suchen, auf Augenhöhe zu agieren. Und das dritte ist eben, man muss auch die eigene Community stärken."
    Eine Sache, die auch ZEIT online voranbringt. Die Redaktion bastelt aus Kommentaren ihrer Nutzer kleine Boxen, die sie per Twitter verbreitet. Nutzer fühlen sich ernst genommen, wenn ihre Meinung einem größeren Publikum präsentiert wird. Bei der ZEIT kann man auch direkt auf der Webseite kommentieren, muss sich dazu aber anmelden. Die Qualität der Kommentare habe sich dadurch verbessert, sagte Heike Gallery von der ZEIT.
    Negative Kommentare wirken sich auf Leseverhalten aus
    Diese Erfahrung hat auch die Süddeutsche Zeitung gemacht. Dort können nur noch ausgewählte Beiträge online kommentiert werden – und jeder Kommentar wird separat freigeschaltet, sagt Daniel Wüllner, Teamleiter Social Media und Leserdialog bei sueddeutsche.de.
    "Wenn man sich Studien anguckt, weiß man, dass sich negative Kommentare unter den Artikeln auch negativ auf das Leseverhalten auswirken. Und dass teilweise das Niveau, was in diesen Kommentarfunktionen geherrscht hat, war sehr niedrig, da wollten wir was dran tun. Und gleichzeitig wollten wir uns auch überlegen, wie wir mit den Lesern interagieren."
    Vorteil dieser Communitys: Jeder Kommentar wird gelesen, bevor er veröffentlicht wird. Bei Facebook geht das nicht: Die Kommentarfunktion kann nicht abgeschaltet werden, und jeder Post geht direkt online. Je nach Medium, je nach Thema, je nach Mobilisierung der Nutzer ist es für die Redaktionen unmöglich, alle Kommentare zu lesen.
    Ein Forschungsprojekt an der Universität Münster will da weiterhelfen. Der Wirtschaftsinformatiker Sebastian Köffer entwickelt einen Algorithmus, der Kommentare mit Hatespeech und Propaganda herausfiltern soll. Schwierig wird es vor allem dadurch, dass Mehrdeutigkeit, Wortschöpfungen, Sarkasmus und Verneinungen schwer zu erkennen sind, sagt Köffer:
    "Wo es dann natürlich schwierig wird, wenn es dann darum geht, propagandistische Inhalte zu erkennen. Das sind ja häufig auch Inhalte, die zum Beispiel vielleicht gar keine Emotionen enthalten oder auch nicht hassvoll sind, sondern die einfach versuchen, eine bestimmte Meinung, vielleicht sogar in einer sachlichen Form, unter die Leute zu bringen. Und das ist natürlich auch für Menschen schwer zu erkennen, und Computer haben es da nicht einfacher."
    Ombudsmann könnte zwischen Journalisten und Lesern vermitteln
    In solchen Fällen können auch Metadaten helfen. Die zeigen zum Beispiel zeigen, ob Profile gerade erst angelegt und Texte hineinkopiert wurden – und das bei vielen Profilen kurz nacheinander, was auf den Einsatz bezahlter Kommentatoren hindeutet.
    Für viele Journalisten ist so was aber nur eine Notlösung. Bei der Republica und der Media Convention in Berlin zeigte sich, dass vielen trotz Hass und Propaganda der Dialog mit ihren Nutzern wichtig ist. Schwierig wird es allerdings, wenn sich die Kritik gegen die eigene Arbeit richtet. SZ-Redakteur Daniel Wüllner kann sich das Amt eines Ombudsmanns vorstellen, der zwischen Nutzern und Journalisten vermittelt.
    "Die Frage ist halt einfach, welcher angesehene Redakteur einer Redaktion zieht sich diesen Schuh an und möchte gerne diese Position des Leseranwalts übernehmen. Das ist ne schwierige Frage, ist auch ne Frage allgemein, ob die deutsche Medienlandschaft so ne Person braucht, oder ob wir einfach einen besseren, strukturierten, moderierten Dialog brauchen mit dem Leser."