Samstag, 20. April 2024

Archiv

Qualität von Medien
Facebook will Nutzer entscheiden lassen

Im Kampf gegen Fake News bittet Facebook jetzt seine Nutzer um Mithilfe. Sie sollen angeben, welche News sie als wahr bewerten und welche nicht. Kritiker bemängeln jedoch, das Unternehmen wolle sich aus der Affäre ziehen, indem es die Verantwortung an die Nutzer übertrage.

Von Marcus Schuler | 20.01.2018
    Zu sehen ist der Schriftzug "falsch" - der Buchstabe "f" ist im facebook-Design gehalten. Im Hintergrund das stark vergrößerte Logo des Unternehmens.
    Facebook will stärker gegen Falschmeldungen vorgehen (Symbolbild) (dpa / Fotomontage: DLF)
    Das soziale Netzwerk bittet seine Nutzer, zu entscheiden, welcher Nachrichtenquelle sie vertrauen und welcher nicht. Das kalifornische Unternehmen will dadurch besser gefälschte oder aufgebauschte Nachrichten bekämpfen. Zugleich versucht es, sich damit selbst aus der Kritik zu nehmen, sagt der deutschstämmige Tech-Blogger Frederic Lardinois von Techcrunch.com:
    "Facebook muss nicht selbst definieren, was sind Fake News und was sind keine. Sondern es bleibt den Benutzern überlassen, welchen Medien vertrauen sie und welchen nicht."
    Erste Tests angekündigt
    Bereits in der nächsten Woche sollen erste Tests starten. Nachrichtenmeldungen, die von Nutzern als vertrauenswürdig eingestuft werden, sollen im sogenannten Newsfeed, der Hauptansicht von Einträgen bei Facebook, künftig eine höhere Priorität erhalten. Weniger gut bewertete Nachrichtenquellen sollen dagegen seltener auftauchen.
    Die neue Funktion soll zuerst in den USA eingeführt werden, später soll es sie weltweit geben. Wann genau sie nach Deutschland kommt, ist noch nicht bekannt. Ein wenig kehrt das 2004 gegründete Netzwerk damit zu seinen Anfängen zurück, sagte Tech-Blogger Lardinois:
    "Früher war es so, dass bei Facebook eigentlich die Nachrichten und Meldungen von Freunden chronologisch durch den Feed liefen. Das hat sich in den letzten Jahren aber verändert, da hat man einen Algorithmus benutzt. Mit dieser Veränderung geht man einen Schritt zurück. Einträge von Freunden und Verwandten werden im eigenen Newsfeed wieder häufiger auftauchen."
    Das Erscheinen von Texten, Videos und Bildern ist damit weniger stark an einen Algorithmus gekoppelt.
    Facebook unter Druck
    Bereits in der vergangenen Woche hatte Facebook-Chef Zuckerberg einen Umbau des so wichtigen Newsfeeds angekündigt. Das Unternehmen steht seit den Präsidentschaftswahlen 2016 unter Druck. Es muss befürchten, dass die Politik in Washington die Tech-Konzerne des Silicon Valley stärker kontrolliert und ihnen womöglich Auflagen macht. Vor allem Facebook trifft die Kritik: Denn 45 Prozent der erwachsenen Amerikaner beziehen ihre Nachrichten-Informationen laut einer Pew-Studie via des sozialen Netzwerks:
    "Es hat sich ja seit den Präsidentschaftswahlen gezeigt, dass Facebook eine unglaubliche Wirkung auf die Meinungsbildung in Amerika hat. Ob das durch russische Bots oder durch Fake News. Washington macht sich da Sorgen. Facebook muss schauen, dass sie da nicht von Washington Auflagen bekommen, die sie absolut nicht haben wollen."
    Folgen für Medien und Verlage
    Leidtragende dieser Änderungen dürften alle jene Verlage und Medienhäuser sein, die in den vergangenen Jahren massiv Inhalte wie zum Beispiel Videos speziell für Facebook produziert haben. Sie müssen in den nächsten Wochen mit einem massiven, weiteren Rückgang ihrer Zugriffe rechnen, die sie bislang von Facebook bekommen haben.
    Frederic Lardinois von Techrunch:
    "Das sind vor allen Dingen die Zeitungen, das sind die Online-Medien, die in den letzten Jahren ganz stark auf Facebook gesetzt haben. Da können sie sich nicht mehr darauf verlassen. Facebook sagt selbst, dass die Zahl um 20 Prozent runtergeht. Aber auch Marken, die ganz auf ihre Facebook-Seiten in den letzten gesetzt haben, die können auch nicht mehr erwarten, dass sie so häufig in den Newsfeeds drin sind."
    Facebook-Chef Zuckerberg scheint sich mit der jüngsten Entscheidung einmal mehr aus der Affäre stehlen zu wollen, weil er die Nutzer entscheiden lässt, welche Quelle sie als vertrauenswürdig erachten. Damit schiebt er die Verantwortung ab. Ob das Nutzer-Votum nicht auch manipulierbar ist, das muss sich erst noch zeigen.