Archiv

Algorithmen im Alltag (10/12)
Der Informationsfilter

Facebook wählt genau aus, welche Beiträge es seinen Nutzern anzeigt. Dafür nutzt das Unternehmen seine berüchtigten Algorithmen. In deren Berechnungen fließen unzählige Faktoren ein - doch bis heute hat das Unternehmen diese Kriterien nicht offengelegt.

Von Piotr Heller |
Algorithmen im Alltag Folge 10 - Der Informationsfilter.
Ständig werden die Algorithmen bei Facebook angepasst - da fließt auch Wissen ein, das das Unternehmen über seine Nutzer ansammelt (Hans-Jörg Brehm / epict.de)
Im Jahr 2012 führte Facebook ein Experiment an knapp 700.000 seiner Nutzer durch. Forscher veränderten den Algorithmus, der auswählt, welche Beiträge die Nutzer angezeigt bekommen. Manche Nutzer bekamen daraufhin mehr positiv konnotierte Beiträge angezeigt als üblich, andere mehr negative. Das Ergebnis der Studie war, dass sich diese kleine Veränderung auf das Verhalten der Nutzer auswirkte. Die Arbeit erschien 2014 im renommierten Fachblatt PNAS. Was folgte, war ein Aufschrei: Wie konnte Facebook seine Nutzer nur derart manipulieren?
"Das zeigt ja, wenn so einfach quasi durch das Verschieben von irgendwelchen Parametern man Stimmungen dort beeinflussen kann, dass es Facebook die ganze Zeit macht. Nur vorher wird es als normal empfunden. Und wenn es Abweichungen gibt, erzeugt es Aufregung."
Alter, Geschlecht, Vorlieben, Wohnort - alles fließt ein
Der Punkt, den Lorenz Matzat von der Organisation Algorithm Watch anspricht, ist folgender: Tatsächlich muss Facebook irgendwie auswählen, welche Beiträge es seinen Nutzern anzeigt. Denn wann immer einer der über eine Milliarde täglichen Nutzer seinen Nachrichtenstrom aufruft, könnte das soziale Netzwerk ihm 1.500 bis 15.000 mögliche Beiträge anzeigen – je nachdem, wie viele Freunde er hat. Facebook kanalisiert diese Informationsflut, indem Algorithmen entscheiden, was einen bestimmten Nutzer am meisten interessieren dürfte. Diese Filter-Algorithmen werden – auch unabhängig von irgendwelchen Experimenten, die gerade laufen mögen – ständig angepasst. Lorenz Matzat:
"Der kriegt zum einen natürlich erst einmal die Inhalte rein, die alle möglichen Leute zur Verfügung stellen: Das sind die Texte und mittlerweile viele Videos, natürlich Fotos und auch Audio. Und Werbung nicht zuletzt. Und dann gibt es Wissen über die einzelnen Nutzer. Also, mein Alter, mein Geschlecht, mein Wohnort, meine Vorlieben und Interessen. Dann kennt Facebook von mir mein Verhalten im Vorherigen, was ich geliked habe."
Angeblich 100.000 Faktoren
Aus all diesen Informationen errechnet der Algorithmus, wie wahrscheinlich es ist, dass ein bestimmter Nutzer mit einem bestimmten Inhalt interagiert. Diese Einschätzung basiert darauf, wer den Inhalt erstellt hat: War der Nutzer in der Vergangenheit interessiert an dieser Person? Sie basiert darauf, was für ein Inhalt es ist: Reagiert der Nutzer eher auf Fotos oder Videos? Sie basiert auf den bisherigen Reaktionen auf den Inhalt: Wurde er oft weitergeleitet? Sie basiert auf der Aktualität. Und so weiter. Ein Facebook-Entwickler wird oft damit zitiert, dass es 100.000 Faktoren gibt, die in die Berechnung einfließen. Lorenz Matzat:
"Der Output sind eben diese Inhalte, die aus verschiedenen Quellen stammen."
Oder besser gesagt: Die Reihenfolge, in der die Inhalte dem User angezeigt werden. Facebook passt die Gewichtungen in seinem Algorithmus dabei ständig an. Ein paar Beispiele:
Januar 2017: Das Ansehen langer Videos fällt stärker ins Gewicht.
März 2017: Angaben zu Emotionen werden stärker gewichtet als Likes.
August 2017: Schnell ladende Seiten werden bevorzugt.
Dezember 2017: Inhalte, die aggressiv um Reaktionen betteln, werden herabgestuft.
Januar 2018: Inhalte, die Interaktionen mit Freunden anregen, werden bevorzugt.
März 2018: Lokale Nachrichten werden bevorzugt.
Und so geht es ständig weiter. Wie gut diese Änderungen sind? Facebook testet das auf zwei Arten: Erstens analysiert das Unternehmen, wie oft Nutzer mit Inhalten interagieren. Zweitens lässt es Testnutzer Beiträge von Hand sortieren und vergleicht deren Sortierung mit den algorithmischen Vorschlägen. Lorenz Matzat:
"Ziemlich gut würde ich sagen, weil es gibt ja sehr viele Leute, die Facebook nutzen. Wenn Facebook so schlecht wäre, oder als schlimm oder nervig empfunden würde, dann würden es nicht so viele Leute nutzen."
Kritiker fürchten Filterblasen
Es gibt eine Umfrage, die das unterstreicht: Ein Fünftel der Internetnutzer in Deutschland informiert sich aus sozialen Netzwerken über das Weltgeschehen, bei den jungen Menschen ist das ein sogar ein Drittel. In Amerika nutzen einer anderen Umfrage zufolge über 40 Prozent der Erwachsenen Facebook als Nachrichtenquelle. Das soziale Netzwerk wählt die Nachrichten also offensichtlich so aus, dass die Nutzer das ansprechend finden. Kritiker befürchten allerdings, dass dadurch Filterblasen entstehen. Dass also Leute, die etwa einem bestimmten politischen Lager angehören, irgendwann nur noch Beiträge aus diesem Lager zu sehen bekommen, und so ein schiefes Weltbild entwickeln. Im Magazin Science erschien 2015 eine Studie, die diesen Vorwurf entkräften sollte. Ihr Ergebnis: Facebooks-Filteralgorithmen haben nur geringen Einfluss darauf, dass Nutzer weniger Inhalte des anderen politischen Lagers zu sehen bekommen. Die Studie wurde damals allerdings scharf kritisiert, auch, weil sie von Facebook-Forschern gemacht wurde. Aber externe Forscher kommen nicht an die wichtigen Daten. So kamen Wissenschaftler aus Amsterdam 2016 zu dem Schluss, dass es derzeit nicht genug empirische Belege gibt, um sich wegen Filterblasen Sorgen zu machen, dass sich das aber ändern könnte, wenn personalisierte Nachrichten zu einer dominanteren Informationsquelle werden. Lorenz Matzat sieht aber ein ganz anderes Problem.
"Was generell ein Problem ist bei technischen Lösungen, ist die Zwischentöne, auch Humor zu erkennen. Wenn ich jetzt jemand bin, der auf schwarzen Humor steht. Dann kriege ich wahrscheinlich eher aus statistischen Gründen viel davon zu sehen, aber nicht weil Facebook erkannt hat, dass das mein Humor-Typ ist."
So kann es sein, dass sich manche Nutzer am Ende doch falsch verstanden oder sogar bevormundet fühlen von den automatischen Informationsfiltern. Wozu das führen kann, zeigt das Beispiel des Facebook-Konkurrenten Twitter. Der Kurznachrichtendienst ließ den Nachrichtenstrom lange Zeit völlig ungefiltert passieren. Aber seit 2016 sortiert ein Algorithmus auch dort die Posts, die Nutzer angezeigt bekommen. Der Protest ließ nicht lange auf sich warten. Und 2018 ruderte das Unternehmen zurück: Mit nur zwei Klicks können Twitter-Nutzer sich ihren Nachrichtenstrom wieder ganz ohne algorithmisches Zutun in rein chronologischer Reihenfolge anzeigen lassen.