Dienstag, 19. März 2024

US-Wahl und danach
Strategien im Kampf gegen Desinformation in den sozialen Medien

Im Vorfeld der US-Präsidentschaftswahl hatten Plattformen wie Facebook und Twitter verstärktes Vorgehen gegen Desinformation angekündigt. Sie haben sich daran gehalten. Doch reicht das? Und was ist darüber hinaus geplant? Ein Überblick

10.11.2020
    Ein Screenshot von einem Trump-Tweet mit Warnhinweis versehen
    Trumps Rhetorik war schon immer perfekt für die sozialen Netze geeignet - doch Twitter und andere halten inzwischen dagegen (imago images / ZUMA Wire)
    Twitter hatte schon vor den US-Präsidentschaftswahlen, genauer seit Mai 2020, mehrere Tweets von US-Präsident Donald Trump mit Warnhinweisen versehen und als möglicherweise irreführend gekennzeichnet. Trump hatte vor der Wahl durchblicken lassen, dass er sich entweder für den vorzeitigen Sieger erklären oder einen Sieg von Konkurrent Joe Biden nicht anerkennen wird.
    Wie haben die sozialen Medien auf Falschnachrichten im Zuge der US-Wahl reagiert?
    Wie Medienjournalist Simon Hurtz ("Süddeutsche Zeitung", Social Media Watchblog) im Dlf-Podcast "Der Tag" erläutert, haben Facebook und Twitter folglich schon Monate vor der Wahl Planspiele aktiviert und Simulationen erstellt. Mit Dutzenden Teams haben sie intern versucht zu ermitteln, was passieren könnte, wenn der amtierende Präsident und seine Anhänger mit Falschinformationen arbeiten. Auch während und kurz nach der US-Wahl hat Twitter Trump-Tweets mit Warnhinweisen und weiterführenden Informationen versehen.
    Podcast Der Tag - Desinformation bei der US-Wahl Strategien von Social-Media-Plattformen im Umgang mit Desinformationen rund um die US-Wahl und darüber hinaus
    Eine prominente Maßnahme von Facebook im Zuge der Wahl war die Löschung einer Gruppe mit dem Namen "Stop the Steal", in der sich während der Wahl Trump-Anhänger versammelten. Die Gruppe wuchs schnell auf rund 365.000 Mitglieder an. Unter den Gruppenmitgliedern habe man besorgniserregende Aufforderungen zur Gewalt gefunden, begründete Facebook die Löschung. Zusätzlich blendete sowohl Facebook als auch Instagram, das zu Facebook gehört, Warnhinweise bei Trump-Posts ein, die offensichtlich falschen Content verbreiteten.
    Sind die bisherigen Maßnahmen erfolgreich?
    Medienjournalist Simon Hurtz bewertet die ergriffenen Maßnahmen auf den Plattformen "im Großen und Ganzen" als erfolgreich. Die Plattformen hätten deutlich angemessener auf Falschnachrichten reagiert als bei den US-Präsidentschaftswahlen 2016. Dem schließt sich Daniel Kreiss an, Dozent für Journalismus und Medien an der University of North Carolina: "Die Sozialen Netzwerke haben da schon Fortschritte gemacht im Vergleich mit 2016 und ihre Rolle in der Demokratie stärker wahrgenommen."
    Falschinformationen zur US-Wahl - Stresstest für Soziale Medien
    Die Wahlnacht am 3. November war ein echter Stresstest für die sozialen Netzwerke in ihrem Kampf gegen Desinformationskampagnen – mit unterschiedlichen Ergebnissen.
    Beide, Hurtz wie Kreiss, weisen darauf hin, dass es immer noch viele Einzelfälle gebe, bei denen die Reaktionen der Plattformen nicht angemessen oder möglicherweise zu langsam waren. So gab es am Wahltag selbst eine Übertragung von falschen Wahlergebnissen im Live-Stream auf YouTube, die erst später entfernt wurde. Solche Beispiele könne man immer wieder finden, sagt Hurtz. Beachte man die Größe und Finanzkraft von Konzernen wie Facebook und Google, müssten diese in der Lage sein, Falschinhalte "innerhalb von Stunden oder von Minuten" zu beseitigen. In dieser Hinsicht, so Hurtz, könne man auch fragen, ob die Löschung der genannten Facebook-Gruppe hätte früher erfolgen müssen.
    Kampf gegen Desinformation - Ein Problem, viele Lösungen
    Wenn falsche Informationen kursieren, leidet die politische Debatte – weltweit. Auf dem UN-Digitaltreffen Internet Governance Forum prallten unterschiedliche Lösungsansätze aufeinander.
    Nach welchen Kriterien blenden soziale Medien Warnhinweise ein?
    Twitter hat diese Kriterien sehr transparent in seinem Blogeinträgen festgehalten, erklärt Hurtz. Man könne natürlich fragen, ob nun Trump immer aggressiver und wirrer twittere oder Twitter seine Maßnahmen immer ernster nehme. Dann wäre nicht klar, wer bei diesem Konflikt der ‚Übeltäter‘ ist. Für Hurtz steht fest, dass der Konzern jedenfalls transparent agiert. Auch Facebook hat seine Warnhinweis-Strategie im Zuge der US-Präsidentschaftswahlen in seinem Newsroom offengelegt. Ähnlich wie bei Twitter heißt es dort: "Sollte ein Kandidat oder eine Kampagne den Sieg der Wahl erklären, bevor die endgültigen Ergebnisse feststehen, platzieren wir einen Hinweis, der die Nutzerinnen und Nutzer zu den offiziellen Ergebnissen von Reuters und dem National Election Pool führt".
    Was planen die Konzerne gegen Desinformation künftig vorzunehmen?
    Hurtz berichtet über einen neuen Ansatz von Twitter, die Viralität bestimmter Tweets einzuschränken, also die Geschwindigkeit, in der Inhalte verbreitet werden. Über die Maßnahme denke auch Facebook nach. Seit dem 20. Oktober 2020 kann man Tweets nicht mehr mit einem Klick retweeten, sondern wird erst darum gebeten, einen eigenen Kommentar hinzuzufügen. Das muss man nicht tun. Aber man muss den Hinweis lesen, was Nutzerinnen und Nutzer davon abhält, sofort auf den Retweet-Button zu klicken. Gleiches gilt für den Fall, dass man Texte teilen will. Dann wird man gefragt, ob man den Text auch gelesen habe.
    Hurtz erläutert: "Das sind zwei Schwellen, die im Prinzip völlig dem zuwiderlaufen, was Twitter erfolgreich gemacht hat, nämlich Inhalte mit ganz wenig Hürden ganz schnell und einfach weiterverbreiten zu können. Sie haben sich im Vorfeld der Wahlen aber entschieden und gesagt: Da die Gefahr von Desinformation so groß ist, machen wir es schwerer, Inhalte zu teilen. Das hätte man sich vor einem Jahr noch nicht vorstellen können." Der Medienjournalist hält diese Strategie für sehr sinnvoll, weil nicht nur Nutzerinnen und Nutzer zum Innehalten gezwungen werden, sondern auch die Plattform selbst etwas mehr Zeit gewinnt, um gefährliche Inhalte möglicherweise zu stoppen, bevor sie sich hunderttausendfach verbreiten.
    EU-Kommission Netz - Konzerne müssen mehr gegen Desinformation tun Internetfirmen, Online-Verbände und Werbebranche haben eingeschätzt, was sie bislang gegen gegen Desinformation und Fake-News unternommen haben. Die Bilanz.
    Ein weiterer Schritt der Sozialen Netzwerke im Kampf gegen Falschinformationen ist das Verbot bezahlter politischer Anzeigen. Twitter und TikTok lassen sie schon seit vergangenem Jahr nicht mehr zu, Facebook hat seit dem Präsidentschaftswahltag 2020 in den USA keine neuen politischen Anzeigen mehr angenommen. Das überzeugt Wissenschaftler allerdings nicht unbedingt. Joshua Tucker, Politik-Professor an der New York University sagt: "Wenn man politische Anzeigen verbietet, dann behindert man damit vor allem die Herausforderer und begünstigt die Politiker, die schon an der Macht sind. Es könnte schon sein, dass man damit vielleicht Falschinformationen vermindert – aber wenn die Akteure zu dem Schluss kommen, dass sie, anstatt Anzeigen zu schalten, einfach mehr unbezahlten Inhalt posten können, könnte es sein, dass es gar nichts bringt."
    Ein anderes Szenario, das Simon Hurtz für denkbar hält, ist, dass Donald Trump bei Amtwechsel im Weißen Haus Ende Januar 2021 seinen Twitter-Account verlieren könnte. Twitter hat bereits bestätigt, dass die bisherige Vorzugsbehandlung des Präsidenten-Accounts seitens des Konzerns ende, sobald ein neuer Präsident im Amt ist.

    Quellen: Simon Hurtz, Sinje Stadtlich, Alexander Haas