Donnerstag, 28. März 2024

Archiv

Social Bots
Kampf gegen die automatisierte Netzpropaganda

In den sozialen Netzwerken und in den Kommentarspalten der Medien ist der Meinungskampf in vollem Gange. Diese Netzdebatten sind anfällig für Manipulationen. Hinter der Netzpropaganda steckt dabei oft Software, sogenannte Bots. Ein Verbundprojekt aus Wissenschaftlern, Journalisten und IT-Fachleuten möchte diesen automatisierten Falschmeldern nun Einhalt gebieten.

Von Benedikt Schulz | 18.06.2016
    Leerrohre für Glasfaserkabel in Hannover
    Nicht Menschen, sondern Software steckt hinter sogenannten Social Bots. (picture-alliance / dpa/Daniel Reinhardt)
    - "Hört endlich mal damit auf, uns Unsinn zu erzählen."
    - "Die Bevölkerung hat die Nase voll von unseren unfähigen Volksverdummern."
    - "Eigentlich sollte man Merkel vor Gericht stellen und verurteilen."
    Kommentare, die unter einem Onlineartikel stehen. Der Ton in den sozialen Netzwerken und in den Kommentarspalten der Medien ist rau, teilweise gehässig. Gerade dann, wenn es um Reizthemen geht, die viele Menschen bewegen, etwa Flüchtlinge oder der Ukraine-Konflikt. Nur dass hinter vielen Kommentaren, Tweets, Facebook-Likes gar keine Menschen stecken, sondern Software.
    "Für Gesellschaften und Demokratien ist das gefährlich. Viele Menschen, die soziale Netzwerke nutzen, Twitter und Facebook, wissen nicht, ob der Inhalt, den sie sehen von Bots generiert wurde."
    Der kanadische Soziologe Phil Howard erforscht seit Jahren die Verwendung von Social Bots, Programmen, die selbstständig in sozialen Netzwerken massenhaft kommentieren, liken, followen. Und die inzwischen so fortgeschritten sind, dass sie von echten Nutzern kaum zu unterscheiden sind.
    "Das ist durchaus vergleichbar mit dem Assistenten, die man inzwischen vom Smartphone her kennt. Die reagieren ja auch schon auf meine Anfragen. Und so ähnlich kann man sich diese Algorithmen auch vorstellen, die dann unter Umständen auch Diskussionen selbstständig führen."
    PropStop soll die Bots bekämpfen
    Christian Grimme arbeitet am Institut für Wirtschaftsinformatik der Uni Münster und ist federführend beteiligt am Verbundprojekt PropStop. Zusammen mit Kommunikationswissenschaftlern, Statistikern, Journalisten und einem IT-Sicherheitsunternehmen soll PropStop in den kommenden drei Jahren Mittel und Wege finden, die automatisierte Netzpropaganda zu bekämpfen. Denn die hat das Potenzial für großen gesellschaftlichen Schaden, weil sie die öffentliche Meinung beeinflussen, Diskussionen vergiften und nach Ansicht von Phil Howard sogar direkten politischen Einfluss haben kann.
    "Ich glaube, bei Wahlen liegt die Gefahr darin, dass sich die meisten Wähler in Demokratien erst maximal drei Tage vor der Wahl entscheiden. Und da besteht das Risiko, dass etwa ein Twitter-Bot in diesen drei Tagen massenhaft Falschinformationen und Lügen kreiert und manchen Kandidaten wichtige Prozentpunkte kosten kann."
    Die Art und Weise, wie Bots eingesetzt werden, hat sich dabei verändert, meint Howard. Früher war ein Bot nur dazu da, eine Meinung oder einen Kandidaten besonders populär erscheinen zu lassen. Inzwischen ist eher gezielte Manipulation an der Tagesordnung.
    "Bots werden von Politikern nicht so sehr genutzt, um einen bestimmten Standpunkt zu verbreiten, sondern um die Leute zu verwirren."
    Unterschiedliche Ansätze zum Erkennen der automatisierten Netzpropaganda
    Nur ein Beispiel: Wer etwa gezielt nach der Positiv-Formel #refugeeswelcome sucht, bekommt bei Twitter immer mehr fremdenfeindliche Inhalte präsentiert. Die große Herausforderung für die Wissenschaftler von PropStop liegt darin, Bots und die darin enthaltene Propaganda als solche zu erkennen. Der Lösungsansatz lautet: Big Data. Kommunikationswissenschaftler untersuchen die Inhalte der Posts, Informatiker sammeln technische Daten, aus welcher Region stammt der Post und so weiter.
    "Es gibt Länder, die aufgrund ihrer rechtlichen Begebenheiten, sagen wir mal, mehr Freiheiten erlauben beim Betreiben von Bot-Netzwerken als andere. Also, hier könnten Hinweise dafür liegen, dass es sich um Bots handelt. Zusätzlich zu dieser eher technischen Perspektive sollen Verfahren entwickelt werden, die Propaganda-Bots erkennen können."
    Wie diese Verfahren genau aussehen werden, das ist derzeit noch offen, die Arbeit hat erst angefangen. Ob sie in Zukunft wirklich gestoppt werden können, ist allerdings fraglich, alleine schon deshalb, weil die Software immer besser wird, der Kampf dadurch eher einem Wettrennen gleicht. Aber, meint der kanadische Soziologe Howard:
    "Was wir aktiv tun können, ist ganz einfach unseren Freunden, unsere Familien zu erklären, was Bots eigentlich sind. Mehr öffentliche Aufklärung über den Umgang mit sozialen Netzwerken ist ein guter Weg, gegen die Bots zu kämpfen."