Donnerstag, 25. April 2024

Archiv

Social Media
Bot or Social Bot?

Automatisierte Profile in sozialen Netzwerken, sogenannte Social Bots können Meinungen manipulieren - besonders, wenn man nicht erkennen kann, dass keine echten Menschen hinter Profilen stecken. Wissenschaftler fordern mehr Forschung über Social Bots, denn diese könnten Gesellschaften verunsichern oder gar destabilisieren.

Von Jan Schilling | 03.04.2018
    ILLUSTRATION - Auf einem Laptopbildschirm wird das Wort «Virus» angezeigt, aufgenommen am 26.01.2017 in Berlin (Aufnahme mit Zoomeffekt). Foto: Monika Skolimowska/dpa | Verwendung weltweit
    Social Bots sind nicht leicht zu erkennen (picture alliance / Monika Skolimowska/dpa)
    Roboter kommen in den Sozialen Medien überall zum Einsatz: sie liefern als Chatbots Nachrichten bei WhatsApp oder twittern automatisch die neuesten Artikel einer Newsseite. Poblematisch werden sie, wenn sie sich als Mensch tarnen und Meinungen manipulieren. Dann werden sie zu Social Bots. Sonja Kind ist wissenschaftliche Mitarbeiterin bei VDI/VDE Innovation und Technik GmbH, kurz VDI/VDE IT. Kind hat für den Deutschen Bundestag eine Studie zu Social Bots geschrieben und erst einmal geklärt, was Social Bots eigentlich sind:
    "Und zwar handelt es sich dabei um in einer Software implementierte Algorithmen. Sie versuchen eine menschliche Identität vorzutäuschen. Und sie versuchen insbesondere in Sozialen Netzwerken Einfluss zu nehmen."
    Kriterien für Social Bots zu allgemein
    Die Oxford University hat noch ein weiteres Kriterium hinzugefügt. Demnach gilt ein Account als Roboter, wenn er mehr als 50 Mal am Tag twittert . Der Datenjournalist Michael Kreil hat sich zur Bundestagswahl 2017 einige Twitter-Profile genauer angeschaut: Parteien und manche Politiker schaffen in dieser Zeit auch 50 Tweets am Tag. Medienhäuser sowieso:
    "Ein Account wie die New York Times hat tatsächlichen einen politischen Einfluss, sie ist aber kein Social Bot, obwohl sie sehr stark automatisiert ist."
    Das seien dann sogenannte Heavy automated Bots – aber eben keine Social Bots, so Kreil. Er kritisiert die viel zu allgemeinen Kriterien für Social Bots. In einer eigenen Analyse habe er kaum Social Bots gefunden. Vor allem sagten diese Kriterien nichts darüber aus, wie einflussreich Accounts tatsächlich seien. Für Sonja Kind ist unbestritten, dass Social Bots wirksam sein können. Doch:
    "Wir haben herausgefunden, dass Social Bots nur unter bestimmten Bedingungen Einfluss nehmen können, die sie aber selbst nicht erzeugen können, und zwar dann, wenn es um sogenannte politische Kulminationspunkte geht. Damit ist gemeint, dass es um knappe Entscheidungen geht."
    Das sei beispielsweise bei der US-Wahl 2016 so gewesen oder beim Brexit. Tatsächlich könne es bei diesen knappen Entscheidungen dann mit Hilfe von Bots zu einem Meinungsumschwung kommen. Hier gelte: viel hilft viel.
    "Allein die schiere Masse kann Einfluss nehmen auf Ihre Gedanken, weil Sie immer damit konfrontiert werden und sich damit auseinandersetzen mit den Ideen, mit denen Sie ansonsten gar nicht in Berührung kämen. Und das ist psychologisch nachgewiesen, dass, wenn man Nachrichten sehr häufig liest, dass man dann eher an den Wahrheitsgehalt glaubt."
    Währung für Soziale Medien ist die Glaubwürdigkeit
    Das funktioniert – auch weil ein Social Bot selten alleine kommt. In der Ukraine fanden Wissenschaftler ein Netzwerk, das aus 1740 Bots bestand. Tweeten diese Bots 50 Mal am Tag, dann wären das täglich 87.000 Tweets. Damit dürften es die Social Bots in einige Timelines geschafft haben. Gerade in Krisensituationen können Social Bots Gesellschaften verunsichern oder gar stabilisieren, heißt es in der Studie der VDI/VDE IT. Datenjournalist Michael Kreil relativiert:
    "Ich kann mir sehr gut vorstellen, dass tausende von Bots über ein Thema sprechen, aber wenn keiner zuhört, was bringt uns das dann eigentlich. Und die Bots, die Hashtags vollspammen und versuchen, Kommunikation zu stören, werden relativ leicht auch als Spam markiert und von Twitter entfernt."
    Erst im Februar hat Twitter tausende Accounts gesperrt und überprüft, ob es sich dabei um ferngesteuerte Benutzerkonten handelt. Kein Wunder, so Kreil, denn die Währung für Soziale Medien wie Twitter sei die Glaubwürdigkeit. Social Bots funktionieren immer dann gut, wenn sie menschlich wirken:
    "Man sieht zum Beispiel relativ oft, wenn man Social Bots begegnet, dass sie versuchen, eine reale Person zu kopieren, beispielsweise das Avatarbild von einem Promi nehmen, vielleicht auch den Promi-Account nehmen und eine Zahl hinten dranhängen. Das ist dann natürlich sehr verwirrend für die Leute, einen Account zu haben, der aussieht wie ein Prominenter, der aber was ganz anderes twittert."
    Mehr Forschung über Social Bots nötig
    Einen Account zu kopieren und mit einem Bild zu versehen, ist relativ einfach. Einen Bot zu programmieren auch – im Internet finden sich viele Anleitungen.
    Michael Kreil: "Natürlich wäre es toll, könnte man einen Bot programmieren, der anfängt sich mit andern Leuten zu unterhalten und versucht, sie von anderen politischen Einstellungen zu überzeugen. Aber einen Bot zu programmieren, der beispielsweise von sich aus kommunizieren kann, mit anderen Leuten reden kann, Argumente austauschen kann, das halte ich für technisch noch nicht machbar."
    Sowohl Michael Kreil als auch Sonja Kind fordern mehr Forschung über Social Bots. Und zwar nicht nur technische Forschung. Die Technik dahinter sei neutral, erst die Verwendung mache einen Social Bot zum Problem. In der Studie der VDI/VDE IT heißt es, dass Bots vor allem ein soziales Phänomen seien. Deswegen sei es entscheidend, die Medienkompetenz zu stärken, damit Nutzer Social Bots erst gar nicht auf den Leim gehen.