Dienstag, 23. April 2024

Archiv

Meinungsmache im Netz
Wie Social Bots Falschmeldungen verbreiten

Immer öfter kommen sogenannte Social Bots zum Einsatz, um in den sozialen Netzwerken selbstständig bestimmte Meinungen oder Informationen zu verbreiten und den öffentlichen Diskurs zu beeinflussen. Viele dieser Informationen sind falsch und die Unterscheidung zwischen Mensch oder Maschine wird immer schwieriger – mit unabsehbaren Folgen für politische Debatten.

Von Jeanette Seiffert | 14.12.2016
    Auf einem Smartphone-Display sind die Logos von Twitter, Instagram und Snapchat zu sehen.
    Oft lässt sich in den sozialen Netzwerken nicht erkennen, ob ein Mensch oder eine Maschine hinter dem Eintrag steckt. (pa/dpa/Vennenbernd)
    Die Bundesgeschäftsstelle der Grünen in Berlin-Mitte: Während draußen der Weihnachtsrummel tobt, herrscht drinnen die Ruhe vor dem Sturm. Die meisten Mitarbeiter der Grünen-Pressestelle sind noch einmal in den Zwangsurlaub geschickt worden, ehe es im bevorstehenden Wahljahr 2017 richtig losgeht. Die wichtigen Schlachten im Wahlkampf, das weiß Robert Heinrich, Leiter der Abteilung Öffentlichkeitsarbeit und Kampagnen (*), werden längst auch in der virtuellen Welt geschlagen. Ein Mitarbeiter der Redaktion hat deshalb auf mehreren Monitoren ständig alles im Blick, was sich in den sozialen Netzwerken tut – "das Cockpit", wie es Heinrich nennt.
    "Wo er die verschiedenen Twitter-Kanäle auch beobachtet und schaut, was sind gerade die Trends, wo wird kommentiert, wo wird gepostet, wer postet gerade auch innerhalb des grünen Netzwerks. Also er beobachtet auch permanent die sozialen Netzwerke und schaut, wo muss man reagieren, wo kann man reagieren."
    Was den Social Media-Menschen auf der Facebook-Seite der Grünen oder auf Twitter begegnet, ist oft nichts für zarte Gemüter:
    "Da sind Kommentare, die reichen von scharfer Kritik über Beleidigungen bis hin zu absolut inakzeptablen Diffamierungen bis hin zu Morddrohungen."
    Mit Hasskommentaren haben die Grünen, wie wohl alle politischen Parteien, schon seit Langem zu kämpfen. Sie werden sofort gelöscht und, wenn sie eine bestimmte Grenze erreichen, bei den Netzwerkbetreibern gemeldet. Doch immer häufiger finden sich auffällige Profile darunter, die scheinbar unablässig Kommentare posten, oft dutzend- oder hundertfach dieselben: Besonders häufig zur vorgeblich gefährlichen Politik der links-grünen "Gutmenschen", zur vermeintlichen "Lügenpresse" oder zu angeblich unterdrückten Meldungen zu Straftaten von Flüchtlingen. Als Profilbild haben die Nutzer häufig Comic- oder andere Phantasiegestalten. Für Heinrich ist dann ziemlich schnell klar, dass es sich nicht um reale Nutzer aus Fleisch und Blut handelt, sondern um so genannte "Social Bots": Kleine Programme, die selbstständig Kommentare in sozialen Netzwerken verbreiten.
    "Das heißt, wir hatten mit Social Bots schon zu tun, teilweise eindeutig, teilweise hatten wir auch nur den Verdacht. Und ich bin mir sicher, wir haben täglich mit Social Bots zu tun, auch wenn wir es teilweise nicht merken."
    Social Bots machen Werbung, kommentieren und beeinflussen die öffentliche Meinung
    Bots sind im Internet längst alltäglich. Sie sind nichts anderes als Computerprogramme, die im Netz autonom Aufgaben erfüllen. Sie begegnen dem Nutzer zum Beispiel beim Kundenservice auf der Webseite vieler Firmen. Sie machen Werbung oder beantworten Fragen zu Produkten. Oder aber sie können in sozialen Netzwerken über Fake-Profile massenweise Kommentare abgeben. Und damit möglicherweise die öffentliche Meinung beeinflussen.
    Wie unauffällig sich Social Bots mittlerweile im Netz bewegen können, weiß André Thieltges: Er gehört zu einem Team von Forschern, die an der Universität Siegen das Projekt "Social Media Forensics" gestartet haben. Gefördert vom Bundesministerium für Bildung und Forschung, sind sie seit gut einem Jahr mit Hilfe speziell entwickelter Software den Meinungsrobotern auf der Spur:
    "Also früher haben sie solche Fehler gemacht, dass sie ununterbrochen Nachrichten geschickt haben. Das kann kein Mensch, der muss halt irgendwann mal schlafen. Daran hat man sie erkannt. Oder dass sie über denselben Server abgeschickt worden sind. Dann hat man das über die Metadaten der Versenderung herausgefiltert."
    Doch mittlerweile brauche es geradezu detektivische Fähigkeiten, um die Social Bots als das zu identifizieren, was sie sind: Roboter.
    "Die Unterscheidung wird auch immer schwieriger, weil immer bessere Algorithmen existieren, die menschliches Verhalten in sozialen Netzwerken fast hundert Prozent genau adaptieren."
    Social Bots können sich eine eigene Identität schaffen
    Wie gut das den Bots mittlerweile gelingt, beweist die Tatsache, dass viele der Meinungsroboter, die die Forscher identifiziert haben, zahlreiche reale Fans und Follower haben – sie also Menschen offenbar erfolgreich täuschen konnten.
    "Sie müssen sich vorstellen, dass die Technik inzwischen so weit fortgeschritten ist, dass sich diese Programme, je nachdem wie sie geschrieben worden sind, die Informationen, die sie brauchen, um Sätze zu bilden, um sinngemäß auf Kommentare zu antworten, einfach aus der Vielzahl der Daten und der Informationen des Internets holen und die kompilieren und daraus Sätze bilden, die täuschend echt klingen, und diese dann posten."
    Die Bots sind in der Lage, sich aus Informationen im Netz selbst Profile zusammen zu stellen – immer häufiger auch mit gestohlenen Profilbildern echter Nutzer. Social Bots sind sogar lernfähig geworden: Gerade beim Kurznachrichtendienst Twitter, der maximal 140 Zeichen pro Meldung erlaubt, kann man Ihre Tweets kaum mehr von denen realer Menschen unterscheiden.
    Bot-Armee gegen sexuelle Hassreden
    Ein Hinterhof in Berlin-Kreuzberg nahe dem Görlitzer Bahnhof: In einem der mit Graffiti besprühten Gebäude hat das Künstlerkollektiv "Peng" seinen Sitz. Es will die Öffentlichkeit mit subversiven Kampagnen aufrütteln – und das Internet nicht den sogenannten "Trollen" überlassen, die überall Hass verbreiten. Deshalb haben die Aktivisten vor einigen Monaten auf Twitter die Aktion "Zero Trollerance" gegen sexuelle Hassreden gestartet. Sie haben Profile von Nutzern identifiziert, die sich wiederholt frauenfeindlich geäußert haben. Eine selbst programmierte Bot-Armee, bestehend aus 160 Social Bots die auf Twitter aktiv sind, hat den Betreffenden dann über Fake-Profile Videos zugeschickt: In denen erklärte ihnen ein selbst ernannter "Selbsthilfe-Guru" geduldig, wie sie wieder zu nützlichen Mitgliedern der Gesellschaft werden können.
    Justus hat die Kampagne mit entwickelt. Der junge Mann mit Bart und runder Brille will seinen echten Namen lieber nicht nennen – er weiß, dass Aktionen wie diese am Rande der Legalität stattfinden.
    "Das ist jetzt ein Profil von einem der 160 Trolle, und da siehst du schon, dass er immer auch ganz unterschiedliche Nachrichten den einzelnen Profilen gepostet hat. Je nach Tag sind es dann auch unterschiedliche Videos. Also der hat jetzt hier insgesamt 24 Tweets abgesetzt. Im Grunde ist das ein ganz einfaches Skript, das sogar sekündlich seinen Status updaten kann. Und das ist kein Problem, da tausende von Nachrichten rauszuschicken. "
    Der Bot war auch in der Lage, mit den Nutzern zu interagieren – und eigene Follower zu generieren. Eigentlich sieht sich Justus nicht unbedingt als Hacker, aber für einen guten Zweck findet er es in Ordnung, sich die Technik zu Nutze zu machen. Er entwickelt auch für andere Aktionen Social Bots – das sei schließlich denkbar einfach geworden.
    "Bots sind ja im Grunde genommen bloß automatisierte Skripte, die ein Verhalten nachahmen, oder auf jeden Fall sich in diesen sozialen Netzwerken bewegen, indem sie Nachrichten platzieren oder antworten. Und im Grunde genommen lässt sich dieses Verhalten ziemlich einfach abbilden, weil es halt nicht so viele Möglichkeiten des Verhaltens gibt im Internet sozusagen. Also ich kann was posten, ich kann auf Sachen antworten. Natürlich gibt es da verschiedenen Grade der Komplexität und der Schwierigkeit, aber ein einfacher Bot lässt sich mit geringen Kenntnissen schnell schreiben."
    Um einen Bot zu programmieren, der zu bestimmten Zeiten Inhalte postet und mit Usern nach einem vorgegebenen Muster interagiert, braucht er gerade einmal eine halbe Stunde, meint Justus. Um damit aber tatsächlich etwas bewirken zu können, sei noch etwas anderes notwendig, meint der 27-jährige Aktivist:
    "Das Schwierige daran ist natürlich, virales Verhalten zu entwickeln. Und da wird es dann interessant: Wie schaffe ich es sozusagen, dass meine Nachrichten geteilt werden, wie schaffe ich es, dass darauf eingestiegen wird."
    Am wirkungsvollsten sind Fake News
    Das erreicht man offenbar am wirkungsvollsten durch falsche Informationen, die das Potenzial haben, Emotionen zu erzeugen und die Gemüter zu erregen: so genannte "Fake News". Aktuell macht die Falschmeldung über eine angebliche Äußerung der Grünen-Politikerin Renate Künast Schlagzeilen: Im Zusammenhang mit dem mutmaßlichen Mord an einer Freiburger Studentin durch einen Flüchtling wurde sie auf unterschiedlichen Facebook-Seiten mit der Aussage zitiert, der traumatisierte junge Flüchtling habe zwar getötet, man müsse ihm aber jetzt trotzdem helfen. Renate Künast hat deswegen Strafanzeige gestellt – doch das falsche Zitat wurde längst zigtausendfach geteilt.
    Analysen von Facebook-Daten unter anderem aus dem US-Wahlkampf legen nahe, dass Falschmeldungen sich mittlerweile schneller und weiter verbreiten als Informationen, die nach journalistischen Kriterien überprüft worden sind. Social Bots können so zum Brandbeschleuniger für eine "postfaktische" Weltsicht werden. Spätestens seit dem Brexit-Votum und der US-Wahl ist klar, dass Social Bots, getarnt als ganz normale Nutzer, in sozialen Netzwerken auch gezielt zur politischen Propaganda eingesetzt werden.
    Nach dem ersten Fernseh-Duell zwischen Donald Trump und Hillary Clinton etwa waren sich die Meinungsforscher der großen US-Sender einig, dass Clinton die Mehrheit der Zuschauer überzeugt hatte. Die sozialen Netzwerke dagegen wurden kurz nach Ende des Duells mit Kommentaren geflutet, die den Hashtag #trumpwon beinhalteten, "Trump hat gewonnen". Und bei manchen entstand der Eindruck, die etablierten Medien würden die Wahrheit mit Hilfe von gefälschten Umfrage-Zahlen unterdrücken.
    Computergesteuerte Tweets für Donald Trump und die Ukraine
    Einer Untersuchung der Universität Oxford zufolge war nach dem TV-Duell mehr als jeder dritte Tweet für Trump computergesteuert, bei den Tweets für Hillary Clinton lag der Anteil bei knapp einem Viertel. Auch die Zahl der Fake-Follower nahm bei beiden Kandidaten im Verlauf des Wahlkampfs signifikant zu. Gezielte Strategien der Kampagnenmacher, um den eigenen Kandidaten beliebter erscheinen zu lassen, als er es tatsächlich ist? Forscher André Thieltges warnt vor allzu voreiligen Schlüssen:
    "Auf der anderen Seite ist es aber durchaus auch denkbar, dass das eine Strategie der Gegenseite ist, um jemanden zu diskreditieren. Weil wenn sie einmal populär machen, da ist jemand, der setzt Social Bots ein, dann bricht ein Sturm der Entrüstung los, und alle sagen: Naja, mit denen ist wohl, was Authentizität anbelangt, nicht mehr zu rechnen."
    Auch in der Ukraine-Krise waren und sind Social Bots am Werk: Die Forscher des Social Media Forensics-Teams haben auf Twitter ein Bot-Netz mit über 16.000 Bots enttarnt, die täglich über 60.000 Nachrichten zum Ukraine-Konflikt verbreitet haben. Vermutlich stecken dahinter ukrainische Nationalisten – aber auch hier ist es schwierig, auf Strategien und Hintermänner zu schließen. Auch Metadaten darüber, von wo aus die Urheber operieren, helfen nicht immer weiter: Schließlich können die irgendwo auf der Welt sitzen, der wahre Auftraggeber aber ganz woanders. Sicher ist nur, dass die Meinungsroboter sich immer mehr im Netz verbreiten:
    "Meine letzten Zahlen darüber waren, dass zwischen acht und 20 Prozent der User Bots sind im Netz. Es ist ein bisschen problematisch, das herauszubekommen, weil man auch da spekulieren muss. Die sozialen Netzwerke, jedenfalls die großen Twitter und Facebook, geben diese Zahlen nicht raus."
    Twitter und Facebook schweigen zu den Social Bots
    Öffentlich sprechen will man über das Thema weder bei Twitter noch bei Facebook – auf Interviewanfragen reagieren beide Netzwerkbetreiber nicht. Thieltges kann sich gut vorstellen, woran das liegt:
    "Die tun natürlich ihrem Geschäft keinen Beitrag, wenn sie zugeben, wie viele maschinelle User sich auf ihren Plattformen rumtreiben."
    Denn der Marktwert der großen sozialen Netzwerke bemisst sich danach, wie viele "echte", also menschliche Nutzer sie haben. Tatsächlich verstoßen Fake-Profile gegen die Nutzungsbedingungen von Facebook, Twitter und den meisten anderen sozialen Netzwerken. Robert Heinrich von den Grünen betont deshalb, dass es vor allem die Aufgabe der Plattformbetreiber ist, gegen Social Bots vorzugehen:
    "Weil sie verdienen mit dieser Plattform Geld, sie haben die Verantwortung, und sie müssen auch dafür sorgen, dass ein zivilisierter, authentischer Dialog auf dieser Plattform möglich ist."
    Die Angst, dass Meinungsroboter wachsenden Einfluss auf die politischen Diskussionen in Deutschland nehmen könnten, hat mittlerweile auch die Politik erreicht.
    "Das ist eine neue Art von Gefährdung – sozusagen kein Angriff um etwas auszuforschen und kein Angriff, um eine Nutzung des Internets zu stoppen oder zu stören, sondern eine besonders bösartige intelligente Nutzung von Kommunikationsmitteln unter Verschleierung der Adressaten und Vervielfältigung der Meinung."
    So warnte kürzlich Bundesinnenminister Thomas de Maizière bei der Vorstellung der Cyber-Sicherheitsstrategie der Bundesregierung.
    "Sie können aber mit Textbausteinen Algorithmen bilden. Also dass ein Mensch, der gegebenenfalls für einen anderen Staat arbeitet, in Deutschland oder anderswo den Eindruck erweckt, als stünden hinter zehntausend Meinungsäußerungen zehntausend Menschen."
    Social Bots beim Wahlkampf der AfD?
    Auch Verfassungsschutzpräsident Hans-Georg Maaßen hat auf die Gefahr hingewiesen, dass ausländische Regierungen wie Russland versuchen könnten, mittels Social Bots den Bundestagswahlkampf zu beeinflussen. Aufgeschreckt hat die deutsche Politik auch eine Meldung des Nachrichtenmagazins "Spiegel" vor einigen Wochen, der zufolge die "Alternative für Deutschland" im Wahlkampf Social Bots einsetzen will. Die Partei hat das zwar mittlerweile dementiert – ein Interview zum Thema will sie dennoch nicht geben.
    "Die AfD lehnt den Einsatz von so genannten Social Bots ab",
    schreibt ein Sprecher per E-Mail – und verweist auf eine gleich lautende Presseerklärung. Beim AfD-Landesverband Berlin ist man etwas auskunftsfreudiger: Sprecher und Vorstandsmitglied Ronald Gläser versichert schriftlich, im zurückliegenden Berliner Wahlkampf habe man keine Social Bots eingesetzt. Aber:
    "Wenn es möglich ist, werden wir uns dem technischen Fortschritt natürlich nicht verschließen."
    Der Blogger Martin Fuchs berät seit vielen Jahren Parteien, Ministerien und Landesregierungen zu Internet-Themen – und warnt schon seit Langem vor den Gefahren von Social Bots. Er findet es einerseits positiv, dass sich die Politik nun offensiv mit der Problematik der automatisierten Meinungsmache im Netz auseinandersetzt:
    "Auf der anderen Seite ist es eigentlich relativ irrelevant, ob die Parteivorstände oder Generalsekretäre der Parteien sagen, wir setzen Social Bots ein oder nicht. Weil jeder von uns kann Social Bots einsetzen – und natürlich werden Parteien auch im Bundestagswahlkampf nicht so dumm sein, das von der Parteizentrale zu steuern, wenn sie so etwas machen wollen."
    Fuchs ist sich sicher, dass das Thema im kommenden Wahljahr noch einmal an Brisanz gewinnen wird:
    "Wir werden das definitiv im Bundestagswahlkampf sehen, höchstwahrscheinlich auch von der AfD, dass es dann natürlich Social Bots gibt, die dann AfD-Meinungen verbreiten werden. Und da muss die Partei sich gar nicht die Finger schmutzig machen in Anführungsstrichen, sondern das werden schon Leute für sie übernehmen."
    Er nennt ein Beispiel aus dem Landtagswahlkampf in Baden-Württemberg im vergangenen März:
    "Da gab es z. B. ein Video der AfD, relativ langweilig, wo der Spitzenkandidat Herr Meuthen einfach zehn Minuten irgendwas erzählt hat, und das hat auf einmal über Nacht 80.000 Zugriffe gehabt auf Youtube. Und das ist extrem viel gewesen für ein Video, das null mobilisierend war, nicht gut geschnitten war und das keine gute Qualität hatte. Da hatte ich dann schon den Verdacht, dass da z. B. einfach Bots gekauft und bestellt wurden, um die Zugriffsraten, die Views, auf dieses Video zu erhöhen."
    Politikberater hält Social Bots nicht für wahlentscheidend
    Aufmerksamkeit vorzutäuschen, die in Wahrheit gar nicht existiert, sei eine vergleichsweise harmlose Art und Weise, Social Bots einzusetzen. Schlimmer und sehr viel wirkungsvoller sei es, auf den Seiten des politischen Gegners Diskurse zu stören.
    "Auf der CSU-Facebookseite gab es eine bestimmte Zeit lang sehr, sehr viele Social Bot-Accounts, die einfach irgendetwas, was überhaupt nicht zum Thema gepasst hat, dort hinein gepostet haben als Kommentare und somit den normalen Nutzer, den normalen Interessenten an CSU-Inhalten, davon abgehalten haben, weiter zu diskutieren, weil es einfach gar nicht mehr möglich war, weil man einfach gar nicht mehr wusste: wo ist jetzt eigentlich die Diskussion hin?"
    Doch sind Social Bots tatsächlich in der Lage, nicht nur Meinungen zu verbreiten, sondern auch die politischen Haltungen realer Nutzer zu beeinflussen? Politikberater Martin Fuchs ist skeptisch – er glaubt zum Beispiel nicht, dass Social Bots dafür gesorgt haben, dass Donald Trump am Ende zum Präsidenten gewählt wurde:
    "Da bin ich immer ein bisschen vorsichtig, weil so eine Wahlentscheidung ist natürlich kein linearer Prozess, da spielen total viele Sachen hinein. Wie sich Leute dann am Ende des Tages an der Wahlurne entscheiden, wo sie dann das Kreuzchen machen. Aber genauso wenig kann ich auch sagen: Wie viel Einfluss hat ein Plakat, wie viel Einfluss hat ein Werbespot im Fernsehen. Von daher hat es Einfluss gehabt, aber es war definitiv nicht wahlentscheidend."
    SPD plädiert für Fairnessabkommen zwischen den Parteien
    Auch der Social Media-Forensiker André Thieltges ist sich sicher, dass der Meinungsbildungsprozess komplexer ist.
    "Meines Erachtens nach geht niemand ins Netz, der völlig neutral ist in seiner Meinung. Es kann durchaus sein, dass Meinungen, die dort gemacht und verbreitet werden, jemanden nochmal kritisch werden lassen oder vielleicht eine Zustimmung zu etwas unterstützen. Aber niemand macht seinen Computer an, geht in die sozialen Netzwerke, guckt sich an, was dort geschrieben und besprochen wird, und ist dann dieser Meinung."
    Im politischen Berlin geht dennoch die Sorge um, dass die bevorstehenden Wahlkämpfe im nächsten Jahr schmutzig werden könnte - und dass sich Fake-News mit Hilfe von Social Bots massenhaft verbreiten und das politische Klima weiter vergiften könnten. Die SPD wirbt nun für ein "Fairnessabkommen": Die Parteien sollen sich auf "saubere" Wahlkämpfe im Internet verpflichten: Also darauf, für die eigenen Positionen zu werben - ganz ohne die Hilfe von Meinungsrobotern.
    (* Anmerkung der Redaktion: In einer vorherigen Version wurde Robert Heinrich irrtümlich als Daniel Heinrich, Leiter der Grünen-Pressestelle, bezeichnet. Robert Heinrich ist Leiter der Abteilung Öffentlichkeitsarbeit und Kampagnen. Das wurde im Text korrigiert.)