Archiv

Soziale Netzwerke
Diskussion mit Propaganda-Bots

Sie erkennen Nachrichten, mischen sich in Diskussionen ein und antworten wie echte Menschen: Propaganda-Bots. So können sie ein politisches Meinungsbild beeinflussen. Bots gegnerischer Seiten können sogar miteinander diskutieren. Die Rückverfolgung der Netzwerke ist bislang schwierig.

Peter Welchering im Gespräch mit Manfred Kloiber |
    Das Logo des Netzwerks Facebook wird am 21.10.2013 in Berlin durch ein Brillenglas verstärkt.
    Sieht aus wie ein Mensch, ist aber ein Bot: Automatisierte Posts in Sozialen Netzwerken werden zunehmend als Propaganda-Werkzeug genutzt. (picture alliance / dpa / Paul Zinken)
    Kloiber: Der Konflikt um die Krim hat es in diesem Jahr noch einmal deutlich gemacht: Viele Staaten nutzen Soziale Medien für ihre Propaganda. Aber nicht immer sitzen Menschen an den Rechnern, die auf Facebook, Twitter & Co für die Regierungsposition werben, mit Gegnern diskutieren oder sie einfach nur verächtlich zu machen versuchen. Dafür wird zunehmend Software eingesetzt. Und über die wird auch im Hamburger Kongresszentrum diskutiert. Wie sieht diese Software aus, Peter Welchering?
    Welchering: Diese Propaganda-Bots haben eine semantische Abteilung und eine Abteilung, um Nachrichten, Tweets usw. erkennen zu können. Ihnen wird eine Position mit einer weitgehenden inhaltlichen Beschreibung vorgegeben und dann mischen sie sich aktiv in Diskussionen auf Twitter oder Facebook oder auf Blogs ein und verbreiten die Botschaften die ihre Herren und Meister gern im Netz hätten. Und sie antworten eben auch auf Posts des Gegners.
    Kloiber: Wer setzt solche Propaganda-Bots ein?
    Welchering: Viele Staaten und Regierungen. Regierungen, die einen Wahlkampf gewinnen wollen. Staaten, die sich in der Weltöffentlichkeit gegen einen anderen Staat durchsetzen wollen. Joachim Scharloth von der TU-Dresden, der hier auf der 31C3 einen Vortrag über Propaganda-Bots hält, sagt darüber:
    Joachim Scharloth: "Wir wissen, dass die auch im Regierungsauftrag entwickelt werden. Von der DARPA [Forschungsagentur des US-Verteidigungsministeriums, Anm. der Redaktion] gibt es eine Ausschreibung, die die Entwicklung solcher Tools vorsieht. Auch Russland hat eine Million gerade investiert in 'Storm 13', das genau dafür gemacht ist vom Auslandsgeheimdienst, soziale Netzwerke inhaltlich zu beeinflussen."
    Kloiber: Wie aufwendig ist es, solch einen Propaganda-Bot zu bauen?
    Welchering: Wer solch einen Bot baut, braucht klare Vorgaben, wie sein Auftraggeber in der Diskussion erscheinen will, also etwa: heimatverbunden, kraftvoll usw. Den Rest erledigt eine semantische Matrix, die die Tweets und Post usw. generiert. Dann gibt es noch Erkennungssoftware, die die Tweets und Posts der Gegner erkennt und an die semantische Matrix weitergibt. So entstehen dann automatische Antworten und sogar ganze Diskussionen. Und natürlich ist dafür ein Bot-Netzwerk nötig. Solche Bot-Netzwerke kann man mieten. Man kann sie auch mit mehr oder weniger Standardsoftware aufbauen, indem man fremde Rechner kapert.
    Kloiber: Gibt es Software, um solche Bots zu erkennen und unschädlich zu machen?
    Welchering: Die steckt noch in den Anfängen. Erkennen kann man ihn daran, dass der Bot Botschaften nach einem bestimmten Muster generiert. Die Rückverfolgung ist so schwierig wie bei jedem Bot-Netzwerk. Gekaperte Rechner, die können identifiziert werden. Entscheidend ist der Kontrollrechner – das ist so schwierig, wie bei jedem anderen Bot-Netzwerk.