Donnerstag, 09.04.2020
 
Seit 20:00 Uhr Nachrichten
StartseiteForschung aktuellWie Bots Datensätze der Sozialforschung verzerren26.02.2020

Social MediaWie Bots Datensätze der Sozialforschung verzerren

In der Sozialforschung werden auch Daten aus sozialen Medien analysiert. Doch davon stammen einige von menschenähnlichen Bots: Diese könnten zum Teil so programmiert sein, dass sie ihre Inhalte zugunsten kommerzieller Anbieter posten. Das Ausmaß der Verzerrung durch Social Bots ist nicht klar.

Von Karl Urban

Hören Sie unsere Beiträge in der Dlf Audiothek
Weibliches Gesicht mit Computerplatinen, Symbolfoto kuenstliche Intelligenz | Verwendung weltweit, Keine Weitergabe an Wiederverkäufer. (Bildagentur-online)
Manche Social Bots sind schwer von Menschen zu unterscheiden (Bildagentur-online)
Mehr zum Thema

Trolle, Social Bots, Deep Fakes Wie Fake News unser Gefühl für Wahrheit untergraben

Meinungsroboter "Mit Social Bots müssen wir leben"

Digitalstrategie bei der BBC Künstliche Intelligenz und Social Bots

"Ich nutze die Daten sozialer Netzwerke wie Twitter und Instagram, um die öffentliche Meinung und das Verhalten im Gesundheitsbereich zu verstehen."

Jon-Patrick Allem von der University of Southern California in Los Angeles ist begeistert von den Möglichkeiten sozialer Netzwerke. Auch Katrin Weller vom Leibniz-Institut für Sozialwissenschaften in Köln findet, ihre Arbeit ist dadurch leichter geworden:

"Man muss nicht mehr ein Experiment aufsetzen und die Leute bitten, etwas in einer bestimmten Weise zu tun, was man dann beobachten kann. Man kann direkt die Spuren nehmen, die sie hinterlassen."

Mikroskop für Einblicke in die Gesellschaft

Die Sozialforschung hat sozusagen ein Mikroskop erfunden, das Einblicke in die Gesellschaft erlaubt. Doch es gibt ein Problem: Die Forscher erheben ihre Daten nicht mehr selbst, sondern sie fischen Spurendaten ab, die Nutzer mit öffentlichen Profilen in der digitalen Welt zurückgelassen haben. Und viele dieser Daten stammen gar nicht von Nutzern aus Fleisch und Blut, sondern von Social Bots, also Computerprogrammen, die nur so tun, als seien sie Menschen:

"In meiner ersten Studie haben wir uns die Aussagen der Social Bots angeschaut und rausgefunden: Sie haben doppelt so häufig wie menschliche Nutzer propagiert, dass E-Zigaretten dabei helfen würden, mit dem Rauchen aufzuhören. Dazu haben die Bots auch doppelt so häufig auf neue Produkte im Bereich der E-Zigaretten hingewiesen."

Kürzlich untersuchte Jon-Patrick Allem Tweets zum Thema Marihuana, mit einem ähnlichen Ergebnis: Soziale Bots propagierten lautstark, dass Marihuana-Präparate bei Erkrankungen wie Depressionen, Morbus Crohn oder Krebs wirken würden – obwohl das mit medizinischen Studien gar nicht belegt ist. Es deutet laut Allem also einiges darauf hin, dass kommerzielle Akteure hier aktiv in die Dynamik sozialer Netzwerke eingreifen, um den Absatz ihrer Produkte zu steigern. Die Datensätze der Sozialforscher werden dadurch korrumpiert:

"Wenn ich sage, ich nehme jetzt einen bestimmten Hashtag oder ein bestimmtes Suchwort und suche alle Inhalte, die zu diesem speziellen Wort in letzter Zeit bei Twitter erschienen sind, dann habe ich eine diverse Nutzermenge, von der ich erst überhaupt nicht weiß: Wer steckt dahinter? Und das ist das Hauptproblem."

Bots immer menschenähnlicher

Allerdings gibt es durchaus Programme, die Forscher verwenden können, um die Beiträge von Bots aus ihren Datensätzen zu entfernen. Diese Tools analysieren: Wie viele Tweets setzt ein Nutzer pro Tag ab? Gibt es überhaupt Ruhezeiten, in denen er gar nichts postet? Doch solche Filterkriterien führen oft auch zum Ausschluss realer User – zumal die Programmierer von Bots deren Verhalten immer menschenähnlicher gestalten. Und selbst wenn es gelänge, die Beiträge von Social Bots zuverlässig aus den Daten zu löschen: Das Problem wäre damit immer noch nicht gelöst, sagt die Forscherin:

"Wenn ich jetzt nur einzelne Accounts, die problematisch sind, rauslösche, kann es ja trotzdem sein, dass die vorher beeinflusst haben, wie sich die anderen mitverhalten."

Probleme der Botforschung

Katrin Weller findet, die Sozialforscher sollten die Bots dringend als Teil der sozialen Netzwerke begreifen. Nils Weidmann sieht das ähnlich. Der Informatiker und Politikwissenschaftler an der Universität Konstanz ist dagegen, die Bots in den Datensätzen einfach von realen Menschen zu trennen:

"Die Botforschung hat ja sehr, sehr große, elementare methodische Probleme. Dass man einerseits sehr schwierig bestimmen kann, was denn jetzt wirklich ein Bot ist. Und was tut diese Maschine in eine Richtung? Gibt es Bots, die primär eine bestimmte Richtung beeinflussen? Ist diese Botverzerrung systematisch zu meiner Forschungsfrage?"

Wegen der vielen offenen Fragen plädieren alle drei Forscher dafür, mit Social-Media-Datensätzen sehr bewusst und kritisch umzugehen und mit der Entwicklung sozialer Bots schrittzuhalten. Prinzipiell in Gefahr sehen sie ihr neues Mikroskop für Einblicke in die Gesellschaft aber noch nicht.

Das könnte sie auch interessieren

Entdecken Sie den Deutschlandfunk