Freitag, 19. April 2024

Archiv

Demokratie und Künstliche Intelligenz
Wie Computer die Meinungsbildung beeinflussen

Spätestens seit dem amerikanischen Präsidentschaftswahlkampf vor knapp zwei Jahren wird diskutiert, ob über soziale Netzwerke und über Social Bots Wahlen beeinflusst werden können. Inwieweit kann die demokratische Willensbildung durch moderne Computersysteme manipuliert werden?

Von Ingeborg Breuer | 01.03.2018
    Illustration: Zwei Menschen werden von einem Marionettenspieler gelenkt.
    Wie frei sind wir in unserer Meinungsbildung? (Imago / Ikon Images)
    "Demokratie hat eine Reihe von Voraussetzungen. Und eine ganz wichtige Voraussetzung für Demokratie ist ein demokratischer Diskurs."
    Dr. Ulf Buermeyer, wissenschaftlicher Mitarbeiter am Verfassungsgerichtshof des Landes Berlin:
    "Das heißt, die Menschen müssen sich darüber austauschen, in welche Richtung sich das Gemeinwesen entwickeln soll. Und da spielt auch der Diskurs im Internet eine große Rolle. Und dieser Diskurs im Internet wiederum wird sehr beeinflusst von Algorithmen. Das heißt, Computer treffen Entscheidungen darüber, was wir auf Facebook sehen, welche Tweeds wir auf Twitter sehen können."
    Rechtswissenschaftler trafen sich vergangene Woche an der Universität in Trier, um darüber zu diskutieren, ob Computerprogramme zunehmend in die demokratische Ordnung eingreifen. Etwa wenn - wie im amerikanischen Wahlkampf vor knapp zwei Jahren - durch den Einsatz intelligenter Technologien versucht wird, Meinungsmache zu betreiben. Die Professorin Antje von Ungern-Sternberg, Rechtswissenschaftlerin und Mitveranstalterin der Tagung erläuterte:
    "Vor einem breiteren Publikum diskutiert wurde die Frage nach der Brexit-Entscheidung und der Wahl Donald Trumps. Weil man festgestellt hatte, dass bestimmte Mechanismen, die auf intelligenten Computerprogrammen basieren, social bots zum Beispiel, aber auch die Art und Weise wie Suchergebnisse angezeigt werden bei Google, Nachrichten bei Facebook, dass die sich auf die Meinungsbildung im Wahlkampf auswirken."
    Wie ist es zu beurteilen, wenn bei Google oder Facebook ein Nutzer nur personalisierte, auf ihn zugeschnittene Nachrichten bekommt, die in sein Weltbild passen? Wenn Meinungsroboter, sogenannte Bots eigenständig Botschaften versenden oder "liken" und damit zum Beispiel noch die hirnrissigste Verschwörungstheorie endlos weiterverbreiten können?
    "Was man sicher sagen kann, ist, dass es im Internet Räume gibt, in denen sich Meinungen verstärken, die sogenannten Echokammern oder Filterblasen. Und die Menschen, die sich in solchen virtuellen Räumen bewegen, die werden häufig gar nicht mehr mit abweichenden Meinungen konfrontiert."
    Filterblasen und Echokammern
    Demokratie lebt von dem Ideal, dass der Bürger sich unter sachlicher Abwägung aller Argumente eine politische Meinung bildet. Ein "kontrafaktisches" Ideal allerdings, darauf wies Professor Uwe Volkmann, Rechtswissenschaftler an der Uni Frankfurt hin. Denn die "eigene" Meinung ist oft ein Resultat von Sozialisation, Umwelt oder einem diffusen Bauchgefühl. Und noch dazu stellt sich die Frage, ob es nicht auch in der analogen Welt schon das gab, was man heute "Echokammer" oder "Filterblase" nennt? Waren nicht zum Beispiel die vom Klassenkampf fabulierenden K-Gruppen der 70er- und frühen 80er-Jahre oder die RAF-Terroristen, die den revolutionären Volkskampf forcieren wollten, auch gefangen in ihrer eigenen Realität? Ulf Buermeyer:
    "Natürlich hat es immer schon Räume gegeben, wo Menschen sehr pointierte Meinungen vertreten haben, aber diese Räume hatten gesellschaftlich nicht diese Bedeutung. Um beim Beispiel der K-Gruppe zu bleiben, wenn man da sich in seinen K-Gruppen-Kreisen bewegte, dann bekam man ja, wenn man mal die Tagesschau aus Versehen gesehen hat, trotzdem noch mit, wie im Mainstream der Gesellschaft gedacht wurde."
    Ironisch gab Uwe Volkmann allerdings zu bedenken, dass die Skandalisierung der gegenwärtigen - virtuellen - Realitätsverzerrungen auch damit zu tun haben könne, dass in den heutigen Echokammern vor allem Meinungen vertreten würden, die ein Großteil der Tagungsteilnehmer nicht gut fände:
    "Also wenn es jetzt einen Bot gäbe, der von Greenpeace oder irgendwelchen Umweltorganisationen gesteuert würde, mit dem Themen transportiert würden, die wir für richtig halten, würden wir das vielleicht auch anders diskutieren. Aber man muss im Grunde feststellen, dass dieses Medium vorwiegend von Gruppierungen genutzt werden, die sonst im politischen Diskurs eher draußen gehalten worden sind. Und die kommen jetzt und drängen hinein. Das gibt dem Ganzen noch mal eine demokratische Dimension, weil die sich einbringen können."
    Antje von Ungern Sternberg widersprach allerdings der Unterstellung, "dass wir uns hier deswegen Sorgen machen, weil viele dieser Bots nicht der Meinung der meisten Tagungsteilnehmer entspricht. Ich glaube, dass es grundsätzlich darum geht, welchen Stellenwert Maschinen, Computerprogramme, KI-Systeme in einer modernen Welt haben. Also zum Beispiel hier haben wir gerade diskutiert, ob social bots, die vortäuschen, dass eine bestimmte natürliche Person eine bestimmte politische Meinung verbreitet, ob man die verbieten muss, ob man die mit einer Kennzeichnungspflicht belegt. Und das sind einfach Gebote des Schutzes der Autonomie im Prozess der demokratischen Meinungsbildung, die ich schon für richtig und wichtig halte."
    Rechtliche Maßnahmen umstritten
    Welche rechtlichen Maßnahmen gegenüber der Informationsverbreitung durch intelligente Systeme ergriffen werden sollten, blieb auf der Tagung umstritten. Man bewege sich bislang im Stadium der kritischen Bestandsaufnahme, meinte zum Beispiel Ulf Buermeyer, ohne wirkliche Lösungen zu haben, ob und wie die demokratische Meinungsbildung im Zeitalter intelligenter Computersysteme geschützt werden könne.
    "Wir haben verschiedene Ansatzpunkte, über die wir diskutieren können, aber wir wissen im Grunde nicht so richtig, wie sie konkret aussehen und wie sie tatsächlich wirken. Andererseits würde ich sagen, Autonomie war immer in irgendeiner Weise gefährdet. Und die Hoffnung, die sich mit dem demokratischen Prinzip verbindet, ist, dass sich das im demokratischen Prinzip 'ausmendelt'. Das würden wir heute nicht mehr so vorbehaltlos bejahen, wie wir das noch vor zehn Jahren gemacht hätten."
    Professor Sebastian Unger, Rechtswissenschaftler und Mitveranstalter der Tagung wies aber darauf hin, dass nicht nur die demokratische Meinungsbildung zunehmend durch autonome Computersysteme gesteuert werde. Auch in der Rechtsprechung würden zunehmend Entscheidungen durch Künstliche Intelligenz statt von Menschen getroffen. Eine Option, deren Tragweite noch lange nicht austariert sei.
    "Das Beispiel, das in den USA diskutiert wird, ist die Beurteilung der Rückfallanfälligkeit von Straftätern, zu deren Evaluierung aber bestimmte Computersysteme zugrundegelegt werden, die auf Grundlage bestimmter Kriterien die Rückfallanfälligkeit ermitteln. Ein zweiter Bereich ist das Steuerrecht, wo seit ein, zwei Jahren die elektronisch eingereichten Steuerdaten von Computersystemen auf ihre Validität geprüft werden und dann bestimmte Steuererklärungen ausgefiltert werden, die dann von einem Steuerbeamten geprüft werden. Zunehmend werden Entscheidungen nicht mehr getroffen durch Computersysteme, die zwar im Ausgangspunkt auch Übersetzungen von rechtlichen Regelungen sind, die aber dann ein Eigenleben entwickeln. Und damit stellen sich neue Legitimationsfragen, die wir beantworten müssen.