Donnerstag, 28. März 2024

Archiv

Persönlichkeitsprofile und Prognosen
Wie leicht Algorithmen Fehler machen können

Nicht erst seit dem Datenskandal bei Facebook stellt sich die Frage, wie das Geschäft mit politischen Persönlichkeitsprofilen und Prognosen reguliert werden kann. Doch wie werden die überhaupt berechnet - und wo genau liegen die Grenzen und Risiken von Prognosealgorithmen?

Von Peter Welchering | 07.04.2018
    Ein Protest-Poster klebt im März 2018 an der Eingangstür des Unternehmens Cambridge Analytica in London. Die Firma hatte Millionen Datensätze von Facebook-Nutzern für Werbung im US-Wahlkampf benutzt.
    Bis zu 2,7 Millionen Menschen in der EU sind vom Datenskandal bei Facebook betroffen - persönliche Daten wurden an das Unternehmen "Cambridge Analytica" weitergegeben (imago / Stephen Chung)
    Manfred Kloiber: Wie sollten Algorithmen reguliert werden? Und wie können Rechenvorschriften überhaupt reguliert werden? Diese Frage stellen sich zur Zeit viele Politiker und auch Informatiker. Und zwar mit enormer Dringlichkeit vor dem aktuellen Hintergrund, dass nicht nur Facebook, sondern auch die Deutsche Post Daten verkauft hat, aus denen politische Persönlichkeitsprofile berechnet werden können. Peter Welchering, Sie verfolgen diese Diskussion seit langer Zeit. Was müssen wir tun, um das Geschäft mit den Persönlichkeitsprofilen und Prognosen regulieren zu können?
    Peter Welchering: Wir müssen uns zunächst einmal klarmachen, wie diese Persönlichkeitsprofile und Prognosen berechnet werden. Im Augenblick ruft in der Politik fast jeder nach Regulierung, ohne genau sagen zu können, was eigentlich reguliert werden soll. Das Geschäft mit den Persönlichkeitsprofilen und den Prognosen konnte ja nur deshalb so boomen, weil in der Diskussion über das, was Algorithmen leisten können, so vieles durcheinander gegangen ist. Und das führte zu fatalen Fehleinschätzungen was zum Beispiel ein selbstfahrendes Auto, was eine Polit-Beratungsfirma wie Cambridge Analytica, was Algorithmen für kriminalpolizeilich Prognosen eigentlich wirklich leisten können.
    Manfred Kloiber: Genau das wollen wir ein Stück weit aufklären, um ein Stück weit besser zeigen zu können, wo die Grenzen von Prognosealgorithmen liegen, wo aber auch die Risiken von maschinellem Lernen und Künstlicher Intelligenz sich zeigen.
    Imperative Programmierung vs maschinelles Lernen
    Analysesoftware ist gefragt und teuer. Politiker wollen damit Wahlen gewinnen. Richter sollen sie als Entscheidungshilfe einsetzen, wenn es darum geht, ob ein verurteilter Straftäter auf Bewährung aus der Haft entlassen werden kann. Diese Art von Software soll Wohnungseinbrüche und andere Straftaten vorhersagen und natürlich, welche unentdeckten Wünsche und Bedürfnisse in den Menschen als Konsumenten schlummern. Denn dann kann die werbetreibende Industrie genau diese Begehrlichkeiten wecken. Hinter solcher Software stecken Methoden des maschinellen Lernens. Um die mit diesen Methoden erschaffenen "Künstlichen Intelligenzen" mit ihren "Algorithmen" haben sich jede Menge Legenden und Mythen gebildet. Dabei geraten dann auch schon einmal die Programmieransätze durcheinander. Henrik Heuer vom Institut für Informationsmanagement an der Universität Bremen zeigt deshalb zunächst einmal den Programmieransatz auf, an den wir üblicherweise denken, wenn wir von Algorithmen sprechen.
    "Imperative Programmierung ist das, woran wahrscheinlich jeder denkt, wenn er an Informatik und Programmierung denkt. Es geht um Regeln und Anweisungen. Wenn x, dann y. Das Wort imperativ für Befehl steckt ja auch schon im Namen. Und wenn wir jetzt Spam imperativ erkennen wollen würden, dann würde man zum Beispiel kucken, o.k. wenn das Wort Viagra so geschrieben in einer Nachricht vorkommt, dann ist es eine Spam-Nachricht. Andererseits ist es eine gutartige Nachricht."
    Bei der imperativen Programmierung können die IT-Systeme nicht wirklich lernen. Und auch der algorithmische Programmieransatz hilft hier nur bedingt weiter. Henrik Heuer:
    "Maschinelles Lernen ist jetzt ein komplett anderer Ansatz. Da hat man eine Vorhersage, die man iterativ, also immer und immer wieder verbessert. Für die Spam-Klassifikation zum Beispiel versucht man Kombinationen von Wörtern zu finden, durch die es wahrscheinlich wird, dass es sich um Spam handelt. Der Kernbegriff ist hier also wahrscheinlich."
    Persönlichkeitsprofile sind leicht erstellt
    Soziale Netzwerke wie Facebook liefern die Daten, damit solche Wahrscheinlichkeiten berechnet werden können. Das ist ihr Geschäftsmodell. Nur so kann personalisierte Werbung passgenau auf einzelne Nutzer zugeschnitten werden. Das läuft letztlich immer auf eine Berechnung von Persönlichkeitsprofilen hinaus. Die lassen sich zum Beispiel über Follower-Beziehungen und Likes mit geringem Aufwand erstellen. Henrik Heuer.
    "Es zeigt sich, dass man zum Beispiel mit 95-prozentiger Genauigkeit erkennen kann, ob jemand weiß oder afroamerikanisch ist. Sexuelle Orientierung kann man auch mit sehr hoher Genauigkeit nur anhand der Likes erkennen. Die politische Orientierung, die religiöse Zugehörigkeit, aber auch so Sachen wie Drogenerfahrung und der Familienstand der Eltern in der Kindheit."
    Richtigen Programmieransatz wählen
    Dabei wird oft vergessen, dass jede Wahrscheinlichkeitsberechnung nur so gut ist, wie das zugrunde liegende Datenmodell. Und es wird oft nicht daran gedacht, dass der richtige Programmieransatz gewählt werden muss, um solche Berechnungen richtig durchzuführen. Sonst wird Software auf der Grundlage von Methoden des maschinellen Lernens schnell unberechenbar. Die Arbeitsweise der Software kann dann nicht mehr nachvollzogen werden.