Freitag, 19. April 2024

Archiv

Digitale Psychometrie
Magische Soße

Haben Anzeigen, die auf die Psyche einzelner Wähler zugeschnitten waren, die US-Präsidentschaftswahlen entschieden? Vor einigen Monaten wurde das in Presseberichten behauptet. Auch wenn Vieles übertrieben war - die Verfahren gibt es.

Von Christoph Drösser | 03.09.2017
    Zahlreiche Passanten sind in der Fußgängerzone Ludgeristraße in Münster unterwegs.
    Was passiert in unseren Köpfen und wie kann das Wahlverhalten beeinflusst werden? (imago / Rüdiger Wölk)
    Algorithmen protokollieren, wie wir uns im Netz bewegen und ziehen daraus ihre Schlüsse. Der Stanford-Forscher Michal Kosinski ist der prominenteste Vertreter der digitalen Psychometrie, mit deren Methoden wir ständig analysiert werden – auch wenn wir nichts davon merken.
    Standford-Professor Michal Kosinski beim St Petersburg International Economic Forum.
    Standford-Professor Michal Kosinski beim St Petersburg International Economic Forum. (dpa / picture alliance / Alexander Ryumin/)

    "Treffen Sie Ihre Freunde oft? Statt zu fragen, können Sie auch einfach zählen, wie oft eine Person in den letzten Jahren tatsächlich seine Freunde getroffen hat."

    Wenn wir uns im Internet bewegen, sind wir nie allein. Algorithmen protokollieren unser Verhalten. Und sie ziehen daraus Schlüsse.
    "Wir gehen in eine Zukunft, in der es wenig oder gar keine Privatsphäre gibt, und je eher wir das anerkennen und unsere Welt so entwerfen, dass sie immer noch schön und sicher ist, umso besser."
    "Wenn da also einer kommt so mit "privacy is dead" – mein Gott. Dass Sie solche Leute überhaupt interviewen!"
    Psyche wird durchleuchtet
    Solche Leute - damit meint die Wiener Ökonomin Sarah Spiekermann den Psychologen Michal Kosinski, der ein Verfahren entwickelt hat, um aus unserem Online-Verhalten Schlüsse über unsere Psyche zu ziehen. Ja, man muss Leute wie Kosinski interviewen. Denn zunehmend wird unsere Psyche im Internet durchleuchtet, ohne dass wir es merken.
    "Von den zwei Kandidaten, die noch im Rennen sind, benutzt einer unsere Technik, und es wird interessant sein zu sehen, wie das die nächsten sieben Wochen beeinflusst."
    Das war Alexander Nix, der Chef der Firma Cambridge Analytica, im September 2016 auf der Konferenz des internationalen Think-Tanks Concordia. Zwei Monate später wurde Donald Trump zum Präsidenten der USA gewählt. Cambridge Analytica behauptete, Trumps Wahlsieg mit herbeigeführt zu haben, und zwar indem die Firma die Wähler mit Werbung versorgte, die geschickt auf ihre Persönlichkeit zugeschnitten war. Von Millionen US-Wählern besitze sie ausführliche psychologische Profile und könne sie deshalb sehr gezielt ansprechen und verführen.
    Experten haben das bezweifelt, und Cambridge Analytica ist auch ein bisschen zurückgerudert. Aber die Methode gibt es. Erfunden wurde sie von Michal Kosinski, einem Psychologen an der Universität Stanford in Kalifornien. Seit im Dezember ein Artikel über ihn in einem Schweizer Magazin erschien, kann der sich vor Medienanfragen kaum noch retten. Sein Algorithmus wurde zweckentfremdet, sagt er.
    "Ich glaube, diese Verbindung wurde hergestellt, weil Cambridge Analytica Wort für Wort die gleiche Methode benutzt, die ich in meiner Arbeit beschreibe. Deshalb sagen manche, das ist ein geklauter Algorithmus. Aber niemand hat meine Sachen gestohlen, einer meiner Promotionsgutachter in England hat eine Firma gegründet, die eine Menge Daten gesammelt hat, wie ich finde auf unethische Weise, und dann ein Modell gebaut, exakt wie das, von dem ich rede."
    Die Seele wird vermessen
    Kosinski ist Wissenschaftler, Cambridge Analytica eine gewinnorientierte Firma. Der aus Polen stammende Forscher legt Wert auf sauberes Arbeiten, hält nichts geheim, veröffentlicht all seine Methoden und Erkenntnisse. Aber er freut sich auch sichtlich über das Medieninteresse.
    "Ein guter Nebeneffekt war, dass die Leute angefangen haben, sich für den Schutz der Privatsphäre zu interessieren: wie Algorithmen von Menschen und Computern dazu benutzt werden, sie gezielt anzusprechen, und welche Folgen das für die Gesellschaft hat. Ein guter Start für einen Dialog."
    Kosinskis Fachgebiet ist die Psychometrie. Jener nicht unumstrittene Zweig der Psychologie, der unseren Geist und unsere Seele exakt zu vermessen versucht.
    IQ-Tests, Eignungstests, schriftliche Prüfungen, Persönlichkeitsfragebögen. Michal Konsinki glaubt: Die Welt wird besser, wenn wir Menschen mit solchen objektiven Verfahren testen.
    "Psychometrie kann die Welt sicherer und gerechter machen. So hat sie im übrigen angefangen, vor zwei- oder dreitausend Jahren in China. Dort stellte man fest, dass es bei der Rekrutierung von Beamten nicht besonders effektiv war, wenn man immer nur Leute einstellte, die man kannte, die Söhne von Amtsträgern waren usw. Und so hat man ein Testverfahren entwickelt, das dauerte mehrere Tage. Die Kandidaten mussten ihre Kenntnisse im Rechtswesen, in der Wissenschaft und der Staatskunst beweisen. Und dann hatte man dieselben Chancen, den Job zu kriegen, ob man nun der Sohn eines wichtigen Mannes war oder ob man einen bescheideneren Hintergrund hatte. Und Historiker sagen, ein Grund für den Erfolg des chinesischen Reichs war, dass sie die fähigsten Leute eingestellt haben."

    Fast genauso alt wie die Psychometrie ist die Kritik daran. Kann man einen Menschen auf ein paar Zahlen reduzieren? Wird man unserer vielschichtigen Persönlichkeit damit wirklich gerecht? Was misst ein IQ-Test eigentlich? Und dürfen vom Ergebnis solcher Tests Schicksalsentscheidungen abhängen? Auf diese Fragen ist Michal Kosinski natürlich vorbereitet.
    "Sie haben Recht – wenn man die Intelligenz testet, dann produziert man nur eine einzige Zahl. Und dieser IQ drückt in keiner Weise aus, wie wertvoll Sie als Mensch sind. Es ist nur bei manchen Jobs so, dass diese Zahl sehr gut ihre spätere Leistung voraussagen kann. Wenn Sie mir andere Kriterien zeigen können, die das besser und gerechter leisten, dann her damit!"
    "So, hier sind 100 Sätze über mich, die soll ich hier bewerten. Auf einer fünfteiligen Skala, von 'stimme stark zu' bis 'stimme überhaupt nicht damit überein'. Na gut, dann schauen wir mal. 'Ich schließe Aufgaben erfolgreich ab' –, ja, kann man so sagen, stimme stark zu. Ich vermeide philosophische Diskussionen – ganz im Gegenteil, das mache ich gerne."
    Jeder Mensch lässt sich in fünf Zahlen beschreiben
    Eines der heute verbreitetsten psychometrischen Modelle ist das sogenannte Big-Five-Modell, auch OCEAN genannt, nach den englischen Anfangsbuchstaben für Offenheit, Gewissenhaftigkeit, Extraversion, Verträglichkeit und Neurotizismus. Jeder Mensch lässt sich demnach mit fünf Zahlen beschreiben, die jeweils Werte zwischen 0 und 100 annehmen können.
    Michal Kosinski hat das System nicht erfunden, aber er benutzt es. Auf seiner Website "applymagicsauce.com" kann jeder diesen Test machen. Unser Autor hat es ausprobiert.
    "So, hier kommt die Auswertung, schauen wir mal: Offenheit 69 Prozent, Das klingt prima. Gewissenhaftigkeit 56 Prozent, so gerade überm Durchschnitt, Extraversion auch 56 Prozent ..."
    Solche Tests sind aufwendig. Nun aber revolutioniert das Internet die Psychometrie: Es liefert genügend Daten, sodass die Leute gar nicht mehr explizit antworten müssen.
    Wir kaufen online ein, führen unsere Bankgeschäfte im Netz, wir speichern Fotos und Filme und posten sie zusammen mit Kommentaren in Facebook oder auf Twitter. Forscher wie Kosinski sind überzeugt, dass diese Muster Auskunft über wirklich tiefe Züge der Persönlichkeit geben. Und er hat dazu einen Versuch gemacht, den er in einer angesehenen wissenschaftlichen Zeitschrift veröffentlicht hat.
    Ganz konkret funktioniert das Verfahren so: Wenn Sie auf Facebook sind, dann haben Sie vielleicht schon einmal an einem Spielchen teilgenommen, bei dem Sie ein paar Fragen beantworten und dann zum Beispiel gesagt bekommen, welche Hunderasse am besten zu Ihnen passt. Das ist oft ein Vorwand, um an Nutzerdaten zu kommen. Kosinski und seine Mitarbeiter wollten die Nutzer nicht übers Ohr hauen.
    "Nein, das war ein ganz seriöser Persönlichkeitsfragebogen. Und wir haben die Leute auch nicht gezwungen, uns ihre Facebook-Daten zu geben, das war freiwillig."
    Freiwillige Teilnahme an Tests im Netz
    Zum Erstaunen der Forscher klickten Millionen von Menschen darauf und nahmen sich Zeit für die 100 Fragen. Diese User wurden nur dazu benutzt, das eigentliche System zu eichen, das Kosinski entwickeln wollte. Weil er Zugriff sowohl auf ihr ausführliches Psycho-Profil hatte, also die ausgefüllten Fragebögen, als auch auf ihre Likes, konnte er mit Hilfe eines handelsüblichen Big-Data-Algorithmus Korrelationen herstellen. Dabei ging es nicht um simple 1:1-Zuordnungen, etwa "Wer gerne Marianne Rosenberg hört, ist wahrscheinlich schwul". Jeder einzelne Like ist nur ein Mosaiksteinchen in einem komplexeren Bild, das immer schärfer wird.
    Kosinski erläutert das an einem Beispiel – er sagt, dass sein Algorithmus tatsächlich mit 88-prozentiger Genauigkeit sagen kann, ob ein Nutzer homosexuell ist.
    "Dass wir Lady Gaga mögen oder Harley-Davidson, sagt nicht wirklich viel über unsere intimen Eigenschaften. Aber im Durchschnitt haben die Leute viele Likes, und jeder dieser Likes enthüllt ein kleines Bisschen. Für einen Menschen muss Information immer eine bestimmte Schwelle überschreiten, damit wir sie überhaupt wahrnehmen. Wenn ein Geräusch zu leise ist, hören wir es nicht. Für den Computer dagegen ist die Schwelle viel niedriger. Auch eine kleine, aber signifikante Korrelation ist für ihn sichtbar, er kann viele Wörter, die Sie in ihren Facebook Posts verwenden, und viele Likes zusammenfassen, und dann ist die Vorhersage tatsächlich sehr, sehr präzise."
    Nehmen wir an, es gibt in der Gesamtbevölkerung sieben Prozent Homosexuelle, aber unter den Hörern von Sting beträgt die Quote 10 Prozent. Dann schließt der Algorithmus messerscharf, dass meine Wahrscheinlichkeit, schwul zu sein, ein bisschen höher ist, wenn ich auf Facebook Sting mag.
    Kosinski schreibt in seiner Arbeit, dass er das Geschlecht von Menschen mit 93-prozentiger Trefferquote vorhersagen kann, die politische Richtung mit 85 Prozent, die Hautfarbe mit 95 Prozent, den Beziehungsstatus mit 67 Prozent. Und das alles nur aus den relativ oberflächlichen Vorlieben, die ich auf Facebook äußere.
    "So, schauen wir mal, was meine Facebook la X so angeblich über mich verraten: erst mal psychologisches Geschlecht, da sitze ich genau in der Mitte zwischen weiblich und männlich."
    Einordnung der Persönlichkeit basierend auf Likes
    Ob die Analysen nun korrekt sind oder nicht, ist nicht entscheidend. Selbst bei einer schwachen Trefferquote finden sich Anwendungen. Die naheliegendste ist Online-Werbung. Ich kann sagen: Zeige diese Werbung Menschen, die die folgenden Likes haben. Und treffe dann zumindest mit einer gewissen Wahrscheinlichkeit meine Zielgruppe.
    Um zu sehen, ob das funktioniert, hat die deutsche Psychologie-Doktorandin Sandra Matz gerade an der Universität Cambridge zusammen mit Kosinski ein Experiment gemacht, die Ergebnisse sind noch nicht veröffentlicht. Partner war eine Kosmetikfirma. Es wurden zwei Anzeigen für eine Linie von Beauty-Produkten konzipiert – in der einen wurden mehrere Frauen in einer Partysituation gezeigt, in der anderen eine einzelne in einem ruhigen Setting zu Hause. Die erste Anzeige war für extravertierte Kundinnen gedacht, die zweite für introvertierte. Bei Facebook wurden entsprechend Anzeigen gebucht.
    Wohlgemerkt, hier wurden keine wirklichen Psycho-Profile erstellt – die Einordnung der Persönlichkeit basierte auf einem einzigen Like. Trotz dieser eher groben Methode war ein Unterschied bei der sogenannten "Konversionsrate" messbar. Das ist der winzige Anteil der Nutzer, die nicht nur auf die Anzeige klicken, sondern nachher ein Produkt kaufen. Bei der Anzeige mit Partystimmung etwa kauften fast doppelt so viele von den als extravertiert diagnostizierten Userinnen am Ende das Beauty-Produkt wie von den introvertierten. Die sprachen wiederum mehr auf die stimmungsvolle Anzeige an, unter der stand: "Schönheit muss nicht laut sein".
    Ein sehr simpler Versuch, der aber Wirkung zeigte. Stellen die Forscher sich damit in den Dienst der Verführungsindustrie?
    "Der Kern der Technologie ist, dass man Menschen besser versteht. Auf der einen Seite kann man das anwenden, um Menschen zu helfen, auf der anderen Seite ist es natürlich aber auch ein bisschen creepy und scary, zu sehen, dass man wirklich so viel über die Persönlichkeit, also über relativ intime Eigenschaften, ableiten kann, nur indem man sich das Facebook-Profil oder die Browsing History von einer Person anschaut.
    Aber so, wie es im Moment funktioniert, dass es im Prinzip komplett opak und intransparent ist, was über die Nutzer gesammelt wird und dann auch wie es eingesetzt wird, ich glaube das ist das, was den Leuten Angst macht."
    Verführt hat uns das Marketing ja immer schon, vielleicht finden deshalb viele solche Psycho-Methoden in der Werbung nicht so schlimm. Aber es gibt andere Bereiche des Lebens, wichtigere Entscheidungen. Etwa die Frage, ob jemand bei der Bank einen Kredit bekommt oder nicht.

    Traditionell wird bei solchen Entscheidungen auf die Kredithistorie des Bewerbers geschaut. In Deutschland macht das zum Beispiel die Schufa. Das Prinzip dahinter: Wer in der Vergangenheit seine Raten immer pünktlich gezahlt hat, der wird als vertrauenswürdig eingeschätzt. Ein Problem ist dieses System für Menschen, die keine Kredithistorie haben. Es gibt auch ganze Länder, etwa in Osteuropa oder Asien, in denen es keine verlässlichen Daten zur Kreditgeschichte gibt. Sollen diese Menschen keine Chance auf ein Darlehen haben? Oder kann man ihre Zahlungsmoral anders einschätzen – indem man ihr Psycho-Profil heranzieht?
    Gezielt Spielsüchtige ansprechen
    Genau das machen einige Firmen nun, zum Beispiel ein Unternehmen namens VisualDNA in Großbritannien. Dort war Jacob Wright beschäftigt – und nicht zufällig hat Wright vorher in Cambridge mit Michal Kosinski und Sandra Matz geforscht.
    "Das möchte ich ganz deutlich sagen: Die Absichten der Firma waren gut, wir waren davon überzeugt, dass man den Menschen einen besseren Service bieten kann, wenn man sie besser versteht. Wenn man einschätzen kann, wie zuverlässig einer seine Raten zurückzahlt, dann ist das eine bessere Grundlage für die Entscheidung, ihm Geld zu leihen, als eine Kredithistorie, die doch sehr vom persönlichen Hintergrund abhängt. Ein ehrlicher Mensch ist ein ehrlicher Mensch, ob er reich oder arm geboren wird, aber reiche Menschen haben meist eine bessere Kredithistorie als arme."
    Das klingt nach edlen Absichten. Inzwischen aber hat Jacob Wright VisualDNA verlassen. Warum, das erzählt er nicht – aber es könnte damit zusammenhängen, dass die Firma von einem Investor gekauft wurde, der auch Online-Spielcasinos betreibt. Die Idee liegt nicht fern, dass mit solchen Methoden auch gezielt Spielsüchtige angesprochen werden können.
    "Was wollen wir in der Welt, wo wir beliebig vernetzt sind? Welche dieser Daten wollen wir verwenden? Wir müssen davon ausgehen, dass tatsächlich Modelle gebaut werden können, die es uns wirklich erlauben, diese Vorhersagen zu machen. Wo wollen wir hin, und wo wollen wir nicht hin?"
    Ein Argument, das man von jedem Befürworter der Psycho-Algorithmen hört: Wenn Maschinen über uns entscheiden, ist das fairer, als wenn man das Menschen mit ihren Vorurteilen überlässt. Das sagt zum Beispiel Andreas Weigend, ehemaliger Daten-Chef beim Onlinehändler Amazon:
    "Wenn es mit der Freundin nicht so gut geht, ist wahrscheinlich die Chance, dass er sich jetzt um den Kredit kümmert, geringer, als wenn die Familie im besten Lot ist."
    Ähnlich ist es bei der Auswahl von Bewerbern für einen Job, argumentiert Michal Kosinski. Wenn es um Führungspositionen geht, dann besetzen weiße Männer die Positionen mit anderen weißen Männern. Algorithmen dagegen versprechen, die Auswahl objektiv und ohne Vorurteile, neudeutsch: ohne Bias, vorzunehmen – nur aufgrund von messbaren persönlichen Qualifikationen. Er möchte in seinem nächsten Job lieber von einem Algorithmus eingestellt werden, der sein Facebook-Profil anschaut, als von einem Menschen.
    "Den Algorithmus interessiert es nur, ob sie gut Zahlen addieren können oder Artikel schreiben, und je eher wir diese Entscheidungen von rassistischen und sexistischen und altersdiskriminierenden Menschen auf Algorithmen übertragen, umso besser. Natürlich kann man auch Algorithmen mit Vorurteilen bauen, aber wenn sie richtig konstruiert sind, sind sie viel gerechter als Menschen. Und im Übrigen kann man diesen Bias bei Algorithmen auch abschätzen, bei Menschen geht das nicht."
    Kommerzielle Psychodienste im Angebot
    Wenn sie so etwas hört, kann sich Sarah Spiekermann aufregen. Die Wirtschaftswissenschaftlerin an der Universität Wien hat ein Buch mit dem Titel "Networks of Control" geschrieben, in dem sie die zunehmende Macht der Algorithmen über unser Leben untersucht. Und denen Objektivität zu unterstellen hält sie für naiv. Auch Maschinen können Vorurteile haben, sagt sie:
    "Zunächst einmal muss entschieden werden: Welche Datensätze fließen überhaupt in die Berechnung ein? Bei der Entscheidung darüber, welche Informationen ich zugrunde lege für meinen Maschinenalgorithmus, da habe ich schon ganz viel Bias drin potenziell. Und dann ist natürlich auch die Art und Weise, welche Gewichtungen die Maschine setzt und sich herausrechnet, spielt ja eine Riesenrolle. Es kann ja sein, dass eine künstliche Intelligenz lernt, dass sie eher die Männer bevorzugt als die Frauen. Und wenn ich dann noch nicht mal dokumentiert habe, wie die Maschine lernt, und dieser Bias ist in meiner Maschine aber drin, dann vertraue ich einem Ding, von dem ich nicht nachvollziehen kann, was es tut. Was mir auch nicht sagen kann, warum es das tut, was es tut."
    Das heißt, die Aussage von dem Kollegen ist aus wissenschaftlicher Sicht sowas von naiv, dass es mir die Haare zu Berge streift (sic!).
    Kosinskis Arbeiten sind Wissenschaft, er will nur zeigen, was mit heutigen Mitteln geht. Aber in den letzten Jahren sind Firmen aus dem Boden gesprossen, die solche Psychodienste kommerziell anbieten: Die deutsche Firma Kreditech etwa ist in vielen Ländern aktiv, nur nicht in Deutschland, wo die Datenschutzregelungen schärfer sind. In den USA benutzt die Firma Evolv persönliche Profile, um Firmen bei der Einstellung neuer Mitarbeiter zu unterstützen. Und nach der Einstellung hört die Datensammelei nicht auf. Der Name der Firma Humanyze klingt sehr menschlich – aber ihre Tätigkeit erinnert eher an Big Brother: Die Mitarbeiter in Firmen, die den Dienst nutzen, tragen ständig eine Plakette am Leib, die die Bewegungen und Interaktionen aufzeichnet – das soll bei der Mitarbeiter-Bewertung helfen. Und schon beginnen die ersten Krankenversicherer, das Risiko eines Kunden mit Psycho-Verfahren einzuschätzen – einsame Menschen erzeugen höhere Kosten.

    Wir hinterlassen online nicht nur Spuren in Form von Klicks und Likes. Wir äußern uns auch explizit, etwa auf Facebook oder in E-Mails. Und unsere Sprache sagt viel über uns aus. Es gibt bereits kommerzielle Systeme, etwa von IBM, die aus einem Text eine Einschätzung der Persönlichkeit aufbauen. Man kann sogar den Twitter-Namen eines beliebigen Users eingeben und bekommt eine psychologische Analyse.
    "Ich habe ein Twitter-Profil, aber ich poste da nicht besonders viel, hauptsächlich interessante Links zu anderen Geschichten. Offenheit, Gewissenhaftigkeit runter auf 16 Prozent …plötzlich impulsiv… das überzeugt mich nicht, da hätten wir auch würfeln können."
    Kann man Daten nutzen, um Selbstmordkandidaten Hilfe anzubieten?
    Sonja Schmer-Galunder arbeitet in San Francisco für die amerikanische Firma Smart Information Flow Technologies, kurz SIFT. Für die NASA analysiert sie die Konversationen von Astronauten, die eine Reise zum Mars simulieren. Aufträge bekommt ihre Firma aber auch vom Militär und den Geheimdiensten. So gibt es Tausende von Sympathisanten des islamistischen Terrors, die sich in Online-Foren radikal äußern, aber nur ein Bruchteil schreitet auch selber zur Tat. Wie kann man sie von den harmlosen Aufschneidern unterscheiden? Sonja Schmer-Galunder muss da eher vage bleiben.
    "Man schaut sich hier öffentlich zugängliche informationsströme an. Das sind die Kommunikationen von Terroristen, die sind nicht einmal verdeckt. Und auch wenn man sich das über längere Zeit genauer anschaut, sieht man, dass die kognitive Komplexität direkt vor einem Gewaltakt immer niedriger wird bis hin zum Gewaltakt."
    Ganz ähnliche Entwicklungen machen depressive Menschen durch. Bei Facebook sind monatlich fast zwei Milliarden Menschen aktiv, und man kann rein statistisch ausrechnen, dass sich jeden Tag einige hundert von ihnen das Leben nehmen. Kann das soziale Netzwerk Computermethoden einsetzen, um Selbstmordkandidaten Hilfe anzubieten? Wäre die Firma nicht sogar dazu verpflichtet? Über die Details dringt auch hier nicht viel nach außen, aber Antigone Davis, die Leiterin der weltweiten Sicherheitsabteilung, bestätigt, dass daran gearbeitet wird.
    "Was wir aufgrund der Berichte von Freunden und Angehörigen gesehen haben war, dass es gemeinsame Merkmale gibt, einen ähnlichen Sprachgebrauch, die Länge eines Posts und so weiter. Das ermöglicht uns zwei Dinge: Erstens können wir sehr früh erkennen, dass jemand da das Risiko eines Suizids melden möchte, und können diese Option ganz oben auf der Liste anbieten und so schneller handeln. Und das zweite: Wir können die Posts der Selbstmordgefährdeten schneller identifizieren. Und was wir gerade ausprobieren: dass wir diesen Personen Hilfe anbieten, obwohl wir gar keine Meldung von Freunden oder Angehörigen haben."
    "Den Kern des Problems lösen"
    Facebook begibt sich da auf ein sehr schwieriges Terrain. Einerseits wird von der Firma erwartet, dass sie nicht untätig bleibt, vor allem seit sich im März eine 12-Jährige live auf Facebook das Leben nahm, die Kamera lief mit. Aber wollen wir eine Künstliche Intelligenz, die sich ständig um uns kümmert, uns aufmuntert, wenn es uns schlecht geht, und Alarm schlägt, wenn wir in Gefahr sind? Michal Kosinski hat wenig Bedenken gegen einen solchen wohlwollenden Computer. Angst hat er davor, dass diese Systeme in die Hände von Leuten geraten, die eher Böses im Schilde führen.
    "In manchen Ländern, etwa in Saudi-Arabien, steht auf Atheismus die Todesstrafe. Stellen Sie sich einen Bürger dieses Landes vor, der nie darüber redet, dass er nicht an Gott glaubt, der nie die Website des Atheisten Richard Dawkins besucht hat, aber ein schlauer Algorithmus schaut auf seine Spotify-Playlist oder auf die Liste der YouTube-Videos, die er angeschaut hat, die haben alle nichts mit Religiosität zu tun, aber der Algorithmus würde mit hoher Präzision sagen können, ob diese Person ein Atheist ist oder nicht."
    "Ich stimme völlig mit ihnen überein, Hurrikan sollten nicht passieren. Aber wissen Sie was? Der Hurrikan kommt. Es ist müßig, dagegen zu sein. Reden wir lieber darüber, wie wir uns auf den Hurrikan der Algorithmen vorbereiten."
    Kosinski sagt: Das Zeitalter der Privatsphäre ist vorbei. Auch Datenschutzgesetze können nicht verhindern, dass Daten in falsche Hände geraten – wir geben diese Daten ja meist freiwillig her. Aber wir können uns wappnen.
    "Statt zu versuchen, die Methoden zu verbieten, sollten wir lieber den KERN des Problems lösen. Ich gebe Ihnen ein Beispiel. Es wurde zuletzt viel über die Firmen geredet, die für Donald Trump versucht haben, Hillary-Wähler vom Wählen abzuhalten. Sehen Sie: Die meisten Leute würden sagen, das ist schrecklich und antidemokratisch. Aber verbieten Sie dafür nicht Facebook, sondern lösen Sie das Problem an der Quellen, und das ist in diesem Fall die Tatsache, dass Sie in den USA ungestraft negative Behauptungen über Ihren Gegner verbreiten dürfen. Wir sollten vielleicht darüber diskutieren, das zu verbieten. Oder falls die Nicht-Wähler das Problem sind: Führen Sie die Wahlpflicht ein!"
    "Wenn da also einer kommt so mit "privacy is dead" – mein Gott. Dass Sie solche Leute überhaupt interviewen!"
    Während viele europäische Datenschutzexperten noch der Meinung sind, sie könnten mit neuen Gesetzen dem Missbrauch persönlicher Daten Einhalt gebieten, fantasiert Michal Kosinski schon weiter. Neue Techniken führen zu immer neuen Datenquellen, die das digitale Bild unserer Persönlichkeit immer feinkörniger machen werden.
    "Ich zähle nur eins und eins zusammen"
    "Und wissen Sie was: Was kümmern uns die Daten, die wir auf Facebook hinterlassen, oder unsere Gesundheitsakte, wenn wir auf eine Welt zugehen, in der wir ein Genom in Sekunden sehr billig sequenzieren können, ohne dass Sie es überhaupt merken, man kann den Stuhl abwischen, auf dem jemand gesessen hat. Und man kann sehr viel über den Gesundheitszustand eines Menschen aus einem Video seines Gesichts entnehmen. Man kann den Puls messen, Gefühle messen, die Entwicklungsgeschichte, Hormonspiegel, genetische Faktoren. Dass ein menschlicher Doktor das nicht kann, heißt nicht, dass ein algorithmischer Doktor das nicht kann."
    Michal Kosinski spielt seine eigene Leistung gern herunter. Ich habe keine revolutionäre Methode erfunden, sagt er, ich zähle nur eins und eins zusammen – und bin ganz sicher, dass unter Ausschluss der Öffentlichkeit andere Leute schon an ganz anderen Dingen arbeiten. Seine "magische Soße" sei alles andere als Zauberei.
    "Die Idee hinter meiner Arbeit war nicht, dass ich da eine neue Zaubermethode erfunden habe. Ich wollte zeigen, dass man nicht viel über Maschinenlernen wissen muss, schon mit einfacher linearer Regression sind die Ergebnisse sehr präzise. Ein Oberschüler mit einem PC und einer Internetverbindung kann das nachbauen, man braucht keine besonders rechenstarken Computer dafür."