Freitag, 29. März 2024

Archiv

EU-Forschungsprojekt
Einreisekontrolle mit Avatar und Lügendetektor

Weniger Stau und mehr Sicherheit an Europas Außengrenzen, das ist die Vision beim Forschungsprojekt "iBorderCtrl". Und so könnten demnächst ein computeranimierter Grenzbeamter und eine KI-Software darüber entscheiden, wer einreisen darf und wer nicht.

Peter Welchering im Gespräch mit Arndt Reuning | 21.11.2018
    Polizeistation im kalifornischen Berkeley. Die Beamten testen 1924 einen Lügendetektor an einem Gefängnisinsassen.
    Schon der klassische, analoge Lügendetektor war stets umstritten. Kann eine digitale Version mit "Künstlicher Intelligenz" zuverlässige Einschätzungen für die Grenzkontrolle liefern? (imago/UIG)
    Arndt Reuning: Die Europäische Union möchte Reisende an der Grenze einem Lügendetektortest unterziehen. Das wird derzeit intensiv diskutiert. Der Test soll Teil des Grenzsystems "iBorderCtrl" sein. Wer die Grenze passieren will, wird dann von einem Avatar befragt. Und eine spezielle Software soll bei der Entscheidung helfen, ob die Person die Wahrheit gesagt hat. Mein Kollege Peter Welchering hat recherchiert, wie das im Detail funktionieren soll. Was genau steckt denn hinter diesem Kontrollsystem iBorderCtrl?
    Peter Welchering: Noch handelt es sich um ein Forschungsprojekt, das die Europäische Union mit 4,5 Mio Euro fördert. iBorderCtrl besteht aus mehreren unterschiedlichen Projekten. Acht sind inzwischen bekannt geworden. Da geht es beispielsweise um ein Biometrie-Modul, das die Identität von Reisenden anhand von Fingerabdrücken und Handvenen-Bildern feststellen kann. Ein anderes Modul prüft die Echtheit von Reisedokumenten. Dann gibt es auch ein Modul, das in Autos versteckte Personen aufspüren soll. Also, es ist ein sehr umfassendes Grenzkontrollsystem, das da aufgebaut werden soll. Der Lügendetektortest, der hängt mit zwei weiteren Modulen zusammen, nämlich dem ELSI-System, das soll die Antworten des Reisenden auf Fragen des KI-Avatars mit Angaben aus sozialen Medien überprüfen. Und zweitens mit einem Modul für die Risikobewertung, das entscheidet letztlich darüber, beziehungsweise macht einen Vorschlag für den Grenzbeamten, ob der Reisende einreisen darf, also kein Risiko darstellt oder ob er gegebenenfalls doch gefährlich ist.
    Reuning: Also die KI, die Künstliche Intelligenz kommt damit zu einer Einschätzung, die bisher von einem Menschen vorgenommen wurde - wie fällt denn die Software überhaupt ihr Urteil?
    Welchering: Der Reisende muss Fragen einer KI-Software beantworten. Dabei wird er von einer WebCam gefilmt. Per Mustererkennung werden dann zunächst seine Mimik und später auch Sprechweise ausgewertet. Hinzukommen soll noch ein Sensor, der die Körpertemperatur misst. Ob der mit einem Sensor z.B. zur Messung des Hautwiderstandes gekoppelt ist, das konnten die Entwickler von European Dynamics in Luxemburg mir nicht sagen. Jedenfalls wird so ein Aussageprofil des Reisenden erhoben. Also, der wird gefragt, was er in den nächsten Tagen so vor hat, ob er etwas zu verzollen hat, wie es ihm beim letzten Mal gefallen hat. Seine Mimik, Sprechweise und vermutlich der Hautwiderstand werden dann ausgewertet und diese Muster werden mit sogenannten Verifikationsmustern abgeglichen. Da geht es also in diesem Modul darum, wie jemand sich verhält und antwortet, nicht um die Antworten selbst; um die kümmert sich ein anderes Modul. Die ganz einfache Frage dahinter ist hier: Wirkt der Reisende nervös, ängstlich, betont kontrolliert? Solche Anzeichen deuten darauf hin, dass er nicht die Wahrheit sagt.
    Auch Social-Media-Accounts werden ausgewertet
    Reuning: Wie stark werden die Ergebnisse des Lügendetektortest dann in die Gesamt-Risikobewertung einfließen?
    Welchering: Da gibt sich die EU im Augenblick noch bedeckt. Sie sagen nur, dass auch Angaben aus sozialen Medien und Fakten der Dokumentenprüfung in die Risikobewertung mit einfließen. Wir wissen weder, mit welchen Gewichtungen dort gearbeitet wird, noch welche genaue Datengrundlage für die Risikobewertung herangezogen wird. Die Mustererkennung aus dem Lügendetektortest ist jedenfalls nicht die alleinige Bewertungsgrundlage.
    Reuning: Um diesen Lügendetektortest gibt es ja eine heftige Diskussion. Wenn dessen Ergebnisse aber nicht die alleinige Entscheidungsgrundlage sind, ist dann die ganze Aufregung um iBorderCtrl überflüssig?
    Welchering: Im Gegenteil, Aufregung ist wahrscheinlich angesagt. Die Wahrscheinlichkeitsberechnung für die Muster des Lügendetektortest an sich ist fraglich. Wenn dann aber noch weitere Daten u.a. aus sozialen Medien hinzukommen, und wenn wir nicht wissen, wie welche Daten gewichtet werden, welche Kriterien zugrundeliegen, dann ist die Entscheidung überhaupt nicht nachvollziehbar. Zudem gibt es ein paar methodische Unklarheiten.
    KI-Entscheidungskriterien sind intransparent
    Reuning: Was ist von der Methode her unklar?
    Welchering: Die Europäische Kommission selbst gibt als eingesetzte Methode "maschinelles Lernen an", sagt aber nicht über die Trainingsdatensätze, mit denen das System für die Risikobewertung eingestellt wurde. Die Auswahl der Trainingsdaten bestimmt aber ganz wesentlich, mit welchen Vorurteilen das System dann hinterher urteilt. Außerdem spricht die EU von Schlüsselmustern, mit denen gearbeitet wird, ohne aber die genaue Methode der Mustererkennung aufzuzeigen. Drittens legt die Beschreibung des Risikobewertungstools nahe, dass mit einer Methode gearbeitet wird, die auch die Schufa verwendet. Man nennt das logistische Regression. Bei dieser Methode hängt alles davon ab, welche Kriterien für die Entscheidung zugrunde gelegt werden und wie diese Kriterien gewichtet werden. Genau da sind noch eine Menge Fragen offen bislang.