Archiv

Millionenfache Gesichtserkennung
Juristin warnt vor Aufhebung der Anonymität durch "Pim Eyes"

Eine polnische Firma bietet eine Suchmaschine an, die mit automatisierter Gesichtserkennung Fotos von Millionen Menschen findet. Damit gefährde sie vor allem Gruppen, die von Stalking und Hass betroffen seien, sagte Lea Beckmann von der Gesellschaft für Freiheitsrechte im Dlf.

Lea Beckmann im Gespräch mit Michael Borgers |
Eine Teilnehmerin mit einer Maske um die Gesichtserkennung zu umgehen bei einer Aktion gegen gegen den Ausbau von Videoüberwachung im öffentlichen Raum am Bahnhof Südkreuz in Berlin am 27.11.2017. Das Pilotprojekt Sicherheitsbahnhof von Bundespolizei, Bundeskriminalamt und Bundesinnenministerium testet seit dem 1. August 2017 automatisierte Gesichtserkennung durch die Bundespolizei im Bahnhof Südkreuz. Aktion gegen Videoüberwachung
Eine Demonstrantin protestiert gegen automatisierte Gesichtserkennung im öffentlichen Raum (imago images / Bildgehege)
Man lädt ein Foto hoch und bekommt kurz darauf angezeigt, welche weiteren Bilder es von der abgebildeten Person im Netz gibt - und auf welchen Seiten. Das ist die Funktionsweise von "Pim Eyes", einer in Polen entwickelten Software. Kritiker schlagen Alarm: Schließlich ermöglicht es das Programm, beliebige Menschen auf der Straße zu fotografieren und anschließend mehr Informationen über sie zu recherchieren, wie etwa Wohnwort und Beruf.
Es bestehe die Gefahr, dass dadurch Anonymität aufgehoben werde, warnte die Juristin Lea Beckmann von der Gesellschaft für Freiheitsrechte im Dlf. Sie hält "Pim Eyes" für rechtswidrig, denn Biometrische Daten seien laut der Datenschutzgrundverordnung der EU besonders schutzbedürftig. Sie dürften allenfalls mit Einwilligung genutzt werden.
"Pim Eyes" sei "extrem gefährlich"
Das sei bei "Pim Eyes" nicht der Fall: Die Firma suche das Netz nach frei verfügbaren Fotos von Personen ab und führe sie in einer Datenbank zusammen, sodass man sie anschließend mit Software zur automatischen Gesichtserkennung durchsuchen könne. "Insbesondere betrifft das auch Fotos aus sozialen Medien", sagte Beckmann und warnte, das könne "extrem gefährlich" werden.
Eine Gefahr sei, dass Anonymität aufgehoben werde. "Das betrifft mit einer besonderen Dringlichkeit Gruppen, die von Stalking und Hass betroffen sind oder sonst besonders auf Anonymität angewiesen sind." Dazu gehörten unter anderem Frauen, Trans-Personen, Nicht-Heterosexuelle, religiöse Minderheiten und politisch aktive Menschen.
Ein 3D Modell eines männlichen Kopfes, anhand biometrischer Daten
Privatsphäre ade
Das Start-Up Clearview hat eine Gesichtserkennungs-App entwickelt. Grundlage dafür sind angeblich über drei Milliarden Fotos, die aus dem Internet heruntergeladen wurden. Nach Ansicht von Experten könnte solch ein Programm unkalkulierbare Folgen haben.
Hinzu komme, dass die Programme zur automatischen Gesichtserkennung voreingenommen seien: "Die haben einen höheren Fehlerquotienten bei Personen of Color, also nicht-weißen Personen, und Frauen", sagte Beckmann. Relevant sei das auch, wenn Sicherheitsbehörden auf die Daten zugreifen und falsche Treffer kreiert würden. Schon jetzt würden die Daten von "Pim Eyes" von einem schwedischen Unternehmen genutzt, das sein Produkt wiederum Europol zur Verfügung stelle.
Als einzelne Person könne man sich direkt an "Pim Eyes" wenden und gegen die Nutzung eigener Fotos vorgehen. Es seien aber vor allem die Datenschutzbehörden gefragt, durchzugreifen, forderte die Juristin.
In der Vergangenheit war bereits das US-amerikanische Start-up Clearview kritisiert worden, weil es eine Gesichtserkennungs-App entwickelt hatte, die vor allem für Sicherheitsbehörden gedacht ist.