Donnerstag, 25. April 2024

Archiv


Ethische Grenzen der Videoüberwachung

Bei der Videoüberwachung kommen zunehmend sogenannte intelligente Systeme zum Einsatz: Sie erkennen ungewöhnliche Bewegungsmuster und schlagen automatisch Alarm, wenn Personen sich scheinbar merkwürdig verhalten. Wissenschaftsethikern der Uni Tübingen bereitet das Sorgen.

Von Thomas Wagner | 15.07.2010
    Der Geschwister-Scholl-Platz in der Innenstadt von Tübingen: Auf der Freifläche plätschert ein Springbrunnen. Im Hintergrund ragt die Aula der Universität empor. Weil hier immer viel los ist, wünschen sich einige der Passanten aus Sicherheitsgründen Videokameras zur Überwachung:

    "Ich denke, es würde weniger zu Vandalismus kommen, und man könnte auch irgendwelche Verbrechen in der Nacht verhindern, obwohl Tübingen auch eine sichere Stadt ist. Wenn man vor der Uni gefilmt wird, hat sich da keiner etwas vorzuwerfen."

    "Ich würde mich sicherer fühlen. Auch wenn ich beobachtet werde. Das würde ich in Kauf nehmen."

    Keine fünf Gehminuten entfernt, im sogenannten "Verfügungsgebäude" der Uni Tübingen, sehen die Experten das Thema Videoüberwachung bei Weitem nicht so unproblematisch. Dort ist das Internationale Zentrum für Ethik in den Wissenschaften untergebracht. Seit Kurzem beschäftigen sich die Fachleute mit einem Projekt, das etwas kompliziert klingt. "MuVit – Mustererkennung und Video-Tracking. Sozialpsychologische, soziologische, ethische und rechtswissenschaftliche Analysen." Kurz gesagt, geht es dabei um ethische Fragen in Zusammenhang mit der sogenannten intelligenten Videoüberwachung, die über die klassische Videoüberwachung weit hinausgeht. Andreas Traut ist Projektkoordinator:

    "Bislang ist es so, dass die Bilder aufgenommen werden. Und dann werden die an die Sicherheitszentrale übertragen. Und da werden die beobachtet und entsprechend mit eingegriffen oder auch nicht. Es hat sich nun ergeben, dass die derartige Nutzung von Videokameras an Problemen leidet. Ein Problem ist, dass die Kamera sehr viele Daten produzieren, aber immer weniger Informationen. Wenn immer Bilder, eine Bilderflut sozusagen auf die Sicherheitsakteure einflutet, dann kann da weniger genuine sicherheitsrelevante Information herausgezogen werden."

    Die Polizeibeamten, die in der Einsatzzentrale einer Großstadt ein Auge auf alle eingehenden Videosignale haben, sind mit der riesigen Flut der eingehenden Bilder hoffnungslos überfordert. Deshalb tüfteln die Forscher an sogenannten intelligenten Überwachungssystemen. Dabei geht es um bestimmte Bewegungsmuster, die Verdacht erregen und von einer Software automatisch erkannt werden können. Beispiel: Jemand stellt größere Gegenstände auf einem Bahnsteig ab. Die bleiben dort stehen, während sich die Person wieder entfernt. Das System schlägt Alarm, rückt den stehen gebliebenen Koffer in den Fokus, reagiert allerdings genauso, wenn sich ein Obdachloser auf dem Bahnsteig zum Betteln niederlässt. Oder: Auf einem Flughafen laufen alle in eine Richtung, nämlich vom Check-in über die Sicherheitskontrolle bis zum Abfluggate. Was aber, wenn jemand genau andersherum läuft? In einem solchen Fall schlägt das intelligente Videoüberwachungssystem Alarm. Das aber ist häufig problematisch:

    "Die eine Ebene ist natürlich, dass man vom Verhalten auf eine Absicht schließt, unter Umständen eben auch auf eine böse Absicht in irgendeiner Art und Weise. Und wir wissen natürlich nicht, ob dieser Mensch, der da gegen die allgemeine Laufrichtung läuft, nicht einfach nur zurück wollte, um seine Freundin nur zu küssen. Das ist ja kürzlich tatsächlich passiert, als einer nur aus dem Sicherheitsbereich herauslief und schon als Terrorist verdächtig war."

    Erläutert Professor Regina Amnicht Quinn, Leiterin des Tübinger Forschungsprojektes. Wer von einem vorgegebenen Bewegungsmuster abweicht, gerät ganz automatisch in das Raster eines Anfangsverdachts. Das intelligente Überwachungssystem schlägt Alarm. Das empfindet Regina Amnicht Quinn als problematisch. Denn aus einer relativ eng umrissenen Definition von Normalität, nämlich Laufen nur in eine Richtung, wird ganz unvermittelt Normativität, also eine Art ungeschriebenes Gesetz:

    "Das heißt, es ist nicht nur normal, sich zu bewegen. Sondern jemand, der nicht in den Fokus der Aufmerksamkeit geraten will, muss sich in einer bestimmten Art und Weise bewegen. Das mag am Flughafen weniger problematisch sein als am U-Bahnhof, wo dann unter Umständen Leute, die behindert sind, schon auffällig werden oder Leute, die länger stehen, als angemessen; Leute, die sich gar nicht bewegen, die betteln oder Leute, andere Probleme haben, von denen wir nichts wissen, die aber keine sicherheitsrelevanten Probleme sind."

    All solche Gruppen fallen ins Raster intelligenter Videoüberwachungssysteme – Techniken, die bestimmte gesellschaftliche Gruppen aufgrund der systemimmanenten Auswahl- und Verdachtskriterien in den Fokus der Aufmerksamkeit rücken, ohne jegliche Bedeutung für die Sicherheit. Wie bedenklich solch ein automatisierter Auswahlprozess sein kann, erläutert Andreas Traut an einem Beispiel:

    "Es hat sich gezeigt, dass beispielsweise die Gesichtserkennung dieser Kameras, die auch all diese Kameras sind, ein Vorurteil aufweisen: Sie erkennen ein Mensch mit schwarzem Gesicht sehr viel besser und sehr viel häufiger. Jedenfalls geraten Menschen mit schwarzem Gesicht sehr viel häufiger in den Fokus dieser Kameras. Nun hat die Forschung ergeben, dass es sein kann, selbst wenn sich kein sicherheitsrelevanter Verdacht erhärtet bei dieser Person, die in den Fokus gerät, dass sich also bei denjenigen, die diese Bilder auswerten und zu Gesicht bekommen, bestimmte Vorurteile bilden und verfestigen. Nämlich: Aha, wir sehen, immer wieder geraten Schwarze in den Fokus oder Obdachlose: Irgendetwas muss da dran sein, obwohl diese Vorurteile keine Basis in der Wirklichkeit haben. Insofern wäre hier eine Fortschreibung der Diskriminierung ein Problem, das die Ethik zu behandeln hat."

    Die Fragestellung lautet also: Inwiefern belegen die neuen intelligenten Videoüberwachungssysteme Randgruppen überproportional häufig und völlig zu Unrecht mit einem Anfangsverdacht? Das ist aber nur eine von vielen Fragestellungen, denen die Tübinger Forscher nachgehen. Eine andere lautet: Wie beeinflussen intelligente Videoüberwachungssysteme von vornherein das Handeln der Menschen, die auf einer öffentlichen Fläche überwacht werden? Wie ändern Menschen ihr Verhalten, wenn sie eine Überwachungskamera entdecken?

    "Beispielsweise im Kontext von Erhöhung von Hilfsbereitschaft oder auch Verringerung von Hilfsbereitschaft, so nach dem Motto: Da ist ja eine Kamera, die zeichnet das ja alles auf. Ich bin hier gar nicht zuständig. Und es geht dann natürlich auch auf eine politische Ebene. Da müssen wir uns fragen: Verändert sich Meinungsäußerung auf öffentlichen Plätzen, wenn die von Videokameras überwacht werden, gerade wenn man im Hinterkopf diese Gedanken hat, dass da halt auch eine Verknüpfung stattfinden kann von Daten, einmal Videodaten, dann aber möglicherweise auch Handy-Daten und sich daraus eben auch durchaus Szenarien entwickeln können, die gesellschaftlich problematisch sind."

    Erläutert Alma Kollek, wissenschaftliche Mitarbeiterin an dem Tübinger Projekt. Sie beschäftigt sich auch mit der Möglichkeit des Missbrauches solcher Daten, die über intelligente Videoüberwachungssysteme erhoben werden – ein Datenmissbrauch, von dem die Betroffenen niemals Kenntnis erlangen:

    "Da kann beispielsweise eine wirtschaftliche Nutzung der Videoüberwachung geschehen. Beispielsweise wäre eben denkbar, dass man erkennt, wer einen Laden XY betritt, geht danach mit hoher Wahrscheinlichkeit Laden Z. Und dann könnte man beispielsweise gezielt Werbung für Laden Z bei dem ersten Laden machen analog quasi zu dem, was schon bei Amazon passiert, dass man, wenn man Buch X kauft, auch Buch Y vorgeschlagen bekommt, weil 86 Prozent der Nutzer eben beide Bücher gekauft haben. Und das ließe sich auf Videoüberwachung theoretisch auch übertragen."

    Auch die Frage, welchen präventiven, vorbeugenden Charakter intelligente Videoüberwachung entwickelt, wollen die Tübinger Forscher in den nächsten Monaten und Jahren erörtern. Ganz wichtig: Die Experten wollen diese Themen interdisziplinär angehen, in Zusammenarbeit mit Soziologen, Psychologen, Juristen. Und sie arbeiten an ihren Forschungen parallel zu jenen Ingenieuren, die derzeit die technischen Details für die neuen intelligenten Videoüberwachungstechnologien auszutüfteln. Und das empfindet Projektleiterin Professor Regina Ammicht Quinn als überaus wichtig:

    "Wir haben jetzt im Vorfeld die Chance, während der Technikentwicklung zu überlegen: Welches wären denn innerhalb dieser Technikentwicklung die ethisch relevanten Punkte? Gibt es da welche? Kann eine Technik so oder entwickelt werden? Es ist nicht ethisch relevant, ob der Knopf grün oder blau ist. Aber es ist unter Umständen ethisch relevant, welche Vorrichtungen tatsächlich da sind. Wie, auf welche Art und Weise diese Aufmerksamkeitslenkung passiert. Oder sozusagen welche Grundbegriffe oder welche Grundurteile so einer Mustererkennung zugrunde gelegt werden. Und darüber hinaus werden wir natürlich nachdenken über Einsatzmöglichkeiten, Einsatzorte und die Art und Weise eines Einsatzes. Wir werden eine Handreichung entwickeln, wo wir versuchen zu sagen, wie und unter welchen Umständen von wem und unter welchen Bedingungen ein Einsatz solcher Kameras uns akzeptabel erscheint."

    Drei Jahre lang wollen die Tübinger Wissenschaftler an diesen Fragestellungen forschen – in der Hoffnung, dass ihre Handlungsempfehlungen unmittelbar in den Spielregeln für die Anwendung der neuen Überwachungssysteme ihren Niederschlag finden.