Montag, 26.10.2020
 
Seit 14:35 Uhr Campus & Karriere
StartseiteForschung aktuellForensische Software im Kampf gegen Kinderpornografie23.09.2020

Digitale ErmittlungsmethodenForensische Software im Kampf gegen Kinderpornografie

Wie kann Kinderpornografie besser bekämpft werden? Das ist eines der zentralen Themen beim diesjährigen EDV-Gerichtstag, einer juristischen Fachtagung. Den Ermittlern hilft dabei eine forensische Software, die enorme Zahlen an Bildpixeln auswerten kann.

Von Peter Welchering

Hören Sie unsere Beiträge in der Dlf Audiothek
Eine Polizistin sitzt vor einem Computer, auf dessen Bildschirm pornografisches Material zu erkennen ist. (Imago)
Kampf gegen Kinderpornografie: Die Polizei in Niedersachsen wird künftig Künstliche Intelligenz bei der Überprüfung von fraglichen Inhalten einsetzen (Imago)
Mehr zum Thema

Organisation "Innocence in Danger" "Täter gehen immer strategisch vor"

Cybergrooming Online-Chats und -Spiele als Einfallstor für sexuellen Missbrauch

Mit Künstlicher Intelligenz gegen Kinderpornografie Mehr Möglichkeiten für Ermittler

Internet-Kriminalität Künstliche Intelligenz im Kampf gegen Kinderpornografie

Sexuelle Gewalt Warum missbrauchten Kindern oft nicht geholfen wird

Ein Bereich ist in den vergangenen Jahren und Monaten immer stärker in den Blickpunkt der Ermittlungsbehörden und der Öffentlichkeit geraten: Straftaten im Bereich Kinderpornografie. Die polizeiliche Kriminalstatistik hält alarmierende Zahlen bereit. 2018 stieg die Zahl der Straften im Bereich Kinderpornografie von 6.512 Fällen auf 7.449 Fälle. Die Ermittler kommen nicht mehr hinterher. Auf dem EDV-Gerichtstag werden deshalb neue digitale Ermittlungsmethoden im Bereich Kinderpornografie vorgestellt.

Welche Technik setzen die Ermittlungsbehörden bei der Suche nach Kinderpornografie bislang ein?

Durchschnittlich müssen in einem Fall drei Petabyte Daten ausgewertet werden, drei Billiarden Byte. Das entspricht 3.000 normalen Festplatten. In der Regel haben Polizisten vor Ort Server, also Hardware, beschlagnahmt, auf denen kinderpornografisches Material vermutet wird oder sogar teilweise schon gefunden wurde. Und diese Hardware wandert dann zu den Ermittlern. Die müssen die Daten und Dateien dann auswerten. Software soll dabei helfen, Beweismaterial sicherzustellen und vor allen Dingen kinderpornografisches Material in dieser Datenflut zu erkennen und zu identifizieren.

Bisher werden sogenannte Hashes oder Prüfsummen von Bildern erstellt, und die werden mit den Prüfsummen einer Datenbank mit entsprechend klassifiziertem Material verglichen. Das heißt, Bildfarben, Bildaufbau, Verteilung von Hautfarben werden von einem Foto erhoben, daraus wird eine Art Fingerabdruck des Bildes, eben eine Prüfsumme oder ein Hash erstellt, und dann wird gesucht: Hat die Datenbank Material demselben Fingerabdruck?

Erlaubt die Ähnlichkeit von Bildern wirklich die eindeutige Identifizierung von kinderpornografischem Material?

Die Quote der falsch-positiven Meldungen war und ist bei diesem Verfahren relativ hoch, und zwar seit dem Jahr 2010. Bis dahin war die falsch-negative Quote zu hoch, also kinderpornografische Material, das nicht erkannt wurde. Den Ermittlern ging also zuviel durch die Lappen. Die "Trefferquote" bei den Hashwerten hängt ja immer von dem Material ab, das in der Datenbank hinterlegt ist und zweitens vom Grad der Übereinstimmung. Vor allen Dingen die Verteilung von Hautfarben spielt bei dieser Art der Abgleichmethoden eine große Rolle. In den Jahren 2009 und 2010 hatten wir ja eine gesellschaftlich stark bewegende Debatte, wie Kinderpornografie besser bekämpft werden kann. Deshalb haben die Ermittlungsbehörden ihr Vorgehen in einigen Punkten geändert

Damals wurden die Datenbanken mit Vergleichsmaterial massiv aufgerüstet. Und die Schwellwerte wurden herabgesetzt, weil man sich sagte: besser ein Softwarealarm zu viel als zu wenig. Bei einem Alarm schaut eben noch mal ein Ermittler drauf. Ist es ein Fehlalarm, hat der halt einige Minuten Arbeitszeiten vergeblich investiert, mehr ist nicht passiert. Aber es gehen weniger Fälle durch die Lappen. Dennoch: Ein Ermittler kann ungefähr 500 Bilder pro Stunde bewerten. Das ist ja auch eine enorme psychische Belastung für die Ermittler.  Bei den jetzt eingesetzten Datenbankabgleichen fallen so viele Bilder für die Ermittler an, dass sie einfach nicht mehr hinterherkommen.

Wie kann Künstliche Intelligenz die Ermittler bei der Suche nach kinderpornografischem Material unterstützen?

Eigentlich ziemlich banal durch das Zählen von Pixeln mit ihren Farbwerten und durch Wahrscheinlichkeitsrechnung. Wenn diese forensische Software ein Bild einordnen soll, dann werden in der Regel neuronale  Netze eingesetzt, die ähnlich arbeiten wir das menschliche Gehirn. Jedes Bild besteht aus hunderttausenden Pixeln. Jeder Pixel kann 256 unterschiedliche Farbwerte haben. Und aus diesen Farbwerten wird dann für das gesamte Bild die Wahrscheinlichkeit berechnet, was auf dem Bild zu sehen ist. Je nachdem, aus wie vielen Pixeln das Bild besteht, haben wir es mit 256 hoch 100.000 möglichen Bildern zu tun. Eine enorme Zahl. Die Wahrscheinlichkeit, ob es sich hier um kinderpornografisches Material handelt oder nicht, ergibt sich dann aus der Übereinstimmung der Farbwerte der Pixel mit dem Vergleichsmaterial.

Wie hoch ist bei diesem Verfahren die Rate der falsch-positiven Meldungen?

Die ist natürlich erheblich geringer als bei der alten Datenbanklösung mit den Prüfsummen. Aber man darf nicht vergessen: Es geht hier um Wahrscheinlichkeiten. Deshalb wird auch darüber debattiert, ab wann und wie intensiv ein Ermittler einbezogen werde muss. Der Punkt ist: Vollkommen automatisch kann auch hier keine Zuordnung getroffen werden. Das geben zumindest altgediente Ermittler und Strafrechtler zu bedenken. NRW will das Microsoft-system in wenigen Wochen vorstellen, und dann muss entschieden werden, wie dieser Automatismus ablaufen soll und wo er enden soll

Das könnte sie auch interessieren

Entdecken Sie den Deutschlandfunk