Freitag, 19. April 2024

Archiv

Künstliche Intelligenz in der Rechtssprechung
Knast für Roboter?

Autonomes Fahren, Algorithmen zur Studienplatzvergabe, Kriegsroboter – Computerprogramme sind mittlerweile so ausgereift, dass sie für den Menschen Entscheidungen treffen könnten. Doch was, wenn etwas schief geht? Für die Rechtssprechung ist Künstliche Intelligenz noch Neuland.

Von Maximilian Schönherr | 05.01.2019
    Justitia vor grauem Himmel
    Eine Herausforderung für Justizia: Wie kann Künstliche Intelligenz haftbar gemacht werden? (imago stock&people)
    Die Bundesregierung hat Ende letzten Jahres einen Leitfaden zum Umgang mit Maschinenlernen und Künstlicher Intelligenz veröffentlicht, an dem unter anderem zwei Juristen der Universität des Saarlands beteiligt waren, die Professoren Georg Borges und Christoph Sorge. Für sie beginnt rechtliches Neuland schon bei Entscheidungshilfen durch Software, etwa bei der Auswahl von Studienkandidaten aufgrund charakterlicher Merkmale - statt zum Beispiel wegen Abiturnoten. Eine Diskriminierung durch Künstliche Intelligenz liegt hier auf der Hand. Was aber, wenn KI nicht nur berät, sondern über Leben und Tod entscheidet, etwa im teilautonom fahrenden Auto in der letzten Hundertstel Sekunde vor einem Aufprall? Der Wagen entscheidet dann, der oder die müssen sterben, andere nicht. Georg Borges:
    "Jetzt sind wir beim Kern der Geschichte. Wenn ich mit einem primitiven Instrument arbeite, dann ist die Zurechnung relativ schnell geschehen. Wenn ich jetzt jemandem mit einem Hammer auf den Kopf schlage, dann wird jeder sagen, das war der Borges, denn der hat den Hammer geführt. Wenn ich aber ein komplexes autonomes System habe, das alles Mögliche macht, aber dann unvorhergesehen zum Hammer greift und den jemandem über den Kopf schlägt, dann ist die Frage, ob das meine Tat war, schon eine ganz andere. Deswegen ist das eine neue Frage und eine durchaus erhebliche Herausforderung für das Recht."
    "Parallele zwischen Kriegsrobotern und autonomen Fahren"
    Die Leiterin des Lehrstuhls für Wissenschaftstheorie und Technikphilosophie an der Universität Stuttgart Catrin Misselhorn zieht den Vergleich zu Tötungsmaschinen:
    "Es gibt eine Parallele zwischen den Kriegsrobotern und dem autonomen Fahren, die darin gesehen wird, dass die autonomen Fahrzeuge, wenn sie in solchen Situationen entscheiden sollen, auch so etwas wie eine Targeting-Funktion haben: Sie müssen dann eine Person aufgrund bestimmter Merkmale auswählen, die sie dann anfahren."
    Die Philosophin steht auf dem Standpunkt, Systeme, die man in ihrer Komplexität nicht begreifen kann, gar nicht erst einzuführen. Eine aufgeklärte Gesellschaft sollte das autonome Autofahren genau aus diesem Grund ablehnen. Georg Borges sieht dagegen gerade bei Maschinen-Entscheidungen nie dagewesene juristische Möglichkeiten.
    "Gerade weil es eine Maschine tut, haben wir zum ersten Mal die Chance, an den Kern der Entscheidung vorzudringen. Und dieses Bedürfnis ist natürlich da. Wenn wir einen Menschen haben, dann wissen wir, dass wir in dessen Hirn nur sehr schwer reingucken können, jedenfalls zum heutigen Stand. Deswegen tun wir es auch nicht, sondern wir verlangen nur, dass er nicht mit der Person, über die er urteilt, verwandt ist und sonst einen Interessenskonflikt hat. Aber bei der Maschine haben wir die Chance, zu schauen, auf welcher Grundlage und nach welchen Parametern die Maschine entscheidet. Das heißt, wir haben Sehnsucht nach einem Plus an Gerechtigkeit. Und das wollen wir ausschöpfen."
    Sind neuronale Netze zurechnungsfähig?
    Das liefe in der Konsequenz auf eine neue Frage hinaus: Kann ein Neuronales Netz für zurechnungsfähig erklärt werden? Christoph Sorge, Rechtsinformatiker aus Saarbrücken:
    "Das neuronale Netz kann ich nicht einsperren und auch nicht auf Schadensersatz verklagen, denn es hat kein Vermögen. Muss ich daran etwas ändern? Muss ich das neuronale Netz mit einem Vermögen ausstatten? Wahrscheinlich nicht, aber es ist ein Gedanke, der schon Leuten gekommen ist. Die nächste Frage: Ist der haftbar, der den Algorithmus entworfen, oder der, der ihn mit Trainingsdaten gefüttert hat? Da traue ich mir ehrlich gesagt die Antwort auch noch nicht ganz zu. Ich weiß nicht, ob Du das anders siehst?"
    Georg Borges: "Man kann Computer, man kann Roboter ganz gut einsperren, und es wird derzeit diskutiert, ob das ein sinnvoller Ansatz ist. Sie können einen Roboter ja für fünf Jahre ausstellen. Dann ist er fünf Jahre eingesperrt."