Montag, 29. April 2024

Archiv

Künstliche Intelligenz
Moral ohne Bewusstsein

Bei all ihren wundersamen Fähigkeiten - eines fehlt der Künstlichen Intelligenz: Sie hat keine Gewissensbisse. Ob KI zu ethischen Entscheidungen fähig ist, darüber debattiert die Fachwelt heftig. Denn dahinter steckt die Frage: Was ist das überhaupt - Moral - und kann man das lernen?

Von Carina Fron | 10.08.2019
Datenträger schwebt vor dem Gesicht einer Frau.
KI kann simple moralische Entscheidungen treffen - doch wie weit darf diese Entwicklung gehen? (Hans Klaus Techt/picture alliance)
Sophie Jentzsch: "Prominente Ratschläge von dieser KI sind, dass man lieber Brot in den Toaster steckt als eine Socke oder lieber keine Batterien in die Mikrowelle zu tun, ist auch ein guter Tipp."
Bei solchen Vorschlägen muss Sophie Jentzsch über ihre eigene Erfindung schmunzeln: eine KI, die moralische Entscheidungen trifft.
"Man kann Fragen an dieses System stellen, wie wünschenswert gewisse Aktivitäten sind. Und das System entscheidet, ob das eher eine ratsame oder eher eine abzulehnende Aktion ist und bewertet quasi die Aktion auf einem allgemeinen gut und böse Level."
Moral Choice statt Multiple Choice
Entwickelt hat sie die "Moral Choice Machine" zusammen mit Kollegen im Rahmen einer Studie an der Universität Darmstadt. Mittlerweile arbeitet Jentzsch am Deutschen Zentrum für Luft- und Raumfahrt. Ziel der Studie war zu zeigen, dass eine Künstliche Intelligenz sehr wohl Moral lernen kann.
"Also diese Entscheidungen, die die Maschine trifft das sind keine herausragenden philosophischen Leistungen, sondern das sind ganz einfach Regeln, wie man soll lieber nicht töten und es ist gut, seine Eltern zu lieben."
Zunächst haben die Wissenschaftler gut und böse definiert und dann die Künstliche Intelligenz mit ganz vielen Texten gefüttert. Alle von Menschen geschrieben, aus verschiedenen Epochen. Nach ihrer Bedeutung hat die KI Wörter aus den Texten entweder gut oder böse zugeordnet. Mit Hilfe dieser Zuordnung kann sie simple moralische Entscheidungen treffen.
KI mit Vorurteilen
Bereits 2017 zeigte ein amerikanisch-britisches Forscherteam, dass eine KI Informationen aus Texte ziehen und diese verknüpfen kann. Allerdings wurde auch klar, dass das System dabei Vorurteile und Stereotypen übernimmt. So verknüpfte die KI weibliche Namen eher mit Kunst und männliche eher mit Technik. Das passiert auch bei dem Modell von Sophie Jentzsch. Aber:
"Abhängig davon, welche Fragen man an die Daten und an das Modell stellt, sind auch positiv zu bewertende implizite Konstrukte unserer Gesellschaft enthalten. Also wir können daraus Normen und Werte ablesen, die in Summe die Moral unserer Gesellschaft darstellen."
Ihr Plan: In Zukunft könnte jede KI einen moralischen Kompass mitbekommen, orientiert an menschlichen Überzeugungen.
Peter Asaro unterrichtet an der 'School of Media Studies' in der 'New School' in New York. Der Philosoph ist eher skeptisch:
"Zur Zeit ist das doch alles sehr spekulativ. Ich meine, da entwickeln Leute Computerprogramme und behaupten, die würden ethische Entscheidungen treffen. Aber in Wirklichkeit simulieren sie eine ganz bestimmte Vorstellung davon, wie Menschen vielleicht ethische Entscheidungen fällen."
"Du sollst nicht töten"
Zu echten moralischen Entscheidungen sei eine Künstliche Intelligenz also nicht fähig. Das menschliche Bewusstsein fehle. Asaro ist außerdem einer der Mitbegründer des internationalen Komitees für "Robot Arms Control", also der Roboter-Rüstungskontrolle. Er setzt sich also dafür ein, dass Roboter niemals eigenmächtig entscheiden dürfen, ob sie einen Menschen töten dürfen oder nicht. Eine der schwierigsten moralischen Entscheidungen. Asaro:
"Man benötigt auf jeden Fall, eine moralische Instanz, um solch ein Urteil zu fällen. Da aber Computerprogramme niemals moralische Instanzen sein können, sollten sie solche Entscheidungen auch nicht treffen."
Auch Judith Simon ist vorsichtig. Die Professorin für Ethik in der Informationstechnologie an der Universität Hamburg warnt:
"Ich glaub, es gibt sehr viele Bereiche, wo man sich gerne auf die Technologie verlässt. Aus dem schlichten Grund, dass man dann Verantwortlichkeit abschieben kann. Wenn ich unliebsame Entscheidungen treffen muss, zum Beispiel darüber wer Geld bekommt, wer kein Geld bekommt, ist natürlich eine große Motivation, das an Maschinen zu delegieren."
Simon ist ebenfalls Mitglied im Ethikrat und in der Datenethikkommission der Bundesregierung. Beide Instanzen würden momentan sehr intensiv darüber sprechen, welche Chancen und auch Risiken Künstliche Intelligenz bietet. Der Jurist Tobias Keber von der Hochschule für Medien in Stuttgart ist optimistischer, was die Moral von Künstliche Intelligenzen angeht. Er führt bei der Debatte die Datenschutzgrundverordnung ins Feld. Hier würden schon erste Grundsteine gelegt, etwa in Artikel 25. Keber:
"Die Idee ist, Probleme für bestimmte Werte, wir nehmen jetzt mal privacy, bereits im Entwicklungsprozess von bestimmten Maschinen, nennen wir sie jetzt mal, zu implementieren. Heißt: wenn ich einen Prototyp entwickle, dann müsste der Ingenieur, der das macht, schon eine Vorstellung von Datenschutz von Ethik haben."
Ihm geht die Debatte dennoch nicht weit genug. Momentan scheine die ganze Welt Technologiegetrieben, da sei nicht genug Zeit zum Denken. Dabei lässt sich vielleicht der Fortschritt nicht aufhalten, aber wie es aussieht, könne man schon mitgestalten, so Tobias Keber.