Freitag, 19. April 2024

Archiv

Informationsgesellschaft
Künstliche Intelligenz oder Künstliche Dummheit?

Die Computersysteme der „Künstlichen Intelligenz“ sollen der neue Exportschlager der Bundesrepublik werden. Doch neu ist das nicht. Schon 1980 machten Forscher vollmundige Versprechen über intelligente und kreative Computer der Zukunft. Sie scheiterten kläglich. Was ist heute anders als vor dreißig Jahren?

Von Maximilian Schönherr | 03.01.2019
    Geschäftsmann schaut auf Liniendiagramm auf dem Bildschirm eines Roboters
    Wie geht man damit um, wenn ein Computer eine Fehlentscheidung trifft? (imago / Gary Waters )
    "Da kämpfe ich zum Beispiel mit Artefakten. Die haben mich die letzten 2 Jahre begleitet. Das heißt, ich trainiere ein Modell, und irgendwann lernt es etwas Falsches. Es hat dann so etwas wie eine fixe Idee. Dann hat man zum Beispiel da, wo die Nase ist, immer einen Glitch oder etwas Unangenehmes. Und es hat sich in das Modell so hineingefressen, dass es nicht mehr herauszubekommen ist. Man kann es ihm also auch nicht mehr abgewöhnen."
    Mario Klingemann ist kein Programmierer, sondern Künstler. Er spricht nicht von Künstlicher Intelligenz, sondern von Neuronalen Netzen. Das sind frei verfügbare Computerprogramme, die er mit Hunderten von Bildern füttert und daraus lernen lässt, um schließlich fantastische neue Bilder zu erzeugen. Das ist Maschinenlernen in künstlerischer Reinstform.
    Automatisch erzeugte Kunst
    Während Klingemann eine Ausstellung mit seiner Kunst in Seoul (Südkorea) eröffnete, boten drei ähnlich arbeitende Franzosen ein so geschaffenes Bild eingerahmt über das Auktionshaus Christies zum Verkauf an. Es zeigt einen Geistlichen des 18. oder 19. Jahrhunderts, dem die Programmierer den Namen Edmond Belamy gegeben haben. Das Licht in dem Gemälde erinnert an Rembrandt, die Abstraktion an Picasso oder Dali. Signiert ist das von Künstlicher Intelligenz erzeugte Werk unten rechts mit einer mathematischen Gleichung, dem algorithmischen Herzstück des neuronalen Netzes. Die Franzosen hatten darauf gehofft, das Bild für ein paar Tausend Euro zu verkaufen. Es erzielte bei der Versteigerung aber fast 400.000 € und war eine Sensation in der Kunstwelt. Der erste hochpreisige Verkauf eines von Künstlicher Intelligenz gemalten Bilds.
    Künstliche Intelligenz war ein Hype der 1980er Jahre. Hier zu hören Jörg Siekmann in einer Vorlesung in 1985. Siekmann hat das Deutsche Forschungszentrum für Künstliche Intelligenz gegründet. Und hier der Computerwissenschaftler Marvin Minsky in einer Fernsehshow. Sie sahen wie viele andere voller Optimismus eine Gesellschaft von Maschinen heraufziehen, die unsere Gehirnfunktionen nachahmen, ja toppen können. Minsky sprach von Robotern, die unsere Kinder sein werden; also wir die Eltern von digitalen Maschinen. Ganz typisch für die Zeit ist, wie der Amerikaner das menschliche Gehirn als Datenverarbeitungsmaschine definiert:
    "Unser Gehirn funktioniert ziemlich elegant. Bei einfachen Problemen mit vielen Daten arbeitet es parallel, bei komplexeren seriell. Unser Vorderhirn ist ein Serieller Computer, alles dahinter ein Parallelrechner."
    Fehlstart mit zu hohen Ansprüchen
    Viele waren von den Möglichkeiten der ersten Personal Computer so geblendet, dass es für sie nur eine Frage der Zeit war, bis man Roboter mit menschlicher Intelligenz ausstatten konnte. Die KI-Bewegung kassierte erhebliche Fördergelder, auch in Deutschland – und scheiterte auf ganzer Linie. Ende der 1980er Jahre zogen sich die Forscher ernüchtert auf den Begriff des Expertensystems zurück: Für bestimmte Fragen könne man Computer nutzen, die dann zwar keine menschliche Intelligenz besitzen, aber auf ihrem Gebiet gut sind. Die Intelligenzdiskussion versandete. Praktische Dinge wie Datenschutz, Hacking, die Anfänge des World Wide Web erdeten all die "Spinner" von damals. Marvin Minsky hatte vieles ganz richtig gesehen, aber er starb 2016 ohne gesellschaftlichen Heiligenschein. Die Künstliche Intelligenz war in Misskredit gekommen.
    Zweierlei war notwendig, damit der Begriff heute wie neu wirkt: Erstens das Vergessen; wir haben eine Generation von Informatikern, die mit Computern aufgewachsen ist und den Hype von Früher allenfalls vom Hörensagen kennt. Zweitens setzten diese Forscher, quasi lautlos, oft aus Zeitvertreib, Neuronale Netze ein, um einmal zu gucken, was diese, gefüttert mit vielen Daten, so tun. Neuronale Netze hatte schon Marvin Minsky in den 1950er Jahren eingesetzt. Mit den Computern der jüngsten Zeit aber machen sie richtig Sinn.
    Die neue Entwicklung der KI, wie Künstliche Intelligenz abgekürzt wird, macht vielen Angst. Diesmal aber keine Science Fiction-Angst, sondern anfassbar real.

    "Der Schufa-Score ist ein sehr klassisches Problem. Individual Pricing oder Dynamic Pricing ist ein neues Verfahren, auch automatisierte Personalauswahl ist ein neuer Punkt. Einschätzung der Rückfallwahrscheinlichkeit von Straftätern ist ein neuer Einsatzbereich. Oder die Auswahl von Studienkandidaten aufgrund charakterlicher Merkmale, die irgendwie zusammengesetzt werden, ist etwas anderes als die Auswahl von Studienkandidaten nach der Abiturnote; die kennen wir seit längerem."
    Der Leiter des Instituts für Rechtsinformatik an der Universität des Saarlandes, Georg Borges. Die Künstliche Intelligenz ist in die neue Datenschutzgrundverordnung der EU eingeflossen. Demnach hat jeder Bürger ein Auskunftsrecht über den Algorithmus, also das mathematische Verfahren, welches einer Entscheidung über ihn zugrunde lag.
    Die Schufa gibt keine Auskunft über ihre eingesetzten Verfahren. Google kann angeblich keine exakte Auskunft darüber geben, warum sein selbst lernendes System in 99 % der Fälle Fotos richtig verschlagwortet, aber in einem jungen Pärchen aus Südafrika zwei Gorillas sah. Tesla hatte große Schwierigkeiten, herauszufinden, warum sein teilautonom fahrender Wagen in einen querstehenden LKW hinein fuhr. Die Software hatte den Anhänger für eine Brücke gehalten, unter der es hindurch fahren wollte. Ist diese Schwierigkeit, den Code zu verstehen, nicht deprimierend für einen Juristen?
    Neue Möglichkeiten für die Rechtsprechung

    "Es ist genau anders herum. Gerade weil es eine Maschine tut, haben wir zum ersten Mal die Chance, an den Kern der Entscheidung vorzudringen. Und dieses Bedürfnis ist natürlich da. Wenn wir einen Menschen haben, dann wissen wir, dass wir in dessen Hirn nur sehr schwer reingucken können, jedenfalls zum heutigen Stand. Deswegen tun wir es auch nicht, sondern wir verlangen nur, dass er nicht mit der Person, über die er urteilt, verwandt ist und sonst einen Interessenskonflikt hat.
    Aber bei der Maschine haben wir die Chance, zu schauen, auf welcher Grundlage und nach welchen Parametern die Maschine entscheidet. Das heißt, wir haben Sehnsucht nach einem Plus an Gerechtigkeit. Und das wollen wir ausschöpfen.
    Wenn man sich das Thema Diskriminierung anschaut, so haben wir bisher kein Material gefunden. Wenn der Vermieter sagt, "an Neger vermiete ich nicht", dann ist das ein einfacher Fall. Aber ansonsten wissen wir ja nicht, was in des Vermieters Kopf vorgeht, wenn er uns die Wohnung verweigert. Bei der Maschine können wir da näher hinschauen."
    Wie geht man dann aber damit um, wenn die Maschine eine Fehlentscheidung trifft? Ein Pflegeroboter, der brav seine Dienste tut, aber eines Tages einen Hammer greift und dem Patienten damit auf den Kopf schlägt?

    "Jetzt sind wir beim Kern der Geschichte. Wenn ich mit einem primitiven Instrument arbeite, dann ist die Zurechnung relativ schnell geschehen. Wenn ich jetzt jemandem mit einem Hammer auf den Kopf schlage, dann wird jeder sagen, das war der Borges, denn der hat den Hammer geführt.
    Wenn ich aber ein komplexes autonomes System habe, das alles Mögliche macht, aber dann unvorhergesehen zum Hammer greift und den jemandem über den Kopf schlägt, dann ist die Frage, ob das meine Tat war, schon eine ganz andere. Und diese Frage der Zurechnung kennt das Recht bisher nicht in dieser Komplexität, weil wir bisher immer weniger komplexe Maschinen hatten, wo sich die Frage einfacher gestellt hat. Deswegen ist das neue Frage und eine durchaus erhebliche Herausforderung für das Recht."
    Borges gehört, wie sein Kollege Christoph Sorge, zum Arbeitskreis der Bundesregierung über Künstliche Intelligenz. Christoph Sorge ist einer der wenigen deutschen Juraprofessoren, die von der Informatik her kommen. Was sagt er zur Zurechnungsfähigkeit eines selbstlernenden Systems? Kann man es vor Gericht ziehen und verurteilen?
    Schadenersatzklage gegen Neuronale Netze

    "Das neuronale Netz kann ich nicht einsperren und auch nicht auf Schadensersatz verklagen, denn es hat kein Vermögen. Muss ich daran etwas ändern? Muss ich das neuronale Netz mit einem Vermögen ausstatten? Wahrscheinlich nicht, aber es ist ein Gedanke, der schon Leuten gekommen ist."
    Die nächste Frage: Ist der haftbar, der den Algorithmus entworfen, oder der, der ihn mit Trainingsdaten gefüttert hat? Da traue ich mir ehrlich gesagt die Antwort auch noch nicht ganz zu. Ich weiß nicht, ob Du das anders siehst?

    "Zunächst muss klar sein: Die unmittelbare Zurechnung, die wir beim vom Menschen geführten Hammer haben, wird es so nicht mehr geben. Die andere Frage ist, wer dafür haftet? Das sind wir jetzt an verschiedenen Haftungskonzepten. Nach deutschem Recht gibt es da für das Auto. Der Halter haftet sehr streng. Frage: Gilt das auch für den Staubsaugerroboter? Ich meine, nicht. Wir haben also zwei Lösungen, die unterschiedliche Anwendungsfälle haben. Und die Frage ist, welches Konzept gilt für welche Art von Maschine?"
    Georg Borges spricht in dem Vergleich von Autos mit Menschen am Steuer. Autonom fahrende Autos lassen sich wie der selbstständig ins Freie rollende Staubsaugerroboter mit gängigen Haftungsfragen und Gesetzen nicht in den Griff bekommen. Und:
    "Da geht es auch um ethische Fragen. Angenommen, ich hab mir ein selbstfahrendes Auto gekauft und sitze hinten im Fond. Jetzt läuft vorn jemand über die Straße. Der Bremsweg ist zu kurz, das heißt, weiteres Bremsen nützt nichts. Die, die über die Straße laufen, sind dann tot."
    Der Wirtschaftswissenschaftler Andreas Wagener in einer Vorlesung an der Hochschule Hof.
    "Jetzt könnte die Künstliche Intelligenz aber auch sagen: Da vorne sind drei Leute. Sorry, du bist alleine. Ich steuere das Auto gegen die Wand, dann bist nur du tot."

    Das Auto, das selektiv tötet
    Dies ist ein Lieblingsdilemma all derjenigen, die über die Folgen von Künstlicher Intelligenz nachdenken. Es bringt den aktuellen Stand der KI auf den Punkt und beschäftigt deswegen nicht nur Juristen und Versicherungsmathematiker, sondern auch Ethiker. Catrin Misselhorn etwa. Sie leitet den Lehrstuhl für Wissenschaftstheorie und Technikphilosophie an der Universität Stuttgart:

    "Ich selber bin sehr skeptisch, was die Möglichkeit angeht, dass Mensch und Maschinen über den Tod von Menschen entscheiden. Ich halte das für moralisch problematisch. Es gibt eine Parallele zwischen den autonomen Kriegsrobotern und dem autonomen Fahren, die darin gesehen wird, dass die autonomen Fahrzeuge, wenn sie in solchen Situationen entscheiden sollen, auch so etwas wie eine Targeting-Funktion haben: Sie müssen dann eine Person aufgrund bestimmter Merkmale auswählen, die sie dann anfahren."
    Während die meisten Rechtsinformatiker dieses Dilemma spannend finden und in irgendeiner Form in eine KI-Gesetzgebung einbinden möchten, sieht die Stuttgarter Philosophin hier eine Grenze überschritten.

    "Wenn es eine Lösung dieser Fragen nicht gibt oder wir es nicht richtig finden, einer Maschine diese Entscheidung zu übertragen, müssen wir noch einmal überdenken, ob wir in diesem Bereich autonomes Fahren, oder überhaupt Autonomie wollen. Ich selber trete da eher für das assistierte Fahren ein und halte es nicht für richtig, den Weg zum voll autonomen Fahren einzuschlagen."
    Damit steht Catrin Misselhorn unter Ethikern nicht allein, unter Technikern aber schon. Auch die Politik fördert das autonome Autofahren mit Künstlicher Intelligenz. Das wird also kommen, oder?

    "Die, die sagen, das wird kommen, wer ist das denn? Das sind die Autokonzerne. Und dahinter stehen massive wirtschaftliche Interessen. Wir aber sind die Bürger. Wollen wir uns wirklich sagen, dass wir keine Macht haben, diese Konzerne zu stoppen, wenn die entsprechende Wählerschaft dahinter steht? Das fände ich sehr traurig, und auch eine Konsequenz, die die Demokratie sehr grundsätzlich infrage stellt."
    Der Jurist Georg Borges: "Ich würde sehr viel lieber die gleiche Frage, die unter dem Gesichtspunkt von Ethik diskutiert wird, unter dem Gesichtspunkt von Recht diskutieren, weil nämlich dann damit eine Rechtsfolge verbunden ist. Will heißen: Wenn es ethisch richtig ist, dass das autonome Auto lieber einen jüngeren als einen älteren Menschen – oder umgekehrt – umfährt, dann würde das auf der rechtlichen Ebene sehr viel mehr Bedeutung haben, denn dann muss sich das Auto daran halten.
    Deswegen ist es uns sehr wichtig, festzuhalten, dass wir nicht bei der ethischen Diskussion stecken bleiben dürfen, sondern dafür sorgen müssen, dass dieselbe Diskussion auch in Bezug auf rechtliches Müssen, Dürfen und Nicht-Dürfen geführt wird. Denn nur dann kann es auch zwingend umgesetzt werden, nur dann können wir darauf vertrauen, dass es das in der Praxis auch nicht gibt."
    Software hat keinen eigenen Willen
    Die Philosophie geht mit anderen Instrumenten an selbst lernende Systeme heran als Rechtswissenschaftler, Ingenieure und Informatiker. Eine juristische Person, mit der wir auf Augenhöhe verhandeln, so Catrin Misselhorn, kann Software nicht sein – schon allein deswegen nicht, weil sie keinen eigenen Willen besitzt, weil sie nicht über sich selbst reflektieren kann. Sie verweist auf den Utilitarismus von Kant und die Thesen des Wissenschaftlers und Science Fiction-Autors Isaac Asimov in den 1940er Jahren:

    "Der hat ja gesagt: Nein, das ist genau die falsche Vorstellung, dass wir eine Ethik für Maschinen daran orientieren sollten, welche ethischen Maßstäbe für Menschen gelten, sondern die muss ganz anders aussehen. Die drei Gesetze der Robotik, die er vorgeschlagen hat, waren eben, dass erstens ein Roboter niemals einen Menschen zu schaden bringen oder gar töten darf. Zweiter Grundsatz: Ein Roboter soll einem Menschen immer gehorchen, es sei denn, es widerspricht dem ersten Grundsatz. Und der dritte Grundsatz: Ein Roboter soll seine eigene Existenz schützen, es sei denn, das kommt in Konflikt mit dem ersten oder zweiten Grundsatz.
    Hier ist der Ansatz also ein ganz anderer. Zu sagen, wir brauchen eine Ethik für Maschinen, die sich deutlich von derjenigen für Menschen unterscheidet. Und kritische Stimmen sagen, das ist doch eine Sklavenmoral."
    Bloß dass man KI-Software nicht, wie Sklaven, strafen und einsperren kann. Oder doch?
    Georg Borges: "Man kann Computer, man kann Roboter ganz gut einsperren, und es wird derzeit diskutiert, ob das ein sinnvoller Ansatz ist. Ich habe überhaupt keinen Zweifel daran, dass Sanktionsandrohnungen für selbst lernende Systeme etwas Sinnvolles ist.
    Sie können einen Roboter ja für fünf Jahre ausstellen. Dann ist er fünf Jahre eingesperrt.
    Also können wir Computer strafen. Die spannende Frage ist, ob wir sagen, das ist ein Strafrecht, quasi: Du, Computer, hast jetzt die Qualität, die sonst nur ein Mensch hat. Geben wir dem Computer also die Qualität eines Rechts-Subjekts oder sind wir da anthropozentrisch und gestehen das nur Menschen zu. Ich bekenne mich als Anthropozentriker. Wenn wir also eine Welt haben, wo der ganze Reichtum bei tausend Computern versammelt ist, dahinter dann aber eine Clan-Familie steht, die die Welt beherrscht – das ist nicht der Zustand, für den wir so etwas wie Demokratie entwickelt haben. Und deswegen muss man gut aufpassen, ob der Schritt, Roboter zu Rechtssubjekten zu machen, wirklich zielführend ist für das, was wir eigentlich wollen."
    Damit ist all das, was in den 1980er Jahren als Gehirn-ersetzende Künstliche Intelligenz gehypt wurde und in den 1990er Jahren den Bach runterging, in neuer Form wieder auferstanden. Mit viel weniger hohem Anspruch als früher, fast bescheiden – aber umso heftiger!