Freitag, 10. Mai 2024

Archiv

Zur technischen Erledigung moralischer Willensbildung
Die Allherrschaft der Algorithmen

Seit langer Zeit hofft die Philosophie, dass der Mensch sich bei Problemen moralisch entscheidet. Digitale Technologien versprechen hier neue Lösungen: Sie zwingen den Menschen zum richtigen Verhalten. Ethiker warnen vor dieser Entwicklung.

Von Roberto Simanowski | 12.02.2023
Blaue Datenmatrix mit Bits und Bytes. 3d-Illustration.
Mit Algorithmen lässt sich nicht diskutieren... (IMAGO / Alexander Limbach)
Ob nun inneres moralisches Gesetz oder die Strafandrohung von außen - die Menschheit hat viele Methoden im Blick, die uns zum richtigen Handeln bringen sollen. Nun träumen Technokraten von einer Welt, in welcher der Mensch gar nicht falsch handeln kann. Der Fortschritt macht es möglich; das selbstfahrende Auto, das sich an die Verkehrsregeln hält, ist da noch die optimistischste Vision des sogenannten Web3. 
Längst ersinnen Firmen Drohnen, die mit anmontierten Elektroschockpistolen Amokläufe an Schulen stoppen sollen. Deshalb warnen Ethiker: In einer solchen Zukunft würden wir nicht mehr dem Menschen vertrauen, sondern dem Code. Die Demokratie wäre zur Algocracy geworden, zur Herrschaft der Algorithmen. 
Roberto Simanowski, geboren 1963, lebt nach Professuren für Kultur- und Medienwissenschaft in den USA, der Schweiz und Hongkong als Publizist in Berlin und Rio de Janeiro. Zu Simanowskis Büchern gehören Data Love (2014/engl. 2018), Facebook-Gesellschaft (2016/engl. 2018) und Abfall. Das alternative ABC der neuen Medien (2017, engl. 2018). Sein Buch Todesalgorithmus. Das Dilemma der künstlichen Intelligenz erhielt den Tractatus-Preis für philosophische Essayistik 2020.

Am 6. Juni 2022 berichtete Wired, das US-amerikanische Magazin für die gesellschaftlichen Folgen digitaler Technologien, über einen neuartigen Plan gegen Amokläufe an Schulen. Er kam von der Drohnenfirma Axon und lautete: Man müsse Drohnen mit Elektro-Tasern in den Schulen installieren, an der Decke, so wie Rauchmelder, nur dass diese Drohnen ihre Umgebung beobachten und im Gefahrenfall auf den Amokläufer zufliegen können, um ihn mit einem Elektroschock außer Gefecht zu setzen.
Es war zwei Wochen nach dem School-Shooting in Uvalde, Texas, bei dem 19 Schulkinder und zwei Lehrerinnen getötet und 17 weitere Personen verletzt wurden. Axon-Gründer Rick Smith hatte in einer Pressemitteilung am 2. Juni den Vorschlag der Drohnen-Feuermelder gemacht. Sein Argument: Aus den schärferen Waffengesetzen, die nach jedem Amoklauf an Schulen regelmäßig gefordert werden, würde sicher auch diesmal nichts werden. Also muss Technik her. Technik, die sein Start-Up produziert.
Rick Smith war auf diese Idee nicht erst durch die Schießerei an der Schule in Uvalde gekommen. Es war gewissermaßen Smiths Lieblingsidee, die er schon drei Jahre zuvor in einem Comic illustriert hatte, unter dem Titel The End of Killing. Damit war nicht nur gemeint, dass ein Amoklauf schnell beendet werden sollte, sondern auch, dass tödliche Waffen durch Elektroschockpistolen ersetzt werden sollten.  Immer aber sind es Drohnen, die die Waffen einsetzen.
Als Smith mit der schockierten Reaktion der Öffentlichkeit konfrontiert war und die Hälfte des Ethik-Teams seiner Firma kündigte, nahm er seinen Vorschlag zurück. Seine Perspektive auf die Dinge aber hat er seitdem kaum geändert, denn es ist eine Perspektive, die in der Tech-Industrie stark verbreitet ist, so stark, dass es dafür sogar einen speziellen Begriff gibt: Solutionismus, die technische Lösung sozialer Probleme. Man brauche nur die richtige Technik und natürlich genügend Daten, so die Logik der Solutionisten, dann lasse sich jedes Problem lösen – nicht indem man an seiner Wurzel ansetzt, sondern indem man seine Manifestation verhindert. Anders gesagt: Man setzt das richtige Verhalten technisch durch. Es ist die Regierungskunst der Zukunft, die längst begonnen hat.
Wechseln wir von der Drohne zum Auto, das in Zukunft nicht nur selber fährt, sondern auch selber lenkt und denkt, wenn man denn bei künstlicher Intelligenz am Steuer von Denken sprechen kann. Aber ganz gleich, ob die steuernde KI Bewusstsein hat oder nur als komplexer Algorithmus einer vielschichtigen Wenn‑Dann-Logik folgt: Entscheidend ist, dass sie sich haargenau an die Regeln hält, also nicht schneller als 30 fährt, wenn dies als Höchstgeschwindigkeit vorgegeben ist, und nirgends parkt, wo es nicht erlaubt ist.
Gut so, sagen die einen. Gar nicht gut, sagen die anderen, zu denen auch die Ethik‑Kommission Automatisiertes und Vernetztes Fahren gehört, deren Abschlussbericht im Jahr 2017 betont: Die Fahrer dürfen nicht durch KI im Auto daran gehindert werden, die Verkehrsregeln zu missachten.
Doch, Sie haben richtig gehört. Hier das Votum der Ethik-Kommission im O-Ton:
„Ausdruck der Autonomie des Menschen ist es, auch objektiv unvernünftige Entscheidungen wie eine aggressivere Fahrhaltung oder ein Überschreiten der Richtgeschwindigkeit zu treffen. Dabei würde es dem Leitbild des mündigen Bürgers widersprechen, würde der Staat weite Teile des Lebens zum vermeintlichen Wohle des Bürgers unentrinnbar durchnormieren und abweichendes Verhalten sozialtechnisch bereits im Ansatz unterbinden wollen.“
Raserei als Ausdruck menschlicher Selbstbestimmung? Verteidigt die Ethik‑Kommission unmoralisches Verhalten? Das Gegenteil ist der Fall. Denn moralisches Verhalten gibt es nur, wenn man sich dazu entschließt; wenn das richtige Handeln von Innen kommt. So erklärte einst Immanuel Kant das Grundprinzip des mündigen Bürgers. Forciert die KI am Steuer die Einhaltung der Verkehrsregeln, gibt es nur noch richtiges Verhalten, aber kein moralisches mehr.
Noch geschieht es nicht, dass unser Auto uns am Rasen hindert. Obwohl es weiß, wann wir die Höchstgeschwindigkeit überschreiten, wie das Warnlicht im Armaturenbrett bezeugt. Noch operiert unser Auto im Modus des Nudging: Es will durchs Warnlicht zum Abbremsen überreden und durch den leichten Widerstand beim Spurenwechsel zum Setzen des Blinkers.
Was in politischer Hinsicht laut Ethik-Kommission nicht sein darf, wäre technisch aber durchaus möglich. Und es wird auch schon praktiziert: auf primitive, analoge Weise durch Bodenwellen auf der Fahrbahn, in Ländern, wo sich der Staat nicht darauf verlassen will, dass die Bürger der Anzeige einer Geschwindigkeitsbegrenzung Folge leisten. Der Nachteil liegt auf der Hand, wenn ein Notfall das Rasen rechtfertigt und die Bodenwellen trotzdem da sind. Man möchte kein Notfallpatient sein in einem solchen Land.
Im Digitalen lässt sich dieser Nachteil beheben, wenn ein roter Knopf im Notfall erlaubt, die Algorithmen auszusetzen, wobei man den Notfall dann natürlich ebenso belegen müsste, wie wenn man im Zug die Notbremse betätigt. Dass Algorithmen am Ende flexibler sind als Bodenwellen, räumt allerdings nur die pragmatischen Bedenken gegen eine automatisierte Durchsetzung des erwünschten Verhaltens aus, nicht aber die philosophischen und psychologischen, um die es der Ethik‑Kommission geht.
Wie setzt man durch, dass Verkehrsteilnehmer rücksichtsvoll fahren? Dafür gibt es ein Paradebeispiel. Es ist gerade nicht das Auto, sondern der Elektro-Roller. Dieser sorgte ab dem Sommer 2019 für Aufregung, als er plötzlich die Gehwege unsicher machte, die bisher für die schwächsten der Verkehrsteilnehmer reserviert gewesen waren. Das Problem ist die richtige Platzanweisung. Für die Straße – auf die er per Gesetz ausweichen muss, wenn es keinen Radweg gibt – ist der E-Roller mit seinen 20km/h zu langsam. Und E-Roller-Fahrer:innen fühlen sich sowieso auf dem Gehweg am wohlsten, wo sie die Schnellsten und Mächtigsten sind.
Um schwere Zusammenstöße zu verhindern, schlagen die einen vor, die Geschwindigkeit der E-Roller auf 12 km/h zu beschränken. Zu radikal, sagen andere; oft ist der Gehweg ja frei, und dann könnte man gefahrlos Strom geben, also beschleunigen. Der Kompromiss ist die smarte Geschwindigkeitsbegrenzung, die nur dann einsetzt, wenn sie tatsächlich nötig ist, dort also, wo gerade viele Fußgänger unterwegs sind. Per GPS lässt sich der E-Roller orten und dann dazu zwingen, dass er sein Tempo drosselt. Im Fachjargon heißt dieses Verfahren „Geofencing“ – es würde das verantwortungslose Rasen nahe einer Menschenmenge schon auf technischer Ebene verhindern.
Kein Wunder also, dass die Kommunen von den Anbietern der E-Roller fordern, ihre Software nachzurüsten. Ebenso wenig erstaunlich ist, dass die Anbieter ihr Geschäftsmodell sichern wollen und deshalb bereit sind, „geofenced slow-riding zones“ einzurichten, die sich freilich auch flexibel aktivieren lassen, immer dort nämlich, wo auf dem Gehweg vermehrt Smartphones geortet werden.
Gefordert und versprochen wird also genau das, was laut Ethik-Kommission die Autonomie des Menschen schwächt: eine unentrinnbare Wenn-Dann-Konstellation, die das richtige Verhalten durch technische Mittel durchsetzt. Und warum nicht, sagen die Befürworter:innen. Warum sollte man auf die Einsicht rasender E‑Roller‑Rabauken hoffen, wenn man sie durch Technik zwingen kann?
Die Frage des E-Rollers wird wohl an der Empfehlung besagter Ethik-Kommission vorbei entschieden werden; es handelt sich ja auch um einen anderen Fahrzeugtyp. Ganz zu schweigen von all den anderen Bereichen des gesellschaftlichen Lebens, die den Programmierer:innen gehören, den IT-Unternehmen, den Silicon Valleys dieser Welt: das Internet und speziell das Metaverse, jener virtuelle dreidimensionale Raum, in dem man mit einem Avatar unterwegs ist und auf die Avatare der anderen trifft.
Zwar gibt es hier keine Probleme mit rasenden E-Scootern, dafür kommt es vielerorts zu sexuellen Belästigungen und „virtual rape“, wie es heißt, auf den die Administrator:innen natürlich reagieren müssen. Die schicken nun nicht etwa Erzieher:innen aus, um die Besucher des Metaverse zu kultivieren, oder Polizist:innen, um ihnen zu drohen, wie es für die analoge Welt üblich ist. Nein, sie schicken ihre Programmierer:innen – und deren Lösung ist weder der Diskurs, noch das Gefängnis, sondern Code.
So gibt es in Horizon Worlds, der VR-Welt von Meta, wie Facebook sich jetzt nennt, inzwischen das Feature der „Personal Boundary”: eine unsichtbare Sicherheitszone von 120 Zentimetern um einen Avatar, in die kein anderer eindringen kann. Sollte ein aufdringlicher Avatar seine Hände nach einem potenziellen Opfer ausstrecken, verschwinden diese einfach, wenn sie die Sicherheitszone erreichen; sie werden virtuell abgehackt.
Die VR-Welt und der E-Roller sind das Trojanische Pferd kybernetischer Regierungstechniken. Ihr Ziel ist der strafunfähige Bürger. Je mehr sich der Alltag digitalisiert oder in den Bereich des Digitalen verschiebt, desto einfacher wird es, diese Regierungstechnik durchzusetzen. Dann erübrigen sich soziale Aushandlungsprozesse: und zwar die der Avatare (beziehungsweise der Menschen hinter ihnen) untereinander und die der Raser mit ihrem Umfeld. Wenn wir uns nicht mehr gesetzeswidrig verhalten können, entsteht perspektivisch eine Gesellschaft, in der alles gut ist, aber niemand mehr gut sein kann. Das ist die Zukunft, vor der die Ethik-Kommission warnt.
Dem Solutionismus begegnet man überall, im Großen wie im Kleinen.
Ein Beispiel fürs Kleine ist es, wenn Akzente in Callcentern für den Gesprächspartner am anderen Ende der Leitung herausgefiltert werden, damit der freundliche junge Mann vom Service-Dienst nicht die Kunden mit seinem indischen Akzent verprellt.  Statt den Kunden die Vorurteile gegenüber Indern und Philippinos als Service‑Mitarbeiter:innen abzugewöhnen, wird diesen technisch ein ordentliches Englisch angedichtet. Das jedenfalls schlägt das US-Start Up Sanas vor, dessen indischstämmiger Mit-Begründer Sharath Keshava Narayana selbst schon Opfer solcher Vorurteile war.
Die Selbstbeschreibung von Sanas klingt so pompös wie die von Facebook, Zitat: Sanas is creating a more connected, friendly, and empathetic world by revolutionizing how we communicate – Sanas schafft eine vernetzte, freundliche und einfühlsame Welt, indem es die Art und Weise, wie wir kommunizieren, revolutioniert. Das Gegenteil ist der Fall, argumentieren die Kritiker, die hier eher Zugeständnisse an Rassisten sehen oder jedenfalls an jene, die keinerlei Toleranz für englische Dialekte aufbringen. Das Problem ist gesellschaftlich so eminent, dass es sogar einen Film dazu gibt, in dem ein schwarzer Callcenter-Mitarbeiter erst dann beruflich Erfolg hat, als er seine Stimme „weiß“ klingen lässt. Der Film kam 2018 ins Kino, mit dem passenden Namen Sorry to Bother You: Entschuldigung, dass ich Sie störe.
Ein Beispiel dafür, dass auch bei den ganz großen Problemen eher auf die Technik als den Menschen gesetzt wird, ist der Kampf gegen den Klimawandel. Hier überwiegt die Hoffnung auf umweltfreundliche Technologien bei weitem die Forderung, der Mensch möge sein Produktions- und Konsumverhalten ändern. Während die Fridays for Future-Bewegung und weit aggressiver die Letzte Generation-Aktivist:innen von der Gesellschaft fordern, endlich ihr rücksichtsloses Verhalten gegenüber künftigen Generationen zu ändern, setzt diese mehrheitlich auf Technik als Rettung. Die Schlagwörter lauten Dekarbonisierung durch grünen Wasserstoff und Direct Air Capture: CO2 aus der Atmosphäre entfernen.
Dieser solutionistische Ansatz verstimmt nicht nur die üblichen Verdächtigen. Sogar das ehrwürdige House of Lords, das Oberhaus des britischen Parlaments, nahm im Oktober 2022 in seinem Bericht zum Klimawandel Anstoß daran, dass beim Kampf gegen die Erderwärmung in der öffentlichen Diskussion zu sehr auf neue Technologien gesetzt werde. Der programmatische Titel des Reports lässt keinen Zweifel daran, wo das House of Lords den Schwerpunkt bei der Lösung dieses Problems sieht: „In our hands: behaviour change for climate and environmental goals” - „In unsere Hand: Verhaltensänderung für Klima- und Umweltziele“.
Der Bericht fordert mehr Führung von der Regierung. Sie solle intervenieren und bei den Menschen ein anderes Verhalten bewirken, ähnlich wie in der Corona‑Pandemie. Anders als während der Pandemie müsste die Verhaltensänderung allerdings nicht durch Verbote erzwungen, sondern durch Anreize attraktiv gemacht werden. Das Stichwort dazu heißt Nudging: Man stößt die Menschen in die gewünschte Richtung, zum Beispiel durch entsprechende Steuervorteile bei der privaten Altersvorsorge oder dadurch. dass in der Kantine der Salat vorne liegt und der Pudding hinten.
Klar: Gängeln bleibt Gängeln, gleichwohl dürfte die Menschenregierungskunst des Anschubsens der Ethik-Kommission gefallen, denn sie hindert ja niemanden daran, trotzdem das Falsche zu tun: also trotz der günstigeren Positionierung des Salats zum Pudding zu greifen.
Betrachtet man die Sache genauer, erkennt man freilich den grundlegenden Paradigmenwechsel der Regierungsphilosophie, der schon im Schubsen steckt: der Wechsel weg von der Argumentation und dem Appell ans Gewissen hin zu einem entsprechenden Interaktionsdesign. In diesem Verzicht auf Argumentation versteckt sich die solutionistische Zukunft, wenn nämlich hinter dem Salat gar kein Pudding mehr liegt.
Das Schlagwort heißt Algocracy: die Herrschaft des Algorithmus, der bestimmte Verhaltensweisen durchsetzt. Das beginnt im Kleinen mit der Steuererklärung online: Ehe nicht alle Daten da sind, geht es nicht weiter. Da hilft kein Jammern oder Bitten, schon gar nicht hilft es, mit einem Geldschein zu winken. Algorithmen sind schon auf dem Input-Ohr taub für Verhandlungen.
Man mag nicht immer wissen, welche Daten da eigentlich verlangt werden und wie man die erbringen kann. Aber das ist nicht das Problem derer, die sich nun nicht mehr befragen lassen. Sie haben die Kommunikation an den Algorithmus delegiert und der handelt streng nach Vorschrift: Nur wenn alle geforderten Daten beschafft sind, geht es weiter. Die Interface-Architektur der Webseite ist kein Nudging mehr, sie verweist auf die algorithmische Regierungskunst. Deren zentrales Merkmal: strittige Fragen in einem Raum verlagern, in dem gar nicht mehr verhandelt werden kann. Mit Algorithmen lässt sich nicht diskutieren, und ihre Programmierer:innen und deren Hintermänner bekommt man ja nicht zu Gesicht.
Die Algocracy ist im Grunde eine Bürokratie ohne den Schwachpunkt Mensch. Algorithmen wissen nur, wie man Empathie schreibt, nicht wie man sie hat.
Dass es keine Ausnahme gibt, darauf setzen wiederum jene Millennials, die vom Web3 schwärmen, dem nächsten Stadium des Internets. Das Versprechen besteht hier darin, Interaktionsprozesse durch Programmierung zu kontrollieren.
Die Stichworte lauten Blockchain und DAO: Dezentrale Autonome Organisation. Eine solche Organisation gründet sich mit einem bestimmten Projekt, zum Beispiel die Rettung des Pizzaladens im Kiez. Alle, die dabei helfen wollen, können der DAO beitreten und in den Pizzaladen investieren oder sich anderweitig nützlich machen. Der Unterschied zu einer traditionellen Organisation oder GmbH besteht darin, dass die Handlungsziele und -optionen nicht nur vorgeschrieben, sondern in den Code eingeschrieben sind. Sie können also, wie bei der Blockchain, nicht korrumpiert werden. Niemand kann mit dem Geld davonlaufen, niemand kann bei der Buchführung schummeln.
Deswegen lautet die Losung des Web3: „less trust, more truth” – weniger Vertrauen, mehr Wahrheit und Verlässlichkeit. Aus der Handlungsdevise „Don’t be evil“, die Google sich einmal gab, aber nie wirklich einhielt, wird der Handlungscode „Can’t be evil“; man erzieht den Menschen nicht, man programmiert Interaktionsprozesse. Solutionismus 3.0.
Immerhin aber werden die Regeln, die im algorithmischen Regierungsverfahren durchgesetzt werden, noch von Menschen gemacht, von Politiker:innen, die Entscheidungen treffen, sowie von Bürokraten, die diese Entscheidungen interpretieren. Das sei hier betont, denn auch das kann sich ändern.
In Zukunft wird die künstliche Intelligenz schon auf der Entscheidungsebene die Macht übernehmen. Die KI setzt nicht nur die Regeln automatisch durch, sondern bestimmt diese Regeln selbst. Im erwähnten Verkehrsbeispiel hieße dies, dass die KI im Verkehrsleitzentrum die Höchstgeschwindigkeit entsprechend der aktuellen Verkehrslage festlegt. Eine einfache kybernetische Rückkoppelung also. Aber so einfach bleibt es nicht.
Das neue Schlagwort der KI-Forschung lautet Deep Learning beziehungsweise Machine Learning; es besagt, dass man nicht mehr einem Algorithmus bestimmte Wenn-Dann-Regeln eintrainiert, bis er in der Lage ist, sie ohne Aufsicht auszuführen. Dieses formal-logische Top-Down-Verfahren wird ersetzt durch ein prozedurales Bottom-Up-Verfahren, bei dem das maschinelle Lernsystem an einer Unmenge von Daten praktisch sich selbst programmiert. So erkennt es nach der Fütterung mit vielen Scans von Krebszellen ganz richtig Krebszellen auch dort, wo die Ärzte keine gesehen haben, und empfiehlt dazu auch gleich die geeignete Therapie. Plötzlich weiß die KI mehr als der Mensch, weil sie viel mehr Daten verarbeiten kann als dieser, und zwar mit einer solchen Komplexität, dass der Mensch nicht einmal mehr nachvollziehen kann, wie das System zu seinen Einsichten kam. Es geht dann nur noch darum, ob die Aussage – Diagnose und Therapievorschlag – stimmt. Fast immer stimmt sie.
Das ist das Undurchsichtigkeitsproblem – im Fachjargon Black-Box genannt. Es gewinnt an Brisanz, wenn die KI nicht den Zustand menschlicher Zellen erkennen soll, sondern ob Personen kreditwürdig sind, für einen Job geeignet scheinen; ob Sozialhilfeempfänger wirklich bedürftig sind und Straftäter womöglich rückfällig werden. In all diesen Bereichen kommen bereits KI-Systeme zum Einsatz, die im konkreten Fall eine Entscheidung treffen, deren Gründe sich zumeist nicht rekonstruieren lassen.
Zwar verlangt die Datenschutz-Grundverordnung der EU von 2018 eine Auskunftspflicht für die Betreiber solch algorithmischer Entscheidungssysteme, aber wie weit kann der Bankangestellte oder die Richterin wirklich nachvollziehen, auf welcher Datengrundlage das System von einer Kreditvergabe oder Haftaussetzung abrät? Und auf welcher Basis würden sie die Entscheidung des Systems anzweifeln? Es mag zwar noch ein Mensch sein, der die traurige Botschaft überbringt (denn auch das verlangt die Datenschutz-Grundverordnung), die Entscheidung selbst indes erfolgt bereits rein technisch.
Die Erziehung der KI resultiert aus ihren Trainingsdaten. Das ist wie beim Menschen: Man denkt das, was einem am meisten vertraut ist – wie das Sprichwort sagt: Der Apfel fällt nicht weit vom Stamm, oder wie Marx sagt: Der Mensch ist das Ensemble seiner gesellschaftlichen Verhältnisse. Sind die Trainingsdaten voller Vorurteile, wird es auch die KI sein, was von Nachteil sein kann beispielsweise für Bewerberinnen auf einen Job und schwarze Bewerber um vorzeitige Haftentlassung. Auch bei der KI, die uns die Welt erklärt, kommt es darauf an, woher sie ihre Weltanschauung hat.
Wird man immer wissen, wo die KI, mit der man interagiert, zur Schule ging? Hinzu kommt das Problem, dass gar nicht alle Kulturen oder Bevölkerungsgruppen den gleichen linguistischen Fußabdruck im Internet hinterlassen. Weiße Männer, die Englisch sprechen, bilden die Mehrheit, weswegen die KI vor allem deren Perspektive auf die Dinge der Welt übernehmen wird. Um dies zu korrigieren, fordern KI-Ethiker:innen, dass die Trainingsdaten die Zusammensetzung der Bevölkerung offline widerspiegeln. Das ist zwar nicht einfach, man müsste dafür sorgen, dass auch orale Kulturen und Kulturen ohne Internetzugang angemessen in digitaler Form vorliegen, aber es wäre machbar.
Allerdings wäre das nur die Fortschreibung der Missstände, die in der Offline-Welt bestehen, sagen wiederum andere und fordern „affirmative actions“, wie die Quotenregelung in den USA heißt. In den Trainingsdaten der KI sollen jene Gruppen bevorzugt werden, die in der Gesellschaft bisher viel zu wenig zu Wort kamen. Die Losung heißt: „algorithmic reparation“, zu Deutsch: algorithmische Reparatur beziehungsweise Reparation.
Der Reparationsansatz in der KI-Forschung fragt nicht, ob eine KI gut oder gerecht ist, sondern ob sie hilft, die bestehenden Machtverhältnisse zu verändern. Die KI wird somit zum Werkzeug der Gesellschaftsveränderung; Datenpflege entpuppt sich als politischer Aktivismus. Denn die Gesellschaft wird nun dadurch verbessert, dass man sie auf der Ebene der Trainingsdaten besser macht, als sie ist. Die KI repräsentiert, wenn sie statt über medizinische über politische Fragen spricht, nicht die Gesellschaft oder gar die Gesamtheit der verschiedenen Gesellschaften auf der Welt. Die mit Quotendaten gefütterte KI repräsentiert die Welt, wie sie aus der Perspektive zum Beispiel des Feminismus und der Critical Race Theory sein sollte, und schafft diese Welt damit auch zugleich. Sie wird gendern, politisch korrekt sein und immer die Rechte der Minderheiten vertreten. Und je mehr der Mensch mit den Augen dieser KI die Welt zu sehen lernt, je mehr wird ihn die KI zum richtigen Sehen erziehen.
Auch das ist noch nicht alles auf dem Weg in den Solutionismus. Auch bei der algorithmischen Reparatur der Welt entscheiden ja immer noch Menschen, wie die Technik die Gesellschaft verändern soll. Der nächste Schritt besteht darin, auch dies der Technik zu überlassen.
Diese Überlegung findet man in der Debatte zur Frage, mit welchen Werten man die KI überhaupt ausstatten soll; eine äußerst komplizierte Frage nicht nur deswegen, weil es in der Welt verschiedene Kulturen, Religionen und politische Systeme mit sehr unterschiedlichen Wertvorstellungen gibt. Unklar ist bereits, ob man der KI normativ Werte vorgeben oder sie anhand des Verhaltens der Menschen empirisch erkennen lassen soll, was den Menschen wichtig und heilig ist. Denn was, wenn die meisten Menschen sich so verhalten, wie es eigentlich nicht sein sollte: wenn sie fremden-, schwulen-, frauenfeindlich sind, populistischen Politiker:innen auf den Leim gehen und sich für die Todesstrafe aussprechen? Sollte das dann der ethische Maßstab der KI sein?
Aber selbst, wenn man sich für das empirische Verfahren ausspricht und die KI utilitaristisch mit den Werten der Mehrheit ausstattet, bleibt die Frage, ob das wirklich im Interesse dieser Menschen wäre. Man denke nur an all die selbstzerstörerischen Dinge, auf die sich der Mensch einlässt: Zu viele Zigaretten, zu viel Zucker, zu viel Wein. Die KI könnte den Menschen vor dem schützen, was dieser zwar will, ihm aber schadet.
Angesichts dieser Zweifel überrascht es nicht, dass die Moralphilosophie vorschlägt, die Frage, mit welchen Werten die KI ausgestattet werden soll, zu vertagen beziehungsweise zu delegieren, nämlich an die KI selbst. Das mag absurd klingen, ist aber nur die logische Konsequenz dessen, worin die KI dem Menschen überlegen ist: Datenverarbeitung. Die KI könnte für alle konkurrierenden Wertesysteme Zukunftsszenarien durchspielen und herausfinden, welches Wertesystem das Wohl der Menschheit am effektivsten befördert. Der Solutionismus erreicht seine volle Blüte, wenn er nicht nur garantiert, dass moralische Normen durchgesetzt werden, sondern schon bestimmt, wie man diese Normen überhaupt findet.
Mit diesem Ausblick in die Zukunft kommen wir an das Ende einer Reise, die längst begonnen hat. Die Reise des Menschen weg vom „Leitbild des mündigen Bürgers“, der sich aus innerster Überzeugung zum richtigen Verhalten ermahnt, hin zum Modell der stabilen Gesellschaft, in der das richtige Verhalten sozialtechnisch erzwungen wird.
Wie gesagt, die Ethik-Kommission warnte bereits 2017, dass der technische Fortschritt mit einem gesellschaftlichen Rückschritt einhergehen könnte: wenn nämlich nicht mehr die Menschen autonom und wertegeleitet das Richtige tun, sondern die Technik das Richtige alternativlos durchsetzt. Das Beispiel, an dem die Ethik-Kommission die Gefahr erklärte, ist freilich denkbar ungeeignet für ihre Warnung. Nicht, weil es Raserei als Ausdruck des mündigen Bürgers zu suggerieren scheint, sondern weil der technische Fortschritt ja darauf zielt, dass eines Tages die KI am Steuer sitzt und der Mensch hinten Zeitung liest. Dann ist sowieso Schluss mit der Möglichkeit, Zitat, „objektiv unvernünftige Entscheidungen wie eine aggressivere Fahrhaltung oder ein Überschreiten der Richtgeschwindigkeit zu treffen“. Oder soll man der KI etwa absichtlich menschliche Schwächen einprogrammieren?
Das wäre reichlich absurd, immerhin wird Technik erfunden, um menschliche Schwächen zu kompensieren, nicht um sie zu bestärken. Hammer und Rad kompensieren die Schwäche von Arm und Bein, die Schrift kuriert das Vergessen, der Computer optimiert die Datenverarbeitung und der Algorithmus die Befolgung der Regeln. Es sollte also nicht überraschen, dass die Technik irgendwann nicht nur Autos steuert, sondern die Gesellschaft.
Es scheint, als sei der Solutionismus das unvermeidliche Ziel der Menschheitsgeschichte, sobald das Technische die vierte Stufe seiner Revolution erreicht hat. Auf dieser Stufe werden mit technischen Mitteln nicht nur Zwecke erfüllt, wie bei voll automatisierten Produktionsabläufen. Auf dieser Stufe werden mit technischen Mitteln auch die Ziele gesetzt. Also ist die Technokratie unser Schicksal? Als hochwillkommene Reparatur auch der Schwächen der Demokratie, wie die Sozialingenieure schon immer sagten? Diese Frage lässt sich je nach politischem Standpunkt und je nach Weltanschauung sehr unterschiedlich beantworten, weswegen wir es hier gar nicht erst versuchen. Möge die KI selbst uns darauf eines Tages ihre Ansicht mitteilen.