Mittwoch, 28. Februar 2024

Die Logik des Digitalen
Es zählt, was sich zählen lässt!

Quantität ist das zentrale Qualitätskriterium unserer Zeit. In sozialen Netzwerken ist es die Anzahl der Freunde, Follower, Views, Likes und Shares, die Erfolg und Status bestimmt. Klicks entscheiden über Sichtbarkeit in der digitalen Welt.

Von Roberto Simanowski | 11.02.2024
Eine Hand hält ein Smartphone, über dem Blasen mit Klickzahlen schweben.
Unsere Selbstdarstellung online unterliegt einer ständigen Bewertung, denn ihr Erfolg ermisst sich jeweils an der Zahl der Freunde, Views, Likes, Shares und Retweets, die wir bekommen. (IMAGO / Pond5 Images / IMAGO / xonephotox)
Die Zahlenobsession in sozialen Netzwerken, in denen es um Views, Likes und Follower geht, führt nicht zu neuen qualitativen Höhen, sondern in eine Kultur des Mainstreams. Zahlen werden längst zu Orientierungsmitteln für wichtige lebenspraktische Entscheidungen: Vom Übereinstimmungskoeffizienten auf Dating-Plattformen hängt die Partnerwahl ab, das Ranking der Universitäten und ihrer Mitarbeiter scheint die Einkommenshöhe ihrer einstigen Studierenden zu bestimmen, wird so zum zentralen Kriterium für Entscheidungen über den eigenen Werdegang.
Zudem werden menschliche Interaktionen zunehmend von Zahlen beeinflusst, von der Bewertung der Turker (auf Amazons Mechanical Turk-Plattform für Minijobs) und des Uber-Fahrers (und seiner Mitfahrerin) sowie den Konzepten bis zu den Experimenten mit Social Credit System, die jede Handlung in eine Zahl übersetzen, um einen Ergebnis-Score zu ermitteln, der den Platz eines Individuums in der Gesellschaft bestimmt.
Dieser Score tritt damit an die Stelle der sogenannten großen Erzählungen, die dem menschlichen Dasein Sinn und Orientierung geben und die Episoden des individuellen Lebens zusammenhalten. Es ist eine letzte große Erzählung der Zahl entstanden.
Selbst die künstliche Intelligenz, die dem Menschen immer mehr Entscheidungen und Aufgaben abnimmt, einschließlich des Schreibens von Texten, ist von der Zahl getrieben, denn sie richtet sich nach statistischen, numerischen Kriterien aus, statt nach normativen. Was entsteht, ist nicht das Neue, sondern etwas, das im Mainstream gefallen kann.
Roberto Simanowski, geboren 1963, lebt nach Professuren für Kultur- und Medienwissenschaft in den USA, der Schweiz und Hongkong als Publizist in Berlin und Rio de Janeiro. Zu Simanowskis Büchern gehören "Data Love" (2014/engl. 2018), "Facebook-Gesellschaft" (2016/engl. 2018) und "Abfall. Das alternative ABC der neuen Medien" (2017, engl. 2018). Sein Buch "Todesalgorithmus. Das Dilemma der künstlichen Intelligenz" erhielt den Tractatus-Preis für philosophische Essayistik 2020.

Es beginnt irgendwo im Freien, als der deutsche Naturwissenschaftler und Weltreisende Alexander von Humboldt ausruft: Ein Hügel, dessen Höhe nicht bekannt ist, beleidigt die Vernunft. Der Ausruf ist bekundet in Daniel Kehlmanns Roman Die Vermessung der Welt von 2005. Er symbolisiert, selbst wenn er fiktiv wäre, wie kein anderer den Erkenntnisdrang der Aufklärung, der im 19. Jahrhundert zur Blüte der Naturwissenschaften führte und zu einem regelrechten Vermessungsboom: von der Kartografie und Linnés botanischer Systematik der Arten bis zur Schädellehre des deutschen Hirnforschers Franz-Joseph Gall, der versprach, aus der Form des Kopfes die Eigenschaften des Menschen schließen zu können.
Auch und gerade die pseudowissenschaftliche Methode von Galls Phrenologie zeigt, dass Messen, Zählen, Wiegen, Ausgraben und Aufdecken wesentliche Handlungsimpulse der Epoche der Aufklärung sind. Frei nach dem Motto: Habe Mut, dich deines eigenen Zollstocks zu bedienen. Nichts sollte im Verborgenen bleiben, alles musste ans Licht, wie es sich für eine Emanzipationsbewegung gehört, deren Symbol das Licht ist und deren berühmteste Geheimgesellschaft sich Illuminatenorden nannte.
Nein, die Vermessung des Menschen ist keine Erfindung der Digitalisierung. Die Digitalisierung von allem und allen, die wir seit Ende des 20. Jahrhunderts erleben, fördert zwar immens die Datafizierung und damit auch die Dataveillance, wie Überwachung im Zeitalter von Big-Data heißt. Aber der Impuls der Datafizierung ist keine Erfindung des Internets, sondern das Erbe der Aufklärung. Der Vermessungswahn der Gegenwart ist die Fortführung eines alten Erkenntnisdranges mit neuesten technischen Mitteln.
Diese neuen technischen Mittel führen nun dazu, dass zum einen die Vermessung immer mehr ins Verborgene drängt und zum anderen die Zahl – just nachdem die Postmoderne das Ende der großen Erzählungen ausgerufen hatte – zur letzten großen Erzählung der Post-Postmoderne wird. Am Ende wird die Mathematik sogar zur Grundlage der Sprache. Aber beginnen wir mit der Ausweitung der Vermessungszone in vier Bereichen.

Erstes Szenario: Affective Computing

Der Erkenntnisdrang, der schon mit der Vermessung des Schädels auf das Innere des Menschen zielte, macht nicht an der Außengrenze seines Körpers Halt. Ende des 19. Jahrhunderts entwickelte sich mit der Psychoanalyse eine Theorie, die tief ins Verborgene des Menschen schaute, bis in den Schlaf hinein, und mit wissenschaftlich begründeten Methoden dessen Gefühle und Gedanken aufzudecken versuchte. Das methodische Paradigma kam hier noch ganz aus der Literatur: durch Zwischen-den-Zeilen-Lesen und Symbol-Entschlüsselung wollte man nicht nur das verstehen, was die Autorin beziehungsweise der Patient eigentlich hatte sagen wollen, sondern auch das, was er und sie vor den anderen und sich selbst geheim halten wollten.
Die Psychoanalyse ist der Versuch, das Geheimnis in der Sprache und durch die Sprache aufzudecken. Zu ihrem theoretischen Fundament gehört der Ausspruch von Charles-Maurice de Talleyrand, französischer Staatsmann unter Napoleon: „Die Sprache ist dem Menschen gegeben, um seine Gedanken zu verbergen.“ Diese Gleichung liegt nun auch dem Versuch zugrunde, mit digitalen Mitteln Zugang zum Innenleben des Menschen zu erhalten. Allerdings verweist das methodische Paradigma da nicht mehr auf die Literatur, sondern auf die Mathematik: Es wird nicht länger interpretiert, sondern vermessen.
Die Rede ist von „affective computing“, so heißt der Forschungszweig, der durch die Analyse biometrischer Daten wie Stimmlage, Gesichtszüge, Gestik oder Körperhaltung den nonverbalen Teil der Kommunikation offenzulegen versucht. Wäre es nicht toll, sagt die Gründerin des Startups Affectiva euphorisch in einer Radiosendung, wenn wir diesen nicht-verbalen Teil unserer Kommunikation zur Lesbarkeit hin befreien könnten? Die Radiosendung, die verschiedene Startup-Ideen vorstellt, heißt passenderweise „Should this exist?“: Soll es das geben? Und die Moderatorin denkt bei Affectiva nicht zu Unrecht an „thoughtcrime”, das Gedankenverbrechen in Orwells Dystopie 1984, und an „precrime”, das potenzielle Verbrechen in Steven Spielbergs Science-Fiction-Film Minority Report. Soll es wirklich eine App geben, die unsere Gedanken und Gefühle lesen kann?
Zu spät! Solche Apps werden längst eingesetzt. Zum Beispiel, wenn in einem Bewerbungsverfahren ein Vorstellungsvideo einzusenden ist, das dann von einer KI auswertet wird. Sagt dieser die Körpersprache und der Gesamteindruck der Kandidatin zu, kommt die Bewerbung in die nächste Runde. Ein entsprechender Anbieter für solche Affektanalyse ist HireVue mit Sitz in South Jordan, Utah, und Retorio mit Sitz in München. In China kommt dieses Verfahren sogar im Unterricht zum Einsatz, wenn unter dem poetischen Begriff „Himmelsauge“ eine KI-unterstützte Kamera die innere Stimmungslage der Schüler erkundet. Im Westen begrenzt sich der Einsatz eines solchen Auges noch weitgehend auf den Arbeitsbereich und Konferenzräume.
Auch die EU schaut Menschen, die in sie einreisen wollen, computergestützt ins Innere. Die von der EU geförderte App iBorderCtrl analysiert bei einem vorausgehenden Video-Gespräch der Antragssteller deren Gesichtszüge – wie ein visueller Lügendetektor aus dem Internet. Und an der Universität des Saarlandes arbeitet man daran, die Persönlichkeit eines Menschen anhand seiner Augenbewegungen zu erkennen. Der Entdeckungs- und Vermessungsdrang der Moderne kennt keine Grenzen, nicht nur in autoritären Staaten und nicht nur im Wirtschaftsbereich der Gesellschaft. Und wir alle machen schon fleißig mit, wenn wir unser Handy per Gesichts-ID entsperren und ihm so gleich vorab unsere aktuelle Stimmung verraten.
All diese Beispiele kommen ohne invasive Methoden aus. Die Vermessung biometrischer Daten erfolgt im Außen der Betroffenen. Aber natürlich gibt es Begehrlichkeiten, auch diese Grenze zu überwinden. Und es gibt bereits entsprechende Experimente, um aus der Vermessung der Gehirnströme auf die gedachten Gedanken schließen zu können. Die Zukunft des affective computing heißt MRT: Magnetresonanztomografie.
So wurden in einem Experiment die Gehirnströme gemessen, die Menschen während der Betrachtung von über 1.000 Bildern erzeugten. Die jeweiligen Muster der Gehirnströme wurden gemeinsam mit dem entsprechenden Bild einer KI vorgelegt. Als den Probandinnen später im MRT neue Bilder gezeigt wurden, versuchte die KI, anhand der Gehirnströme das zugrunde liegende Bild in Form und Farbe zu rekonstruieren. Mit einer Erfolgsrate von über 80 Prozent.
In einer zweiten Versuchsanordnung wurde anhand der Gehirnströme rekonstruiert, was die Probanden bei der Betrachtung eines Bildes dachten. Denn darin liegt das wirklich interessante und höchst brisante Potenzial dieser Vermessungsform der Zukunft: nicht in der Übertragung des Bildes in Gehirnströme, sondern in der Übertragung der Gehirnströme in Sprache, darin also, Gedankenmuster in den Gehirnströmen zu erkennen, ganz gleich ob diese von einem Bild stimuliert sind oder nicht.
Kommunizieren ohne zu sprechen, das wäre natürlich eine große Hilfe für Menschen, die wegen eines Unfalls oder einer Erkrankung weder sprechen noch schreiben können. Aber das heißt nicht, dass diese Technologie, ist sie einmal da, nicht auch beim Rest der Bevölkerung zum Einsatz kommen könnte. Man wird sich nicht darauf verlassen können, dass die eigenen Gehirnströme im normalen Alltag sicher vor jeglicher Vermessung sind. Gewiss, sie können nicht wie ein RFID-Chip, der wie etwa ein Transponder beim Öffnen einer Tür funktioniert, aus nächster Nähe heimlich über elektromagnetische Wellen ausgelesen werden. Es braucht eine Mensch‑Maschine-Schnittstelle. Genau daran arbeitet Elon Musks Unternehmen Neuralink, das Ende Mai 2023 von der US-amerikanischen Gesundheitsbehörde FDA auch tatsächlich die Erlaubnis erhielt, Chips ins menschliche Gehirn zu implantieren.
Nicht auszuschließen also, dass wir im Bereich der Cyborg-Technologien eines Tages ebenso überrascht werden wie neulich im Bereich der künstlichen Intelligenz von ChatGPT. Nicht auszuschließen, dass in künftigen Bewerbungsprozessen ein Gehirnwellen-Scan ebenso zum unvermeidlichen Prozedere gehört wie heute der biometrische Scan zur Emotions- und Affekt-Analyse.

Zweites Szenario: Community intelligence

Der Komplize des Forschungsfeldes affective computing heißt community intelligence. Dabei geht es weniger um gemeinschaftliche Intelligenz als um Erkenntnisse über gemeinschaftliches Handeln, um die Analyse sozialer Dynamiken in Arbeitsprozessen zum Beispiel. Wer hat wessen Emails wie schnell und wie ausführlich beantwortet? Wer hat mit wem Gespräche über welche Themen geführt? Um den Vorrat an Analysedaten zu erhöhen, kann man die Angestellten eines Unternehmens auch veranlassen, ein „sociometric badge“ zu tragen, so dass sich Interaktionen zwischen ihnen diesseits des digitalen Raumes besser nachvollziehen lassen.
Eine Firma, die solche Dienste samt „sociometric badge“ anbietet, heißt Sociometric Solutions. Sie wurde 2010 von dem Professor der Computerwissenschaft am Massachusetts Institute of Technology Alex Pentland gegründet und operiert seit 2015 unter dem Decknamen Humanyze. Pentland sieht die volle Nutzung des Potenzials einer „data-rich society“ durch Datenschutzbedenken gefährdet und hält dagegen, dass man hier zwischen persönlichen und gesellschaftlichen Werten abwägen müsse. Man denke nur an die Vorteile bei der Pandemiebekämpfung, wenn alle einen „sociometric badge“ tragen und somit ein Bewegungsprofil erzeugen würden, das sich epidemiologisch auswerten ließe – oder eben auch, sollte das nötig sein, geheimdienstlich.
Vorerst erfolgt die Massenvermessung noch ohne Badge und auf Basis der Freiwilligkeit. Ein Beispiel dafür ist Googles Projekt Baseline, das von seinen Teilnehmerinnen Daten über ihren körperlichen Zustand und ihren Tagesablauf sammelt durch Interviews zum Ess- und Bewegungsverhalten sowie Wearables für die Messung von Puls, Blutdruck und Schlafzyklus. Ein Projekt zur Kartierung der menschlichen Gesundheit im Sinne der Gemeinschaft, wie das Werbevideo betont:
„Deine Teilnahme wird wissenschaftliche Entdeckungen ermöglichen, die uns allen helfen werden, gesünder zu leben.“
Gegen solche Versuche der Gesellschaft, besser über sich Bescheid zu wissen, um besser für seine Bürger und Bürgerinnen sorgen zu können, lässt sich kaum etwas sagen. Und weil das so ist, unterstehen derartige Datenerhebungen auch nicht immer der Freiwilligkeit. Nehmen wir das Implantate-Register, das der Deutsche Bundestag am 26. September 2019 beschloss. Es zielt auf die Gewinnung wichtiger Erkenntnisse über die Wirkung der Implantate und sieht dazu die Erfassung sensibler Gesundheitsdaten in einem staatlichen Patientenregister vor, und zwar auch ohne Einwilligung der betroffenen Patienten. Klar, dass Datenschutz-Aktivistinnen da Alarm schlagen, so wie auch jetzt bei der digitalen Patientenakte. Die Gesetzgeber aber antworten:
„Der Einzelne hat kein Recht im Sinne einer absoluten, uneingeschränkten Herrschaft über seine Daten. Er ist vielmehr eine sich innerhalb der sozialen Gemeinschaft entfaltende, auf Kommunikation angewiesene Persönlichkeit. Informationen, auch soweit sie personenbezogen sind, stellen ein Abbild sozialer Realität dar, das nicht ausschließlich dem Betroffenen allein zugeordnet werden kann. Das Grundgesetz hat die Spannung zwischen Individuum und Gemeinschaft im Sinne der Gemeinschaftsbezogenheit und Gemeinschaftsgebundenheit der Person entschieden.“
Die Einschränkung seiner informationellen Selbstbestimmung ist dem Menschen zumutbar, wenn sie im Interesse des Gemeinwohls liegt. Wieweit das der Fall ist, wenn die Pharmaindustrie und andere profitorientierte Unternehmen diese Daten auswerten dürfen, steht auf einem anderen Blatt. Wir merken uns, dass der Mensch eher der Zwischenwirt seiner Informationen ist, die er prinzipiell der Gesellschaft schuldet, damit diese ihre vielfältigen Prozesse – bestenfalls auch in seinem Interesse – effektiver organisieren kann.

Drittes Szenario: Emotional Mapping

Vermessen wird, was vermessen werden kann, und das geht keineswegs immer vom Staate aus oder mit Zwang einher. Im Gegenteil, oft sind es Individuen, die voranpreschen. Das zeigt sehr eindrucksvoll die Quantified Self-Bewegung, dieser Volkssport der Selbstvermessung in allen möglichen Lebenslagen: von der Pulsfrequenz, dem Blutdruck und dem Ess- und Schlafverhalten bis zur Anzahl an Schritten, die man täglich geht, an Menschen, die man täglich trifft, und an Buchstaben, die man täglich in den Computer tippt. Der Leitspruch der Self‑Trackerinnen lautet „Selfknowlege through numbers!“ (Selbsterkenntnis durch Zahlen) und suggeriert, dass der Weg zum eigenen Ich keine Frage der Kontemplation ist, sondern des Messens.
Dieses Messen beginnt nicht selten verspielt und unschuldig aus dem Geiste der Kunst. So vermaß Christian Nold 2005 mit entsprechenden Sensoren in einem „Galvanic Skin Response“-Anzug die Erregung von Personen im städtischen Raum und zeigte, wo Menschen Entspannung empfinden und wo Stress. Das Ergebnis war eine Gefühlskarte der Stadt, die uns, wie Nold sein Projekt beschrieb, den Raum ganz neu wahrnehmen lasse. Emotional Cartography heißt das Buch, das Nold dazu schrieb und das heute vielleicht nicht zur Pflichtlektüre von Kunststudenten gehört, sicher aber von großem Interesse ist für die Freunde einer Smart City.
Auch der Raum kann also einer allgemeinen Bewertung auf seinen Affekt-Effekt hin unterworfen werden, was mit Smartphone und anderen Wearables inzwischen viel leichter und breiter möglich ist als in Nolds Kunstprojekt vor fast 20 Jahren. Und so bewerten wir heute nicht nur die Sauberkeit eines Bahnsteigs oder einer Toilette für das örtliche Objekt-Management. Wir speisen unsere Bewertungen zu Restaurants, Hotels und anderen öffentlichen Orten per Yelp, booking.com und Google Maps ins Internet ein, wo sie als „crowdsource“-Ratschläge dann die Raumerfahrung anderer mitbestimmen.
Dass die Vermessung oft vom Individuum selbst ausgeht beziehungsweise auf dessen Mitarbeit beruht, heißt allerdings nicht, dass sie nicht trotzdem auch hinter seinem Rücken und gegen seine Interessen geschehen kann. Das Geheimnis liegt in der geschickten Verbindung von Daten, die für sich allein genommen unschuldig scheinen, kombiniert aber Einsichten ermöglichen, die uns überraschen und unangenehm sein mögen.
Ein berühmtes Beispiel dafür ist das „One-Night-Stands“-Mapping, das Uber 2014 in San Francisco vornahm: Eine Kartografie flüchtiger sexueller Abenteuer. Natürlich folgt Uber niemandem an die Tür oder fragt seine Fahrerinnen über ihre Fahrgäste aus. Es interpretiert einfach die Daten zu Raum und Zeit, die seine Nutzerinnen im System hinterlassen. Denn was anders soll es bedeuten, wenn jemand an einer Freitag- oder Samstagnacht zwischen zehn Uhr abends und vier Uhr morgens erst eine Fahrt zu einer bestimmten Adresse macht und einige Zeit später im Umkreis dieser Adresse erneut ein Uber mit einem anderen Ziel bucht!
Wir verstreuen täglich „Brotkrumen“, wie Pentland, der MIT-Professor mit dem „sociometric badge“, das nennt: „ehrliche Daten“, die wir nicht gezielt und zur Täuschung anderer über unser ach so tolles Leben online stellen, sondern Daten, die wie Brotkrumen abfallen in unserem digitalisierten und datafizierten Leben: Anrufdaten, Kreditkartentransaktionen, GPS-Standortbestimmungen, besuchte Webseiten, Likes für Posts, Tweets, Videos oder eben die Daten unserer Uber‑Fahrten.
Pentland, der sich wünscht, dass wir alle ständig ein „sociometric badge“ mit uns herumtragen, um noch viel mehr Brotkrumen zu produzieren, schwärmt von einer mathematischen Erklärung gesellschaftlicher Prozesse:
„Durch die Kombination von Big Data aus Mobiltelefonen, Kreditkarten, sozialen Medien und anderen Quellen können wir Menschen jetzt auf die gleiche Weise beobachten, wie Biologen Tiere in ihrem natürlichen Lebensraum mit Kameras oder Sonar beobachten können. Aus diesen Beobachtungen von Menschen können wir mathematische Verhaltensregeln ableiten – eine ‚soziale Physik‘, die ein zuverlässiges Verständnis dafür liefert, wie Informationen und Ideen von Mensch zu Mensch fließen.“
Der Mensch als Tier, das mit neuester Technik in seinem natürlichen Lebensraum beobachtet wird. Wie gesagt, es liegt im Interesse der Gesellschaft, so gut wie möglich über sich selbst Bescheid zu wissen. Frei nach Alexander von Humboldt: Ein Mensch, der nicht vermessen ist, beleidigt die gesellschaftliche Vernunft.

Viertes Szenario: Social Credit Score

Im Fernen Osten ist man schon viel weiter, viel weiter mit der Menschenvermessung. Ex Oriente Lux. Chinas Sozialkreditsystem ist der Disziplinierungstrick für ein rapide im Umbruch befindliches riesiges Land. Ursprünglich als vertrauensbildende Maßnahme in Finanzfragen gedacht, ist das Sozialkreditsystem inzwischen zum Mittel geworden, „Redlichkeit“ nachzuweisen und zu fördern. Redlichkeit kann dabei sehr vieles bedeuten: die Einhaltung von Verkehrsregeln und Hygienevorschriften (für Restaurants etwa und Lebensmittelhersteller), politische Loyalität (offline und online) oder sozialverträgliches Verhalten wie Fleiß, Ordnung, Hilfsbereitschaft und die Achtung der Eltern.
Im Westen wird Chinas Sozialkreditmodell natürlich mit Schrecken betrachtet und politisch geächtet. Die EU verbietet in ihrer KI-Verordnung sogar ausdrücklich „die Bewertung des sozialen Verhaltens für allgemeine Zwecke mithilfe von KI durch öffentliche Behörden (‚Social Scoring‘)“. Gleichwohl haben sich auch im Westen längst Formen einer quantitativen Bewertung sozialen Verhaltens entwickelt. Bei Uber und Airbnb treten sich Anbieterin und Kunde mit einem Score gegenüber und die Crowdworker auf Amazons Plattform Mechanical Turk tragen, auf der Suche nach neuen Auftraggebern, den Score der Zufriedenheit bisheriger Kundinnen mit ihrer Arbeit vor sich her.
Auch unsere Selbstdarstellung online unterliegt einer ständigen Bewertung, denn ihr Erfolg ermisst sich jeweils an der Zahl der Freunde, Views, Likes, Shares und Retweets, die wir bekommen. Diese Reputationsvermessung lässt sich steigern, wie die Pioniere des Web3 zeigen. In dieser nächsten Phase des Internets sollen persönliche Aktionen als singuläre per NFT-Technologie identifizierbare digitale Objekte nachgewiesen und bewertet werden. Etwa meine Unterstützung einer Autorin durch den Erwerb eines öffentlich zugänglichen Artikels. Oder meine Teilnahme an einer Schulung, Versammlung, Party. All das soll fälschungssicher festgehalten werden und über mich als Person Auskunft geben, wo immer diese Auskunft erwünscht ist.
Ein besonders bizarres Vorhaben der Vermessung individuellen Verhaltens präsentiert das Web3-Startup Disco, das jedem großartigen und hingebungsvollen Fan einer Band zu den Privilegien verhelfen will, die damit verbunden sein mögen. Dazu werden die Anzahl der Konzerte, die dieser Fan von seiner Lieblingsband bereits besucht hat, die Anzahl an Stunden, die er ihre Musik gehört, und die Produkte, die er von ihr gekauft hat, erfasst. Solcherart zertifiziert als wirklich treuer Fan, kann der dann beim Besuch der nächsten Show seiner Lieblingsband Anspruch auf einen Backstage-Zugang erheben.
Natürlich kann man diese Web3-Utopie einer verlässlichen Protokollierung persönlicher Aktivitäten nicht mit dem dystopischen Sozialkreditsystem in China vergleichen, das von einem autoritären Regime der Bevölkerung aufgedrängt wird. Sagen jedenfalls jene aus dem Westen, die nicht wahrhaben wollen, auf welch großen Zuspruch das Sozialkreditsystem in China stößt.
Aber die politischen Differenzen der Vermessung sind hier nicht das Thema. Entscheidend ist, dass in beiden Fällen die Zahl zum Fundament einer letzten großen Erzählung wird, nachdem all die anderen Meistererzählungen sich aus sehr unterschiedlichen Gründen diskreditiert haben: die christliche, die humanistische, die kommunistische. Denn am Ende ist es die Zahl, in die alle unsere Handlungen eingehen, in der all die flüchtigen Momente unseres Daseins aufgehoben sind, aufgehoben als Teil eines größeren Ganzen, so wie die verschiedenen Episoden einer gut erzählten Geschichte. Vermessung gibt unserem Leben heutzutage einen tieferen Sinn, wie früher Religion oder eine politische Theorie.
Und sie kolonialisiert zunehmend den innersten Bereich unserer Kommunikation. Denn auch das Sprechen kann mathematisiert werden, von der Wahl der Wörter bis zur Satzstruktur. Jedenfalls, wenn das Sprechen von einer KI übernommen wird wie ChatGPT oder Bard, wie Googles Sprachmodell heißt, oder Ernie, so der Name des chinesischen Äquivalents. All diese Sprachmodelle rechnen, wenn sie sprechen. Sie berechnen aus riesigen Textmengen die Verhältnisse der Wörter zueinander und wählen als nächstes Wort in einem Satz immer das mit der statistisch höchsten Anschlussfähigkeit.
Deswegen weiß ChatGPT, dass der Satz „Sie ging nicht nach links, sondern …“ mit den Worten „nach rechts“ enden muss und dass Hitler ein Monster war, denn so wird er im Datensatz viel öfter bezeichnet denn als Held. Mit der gleichen mathematischen Logik denkt die KI bei dem englischen Wort für Pfleger und Pflegerin „nurse“ aber auch an eine Frau und bei der ebenfalls genderneutralen Abkürzung CEO für Chief Executive Officer an einen Mann. Denn das sind die mathematischen Verhältnisse in den Trainingsdaten der KI, die zugleich mehr oder weniger die gesellschaftlichen Verhältnisse spiegeln.
Die politische Konsequenz dieses mathematischen Schreibstils liegt auf der Hand: Ohne normatives Fine-Tuning des numerischen Sprachmodells wird dieses sich immer für das entscheiden, was im Datensatz die Mehrheit auf seiner Seite hat, also für den Mainstream. Und je mehr wir mit dem Sprachmodell kommunizieren und von ihm uns unsere Texte schreiben lassen, umso mehr werden wir sein lexikalisches und syntaktisches Design übernehmen und selbst im Modus der Vermessung sprechen.
Wenn aber immer mehr Texte von der KI und nach ihrem Vorbild produziert werden, wird die Mehrheit, die die Perspektive dieser Texte bestimmt, immer stärker. Erst recht, wenn die Texte der KI wiederum in die Trainingsdaten des nächsten Sprachmodells eingehen. Irgendwann wird es dann egal sein, was die Menschen über ein Thema denken und ob sie ihre Meinung dazu ändern. Sie werden es mengenmäßig nicht mehr aufnehmen können mit all den von der KI selbst generierten Daten.
Spätestens hier kippt das Modell der Vermessung ins Absurde. Denn nun geht es nicht mehr um Aufdeckung und Erkenntnis, sondern um die Immunisierung des Gegebenen gegen seine Neubewertung. Die Philosophie kennt dafür das Bild der Schlange, die sich selbst in den Schwanz beißt. Ein in sich geschlossene Kreislauf, völlig autark gegenüber seiner Umwelt, weil er sich unaufhörlich von seinen eigenen Ausscheidungen ernährt. Eine Art Filterblase, die alles Fremde von sich fernhält.
Oder ein Hügel, der sich völlig nach außen abschottet. Was uns zurück an den Anfang bringt und zu Humboldts Ausruf: Ein Hügel, dessen Höhe nicht bekannt ist, beleidigt die Vernunft. Dem wäre nun die Frage anzufügen, ob der Erkenntnisdrang nicht auch seine Grenzen erkennen muss. Ist Vermessung, die vor nichts Halt macht, nicht vermessen – und eine Beleidigung der Vernunft?