Freitag, 19. April 2024

Archiv

Politische Theorie des Wissens
Das Potenzial von Teeküche und Kantine

Entscheiden, was wahr ist und was nicht - doch auf welcher Basis? Im digitalen Zeitalter lässt sich Wissen auf neue Arten manipulieren und verschleiern. Die Sozialwissenschaftlerin und Philosophin Lisa Herzog schaut sich das Zusammenspiel von Wahrheit und politischen Entscheidungsprozessen genauer an.

Lisa Herzog im Gespräch mit Sibylle Salewski | 02.09.2018
    Kopf einer Frau mit digitalen Daten
    Populistische Strömungen im Aufwind - neue Formen des Wissens haben daran einen Anteil - doch welchen? (imago / Nanette Hoogslag)
    Seit jeher beschäftigen sich Philosophen mit der Frage, wie wir zu Wissen gelangen, und Politikwissenschaftler versuchen zu ergründen, wie eine gerechte Gesellschaft aussehen könnte. Die Sozialwissenschaftlerin und Professorin für Politische Philosophie und Theorie Lisa Herzog verbindet beides miteinander.
    Entscheiden, was wahr ist und was nicht
    Der Zugang zu Wissen ist eine Frage der Gerechtigkeit. Um mitentscheiden zu können, in was für einer Gesellschaft wir leben wollen, um an demokratischen Prozessen teilnehmen zu können, müssen wir wissen, was wahr ist und was nicht. Doch Wissen wird heute anders gewonnen und verbreitet, als noch vor wenigen Jahren: Jeder kann im Netz publizieren, Inhalte werden in Echtzeit weltweit verbreitet, durch Computeralgorithmen gewonnene Erkenntnisse führen nicht nur zu personalisierten Newsfeeds oder Film-Vorschlägen, sie werden auch zunehmend dafür eingesetzt zu entscheiden, wer kreditwürdig ist, welche medizinische Diagnose ein Arzt stellt oder wo verstärkte Polizeikontrollen stattfinden sollten.
    Populistische Strömungen im Aufwind
    Diese neuen Formen von Wissen zu gewinnen und zu verbreiten, zwingen uns dazu, das Verhältnis von Politik und Wahrheit neu zu denken. Im digitalen Zeitalter lässt sich Wissen auf ganz neue Arten verschleiern und manipulieren. Diese Prozesse haben bei den jüngsten Wellen des Populismus eine große Rolle gespielt, vom Brexit über den Aufstieg der AfD bis hin zur Wahl Donald Trumps. Lisa Herzog entwirft eine politische Theorie des Wissens, in der es um die Frage geht, wie Wahrheit und moralische Entscheidungsprozesse im Zeitalter der Digitalisierung zusammenspielen.
    Lisa Herzog ist Philosophin und Sozialwissenschaftlerin. Sie hat die Professur für Politische Philosophie und Theorie an der Hochschule für Politik München inne. In Kürze erscheint ihr Buch ,Reclaiming the System. Moral Responsibility, Divided Labor, and the Role of Organizations in Society’ bei Oxford University Press.
    Sibylle Salewski hat Philosophie und Anglistik in Berlin und New York studiert und arbeitet als freie Redakteurin und Autorin.

    Sibylle Salewski: Philosophen beschäftigen sich seit jeher mit der Frage, wie wir zu Wissen gelangen, und Politikwissenschaftler versuchen zu ergründen, wie eine gerechte Gesellschaft aussehen könnte. Sie haben sich ein hehres Ziel gesteckt, Sie wollen beides miteinander verbinden, Sie wollen etwas entwerfen, das es bisher noch nicht gibt, nämlich eine politische Theorie des Wissens, eine politische Erkenntnistheorie. Worum geht es da?
    Lisa Herzog: Da geht es um die Frage, wie wir mit Wissen in Gesellschaft umgehen. Die Philosophie, die Erkenntnistheorie hat sich sehr lange mit dem Individuum beschäftigt, also wie kann das Individuum zu Wissen kommen, was zählt als Wissen, und seit ungefähr 20, 30 Jahren gibt es die Bewegung der Sozialepistemologie, die sagt, wir wissen ja nicht nur als Individuen völlig auf uns alleine gestellt, sondern es gibt Fragen danach, wie wir Wissen von anderen erwerben können, wann das als Wissen zählt. Die letzte Entwicklung, die sicher auch durch aktuelle politische Ereignisse mit ausgelöst wurde, ist, sich auch die Frage nach den Bedingungen im politischen Bereich zu stellen, um Wissen zu erwerben und umgekehrt auch die Frage zu stellen, welche Voraussetzungen in Bezug auf den Umgang mit Wissen haben denn unsere Gesellschaften vom Politischen her gedacht, also auch aus der demokratietheoretischen Perspektive.
    Salewski: Wenn es um Fakten geht, um Wissen, um Wahrheit, dann scheint es darum in der Politik nicht gut bestellt zu sein im Moment. Warum ist dieses Verhältnis zurzeit so problematisch?
    Herzog: Es gibt all diese Stichworte von Fake News, es gibt die Twitter-Debatten, bei denen es nur noch um Emotionen zu gehen scheint und überhaupt nicht mehr um Fakten. Es gibt sehr viel Skepsis an Wissenschaft, und da kann man manchmal den Eindruck bekommen, als stünde es um das Verhältnis von Wissen, um Politik, schlechter als es jemals in der Geschichte der Menschheit der Fall war. Ich weiß nicht, ob man es so dramatisch sehen muss, denn auch in der Vergangenheit haben Politiker oft mit Lügen, mit Manipulation und so weiter gearbeitet, aber was schon eine Veränderung ist, mit der wir uns neu zurechtfinden müssen, das ist, dass durch das Internet die Rolle von sogenannten Gatekeepern zurückgegangen ist. Jeder kann heute posten, jeder kann Informationen suchen, und Informationen, die verfügbar sind, können dann schnell den Eindruck erwecken, man hätte auch Wissen, und diese neue Situation, dass so viel Information verfügbar ist, wir aber oft nicht wissen, wie wir damit wirklich umgehen sollen, das müssen wir erst neu wieder lernen.
    "Wir sind unglaublich abhängig vom Wissen anderer"
    Salewski: Warum ist Wissen in einer Demokratie wichtig?
    Herzog: Wenn wir von Demokratie sprechen, dann ist ja ein Kern aller unterschiedlichen Theorien und Definitionen von Demokratie, dass die einzelnen Individuen an politischer Entscheidungsfindung beteiligt werden, und zwar auf gleicher Basis. Also jeder von uns kann wählen gehen, jeder von uns kann auch sich als Kandidatin oder Kandidat aufstellen lassen, und es gibt keine privilegierte Klasse oder Schicht, die herrschen würde, ohne dass sie sich gegenüber der Masse, den Bürgern insgesamt verantworten müsste. Diese demokratische Gleichheit setzt voraus, dass die Bürger irgendwie schon wissen, was sie tun, wenn sie abstimmen, dass sie nicht in vollkommenen Traumwelten leben oder sich in vollkommener Uninformiertheit bewegen, dass sie ihre eigenen Interessen kennen und sich dann dafür auch einsetzen können. Das Problem, das sich dann stellt, ist, dass wir ja dieses Postulat der Gleichheit zusammendenken müssen mit einer unglaublichen Ausdifferenziertheit des Wissens in der heutigen Gesellschaft. Also manche sprechen da auch von Hyperspezialisierung, und diese Hyperspezialisierung bedeutet, dass wir unglaublich abhängig vom Wissen anderer sind, denn wir können uns nicht über all die Dinge, die für uns relevant sind, gleichermaßen informieren. Wir können vielleicht ein bisschen googeln, Informationen suchen, aber wir müssten ja in vielen Fällen erst ein Studium bestimmter Fächer absolvieren oder uns in praktische handwerkliche Dinge erst lang einarbeiten, bevor wir das Wissen, die Kenntnisse haben können, die die jeweiligen Experten haben. Wie man mit diesem Verhältnis umgeht, demokratische Gleichheit andererseits, ausdifferenziertes Expertenwissen andererseits, das ist eine der Kernfragen, die man sich heute stellen muss.
    Salewski: Unterscheidet sich da unsere heutige Zeit tatsächlich so von anderen Zeiten?
    Herzog: Vielleicht nicht so sehr, wie man manchmal denkt. Es gibt interessanterweise schon bei Max Weber in "Wissenschaft als Beruf" diese Passage, wo er darüber spricht, dass wir überhaupt nicht verstehen, wie die heutige Straßenbahn oder die damalige Straßenbahn 1917 funktioniert. Das müssten wir uns erst lange erklären lassen, aber wir verlassen uns eben drauf, dass es andere Leute gibt, die wissen, wie diese Straßenbahn funktioniert, sodass wir mit ihr fahren können. Heute ist es vielleicht an vielen Stellen noch komplexer, aber was heute und auch schon 1917 immer noch dazugedacht werden muss, was Weber an der Stelle gar nicht anspricht, ist, dass wir uns ja nicht nur auf die Ingenieure verlassen, die diese Straßenbahn bauen, sondern wir verlassen uns auch auf all diese Prüfungs- und Kontroll- und Qualitätssicherungsmechanismen, die sicherstellen sollen, dass diese Straßenbahn wirklich so fährt, dass nicht die Sicherheit der Passagiere durch schlechte Ingenieurentscheidungen gefährdet wird. Das ist eigentlich damals schon so gewesen und ist bis heute so, und was sich eben geändert hat, ist, dass wir glauben, wir könnten sehr viel mehr verstehen, weil wir es schnell googeln können, aber das wirkliche Fachwissen haben wir noch lange nicht deswegen.
    Salewski: Das heißt, die entscheidende Frage ist dann, wie kann hochspezialisiertes Wissen, von dem wir immer mehr haben, eben weil unsere Technologien komplizierter werden, weil vielleicht auch unsere globalen Produktionsprozesse immer kleinteiliger und vernetzter werden - ich weiß nicht mehr, wo mein T-Shirt herkommt und wie es vertrieben wird -
    Differenzierung ist gefragt, auch im Journalismus
    Herzog: Genau.
    Salewski: Wie können wir sicherstellen, dass dieses Spezialwissen in politische Entscheidungen miteinfließt?
    Herzog: Genau, und auf die richtige Art und Weise miteinfließt, denn wenn man sich dieses Szenario vor Augen führt, wie unglaublich ausdifferenziert und komplex diese Wissenslandschaft ist, dann sieht man auch schnell, dass die anfällig für Missbrauch und für Manipulation ist. Es gibt so ein Bild von Demokratie, das vielleicht auf den ersten Blick ganz schön aussieht, wo man sich vorstellt, na ja, irgendwie stellen die unterschiedlichen Experten, Expertinnen dieses Wissen bereit, dann wird es vereinfacht, in den öffentlichen Diskurs eingebracht, und dann setzt die Debatte über die politischen Entscheidungen an, was man tun soll. Also erst werden die Fakten klargestellt, und dann kommt der politische Streit, und das ist aber heutzutage nicht mehr der Fall und war auch an vielen Stellen früher in der Geschichte von Demokratien schon nicht der Fall.
    Auch die Bereitstellung von Wissen selber ist oft schon politisch sehr umkämpft. Wenn Sie zum Beispiel dran denken, wie es um die Finanzierung unterschiedlicher wissenschaftlicher Studien bei politisch heiklen Fragen geht, also zum Beispiel Umweltgifte, da wird schon die Bereitstellung des Wissens unglaublich stark gesteuert, in dem Sinne, dass es unterschiedliche Interessensgruppen gibt, die versuchen, die Dinge im einen oder anderen Licht erscheinen zu lassen, und man hat dann immer die Hoffnung, dass es Wissenschaftler gibt, die unabhängig genug sind, trotzdem noch solide Fakten bereitzustellen, aber der Kampf ist nicht mehr, nachdem man das Wissen etabliert hat, sondern der Kampf findet schon um die Wissensinhalte und die Deutung der Daten, die man hat, statt. Deswegen muss sehr genau hingeschaut werden, wer da jeweils welche Aussagen trifft, und es ist auch die Verantwortung guten Journalismus, dass man hier sehr genau hinschaut. Leider passiert oft, was dann eigentlich nicht passieren sollte, dass nämlich sehr reißerische Überschriften entstehen, die die eine oder die andere Seite ganz einseitig betonen, anstatt genauer zu fragen, ja, wie sähe ein ausgewogenes Bild hier aus.
    Salewski: Das heißt, Sie sehen die Verantwortung dafür, dass die Informationen im politischen Prozess schon in der Entstehung richtig zugänglich gemacht werden, bei den Journalisten zum einen, auch noch bei anderen - oder sind das hauptsächlich die Medien, die da die Arbeit leisten sollten?
    Herzog: Ich denke, die Medien haben eine große Verantwortung, aber es ist nicht die einzige Adressatengruppe, um das Ganze etwas allgemeiner zu fassen. Die Frage ist ja immer, wie denken diejenigen, die Wissen erzeugen oder mit Wissen hantieren über dieses Wissen, und da kann man sehr grundsätzlich unterscheiden zwischen reiner Marktlogik, in dem Sinne, dass man sagt, das ist ein Instrument auf dem Markt der Möglichkeiten, und ich versuche mich durchzusetzen, oder einem moralischen Verständnis von Wissen in dem Sinne, dass diejenigen, die über Expertenwissen verfügen oder auch es weitergeben, sich immer dessen bewusst sind, dass Wissen auch die Voraussetzung für verantwortliches Handeln ist und man deswegen immer auch diese normative Komponente mit zuschreiben muss und man deswegen verantwortlich mit Wissen umgehen muss.
    Salewski: Das heißt, das sind zwei ganz grundsätzliche Modelle, wie wir mit Wissen umgehen können oder wie wir Wissen sehen können: einmal so ein Marktmodell und einmal ein Expertenmodell, ist das richtig?
    Herzog: Genau. Also ich hab es in einem Aufsatz neulich etwas technischer mit mehr Jargon als Marktlogik und Professionslogik gefasst. Mit Marktlogik sind eigentlich zwei Dinge sogar gemeint: Das eine ist, dass es die Vorstellung gibt, dass sich im Markt oder auch im Markt der Ideen, wie dann das oft gesagt wird, von selber die Wahrheit durchsetzen würde.
    Fraglich: automatischer Ausgleich zwischen Einzelinteressen und Gemeinwohl
    Salewski: Ist das nicht so? Mark Zuckerberg hat in diesem Frühjahr bei seinen Aussagen vor dem Ausschuss des US-Kongresses mehrfach wiederholt, Facebook sei eine Plattform für alle Ideen. Das war seine Definition von dem, was Facebook ist, und das klingt doch genau so, ganz unproblematisch erst mal: Alle haben Zugang, und das ist eben eine Plattform, auf der der Austausch von Informationen sich irgendwie von selbst regelt.
    Herzog: Genau, das ist diese Vorstellung, wo das Problem liegt, dass es sich von selbst regeln würde und von selbst in die richtige Richtung gehen würde. Da steckt im Grunde ein ähnliches Bild hinter wie bei dem, dass unregulierte Märkte von sich aus dem Wohl der Gesellschaft dienen würden, ohne Wenn und Aber, dass es da irgendeinen Mechanismus gäbe, der zu einem automatischen Ausgleich zwischen Einzelinteressen und Gemeinwohl führen würde, und da ist aber sehr fraglich, was denn dieser Mechanismus wäre. Es gibt ja auch diese Metapher vom Marktplatz der Ideen, und gerade im angelsächsischen Denken ist diese Vorstellung sehr ausgeprägt, dass dann Wahrheit und Falschheit sozusagen in einem Kampf miteinander liegen würden und sich die Wahrheit immer irgendwie durchsetzen würde, und wenn dann Facebook nur so eine Plattform wäre, auf der dieser Kampf stattfinden würde und der Kampf keinerlei Regulierung bräuchte, dann hätte Facebook keinerlei Verantwortung. Das wäre natürlich sehr praktisch für Herrn Zuckerberg.
    Salewski: Und das ist nicht so.
    Herzog: Ich halte das für eine sehr, sehr problematische Vorstellung, denn wir wissen genug über menschliche Psychologie und darüber, wie Menschen Wissen verarbeiten, um sehen zu können, dass sich zum Beispiel negative, emotional aufgeladene Nachrichten viel stärker in sozialen Medien verbreiten als langweilige, trockene, faktenbasierte Berichte und insofern auch die Möglichkeit der Manipulation sehr, sehr groß ist. Selbst wenn man an Märkte glaubt, selbst wenn sie die die idealsten Bedingungen, die man sich vorstellen kann, haben für Märkte, sobald es Akteure gibt, die aktiv manipulativ in die Märkte eingreifen, kann man nicht mehr davon ausgehen, dass die irgendwie dem Gemeinwohl von selber dienen. Das ist ja, was auf Facebook teilweise passiert ist, wenn man den Berichten Glauben schenken darf, dass es sehr viele automatisierte Profile gab, hinter denen gar keine echten Menschen stehen, sondern sogenannte Social Bots und auch, dass es Einfluss aus Russland, vielleicht auch aus anderen Ländern gab, der sehr bewusst versucht hat, Meinungen zu steuern, und da ist diese Vorstellung, dass die Politik einfach nichts machen sollte, Hände weg, die ist problematisch. Trotzdem muss man, denke ich, zugestehen, dass es einen wahren Kern dieser Vorstellung gibt, und man muss unterscheiden zwischen dem wahren Kern und der unzulässigen Verallgemeinerung. Der wahre Kern ist, dass politisch gesteuertes Wissen nicht unbedingt die bessere Alternative ist.
    Salewski: Sondern?
    Herzog: Sondern die Frage ist, wie können wir derartige Plattformen so gestalten, dass negative Tendenzen vermieden werden, und eine Sache, die mir da im Moment besonders wichtig erscheint, ist, wie können wir sicherstellen, dass die Nutzerinnen und Nutzer zumindest wissen, womit sie es jeweils zu tun haben, also sozusagen die Markierung unterschiedlicher Arten von Informationen. Im Moment geht das ja alles durcheinander und wird auch sehr bewusst in die eine oder andere Richtung nachgeahmt. Also da werden dann zum Beispiel von Firmen Nutzer bezahlt dafür, dass sie scheinbar ganz persönliche Berichte online stellen, und de facto geht es um Produktwerbung. Solche Sachen, das führt zu diesem Gefühl des Sich-nicht-mehr-Auskennens und der Unübersichtlichkeit und des Überflutet-werden von Informationen, und das führt dann sehr schnell dazu, dass man ein grundsätzliches Misstrauen allen Informationsquellen gegenüber entwickelt, weil man nicht mehr unterscheiden kann zwischen denen, bei denen zum Beispiel ordentliches Fact‑checking stattgefunden hat, und irgendwelchen anderen, die vollkommen andere Absichten verfolgen. Das heißt, diese Einordnung, was ist hier eigentlich was, das wäre extrem wichtig, um die Informationsverarbeitungsmechanismen im Internet wieder stärker so zu gestalten, dass die Einzelnen wissen, woran sie sind.
    Expertenwissen: ein moralisches Verständnis von Wissen
    Salewski: Jetzt haben wir die ganze Zeit über dieses Marktmodell geredet. Damit ist die andere Art von Wissen, nämlich dieses Spezialwissen, das Expertenwissen, dem sind wir damit noch nicht nähergekommen, oder?
    Herzog: Genau. Das ist eine grundsätzlich andere Logik, die auch eine lange Tradition in der Ideengeschichte hat, und das typische Beispiel sind die medizinischen Berufe mit dem hippokratischen Eid, und da ist ja die Vorstellung, es gibt eine Asymmetrie zwischen dem Experten, also zum Beispiel dem Arzt, und der Person, die das Expertenwissen benötigt, und ohne einen moralischen Kompass aufseiten des Experten könnte der Experte das Wissen so verwenden, dass es dem Nichtexperten, also in dem Fall dem Patienten, nicht nützt oder sogar schadet. Das lässt sich nur sehr schwer von außen kontrollieren, weil der Arzt oder der Experte ja eine gewisse Autonomie braucht, um dieses Wissen einzusetzen, weil jeder Patient anders ist, weil man die einzelnen Fälle betrachten muss und man nicht so leicht von außen kontrollieren kann, ob der Arzt wirklich nach bestem Wissen und Gewissen mit seinem Wissen umgeht. Deswegen braucht es hier ein moralisches Bewusstsein, dass eben in dem hippokratischen Eid zum Ausdruck kommt, und ich denke, dieses Modell, dass wir ein moralisches Verständnis von Wissen haben, dass sozusagen ein Vertrauensangebot gemacht werden kann. Der Laie kann nicht überprüfen, was der Experte weiß, aber der Experte verpflichtet sich nach außen, anderen gegenüber, dieses Wissen verantwortlich einzusetzen, sodass der Laie dem Experten ein gewisses Vertrauen schenken kann.
    Salewski: Aber ist das nicht genau dieses Vertrauen, das Vertrauen, dass diejenigen, die etwas von ihrem Gebiet verstehen, zumindest nicht gegen uns ihr Wissen anwenden, ist nicht genau dieses Vertrauen gerade in den letzten Jahren irgendwo zerbrochen. Also wenn man sich diese populistischen Bewegungen anguckt - wenn wir wieder zurück zur Politik kommen -, die zeichnen sich ja gerade aus durch diese Skepsis gegenüber Bildungseliten.
    "Leute haben genug von den Experten"
    Herzog: Ja.
    Salewski: Gegenüber Experten.
    Herzog: Ja, und während der Brexit-Kampagne fiel da dieser sehr bemerkenswerte Satz: "People have had enough of experts", also die Leute haben genug von den Experten, und da kommt ein sehr, sehr tiefsitzendes Misstrauen zum Ausdruck. Jetzt muss man sich natürlich vor Augen führen, wie Vertrauen und Misstrauen funktionieren, und zwar ist da besonders die Tatsache relevant, dass ein schwarzes Schaf genügen kann, um sehr, sehr viel Vertrauen zu zerstören und es dann sehr lange dauern kann, um dieses Vertrauen wieder aufzubauen. Dieser Satz während des Brexit, der bezog sich interessanterweise auf eine bestimmte Expertengruppe und wurde dann schnell verallgemeinert, nämlich auf die Ökonomen. Die Vorgeschichte ist natürlich auch, dass die Ökonomen die Finanzkrise nicht hatten kommen sehen, und es gab da diese eine Episode, wo dann die Queen an die London School of Economics kam und fragte, ja, wieso hat denn niemand diese Krise vorhergesehen. Es ist definitiv ein Fall gewesen, der dazu geführt hat, dass Vertrauen in Experten erschüttert wurde, wobei ich auch hinzufügen sollte: Es gibt die schwarzen Schafe in der Wissenschaft, und gerade in der akademischen Welt muss man sich auch sehr heikle Fragen danach stellen, wie eigentlich die internen Mechanismen funktionieren, ob man das Vertrauen, das man von der Öffentlichkeit ja irgendwie erwartet, ob man das denn eigentlich verdient und was man tun muss, um es zu verdienen.
    Salewski: Wenn wir in der Demokratie uns beteiligen wollen, dann brauchen wir Wissen, dann brauchen wir diese Informationen, weil wir ja auch als Bürger und Bürgerinnen mit darüber entscheiden müssen über moralische Fragen, darüber, was richtig und was falsch ist. Wenn wir jetzt einen Schritt zurücktreten: Was ist der ideale Prozess, in dem ich mir so eine Meinung bilde in einer Demokratie?
    Herzog: Ja, das kommt jetzt drauf an, welche Demokratietheorie Sie haben.
    Salewski: Welche haben Sie denn?
    Herzog: Also ich würde an der Stelle tatsächlich auf deliberative Demokratietheorien zurückgreifen, die sehr stark das Element der gemeinsamen Deliberation, also des gemeinsamen Überlegens, des Austauschs von Argumenten, in den Mittelpunkt stellen, und es ist ja so, dass sehr viele politische Entscheidungen so komplex sind, dass es auch nicht die eine Form von Expertise gibt, auf die wir uns berufen könnten, um diese Fragen zu beantworten. Wenn das so ist, dann können wir solche Fragen an Experten delegieren, das findet in manchen Bereichen ja auch statt, aber gerade die richtig schwierigen, moralisch aufgeladenen politischen Probleme, da braucht man oft unterschiedliche Perspektiven, unterschiedliche auch Disziplinen. Die Frage ist jetzt, wie kann es gelingen, dass diese unterschiedlichen Standpunkte zusammenkommen und gemeinsam zu einem konkreten Urteil über das konkrete Problem kommen?
    "Es reicht nicht, wenn wir alle vier Jahre wählen gehen"
    Salewski: Sie schreiben in einem Ihrer Aufsätze, dass wir genau dafür Räume brauchen, also wirklich konkrete Räume, damit wir demokratische Entscheidungsprozesse richtig ausführen können, und Sie haben da zum Beispiel die Kantine in einem Unternehmen erwähnt. Das fand ich sehr charmant. Also warum ist die Teeküche in meinem Büro so wichtig für die Demokratie?
    Herzog: Ja, weil wir die Praktiken, die wir für den politischen Bereich brauchen, auch anderswo im Leben einüben müssen. Es reicht nicht, wenn wir alle vier Jahre wählen gehen und uns sonst nie auf die Art und Weise mit Themen auseinandersetzen. Was ich in diesem Aufsatz gemeint hatte, ist, das Potenzial von Teeküchen oder Kantinen, dass eben Leute aus unterschiedlichen Funktionsbereichen zusammenkommen, sich austauschen, sehen, wie bestimmte Prozesse aus der Perspektive der jeweils anderen fachlichen Bereiche aussehen. Es gibt in der Organisationssoziologie den Begriff des Silos, weil unterschiedliche Einheiten von Organisationen dazu neigen, zu so Silos zu werden, die eben nur noch intern irgendwie im Austausch stehen und nicht mit anderen Teilen der Organisation, und das führt dann dazu, dass die eigene Perspektive sehr schnell absolut gesetzt wird und man ja auch … ich meine, das kann man ja an sich selber beobachten, dass man dann dazu neigt, emotional erst mal abwehrend zu reagieren, wenn jemand anderes mit einer ganz anderen Perspektive ankommt. Deswegen ist diese Einübung und diese ständige auch selbstverständliche Beschäftigung mit der Perspektive anderer extrem wichtig.
    Salewski: Jetzt gibt es aber praktisch im Moment eigentlich genau das Gegenmodell, wie wir zu Entscheidungen kommen, was uns immer häufiger begegnet, nämlich Algorithmen. Also das ist so ein bisschen das Gegenmodell zur Teeküche. Das sind dann bestimmte computergesteuerte Prozesse, die zu Entscheidungen führen zum Beispiel, die mir einen Vorschlag machen bei Netflix, was der nächste Film ist, der mir angeboten wird, aber es bleibt nicht nur bei diesen harmlosen Vorschlägen.
    Herzog: Ja, das ist eine generelle Entwicklung im Moment, dass Fragen, die in der Vergangenheit vielleicht von Experten oder auch von irgendwelchen anderen sozialen Akteuren beantwortet worden wären, jetzt immer stärker durch Algorithmen, durch selbstlernende Programme beantwortet werden, und eine Sache ist darin interessant, und zwar, diese Algorithmen müssen ja immer mit irgendwelchen Daten arbeiten. Das ist ja das Potenzial, dass man sagt, na ja, die sehen die Muster und können mir dann zum Beispiel empfehlen, Nutzer, die ein ähnliches Nutzerverhalten wie Sie an den Tag gelegt haben, haben auch die folgenden Produkte gekauft, und da liegt schon ein gewisses Potenzial drin - das will ich gar nicht bestreiten -, nämlich, dass man bestimmte Muster erkennen kann, dass man sich dann auch kritisch mit ihnen auseinandersetzen kann, aber ich denke, da liegt auch eine große Gefahr drin, nämlich die, dass dieses Wissen, das in die Algorithmen und diese selbstlernenden Programme eingeht, ja immer Wissen aus der Vergangenheit ist, und das Potenzial dessen, wenn ich anderen Menschen begegne, ist ja, dass ich auf vollkommen neue Dinge kommen kann und dass wir gemeinsam auf vollkommen neue Dinge kommen können, von denen wir vorher keine Ahnung hatten, dass die aus Gesprächen entstehen könnten. Das ist das, was bei Hannah Ahrendt Natalität genannt wird, also diese Fähigkeit von Menschen, gemeinsam Neues zu schaffen, und das ist sozusagen das komplette Gegenteil dessen, wie Algorithmen funktionieren, die immer die Muster der Vergangenheit fortschreiben und immer feiner zu erkennen versuchen, wer was wann wie wo gemacht hat. Die zerlegen uns ja sozusagen in einzelne Datenpunkte, einzelne Eigenschaften und versuchen, die zu reproduzieren, aber wirklich Neues kann daraus nicht entstehen.
    "Was die Algorithmen uns nicht abnehmen können"
    Salewski: Das heißt, ich kann den Algorithmus nicht davon überzeugen, dass ich jetzt recht habe aus Gründen, die er noch nicht bedacht hatte.
    Herzog: Ich kann einen Algorithmus ja überhaupt nicht überzeugen, sondern ich kann höchstens versuchen, ihn irgendwie zu manipulieren. Oft weiß man ja nicht mal, wie diese Ergebnisse zustande kommen. Wenn da wirklich maschinelles Lernen am Werk ist, wissen das manchmal nicht mal mehr die Programmierer, während wenn Menschen miteinander interagieren, dann können sie voneinander Rechtfertigungen verlangen, dann können sie sagen, an der Stelle will ich noch mal genau wissen, wieso du von Punkt A zu Punkt B in dem Argument gekommen bist. Gerade auch im politischen Bereich gibt es eine ganze Reihe von Fragen, wo man dieses Verhältnis von vorgegebenen Zielen und Mitteln immer wieder neu überdenken muss, und das ist was, was die Algorithmen uns nicht abnehmen können.
    Salewski: Sind das denn schon Bereiche, in denen Algorithmen eingesetzt werden?
    Herzog: Es gibt gerade in den USA einige Bereiche, die aus ganz vielen Perspektiven problematisch sind. Es gibt die Fälle von Software, die dazu verwendet wird, vorherzusagen, ob Gefangene auf Bewährung freikommen sollten oder nicht, was dann ihre Rückfallwahrscheinlichkeit ist, und das ist natürlich auch schon aus Gerechtigkeitsgründen hochproblematisch, weil da angenommen wird, dass wenn jemand aus einem bestimmten Milieu kommt, vielleicht einen bestimmten Job hat, bestimmte Freunde, bestimmte soziale Netzwerke hat, dass die Person sich dann auch so verhalten wird, wie das typischerweise für so eine Person der Fall sein könnte. Wie schon gesagt, das sind die Muster aus der Vergangenheit, und die Individualität der Einzelnen wird dabei natürlich vollkommen missachtet in dem Sinne, dass nicht die Frage gestellt wird, wie hat sich die Person denn verändert, was ist mit dem Charakter dieser Person vielleicht passiert, hat die vielleicht während des Gefängnisaufenthalts Dinge erlebt, die in die eine oder andere Richtung gehen könnten. Demokratietheoretisch ist es auch problematisch, weil man gar nicht so genau weiß, wie diese Programme funktionieren. Die sind nämlich Privateigentum bestimmter Firmen, und das ist bei so einer wichtigen Entscheidung wie, ob jemand im Gefängnis bleibt oder wieder freigelassen wird, schon ziemlich problematisch.
    Salewski: Das heißt, das ist diese Intransparenz der Algorithmen, die uns dann ja auch im Alltag begegnet: Ich weiß nicht, warum ich diese Buchempfehlung bekommen habe, und ich weiß letztlich auch nicht, warum der Newsfeed auf meiner sozialen Plattform genau so angeordnet ist, wie er dann angeordnet ist.
    Herzog: Ja, und es gibt ja inzwischen auch einiges an Vorschlägen, teilweise sehr kreativ, wie man damit umgehen kann. Es gibt zum Beispiel Apps oder Browsererweiterungen, mit denen man in seinem Newsfeed bewusst auch untypische Posts bekommen kann, die dann eben nicht nur dem entsprechen, was man vorher da immer schon hatte und die eben nicht nach dem Prinzip der Ähnlichkeit, sondern nach dem Prinzip des bewussten Gegensatzes gestaltet sind. Also es ist nicht so, dass wir das nicht auch technisch angehen könnten, aber die Frage ist immer, auf welches Ziel hin werden denn diese Programme optimiert. Das heißt, die Frage, wer setzt die Ziele, wer darf darüber entscheiden, wie diese Algorithmen programmiert sind, darüber werden sich, denke ich, in den nächsten Jahren und Jahrzehnten noch viele Leute die Köpfe zerbrechen, und darüber wird es wahrscheinlich auch viele politische Kämpfe geben.
    Salewski: Aber im Moment liegen ja genau diese Entscheidungen in der Hand von großen privaten, global agierenden Unternehmen, wie Google, Facebook oder Amazon. Wie problematisch ist das?
    Herzog: Angesichts dessen, welche Rolle diese Konzerne für unsere Demokratie inzwischen spielen, halte ich das für sehr problematisch, dass die zum einen sehr schlecht von nationalen Regierungen gesteuert werden können und zum anderen intern ja überhaupt nicht demokratisch und überhaupt nicht partizipativ organisiert sind. Langfristig gesehen, müsste man sich überlegen, ob nicht solche Konzerne viel stärker demokratisch kontrolliert werden müssten, und weil das von außen durch die politische Demokratie schwierig sein dürfte, muss man sich, denke ich, auch die Frage stellen, inwieweit nicht die Nutzer solcher Konzerne sehr viel mehr Mitspracherecht bei der Governance solcher Konzerne haben müssten.
    "Regierung Reagan war nicht so anders als die Regierung Trump"
    Salewski: Sind diese neuen Arten, die wir haben, zu Wissen zu gelangen, Wissen zu verbreiten, mit Wissen umzugehen und auch die neuen Unternehmen, in denen Wissen gemanagt wird, ist das wirklich eine Gefahr für unsere Demokratie oder ist das nicht eher eine Überreaktion, die wir haben, weil es sich eben um neue Technologien und neue Strukturen handelt, die uns einfach nicht so vertraut sind?
    Herzog: Das wird man wahrscheinlich erst in der Rückblende sagen können, in einigen Jahrzehnten, wenn man zurückschaut auf diese Phase. Je mehr ich mich mit der Geschichte des Umgangs mit Wissen in Demokratien beschäftigt habe, umso mehr Déjà-vu-Erlebnisse hatte ich. Also wenn man zum Beispiel die Strategien der Tabakkonzerne in den 1950ern nimmt, diese ganzen Versuche, die Schädlichkeit des Rauchens unter dem Deckel zu halten, nicht öffentliche Regulierungen greifen zu lassen, das ist gar nicht so anders als heute. Auch wenn man sich so manche Vorgehensweisen der Regierung Trump anschaut: Die Regierung Reagan war teilweise gar nicht so anders.
    Den Dialog in der Gesellschaft aufrecht erhalten
    Salewski: Sie sind keine typische Lehnstuhlphilosophin, Sie wollen mit Ihren Überlegungen auch politisch handeln und zu Reformen beitragen. Was ist am dringendsten, wenn es um das Thema Wissen und Politik geht, was muss sich in den kommenden Jahren ändern?
    Herzog: Was tatsächlich entscheidend sein dürfte, ist, dass es gelingt, in der Gesellschaft das Vertrauen darauf aufrechtzuerhalten, dass wir in einer gemeinsamen Welt leben. Das klingt trivial, aber wenn man sich anschaut, wie sehr in den USA die zwei Lager - Republikaner und Demokraten - sich auseinandergelebt haben, das sind die Werte, die Lebensgewohnheiten, die Bücher, die Radiosender, die Fernsehsender, das hat sich alles so auseinanderentwickelt, dass wirklich das Verständnis füreinander sehr, sehr schwierig geworden ist. Wir können wahrscheinlich sehr froh sind, dass wir in Deutschland ein anderes Wahlsystem haben, das nicht so auf zwei Parteien hin polarisiert, aber wir sollten uns sehr stark darüber Gedanken machen, wie zwischen den unterschiedlichen Funktionsbereichen der Gesellschaft und zwischen den unterschiedlichen Schichten, die sich ja auch durch die Wohnsituation immer stärker auseinanderentwickeln, wie da der Dialog aufrechterhalten bleibt und wie wir sicherstellen können, dass wir wirklich in einer Gesellschaft leben und auch wissen, dass wir in einer Gesellschaft leben.
    Salewski: Herzlichen Dank für das Gespräch, Frau Herzog!
    Herzog: Herzlichen Dank!
    Äußerungen unserer Gesprächspartner geben deren eigene Auffassungen wieder. Der Deutschlandfunk macht sich Äußerungen seiner Gesprächspartner in Interviews und Diskussionen nicht zu eigen.