Seit 23:10 Uhr Das war der Tag
 
  • Deutschlandfunk bei Facebook
  • Deutschlandfunk bei Twitter
  • Deutschlandfunk bei Google+
  • Deutschlandfunk bei Instagram

 
Seit 23:10 Uhr Das war der Tag
StartseiteWissenschaft im BrennpunktEmotionale Agenten13.03.2005

Emotionale Agenten

Computerprogramme helfen bei Friedensmissionen

In den 1970er Jahren machte eine Forschungsrichtung von sich reden, die sich "Künstliche Intelligenz" (KI) nannte. Mit Computern dachte man, innerhalb weniger Jahre menschliche Intelligenz und sogar menschliche Emotionen nachbilden und teilweise ersetzen zu können. Von der KI von einst ist heute nur ein Trümmerhaufen übrig. Es gibt aber auch viel versprechende neue Ansätze.

Von Maximilian Schönherr

Vernunftbegabte Roboter bleiben vorerst ein unerfüllter Forschertraum: "Während der Hauptzeit der KI wurden Dinge gesagt, die einfach unsinnig waren."   (AP)
Vernunftbegabte Roboter bleiben vorerst ein unerfüllter Forschertraum: "Während der Hauptzeit der KI wurden Dinge gesagt, die einfach unsinnig waren." (AP)

(Mitschrift einer Sendung mit Wortbeiträgen von:
Hans-Joachim Mosler, Psychologe in Zürich, Dozent und Berater bei der Entwicklung von Agenten basierten Umwelt- und Sozialmodellen
Bernd Schmidt, Leiter des Lehrstuhls Operations Research an der Universität Passau
Gunther Schwarz, EADS, Friedrichshafen
Aaron Sloman, KI-Forscher der ersten Stunde, Birmingham


Mosler:
"Ich bin der Meinung, dass, wie der menschliche Körper auch die menschliche Psyche bei allen Menschen gleich, aber unterschiedlich ausgeprägt ist."

Schmidt:
"Wir hätten gern einen Adam und eine Eva gehabt und die beide zusammen aufeinander losgelassen. Aus Zeitgründen kommen wir da leider nicht mehr dazu."

Schwarz:
"Wir haben abgebildet, dass z.b. ein Feldjäger einen Anführer einer bestimmten Zivilistengruppierung auffordern kann, den Marktplatz zu verlassen."

Mosler:
"Nimmt man den Menschen den freien Willen, wenn man sie modelliert? Da würde ich sagen, auf jeden Fall haben sie den immernoch. Kann man den freien Willen modellieren? Nein."

Sloman:
"Stellen Sie sich einen Schachcomputer vor, dem ein schlechter Zug peinlich wäre. Dazu gehört die Vorstellung, dass jemand anderes exisitert, der den Zug beurteilt. Dieses Gefühl für den anderen haben heutige Schachprogramme nicht. Ich sehe kein konzeptionelles Problem darin, es einzubauen. Aber wäre es dann noch ein Schachcomputer und nicht vielmehr ein sozialer Agent, der zufällig auch Schach spielen kann?"

Mosler:
"Also ich möchte nicht einen gesamten Menschen abbilden, ihn modellieren und simulieren, sondern nur die für meine Fragestellung relevanten Teile."

Schmidt:
"Das ist ein eher reduktionistischer, mechanistischer Ansatz, der sicherlich philosophische Implikationen hat, aber von dem wir ausgehen und an den wir glauben. Also, Spiritualität, Intuition und solche Dinge sind uns in hohem Maße verdächtig."

Sloman:
"Maschinen haben natürlich Gefühle! Denn Sie und ich sind ja per Definition Maschinen, nämlich Dinge, die funktionieren, aus verschiedenen Teilen bestehen, die man zerstören kann, wodurch sie dann nicht mehr funktionieren, oder nur noch schlecht. Und wir haben Gefühle. Also können Maschinen Gefühle haben. Schwieriger ist die Antwort auf die Frage, ob Maschinen, die von uns Menschen gemacht wurden, Gefühle haben können. Was sind Gefühle?"

Sprecher:
Aaron Sloman, KI-Forscher der ersten Stunde. Universität Birmingham, England. Unter KI – Künstliche Intelligenz – stellten sich Informatiker wie er in den 1970er und 80er Jahren Computer vor, die über Kurz oder Lang den Menschen ersetzen konnten, weil sie schärfer denken und – inkarniert in Form von Robotern – unverwundbarer handeln würden, sicher bald auch mal fühlen. Heute kocht Aaron Sloman auf kleinerer Flamme und stellt sich Fragen wie diese: Braucht ein emotionales Programm eine Verkörperung?

Sprecherin:
Moment, mein Akku geht zu ende; wo war gleich mal die Steckdose?

Sprecher:
Steht ein Stuhl davor.

Sprecherin:
Ja, soll ich bitteschön durch den hindurchgucken?

Sprecher:
Komm, deine Steckdose war noch nie woanders.

Sprecher:
Wo war sie denn?

Schmidt:
"Wir waren dem KI-Verfahren von Anfang an sehr skeptisch, insbesondere den sehr weit reichenden Versprechungen, die da gemacht worden sind, dass man etwa den gesunden Menschenverstand ausschalten kann und dergleichen. Während der Hauptzeit der KI wurden Dinge gesagt, die einfach unsinnig waren. Und das haben wir, glaube ich, rechtzeitig erkannt."

Sprecher:
Der da leicht reden hat, ist Bernd Schmidt, Leiter des Lehrstuhls Operations Research an der Universität Passau, Experte für die Modellierung menschlichen Verhaltens in Software. Vor 20 Jahren, als viele seiner Mathematikerkollegen ihren KI-Hirngespinsten nachhingen, simulierte Schmidt fast banal technische und industrielle Prozesse für die Industrie – Montagestraßen, Fertigungsabläufe. Das brachte seinem Institut ein Vielfaches des Geldes ein, was je ein KI-Institut verdient hat.

Die KI bekam damals gutes Geld. Vor allem aus öffentlichen Töpfen. Schmidt hält auch die massive Förderung vom Parallelrechnen und Neuronalen Netzen für überflüssig. Schon seine Fertigungsstraßen-Simulationen handelten mit klaren Zuständen, während das Neuronale Netz …

Sprecherin:
… eine Black Box ist.

Schmidt:
" … in deren Innerem im Grunde eine Tabelle drin ist, und in dieser Tabelle wird aufgezeichnet: Das ist mein Input, das mein Output. Und wenn jetzt ein Input kommt, wird im Inneren des schwarzen Kastens in meiner Tabelle nachgeguckt: Hier habe ich einen Input, wie sieht der dazu gehörige Output aus? Das Lernen eines neuronalen Netzwerks läuft darauf hinaus, dass ich diese Tabelle erweitere. Jeder Lernvorgang, wenn ich dem neuronalen Netz etwas beibringe, bedeutet im Grunde nur, eine Wenn-Dann-Beziehung aufzubauen, diese Tabelle zu erweitern. Und das ist etwas ganz ganz anderes, als wenn man nun versuchen wollte, in diese Black Box den wirklichen Wirkmechanismus hineinzukonstruieren. Und das ist unserer Meinung nach ein wirkliches Modell, weil es tatsächlich viel viel mehr Informationen enthält, nämlich den tatsächlichen Wirkmechanismus im Inneren des Kastens, nicht nur die Tabelle."

Sprecher:
Bernd Schmidt interessiert das Innere Rattern der Bits …

Sprecherin:
… auch wenn Bits vermutlich nicht rattern.

Sprecher:
Und die Tierchen, wo’s innen drin am meisten rattert …

Sprecherin:
… auch wenn’s keine Tierchen, sondern Programme sind, die nicht rattern, sondern stumm vor sich hin …

Sprecher:
… denken.

Sprecherin:
Denken die?

Sprecher:
Diese neuen kleinen Programme, diese "Software-Agenten", tun so, als würden sie denken.

Schmidt:
"Ja, man versucht, den einzelnen Agenten sehr viel reichhaltiger auszustatten, also ihm ein viel reichhaltigeres Innenleben mitzugeben, und dann auch die so genannten Mulitagentensysteme zu untersuchen, das heißt, das Zusammenwirken, Zusammenarbeiten, Zusammenspielen der einzelnen Agenten miteinander in den Griff zu kriegen. Die können zusammen Fußball spielen oder gemeinsame Aktionen ganz anderer Art ausführen.

Dazu ist wichtig, dass die einzelnen Agenten auch autonom sind, d.h. es gibt keinen, der über ihnen steht und wie bei Marionetten an Fädchen zieht, sondern die sind wirklich eigenständig und unabhängig und agieren als eigenständige, unabhängige, autonome Agenten miteinander. Das macht die ganze Sache faszinierend. Wie kriegt man z.b. einen solchen Haufen von autonomen Agenten dazu, gemeinsam etwas zu machen, z.b. den Ball ins Tor zu bringen beim Fußballspielen. Das gelingt, indem man den einzelnen Agenten Strategien mitgibt, die dann so ausgerichtet sind, dass tatsächlich kooperatives Verhalten zustande kommt. Wäre so eine Strategie ein Doppelpass? Ja natürlich. Warum lernen sie das nicht selber durch Ausprobieren? Oh, das ist ein sehr interessantes Gebiet, das Lernen von neuen Aktionen.

Das Lernen in Bezug auf eine Erweiterung des Umweltmodells, also dessen, was ich von der Welt weiß, das hat man inzwischen gut im Griff. Wo man noch tappt, und zwar kräftig im Dunklen tappt, ist das Erfinden von neuen Aktionen aufgrund von Aufforderungen von außen. Also, dass ich Aktionen, die im Repertoire nicht vorgesehen sind, neu aufbaue, das kann man im Augenblick noch nicht."

Sprecherin:
Komm, komm, komm, Doppelpass!

Sprecher:
Was ist das, Doppelpass? Ich kenn nur Abseits.

Sprecherin:
Wollen wir jetzt herumsitzen und diskutieren, während die anderen … schau, schon wieder ein Tor!

Sprecher:
Das gibt’s doch nicht!

Schmidt:
"Wie Emotionen wirken, wodurch die angetriggert werden, wie die mittlere Lebensdauer einer Emotion ist, wie lang Ihr Hass braucht, bis er wieder abklingt, bis Sie sich beruhigt haben – Das sind Dinge, die aus den Erfahrungswissenschaften kommen. Das können wir als Modellbauer natürlich nicht erfinden. Das müssen wir uns von den Fachwissenschaftlern sagen lassen. Und deswegen ist die Zusammenarbeit mit den Psychologen für uns von eminenter Bedeutung. Wir finden nur sehr wenige Psychologen, die bereit sind, einzusehen, dass es eben so etwas Ähnliches gibt wie einen internen Zustand, den man "Aggression" nennen könnte. Dass die Aggression abnimmt, und dass dieses Abnehmen dieser Zustandsvariablen mit Hilfe einer mathematischen Gleichung, gar mit einer Differentialgleichung beschrieben werden kann – das ist ein Sachverhalt, der den allerwenigsten Psychologen beizubringen ist.


Wenn ich mir die Psychologen anschaue, bin ich immer wieder verblüfft, wie simpel deren Modelle sind, und wie einfach das ist, was die Psychologen machen, und dass die von dem her, was sie untersuchen, kaum an die Komplexität heranragen, die wir inzwischen unseren Agenten mitgeben können. Wir sind deutlich komplexer als das, was die Psychologen machen. "

Sprecherin:
Das lassen die Psychologen so auf sich sitzen?

Sprecher:
Fragen wir einen!

Mosler:
"Das ist wirklich die große Kunst, in der auch die große Hürde besteht, sowohl für die Psychologen als auch die Simulationsleute. Die eine Seite hat nicht diese systemischen Gedanken – die Psychologen. Und die andere Seite kann zwar modellieren, implementieren, aber die verstehen nicht diese, sagen wir ruhig: Prosa, in Formeln und Algorithmen umzusetzen. Das ist aber auch wirklich schwierig. Aber es geht."

Sprecher:
Hans-Joachim Mosler, Psychologe, Zoologe. Er lehrt als Dozent für Sozialpsychologie und Umweltpsychologie in Zürich, und zwar in der Abteilung für Systemanalyse, Integrated Assessment und Modellierung an der Eidgenössischen anstalt für Wasserversorgung, Abwasserreiningung und Gewässerschutz.

Mosler:
"Wir wollen Veränderungen in Sozialsystemen herbeirufen. Und um das richtig zu machen, oder, sagen wir, um alle Möglichkeiten im Voraus abzuschätzen, wie sich das entwickeln könnte, machen wir das erstmal im Computer. Beispiel: Änderung des Abfallverhaltens der Bevölkerung in Santiago de Cuba, freiwillig Tempo 30 in Münsingen, einer kleinen Stadt hier in der Schweiz, die Verbreitung einer Wasserdesinfektionstechnik in Bolivien."

Sprecher:
Münsingen, eine Abstimmung gegen Tempo 50 war gescheitert. Infostände vor den größeren Geschäften in der Haupt-Einkaufsstraße und am Weihnachtsmarkt luden zu einer Teilnahme an freiwillig Temp 30 ein. Zur Motivationsstärkung ein großes Display im Stadtkern, wo für jeden zu sehen war, wie viele Teilnehmer die Aktion gewonnen hat.

Sprecherin:
Tendenz natürlich steigend.

Sprecher:
Ja, aber wie? Mit welcher Kurve? Als die Marke von 1000 Freiwilligen erreicht war, endete der wissenschaftlich überwachte Versuch. Einen Tick zu früh, fand Hans-Joachim Mosler heraus, als er die paar Tausend Bewohner von Münsingen als emotionale Agenten nachmodellierte.

Sprecherin:
Also in Form kleiner, unabhängiger Computerprogramme, die miteinander interagieren.

Sprecher:
Die sich anziehen oder abschrecken können.

Sprecherin:
He, ich bin 5 umweltfreundlich. Und du?

Sprecher:
8. Wird Zeit, dass du auch mal an Tempo 30 teilnimmst!

Sprecherin:
Ach, ihr Moralheinis könnt mir echt gestohlen bleiben. Ich fahr ab jetzt 62,5.

Sprecher:
Dann kommst du aber nicht auf die große An-zeige-tafel!

Mosler:
"Wir haben jetzt mit der Simulation nachgebildet, wie sich die Personen entschlossen haben teilzunehmen. Und wir können die Teilnehmer-Zunahmekurve relativ exakt nachbilden. Ich meine, das was ich Ihnen gerade erzählt habe, das können Sie auch mit Statistik oder einem einfachen dummen Programm machen – also, die Kurve nachbilden. Was Sie aber nicht können, ist: Was-wäre-wenn-Versuche machen. Also, was wäre, wenn wir nochmal einen Monat länger Teilnehmer gesucht hätten? Hätten wir dann viel mehr bekommen? Was wäre, wenn wir noch einmal so eine Standaktion vor den Geschäften gemacht hätten? Und wir konnten zeigen, wenn die nochmal einen Monat länger gemacht hätten, hätten sie nochmal halb so viele dazubekommen, also 1500, was also sehr schade ist, dass sie es nicht gemacht haben. Und aus dem heraus kann man dann natürlich auch für andere Aktionen lernen, die man in Zukunft in irgend einer Stadt machen möchte.

Unsere Spezialität ist ja, dass wir sozialpsychologische Theorien simulieren. Das heißt, wir nehmen anerkannte Theorien her, bauen sie in ein Simulationsprogramm um und können dann mit denen irgendwelche Maßnahmen zur Veränderung von Sozialsystemen ausprobieren. Wir haben z.b. eine Persuasionstheorie, das Eleboration Likleyhood-Model, modelliert.

Es gibt da zwei Wege der Überzeugung. Ein "zentraler" – d.h. wenn man motiviert ist und fähig, eine Information aufzunehmen und zu verarbeiten, dann überzeugen Argumente. Ist man weder motiviert, noch fähig, dann überzeugen "periphere Hinweisreize" aus der Situation, dem guten Aussehen des Gegenüber oder der zugewiesenen Kompetenz oder der Anzahl, nicht der Inhalt der Argumente. Da gibt es eine riesige Forschung, die sich damit beschäftigt, und wir haben das jetzt in ein Modell umgesetzt und können damit ausprobieren, wann und unter welchen Bedingungen sollten in einer Population von 10.000 Personen mit guten Argumenten und unter welchen mit peripheren Hinweisreizen gearbeitet werden? Beispielsweise haben wir eine Simulation gemacht über das Verhalten von Minoritäten in Gruppen, also: Bei welcher Gruppenkonstellation sollte die Minorität mit guten Argumenten arbeiten, und bei welcher anderen Gruppenkonstellation sollte die Minorität mit peripheren Hinweisreizen arbeiten?

Da würde man doch denken: Immer mit guten Argumenten! Nein, das ist vollkommen falsch. Und zwar – ich habe vergessen, den dritten Weg der Persuasion zu nennen: Wenn Sie motiviert und fähig sind, also zentral verarbeiten, aber schon eine vorgefasste Meinung und Werthaltungen haben, dann werden Sie auf einen Persuasionsversuch mit Abwehr reagieren, einen so genannten Bumerang-Effekt machen. Wenn Sie deswegen mit guten Argumenten kommen, haben Sie keine Chance. Wenn jemand nicht motiviert oder fähig ist, dann können Sie noch lange mit guten Argumenten kommen, da wird nichts passieren."

Sprecher:
Springer D7. Oh, ist mir der Zug peinlich!

Sprecherin:
Bist du ein Schachcomputer?

Sprecher:
Ich bin ein emotionaler Software-Agent, der zufällig auch Schach spielen kann.

Sprecherin:
Dann bin ein emotionaler Panzer der KFOR.

Schwarz:
"Wenn die Soldaten mit einem bestimmten Kräfteansatz vor Ort sind, z.b. auch mit schwerem Gerät, wenn ein Panzer mit dabei ist, dann mag das in bestimmten Situationen den Beteiligten Respekt einflößen oder auch nicht. Es kann auch zu einer zusätzlichen Provokation führen."

Sprecher:
Gunther Schwarz berechnet solche emotionalen Gleichgewichte mit Software-Agenten. Seine Abteilung bei der European Aeronautic Defence and Space Company EADS in Friedrichshafen ist eine externe Studieneinrichtung der Bundeswehr, und hohe Militärs gehen hier ein und aus, um sich die Ergebnisse der Simulationen am Notebook-Computer anzusehen. Nicht nur Deutsche.

Sprecherin:
Kriegsspiele?

Sprecher:
Viel schwieriger, und nur mit Agententechnik in den Griff zu bekommen.

Schwarz:
"Es geht darum, ein Simulationsmodell zu entwickeln, wo Friedensmissionen der dt. Bundeswehr untersucht werden, Empfehlungen abgeleitet werden können, zum einen für das operative Vorgehen, aber auch für Materialeinsatz, Größenansätze, wie man in bestimmte Einsätze reingehen soll, und natürlich wie es sich dort zu verhalten ist.

Sie sehen ja, dass die Bundeswehr in vielen Auslandseinsätzen tätig ist, mit unterschiedlichsten Bedrohungen der asymetrischen Art zu tun hat, in all diesen Einsätzen auch mit Zivilbevölkerung zu tun hat. Und wir versuchen in unserem Modell hier insbesondere die Aggressionsentstehung bei der Zivilbevölkerung abzubilden, also unter welchen Rahmenbedingungen entsteht Aggression überhaupt, welche Aktionen wirken hier förderlich oder auch deeskalierend? Sehr wichtig sind diese Effects Based Operations, also: Wie kann ich bestimmte Effekte erzeugen? Wie kann ich erreichen, dass hier kein Aufruhr entsteht, in einer Situation, wo ich z.b. Wahlen in Afghanistan sichern muss? Wie kann ich erreichen, dass hier keine unterschiedlichen Gruppierungen aufeinander losgehen?"

Sprecherin:
Ganz anders als beim Kriegseinsatz, wo’s ein Schlachtfeld gibt und in Einheiten von Vernichtung und Abnutzung abgerechnet wird.

Sprecher:
Und nicht in Einheiten von Angst und Hunger und Panik von Individuen.

Schwarz:
"Wenn Sie verschiedene ethnische Gruppierungen modellieren wollen – der einfachste Fall könnte sein, dass die Persönlichkeitsparameter der Agenten unterschiedlich belegt sind, dass z.b. unterschiedliche Normen gelten für die Anwendung von Gewalt. Dass die sich z.b. durch bestimmte Ereignisse schneller mal erregen lassen, dass sie hier ängstlich werden. In einem komplexeren Fall könnten Sie allerdings auch zusätzliche Eigenschaften der Agenten mitdefinieren, die Sie in der einen ethnischen Gruppe für wichtig halten, in der anderen nicht. "

Molser:
"Ideal wäre es natürlich, wenn Sie während solchen Ausschreitungen neben den Leuten her rennen und fragen könnten: Wie aggressiv sind Sie jetzt gerade? (Lachen) Sie merken schon, das geht nicht. Man muss sich also Dinge überlegen, wie man trotzdem erheben kann, wie es den Leuten während so einem Geschehnis ergangen ist.

Gut, man kann Interviews danach oder davor machen. Man kann versuchen, wie wir es eigentlich vorhaben, Videosequenzen auszuwerten, indem man die Personen, die da drin vorkommen, mit bestimmten psychologischen Parametern belegt, also alle auf dem Platz, und dann schaut, ob man den Verlauf des Geschehens vorhersagen kann. Gerade in diesem Bereich ist es extrem schwierig, eine Validierung hinzukriegen. Was natürlich auch geht, sind Expertenbefragungen. Es gibt den so genannten Turing-Test, indem man Daten mit der Simulation produziert und reale Daten hernimmt, und wenn die Experten das nicht unterscheiden können, dann sind wir gut."

Sprecherin:
Die Experten – hier die Militärs – sagen bestimmt in vielen Fällen: völliger Mist.

Sprecher:
Ja, aber in immer mehr Fällen sagen sie: Stimmt, haben wir genauso erlebt.

Sprecherin:
Und sagen sie auch: Ist ja interessant, probier’n wir gleich mal in Afghanistan aus!?

Sprecher:
Ein Test-Bed für die emotionalen Agenten gibt es noch nicht. Sie leben bislang nur im Rechner. Aber sie zeigen z.b. eindeutig, dass in einer esklarierenden Situation zwischen Zivilbevölkerung und Soldaten immer ratsam ist, mit dem Rädelsführer zu sprechen.

Sprecherin:
Wenn es einen gibt.

Sprecher:
Das können auch geistliche Oberhäupter oder Bürgermeister oder Dorf-Älteste sein. Auch wenn die Truppe mit ihnen spricht, ist eine Deeskalation nicht garantiert.

Sprecherin:
Die Agenten bleiben also auf Wut 10.

Sprecher:
… und auf Angst 10. Es gab auch schon Fälle, wo sie das alles nicht mehr interessiert und sie einfach weggehen.

Sprecherin:
… und dann auch nicht wählen.

Sprecher:
Also, Wahlszenarien, sehr komplex, auch was in den Agenten vor sich geht. Nicht immer ist die friedfertige Ghandi-Strategie der Soldaten die beste, wenn eine aggressive Gruppe eine andere an der Wahl hindern will.

Sprecherin:
Du gehst jetzt nicht wählen. Ich bin 8 aggressiv, und du?

Sprecher:
War gerade nur 2 aggressiv und 2 ängstlich, jetzt hab ich schon 5 Angst!

Sprecherin:
Wenn du hier reingehst, hau ich dich, und zwar mit 7.

Sprecher:
Mit 7 ist mir egal, ich geh jetzt ganz schnell mal rein.

Sprecherin:
Dann eben mit 8. Und nochmal mit 9, wenn du wieder rauskommst.

Sprecher:
Hat sich erübrigt, die Soldaten haben einen Panzer hingestellt. Nichts wie weg. Mit Angst 10.

Sprecherin:
Warum haben die nicht mit dem Rädelsführer geredet?

Sprecher:
Weil ich keinen Bock hatte, mit ihnen zu reden.

Schwarz:
"Wir haben abgebildet, dass z.b. ein Feldjäger einen Anführer einer bestimmten Zivilistengruppierung auffordern kann, den Marktplatz zu verlassen. Es ist dem Anführer der Zivilistengruppe freigestellt, darauf zu reagieren. Abhängig von bestimmten Rahmenbedingungen, z.b. seiner Kooperationswilligkeit mit den Soldaten wird er sich in die eine oder andere Richtung entscheiden. Es geht sogar noch weiter: Wenn Sie zwei Angehörige der gleichen Zivilistengruppe ansehen, dann kann hier sehr unterschiedliches Verhalten entstehen. Da können Angehörige einer Gruppierung sich passiv verhalten, während andere aggressiv auf eine andere Gruppierung losgehen."

Schmidt:
"Der entscheidende Fortschritt unserer Arbeiten liegt darin, dass wir unterschiedliche Motive miteinander kombinieren und vergleichen können, auch Motive, die auf ganz ganz unterschiedlichem Gebiet liegen: Wir können physiologische Motive vergleichen mit kognitiven und auch emotionalen. Dann stellen wir fest, welches Bedürfnis ist im Grunde das stärkste. Wichtig ist, dass die Zustände in der Zeit variieren, sie sind dynamisch. Das Motiv mit der größten Stärke wird handlungsleitend, und ich verhalte mich so, wie es diese Motivstärke von mir fordert.

Wenn wir ein dermaßen komplexes Gebilde haben, wo ein Faktor den anderen beeinflusst, und alles in komplexer Weise mit allem zusammenhängt, dann bedeutet es, wenn ein Faktor falsch läuft, läuft das ganze System falsch. Wenn die Dinge lose gekoppelt wären, kann man sagen, wenn das eine mal nicht so richtigt tickt, bleiben die anderen mehr oder weniger unberührt davon. Aber dem ist nicht so. Unsere Agenten sind genauso wie wir Menschen keine lose gekoppelten Systeme, sondern extrem eng gekoppelte Systeme."

Schwarz:
"Einerseits haben wir bei den Agenten die Freiheit im Verhalten. Ein Agent hat eigene Ziele, eigene Bewegungsmöglichkeiten, Aktionsmöglichkeiten, er ist frei in seinem Verhalten. Wenn er Nachrichten von einem einem anderen Agenten bekommt, steht es ihm frei, darüber zu entscheiden, wie er darauf reagieren will. Bei den technischen Dingen, die die Modellkonsistenz erfordern, haben Sie eine andere Ebene der Modellierung, wo Sie sicherstellen müssen, dass solche Vorgänge wie die Betroffenheit durch eine andere Aktion auch korrekt umgesetzt werden."

Schmidt:
"Der Soldat soll eben nicht machen können, was ihm gerade in den Kopf fällt, sondern er soll, abhängig von einer ganz bestimmten Situation in einer ganz bestimmten Weise – das muss man deutlich sagen: funktionieren. Das ist es, was an einem solchen Modell für die Soldaten geübt und ausprobiert werden kann. Das betrifft im Übrigen nicht nur die Soldaten. Wir haben ähnliche Dinge auch Mediziner in einem Krankenhaus getan. Auch das Krankenhauspersonal muss im Rahmen sich an bestimmte Regeln halten und nicht durchdrehen und auch nicht aggressiv reagieren, wenn sich ein Patient unmöglich aufführt oder das Heulen anfängt, wenn einen das Mitleid übermannt. Es gibt also eine Reihe von Rahmenbedingungen, die das persönliche Verhalten einschränken, klar."

Sprecherin:
Können denn die nicht weisungsgebundenen Agenten, also etwa das Wahlvolk oder die Aufständischen oder die Hungernden, die auf Nahrung warten – können die alles tun?

Sprecher:
Können wir denn alles tun?

Sprecherin:
Ich schon, du vielleicht nicht, du emotionaler, Schach spielender Agent mit diesem echt peinlichen Zug Springer D6.

Sprecher:
D7.

Schmidt:
"Unsere Agenten, so, wie wir sie modellieren, haben keinen freien Willen. Sie sind, verkürzt gesagt, determinierte Automaten im Descarteschen Sinne. Es sind determinierte Automaten, die immer das Gleiche tun, es sei denn, wir bauen den Zufall ein. Mit dem Einbau von Zufall würden wir nach außen hin den Anschein erwecken, als hätten diese Agenten freien Willen. Aber ich persönlich habe große Bedenken, den freien Willen in Zusammenhang mit Zufall zu setzen. Zufall ist etwas ganz anderes als freier Wille. Man kann, wenn man möchte, einen Agenten mit einem internen Zufallsgenerator versehen, der ihn so aussehen lässt, als hätte er sich jetzt frei entschieden. Aber das ist gemogelt."

Sprecher:
Kannst du eigentlich über dich selber nachdenken?

Sprecherin:
Ich schon, aber du nicht.

Schmidt:
"Das ist eine Fähigkeit, die den Menschen nun tatsächlich auszeichnet, dass er reflektiv operieren kann, dass er in der Lage ist, sich selber wahrzunehmen, dann eben auch seine emotionalen Zustände wahrzunehmen. Diese Fähigkeiten haben wir unserem Agenten, unserem Adam beigebracht. Das heißt, er kann sich selber beobachten und aufgrund der Information, die er über sich selber gewonnen hat, dementsprechend reagieren. Das Entscheidende ist, dass wir mit diesem Modell wirklich näher an den wirklichen Menschen heranrücken, wir unsere Modelle immer ein bisschen menschenähnlicher machen können."

Sprecherin:
Und Sigmund Freud?

Schmidt:
"Freud? Das ist doch harmlos. Gut, es sind drei Faktoren, die hier eine Rolle spielen: Das Ich, das Es und das Über-Ich. Das würden wir mit unseren Pax-Agenten mit der linken Hand nachspielen können. Haben Sie’s mal gemacht? Nö."

Sprecher:
Kann ich den Zug eigentlich zurücknehmen?

Sprecherin:
Springer D6?

Sprecher:
D7.

Sprecherin:
Nur wenn du lernst, mit mir Doppelpass zu spielen…

Das könnte sie auch interessieren

Entdecken Sie den Deutschlandfunk